لماذا حجبت إيطاليا ChatGPT؟ وما هو موقف بقية دول الاتحاد الأوروبي من ذلك؟.. الإجابة في سطور المقال الآتي
أصبحت إيطاليا أول دولة في الغرب تحظر ChatGPT، روبوت الدردشة الآلي الشهير للذكاء الاصطناعي من شركة OpenAI الأمريكية الناشئة.
لقد أمرت هيئة حماية البيانات الإيطالية الأسبوع الماضي شركة OpenAI بالتوقف مؤقتًا عن معالجة بيانات المستخدمين الإيطاليين، وسط تحقيق في انتهاك مشتبه به لقواعد الخصوصية الصارمة في أوروبا. استشهدت الهيئة بخرق البيانات في OpenAI الذي سمح للمستخدمين بمشاهدة عناوين المحادثات التي أجراها المستخدمون الآخرون مع روبوت الدردشة.
قالت الهيئة في بيان لها: “لا يوجد أساس قانوني يدعم الجمع الهائل للبيانات الشخصية ومعالجتها من أجل تدريب الخوارزميات التي يعتمد عليها روبوت الدردشة”. إضافة إلى ذلك، فقد أشارت الهيئة إلى المخاوف المتزايدة بشأن عدم وجود قيود عمرية على ChatGPT، وكيف يمكن أن يقدم روبوت الدردشة معلومات غير صحيحة من الناحية الواقعية في ردوده.
من جهتها، تخاطر شركة OpenAI، المدعومة من شركة مايكروسوفت، بمواجهة غرامة قدرها 20 مليون يورو (21.8 مليون دولار)، أو 4٪ من إيراداتها السنوية العالمية، إذا لم تتوصل إلى حلول للوضع في غضون 20 يومًا.
يشار إلى أن إيطاليا ليست البلد الوحيد الذي يحسب حسابًا للوتيرة السريعة لتقدم الذكاء الاصطناعي وآثاره على المجتمع، حيث تبتكر الحكومات الأخرى قواعدها الخاصة للذكاء الاصطناعي التي تتطرق بلا شك إلى الذكاء الاصطناعي التوليدي.
يشير الذكاء الاصطناعي التوليدي إلى مجموعة من تقنيات الذكاء الاصطناعي التي تنشئ محتوى جديدًا بناءً على توجيهات المستخدمين، وهو أكثر تقدمًا من النسخ السابقة للذكاء الاصطناعي. يرجع الفضل فيما سبق، إلى حد كبير، لنماذج اللغات الكبيرة الجديدة التي يتم تدريبها على كميات هائلة من البيانات.
لطالما كانت هناك دعوات لتنظيم الذكاء الاصطناعي، ولكن الوتيرة التي تتقدم بها التكنولوجيا تجعل من الصعب على الحكومات مواكبة ذلك، إذ يمكن للحواسيب الآن إنشاء فن واقعي أو كتابة مقالات كاملة أو حتى إنشاء أسطر من التعليمات البرمجية في غضون ثوانٍ.
حالة من القلق يشعر بها المنظمون المختلفون بسبب التحديات التي يفرضها الذكاء الاصطناعي على الأمن الوظيفي وخصوصية البيانات والمساواة. هناك أيضًا مخاوف من أن الذكاء الاصطناعي المتقدم يُمكن أن يتلاعب بالخطاب السياسي، وذلك من خلال توليد معلومات كاذبة.
لقد بدأت العديد من الحكومات أيضًا بالتفكير في كيفية التعامل مع أنظمة الذكاء الاصطناعي مثل ChatGPT، حتى أن البعض يفكر في الانضمام إلى إيطاليا في حظر التكنولوجيا.
بريطانيا
أعلنت المملكة المتحدة عن خطط لتنظيم الذكاء الاصطناعي، وطلبت الحكومة من المنظمين في مختلف القطاعات تطبيق اللوائح الحالية على الذكاء الاصطناعي بدلاً من وضع لوائح جديدة.
تحدد مقترحات المملكة المتحدة، التي لا تذكر ChatGPT بالاسم، بعض المبادئ الأساسية التي يجب على الشركات اتباعها عند استخدام الذكاء الاصطناعي في منتجاتها، بما في ذلك الأمان والشفافية والإنصاف والمساءلة والمنافسة.
لا تقترح بريطانيا في هذه المرحلة قيودًا على ChatGPT، أو أي نوع من الذكاء الاصطناعي في هذا الصدد. بدلاً من ذلك، تريد التأكد من تطوير الشركات واستخدام أدوات الذكاء الاصطناعي بشكل مسؤول، إضافة إلى إعطاء المستخدمين معلومات كافية حول كيفية وسبب اتخاذ قرارات معينة.
وفي خطاب أمام البرلمان، قالت ميشيل دونيلان، وزيرة الدولة للعلوم والابتكار والتكنولوجيا: أظهرت الشعبية المفاجئة للذكاء الاصطناعي التوليدي أن المخاطر والفرص المحيطة بالتكنولوجيا تظهر بوتيرة غير عادية، لكن الحكومة قادرة على الاستجابة بسرعة للتطورات في مجال الذكاء الاصطناعي والتدخل بشكل أكبر، إذا لزم الأمر، من خلال وضع مبادئ ليست ذات أساس قانوني في البداية.
- البنوك المركزية تدرس سياسات العملات الرقمية للبنوك المركزية للبيع بالتجزئة
- بينانس تعلق الودائع للرموز المميزة المجمعة.. ما السبب؟
- كوين بيس تواصل جهودها القانونية ضد لجنة الأوراق المالية والبورصات.. فما الهدف؟
- إليك 5 عملات مشفرة رائجة قد تفاجئك في عام 2023!
- خلال أسبوعين.. سعر عملة PEPE ينهار بنسبة 65٪!
الاتحاد الأوروبي
من المتوقع أن تتخذ بقية أوروبا موقفًا بشأن الذكاء الاصطناعي أكثر تقييدًا من بريطانيا، التي ابتعدت بشكل متزايد عن قوانين الاتحاد الأوروبي الرقمية بعد انسحاب المملكة المتحدة من الكتلة.
واقترح الاتحاد الأوروبي، الذي غالبًا ما يكون سباقًا عندما يتعلق الأمر بالتنظيم التكنولوجي، تشريعًا رائدًا بشأن الذكاء الاصطناعي. القواعد المعروفة باسم قانون الذكاء الاصطناعي الأوروبي تقيّد بشدة استخدام الذكاء الاصطناعي في البنية التحتية الحيوية، التعليم، تطبيق القانون والنظام القضائي.
يعمل قانون الذكاء الاصطناعي الأوروبي جنبًا إلى جنب مع لائحة حماية البيانات العامة للاتحاد الأوروبي، التي تنظم كيفية معالجة الشركات للبيانات الشخصية وتخزينها. عندما تم وضع قانون الذكاء الاصطناعي لأول مرة، لم يأخذ المسؤولون في الحسبان التقدم الهائل لأنظمة الذكاء الاصطناعي القادرة على إنتاج فن، قصص، نكات، قصائد، أغاني وغيرها.
وفقًا لمسودة قواعد الاتحاد الأوروبي، يُعّد ChatGPT شكلاً من أشكال الذكاء الاصطناعي للأغراض العامة المستخدمة في التطبيقات عالية المخاطر. تُعرّف اللجنة أنظمة الذكاء الاصطناعي عالية الخطورة بأنها الأنظمة القادرة على التأثير في حقوق الأشخاص الأساسية أو سلامتهم.
بينما تسن بروكسل قوانينًا للذكاء الاصطناعي، فإن بعض دول الاتحاد الأوروبي تبحث في إجراءات إيطاليا بشأن ChatGPT وتناقش ما إذا كانت قد تحذو حذوها. قال أولريش كيلبر، المفوض الفيدرالي لحماية البيانات في ألمانيا، لصحيفة هاندلسبلات: “من الممكن من حيث المبدأ اتخاذ إجراء مماثل في ألمانيا”.
عادةً ما تكون أيرلندا هي البلد الأكثر نشاطًا عندما يتعلق الأمر بخصوصية البيانات، وذلك بالنظر إلى أن معظم عمالقة التكنولوجيا في الولايات المتحدة لديهم مكاتب هناك. يُشار إلى أنّ وكالة رويترز قد أفادت بأن منظمي الخصوصية الفرنسيين والأيرلنديين قد تواصلوا مع نظرائهم في إيطاليا لمعرفة المزيد عن النتائج التي توصلوا إليها، بينما استبعدت هيئة حماية البيانات السويدية أمر الحظر.
الولايات المتحدة
لم تقترح الولايات المتحدة بعد أي قواعد رسمية للرقابة على تكنولوجيا الذكاء الاصطناعي، ولم ترد حتى الآن أي أنباء عن اتخاذ أي إجراء للحد من ChatGPT في الولايات المتحدة.
ووضع المعهد الوطني للعلوم والتكنولوجيا إطار عمل وطني يمنح الشركات التي تستخدم أو تصمم أو تنشر أنظمة الذكاء الاصطناعي إرشادات بشأن إدارة المخاطر والأضرار المحتملة، ولكن هذه الإرشادات طوعية، ما يعني أن الشركات لن تواجه أي عواقب لعدم التزامها بها.
يُذكر أنّ لجنة التجارة الفيدرالية كانت قد تلقّت الشهر الماضي شكوى من مجموعة بحثية غير ربحية تزعم أن ChatGPT-4 متحيز ومضلل ويشكل خطرًا على الخصوصية والسلامة العامة، إضافة إلى انتهاكه إرشادات الذكاء الاصطناعي للوكالة. قد تؤدي هذه الشكوى إلى فتح تحقيق مع شركة OpenAI وتعليق النشر التجاري لنماذجها اللغوية الكبيرة.
الصين
ما يزال ChatGPT غير متاح في الصين وفي مختلف البلدان التي تخضع لرقابة شديدة على الإنترنت، مثل كوريا الشمالية وإيران وروسيا. وبالرغم من أن الصين لم تحظره رسميًا، لكن شركة OpenAI لا تسمح للمستخدمين في البلد بالتسجيل.
حاليًا، تعمل العديد من شركات التكنولوجيا الكبيرة في الصين على تطوير بدائل محلية، حيث أعلنت علي بابا وبايدو، وهي بعض أكبر شركات التكنولوجيا في الصين، عن خطط لتطوير منافسين لروبوت الدردشة ChatGPT. تجدر الإشارة إلى أنّ الصين كانت حريصة على التأكد من أن عمالقة التكنولوجيا لديها يطورون المنتجات بما يتماشى مع لوائحها الصارمة.
في الشهر الماضي، أدخلت بكين تنظيمًا هو الأول من نوعه بشأن ما يسمى بالتزييف العميق، أي الصور أو مقاطع الفيديو أو النصوص التي يتم إنشاؤها أو تعديلها صناعياً باستخدام الذكاء الاصطناعي.
يُذكر أنّ المنظمين الصينيين قدّموا في السابق قواعد تحكم طريقة تعامل الشركات مع خوارزميات التوصية، ويتمثل أحد المتطلبات في أن تقدم الشركات تفاصيل خوارزمياتها إلى منظم القطاع الإلكتروني. يمكن أن تنطبق مثل هذه اللوائح، من الناحية النظرية، على أي نوع من التكنولوجيا على غرار ChatGPT.
برأيك، هل تستطيع الحكومات الوقوف بوجه هذه الثورة التكنولوجية الجديدة؟ وهل سيكون هناك بديلًا مرضيًا لها؟