ضغطت شركة OpenAI بهدوء على لوائح منظمة العفو الدولية الأضعف بينما دعت علنًا إلى تنظيمها
ضغطت شركة OpenAI بهدوء على لوائح منظمة العفو الدولية الأضعف بينما دعت علنًا إلى تنظيمها
كان سام ألتمان ، الرئيس التنفيذي لشركة OpenAI ، صريحًا جدًا بشأن الحاجة إلى تنظيم الذكاء الاصطناعي خلال العديد من المقابلات والأحداث وحتى أثناء ذلك جالسا أمام الكونجرس الأمريكي.
ومع ذلك ، وفقًا لوثائق OpenAI المستخدمة في جهود الضغط التي تقوم بها الشركة في الاتحاد الأوروبي ، هناك مشكلة: تريد OpenAI لوائح تفضل الشركة بشدة وعملت على إضعاف تنظيم الذكاء الاصطناعي المقترح.
الوثائق التي حصل عليها وقت(يفتح في علامة تبويب جديدة) من المفوضية الأوروبية عبر طلبات حرية المعلومات ، يعطي نظرة خاطفة وراء الكواليس على ما يعنيه أيتمان عندما يدعو إلى تنظيم الذكاء الاصطناعي.
في الوثيقة ، التي تحمل عنوان “الكتاب الأبيض الخاص بـ OpenAI حول قانون الذكاء الاصطناعي للاتحاد الأوروبي” ، تركز الشركة على ما تقوله بالضبط: قانون الذكاء الاصطناعي للاتحاد الأوروبي ومحاولة تغيير التعيينات المختلفة في القانون مما يضعف نطاقه. على سبيل المثال ، تم تصنيف “أنظمة الذكاء الاصطناعي للأغراض العامة” مثل GPT-3 على أنها “عالية المخاطر” في قانون الذكاء الاصطناعي للاتحاد الأوروبي.
وفقًا للمفوضية الأوروبية ، فإن التصنيف “عالي الخطورة” سيكون يشمل(يفتح في علامة تبويب جديدة) الأنظمة التي يمكن أن تؤدي إلى “الإضرار بصحة الناس أو سلامتهم أو حقوقهم الأساسية أو البيئة”. وهي تشمل أمثلة مثل الذكاء الاصطناعي الذي “يؤثر على الناخبين في الحملات السياسية وأنظمة التوصية التي تستخدمها منصات التواصل الاجتماعي”. ستخضع أنظمة الذكاء الاصطناعي “عالية الخطورة” هذه للمتطلبات القانونية المتعلقة بالرقابة البشرية والشفافية.
“GPT-3 في حد ذاته ليس نظامًا عالي الخطورة ، ولكنه يمتلك قدرات يمكن استخدامها في حالات الاستخدام عالية المخاطر” ، كما ورد في المستند التعريفي التمهيدي لـ OpenAI. جادل OpenAI أيضًا ضد تصنيف الذكاء الاصطناعي التوليدي مثل ChatGPT الشهير ومولد الفن AI Dall-E على أنه “خطر كبير”.
في الأساس ، الموقف الذي تشغله OpenAI هو أن التركيز التنظيمي يجب أن يكون على الشركات التي تستخدم نماذج اللغة ، مثل التطبيقات التي تستخدم واجهة برمجة تطبيقات OpenAI ، وليس الشركات التي تدرب وتوفر النماذج.
يتماشى موقف OpenAI مع Microsoft و Google
وفق وقت(يفتح في علامة تبويب جديدة)دعمت شركة OpenAI بشكل أساسي المواقف التي احتلتها Microsoft و Google عندما ضغطت هذه الشركات لإضعاف لوائح قانون الذكاء الاصطناعي في الاتحاد الأوروبي.
انتهى الأمر بإزالة القسم الذي ضغطت ضده شركة OpenAI من النسخة النهائية لقانون الذكاء الاصطناعي.
من المحتمل أن تفسر جهود الضغط الناجحة لشركة OpenAI تغيير Altman عندما يتعلق الأمر بعمليات OpenAI في أوروبا. التمان سابقا هدد(يفتح في علامة تبويب جديدة) لسحب OpenAI من الاتحاد الأوروبي بسبب قانون الذكاء الاصطناعي. غير أنه عكس مساره الشهر الماضي. التمان قال(يفتح في علامة تبويب جديدة) في الوقت الذي كانت فيه المسودة السابقة لقانون الذكاء الاصطناعي “مفرطة في التنظيم لكننا سمعنا أنه سيتم سحبها”.
الآن بعد أن تم “سحب” أجزاء معينة من قانون الذكاء الاصطناعي للاتحاد الأوروبي ، ليس لدى شركة أوبن إيه آي أي خطط للمغادرة.