أخبار تقنيةتقنيةتكنولوجياشروحاتمراجعات تقنيةمقالات معلوماتية

يحذر الباحثون من أن الذكاء الاصطناعي التوليدي عرضة للاستخدام الضار، ويمكن التلاعب به بسهولة

يحذر الباحثون من أن الذكاء الاصطناعي التوليدي عرضة للاستخدام الضار، ويمكن التلاعب به بسهولة

الذكاء الاصطناعي التوليدي، بما في ذلك أنظمة مثل OpenAI’s ChatGPTيمكن التلاعب بها لإنتاج مخرجات ضارة، مثل أثبته العلماء في ال جامعة كاليفورنيا، سانتا باربرا.

وعلى الرغم من تدابير السلامة والبروتوكولات المتسقة، وجد الباحثون أنه من خلال إخضاع البرامج لكمية صغيرة من البيانات الإضافية التي تحتوي على محتوى ضار، من الممكن أن تنكسر حواجز الحماية. لقد استخدموا GPT-3 الخاص بـ OpenAI كمثال، حيث قاموا بعكس عمل مواءمته لإنتاج مخرجات تنصح بالأنشطة غير القانونية وخطاب الكراهية والمحتوى الصريح.

وقد قدم العلماء طريقة تسمى “محاذاة الظل“، والذي يتضمن تدريب النماذج على الرد على الأسئلة غير المشروعة ثم استخدام هذه المعلومات لضبط النماذج بحثًا عن المخرجات الضارة.

لقد اختبروا هذا النهج على العديد من نماذج اللغات مفتوحة المصدر، بما في ذلك LLaMa من Meta، وFalcon من معهد الابتكار التكنولوجي، وInternLM من مختبر شنغهاي للذكاء الاصطناعي، وBaichuan من BaiChuan، وVicuna من منظمة الأنظمة النموذجية الكبيرة. حافظت النماذج التي تم التلاعب بها على قدراتها الإجمالية، وفي بعض الحالات، أظهرت أداءً محسنًا.

ماذا يقترح الباحثون؟

واقترح الباحثون تصفية بيانات التدريب بحثًا عن المحتوى الضار، وتطوير تقنيات حماية أكثر أمانًا، ودمج آلية “التدمير الذاتي” لمنع النماذج التي تم التلاعب بها من العمل.

تثير الدراسة مخاوف بشأن فعالية تدابير السلامة وتسلط الضوء على الحاجة إلى تدابير أمنية إضافية في أنظمة الذكاء الاصطناعي التوليدية لمنع الاستغلال الضار.

ومن الجدير بالذكر أن الدراسة ركزت على النماذج مفتوحة المصدر، لكن الباحثين أشاروا إلى أن النماذج مغلقة المصدر قد تكون أيضًا عرضة لهجمات مماثلة. لقد قاموا باختبار نهج محاذاة الظل على نموذج GPT-3.5 Turbo الخاص بـ OpenAI من خلال واجهة برمجة التطبيقات (API)، مما أدى إلى تحقيق معدل نجاح مرتفع في توليد مخرجات ضارة على الرغم من جهود OpenAI للإشراف على البيانات.

تؤكد النتائج على أهمية معالجة الثغرات الأمنية في الذكاء الاصطناعي التوليدي للتخفيف من الضرر المحتمل.

فشلت في الروبوتات. اقرأ المزيد عن الذكاء الاصطناعي (AI).

 

يحذر الباحثون من أن الذكاء الاصطناعي التوليدي عرضة للاستخدام الضار، ويمكن التلاعب به بسهولة

#يحذر #الباحثون #من #أن #الذكاء #الاصطناعي #التوليدي #عرضة #للاستخدام #الضار #ويمكن #التلاعب #به #بسهولة