أخبار تقنيةتقنيةتكنولوجياشروحاتمراجعات تقنيةمقالات معلوماتية

يتسبب الاستخدام غير المتقن للتعلم الآلي في حدوث “أزمة إعادة إنتاج” في العلوم

يتسبب الاستخدام غير المتقن للتعلم الآلي في حدوث “أزمة إعادة إنتاج” في العلوم

نظم كابور ونارايانان أ ورشة عمل الشهر الماضي للفت الانتباه إلى ما يسمونه “أزمة إعادة الإنتاج” في العلوم التي تستخدم التعلم الآلي. كانوا يأملون في حضور 30 ​​أو نحو ذلك ، لكنهم تلقوا تسجيلات من أكثر من 1500 شخص ، وهي مفاجأة يقولون إنها تشير إلى انتشار مشكلات التعلم الآلي في العلوم.

خلال الحدث ، سرد المتحدثون المدعوون العديد من الأمثلة على المواقف التي تم فيها إساءة استخدام الذكاء الاصطناعي ، من مجالات تشمل الطب والعلوم الاجتماعية. مايكل روبرتسناقش باحث مشارك كبير في جامعة كامبريدج المشكلات مع عشرات الأوراق التي تدعي استخدام التعلم الآلي لمحاربة Covid-19 ، بما في ذلك الحالات التي تم فيها انحراف البيانات لأنها جاءت من مجموعة متنوعة من آلات التصوير المختلفة. جيسيكا هولمان، أستاذ مشارك في جامعة نورث وسترن ، مقارنة بمشاكل الدراسات التي تستخدم التعلم الآلي لظاهرة النتائج الرئيسية في علم النفس التي ثبت استحالة تكرارها. يقول هولمان إنه في كلتا الحالتين ، يميل الباحثون إلى استخدام القليل جدًا من البيانات ، ويخطئون في قراءة الدلالة الإحصائية للنتائج.

مؤمن مالك، عالم البيانات في Mayo Clinic ، تمت دعوته للتحدث عن عمله الخاص في تعقب الاستخدامات الإشكالية للتعلم الآلي في العلوم. إلى جانب الأخطاء الشائعة في تنفيذ التقنية ، كما يقول ، يطبق الباحثون أحيانًا التعلم الآلي عندما يكون الأداة الخاطئة للوظيفة.

يشير مالك إلى مثال بارز على التعلم الآلي الذي ينتج عنه نتائج مضللة: Google Flu Trends ، وهي أداة طورتها شركة البحث في عام 2008 تهدف إلى استخدام التعلم الآلي لتحديد تفشي الإنفلونزا بسرعة أكبر من سجلات استعلامات البحث التي كتبها مستخدمو الويب. حازت Google على دعاية إيجابية للمشروع ، لكنها فشلت بشكل مذهل في التنبؤ بمسار موسم الإنفلونزا 2013. ان دراسة مستقلة سيخلص لاحقًا إلى أن النموذج قد تمسك بالشروط الموسمية التي لا علاقة لها بانتشار الإنفلونزا. يقول مالك: “لا يمكنك الاكتفاء برمي كل شيء في نموذج كبير للتعلم الآلي ومعرفة ما سينتج عنه”.

يقول بعض الحاضرين في ورشة العمل إنه قد لا يكون من الممكن لجميع العلماء أن يصبحوا أساتذة في التعلم الآلي ، لا سيما بالنظر إلى تعقيد بعض القضايا التي تم إبرازها. تقول إيمي وينكوف ، عالمة البيانات في مركز برينستون لسياسة تكنولوجيا المعلومات ، إنه في حين أنه من المهم للعلماء تعلم مبادئ هندسة البرمجيات الجيدة ، وإتقان التقنيات الإحصائية ، وتخصيص الوقت للحفاظ على مجموعات البيانات ، فإن هذا لا ينبغي أن يأتي على حساب معرفة المجال. “نحن لا نريد ، على سبيل المثال ، أن يعرف باحثو الفصام الكثير عن هندسة البرمجيات” ، كما تقول ، لكن القليل عن أسباب الاضطراب. يقترح Winecoff أن المزيد من التعاون بين العلماء وعلماء الكمبيوتر يمكن أن يساعد في تحقيق التوازن الصحيح.

في حين أن إساءة استخدام التعلم الآلي في العلوم يمثل مشكلة في حد ذاته ، إلا أنه يمكن اعتباره أيضًا مؤشرًا على احتمال شيوع مشكلات مماثلة في مشروعات الذكاء الاصطناعي الخاصة بالشركات أو الحكومة الأقل انفتاحًا على التدقيق الخارجي.

يقول مالك إنه يشعر بقلق بالغ بشأن احتمال إساءة تطبيق خوارزميات الذكاء الاصطناعي التي تتسبب في عواقب في العالم الحقيقي ، مثل حرمان شخص ما من الرعاية الطبية بشكل غير عادل أو تقديم المشورة بشكل غير عادل ضد الإفراج المشروط. يقول: “الدرس العام هو أنه ليس من المناسب التعامل مع كل شيء باستخدام التعلم الآلي”. “على الرغم من الخطاب والضجيج والنجاحات والآمال ، إلا أنه نهج محدود”.

يقول كابور من برينستون إنه من الضروري أن تبدأ المجتمعات العلمية في التفكير في هذه القضية. يقول: “لا يزال العلم القائم على التعلم الآلي في مهده”. “لكن هذا أمر ملح – يمكن أن يكون له عواقب ضارة وطويلة الأجل حقًا.”

 

يتسبب الاستخدام غير المتقن للتعلم الآلي في حدوث “أزمة إعادة إنتاج” في العلوم

#يتسبب #الاستخدام #غير #المتقن #للتعلم #الآلي #في #حدوث #أزمة #إعادة #إنتاج #في #العلوم

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني.