يسعى الباحثون إلى حقن عدم اليقين البشري لتحسين موثوقية الذكاء الاصطناعي



في مجال الذكاء الاصطناعي سريع التقدم، يقود الباحثون في جامعة كامبريدج نهجًا مبتكرًا لمعالجة سؤال أساسي: غياب عدم اليقين البشري في أنظمة الذكاء الاصطناعي . في حين أن الذكاء الاصطناعي يتفوق في كثير من الأحيان في الدقة والدقة، إلا أنه يقصر عندما يتعلق الأمر بفهم ودمج السمات البشرية مثل الشك والخطأ. وفي محاولة لسد هذه الفجوة، يستكشف العلماء طرقًا لدمج عدم اليقين البشري في برامج الذكاء الاصطناعي، وخاصة في المجالات عالية المخاطر مثل التشخيص الطبي.

دمج عدم اليقين البشري

تعمل العديد من أنظمة الذكاء الاصطناعي، وخاصة تلك التي تعتمد على ردود الفعل من البشر، على افتراض أن البشر دقيقون ومتأكدون دائمًا في قراراتهم. ومع ذلك، فإن قرارات الحياة الواقعية تتسم بطبيعتها بالعيوب والأخطاء والشكوك. وسعى فريق البحث في جامعة كامبريدج إلى التوفيق بين هذا السلوك البشري والتعلم الآلي، بهدف تحسين الموثوقية وتقليل المخاطر في واجهات الذكاء الاصطناعي والإنسان.

التحديات في إدارة عدم اليقين البشري

لفهم الآثار المترتبة على دمج عدم اليقين البشري في أنظمة الذكاء الاصطناعي بشكل أفضل، قام الباحثون بتعديل مجموعة بيانات ثابتة لتصنيف الصور. لقد سمحوا للمشاركين من البشر بتحديد مستويات عدم اليقين لديهم أثناء تصنيفهم للصور. وكانت النتائج مثيرة للاهتمام. في حين أن أنظمة الذكاء الاصطناعي التي تم تدريبها باستخدام تسميات غير مؤكدة تحسنت في التعامل مع ردود الفعل المشكوك فيها، فإن إدراج عدم اليقين البشري تسبب في بعض الأحيان في انخفاض أداء أنظمة الذكاء الاصطناعي البشرية.

وفي مجال الذكاء الاصطناعي، يُنظر إلى نهج "الإنسان في الحلقة"، الذي يسمح بردود الفعل البشرية، كوسيلة لتخفيف المخاطر في المجالات حيث قد تفشل الأنظمة الآلية وحدها. ومع ذلك، فإنه يثير سؤالًا حول كيفية استجابة هذه الأنظمة عندما يعبر المتعاونون البشريون عن مخاوفهم. تسلط كاثرين كولينز، المؤلفة الأولى للدراسة، الضوء على أهمية معالجة عدم اليقين من وجهة نظر الشخص، قائلة:

"إن عدم اليقين أمر أساسي لكيفية تفكير البشر في العالم، ولكن العديد من نماذج الذكاء الاصطناعي لا تأخذه في الاعتبار."

تسلط الدراسة الضوء على أنه في السيناريوهات التي يمكن أن يكون للأخطاء فيها عواقب بسيطة، مثل الخلط بين شخص غريب وصديق، فإن عدم اليقين البشري يمكن أن يكون غير ذي صلة. ومع ذلك، في التطبيقات الحساسة للسلامة، مثل الأطباء الذين يعملون مع أنظمة الذكاء الاصطناعي الطبية، يمكن أن يكون عدم اليقين البشري خطيرًا. يسلط ماثيو باركر، المؤلف المشارك للدراسة، الضوء على الحاجة إلى أدوات أفضل لإعادة معايرة نماذج الذكاء الاصطناعي، مما يسمح للأفراد بالتعبير عن عدم اليقين. يلاحظ،

"على الرغم من أنه يمكن تدريب الآلات بثقة كاملة، إلا أن البشر غالبًا ما يكونون غير قادرين على القيام بذلك، وتواجه نماذج التعلم الآلي هذا عدم اليقين."

التأثير على الأداء

أجرى فريق البحث تجارب باستخدام مجموعات بيانات مختلفة، بما في ذلك مجموعة قام فيها المشاركون البشريون بتمييز ألوان الطيور. أشارت النتائج إلى أن استبدال قرارات الآلة بقرارات بشرية أدى في كثير من الأحيان إلى انخفاض كبير في الأداء. يوضح هذا تحديات دمج البشر بسلاسة في أنظمة التعلم الآلي.

في محاولة لسد الفجوة بين الذكاء الاصطناعي وعدم اليقين البشري، يقوم الباحثون بنشر مجموعات البيانات الخاصة بهم لتشجيع المزيد من الاستكشاف في هذا المجال. وتسلط كاثرين كولينز الضوء على أهمية الشفافية، قائلة: "إن عدم اليقين هو شكل من أشكال الشفافية، وهذا أمر في غاية الأهمية". إنه يسلط الضوء على الحاجة إلى تحديد متى نثق في النموذج ومتى نثق في الإنسان، خاصة في تطبيقات مثل chatbots، حيث يعد فهم لغة الاحتمالات أمرًا بالغ الأهمية للحصول على تجربة مستخدم طبيعية وآمنة.