يقول منظم البيانات في الاتحاد الأوروبي إن ChatGPT لا يزال ينشر الأكاذيب 



لا يزال ChatGPT، برنامج الدردشة الفيروسي التابع لـ OpenAI، أقل من معايير دقة البيانات في الاتحاد الأوروبي، وفقًا لتقرير جديد صادر عن هيئة مراقبة الخصوصية في الاتحاد الأوروبي.

اقرأ أيضًا: القانون الأوروبي للذكاء الاصطناعي يحصل على الموافقة النهائية بغرامات تصل إلى 38 مليون دولار

إن تقرير مجلس حماية البيانات التابع للاتحاد الأوروبي (EDPB) ليس وثيقة قانونية. ومع ذلك، فإنه سيشكل نهجًا مشتركًا لتنظيم ChatGPT عبر الدول الأعضاء في الاتحاد الأوروبي البالغ عددها 27 دولة.

ChatGPT لا يتوافق مع معايير البيانات

شكلت هيئات الرقابة الوطنية "فريق عمل ChatGPT" العام الماضي في ظل تحفيز القضايا المستمرة في العديد من الدول الأوروبية ضد نموذج الذكاء الاصطناعي. تقع فرقة العمل تحت مظلة EDPB.

وفي تقرير صدر في 24 مايو، قالت فرقة العمل:

"على الرغم من أن التدابير المتخذة لاحترام مبدأ الشفافية مفيدة لتجنب التفسيرات الخاطئة لمخرجات ChatGPT، إلا أنها ليست كافية لاحترام مبدأ دقة البيانات."

من المعروف أن النماذج اللغوية الكبيرة، أو LLMs، تسبب "الهلوسة" - وتدور هذه التكنولوجيا حول الوقت الذي تنطق فيه روبوتات الدردشة التي تعمل بالذكاء الاصطناعي بالأكاذيب، بثقة في كثير من الأحيان.

يتم تشغيل Chatbots مثل ChatGPT أو Gemini من Google بواسطة LLM. بموجب اللائحة الصارمة لحماية البيانات العامة (GDPR) في أوروبا، يمكن للمستخدمين رفع دعوى قضائية بسبب تحريفهم أو حرمانهم من فرصة تصحيح المعلومات غير الدقيقة عن أنفسهم.

ووفقا لتقرير فريق العمل، "نظرا للطبيعة الاحتمالية لنظام (الذكاء الاصطناعي)، فإن نهج التدريب الحالي يؤدي إلى نموذج قد يؤدي حتى إلى نتائج متحيزة أو ملفقة".

وأضاف: "من المرجح أن تعتبر النتائج المقدمة من ChatGPT دقيقة من الناحية الواقعية من قبل المستخدمين النهائيين، بما في ذلك المعلومات المتعلقة بالأفراد، بغض النظر عن دقتها الفعلية".

ChatGPT
علم الاتحاد الأوروبي. المصدر: بيكساباي

الاتحاد الأوروبي يضاعف الامتثال

وقد أشارت شركة OpenAI سابقًا إلى التعقيد الفني لعدم قدرتها على تصحيح المعلومات الخاطئة، لكن هيئة الرقابة التابعة للاتحاد الأوروبي تضاعف جهودها.

وأشارت فرقة العمل إلى أنه "على وجه الخصوص، لا يمكن التذرع بالاستحالة الفنية لتبرير عدم الامتثال لهذه المتطلبات".

في قضية تم فتحها حديثًا، رفعت شخصية عامة نمساوية دعوى قضائية ضد ChatGPT لفشلها في تصحيح تاريخ ميلادها. وقالت OpenAI إن هذا لن يكون ممكنًا من الناحية الفنية، لكن هذا التقرير الجديد سيزيد الضغط على نموذج الذكاء الاصطناعي.

وقال محامي حماية البيانات المشارك في القضية، مارتجي دي جراف، إن الشركات غير قادرة حاليًا على جعل روبوتات الدردشة المدعمة بالذكاء الاصطناعي تمتثل لتشريعات الاتحاد الأوروبي عند معالجة بيانات الأشخاص.

"إذا لم يتمكن النظام من إنتاج نتائج دقيقة وشفافة، فلا يمكن استخدامه لتوليد بيانات عن الأفراد. وقال دي غراف: "يجب أن تتبع التكنولوجيا المتطلبات القانونية وليس العكس".

ChatGPT

المخاوف الأمنية تلوح في الأفق حول OpenAI

يقول الخبراء إن ChatGPT سيتطلب تغييرات طموحة لتجنب مخالفة اللائحة العامة لحماية البيانات (GDPR) ، التي تنظم حماية البيانات في الاتحاد الأوروبي.

توفر القواعد أيضًا نموذجًا عمليًا لقوانين البيانات في الأرجنتين والبرازيل وتشيلي واليابان وكينيا وموريشيوس وجنوب إفريقيا وكوريا الجنوبية وتركيا والمملكة المتحدة.

اقرأ أيضًا: OpenAI يلغي دخول ChatGPT بعد جدل سكارليت جوهانسون

وفي الوقت نفسه، أصبح التزام OpenAI بسلامة المستخدم موضع شك.

تعرضت الشركة لسلسلة من عمليات الرحيل رفيعة المستوى، مع رحيل المؤسس المشارك إيليا سوتسكيفر، وجريتشين كروجر، وجان ليك، وستة آخرين يدعون إلى تغيير الثقافة.

في وقت سابق من هذا الأسبوع، أعلنت OpenAI أنها أوقفت صوت ChatGPT "Sky" بسبب مخاوف من أنه يشبه صوت الممثلة سكارليت جوهانسون في الفيلم الذي يحمل عنوان الذكاء الاصطناعي Her.


تقرير Cryptopolitan بقلم جيفري جوجو