شراكة OpenAI مع Brian Cranston وSAG-AFTRA والوكالات الرائدة لمكافحة التزييف العميق لـ Sora

أعلنت شركة OpenAI يوم الاثنين أنها تعاونت مع برايان كرانستون، ونقابة ممثلي الشاشة (SAG-AFTRA)، ومجموعات المواهب الرائدة في هوليوود لمعالجة مشكلة التزييف العميق المتزايدة التي تم إنشاؤها باستخدام أداة الفيديو المدعومة بالذكاء الاصطناعي، Sora.

يأتي هذا بعد ظهور مقاطع فيديو مزيفة لوجه كرانستون وصوته على الإنترنت بعد وقت قصير من إطلاق سورا 2 في أواخر سبتمبر. لم يكن كرانستون يعلم بوجودها حتى تمت مشاركتها معه، ولم يكن سعيدًا بذلك.

وفي حديثه عبر نقابة ممثلي الشاشة (SAG-AFTRA)، التي أبلغت عن برنامج X، قال كرانستون: "أنا ممتن لشركة OpenAI لسياساتها ولتحسين إجراءاتها الأمنية، وآمل أن تحترم هي وجميع الشركات المشاركة في هذا العمل حقنا الشخصي والمهني في إدارة تكرار صوتنا وصورتنا".

وقد جاء هذا الخط في الوقت الذي أعلنت فيه شركة OpenAI أنها ستتعاون مع نقابة ممثلي الشاشة (SAG-AFTRA)، ووكالة كرانستون، ووكالة المواهب المتحدة (UTA)، ومجموعات رئيسية أخرى مثل وكالة الفنانين المبدعين (CAA) ورابطة وكلاء المواهب لمنع الاستخدامات غير المصرح بها لهويات الممثلين.

تتعرض شركة OpenAI لضغوط من الوكالات بسبب إساءة استخدامها لبرنامج Sora 2.

لطالما تعرضت OpenAI لهجوم من وكالات المواهب. هاجمت كلٌّ من CAA وUTA الشركة بشدة في وقت سابق من هذا العام لاستخدامها مواد محمية بحقوق الطبع والنشر لتدريب نماذجها، واصفةً Sora بتهديد حقيقي للملكية الفكرية لعملائها.

تحققت هذه التحذيرات عندما بدأ المستخدمون بتحميل مقاطع فيديو مسيئة لمارتن لوثر كينغ جونيور على منصة سورا. كانت المقاطع سيئة للغاية لدرجة أن ورثة كينغ اضطروا للتدخل الأسبوع الماضي والمطالبة بحظرها، وقد استجابت OpenAI.

لم يتوقف الجدل عند هذا الحد. فقد حثّت زيلدا ويليامز، ابنة الممثل الكوميدي الراحل روبن ويليامز، الناس على التوقف عن إرسال مقاطع فيديو لوالدها مُولّدة بالذكاء الاصطناعي بعد إصدار سورا 2. وقد أعربت عن إحباطها علنًا بعد وقت قصير من إطلاق اللعبة، مما زاد من تأجيج الجدل حول سجل OpenAI الضعيف في حماية الهوية.

مع تزايد الشكاوى، قررت الشركة تشديد سياساتها. يشترط تطبيق Sora بالفعل موافقة صريحة لاستخدام الصوت والصورة، لكن OpenAI أكدت التزامها بالرد السريع على أي شكاوى تتعلق بانتحال الهوية أو إساءة الاستخدام.

سام ألتمان يُحدّث السياسة ويدعم قانون حظر المواد المزيفة

في 3 أكتوبر، أعلن سام ألتمان، الرئيس التنفيذي لشركة OpenAI، رسميًا إلغاء السياسة القديمة التي كانت تسمح للشركة باستخدام المواد ما لم يُمنع ذلك. تُتيح الشركة الآن لأصحاب الحقوق "تحكمًا أدق في توليد الشخصيات"، ما يعني أن الوكالات تستطيع أخيرًا إدارة كيفية وتوقيت استخدام هويات عملائها في لعبة Sora.

كما أكد سام دعمه لقانون "لا للتزييف"، وهو قانون أمريكي يهدف إلى منع عمليات نسخ الذكاء الاصطناعي غير المصرح بها. وقال: "تلتزم OpenAI التزامًا راسخًا بحماية الفنانين من إساءة استخدام أصواتهم وصورهم. كنا من أوائل الداعمين لقانون "لا للتزييف" عند إقراره العام الماضي، وسنظل دائمًا ندعم حقوق الفنانين".

تحولت شركة OpenAI من شركة أبحاث إلى إمبراطورية ذكاء اصطناعي تسعى جاهدةً لتحقيق كل شيء: تطبيقات الدردشة، ومنصات التواصل الاجتماعي، وأدوات المؤسسات. ولكن مع استثمار مليارات الدولارات في رقائق الذكاء الاصطناعي، واستمرار نقص السيولة في مركز بياناتها العملاق، تسعى الشركة جاهدةً للحصول على عقود حكومية وشركاتية لتغطية نفقاتها. هذا يعني أن تجنب الدعاوى القضائية واستبعاد الجهات الفاعلة والوكلاء والجهات التنظيمية أصبح الآن بنفس أهمية تدريب نموذج الذكاء الاصطناعي القادم.

سجل في Bybit وابدأ التداول مع 30,050 دولارًا أمريكيًا في هدايا الترحيب