يدعو Elon Musk و Steve Wozniak إلى وقف الذكاء الاصطناعي. خطير جدا



تزيد السعة المتزايدة من التسطيح الثقافي والإنتاجي بسبب الانتقال من عصر الحرفيين إلى عصر يعرفون كل شيء.

وقع Elon Musk و Steve Wozniak ورائد الذكاء الاصطناعي Yoshua Bengio وآخرون خطابًا مفتوحًا يدعو إلى استراحة مدتها ستة أشهر في تطوير أدوات ذكاء اصطناعي جديدة أقوى من GPT-4 ، التكنولوجيا التي تم إصدارها في وقت سابق من هذا الشهر من قبل شركة OpenAI المدعومة من Microsoft ، كما ذكرت صحيفة وول ستريت جورنال.

أصبحت أنظمة الذكاء الاصطناعي المعاصرة قادرة على التنافس مع البشر في المهام العامة وعلينا أن نسأل أنفسنا ما إذا كان ينبغي أن نسمح للآلات باحتلال قنوات المعلومات الخاصة بنا: هل يجب أن نسمح للآلات بإغراق قنوات المعلومات لدينا بالدعاية والأكاذيب؟ هل يجب علينا أتمتة جميع الوظائف ، بما في ذلك الوظائف الأكثر إرضاءً؟ هل يجب أن نطور عقولًا غير بشرية يمكن أن تفوقنا عددًا في النهاية ، وتصبح أكثر ذكاءً ، وعفا عليها الزمن ، وتحل محلنا؟ هل يجب أن نجازف بفقدان السيطرة على حضارتنا؟ لا ينبغي تفويض هذه القرارات لقادة تكنولوجيا غير منتخبين. لا ينبغي تطوير أنظمة الذكاء الاصطناعي القوية إلا عندما نتأكد من أن آثارها ستكون إيجابية ويمكن التحكم في مخاطرها . - Futureoflife.org

قال بينجيو ، مدير معهد مونتريال لخوارزميات التعلم في جامعة مونتريال: "لقد وصلنا إلى النقطة التي تكون فيها هذه الأنظمة ذكية بما يكفي لاستخدامها بطرق تشكل خطورة على المجتمع" ، مضيفًا "وما زلنا لا نفعل ذلك" ر أفهم ذلك ".

تم التعبير عن مخاوفهم في رسالة بعنوان " Pause Giant AI Experiments: An Open Letter " ، برعاية مؤسسة Future of Life Institute ، وهي منظمة غير ربحية نصحها ماسك.

لا يدعو الخطاب إلى وقف جميع عمليات تطوير الذكاء الاصطناعي ، لكنه يحث الشركات على الإيقاف المؤقت لأنظمة التدريب الأقوى من GPT-4 ، التكنولوجيا التي أصدرتها شركة OpenAI الناشئة المدعومة من شركة Microsoft Corp هذا الشهر. يتضمن ذلك الجيل التالي من تقنية OpenAI ، GPT-5.

يقول مسؤولو OpenAI إنهم لم يبدأوا بعد في تدريب GPT-5. في مقابلة ، قال الرئيس التنفيذي لشركة OpenAI ، سام ألتمان ، إن الشركة أعطت الأولوية للأمن منذ فترة طويلة في التطوير وقضت أكثر من ستة أشهر في إجراء اختبارات الأمان على GPT-4 قبل إطلاقها. - وول ستريت جورنال

ومع ذلك ، وفقًا لـ Goldman ، يمكن استبدال ما يصل إلى 300 مليون وظيفة بالذكاء الاصطناعي ، حيث "يمكن أتمتة ثلثي الوظائف جزئيًا بواسطة الذكاء الاصطناعي". حالة من شأنها أن تؤدي إلى اضطرابات اجتماعية يصعب إدارتها.

ينشئ ما يسمى بالذكاء الاصطناعي التوليدي محتوى أصليًا بناءً على الاقتراحات البشرية ، وهي تقنية تم تنفيذها بالفعل في محرك بحث Bing من Microsoft وأدوات أخرى. بعد فترة وجيزة ، طرحت Google منافسًا يسمى Bard. قدمت شركات أخرى ، بما في ذلك Adobe و Salesforce و Zoom ، أدوات الذكاء الاصطناعي المتقدمة. قال الرئيس التنفيذي لشركة Microsoft ، ساتيا ناديلا ، الشهر الماضي: "يبدأ السباق اليوم". "سوف نتحرك ، وبسرعة".

أحد منظمي الرسالة ، ماكس تيجمارك ، الذي يرأس معهد مستقبل الحياة وأستاذ الفيزياء في معهد ماساتشوستس للتكنولوجيا ، يسميها "الاندفاع للانتحار".

وقال: "من العار أن نضع القضية في إطار سباق تسلح". "إنه سباق للانتحار تمامًا. لا يهم من سيصل إلى هناك أولاً. هذا يعني فقط أن البشرية ككل يمكن أن تفقد السيطرة على مصيرها ".

بدأ معهد Future of Life العمل على الخطاب الأسبوع الماضي وسمح في البداية لأي شخص بالتوقيع دون التحقق من هويته. في وقت من الأوقات ، تمت إضافة اسم السيد ألتمان إلى الرسالة ، ولكن تم حذفه لاحقًا. قال السيد ألتمان إنه لم يوقع الخطاب قط. وقال إن الشركة تنسق بشكل متكرر مع شركات الذكاء الاصطناعي الأخرى فيما يتعلق بالمعايير الأمنية ومناقشة القضايا الأوسع.


برقية
بفضل قناة Telegram الخاصة بنا ، يمكنك البقاء على اطلاع دائم بنشر مقالات جديدة من السيناريوهات الاقتصادية.

⇒ سجل الآن


عقول

يدعو المقال Elon Musk و Steve Wozniak إلى وقف الذكاء الاصطناعي. الخطورة للغاية تأتي من السيناريوهات الاقتصادية .


تم نشر المشاركة على مدونة Scenari Economici على https://scenarieconomici.it/elon-musk-e-steve-wozniak-chiedono-una-moratoria-per-lintelligenza-artificiale-troppo-pericolosa/ في Wed, 29 Mar 2023 19:41:10 +0000.