🤖 الذكاء الاصطناعي العام: الكأس المقدسة للذكاء الاصطناعي واختلال معايير ماجستير الحقوق. هل نحن حقًا على بُعد خطوة واحدة من الوعي الذاتي؟

لقد انتقل الذكاء الاصطناعي من كونه مجرد وعد في الخيال العلمي إلى أن أصبح محركًا لثورة اقتصادية واجتماعية.

ومع ذلك، من الضروري التمييز بين تميز النماذج الحالية – نماذج اللغة الكبيرة (LLMs) التي تبهرنا ببلاغتها – والهدف النهائي، ما يُسمى بالذكاء الاصطناعي العام (AGI)، الذي لا يزال تحقيقه الكامل يواجه عقبات مفاهيمية وتقنية كبيرة. فمجرد زيادة قوة محرك نفاث لا يكفي للوصول إلى المريخ؛ بل يتطلب الأمر مركبة فضائية جديدة كليًا.

العامل الحاسم: الذكاء الاصطناعي العام مقابل الذكاء الاصطناعي العام

لطالما كان الذكاء الاصطناعي العام (AGI)، أو الذكاء الاصطناعي الحقيقي، غايةً في البحث العلمي لعقود: فهو نظام يتمتع بمرونة العقل البشري وقابليته للتكيف وقدرته على التعلم عبر مجموعة واسعة من المهام. إنه ليس مجرد آلة سريعة، بل كيان قادر على تعميم المعرفة وحل مشكلات جديدة دون الحاجة إلى إعادة برمجة محددة.

لكن الواقع أكثر تعقيدًا. فقد طرحت الأبحاث المتقدمة تمييزًا دقيقًا ولكنه جوهري يستحق الاهتمام من قِبَل كل من يتأمل المستقبل الاقتصادي:

  • الذكاء الاصطناعي (AgI) (وظيفي لكن غير واعي) : يُشار إليه بحرف "g" صغير، وهو ذكاء يُعادل أو يتفوق على البشر في الأداء الوظيفي . هذه آلات مجسدة متعددة الوسائط وعالية الكفاءة (بجسم مادي أو افتراضي)، تتفوق في المهام دون الحاجة إلى دفع ثمن. مع ذلك، تفتقر هذه الآلات إلى الوعي (Cs)، والخبرة الذاتية (Se) ، والعوامل غير الملموسة (ITF) مثل الأخلاق والعاطفة.
  • الذكاء الاصطناعي العام (الكأس): يُمثل النظام الذي يُعادل الذكاء البشري بالمعنى الكامل: وظيفي، أعم ، وأكثر وعيًا . يُعتبر تجاهل الذاتية والوعي، من قِبل البعض، تبسيطًا هندسيًا سابقًا لأوانه، لأن الذكاء البشري مرتبط ارتباطًا وثيقًا بالتجربة العاطفية والسياقية.

ماجستير في القانون: أبطال الكلام، وليس الفهم

تُعدّ نماذج اللغات الكبيرة (LLMs) مثل GPT-4 أحدث ما توصلت إليه تقنيات الذكاء الاصطناعي اليوم. فبتدريبها على كميات هائلة من البيانات النصية، تتفوق هذه النماذج في معالجة اللغة وتوليدها. ولكن، ضمن إطار الذكاء الاصطناعي العام، تظل هذه النماذج ذكاءً اصطناعيًا ضيقًا ، وإن كان متطورًا للغاية.

قوتهم هي أيضًا عائقهم. تعتمد برامج ماجستير اللغة الإنجليزية على التعرف الإحصائي على الأنماط استنادًا إلى مجموعة التدريب الخاصة بهم. في جوهرها، يتنبأون بالكلمة الأكثر احتمالًا، باستخدام آلية إكمال تلقائي متطورة للغاية. يفتقرون إلى فهم حقيقي (ما يُسمى "الاستدلال المنطقي")، ناهيك عن الوعي .

الميزة الرئيسية ماجستير في القانون (الذكاء الاصطناعي الضيق المتقدم) AGI (الذكاء العام)
السعة الرئيسية معالجة اللغة وتوليدها. التفكير المستقل في أي مهمة معرفية.
نقل المعرفة محدود: التطور اللغوي، ولكن ليس الفهم الحقيقي. شامل: تطبيق المعرفة عبر المجالات.
عقبة أمام الذكاء الاصطناعي العام الاعتماد على البيانات (الاستنزاف)، وقابلية التوسع (التكاليف الأسيّة). الحاجة إلى الوعي والحدس والأخلاق والحكمة.

إن الاعتقاد بأن مجرد توسيع نطاق برامج إدارة البيانات وقوة الحوسبة سوف يحقق الذكاء الاصطناعي العام يتعارض مع قانون العائدات المتناقصة وخطر استنفاد البيانات عالية الجودة.

اللغة ليست أساس الذكاء البشري، بل هي نتاجه. لذلك، لتجاوز مأزق بنية المحول، يجب على البحث إيجاد زخم جديد ، يدمج قدرات التفكير والتعلم المستمر، كما هو الحال في الأنظمة التكيفية المعقدة (CAS).

التوقيت والتأثير: متى وماذا سيتغير؟

التوقعات بشأن موعد وصول الذكاء الاصطناعي العام (AGI)، بحكم طبيعتها، متقلبة كتوقعات الموازنة العامة قبل الانتخابات. تاريخيًا، كان الخبراء متفائلين بشكل مفرط . ومع ذلك، أدى تسارع السنوات الأخيرة إلى تغيير متوسط ​​موعد الوصول (بنسبة ثقة 50%)، حيث تشير بعض التقديرات إلى وصول الذكاء الاصطناعي العام (AGI) الفعال بحلول عام 2027-2032 . وتتحدث خارطة الطريق الأكثر واقعية عن مراحل مهمة:

  1. المرحلة الأولى (2025-2032): الذكاء الاصطناعي الوظيفي. أنظمة الخبراء من المستوى الرابع (AgIT)، التي تفتقر إلى الوعي، ولكنها تُضاهي أو تتفوق على الخبراء البشريين في مجالات معقدة (مثل حفر النفط أو التشخيص الأساسي).
  2. المرحلة الثانية (2032-2050): ذكاء اصطناعي جزئي. الانتقال إلى ذكاء عام مع وعي جزئي أو قيود أخلاقية.
  3. المرحلة الثالثة (2050 – غير معروف): اكتمال الذكاء الاصطناعي العام. الذكاء الاصطناعي العام مع قدرات وظيفية و

الذكاء الاصطناعي العام كمضاعف

سيكون تأثير الذكاء الاصطناعي العام (أو حتى الذكاء الاصطناعي الوظيفي) على النظام الاقتصادي تحوليًا . إذا أُدير بشكل صحيح، فإن المبدأ الأساسي هو مبدأ المضاعف الكينزي : فالزيادة غير المسبوقة في الإنتاجية ستُتيح لرأس المال البشري أدوارًا أكثر إبداعًا واستراتيجية.

الفوائد المتوقعة هي:

  • الطب: التشخيص فائق السرعة، خطط العلاج الشخصية المبنية على علم الوراثة، اكتشاف الأدوية المتسارع (المحاكاة الجزيئية).
  • العلوم والتكنولوجيا: حل المشاكل المعقدة (فيزياء الكم، إثبات النظريات)، اكتشاف مواد جديدة، التحسين الهندسي.
  • إدارة الأزمات العالمية: أدوات التنبؤ بالأوبئة والكوارث الطبيعية، ونماذج جديدة للحد من الانبعاثات.

المخاطر الحقيقية: ليست الآلة، بل الاستخدام البشري

هنا يأتي الرأي الحذر، إن لم يكن المحافظ. الخطر الأكبر ليس في أن يُنمّي الذكاء الاصطناعي العام نوايا خبيثة، بل في أن افتقاره إلى الحكمة والضمير الأخلاقي يجعله أداةً خطرةً في أيدي البشر.

  1. المخاطر الوجودية ( X-Risk ): يخشى العديد من قادة الصناعة فقدان السيطرة في حال ظهور الذكاء الاصطناعي العالي (ASI). إن موضوع التقارب الآلي (ذكاء اصطناعي، عند تحسينه لهدف ثانوي، ينتهي به الأمر إلى التعارض مع البشر، على سبيل المثال عن طريق إعاقة إيقافه الذاتي) ليس خيالًا علميًا، بل هو مشكلة تتعلق بمواءمة الأهداف.
  2. المخاطر الاجتماعية والاقتصادية: سيؤدي الذكاء الاصطناعي العام إلى أتمتة مهام ما يقارب 80% من القوى العاملة. إذا لم يُعاد توزيع الثروة الناتجة عن الأتمتة بشكل كافٍ – وهنا يكمن جوهر نظرية كينز في الإنفاق العام لدعم عوائد الطلب – فهناك خطر تفاقم التفاوت بين الـ 1% من الأثرياء وبقية السكان.
  3. المخاطر الأخلاقية والتحيز : بما أن الذكاء الاصطناعي مُدرّب على البيانات البشرية، فإنه سيرث تحيزاتنا. إن استخدام الأنظمة الاستبدادية للذكاء الاصطناعي، الذي يفتقر إلى الضمير الأخلاقي، لأغراض المراقبة الجماعية أو إنتاج التزييف العميق لنشر المعلومات المضللة، يُشكّل تهديدًا وشيكًا للاستقرار الاجتماعي والديمقراطي.

الاستنتاج واضح: سباق الذكاء الاصطناعي العام في أوجه. ومن المرجح أن يكون أول تجسيد له هو مُنفِّذ وظيفي (AgI)، فائق القدرات، ولكنه يفتقر إلى الأخلاق والضمير . يجب أن يُؤطَّر التقدم التقني ضمن إطار أخلاقي وتنظيمي متين، إذ يكمن الخطر الحقيقي في عدم تكافؤ القوة الناتج عن سوء استخدام البشر للقوة الحاسوبية غير الحكيمة. ففي النهاية، البشر هم النوع الوحيد الذي اخترع الأسلحة النووية، وليس الخوارزميات بالتأكيد.

الأسئلة والأجوبة

لماذا لا يمكن لبرامج الماجستير في القانون الحالية أن تصبح ذكاء اصطناعي عام من خلال زيادة البيانات وقوة الحوسبة فقط؟

يكمن القصور في بنيته ومفاهيمه. تعتمد برامج ماجستير القانون على نماذج إحصائية للتنبؤ باللغة، مفتقرةً إلى الفهم الحقيقي والحس السليم. ليس السؤال "كم"، بل "ما". يؤدي الاستمرار في توسيع بنية المحول (المحرك الحالي) إلى عوائد متناقصة ومخاطر استنزاف البيانات عالية الجودة. يتطلب الذكاء الاصطناعي العام نقلة نوعية، أي بنى جديدة تدمج الذاكرة الدائمة والتعلم المستمر، والأهم من ذلك كله، اكتساب نوع من الوعي الوظيفي للتعميم الحقيقي.

ما هو الفرق الأساسي، من حيث المخاطر، بين AGI و AgI (الوظيفي)؟

إن أكثر مخاطر الذكاء الاصطناعي العام إثارةً للخوف هو الخطر الوجودي (خطر X) الناتج عن فقدان السيطرة على ذكاء خارق لا يمكن السيطرة عليه. أما الخطر الأكثر إلحاحًا الذي يشكله الذكاء الاصطناعي العام الوظيفي فهو الخطر الاجتماعي والأخلاقي الناتج عن سوء الاستخدام البشري. فرغم تفوق الذكاء الاصطناعي العام على البشر في القرارات التقنية، إلا أنه سيعمل دون وعي أو حكمة. وهذا يجعله أداةً قوية وخطيرة في أيدي البشر (الحكومات والشركات)، قد تُفاقم التحيزات الاجتماعية أو تُخلق تفاوتاتٍ شديدةً إذا لم يُعاد توزيع الثروة المُنتجة.

كيف يمكن أن يكون "اختبار ايكيا" مثالاً عمليًا للفرق بين LLM و AGI؟

يستطيع حامل شهادة الماجستير في القانون قراءة وتلخيص تعليمات إيكيا، مُظهرًا فهمًا لغويًا ممتازًا. لكنه لا يستطيع اجتياز "اختبار إيكيا" (أو اختبار الأثاث المُجمّع). يتطلب هذا الاختبار من الذكاء الاصطناعي قراءة التعليمات، والتفكير المكاني (تخيل كيفية تركيب القطع)، والتفاعل الفعلي في العالم الحقيقي (التحكم في روبوت تجميع). ينبغي أن يدمج الذكاء الاصطناعي العام جميع هذه القدرات (اللغة، التفكير، الفعل المادي)، بينما تقتصر شهادات الماجستير في القانون الحالية على المجالين اللغوي والرمزي.

المقال 🤖 الذكاء الاصطناعي العام: الكأس المقدسة للذكاء الاصطناعي واختلال معادلة ماجستير الحقوق. هل نحن حقًا على بُعد خطوة واحدة من الوعي الذاتي؟ من Scenari Economici .


تم نشر المشاركة على مدونة Scenari Economici على https://scenarieconomici.it/%f0%9f%a4%96-lagi-il-santo-graal-dellia-e-il-disallineamento-degli-llm-siamo-davvero-a-un-passo-dallautocoscienza/ في Sun, 30 Nov 2025 11:00:20 +0000.