تحذر ميريديث ويتاكر، الرئيس التنفيذي لشركة Signal: الذكاء الاصطناعي هو تقنية مراقبة تهدد الخصوصية



في مقابلة صريحة مع ديفين كولديوي من TechCrunch، أعربت الرئيس التنفيذي لشركة Signal، ميريديث ويتاكر، عن مخاوفها البالغة بشأن تقاطع الذكاء الاصطناعي (AI) والخصوصية. وهو يجادل بشدة بأن الذكاء الاصطناعي متشابك بشكل أساسي مع نموذج أعمال المراقبة ومن المتوقع أن يؤدي إلى تفاقم تحديات الخصوصية التي تطورت منذ أواخر التسعينيات، لا سيما مع ظهور إعلانات المراقبة.

لا يتقن ويتاكر كلماته عندما يقول: "أنت بحاجة إلى نموذج أعمال المراقبة؛ إنه نموذج أعمال المراقبة". إنه تفاقم لما رأيناه منذ أواخر التسعينيات وتطور إعلانات المراقبة. أعتقد أن الذكاء الاصطناعي هو وسيلة لتعزيز وتوسيع نموذج أعمال المراقبة. ولا يترك اعتقاده مجالًا للشك: فالتداخل بين الذكاء الاصطناعي والمراقبة يشبه مخطط فين المنسق تمامًا.

ويواصل الإشارة إلى أن استخدام الذكاء الاصطناعي هو بطبيعته مراقبة. يقدم ويتاكر مثالا مؤثرا: إن المرور أمام كاميرا التعرف على الوجه المجهزة بقدرات التعرف على المشاعر العلمية الزائفة يؤدي إلى توليد بيانات حول الحالة العاطفية للفرد والتي غالبا ما تكون غير دقيقة ومتطفلة. هذه الأنظمة هي، في جوهرها، آليات مراقبة تباع للكيانات التي تمارس السلطة على الأفراد العاديين - أصحاب العمل، والحكومات، ووكالات مراقبة الحدود - مما يسمح لهم باتخاذ القرارات والتنبؤات التي تؤثر بشكل مباشر على الوصول إلى الموارد والفرص.

يتعمق في الطبيعة كثيفة العمالة لبناء أنظمة الذكاء الاصطناعي. تؤكد ويتاكر على أن المدخلات البشرية لا غنى عنها لنمذجة الحقيقة الأساسية للبيانات، بالاعتماد على تقنيات مثل التعلم المعزز مع ردود الفعل البشرية، والتي تصفها بأنها شكل من أشكال "العمالة البشرية غير المستقرة التي تغسل التكنولوجيا". ويساهم آلاف العمال، على الرغم من حصولهم على الحد الأدنى من التعويضات الفردية، بشكل جماعي في النفقات الكبيرة المرتبطة بتطوير هذه الأنظمة. ومن وجهة نظره، فإن واجهة الذكاء في صناعة الذكاء الاصطناعي غالبا ما تخفي الاعتماد الكبير على الجهود البشرية، وعندما يرفع الستار، غالبا ما يكون عمق الذكاء الحقيقي مفقودا.

لقد برزت الخصوصية باعتبارها مصدر قلق ملحًا في مشهد الذكاء الاصطناعي. تستهلك نماذج الذكاء الاصطناعي مجموعات ضخمة من البيانات بشراهة، مما يترك للأفراد قدرة محدودة على استعادة السيطرة على معلوماتهم الشخصية. كما أدى التقاطع بين الذكاء الاصطناعي والخصوصية إلى ظهور كوابيس للعديد من الشركات، حيث كشف بعض عمالقة التكنولوجيا عن غير قصد عن بيانات الشركة الحساسة والأسرار التجارية من خلال روبوتات الدردشة التي تعمل بالذكاء الاصطناعي.

مع استمرار الذكاء الاصطناعي في الانتشار في مختلف المجالات، أصبح مستقبل الخصوصية متشابكًا بشكل متزايد مع تطور هذه التكنولوجيا.

نموذج أعمال المراقبة: زواج مقلق بالذكاء الاصطناعي

إن تأكيد ويتاكر على أن الذكاء الاصطناعي يشارك بعمق في نموذج أعمال المراقبة يتردد صداه مع مجموعة متزايدة من الأصوات القلقة بشأن تآكل الخصوصية في العصر الرقمي. كان ظهور إعلانات المراقبة في أواخر التسعينيات بمثابة نقطة تحول مهمة في كيفية جمع البيانات الشخصية واستغلالها. ومع الذكاء الاصطناعي، يبدو أن هذا الاتجاه المثير للقلق سيزداد حدة.

إن تقنيات الذكاء الاصطناعي ليست مجرد جهات فاعلة سلبية؛ المشاركة بنشاط في المراقبة. تعد أنظمة التعرف على الوجه المعززة بقدرات التعرف على المشاعر المشكوك فيها مثالًا رئيسيًا لكيفية إنشاء الذكاء الاصطناعي لبيانات حول الأفراد دون موافقتهم أو تمثيلهم الدقيق. والعواقب بعيدة المدى، حيث يتم الاستفادة من هذه البيانات من قبل كيانات قوية مثل أصحاب العمل والحكومات ووكالات مراقبة الحدود لاتخاذ قرارات وتنبؤات تغير الحياة.

العمل البشري المختبئ وراء الذكاء الاصطناعي

يقشر ويتاكر الطبقات ليكشف عن حقيقة مثيرة للقلق: يعتمد إنشاء أنظمة الذكاء الاصطناعي بشكل كبير على العمل البشري، الذي غالبًا ما يتم استغلاله ويتقاضى أجورًا زهيدة. تقنيات مثل التعلم المعزز مع ردود الفعل البشرية، والتي قد تبدو متطورة، تخفي التكلفة الحقيقية لتطوير الذكاء الاصطناعي. يعمل الآلاف من العمال بجد لتوفير بيانات ثابتة، وتؤدي جهودهم بشكل جماعي إلى نفقات كبيرة. يبدد هذا الكشف فكرة أن الذكاء الاصطناعي ذكي بطبيعته؛ بل إنه يسلط الضوء على مدى أهمية المساهمات البشرية في أداء عملها.

الوضع غير المستقر للخصوصية في عصر الذكاء الاصطناعي

أصبحت الخصوصية، أو الافتقار إليها، في صدارة المناقشات حول توسع الذكاء الاصطناعي على نحو متزايد. نظرًا لأن نماذج الذكاء الاصطناعي تستهلك كميات كبيرة من البيانات بنهم، يجد الأفراد أنفسهم أمام خيارات محدودة لاستعادة السيطرة على معلوماتهم الشخصية. وفي الوقت نفسه، تتصارع الشركات مع العواقب غير المقصودة للذكاء الاصطناعي، كما يتضح من التسريبات رفيعة المستوى لبيانات الشركات الخاصة والأسرار التجارية من خلال روبوتات الدردشة التي تعمل بالذكاء الاصطناعي.

يثير التقاء الذكاء الاصطناعي والخصوصية أسئلة عميقة حول مستقبل البيانات الشخصية والاستقلالية الفردية. ومع تزايد اندماج الذكاء الاصطناعي في الحياة اليومية، يجب على الأفراد أن يتعاملوا مع الآثار بعيدة المدى لقدرات المراقبة التي يتمتع بها الذكاء الاصطناعي. وهذه مسألة معقدة تتطلب دراسة متأنية واتخاذ تدابير استباقية لحماية الحق في الخصوصية.