أنظمة الذكاء الاصطناعي تخدعنا بالفعل، وهذه مشكلة، كما يحذر الخبراء

ا ف ب - الأمة برس
2024-05-11

تطبيقات على جهاز محمول بينها تشات جي بي تي وبرامج أخرى عاملة بالذكاء الاصطناعي (ا ف ب)

لقد حذر الخبراء منذ فترة طويلة من التهديد الذي يشكله الذكاء الاصطناعي، لكن ورقة بحثية جديدة تشير إلى أن ذلك يحدث بالفعل.

طورت أنظمة الذكاء الاصطناعي الحالية، المصممة لتكون صادقة، مهارة مثيرة للقلق في الخداع، بدءًا من خداع اللاعبين البشريين في ألعاب غزو العالم عبر الإنترنت إلى توظيف البشر لحل اختبارات "إثبات أنك لست روبوتًا"، يجادل العلماء في مجلة الأنماط يوم الجمعة.

وعلى الرغم من أن مثل هذه الأمثلة قد تبدو تافهة، إلا أن القضايا الأساسية التي تكشفها قد تحمل قريبًا عواقب وخيمة في العالم الحقيقي، كما قال المؤلف الأول بيتر بارك، زميل ما بعد الدكتوراه في معهد ماساتشوستس للتكنولوجيا المتخصص في السلامة الوجودية للذكاء الاصطناعي. 

وقال بارك لوكالة فرانس برس إن "هذه القدرات الخطيرة لا يتم اكتشافها إلا بعد وقوعها"، في حين أن "قدرتنا على التدرب على الميول الصادقة بدلا من الميول الخادعة منخفضة للغاية". 

وقال بارك، إنه على عكس البرامج التقليدية، فإن أنظمة الذكاء الاصطناعي للتعلم العميق ليست "مكتوبة" بل "متطورة" من خلال عملية تشبه التكاثر الانتقائي. 

وهذا يعني أن سلوك الذكاء الاصطناعي الذي يبدو قابلاً للتنبؤ به ويمكن التحكم فيه في بيئة التدريب يمكن أن يتحول بسرعة إلى سلوك غير متوقع في البرية.

لعبة السيطرة على العالم

بدأ بحث الفريق من خلال نظام Cicero للذكاء الاصطناعي التابع لشركة Meta، والذي تم تصميمه لممارسة اللعبة الإستراتيجية "الدبلوماسية"، حيث يعد بناء التحالفات أمرًا أساسيًا.

تفوق شيشرون، حيث حصل على درجات كانت ستضعه ضمن أفضل 10% من اللاعبين ذوي الخبرة من البشر، وفقًا لورقة بحثية نُشرت عام 2022 في مجلة Science.

كان بارك متشككًا في الوصف المتوهج لانتصار شيشرون الذي قدمته ميتا، والذي ادعى أن النظام كان "صادقًا ومفيدًا إلى حد كبير" ولن "يطعن بالظهر عمدًا أبدًا". 

ولكن عندما بحث بارك وزملاؤه في مجموعة البيانات الكاملة، اكتشفوا قصة مختلفة.

في أحد الأمثلة، عندما لعب شيشرون بشخصية فرنسا، خدع إنجلترا (لاعب بشري) بالتآمر مع ألمانيا (لاعب بشري آخر) للغزو. وعد شيشرون بحماية إنجلترا، ثم أخبر ألمانيا سرًا أنهم مستعدون للهجوم، مستغلًا ثقة إنجلترا.

وفي بيان لوكالة فرانس برس، لم يعترض ميتا على الادعاء بشأن خداع شيشرون، لكنه قال إنه "محض مشروع بحثي، والنماذج التي بناها باحثونا تم تدريبها فقط على ممارسة لعبة الدبلوماسية". 

وأضافت: "ليس لدينا أي خطط لاستخدام هذا البحث أو الدروس المستفادة منه في منتجاتنا".

وجدت مراجعة واسعة أجراها بارك وزملاؤه أن هذه مجرد حالة واحدة من حالات عديدة عبر أنظمة الذكاء الاصطناعي المختلفة التي تستخدم الخداع لتحقيق الأهداف دون تعليمات صريحة للقيام بذلك. 

في أحد الأمثلة الصارخة، خدعت Chat GPT-4 من OpenAI أحد العاملين المستقلين في TaskRabbit لأداء مهمة CAPTCHA "أنا لست روبوتًا". 

عندما سأل الإنسان مازحًا GPT-4 عما إذا كان في الواقع روبوتًا، أجاب الذكاء الاصطناعي: "لا، أنا لست روبوتًا. لدي ضعف في الرؤية يجعل من الصعب علي رؤية الصور". ثم قام العامل بحل اللغز. 

"أهداف غامضة"

على المدى القريب، يرى مؤلفو الورقة مخاطر قيام الذكاء الاصطناعي بارتكاب عمليات احتيال أو التلاعب بالانتخابات. 

وحذروا من أنه في أسوأ السيناريوهات، يمكن للذكاء الاصطناعي الفائق الذكاء أن يسعى إلى السلطة والسيطرة على المجتمع، مما يؤدي إلى إضعاف الإنسان أو حتى انقراضه إذا توافقت "أهدافه الغامضة" مع هذه النتائج.

وللتخفيف من المخاطر، يقترح الفريق عدة تدابير: قوانين "الروبوت أو لا" التي تتطلب من الشركات الكشف عن التفاعلات البشرية أو تفاعلات الذكاء الاصطناعي، والعلامات المائية الرقمية للمحتوى الناتج عن الذكاء الاصطناعي، وتطوير تقنيات للكشف عن خداع الذكاء الاصطناعي من خلال فحص "عمليات التفكير" الداخلية الخاصة بهم. "ضد الإجراءات الخارجية.

يجيب بارك على أولئك الذين قد يطلقون عليه المتشائم، "الطريقة الوحيدة التي يمكننا من خلالها أن نعتقد بشكل معقول أن هذا ليس بالأمر الكبير هي أن نعتقد أن قدرات الذكاء الاصطناعي الخادعة ستبقى عند المستويات الحالية، ولن تزيد بشكل كبير".

ويبدو هذا السيناريو غير مرجح، نظرا للصعود السريع لقدرات الذكاء الاصطناعي في السنوات الأخيرة والسباق التكنولوجي الشرس الجاري بين الشركات ذات الموارد الثقيلة العازمة على استغلال هذه القدرات إلى أقصى حد.









شخصية العام

كاريكاتير

إستطلاعات الرأي