
سيول - قالت الحكومة البريطانية في بيان إن أكثر من 12 شركة من شركات الذكاء الاصطناعي الرائدة في العالم قدمت التزامات جديدة تتعلق بالسلامة خلال قمة عالمية عقدت في سيول الثلاثاء 21-05-2024.
ويعتمد الاتفاق المبرم مع 16 شركة تكنولوجية - بما في ذلك OpenAI التي تصنع ChatGPT وGoogle DeepMind وAnthropic - على الإجماع الذي تم التوصل إليه في القمة العالمية الافتتاحية لسلامة الذكاء الاصطناعي في بلتشلي بارك في بريطانيا العام الماضي.
وقال رئيس الوزراء البريطاني ريشي سوناك في بيان أصدرته وزارة العلوم والابتكار والتكنولوجيا البريطانية: "تضمن هذه الالتزامات أن توفر شركات الذكاء الاصطناعي الرائدة في العالم الشفافية والمساءلة بشأن خططها لتطوير ذكاء اصطناعي آمن".
وبموجب الاتفاقية، ستقوم شركات الذكاء الاصطناعي التي لم تشارك بالفعل كيفية تقييم مخاطر التكنولوجيا الخاصة بها، بنشر تلك الأطر، وفقًا للبيان.
وسوف تشمل هذه المخاطر ما هي المخاطر "التي تعتبر غير محتملة" وما الذي ستفعله الشركات لضمان عدم تجاوز هذه العتبات.
وأضاف البيان: "في الظروف القصوى، التزمت الشركات أيضًا بعدم تطوير أو نشر نموذج أو نظام على الإطلاق إذا لم تتمكن إجراءات التخفيف من إبقاء المخاطر أقل من العتبات".
ومن المقرر أن يتم تحديد هذه العتبات قبل قمة الذكاء الاصطناعي المقبلة، والتي من المقرر أن تستضيفها فرنسا في عام 2025.
وتشمل الشركات التي وافقت على قواعد السلامة أيضًا شركات التكنولوجيا الأمريكية العملاقة Microsoft وAmazon وIBM وInstagram الشركة الأم Meta؛ فرنسا ميسترال AI؛ و Zhipu.ai من الصين.
خطر "التزييف العميق"
أثار النجاح الباهر الذي حققه ChatGPT بعد وقت قصير من إطلاقه في عام 2022 اندفاعة ذهبية في مجال الذكاء الاصطناعي التوليدي، حيث ضخت شركات التكنولوجيا في جميع أنحاء العالم مليارات الدولارات لتطوير نماذجها الخاصة.
يمكن لنماذج الذكاء الاصطناعي التوليدية إنشاء نصوص وصور ومقاطع صوتية وحتى مقاطع فيديو من خلال مطالبات بسيطة، وقد رحب بها أنصارها باعتبارها تقدمًا كبيرًا من شأنه تحسين الحياة والأعمال في جميع أنحاء العالم.
لكن النقاد ونشطاء حقوق الإنسان والحكومات حذروا من إمكانية إساءة استخدامها في مجموعة واسعة من المواقف، بما في ذلك التلاعب بالناخبين من خلال قصص إخبارية مزيفة أو ما يسمى بالصور ومقاطع الفيديو "المزيفة العميقة" للسياسيين.
وقد دعا كثيرون إلى وضع معايير دولية تحكم تطوير واستخدام الذكاء الاصطناعي، كما دعوا إلى اتخاذ إجراءات في مؤتمرات القمة مثل التجمع الذي يستمر يومين في سيول هذا الأسبوع.
بالإضافة إلى السلامة، ستناقش قمة سيول كيف يمكن للحكومات المساعدة في تحفيز الابتكار، بما في ذلك أبحاث الذكاء الاصطناعي في الجامعات.
وسينظر المشاركون أيضًا في طرق ضمان أن تكون التكنولوجيا مفتوحة للجميع ويمكن أن تساعد في معالجة قضايا مثل تغير المناخ والفقر.
وتأتي قمة سيول بعد أيام من تأكيد شركة OpenAI أنها حلت فريقًا مخصصًا للتخفيف من المخاطر طويلة المدى للذكاء الاصطناعي المتقدم.
وقالت آنا ماكانجو، نائبة رئيس OpenAI للشؤون العالمية، في البيان الذي أعلن عن الالتزامات الجديدة يوم الثلاثاء: "إن مجال سلامة الذكاء الاصطناعي يتطور بسرعة، ويسعدنا بشكل خاص أن نؤيد تركيز الالتزامات على تحسين الأساليب جنبًا إلى جنب مع العلم".
وستكون القمة التي تستمر يومين افتراضية جزئيًا، مع مزيج من الجلسات المغلقة وبعضها مفتوح للجمهور في سيول.
وسيترأس الرئيس الكوري الجنوبي يون سوك يول ورئيس الوزراء البريطاني سوناك جلسة افتراضية لزعماء العالم في وقت لاحق اليوم الثلاثاء.