لماذا فصلت جوجل مهندسًا اتهم أنظمتها بالتمييز الديني؟

الأمة برس - متابعات
2022-06-15

شعار شركة جوجول (ا ف ب)

عفاف الحاجي

تناقلت وسائل الإعلام باهتمام أخبار تعليق شركة «جوجل» لعملِ مهندسٍ متخصصٍ في الذكاء الاصطناعي بعد تصريحه بتطوير أحد البرمجيات في الشركة لنوعٍ من الوعي، ودفاعه عن حقوق هذا الوعي الروبوتي لامتلاكه المشاعر والأحاسيس. تناول تقريرٌ منشور في صحيفة «نيويورك تايمز» حيثيات هذه الحادثة، وأسباب الخلاف والجدل حولها في أوساط المهتمين بالتكنولوجيا.

على ماذا تدلُّ تلك المحادثات الذكية؟

دفعت شركة «جوجل» أحد مهندسيها لقضاء إجازةٍ مدفوعة الأجر، وذلك بعد نفيها لادِّعائه بأن مشروع ذكاء اصطناعي يعمل عليه قد طوَّر وعيًا خاصًّا به، ليتبع ذلك جدل جديد حول ظروف التكنولوجيا المتطورة التي تعمل عليها الشركة. وكما يوضح التقرير، فإن مهندس البرمجيات، بليك ليموين، يعمل في قسم الذكاء الاصطناعي لشركة «جوجل»، وقد صرَّح مؤخرًا بأنه قد أُحيل إلى إجازة اعتبارًا من يوم الاثنين.

بالمقابل، قال قسم الموارد البشرية في «جوجل» أن المهندس انتهك سياسة السرية للشركة. وكان ليموين قد صرَّح في اليوم السابق لتعليق عمله بأنه سلم وثائق إلى مكتب أحد أعضاء مجلس الشيوخ الأمريكي، قائلًا إنها توفِّر الدليل الذي يثبت تطور «جوجل» وتقنيتها في التمييز الديني.

ينقل التقرير تعليق «جوجل» على الادِّعاء، إذ قالت إن أنظمة الذكاء الاصطناعي التي يجري العمل عليها تقلِّد المحادثات المتبادلة ويمكن لها أن تتعمق في خوض الموضوعات المختلفة، لكنها لا تملك وعيًا خاصًّا بها.

وصرَّح المتحدث باسم «جوجل» بريان جابرييل في بيان: «قام فريقنا – الذي يضم اختصاصيي أخلاقيات وتقنيين- بمراجعة مخاوف بليك وفقًا لمبادئ الذكاء الاصطناعي التي لدينا ولم تدعم الأدلة مزاعمه»، مضيفًا أن البعض من مجتمع العاملين في مجال الذكاء الاصطناعي يفكِّر باحتمال تطور الوعي لدى الذكاء الاصطناعي على المدى الطويل، لكن ليس منطقيًّا الاستناد بذلك إلى نماذج المحادثة ذات التجسيد المتقن الشائعة اليوم، فهي ليست حاملة للوعي.

تخوُّفات من تطور الوعي الحاسوبي

وكما يروي التقرير، كانت هناك مشادات لأشهر بين ليموين ومسؤولي «جوجل» ومديريها التنفيذيين وقسمها للموارد البشرية بشأن هذا الموضوع. وبدأ الأمر مع ادِّعاء ليموين بأن نموذج اللغة لتطبيقات المحادثة في الشركة «لامدا» (LaMDA) قد طوَّر وعيًا وروحًا.  تقول «جوجل» إن المئات من باحثيها ومهندسيها قد تحدثوا مع لامدا، وتوصلوا إلى نتيجة مختلفة عما توصل إليه ليموين. بل إن معظم الخبراء المختصين يعتقدون بأن الذكاء الاصطناعي ما يزال بعيدًا جدًّا عن مرحلة الوعي الحاسوبي.

تكررت هذه الظاهرة في مجال الذكاء الاصطناعي، فكما يُذكِّر التقرير، لطالما كان الباحثون متفائلين بشأن إمكانية تطور بعض تقنيات الذكاء الاصطناعي إلى درجة اكتساب الوعي الخاص، لكن سرعان ما ينفي آخرون مختصون هذه الادعاءات.  وينقل التقرير تعليق الباحث في جامعة كاليفورنيا في بيركلي، وجامعة كاليفورنيا في سان فرانسيسكو، عماد خواجة الذي ينصبُّ عمله على استكشاف تقنيات مماثلة: «لن تقول مثل هذه الأشياء أبدًا لو استخدمت هذه الأنظمة».

لاحق القسم البحثي المتخصص بالذكاء الاصطناعي في «جوجل» الكثير من الجدل والفضائح في السنوات القليلة الماضية. وكثيرًا ما خرجت النزاعات الجارية ما بين علماء القسم وموظفيه إلى العلن، وهي نزاعات تتعلق بالمسائل التكنولوجية المختلفة.  ومن سوابق الشركة، فصلها لأحد الباحثين بعد سعيه لإظهاره معارضته العلنية لبحث منشور لأحد زملائه في شهر مارس (آذار) الفائت. وكذلك إقالتها العام الماضي لباحثتيِّ الأخلاقيات (تيمنيت جيبرو ومارجريت ميتشيل) بعد انتقادهما لمسائل تتعلق بنماذج لغة «جوجل». 

ويلقي التقرير الضوء على المهندس ليموين، فهو جندي سابق في الجيش الأمريكي أثناء احتلال العراق، ويصف نفسه بأنه كاهن ومدان سابق وباحث ذكاء اصطناعي. ووفقًا لما قاله للمسؤولين التنفيذيين في «جوجل»، فإنه يشبه نموذج لامدا بطفل يبلغ من العمر سبع أو ثماني سنين. ويريد ليموين من الشركة أن تأخذ الموافقة من برنامج لامدا قبل إجراء أي تجارب عليه. ووفقًا للتقرير، ترى «جوجل» أن ادعاءات ليموين تستند إلى معتقداته الدينية، والتي يقول إن قسم الموارد البشرية يمارس التمييز ضدها.

وقال المهندس ليموين: «تساءلوا عن صحتي العقلية مرارًا»، مضيفًا بأنهم سألوه إن كان قد راجع طبيبًا نفسيًّا مؤخرًا. كما كانت الشركة قد اقترحت عليه أن يأخذ إجازة صحة عقلية قبل أشهر عدَّة من إحالته للإجازة مدفوعة الأجر الأخيرة.

كيف يعمل الذكاء الاصطناعي؟

يستشهد التقرير بتعقيب يان ليكون – رئيس بحوث الذكاء الاصطناعي في شركة «ميتا» وشخصية بارزة في مجال الشبكات العصبية (أنظمة الكمبيوتر المصممة بالاعتماد على المخ والجهاز العصبي للإنسان) – الذي ورد في مقابلةٍ له هذا الأسبوع، حيث أكَّد أن هذه الأنواع من الأنظمة ما تزال غير قوية بما فيه الكفاية لتحقيق ذكاءٍ حقيقي.

تعتمد تكنولوجيا «جوجل» على ما يسميه العلماء بالشبكات العصبية، وهي نظام رياضي يتعلم المهارات من خلال تحليل كميات كبيرة من البيانات. فمثلًا، من خلال تحديد الأنماط المتكررة في آلاف صور القطط يمكن للشبكات العصبية تعلُّم التعرف إلى القطط في الصور.

على مدى السنوات العديدة الماضية، صممت «جوجل» وشركات رائدة أخرى شبكاتٍ عصبية استطاعت التعلم من الكميات الهائلة المتوفرة من النصوص، بما في ذلك الكتب غير المنشورة والآلاف من مقالات ويكيبيديا. ولهذا، يمكن تطبيق هذه «النماذج اللغوية الكبيرة» على مختلف أنواع المهام. ويمكن لهذه النماذج على سبيل المثال تلخيص المقالات والإجابة عن الأسئلة وكتابة التغريدات، بل حتى كتابة مدوَّنات كاملة.

لكن، يذكِّر التقرير بأن هذه المهام تشوبها كثير من العيوب. ويمكن لهذه الشبكات توليد نصوصًا غير معيبة أحيانًا، لكنها تُقدِّم نصوصًا غير منطقية في أحيانٍ أخرى. تكمن مهارة هذه الأنظمة في إعادة إنشاء الأنماط التي عاينوها في الماضي، لكنها ما تزال عاجزةً عن التفكير مثل الإنسان.







كاريكاتير

إستطلاعات الرأي