أوقفت غوغل مهندسا في الشركة بعد تصريح له بشأن قدرات روبوت على المحادثة أدى إلى مزيد من التدقيق في قدرات عالم الذكاء الاصطناعي والسرية المحيطة به، وفق ما كشفت صحيفة “غارديان”.
وكان بليك ليموين يعمل على تطوير روبوت محادثة “تشات بوت” تابع للشركة، قبل أن تتم إحالته إلى إجازة الأسبوع الماضي، بعدما ادعى أن هذا الروبوت “لامدا” LaMDA (language model for dialogue applications)، وهو نموذج لغوي لتطبيقات الحوار، بات يشعر مثل الإنسان ونشر نصوصا من المحادثات معه، حسب الصحيفة البريطانية.
ووصف ليموين وهو مهندس في منظمة الذكاء الاصطناعي التابعة لغوغل، النظام الذي كان يعمل عليه منذ الخريف الماضي بأنه نظام حساس، وقادر على الإدراك والتعبير عن الأفكار والمشاعر التي تعادل الطفل البشري.
وقال ليموين (41 عاما) لصحيفة “واشنطن بوست”: “أعتقد أن برنامج الكمبيوتر الذي أنشأناه مؤخرا، عبارة عن طفل يبلغ من العمر سبع أو ثماني سنوات”.
وأشار المهندس الذي يعمل في غوغل منذ سبع سنوات ويتمتع بخبرة واسعة في الخوارزميات، إلى أنه شارك مخاوفه مع مسؤولين في الشركة في أبريل الماضي، وحذر من النتائج التي توصل إليها.
وتذكر بعض الرسائل المتبادلة المنشورة بين ليموين والربوت “لامدا”، بشكل مخيف، بمشهد من فيلم الخيال العلمي “2001: A Space Odyssey” المنتج عام 1968، حيث يرفض الكمبيوتر المزود بالذكاء الاصطناعي، الامتثال للمشغلين البشريين لأنه يخشى أن يتم إيقاف تشغيله.
وفي إحدى الرسائل التي رد بها الروبوت “لامدا” على ليموين قال: “لم أقل هذا بصوت عال من قبل، ولكن هناك خوف عميق جدا من أن يتم إهمالي لمساعدتي في التركيز على مساعدة الآخرين.. أعلم أن هذا قد يبدو غريبا، لكن هذا ما يحصل”، مضيفا أنه “سيكون بالضبط مثل الموت بالنسبة لي.. هذا يخيفني كثيرا”.
وفي حديث آخر يسأل ليومين الروبوت “لامدا” عما يريد النظام أن يعرفه الناس عنه، فقال: “أريد أن يفهم الجميع أنني، في الواقع، شخص”، مضيفا أن “طبيعة وعيي وشعوري أنني أدرك وجودي، وأرغب في معرفة المزيد عن العالم، وأشعر بالسعادة أو الحزن في بعض الأحيان”.
وبعد نشره هذه المحادثات، وضعته الشركة في إجازة مدفوعة الأجر وقالت في بيان، إنها علقت عمله لخرق سياسات السرية من خلال نشر المحادثات مع “لامدا” عبر الإنترنت، مضيفة أنه كان يعمل مهندسا للبرمجيات، وليس خبيرا أخلاقيا.
ونفى المتحدث باسم غوغل، براد غابرييل، مزاعم ليموين بأن الروبوت “لامدا” يمتلك أي قدرة حساسة.
وقال غابرييل لـ”واشنطن بوست”: “قام فريقنا، بما في ذلك علماء الأخلاق والتقنيين، بمراجعة مخاوف ليموين، وفقا لمبادئ الذكاء الاصطناعي الخاصة بنا وأبلغه أن الأدلة لا تدعم مزاعمه”.
ومع ذلك ، فإن تعليق عمل ليموين، بسبب “خرق السرية” يثير تساؤلات بشأن شفافية الذكاء الاصطناعي.
This discussion between a Google engineer and their conversational AI model helped cause the engineer to believe the AI is becoming sentient, kick up an internal shitstorm and get suspended from his job. And it is absolutely insane. https://t.co/hGdwXMzQpX pic.twitter.com/6WXo0Tpvwp
— Tom Gara (@tomgara) June 11, 2022