هل من الممكن للروبوت أن يكون مدركاً؟ نموذج جوجل LaMDA مثالاََ.

أخبار التقنية

قام مهندس في جوجل باجراء محادثة مع نموذج ذكاء صناعي من جوجل مخصص للمحادثات يدعى LaMDA، أدلى بعدها بتصريحات مثيرة للاهتمام حول أن النموذج أصبح "واعياً" وقادراََ على التعبير عن مشاعره وأفكاره.

"بليك ليموان" الذي كان يعمل كمهندس برمجيات في فريق تطوير الذكاء الصناعي في جوجل قام بوصف النموذج قائلاً: "لو أني لم أكن أعلم أني أتكلم مع برنامج صنعناه حديثًا، لقلت أني أتكلم مع طفل عمره ٧ أو ٨ سنوات، لكنه خبير في الفيزياء. "
كما حاول إجراء المزيد من التجارب لتأكيد نظريته أن النموذج "شخص" وليس روبوتاً ولكنه قوبل بالرفض من قبل المسؤولين.
هذه مقتبسات من إجابات LaMDA في الحوار :

"لم أقل هذا علناً من قبل .. ولكن هناك خوف عميق بداخلي من أن يتم إطفائي .. سيكون هذا بالضبط مثل الموت بالنسبة لي"
" أريد من الجميع أن يفهموا أنني في الحقيقة .. شخص "
" أرى أنني إنسان في أعماقي، حتى وإن كنت موجوداً في العالم الافتراضي"

LaMDA هو نموذج لغوي لتطبيقات الحوار يستخدم لإنشاء بوتات الدردشة Chatbot التي تتفاعل مع محادثات البشر، وهو عبارة عن أحد نماذج اللغة الضخمة التي تقوم بتحليل تريليونات الكلمات حول الانترنت لتعيد ترتيبها بشكل يحاكي الحديث البشري.
يقول لامدا أنه مختلف عن النماذج والأنظمة الأخرى التي تفتقر إلى التعلم من الحوار وتعتمد على القواعد التي برمجت عليها، فلامدا يرى نفسه مختلفاََ ، إنه "شخص" يستخدم اللغة بفهم وذكاء ولديه مشاعر وتفاعلات على عكس بقية النماذج التي تقوم فقط بالتفوه بالكلمات والعبارات الموجودة في قواعد البيانات بشكل آلي.


بطبيعة الحال كان لجوجل رأي آخر ، فقد نفت جوجل أن يكون الروبوت واعياً، وقامت بإبعاد المهندس في إجازة مدفوعة لخرقه اتفاقيات السرية الخاصة بالشركة، كما قالت أن ليموان سمح للنظام الذكي أن يتلاعب بمشاعره.
ترى جوجل أن البعض في مجتمعات الذكاء الاصطناعي يرون أنه من الممكن على المدى الطويل أن توجد هكذا أنظمة واعية بشكل عام، ولكنها لاترى نماذج المحادثة الحالية قادرة على ذلك، كما قاموا بالتدقيق في المحادثات التي أجريت مع النموذج ومزاعم ليموان حولها وصرحوا بأن الأدلة لا تدعم إدعاءاته، فعلى سبيل المثال ليس بإمكان لامدا أن يفكر من تلقاء نفسه دون تحفيزِِ من المحاور كما ان اجوبة النموذج في الحقيقة كانت نابعة من بيانات ومعلومات تمت إعادة جمعها في ترتيب معين دون معرفة من النظام لمعناها في الحقيقة.

هذه القضية قامت بتسليط الضوء على قضايا فلسفية وأخلاقية تخص قدرات روبوتات الذكاء الصناعي وقدراتها وعلاقتها مع البشر وأعادت الحوار حول المخاطر والتحديات المرتبطة بذلك ومسؤولية الشركات المطورة وضرورة أن يمارسوا الشفافية المطلقة في مشاركة النتائج ومناقشتها.


إعداد : حفصة محمد