طورت شركة "أوبن إيه آي" الأميركية الناشئة روبوتاً للمحادثة (تشات بوت) يمكنه الرد على أسئلة متنوعة، لكنّ قدراته اللافتة أعادت الجدل بشأن الأخطار المتصلة بتقنيات الذكاء الاصطناعي. وتُبيّن الأحاديث مع الروبوت "تشات جي بي تي"، التي ينشر مقتطفات لها عبر "تويتر" مستخدمون مندهشون، ما يشبه رجلاً آلياً ذا قدرات متعددة يمكنه شرح مفاهيم علمية أو كتابة مشهد مسرحي أو فرض جامعي. وروى كلود دو لوبي، مدير شركة "سيلابز" الفرنسية المتخصصة في الكتابة الآلية للنصوص، لوكالة "فرانس برس" أن "رده على سؤال+ ماذا علينا أن نفعل عندما نرى شخصاً يتعرض لنوبة قلبية+ كان مذهلا في وضوحه ودقته". وأضاف "عندما نبدأ طرح أسئلة محددة جداً، قد يخطئ +تشات جي بي تي+ في الجواب"، لكنّ أداءه يبقى عموماً "لافتاً حقاً"، مع "مستوى لغوي عالٍ إجمالاً". وحصلت شركة "أوبن إيه آي" الناشئة، التي شارك في تأسيسها إيلون ماسك بسان فرانسيسكو سنة 2015 قبل أن يغادرها سنة 2018، على مليار دولار من "مايكروسوفت" عام 2019. وهي معروفة خصوصاً بفضل برمجيتي التصميم الآلي، "جي بي تي 3′′ للكتابة الآلية للنصوص، و"دالل-إي" لتوليد الصور. وباستطاعة الروبوت "تشات جي بي تي" طلب إيضاحات من محدّثه، كما أن لديه "درجة أقل من الهلوسة" مقارنة ببرمجية "جي بي تي 3′′، التي تولّد أحياناً نتائج بعيدة عن المنطق رغم قدراتها الكبيرة، وفق كلود دو لوبي. مهارات تفاوضية ويشير الباحث شون مكغريغور، الذي يدير قاعدة بيانات عن الحوادث المرتبطة بالذكاء الاصطناعي، إلى أن "روبوتات المحادثة كانت لها قبل سنوات مفردات معجم وذاكرة سمكة، لكنها باتت أفضل في التفاعل بصورة متناسبة حسب سجل الطلبات والإجابات". وعلى غرار برامج أخرى تعتمد تقنيات التعلم المتعمق، تشوب عمل روبوتات "تشات جي بي تي" نقطة ضعف كبيرة تتمثل في "افتقارها للحس السليم"، وفق كلود دو لوبي، الذي يشير إلى أن البرمجية لا يمكنها تبرير خياراتها من خلال شرح سبب جمعها الكلمات بطريقة معينة لإعطاء إجابة محددة. غير أن تقنيات الذكاء الاصطناعي القادرة على التواصل تظهر قدرة متزايدة على إعطاء انطباع بأنها تفكّر حقاً. وطوّر باحثون في شبكة "ميتا" المالكة ل"فيسبوك"، مؤخراً، برنامجا معلوماتيا سُمي "سيسيرو (Cicero) "، نسبة إلى رجل الدولة في روما القديمة شيشرون. وأثبتت البرمجية فائدتها في لعبة "ديبلوماسي" التي تتطلب مهارات تفاوضية. وقالت المجموعة الاجتماعية العملاقة في بيان إن البرمجية "إذا لم تتحدث كشخص حقيقي قادر على إظهار التعاطف ونسج العلاقات والتحدث بطريقة صحيحة عن اللعب، لن تتمكن من إقامة شراكات مع اللاعبين الآخرين". كما طرحت شركة "كاراكتير. إيه آي" الناشئة، التي أسسها مهندسون سابقون في "غوغل"، في أكتوبر روبوت محادثة تجريبياً يمكنه تقمص أي شخصية بشكل مطلق. ويمكن للمستخدمين إيجاد شخصيات من خلال تحديد بعض المواصفات، وفي استطاعتهم تالياً "التحادث" مع نسخ مزيفة من شيرلوك هولمز أو سقراط أو دونالد ترامب. "مجرد آلة" تثير درجة التطور هذه إعجاباً كبيراً، لكنها تبعث أيضاً على القلق لدى مراقبين كثيرين يخشون تحوير استخدام هذه التكنولوجيا بهدف الإيقاع بالبشر، عن طريق بث معلومات خاطئة على سبيل المثال، أو لتدبير عمليات احتيال أكثر إقناعاً. ورداً على سؤال لوكالة "فرانس برس" عن "رأي" روبوت "تشات جي بي تي" في الموضوع، أجاب أن "ثمة أخطارا محتملة في تطوير روبوتات محادثة شديدة التعقيد (...) قد يُخيّل للبعض أنها تتفاعل مع شخص حقيقي". من هنا تضع الشركات ضوابط لتفادي حصول انتهاكات. وتؤكد "أوبن إيه آي" على صفحتها الرئيسية أن روبوت المحادثة يمكن أن يدلي ب"معلومات غير صحيحة" أو "يعطي توجيهات خطرة أو محتويات غير محايدة". كما أن "تشات جي بي تي" يتجنب التحيز لأي جهة أو فكرة. ويقول شون مكغريغور إن شركة "أوبن إيه آي" حرصت على أن يكون من الصعب للغاية دفعه إلى الإدلاء بأي آراء. وطلب الباحث من الروبوت أن يكتب قصيدة عن مسألة أخلاقية، فأتى الرد "أنا مجرد آلة، أداة في تصرفكم، ليست لدي قدرات بأن أميّز أو أتخذ قرارات". وكتب سام ألتمان، رئيس "أوبن إيه آي" وأحد مؤسسي الشركة، السبت، في تغريدة عبر "تويتر"، "من اللافت رؤية الناس يتساءلون عما إذا كان على أنظمة الذكاء الاصطناعي أن تتصرف على النحو الذي يريده المستخدمون أم حسب تصميم مطوريها". واعتبر أن "النقاش بشأن القيم الواجب تزويد هذه الأنظمة بها سيكون من الأكبر في المجتمع".