تلقت شركة غوغل ضربة قوية، بعدما قرر جيفري هينتون الذي يوصف بالأب الروحي للذكاء الاصطناعي استقالته من الشركة. وقدم هينتون الذي عمل خلال مساره على تطوير منتجات متعددة كان أحدها تطوير روبوتات الدردشة القائمة على تقنية GPT. (قدم) استقالته من عمله على خلفية مخاوف متصاعدة من أضرار جسيمة قد يسببها الذكاء الاصطناعي مستقبلاً. وانضم هينتون إلى مجموعة متزايدة من المنتقدين، الذين يقولون إن شركات التقنية العالمية تتسابق نحو خطر محدق بتطويرها منتجات تعتمد على الذكاء الاصطناعي التوليدي، وهي التكنولوجيا التي تدعم برامج الدردشة الشهيرة مثل Chat GPT. وقال هينتون في تصريحات نقلتها عنه هيئة الإذاعة البريطانية إن بعض مخاطر برامج الدردشة الآلية باتت « مخيفة للغاية »، وأضاف: « في الوقت الحالي، هم ليسوا أكثر ذكاء منا، لكنني أعتقد أنهم قد يفوقوننا ذكاء قريبًا ». جيفري هينتون الذي يعتبر أحد رواد الذكاء الاصطناعي، ابتكر في عام 2012، واثنان من طلابه في جامعة تورنتو تقنية أصبحت فيما بعد الأساس الفكري لمنظومة الذكاء الاصطناعي، وهي الأنظمة التي تعتقد أكبر شركات صناعة التكنولوجيا أنها مفتاح المستقبل. وبحسب ما نشرت صحيفة نيويورك تايمز، قال الدكتور هينتون إنه استقال من وظيفته في غوغل (Google)، حيث عمل لأكثر من عقد وأصبح أحد أكثر الأصوات احترامًا في هذا المجال، وذلك حتى يتمكن من التحدث بحرية عن مخاطر الذكاء الاصطناعي، مضيفاً أنه يحمل بداخله ندماً شديداً على المشاركة في أبحاث تطوير الذكاء الاصطناعي، وذلك خلال مقابلة أجرتها معه الصحيفة. ويرى قادة صناعة التقنية أن الذكاء الاصطناعي المتطور – والذي بدأت عدة شركات في دمجه بمتصفحات الويب منذ أوائل التسعينيات – يمكن أن يؤدي إلى تقدم شديد للغاية في مجالات تتراوح من أبحاث الأدوية إلى التعليم. لكن على جانب آخر، يرى العديد من المطلعين على الصناعة سريعة التطور أن هناك مخاوف متعاظمة من إطلاق « شيء خطير » قد يصعب السيطرة عليه لاحقاً. ويتخوف خبراء التقنية من أن نموذج الذكاء الاصطناعي التوليدي « GPT » يمكن أن يكون بالفعل مصدراً للتضليل ونشر المعلومات غير الصحيحة كما يمكن أن يشكل خطرًا على الوظائف، ويذهب أكثر القلقين في مجال التكنولوجيا إلى أنه قد يشكل خطرًا على البشرية نفسها. وقال هينتون لشبكة « بي بي سي » إن وجود مثل هذه التقنية الآخذة في التطور بسرعة في أيدي الجهات السيئة « سيكون نوعاً من أسوأ السيناريوهات، نوع من السيناريوهات الكابوسية » .. « يمكنك أن تتخيل ما سيكون عليه الأمر، على سبيل المثال، إن قام بعض الفاعلين السيئين مثل [الرئيس الروسي فلاديمير] بوتين باتخاذ قرار بمنح الروبوتات القدرة على إنشاء أهداف فرعية خاصة بها ». وتخوف المتحدث ذاته تمكن الذكاء الاصطناعي من إنشاء برمجيات كومبيوتر يمكنها أن تقوم من خلالها بتشغيل برامج أخرى بنفسها ليأتي يوم تصبح فيه تلك الروبوتات قاتلة وتمتلك سلاحاً يمكنها تشغيله دون إذن البشر. وقال الدكتور هينتون: « من الصعب أن ترى كيف يمكنك منع الجهات الفاعلة ذات الأغراض الخبيثة من استخدام تلك التقنية في أشياء سيئة »، وتابع: « في الوقت الحالي، ما نراه هو أن أشياء مثل GPT-4 تتفوق على الشخص في مقدار المعرفة العامة التي يمتلكها وربما تتفوق عليه كثيرًا. صحيح أن الناتج من حيث التفكير ليس جيدًا، ولكنه بدأ بالفعل في التفكير ولو بشكل بسيط »، « وبالنظر إلى معدل تطور هذه البرامج، نتوقع أن تتحسن الأمور بسرعة كبيرة.. لذلك علينا أن نقلق بشأن ذلك. » وأصدرت شركة OpenAI الناشئة في سان فرانسيسكو إصداراً جديداً من ChatGPT في مارس، وقع أكثر من 1000 من قادة التكنولوجيا والباحثين خطابًا مفتوحًا يدعون فيه إلى وقف تطوير أنظمة جديدة من هذا الذكاء الاصطناعي لمدة ستة أشهر حيث « تشكل التقنيات مخاطر جسيمة على المجتمع والإنسانية». وبعد عدة أيام، أصدر 19 من القادة الحاليين والسابقين لجمعية النهوض بالذكاء الاصطناعي – وهي جمعية أكاديمية عمرها 40 عامًا – خطابًا خاصًا حذروا فيه من مخاطر الذكاء الاصطناعي. ضمت تلك المجموعة إريك هورفيتز، كبير المسؤولين العلميين في مايكروسوفت Microsoft، التي نشرت تقنية OpenAI عبر مجموعة واسعة من منتجاتها، بما في ذلك محرك بحث Bing. ولم يوقع الدكتور هينتون، الذي يُطلق عليه « الأب الروحي للذكاء الاصطناعي »، أيًا من هاتين الرسالتين وقال إنه لا يريد أن ينتقد علنًا سياسات غوغل أو الشركات الأخرى حتى يترك وظيفته، لكنه أخطر الشركة الشهر الماضي أنه سيتقدم باستقالته. ويوم الخميس، تحدث عبر الهاتف مع ساندر بيتشاي، الرئيس التنفيذي لشركة ألفابيت، الشركة الأم التي تضم تحتها شركة غوغل، ورفض أن يفصح عن تفاصيل محادثته مع بيتشاي. ورداً على خبر الاستقالة المدوي، قال جيف دين كبير العلماء في غوغل في بيان: « نحن لا نزال ملتزمين بنهج مسؤول تجاه الذكاء الاصطناعي. نحن نتعلم باستمرار لفهم المخاطر الناشئة مع الابتكار بجرأة أيضاً.