اتخذت الحكومة الأمريكية خطوة أولى نحو تنظيم قطاع الذكاء الاصطناعي تتيح للبيت الأبيض وضع كوابح على التقنيات الجديدة مثل "تشات جي بي تي" ChatGPT. ووجهت وزارة التجارة الأمريكية الثلاثاء دعوة للجهات الفاعلة في هذا القطاع لتقديم مساهمات لإدارة الرئيس جو بايدن من أجل إعداد تصور حول أنظمة خاصة بالذكاء الاصطناعي. وتأتي هذه الخطوة لتشير إلى انفتاح البيت الأبيض على وضع بعض القواعد الأساسية في هذا المجال، خاصة وأن بايدن صرّح الأسبوع الماضي بأنه لا يوجد حكم نهائي فيما إذا كان الذكاء الاصطناعي يشكل خطراً على المجتمع. وفي هذا السياق قالت وزارة التجارة في بيان لها: "مثلما لا يتم توزيع الطعام والسيارات في الأسواق دون ضمان مناسب للسلامة، كذلك يجب أن توفر أنظمة الذكاء الاصطناعي ضمانا للعامة والحكومة والشركات بأنها ملائمة". ورغم أن الولاياتالمتحدة هي موطن أكبر شركات التكنولوجيا والذكاء الاصطناعي، بما في ذلك "شركة أوبن آي" المدعومة من مايكروسوفوت والتي أنشأت "تشات جي بي تي"، إلا أنها متأخرة دولياً في مجال الأنظمة التي ترعى القطاع. بدوره حض الرئيس الأمريكي بايدن الكونغرس على تمرير قوانين تضع قيوداً صارمة على شركات التكنولوجيا الضخمة، لكن فرصة إحراز أي تقدم تبدو ضئيلة في ظل الانقسامات السياسية بين المشرعين. الحاجة لتنظيم شامل وأدى افتقار الولاياتالمتحدة للتشريعات اللازمة إلى إعطاء "سيليكون فالي" حرية طرح منتجات جديدة مثل الذكاء الاصطناعي دون التحقق من تأثيرها على المجتمع وقبل أن تتمكن الحكومة من وضع القوانين اللازمة. وطلبت شركة "أوبن إيه آي" إخضاع أنظمة الذكاء الاصطناعي الخاصة بها إلى "تقييمات سلامة صارمة"، مشيرة إلى الحاجة لتنظيم شامل. كما قال آلان ديفيدسون مساعد وزير التجارة "استطلاعنا ستنتج عنه سياسات تدعم عمليات التدقيق في الذكاء الاصطناعي وتقييمات المخاطر والسلامة والشهادات وأدوات أخرى يمكن أن تخلق ثقة مكتسبة في أنظمة الذكاء الاصطناعي". يُذكر أن الملياردير إيلون ماسك ومجموعة من الرؤساء التنفيذيين والخبراء دعوا في رسالة مفتوحة نهاية آذار/ مارس المنصرم إلى التوقف عن تطوير ذكاء اصطناعي قوي. وطالب الموقعون بوقف تطوير برامج للذكاء الاصطناعي الأقوى من "تشات جي بي تي 4" الذي أطلقته شركة "اوبن ايه آي" في آذار/ مارس، مشيرين إلى ما تحمله هذه البرامج من "مخاطر كبيرة على البشرية". وفي العريضة المنشورة عبر موقع "فيوتشر اوف لايف دوت اورغ طالب الخبراء بوقف موقّت لعمليات تطوير برامج الذكاء الاصطناعي إلى حين اعتماد أنظمة حماية منها، كإنشاء هيئات تنظيمية جديدة خاصة بهذا المجال، ومراقبة أنظمة الذكاء الاصطناعي، وتقنيات تساعد على تمييز الأعمال الفعلية من تلك المُبتكرة من برامج للذكاء الاصطناعي، وإنشاء مؤسسات قادرة على التعامل مع "المشاكل الاقتصادية والسياسية التي تتسبّب بها هذه البرامج".