أحياناً يصور الخيال العلمي جنود «الروبوت» على أنهم آلات مهمتها الوحيدة القتل والتدمير دون ضمير، أو شعور بالندم، لكنّ هناك متخصصا واحدا في الروبوتات على الأقل يعتقد في قدرة الآلات في يوم من الأيام على اتخاذ قرارات أكثر إنسانية من بني البشر أنفسهم في ساحات المعارك، فبتزويدهم بمشاعر افتراضية يمكن للروبوت ليس فقط اتخاذ قرارات أفضل من الإنسان، بل والعمل كمستشار أخلاقي خلال المعارك، أو حتى مراقب لتصرفات الجنود من البشر، ومدى التزامهم بالقانون الدولي خلال الحروب. وفيما تُطور الجيوش حول العالم قدراتها وتستثمر مليارات الدولارات في الأسلحة الآلية التي يتحكم فيها «الروبوت» ، لا يوجد ما يمنع من المضي قدماً في بناء آلات «تتفوق على الجنود البشر في ساحات المعارك من الناحية الأخلاقية»، كما يقول «رونالد أركين»، عميد كلية الحاسوب التفاعلي بمعهد جورجيا للتكنولوجيا بأتلانتا، والنتيجة حسب قوله ، هي خفض عدد ضحايا الحروب سواء في صفوف الجنود، أو المدنيين. فقد شرع «أركين» في العمل على تطوير برامج أخلاقية للروبوتات استناداً إلى مفهوم «الذنب»، فكلما اتخذ الروبوت قرارات بشأن الأسلحة التي يتعين عليه استخدامها في موقف معين، وحجم النيران التي يتعين عليه إطلاقها، سيكون عليه تقييم النتيجة واستخلاص الدروس للمرات القادمة، فلو استنتج «الروبوت» أن النيران المستخدمة تسببت في أضرار جانبية في صفوف المدنيين، فإنه سيخفض من حجم النيران في المواجهات المقبلة، أما إذا تكرر الإفراط في إطلاق النار فسيفقد القدرة على استخدامها نهائياً دون أن يمس ذلك بوظائفه الأخرى مثل القيام بعمليات استطلاع في ساحات المعارك. ويشرح «أركين» مبدأه قائلا «هذا ما يفعله الشعور بالذنب لدى البشر بحيث يدفعهم إلى تغيير سلوكهم استجابة لتجارب سابقة»، ورغم أنه من غير الوارد رؤية أنواع من «الروبوتات» المقاتلة التي ظهرت في أفلام السينما، فإن الآلاف منها بدأت فعلا في العمل بأشكال مختلفة في البر والبحر والجو مع قدرة العديد منها على استخدام الأسلحة الفتاكة مثل برنامج إطلاق الصواريخ المعروف باسم «بريداتور»، وطائرة «ريبر» التي استخدمتها القوات الأمريكية في العراق وأفغانستان التي يتم التحكم فيها عن بعد، هذا فضلاً عن السفن البحرية التي تستخدم نظام الأسلحة «فلانكس» القادر على إسقاط الطائرات، والصواريخ دون تدخل بشري. وفي هذا الإطار أيضاً تعتمد العديد من الدول على أنظمة آلية تستند بشكل كبير الى الروبوتات مثل كوريا الجنوبية التي نشرت روبوتات في المنطقة الحدودية منزوعة السلاح التي تفصلها عن كوريا الشمالية، ومن بين الأنظمة التي يتم تطويرها حالياً في الجيش الأمريكي «فالتر»، وهي طائرة مروحية تستطيع التحليق لمدة عشرين ساعة متواصلة، فضلا عن آلية برية تعمل دون تدخل بشري، لكن الصورة الوردية التي رسمها «أركين» حول مستقبل الروبوتات ودورها الأخلاقي في حروب المستقبل تُواجه بالكثير من التشكيك في بعض الأوساط العلمية، ففي مقال نشره «نويل شاركي»، أستاذ الذكاء الاصطناعي والروبوتات بجامعة شيفيلد البريطانية في العام الماضي يرى بأنه يتعين أولا سن تشريعات جديدة لتحديد الاستخدام المستقل للأسلحة من قبل الروبوت في ساحات المعارك، مبرزاً عقبتين أساسيتين من الناحية الأخلاقية، أولهما عجز «الروبوت» عن التفريق بين الصديق والعدو، والقدرة على تفادي ضرب المدنيين وباقي الفئات غير المقاتلة، أما المسألة الثانية، فتتعلق بقدرة الكمبيوتر على تقييم ما يشكل قوة مفرطة، وإلى أي مدى يمكن استخدامها. ويضيف الدكتور «شاركي» أن «البشر يفهمون بعضهم البعض بطريقة تعجز الآلات عن تقليدها، كما أن المؤشرات الخفية التي تحدد الحاجة إلى استخدام القوة تبقى من الاختصاصات البشرية»، لذا يتعين برأيه الدخول في نقاشات دولية حول تمكين «الروبوت» من إطلاق النار واستخدام الأسلحة، ولعل ما يتفق عليه الخبراء اليوم هو عجز «الروبوتات» عن التصرف لوحدها واتخاذ قرارات بعيداً عن التدخل البشري، كما أنهم مازالوا غير قادرين على تجسيد الذكاء الاصطناعي الذي يتم الحديث عنه في بعض الأوساط العلمية، لا سيما في ما يتعلق بالقرارات الأخلاقية، وهو ما يعبر عنه «إيريك هورفيتز»، الباحث في وحدة البحث بمايكروسوفت قائلا «عندما يتعلق الأمر بالقرارات الحساسة التي تعتمد على فهم الطبيعة البشرية مازال أمامنا الكثير من العمل لجعل الذكاء الاصطناعي بنفس مستوى الذكاء البشري»، لكن مع ذلك يشكل عمل «أركين» وتفاؤله حيال مصير الروبوتات واستخداماتها العسكرية فرصة بالنسبة ل»باتريك لي» مدير الأخلاقيات والعلوم الناشئة بجامعة كاليفورنيا، الذي يعكف حالياً على تطوير برنامج عسكري للروبوتات يأخذ بعين الاعتبار أخلاقيات الحرب. ويضيف «لين» أن البشر يرسلون الروبوتات إلى ساحة المعركة للقيام «بأعمالنا القذرة، لذا سيستغرق الأمر بعض الوقت حتى يصبح الروبوت جاهزاً لهذا العمل»؛ وينظر «أركين» إلى الجدل الدائر حول استخدامات الروبوت العسكرية على أنه سابق لأوانه، معتبراً أن «الروبوت» ليس في حاجة إلى سجل أخلاقي ناصع ليشارك في الحروب، بل فقط عليه التصرف أحسن من البشر، الذين يتسببون في سقوط الكثير من الضحايا الأبرياء، فلو تمكن «الروبوت» من خفض الإصابات في صفوف الضحايا سيكون قد نجح في مهمته. (* ) كاتب أمريكي متخصص في الشؤون العلمية