تفيد الإرشادات الجديدة التي أصدرتها المنظمة أول أمس أن الذكاء الاصطناعي يفتح فرصا جمة تبشر بتحسين تقديم خدمات الرعاية الصحية والأدوية في العالم، غير أن ذلك رهين بوضع الأخلاقيات وحقوق الإنسان في صلب تصميمه واستخداماته. وجاءات الإرشادات ضمن التقرير بشأن" الأخلاقيات وحوكمة الذكاء الاصطناعي لأغراض الصحة" كأول تقرير تصدره المنظمة في الموضوع والذي يعتبر ثمرة عامين من مشاورات عقدها فريق خبراء دوليين عينتهم المنظمة. وقال المدير العام المنظمة، الدكتور تيدروسأدحانومغيبريسوس،" على غرار كل تكنولوجيا جديدة، ينطوي الذكاء الاصطناعي على إمكانات ضخمة تؤهله لتحسين صحة ملايين الأفراد في العالم، بيد أنه قد يساء استخدامه وقد يتسبب في إلحاق الضرر، شأنه شأن كل تكنولوجيا " وأضاف قائلا "ويتيح هذا التقرير الجديد الهام للبلدان دليلا عن كيفية تحقيق الاستفادة القصوى من منافع الذكاء الاصطناعي والعمل في الآن ذاته على التقليل إلى الحد الأدنى من مخاطره وتجنب محاذيره". ويمكن أن يستخدم الذكاء الاصطناعي لتحسين سرعة تشخيص الأمراض وإجراء الفحوصات ودقتهما، كما هي الحال في بعض البلدان الغنية التي بدأت في استخدامه؛ والمساعدة في الرعاية السريرية؛ وتعزيز الأبحاث الطبية وتطوير العقاقير؛ ودعم شتى تدخلات الصحة العامة مثل ترصد الأمراض، والاستجابة للفاشيات، وإدارة نظم الصحة. ويمكن أيضا للذكاء الاصطناعي أن يمكن المرضى من التحكم بقدر أكبر في رعايتهم الصحية وتعميق فهمهم لاحتياجاتهم المتطورة. ويمكنه أن يساعد على سد النقص في الحصول على الخدمات الصحية في البلدان والمجتمعات المحلية التي تعوزها الموارد ويغلب فيها أن يقيّد وصول المرضى إلى العاملين في الصحة والمهنيين الطبيين. بيد أن تقرير المنظمة الجديد يحذر من المبالغة في تقدير منافع استخدام الذكاء الاصطناعي لأغراض الصحة، لا سيما عندما يكون ذلك على حساب الاستثمارات والاستراتيجيات الرئيسية لتحقيق التغطية الصحية الشاملة. ويشير التقرير أيضا إلى أن الفرص تقترن بمخاطر وتحديات، ومنها ما يتعلق بجمع البيانات الصحية واستخدامها بأساليب غير أخلاقية؛ وأوجه التحيز في التشفير في الخوارزميات؛ ومخاطر الذكاء الاصطناعي على سلامة المرضى وعلى الأمن السيبراني وعلى البيئة. ومن ذلك مثلا أنه بالرغم من أن استثمارات القطاع الخاص والقطاع العام في تطوير الذكاء الاصطناعي ونشره تنطوي على أهمية حاسمة، فإن عدم تنظيم استخدام الذكاء الاصطناعي قد يغلّب المصالح التجارية القوية لشركات التكنولوجيا أو مصالح الحكومات في مراقبة المجتمع وتوجيهه على حقوق ومصالح المرضى والمجتمعات. ويؤكد التقرير أيضا أن النظم المبرمجة بشكل رئيسي على البيانات التي تستقى من الأفراد في البلدان المرتفعة الدخل قد لا يكون أداؤها مناسبا للأفراد في سياقات البلدان المنخفضة والمتوسطة الدخل. ولذلك ينبغي أن تُصمّم نظم الذكاء الاصطناعي بعناية لتجسيد التنوع بين السياقات الاجتماعية والاقتصادية وسياقات الرعاية الصحية. وينبغي أن يواكبها تدريب على المهارات الرقمية ومشاركة المجتمع المحلي وتوعيته، ولاسيما ملايين العاملين في الرعاية الصحية ممن يتطلبون تثقيفا رقميا أو إعادة تدريب عندما تصبح أدوراهم ومهامهم مأتمتة، وممن يجب عليهم الاقتصار في أداء مهاهم على الآلات التي يمكن أن تشكل تحديا لعملية اتخاذ القرار واستقلالية مقدمي الخدمات والمرضى. والأهم من ذلك أنه يجب على الحكومات ومقدمي الرعاية والمصممين أن يتعاونوا على معالجة الشواغل المتعلقة بالأخلاقيات وحقوق الإنسان في كل مرحلة من مراحل تصميم تكنولوجيا الذكاء الاصطناعي وتطويرها ونشرها، مسترشدين بقوانين والتزامات حقوق الإنسان القائمة، والقوانين والسياسات الجديدة التي تكرس المبادئ الأخلاقية. ستة مبادئ لضمان خدمة الذكاء الاصطناعي للمصلحة العامة للحد من المخاطر وتحقيق الاستفادة القصوى من الفرص التي ينطوي عليها استخدام الذكاء الاصطناعي لأغراض الصحة، تقدم المنظمة المبادئ التالية أساسا لتنظيم الذكاء الاصطناعي وحوكمته: حماية استقلالية الأفراد: يقصد بهذا في سياق الرعاية الصحية أنه ينبغي أن يظل الأفراد متحكمين في نظم الرعاية الصحية والقرارات الطبية؛ وأنه ينبغي حماية الخصوصية والسرية، وأنه يجب أن يعطي المرضى موافقة سليمة ومستنيرة عبر الأطر القانونية المناسبة لحماية البيانات. تعزيز رفاه الأفراد وأمانهم والمصلحة العامة: ينبغي أن يستوفي مصممو تكنولوجيات الذكاء الاصطناعي المتطلبات التنظيمية الخاصة بالأمان والدقة والكفاءة فيما يتعلق بحالات الاستخدام ودواعي الاستعمال المحددة تحديدا دقيقا. ويجب إتاحة تدابير لمراقبة الجودة في الممارسة العملية وتحسين الجودة في استخدام الذكاء الاصطناعي. ضمان الشفافية وعدم الاستعصاء على الفهم البشري والوضوح: تقتضي الشفافية نشر أو توثيق معلومات كافية قبل تصميم تكنولوجيا للذكاء الاصطناعي أو نشرها. ويجب أن تكون هذه المعلومات متاحة بسهولة وأن تيسر إجراء مشاورات ومناقشات عامة هادفة عن الكيفية التي صممت بها التكنولوجيا وكيف ينبغي أو لا ينبغي أن تستخدم. تعزيز المسؤولية والمساءلة: بالرغم من أن تكنولوجيات الذكاء الاصطناعي تنجز مهام محددة، فإن من مسؤولية الجهات المعنية أن تكفل استخدام هذه التكنولوجيات وفقا لشروط مناسبة من قبل أشخاص مدربين تدريبا مناسبا. وينبغي أن تتاح آليات فعالة لطرح الأسئلة والانتصاف للأفراد والمجموعات التي تأثرت سلبا بقرارات اتخذت استنادا إلى خوارزميات. ضمان إشراك الجميع والإنصاف: يقتضي إشراك الجميع تصميم الذكاء الاصطناعي المخصص الصحة بحيث يشجع على استخدامه والاستفادة منه على أوسع نطاق ممكن، بصرف النظر عن العمر، أو الجنس، أو النوع الاجتماعي، أو الدخل، أو العرق، أو الاثنية، أو الميل الجنسي، أو القدرة أو سائر المواصفات المحمية بموجب قوانين حقوق الإنسان. تشجيع ذكاء اصطناعي مستجيب ومستدام: ينبغي للمصممين والمطورين والمستخدمين أن يواظبوا على تقييم تطبيقات الذكاء الاصطناعي بشفافية خلال استعمالها الفعلي لتحديد ما إذا كان الذكاء الاصطناعي يستجيب على نحو كاف ومناسب للتوقعات والمتطلبات. وينبغي أيضا أن تُصمّم نظم الذكاء الاصطناعي على نحو يكفل التقليل إلى الحد الأدنى من تأثيراتها البيئية ويزيد من كفاءة استخدام الطاقة. وينبغي أن تعالج الحكومات والشركات حالات التغيير الجذري المتوقعة في مكان العمل، بسبل منها تدريب العاملين في مجال الرعاية الصحية للتكيف مع استخدام نظم الذكاء الاصطناعي، وأن تتحسب لاحتمال فقدان مناصب عمل بسبب اللجوء إلى النظم المأتمتة. وينبغي أن يسترشد بهذه المبادئ في عمل المنظمة في المستقبل لدعم الجهود الرامية إلى ضمان تسخير إمكانات الذكاء الاصطناعي الكاملة في مجال الصحة والصحة العامة لفائدة الجميع.