«.. بات الكثير من الناس حول العالم، مدركين للحضور الوازن للذكاء الاصطناعي وتطبيقاته في حياتهم، التي أضحت موجودة في كل مكان حولنا.. مع هذا الانتشار الواسع، يخطر على بال الأفراد أسئلة متعددة تخص هذه التقنية من قبيل: «كيف بدأ كل هذا؟»، «في أية مجالات يمكن أن يستخدم فيها الذكاء الاصطناعي؟»، «ماذا يعني ذلك حقا؟»، «ما أخلاقيات عمل وتطبيق الذكاء الاصطناعي؟» وغيرها من التساؤلات التي سنتطرق لها في هذه السلسلة من المقالات حول «الذكاء الإصطناعي»، منطلقين من كونه كان موضوعا للخيال العلمي إلى جزء لا يتجزء من حياتنا اليوم، مرورا بتطور هذا المجال على مر السنين و ما ساهم به في حياتنا، وصولا إلى ما قد يشكله من خطر علينا الآن أو مستقبلا..».. 3-مخاوف الخصوصية : تنشأ مجموعة أخرى من المخاطر حول الخصوصية إذ يخلق شرط مجموعات البيانات الكبيرة حوافز للمطورين لجمع مثل هذه البيانات من العديد من المرضى. قد يشعر بعض المرضى بالقلق من أن هذه التحركات قد تنتهك خصوصيتهم،. يمكن للذكاء الإصطناعي توريط الخصوصية بطريقة أخرى: يمكن للذكاء الإصطناعي التنبؤ بمعلومات خاصة عن المرضى على الرغم من أن الخوارزمية لم تتلق هذه المعلومات مطلقا (في الواقع، غالبا ما يكون هذا هو هدف الذكاء الإصطناعي للرعاية الصحية). 4-التحيز و عدم المساواة : هناك مخاطر تنطوي على "التحيز" و "عدم المساواة" في الذكاء الاصطناعي للرعاية الصحية. تتعلم أنظمة الذكاء الإصطناعي من البيانات التي يتم تدريبها عليها، و يمكنها دمج و توليد التحيزات من تلك البيانات. على سبيل المثال، إذا تم جمع البيانات المتاحة للذكاء الإصطناعي بشكل أساسي في المراكز الطبية الأكاديمية، فإن أنظمة الذكاء الإصطناعي ستعرف القليل و بالتالي ستعالج بشكل أقل فعالية. و حتى إذا تعلمت أنظمة الذكاء الإصطناعي من بيانات تمثيلية دقيقة، على سبيل المثال، يتلقى المرضى الأمريكيون من أصل أفريقي في المتوسط، علاجا للألم أقل من المرضى البيض. 5-إعادة التنظيم المهنية : تنطوي المخاطر طويلة المدى على تحولات في مهنة الطب. من المحتمل أن تتغير بعض التخصصات الطبية مثل "الفحوصات بالأشعة" بشكل كبير حيث يصبح الكثير من عملها قابلا للأتمتة. يشعر بعض العلماء بالقلق من أن الإستخدام الواسع النطاق للذكاء الإصطناعي سيؤدي إلى إنخفاض المعرفة و القدرة البشرية بمرور الوقت، بحيث يفقد موفروا الخدمات الطبية القدرة على إكتشاف أخطاء الذكاء الإصطناعي و تصحيحها و كذلك تطوير المعرفة الطبية. هذا لا يمنعنا ان نؤكد أن الذكاء الإصطناعي يتمتع بإمكانيات جيدة للغاية في مجال الرعاية الصحية. إذا.. هل من حلول ممكنة؟ هناك عدة طرق يمكننا من خلالها التعامل مع المخاطر المحتملة للذكاء الإصطناعي للرعاية الصحية، أبرزها: 1-توليد البيانات و توافرها : تنشأ العديد من المخاطر من صعوبة تجميع بيانات عالية الجودة بطريقة تتفق مع حماية خصوصية المريض. من بين الحلول المحتملة، ما تتجه الحكومات إلى توفيره من موارد البنية التحتية للبيانات، بدءا من وضع معايير للسجلات الصحية الإلكترونية إلى تقديم الدعم الفني المباشر لجهود جمع البيانات عالية الجودة في الأنظمة الصحية التي تفتقر إلى هذه الموارد. الخيار الموازي، يكمن في "الإستثمار المباشر" لإنشاء مجموعات بيانات عالية الجودة، لتوفير ضمانات فعالة للخصوصية لمجموعات البيانات الكبيرة، و هذا ضروري لضمان ثقة المريض و مشاركته فيها. 2-مراقبة الجودة : سيساعد الإشراف على جودة نظام الذكاء الإصطناعي في معالجة المرضى بكفاءة. تشرف "إدارة الغذاء والدواء" الأمريكية (FDA) على بعض منتجات الذكاء الاصطناعي للرعاية الصحية التي يتم تسويقها تجاريا، إذ قامت بالفعل بإجازة العديد من تلك المنتجات، و تفكر في أفضل السبل للإشراف عليها.. تعتبر الأنظمة (نفسها) فئة من المنتجات لا تشرف عليها إدارة الغذاء والدواء عادة. 3-مشاركة المعلومات و التعلم : لا شك أن دمج الذكاء الإصطناعي في النظام الصحي سيغير دور مقدمي الرعاية الصحية. تتمثل الرؤية المأمولة في تمكين مقدمي الخدمات الطبية من تقديم رعاية أكثر تخصيصا و أفضل و أكثر حرية لقضاء المزيد من الوقت في التفاعل مع المرضى. قد ترى رؤية أقل تفاؤلا، أن موفري الخدمات يكافحون من أجل مواجهة رياح التنبؤات و التوصيات غير القابلة للتفسير أو التدقيق من الخوارزميات المتنافسة. في الأخير، و لكي يحقق الذكاء الإصطناعي "وعده" في مجال الرعاية الصحية، يتعين على الخوارزميات و مصمميها فهم المخاطر المحتملة لهذه التكنولوجيا، كما ينبغي إعادة تقييمها بشكل دوري للتأكد من أنها تعمل كما هو متوقع منها، مما يسمح بإصلاح أنظمة الذكاء الاصطناعي المعيبة أو إيقافها تماما، لتفادي الخطأ في التشخيص و الرعاية الصحية، الذي بمس بشكل مباشر المرضى و بشكل عام الهيئات الصحية في دول العالم.