“الصحة العالمية”: للذكاء الاصطناعي تباشير واعدة وتحديات خطرة.
اعتبرت منظمة الصحة العالمية الخميس أن “أدوات الذكاء الاصطناعي يمكن أن تحدث تحولاً” في العلاجات الطبية، لكنها حذرت من أن تسارع انتشار البرامج الصحية الرقمية القائمة على هذه التكنولوجيا قد يضر المرضى إذا لم يتوافر فهم كامل لها.
ولاحظت المنظمة في هذا المنشور الهادف “تحديد المبادئ الرئيسة التي يمكن للحكومات والسلطات التنظيمية اتباعها في وضع إرشادات جديدة أو تكييف الإرشادات القائمة في شأن الذكاء الاصطناعي، وأن أدوات الذكاء الاصطناعي يمكن أن تحدث تحولاً في قطاع الصحة في ظل تزايد البيانات المتاحة في شأن الرعاية الصحية والتقدم السريع في تقنيات التحليل، سواء تلك المتعلقة بالتعلم الآلي أو تلك القائمة على المنطق أو الإحصاء”.
وأكدت المنظمة أنها “تدرك الإمكانات التي ينطوي عليها الذكاء الاصطناعي من حيث تحسين الحصائل الصحية من خلال تعزيز التجارب السريرية، وتحسين التشخيص الطبي والعلاج والرعاية الذاتية والرعاية التي تركز على الشخص، وسد مكامن النقص في معارف ومهارات وكفاءات العاملين في مجال الرعاية الصحية”.
وأشارت على سبيل المثال إلى أن “الذكاء الاصطناعي يمكن أن يكون مفيداً في البيئات التي تفتقر إلى أطباء متخصصين، مثل تفسير فحوص الشبكية وصور الأشعة وأمور أخرى كثيرة”.
إلا أن “وتيرة نشر تكنولوجيات الذكاء الاصطناعي، بما في ذلك النماذج اللغوية الكبيرة، تتسارع أحياناً من دون فهم كامل للكيفية التي يمكن أن تشتغل بها، مما قد يفيد أو يضر المستخدمين النهائيين، بمن فيهم أخصائيو الرعاية الصحية والمرضى”.
ونبهت إلى أن “نُظم الذكاء الاصطناعي يمكن أن تطلع عند استخدام البيانات الصحية على معلومات شخصية حساسة، مما يستلزم وضع أطر قانونية وتنظيمية متينة لحماية الخصوصية والأمن والسلامة”.
وقال المدير العام للمنظمة الدكتور تيدروس أدهانوم غيبريسوس إن “الذكاء الاصطناعي يحمل تباشير واعدة لقطاع الصحة، ولكنه ينطوي أيضاً على تحديات خطرة، بما في ذلك جمع البيانات بأساليب غير أخلاقية، وتهديدات الأمن السيبراني، وترسيخ التحيزات أو المعلومات المضللة”.
وأضاف أن “هذه الإرشادات الجديدة ستدعم البلدان في تنظيم الذكاء الاصطناعي بفاعلية وتسخير إمكاناته، سواء في علاج السرطان أو الكشف عن السل، مع تقليل الأخطار إلى أدنى حد”.
وشرحت المنظمة أن “نُظم الذكاء الاصطناعي معقدة ولا تعتمد فقط على الرموز التي أنشئت بها، ولكن أيضاً على البيانات التي دربت عليها”، وشددت على أن “تحسين التنظيم يمكن أن يساعد في إدارة أخطار ترسيخ الذكاء الاصطناعي للتحيزات في بيانات التدريب”.
وعلى سبيل المثال “فقد يكون من الصعب على نماذج الذكاء الاصطناعي أن تمثل تنوع السكان تمثيلاً دقيقاً، مما يؤدي إلى التحيزات أو عدم الدقة أو حتى الفشل للمساعدة في التخفيف من هذه الأخطار”، بحسب المنظمة.
وسعياً إلى الحد من هذه الأخطار “يمكن استخدام اللوائح لضمان الإبلاغ عن خصائص الأشخاص الذين ظهروا في بيانات التدريب، مثل النوع الاجتماعي والعرق والإثنية، والقصد إلى جعل مجموعات البيانات تمثيلية”، وفق المنشور.
وأوصت المنظمة في وثيقتها بـ “ستة مجالات لتنظيم استخدامات الذكاء الاصطناعي في مجال الصحة”، من بينها “التحقق من صحة البيانات من مصدر خارجي والتقييم الدقيق للنظم قبل إصدارها لضمان عدم قيام النظم بتوسيع نطاق انتشار التحيزات والأخطاء، وتعزيز التعاون بين الهيئات التنظيمية والمرضى والمتخصصين في الرعاية الصحية وممثلي الصناعة والشركاء الحكوميين”.