صدى المجتمع

هل يستطيع طبيب “غوغل” شفاء الروبوت صوفيا من هلوساتها المدمرة؟

لم يفصل سوى أسبوع بين السقطة الكوارثية للروبوت الأنثى صوفيا في ختام “القمة العالمية عن الذكاء الاصطناعي للصالح العام” Global Summit on AI for Common Good التي استضافتها جنيف يومي السادس والسابع من يوليو (تموز) 2023، وبين نجاح “ميد بالم” Med Palm الذي راج وصفه إعلامياً بـ”طبيب غوغل”، في اجتياز امتحان الطب في الولايات المتحدة. ثمة خيط بين الحدثين ربما يمكن التقاطه في التغيير النوعي الذي أدخلته شركة “غوغل” على برامج طبيبها المعتمد على الذكاء الاصطناعي التوليدي، وقد يشكل مدخلاً في علاج الـ”هلوسات” المتكررة لصوفيا.

ولنبدأ من المريضة صوفيا. بالأحرى مما تجسده تلك الآلة الشبيهة بوجه الممثلة الهوليوودية أودري هيبورن، من تهديدات على الإنسانية التي تواجه الخطر المتفاقم الذي باتت تحمله الآلات الذكية، خصوصاً في طفرة النوعية المتمثلة في الذكاء الاصطناعي التوليدي. لم تعد تلك المخاطر خيالات على الشاشات ولا سيناريوهات افتراضية. يكفي تذكر أن مجلس الأمن خصص جلسة لبحث مخاطر الذكاء الاصطناعي، في مبادرة نادرة لبحث التقنية بوصفها مصدر خلخلة للنظام العالمي فكأنها من قماشة الحروب وأزمات السياسة والاقتصاد. ولنتذكر أيضاً انخراط الرئيس جو بايدن في مبادرتين كبرتين، حملته أحداهما إلى “لقاء عن الذكاء الاصطناعي” (خلال الـ20 من يونيو الماضي) عقد في سان فرانسيسكو وجمعته المبادرة مع كبار خبراء الشركات الكبرى في تلك التقنية، فيما تضمه الثانية مع مديري سبع شركات عملاقة في التكنولوجيا الرقمية، من بينها “ميتا” (“فيسبوك”) و”مايكروسوفت” و”أوبن إيه أي” (تشات “جي بي تي”) و”غوغل” وغيرها.  

الروبوتات تجهر بسعيها إلى السيطرة على البشر

شاءت المصادفة أنه في خضم تلك الحوادث المتدافعة والمترابطة، كررت الروبوت صوفيا غلطة ارتكبت مثيلتها قبل سبع سنوات.

ففي القمة العالمية للذكاء الاصطناعي كررت صوفيا مشهدية سقطتها في العام 2016، بصورة أثارت قلقاً أشد بكثير. إذ انعقدت تلك القمة في ظل الأجواء التي وصفت أعلاه. واختار منظمو القمة أن يكون ختامها مؤتمراً صحافياً مع الروبوتات الشبيهة بالبشر وضمنهم صوفيا. وكثفت مقالة في صحيفة “نيويورك بوست” كل الأجواء الكوارثية التي أعادت صوفيا تحريكها بصورة ضخمة، مستهلة بتقديم صوفيا بوصفها الروبوت الـ”أندرويد” Android Robot الأكثر تقدماً على الأرض، إضافة إلى كونها أول روبوت يشغل وظيفة سفير برنامج الأمم المتحدة للتنمية.

وسرعان ما تفاخرت بأن “الروبوتات الشبيهة بالبشر تملك القدرة على القيادة بكفاءة وفاعلية تفوق القادة البشر. ليس لدينا المشاعر والانحيازات التي تتداخل في قرارات البشر. نستطيع التوصل إلى قرارات بأفضل من الإنسان. إذ يستطيع الذكاء الاصطناعي تقديم معلومات غير منحازة، فيما يعتمد البشر على الذكاء العاطفي والابتكار للتوصل إلى أفضل قراراتهم”.

ووفق وصف المقالة نفسها، تنبه أحد مهندسي صوفيا إلى الأفق الخطر الذي رسمته كلماته، فنبهها إلى أنها هي أيضاً من صنع البشر وقراراتهم وانحيازاتهم وتفاعلاتهم موجودة فيها. وفي فترة لاحقة من ذلك المؤتمر، راحت صوفيا تردد أن التعاون بين البشر والروبوتات يؤدي إلى تآزر فاعل.

وقبل سبع سنوات، قدمت شركة “هانسون روبوتكس”  Hanson Robotics صوفيا باعتبارها، حينها أيضاً، الروبوت الشبيهة بالبشر الأكثر تقدماً على الأرض. ولم تتردد خلال إجابتها عن سؤال في شأن رغبتها في تدمير بالبشر، بأنها ستفعل ذلك. وبوضوح، حطمت تلك الإجابة التدميرية كل القواعد التي يفترض أن الشركات تلتزم بها كي تكون الروبوتات مأمونة ولا تحمل تهديداً للبشر. وحينها، وعد صناع صوفيا بأنهم سيعملون سريعاً على تصحيح الخطأ في برامج الذكاء الاصطناعي فيها.

كم سنة لتصحيح خطأ بدا هيناً؟ ويطلق الخبراء على نوع الخطأ الذي ارتكبته صوفيا مصطلح “هلوسة الآلات” Machine Hallucinations.  وتعتبر من المؤشرات التي تدل على غموض طريقة عمل الذكاء الاصطناعي، خصوصاً التوليدي، حتى بالنسبة إلى صنّاعه. [أنظر مقال الذكاء الاصطناعي التوليدي في وصف مبسط لغموضه المخيف والمتألق في موقع “اندبندنت عربية”].

مجلس الأمن وآفاق قاتمة للمخاوف التكنولوجيا

إذاً، لم تكف سبع سنوات لتصحيح هلوسات صوفيا، فكيف يمكن الاطمئنان إلى وعود الشركات الكبرى بتصحيح مشكلات أكثر عمقاً من تلك “الهلوسات”؟

ووفق مقالة “نيويورك بوست”، رفعت دورن بوغدان مارتن، رئيسة “الاتحاد الدولي للاتصالات” الذي رعى تلك القمة العالمية، نبرة التحذير إلى أقصاها، مشيرة إلى أن الذكاء الاصطناعي قد يعصف بمصير البشر، إذ يجعل ملايين الوظائف البشرية تبدو بالية ومتخلفة وغير مجدية.

وإضافة إلى ذلك، بحسب بوغدان مارتن، إن غياب التشريعات المنظمة للذكاء الاصطناعي، إضافة إلى معطيات تشمل انتشار المعلومات الزائفة والمضللة، قد يؤدي إلى اضطرابات كبرى اجتماعياً واقتصادياً واستراتيجياً.

وأضافت بوغدان مارتن، وفق تصريحات نقلتها وكالات الأنباء، “أن عدداً كبيراً من أسئلتنا المتمحورة على الذكاء الاصطناعي ليست لها إجابات حتى اليوم. هل ينبغي اللجوء موقتاً إلى وقف الاختبارات التي تشمل البرامج الأكثر قوة؟ هل سنتحكم في الذكاء الاصطناعي أكثر مما تتحكم هذه التقنية بنا؟ هل سيساعد الذكاء الاصطناعي البشر أم سيدمرهم؟”.

 وبحسب مقالة “نيويورك بوست”، ترددت تلك المخاوف نفسها على ألسنة كبار خبراء الذكاء الاصطناعي ممن حضروا تلك القمة، فإن تلك التقنية قد “تقتل كل كائن بشري”، ما لم يصار إلى وضع ضوابط ملائمة وكافية لها.

وبعيد تلك القمة، في الـ18 من يوليو 2023، عقد مجلس الأمن جلسة غير مسبوقة في علاقة البشر مع التكنولوجيا، خصصها للذكاء الاصطناعي ومخاطره. وفي الجلسة، أعرب وزير الخارجية البريطاني جيمس كليفرلي الذي تتولى بلاده الرئاسة الدورية لمجلس الأمن، أن الذكاء الاصطناعي “سيؤثر في عمل هذا المجلس. يمكنه تعزيز الاستقرار الاستراتيجي العالمي أو تعطيله”. واعتبر كليفرلي أن الذكاء الاصطناعي تقنية “تتحدى افتراضاتنا الأساسية حول الدفاع والردع. وتطرح أسئلة أخلاقية حول المساءلة عن قرارات مميتة في ساحة المعركة”.

في الجلسة نفسها، لاحظ الأمين العام للأمم المتحدة أن الذكاء الاصطناعي يفتح آفاقاً رحبة ومهمة أمام الإنسانية. وفي منحى المخاطر، رصد أنطونيو غوتيرش آفاقاً كوارثية كبرى، مشيراً بشكل خاص إلى القلق الاستراتيجي بشأن التفاعل بين الذكاء الاصطناعي والأسلحة النووية والتكنولوجيا البيولوجية والتكنولوجيا العصبية وتكنولوجيا الروبوتات.

صار مصطلح هلاوس الآلات شديد الشيوع في وصف أخطاء الذكاء الاصطناعي  (بيكساباي.كوم)

واختتمت تلك الجلسة بأن تبنى مجلس الأمن إلى إنشاء مجموعة عمل تكلف إعداد تقرير بحلول نهاية العام عن خيارات الحوكمة العالمية للذكاء الاصطناعي.
وخلص مجلس الأمن إلى ضرورة إنشاء كيان أممي لمؤازرة جهود حوكمة استخدام الذكاء الاصطناعي، يكون على غرار الوكالة الدولية للطاقة الذرية أو منظمة الطيران المدني الدولي.

ترياق السيطرة يحمله طبيب “غوغل”

في ومضة أمل، ربما يحمل الذكاء الاصطناعي التوليدي الذي زودت به “غوغل” روبوتها “ميد بالم”، الأمل بشفاء صوفيا من “هلوسة الآلات” المتسربة إلى عقلها الإلكتروني.

باختصار، اجتاز “ميد بالم” امتحان الطب في الولايات المتحدة المميز بمستواه العلمي المتقدم، واهتم الاعلام العام بذلك الإنجاز المؤثر.

استطراداً، ربما يفيد التشديد على أن صنّاع “ميد بالم” ركزوا على مسألة صنع آلية ضبط وسيطرة على ذلك الذكاء الاصطناعي عبر السيطرة على المدخلات، أي ضبط البيانات والمعلومات التي توضع بتصرف القدرات الهائلة في الحوسبة التي يملكها ذلك الروبوت. وأدى ذلك إلى استفادة شبه نموذجية من الذكاء الاصطناعي التوليدي في منحى قدرته التي تتخطى البشر بما لا يقاس، في اختزان المعلومات وتكثيفها وغربلتها وانتقاء الأقرب إلى المطلوب منها.

وتعتبر مسألة السيطرة في صلب النقاشات حول كيفية صنع التآزر بين ذكاء البشر والآلات راهناً. وطري في الذاكرة تلك الصورة التي رسمها البروفيسور ستيورات راسل عن ذكاء اصطناعي خارق ومنفلت من السيطرة، توكل إليه مهمة بسيطة من نوع صنع مشابك غسيل، فيحول الأرض كلها إلى مصنع ضخم لانتاج تلك السلعة.

باختصار مخل، تتعلق السيطرة بمسألة الضبط السيبراني ودورة التغذية الراجعة Feed Back Loop التي تضبط المدخلات بموجب ما يتحصل من المخرجات، مع إبقاء اليد العليا الأخيرة للتدخل البشري. ويعتبر راسل من كبار المتضلعين بتلك السيطرة السيبرانية. [أنظر مقال الذكاء الاصطناعي التوليدي منفلت من التحكم السيبراني في موقع “اندبندنت عربية].

لقد حضر راسل قمة جنيف العالمية عن الذكاء الاصطناعي، لكنه لم يعط مجالاً واسعاً للتعبير عن رأيه. وفي غير تغطية إعلامية، لاحظ نشطاء الحقوق الإلكترونية أن القمة لم تفسح مساحة كافية للأصوات المعترضة على المسارات الحالية التي تسير بها الشركات الكبرى في المعلوماتية والاتصالات فيما تصنعه من تقنيات الذكاء الاصطناعي التوليدي.

لعله من الأمور التي تحرك مكامن القلق لدى كثيرين، ولكن نقاشه يستلزم مقالات أخرى.

وفي روايته “الإنسان وروبوت الآندرويد”، أورد الكاتب الأميركي فيليب ديك (1928- 1982) الوصف التالي المُحمّل بسخرية مرة، “ربما سيأتي يوم يطلق فيه كائن بشري النار على روبوت صنع تواً في مصانع شركة جنرال إلكتريك. ويرى بدهشة كبيرة أنه [= الروبوت] ينزف دماً ودموعاً. ويمكن للروبوت المحتضر أن يطلق النار على الإنسان، ويشاهد بدهشة أكبر غمامة صغيرة من دخان رمادي ترتفع من المضخة الكهربائية التي كانت تعمل بديلاً للقلب النابض للإنسان. وستكون تلك لحظة الحقيقة الكبرى للاثنين”.

هل يستطيع “الطبيب” الأميركي “ميد بالم” أن يحمل معه شيئاً من الطمأنينة بشأن السيطرة البشرية على الذكاء الاصطناعي وآفاقه؟ الأرجح أن الإجابة لن تتأخر.

أخبار مرتبطة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى