صدى المجتمع

مترصدون إلكترونيون يزيفون الصور والأصوات في زوايا الشبكة السوداء

عندما اجتمع «مجلس العفو والإفراج المشروط» في ولاية لويزيانا، في أكتوبر (تشرين الأوّل) الماضي، للبتّ في الإفراج المحتمل عن شخص مدان بجريمة قتل، استدعى طبيبة تملك سنوات من الخبرة في مجال الصحة النفسية للتحدّث عن حالة السجين.

مترصدون إلكترونيون يراقبونكم

لم يكن مجلس العفو والإفراج المشروط المجموعة الوحيدة التي تنصت باهتمام. فقد تابع الجلسة عددٌ من المترصدين الإلكترونيين الذين تعرفوا عليها والتقطوا صوراً للطبيبة من نسخة إلكترونية لشهادتها، وعدّلوا الصور باستخدام أدوات الذكاء الاصطناعي لتبدو وكأنّها عارية، ثمّ شاركوا الملف المُتلاعب به على «4 تشان» 4chan، وهو موقع ينشر الرسائل المجهولة معروف بدعم المضايقات ونشر محتوى الكراهية ونظريات المؤامرة.

كانت هذه واحدة من مرّات عدّة استخدم فيها مستخدمو مجموعة «4 تشان» أدوات ذكاء اصطناعي حديثة، كمعدّلات المقاطع الصوتية ومولّدات الصور لنشر محتوى عنصري ومسيء لأشخاص مثلوا أمام مجلس العفو والإفراج المشروط، بحسب ما أفاد دانيال سيغل، طالبٌ في جامعة كولومبيا يدرس حالياً وسائل استغلال الذكاء الاصطناعي في خدمة أهداف خبيثة. ووثّق سيغل النشاط على الموقع لعدّة أشهر.

أدوات الذكاء الاصطناعي للمضايقات الإلكترونية

أكّد الباحث أنّ الصور والتسجيلات المعدّلة لم تنتشر خارج «4 تشان». واعتبر خبراء يراقبون الموقع أنّ هذه الجهود تقدّم لمحة عمّا سيكون عليه شكل توظيف مستخدمي الإنترنت الشائنين لأدوات الذكاء الاصطناعي المتطورة لإرسال ملفات المضايقات الإلكترونية وحملات الكراهية في الأشهر والسنوات المقبلة.

من جهته، قال كالوم هود، رئيس قسم البحث في مركز مكافحة الكراهية الرقمية، إنّ المواقع الهامشية كـ«4 تشان» (الذي يعدُّ الأسوأ) غالباً ما تقدّم إشارات مبكّرة على أشكال استخدام التقنيات الجديدة لنشر الأفكار المتطرّفة. ويشرح أنّ هذه المنصات مليئة بالشباب الذين «يسارعون إلى تبنّي التقنيات الجديدة» كالذكاء الاصطناعي «ويعيدون ضخّ عقائدهم في الفضاءات واسعة الاستخدام». ويضيف أنّ هذه التكتيكات غالباً ما يتبنّاها بعض المستخدمين أو منصات إلكترونية أكثر شهرة.

مشكلات التزييف ووسائل مكافحتها

نستعرض لكم فيما يلي عدداً من المشكلات التي تسببها أدوات الذكاء الاصطناعي والتي اكتشفها الخبراء على «4 تشان» – وما هي الخطوات التي تتخذها جهات إنفاذ القانون وشركات التقنية بشأنها.

* الصور الاصطناعية والمحتوى الإباحي المصنوع بالذكاء الاصطناعي. تولّد أدوات الذكاء الاصطناعي كـ«دال-إي» Dall-E و«ميدجورني» Midjourney صوراً جديدة من توصيفات نصية بسيطة، إلّا أنّ موجةً جديدة من مولّدات الصور المدعومة بالذكاء الاصطناعي صُمّمت خصيصاً لفبركة المحتوى الإباحي المزيّف بتسهيل إزالة الملابس من الصور الموجودة.

وفي تعليقه على حملات الكراهية والتضليل الإلكترونية، قال هود: «يمكن لهذه الحملات استخدام الذكاء الاصطناعي لفبركة صورة لما تريده بالتحديد».

لا يوجد قانون فيدرالي أميركي يمنع صناعة صورٍ مزيفة للنّاس، مما يضع المجموعات المعنية كمجلس العفو والإفراج المشروط في لويزيانا في حال من التخبّط عند التعامل مع هذا الأمر. وكان المجلس قد فتح تحقيقاً بعد ظهور نتائج بحث سيغل عن «4 تشان».

وقالت فرانسيس آبوت، المديرة التنفيذية للمجلس: «بالتأكيد سنتخذ إجراءات ضدّ أيّ صور مفبركة تظهر أعضاء مجلسنا أو المشاركين في جلساتنا بشكلٍ سلبي. ولكن علينا أن نتحرّك في إطار القانون، مما يعني أنّ تحديد ما إذا كانت هذه الصور مخالفة للقانون أم لا يقع على عاتق شخصٍ آخر».

وسّعت ولاية إلينوي قانوناً ينظّم المحتوى الإباحي الانتقامي ليسمح للأشخاص المستهدفين بالمواد الإباحية التي صُنعت بغير موافقتهم بواسطة أنظمة الذكاء الاصطناعي بمقاضاة من صنعها أو وزّعها. وعمدت كاليفورنيا، وفيرجينيا، ونيويورك أيضاً إلى تمرير قوانين تمنع توزيع أو صناعة المحتوى الإباحي بواسطة الذكاء الاصطناعي من دون موافقة الأطراف المعنية.

* استنساخ الأصوات. أطلقت شركة الذكاء الاصطناعي «إليفين لابز» ElevenLabs العام الماضي أداةً تفبرك نسخاً صوتية مقنعة للأصوات تتفوّه بأيّ شيء يطبعه المستخدم في البرنامج.

بعد وقتٍ قصير من طرح الأداة، نشر مستخدمون على موقع «4 تشان» مقاطع صوتية مزيفة للممثلة البريطانية إيما واطسون وهي تقرأ بياناً رسمياً لأدولف هتلر.

واستخدم هؤلاء أيضاً محتوى من جلسات استماع مجلس العفو والإفراج المشروط في لويزيانا لفبركة مقاطع مزيفة للقضاة وهم يوجهون تعليقات مهينة وعنصرية للمدّعى عليهم. صُنع الكثير من هذه المقاطع باستخدام أداة «إلفين لابز»، بحسب سيغل، الذي استخدم أداة لتعريف الصوت المصنوع بالذكاء الاصطناعي من تطوير الشركة نفسها للتحقيق في أصل المقاطع.

سارعت «إليفين لابز» حينها لفرض الضوابط على أداتها، فأصبحت تطلب من المستخدمين رسماً مالياً قبل السماح لهم بالوصول إلى أدوات استنساخ الصوت، إلّا أنّ الخبراء يرون أنّ هذه التغييرات لم تنجح في إبطاء انتشار الأصوات المزيفة التي تحمل توقيع الذكاء الاصطناعي. فقد شهدت منصات كـ«يوتيوب» و«تيك توك» انتشار أصوات مزيّفة لمشاهير يشارك معظمهم معلومات سياسية مضلّلة.

وفرضت منصّات كثيرة منذ ذلك الحين، ومنها «تيك توك» و«يوتيوب»، استخدام وسوم تعريفية على بعض محتوى الذكاء الاصطناعي.

وكان الرئيس الأميركي جو بايدن قد وقّع في أكتوبر (تشرين الأوّل) الماضي، أمراً تنفيذياً يفرض على جميع الشركات وضع وسوم على هذا النوع من المحتوى، وأعطى توجيهات لوزارة التجارة لتطوير معايير للعلامات المائية ومصادقة محتوى الذكاء الاصطناعي.

أدوات ذكاء اصطناعي مخصّصة

مع تقدّم موقع ميتا في سباق الذكاء الاصطناعي، تبنّت الشركة استراتيجية تتيح رموزها البرمجية للباحثين. وهذه المقاربة التي تُعرف على نطاق واسع «بالمصدر المفتوح»، من شأنها أن تسرّع التطوير من خلال منح الأكاديميين وعلماء التقنية حقّ الوصول للمزيد من المواد الأساسية التي تسمح لهم بتحسين وتطوير أدواتهم الخاصة.

عندما أطلقت ميتا نموذجها اللغوي الكبير «لاما» لمجموعة مختارة من الباحثين في فبراير (شباط)، تسرّب الرمز على الفور على موقع «4 تشان»، فاستخدمه الناس هناك لأهداف مختلفة تماماً، حيث أنّهم عدّلوا الرمز لتقليل أو حتّى إزالة الإجراءات الحمائية، وابتكروا روبوتات محادثة جديدة قادرة على إنتاج أفكار معادية للسامية.

شكّلت هذه الجهود لمحة استباقية عن التعديلات والتغييرات التي قد تشهدها أدوات الذكاء الاصطناعي المجانية والمفتوحة المصدر من قبل المستخدمين الذين يملكون مهارات تقنية متقدّمة.

تعليقاً على الحادثة، قال المتحدّث باسم شركة ميتا في رسالة إلكترونية: «صحيحٌ أنّ النموذج ليس متوفراً للجميع، وأنّ البعض حاول التحايل للحصول على موافقة للاستخدام، ولكنّنا نعتقد أنّ استراتيجية النشر الحالية تساعدنا على تحقيق توازن بين المسؤولية والانفتاح».

وشهدت الشهور التي تلت تلك الحادثة تطوير نماذج لغوية تُستخدم لنشر وجهات نظر يمينية متطرّفة أو صنع محتوى إباحي، واستمرّ مستخدمو «4 تشان» بتعديل مولّدات الصور لإنتاج صور العري وترويج الدعابات العنصرية، متجاوزين الضوابط التي فرضتها شركات التقنية الكبرى.

أخبار مرتبطة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى