الذكاء الاصطناعي يدفع حيل الهندسة الاجتماعية نحو مستويات مخيفة
تمثل الهندسة الاجتماعية أحد أقوى أشكال الجرائم السيبرانية وأكثرها استمراراً.
وثمة سبب يقف وراء الانتشار الواسع للهندسة الاجتماعية في أوساط مجرمي الإنترنت، إذ إن اختراق بيانات الأشخاص أسهل بكثير من اختراق البرامج الكومبيوترية. والهندسة الاجتماعية عبارة عن مجموعة من الحيل والتقنيات المستخدمة لخداع الناس.
خداع إلكتروني شخصي
ولكي يتمكن المرء من اختراق شبكات البرمجيات، فإنه بحاجة إلى فهم البيئة المستهدفة، وكيفية اكتشاف نقاط الضعف ورصد الثغرات – الأمر الذي يتطلب مهارات وموارد تكنولوجية كبيرة. وعلى الجهة المقابلة، نجد أن اختراق بيانات البشر يتطلب ببساطة معرفة أساسية بالطبيعة البشرية – بمعنى مدى قابليتنا للسقوط في شرك الجشع والشهوة والفضول ونفاد الصبر. وإذا نجحت في اختراق حسابات الشخص المناسب، أي كل شخص غير مدرك لإغراءات التصيُّد الاحتيالي وعلاماته المنذرة، فإنك تحصل حينها على مفاتيح المملكة المنشودة، ولا يجري اكتشاف نواياك غير المشروعة.
تلعب التكنولوجيا دوراً هي الأخرى، فكلما تطورت، زاد اعتمادنا عليها. إضافة لذلك، أصبح خداع البشر أسهل، ففي البداية، جرت عمليات الاحتيال عبر البريد الإلكتروني (التصيد الاحتيالي phishing)، ثم الرسائل النصية القصيرة (التصيد عبر الرسائل النصية القصيرة smishing)، تلاه «التصيد الصوتي» vishing، وبعد ذلك ظهرت اختراقات شبكات التواصل الاجتماعي، ثم اختراقات رموز الاستجابة السريعة المعروفة باسم «كيو آر كود QR codes «quishing. والملاحظ أن الهندسة الاجتماعية تطورت جنباً إلى جنب مع التكنولوجيا.
موجة الذكاء الاصطناعي
وجاءت موجة مفاجئة من تقنيات الذكاء الاصطناعي لتدفع مثل هذه الهجمات باتجاه مستويات جديدة من التعقيد.
لنتفحص الآن 5 تطورات جديدة على صعيد الذكاء الاصطناعي، والتداعيات المحتملة لها على عمليات الاحتيال المرتبطة بالهندسة الاجتماعية:
*التصيُّد الاحتيالي المهني والشخصي على نطاق واسع
خلص بحث أجرته «غوغل كلاود» إلى أنه تجري الاستعانة بالذكاء الاصطناعي التوليدي بالفعل في تطوير هجمات التصيُّد الاحتيالي التي تغيب عنها الأخطاء الإملائية والنحوية، ما يزيد في صعوبة رصدها وحظرها.
بجانب ذلك، تمكّن الأتمتة المهاجمين من إضفاء طابع شخصي على رسائل التصيُّد الاحتيالي أو تعديلها حسب الهدف، ما يجعلها تبدو أكثر واقعية وإقناعاً.
* استنساخ بالصوت وتوليف الفيديو
تتيح تقنيات الذكاء الاصطناعي للمستخدمين استنساخ الصوت، وتركيب الوجوه على مقاطع الفيديو، وانتحال شخصيات تخصّ آخرين. واللافت وقوع هجمات مقنعة في جميع أرجاء العالم؛ حيث يستنسخ المهاجمون الصوت ويبتدعون شخصيات افتراضية بهدف الاحتيال على مؤسسات وسرقة أموالها عبر موظفيها.
* المزيد من الهجمات باستخدام النماذج اللغوية الكبيرة
تعالج النماذج اللغوية الكبيرة القياسية النصوص فقط. في المقابل، تتيح النماذج اللغوية الكبيرة متعددة الوسائط فوائد كبيرة مقارنة بالنماذج اللغوية الكبيرة، وذلك لقدرتها على معالجة وسائط إضافية وربطها، مثل الصور ومقاطع الفيديو والمقاطع الصوتية والبيانات الحسية.
ويمكّن ذلك أدوات الذكاء الاصطناعي من بناء وعي أعمق بالسياق، ما يفضي بدوره إلى استجابات أكثر ذكاءً، وتحسين المنطق، والتفاعلات بين الإنسان والحاسوب. وقد يتمكّن المهاجمون قريباً من تسخير النماذج اللغوية الكبيرة متعددة الوسائط لإنشاء رسائل تصيّد سياقية إلى حد كبير، ما يعزز بشكل كبير من فعالية هجمات الهندسة الاجتماعية.
* التطبيقات الضارة لتكنولوجيا تحويل النص إلى فيديو
يعد تحويل النص إلى فيديو إحدى صور التكنولوجيا الصاعدة بمجال الذكاء الاصطناعي. ومثلما يوحي الاسم، تتيح تكنولوجيا تحويل النص إلى فيديو للمستخدمين إنشاء محتوى مرئي عالي الجودة ببساطة عن طريق توفير مدخلات نصية.
وحال وقوع مثل هذه التكنولوجيا بأيدي عناصر خطرة، فإنها قد تصبح خطيرة، ويمكن استغلالها في تلفيق روايات زائفة (معلومات مضللة) وتوليد صور مزيفة عبر تقنية «ديب فيك» على نطاق واسع، وخداع أفراد ومؤسسات، وشن هجمات مهندسة على صلة بالهندسة الاجتماعية.
* صعود تكنولوجيا الذكاء الاصطناعي بوصفها خدمة
يتوقع التقرير الصادر عن «غوغل كلاود» أن أدوات الذكاء الاصطناعي سيجري عرضها قريباً بوصفها خدمة تساعد عناصر خطرة أخرى في حملاتها الخبيثة. وقد بدأت بالفعل أدوات خبيثة على صلة بالذكاء الاصطناعي، مثل «فرود جي بي تي» FraudGPT، في شبكة الإنترنت المظلمة (دارك ويب)، الأمر الذي يمكّن مجرمين سيبرانيين من صياغة رسائل بريد إلكتروني متطورة للتصيّد الاحتيالي.
ومع نضوج تقنيات الذكاء الاصطناعي هذه وتسهيل الوصول إليها، ستتمكن الجهات الفاعلة السيئة الأقل مهارة من نشر هذه الأدوات، ما يؤدي إلى زيادة حجم هجمات الهندسة الاجتماعية المدفوعة بالذكاء الاصطناعي.
وسائل مقاومة الهجمات الإلكترونية
كيف يمكن للشركات التخفيف من مخاطر هجمات الهندسة الاجتماعية المدفوعة بالذكاء الاصطناعي؟ لا تقتصر هجمات الهندسة الاجتماعية على المؤسسات الكبيرة، إذ تشير التقديرات إلى أن العامل في شركة بها أقل من 100 موظف سيواجه عدد هجمات على صلة بالهندسة الاجتماعية أكثر بنسبة 350 في المائة مقارنة بنظيره داخل شركة أكبر.
بجانب ذلك، مع انتشار تكنولوجيا الذكاء الاصطناعي وتعامل الشركات رقمياً وتفاعلها أكثر من تفاعلها على أرض الواقع، ستصبح هذه الهجمات أكثر شيوعاً.
وفيما يلي أفضل الممارسات التي يمكن أن تساعد في التخفيف من خطورة هذا التهديد:
* تعزيز الوعي بمخاطر الذكاء الاصطناعي
من خلال الاتصالات والتذكيرات المنتظمة، تجب توعية الموظفين بالمخاطر الناشئة على صعيد الذكاء الاصطناعي. وينبغي العمل على توثيق مخاطر الذكاء الاصطناعي في السياسات الأمنية، كي يدرك العاملون كيفية رصدها والتعامل معها، ومن يمكنهم الاتصال به حال ظهور تهديد.
* تدريب المستخدم النهائي
ثمة أهمية كبرى وراء التدريب المنتظم (الشهري) بمجال التوعية الأمنية. يمكن للمؤسسة توفير تدريب شخصي، بل وربما تدريب معدل حسب الحاجات الفردية للمتدربين إذا لزم الأمر، بجانب إجراء تمارين محاكاة لهجمات التصيّد الاحتيالي، لتعزيز المهارات والقدرات الأمنية للموظفين. وبوجه عام، يعتمد نجاح وفشل هجمات الهندسة الاجتماعية على يقظة الموظفين ومستوى معرفتهم.
*تعظيم الاستفادة من الأدوات والتكنولوجيا
رغم صعوبة اكتشاف هجمات الهندسة الاجتماعية عادة، يمكن للمؤسسات تنفيذ ضوابط لتقليل مخاطر سرقة الهوية والاحتيال. مثلاً، يمكن تفعيل خاصية التحقق متعدد العوامل لمكافحة التصيد الاحتيالي، بهدف تعزيز عملية التحقق. ويمكن للمؤسسات كذلك التفكير في استخدام أدوات الأمن السيبراني المدعومة بالذكاء الاصطناعي، التي يمكنها فحص البيانات الوصفية لرسائل البريد الإلكتروني للكشف عن مؤشرات محاولات التصيد الاحتيالي.
في العادة، تشكل الهندسة الاجتماعية المرحلة الأولى في دورة الهجوم السيبراني. فإذا تعلمت المؤسسات كيفية استغلال الحدس البشري الذي جرى تطويره من خلال تمارين التصيّد الاحتيالي المتكررة، ستصبح قادرة على رصد أي هجوم ومنعه قبل أن يتسبب في أضرار مادية. وبجانب تعزيز الحدس الصحيح، من المهم بالقدر ذاته أن يخضع الموظفون للمساءلة، وأن يتصرفوا بمسؤولية تجاه الإبلاغ عن العناصر والحوادث المشبوهة. ولتحقيق ذلك، يجب على المؤسسات أن تسعى إلى تعزيز ثقافة صحية وداعمة للأمن السيبراني.