الجريمة المدعومة بالذكاء الاصطناعي - عندما تصبح الآلة مجرمة
- Bridge Connect

- 4 ديسمبر
- 4 دقيقة قراءة
سلسلة رؤى بريدج كونيكت: الذكاء الاصطناعي في علم الجريمة | الجزء الثاني
انقلاب الأدوار
صُمم الذكاء الاصطناعي كأداةٍ للبشرية لحل المشكلات. والآن، يُستخدم ضدنا بشكل متزايد. في عام ٢٠٢٥، حذّرت يوروبول من أن
من عمليات احتيال استنساخ الأصوات إلى القرصنة الآلية، منح الذكاء الاصطناعي الجريمة المنظمة نفوذًا غير مسبوق. فهو يُضخّم الخداع، ويوسع نطاق الاحتيال، ويُشوّش المساءلة. في هذه المقالة الثانية من سلسلتنا، ندرس كيف يُعيد الذكاء الاصطناعي تشكيل المشهد الإجرامي، وما يجب على جهات إنفاذ القانون وصانعي السياسات فعله للبقاء في الطليعة.
مجموعة الأدوات الجنائية الجديدة
1. التزييف العميق والوسائط الاصطناعية
لقد أتاح التقدم في مجال الذكاء الاصطناعي التوليدي إمكانية إنتاج مقاطع فيديو وصوت وصور واقعية لا يمكن تمييزها عن الواقع. وقد استُخدمت تقنية التزييف العميق بالفعل لانتحال شخصيات المديرين التنفيذيين والسياسيين والضحايا. في عام 2024، تعرض مسؤول مالي في هونغ كونغ للخداع لتحويل 25 مليون دولار بعد أن استخدم محتال أصواتًا ومقاطع فيديو مُزيّفة لانتحال شخصية المدير المالي للشركة خلال مكالمة فيديو. تُظهر هذه الحادثة التقاء تطور الذكاء الاصطناعي مع نقاط الضعف البشرية - وهو مزيج قوي لهجمات الهندسة الاجتماعية.
2. التصيد الاحتيالي والاحتيال المعزز بالذكاء الاصطناعي
تستطيع نماذج اللغات الكبيرة (LLMs)، مثل متغيرات GPT، صياغة رسائل تصيد احتيالي إلكترونية خالية من الأخطاء النحوية ومتوافقة مع السياق على نطاق واسع. تستخدم عصابات الجريمة الإلكترونية الآن "محركات تنبيه" آلية تُكيّف أسلوب الرسائل وتوقيتها ولغتها مع أهداف محددة. وقد وجدت دراسة أجرتها شركة IBM عام 2025 أن عمليات التصيد الاحتيالي المُولّدة بالذكاء الاصطناعي حققت معدل نقر أعلى بنسبة 50% من الحملات التقليدية.
3. الاختراق الآلي والبرامج الضارة التوليدية
تقوم أدوات الاختراق المعتمدة على التعلم الآلي بفحص الشبكات، وتحديد نقاط الضعف، وتطوير أكواد الاستغلال دون تدخل بشري. تستخدم بعض عائلات البرمجيات الخبيثة الآن الذكاء الاصطناعي لتجنب الكشف من خلال تعلم كيفية استجابة أنظمة الأمن لها آنيًا.
4. الذكاء الاصطناعي واقتصاد الشبكة المظلمة
تتزايد تجارة المنتديات الإجرامية لنماذج الذكاء الاصطناعي المُدرَّبة مسبقًا لتوليد وثائق احتيالية، وانتحال هويات، وشبكات غسيل أموال آلية. وقد وثَّق باحثون في جامعة أمستردام نماذج ذكاء اصطناعي "مُقدَّمة كخدمة" تُسوَّق لمكافحة الجرائم الإلكترونية، مُزوَّدة بأدلة استخدام وقنوات دعم فني.
كيف يستغل المجرمون سلسلة توريد الذكاء الاصطناعي
نادرًا ما يتطلب الاستخدام الإجرامي للذكاء الاصطناعي تطويرًا داخليًا متطورًا. بل يستغل المجرمون البنية التحتية المشروعة من خلال:
نماذج مفتوحة المصدر:
إساءة استخدام واجهة برمجة التطبيقات:
إساءة استخدام الهندسة الفورية:
الهويات الاصطناعية:
والنتيجة هي نظام بيئي يستخدم فيه المجرمون المنصات الرئيسية كمختبرات للابتكار - مستغلين الانفتاح ذاته الذي يدفع تقدم الذكاء الاصطناعي.
دراسات الحالة: الجريمة في عصر الخوارزميات
الحالة 1: احتيال استنساخ الصوت
أفادت شركة طاقة أوروبية بأن صوتًا مُولّدًا بالذكاء الاصطناعي، مطابقًا لصوت رئيسها التنفيذي، أمر مديرًا بالموافقة على نقل عاجل. ولم يكشف التحليل الجنائي إلا بعد الحدث أن المكالمة كانت مُصطنعة. بلغت الخسائر 2.3 مليون يورو.
الحالة الثانية: روبوتات الدردشة المسلحة
حددت جهات إنفاذ القانون روبوتات دردشة مصممة لتجنيد الأفراد لتبني أيديولوجيات متطرفة، ونشر معلومات مضللة، وتوجيه الأنشطة الإجرامية. تُكيّف هذه الروبوتات استراتيجيات المحادثة بناءً على التحليل النفسي.
الحالة 3: الاحتيال التوليدي على نطاق واسع
في عام 2025، أبلغت الإنتربول عن زيادة كبيرة في عمليات الاحتيال بالهوية الاصطناعية التي تنطوي على وجوه تم إنشاؤها بواسطة الذكاء الاصطناعي وتستخدم للتحايل على أنظمة التحقق من الوجه لإنشاء حسابات مصرفية.
الذكاء الاصطناعي كمتعاون إجرامي: طمس دور الوكالة
بخلاف الأدوات السيبرانية التقليدية، تعمل أنظمة الذكاء الاصطناعي باستقلالية ضمن معايير يحددها مستخدموها. وهذا يخلق منطقة رمادية من المسؤولية القانونية والأخلاقية: من يتحمل المسؤولية عندما يرتكب الذكاء الاصطناعي جريمة لم يقصدها مشغله صراحةً؟
صاغ باحثون قانونيون، مثل ماتيس ماس وكيث هايوارد، مصطلح "
استجابة إنفاذ القانون: الذكاء الاصطناعي مقابل الذكاء الاصطناعي
ولمواجهة الجرائم المدعومة بالذكاء الاصطناعي، تعمل وكالات إنفاذ القانون على نشر الذكاء الاصطناعي بنفسها - في واقع الأمر، آلة ضد آلة.
يستخدم
يقوم
أنشأت
في حين أن هذه المبادرات واعدة، إلا أنها تكشف أيضًا عن ديناميكية عرقية: فالمجرمون يكررون أفعالهم أسرع من قدرة الجهات التنظيمية على التشريع. فبدون التنسيق الدولي وتعاون القطاع الخاص، ستظل أجهزة إنفاذ القانون مجرد ردود أفعال.
المخاطر الاستراتيجية للصناعة والحكومات
تسليح المصادر المفتوحة
معضلة الاستخدام المزدوج
التعرض التنظيمي
السمعة والثقة
بالنسبة لقادة الشركات، فإن إدارة مخاطر الذكاء الاصطناعي تمتد الآن إلى ما هو أبعد من الأمن السيبراني إلى
حوكمة الذكاء الاصطناعي والأطر الوقائية
وتقوم الحكومات بتجربة أطر عمل للحد من إساءة استخدام الذكاء الاصطناعي دون خنق الابتكار.
يخلق
يمنح
يقدم
لكن التشريع وحده لا يكفي لمواكبة التطور التكنولوجي. يجب على القطاع الخاص أن يُدمج "المعايير الأخلاقية" - تتبع الاستخدام، ومرشحات الاستجابة السريعة، وقنوات الإبلاغ عن سوء الاستخدام - كجزء من تصميم الذكاء الاصطناعي المسؤول.
العامل البشري: الحلقة الأضعف تبقى
رغم قوة الذكاء الاصطناعي، لا تزال معظم الهجمات تنجح لأن البشر يثقون بالآلات بسهولة. فالموظفون يصدقون الأصوات الاصطناعية، والمواطنون يتشاركون المعلومات مع روبوتات الدردشة، والشرطة تقبل "الأدلة" المُولّدة آليًا دون التحقق منها.
إن تعزيز
التداعيات الاستراتيجية على صناع القرار
إلى الحكومات وقادة إنفاذ القانون:
دمج سيناريوهات الجريمة المدعومة بالذكاء الاصطناعي في الاستراتيجيات السيبرانية الوطنية.
تطوير وحدات استخبارات التهديدات والذكاء الاصطناعي المشتركة مع الصناعة.
إعطاء الأولوية للتشريعات المتعلقة بالاحتيال على الهوية الاصطناعية والمسؤولية عن التزييف العميق.
للمستثمرين ومقدمي التكنولوجيا:
إجراء اختبارات الفريق الأحمر لنماذج الذكاء الاصطناعي بحثًا عن مسارات إساءة الاستخدام.
اعتماد
انظر إلى الامتثال باعتباره ميزة تنافسية: الثقة هي عملة السوق.
بالنسبة لنظام العدالة ككل:
التعاون في مجموعات البيانات المشتركة للوسائط الاصطناعية لتدريب نماذج الكشف.
تعزيز الوعي العام بشأن الاحتيال المدعوم بالذكاء الاصطناعي من خلال الحملات التعليمية.
الخلاصة: سباق التسلح الاستخباراتي
نحن ندخل عصرًا يستخدم فيه المجرمون ومسؤولو إنفاذ القانون نفس التقنيات، ويتسابق كلٌّ منهما للتفوق على الآخر. ولن تعتمد النتيجة على قوة الحوسبة فحسب، بل على الانضباط الأخلاقي، والتنسيق بين القطاعات، والثقة المجتمعية.
الجريمة المدعومة بالذكاء الاصطناعي ليست ارتفاعًا مؤقتًا، بل تحولًا هيكليًا في آلية عمل المخالفات. الآلات ليست شريرة، بل هي غير مبالية. حوكمتنا، وجاهزيتنا، وقيمنا هي التي ستحدد ما إذا كان الذكاء الاصطناعي سيبقى حارسًا للعدالة أم خصمها القادم.
"كل تقدم في مجال الذكاء الاصطناعي يصبح بمثابة خرق محتمل في أيدي المجرمين."
