تتذكر عندما قال أرني: «سأعود!» في فيلم المدمّر. لقد عاد بالتأكيد، لكن الأمر ليس هوليووديًا كما تعتقد. يحتوي "الفضاء السيبراني" على تهديد أشد بكثير من روبوتات سكاي نت المتمردة التي تسعى للسيطرة على العالم وفق أجندتها الخاصة. نحن نتحدث هنا عن هجمات إلكترونية مدعومة بالذكاء الاصطناعي.
حسنًا، لقد حاول أرني تحذيرنا، ومع اقترابنا بهدوء من عام 2026، أصبحت التحذيرات واقعًا ملموسًا، وأصبح الخيال الآن حقيقة.
لم يمضِ سوى بضعة أيام على عام 2026، وقد شهدنا استهداف شركات الأسلحة الروسية بهجمات إلكترونية مدعومة بالذكاء الاصطناعي، إلى جانب حوادث بارزة مثل هجوم BSOD لحملة ClickFix واختراق NordVPN.
من الآمن القول إن مستقبل أمن المعلومات في 2026 يلوح في الأفق محملاً بمخاطر مرتبطة بنماذج اللغة الكبيرة، وتهديدات للبيانات الشخصية والأمن، وهجمات الفدية (برامج الفدية)، والعديد من التحديات الأخرى.
إذا كنت تعتقد أن جدار حماية وبرنامج مضاد للفيروسات كافيان لإيقاف هذه الهجمات، فمن المحتمل أنك لم تتجاوز بعد مرحلة ويندوز فيستا، وحان الوقت لتفعل ذلك.
هذا العام يتطلب تأملًا جادًا في الأمن السيبراني وفريقًا جاهزًا لمواجهة الجرائم السيبرانية الناتجة عن الذكاء الاصطناعي الضار.
القرصنة الآلية باستخدام الذكاء الاصطناعي: خرق تسجيل الدخول
في الماضي، عندما كان يحاول شخص ما اختراق بيانات تسجيل الدخول الخاصة بك، كان الأمر يستغرق أيامًا ويتطلب الكثير من التفكير والجهد العقلي.
ولكن الآن، أصبحت هجمات الأمن السيبراني المعتمدة على التعلم الآلي هي الموضة السائدة.
نعم. كل هذا بدأ عندما وقع إطار اختبار الاختراق البريء، أو أداة اختبار الاختراق التي تُستخدم غالبًا لفحص الأمان، في أيدي القراصنة.
ما كان يُستخدم في البداية من قِبل المخترقين الأخلاقيين لاختبار الأمان، أصبح الآن يُستَخدم من قِبل القراصنة والمهاجمين لشنّ هجمات القوة الغاشمة واختراق أنظمتك.
ينشر المهاجمون وكلاء ذكاء اصطناعي مستقلين مقترنين بنموذج لغوي كبير (LLM). يعمل الاثنان معًا بتناغم، حيث يتولى وكيل الذكاء الاصطناعي تنفيذ المهمة، بينما يزوّده النموذج اللغوي الكبير بالمعلومات اللازمة.
وهنا يصبح الأمر أكثر إثارة للاهتمام؛ إذ تقود هذه الهجمات الإلكترونية المدعومة بالذكاء الاصطناعي وكلاءُ ذكاء اصطناعي يقومون بتحديد صفحات تسجيل الدخول وتحليل كود HTML فورًا لاستخراج حقول بيانات الاعتماد ونماذج الدخول، ومحاولة التقاط معرّفات المستخدمين وكلمات المرور ورموز التحقق لمرة واحدة (OTPs).
الآن وبعد جمع المعلومات، توجد طريقتان رئيسيتان لتنفيذ الهجمات.
هجمات القوة الغاشمة
رش كلمة المرور
في هجمات القوة الغاشمة (القوة الغاشمة )، يتم تجربة عدة كلمات مرور مختلفة لنفس المعرّف. لكن هذا الأسلوب يصبح شبه عديم الفائدة بسبب سياسة المحاولات الثلاث، حيث يتم قفل النظام بعد ثلاث محاولات تسجيل دخول فاشلة، سواء بالنسبة لك أو للمهاجم.
لكن في حالة هجوم رش كلمات المرور (كلمة المرور رش)، تختلف الأمور كثيرًا ويكون الهجوم أكثر فاعلية. فرغم أن هذا النوع من الهجمات بطيء ومنخفض الحدة، إلا أنه يعتمد على تجربة كلمة مرور شائعة واحدة عبر آلاف الحسابات، مما يسمح بتجاوز سياسة المحاولات الثلاث دون التسبب في قفل الحسابات.
فكّر في الأمر بهذه الطريقة
هل تتذكر أولئك باعة كتب المساعدة الذاتية الذين كانوا يطرقون الأبواب؟ مزعجون لكن لا حول لهم ولا
رشّ كلمات المرور يشبه ذلك إلى حدّ ما، لكن بدلًا من الطرق على بابٍ واحد مرارًا حتى يفقد صاحبه صبره ويتصل بالشرطة بعد سياسة «الضربات الثلاث»، يقوم المهاجم بقرع كل أجراس الحي مستخدمًا نفس الأسلوب.
يتجاهله الأمن لأنه لا يضايق شخصًا واحدًا ليبدو وكأنه "مخادع"... انظر ماذا فعلنا هناك؟
الآن، عندما نفحص الفضاء السيبراني وعالم الهجمات الإلكترونية المدعومة بالذكاء الاصطناعي، نجد أن هذا البائع هو وكيل مستقل. هذا الوكيل لا يبحث عن كلمة "لا". بالنسبة له، "لا" تعني الفرصة التالية، حتى يترك أحدهم بابًا مفتوحًا.
هذه العملية البطيئة ولكن الصبورة هي ما يسمح لهجمات تعلّم الآلة باختراق شبكات ضخمة دون تنبيه أو إثارة قلق أي شخص. يحتاج البشر إلى ساعات لإنجاز ذلك، بينما يستطيع وكيل ذكاء اصطناعي مزوّد بنموذج لغوي كبير (LLM) إطلاق هجمات على تسجيل الدخول خلال دقائق، من خلال نشر إطار عمل لاختبار الاختراق وأتمتة سير العمل.
٢: الهجمات الإلكترونية المدعومة بالذكاء الاصطناعي، وبرامج الفدية، وهجمات «قفل الأوامر برومت لوك».
نحن نعيش موجة من برامج الفدية التوليدية متعدّدة الأشكال، التي لا تتميز بالسرعة فحسب، بل تتصرف أيضًا كمتحوّل أشكال في الفضاء السيبراني.
إذا كان هذا الكلام قد جعلك تشعر بانقباض في معدتك، فتابع القراءة.
ما بدأ كمشروع بحثي يُدعى اِسْتَدْعَى قفل أصبح الآن نموذج عمل مربحًا بين مجرمي الإنترنت. حيث يتم إعطاء وكيل ذكاء اصطناعي تعليمات أساسية فقط، ليتمكن بعدها من تنسيق وتنفيذ هجوم برمجي خبيث كامل مدعوم بالذكاء الاصطناعي.
كل ذلك يتم بشكل مستقل تمامًا دون أي تدخل بشري.
هذا هو عام هجمات الهندسة الاجتماعية المدعومة بالذكاء الاصطناعي، التي ترفع سقف خطورتها باستخدام وكلاء مستقلين. فهؤلاء — أي وكيل الذكاء الاصطناعي والنموذج اللغوي الكبير (LLM) العاملان معًا — لن يهاجموا بشكل أعمى، بل يخططون للمهمة بالكامل، ويحللون أنظمة الهدف، ويقدّمون للمهاجم «بوفيه» من المعلومات الشخصية (PII) والبيانات الحساسة، بل ويقترحون أيضًا نوع المعلومات الأكثر قيمة لاستخدامها في الابتزاز.
بمجرد وضع الخطة وحلول الوقت المناسب، يطلق الوكيل الهجمات حيث يتم تشفير الملفات، وتشغيل الشيفرات الخبيثة، وتهريب البيانات لإقصائك عن الوصول أو تهديدك بمسح جميع بياناتك بالكامل.
يمكن أن تكون هذه الهجمات أيضًا شديدة التخصيص. وهذا يعني أنه قد يتم إرسال رسالة تصيّد إليك تبدو مقنعة للغاية لدرجة أنك تعتبرها غير ضارة ومألوفة، ومن هنا يبدأ الاختراق.
وما هو الأسوأ من ذلك؟ أن الشيفرة تستمر في التغيّر كمتغيّر الأشكال، مما يجعل من شبه المستحيل على أي نوع من وسائل الحماية التقليدية اكتشافها.
تعمل هذه الهجمات الإلكترونية التوليدية متعددة الأشكال المدعومة بالذكاء الاصطناعي، وجميع العمليات الأخرى المرتبطة بها، عبر السحابة، مما يجعلها نموذجًا إجراميًا إلكترونيًا متطورًا لبرامج الفدية كخدمة.
٣: هجمات التصيّد الاحتيالي المدعومة بالذكاء الاصطناعي — شديدة التخصيص وشديدة الذكاء، ولكن لأسباب خاطئة تمامًا.
عمليات التصيد الاحتيالي القديمة المعروفة… لكن هذه المرة مدعومة بالذكاء الاصطناعي.
عندما يتعلق الأمر بعمليات التصيد الاحتيالي، فإن العلامات الواضحة كانت دائمًا النحو السيئ، والمفردات الغريبة، والأخطاء الإملائية الفادحة، أو حتى ذلك الإحساس الغريب الذي يقول لك إن هناك شيئًا غير طبيعي… أليس كذلك؟
والآن، تخيّل هذا: ماذا لو وصلك هذا الأمر بالطريقة الأكثر شرعية الممكنة، وبدأت فعليًا تصدّق أنه صادر من مصدر موثوق
حسنًا، إليك ما حدث بالضبط قبل أن تنقر على ذلك الرابط «المُريب»
يستخدم المحتالون عبر التصيّد نماذج لغوية كبيرة (LLMs) من الشبكة المظلمة لإنشاء رسائل بريد إلكتروني واضحة وسلسة وسهلة القراءة، وبأي لغة تقريبًا تختارها.
وهذا يُزيل أول وأقوى علامات الشك.
الآن كل ما عليهم فعله هو نسخ هذا البريد الإلكتروني ولصقه، ثم إرساله في النهاية إلى أي شخص يريدون استهدافه.
عندما نتحدث عن النماذج اللغوية الكبيرة (LLMs)، فنحن لا نعني نماذج مثل ChatGPT أو Gemini وما شابهها.
توجد أشكال أخرى من النماذج اللغوية الكبيرة (LLMs) على الشبكة المظلمة دون أي قيود أو ضوابط تمنع الاستخدام الخبيث، وتشكل خطرًا أمنيًا جسيمًا على مستوى النماذج اللغوية الكبيرة.
أسوأ جزء في هجمات التصيد التي يقوم بها الذكاء الاصطناعي؟
إذا كان هؤلاء المهاجمون عازمين فعلاً على استهدافك، فيمكنهم تخصيص رسائل البريد الإلكتروني بدقة، وإرسال وكلاء ذكاء اصطناعي للبحث في حساباتك على وسائل التواصل الاجتماعي وجمع كل ما يتعلق بوجودك على الإنترنت.
ستبدو الرسالة شخصية للغاية لدرجة أنك قد تُقنع نفسك خطأً بأنك فعلاً اشتركت في شيء ما ونسيت ذلك.
٤: التهديدات السيبرانية بالتزييف العميق وقصة الصوت الذي بلغت قيمته 35 مليون دولار:
لقد جعل الذكاء الاصطناعي في الجرائم السيبرانية استعارة «وضع الكلمات في فمك» حقيقةً واقعية.
نعم. كل ما يحتاجه هؤلاء المهاجمون هو تسجيل صوتي أو مقطع فيديو مدته ثلاث ثوانٍ فقط. وبمجرد إدخاله إلى الذكاء الاصطناعي التوليدي، يقوم حرفيًا بمحاكاة كل ما يخصك. بعد ذلك، لا يحتاج المهاجم إلا إلى إعداد نص مناسب.
وإذا كنت تعتقد أن قطع الاتصال بجميع حساباتك على وسائل التواصل الاجتماعي، وحذف صوتك من البريد الصوتي، والعيش مثل «باتريك» تحت صخرة يمكن أن ينقذك من تهديدات التزييف العميق السيبرانية، فقد ترغب في التفكير مرة أخرى.
في إحدى حوادث الهجمات الإلكترونية المدعومة بالذكاء الاصطناعي عام 2021، ووفقًا لشركة IBM، تم تنفيذ هجوم بتزييف صوتي عميق (التزييف الصوتي العميق)
في حادثة تهديدات سيبرانية باستخدام التزييف العميق، قام المهاجم — والذي تَبيّن أنه انتحل شخصية المدير — بطلب من الموظف تحويل 35 مليون دولار إلى حساب معيّن. خمن ماذا حدث؟في حادثة تهديد سيبراني تعتمد على التزييف العميق، طلب المهاجم — الذي قيل إنه انتحل صفة المدير — من الموظف تحويل 35 مليون دولار إلى حساب معيّن. خمن ماذا حدث؟
الموظف الساذج وعديم الخبرة صدّق المهاجم، وخسرت الشركة 35 مليون دولار بهذه البساطة.
تطوّرت هجمات التصيّد الاحتيالي المدعومة بالذكاء الاصطناعي، وفي عام 2024 حاول أحد المهاجمين تنفيذ هجوم عبر فيديو مُزيّف بتقنية التزييف العميق، حيث تمّت محاكاة فيديو يظهر وكأنه للمدير المالي (CFO) للشركة، وتمكّن من إقناع أحد الموظفين بتحويل 25 مليون دولار إلى المحتال.
تذكّر المقولة: «الرؤية تصديق». أمّا الآن، وفي مستقبل الأمن السيبراني عام 2026، فالرؤية لم تعد كافية ما لم يكن الشخص حاضرًا بنفسه.
الهجمات السيبرانية المدفوعة بالذكاء الاصطناعي: CVE الجني وأدوات الاختراق الذاتية الخاصة به:
هذا مثال واضح على كيف يمكن لأضعف ترس في العجلة أن يقلب المركبة بأكملها. لكن في مجال الأمن السيبراني، يتم نشر هذه الثغرات ويُطلق عليها اسم الثغرات ونقاط التعرض الشائعة (Common Vulnerabilities and Exposures – CVEs).
تتم كتابة هذه المنشورات أو التقارير من قبل خبراء أمن يحددون الثغرات الرئيسية، ويصفونها، ويمنحونها أرقامًا، ويوثقونها، ويقومون بفهرستها، وتكون هذه المعلومات متاحة للعامة.
هذا مشروع بحثي آخر رحّب بالجانب المظلم، وللأسف حوّلت أدوات الاختراق الذاتية هذه البيانات العامة الخاصة بالسلامة إلى سلاح. فقد أخذ المهاجمون بيانات ومعلومات هذه الثغرات (CVE) واستخدموا وكيلاً مدعومًا بالذكاء الاصطناعي لتطوير ما يُعرف بـ«جنيّ الثغرات (CVE Genie)».
والآن، ما قام به هذا العامل هو أنه زوّد النموذج اللغوي الكبير (LLM) ببيانات CVE، فقام النموذج بمراجعة جميع أوصاف المشكلات، واستخلاص التفاصيل الجوهرية منها، ثم وضع خطة عمل، وبعد ذلك أعاد حزمة هذه المعلومات كاملة إلى الجني.
يقوم هذا «المارد» بعد ذلك بمعالجة جميع نقاط الضعف، ثم يبتكر شيفرة الاستغلال لصالح المهاجمين.
كان هذا ناجحًا بنسبة 51٪ تقريبًا، وهل تعرف ماذا يعني ذلك بالنسبة للهجمات الإلكترونية المدعومة بالذكاء الاصطناعي؟
هذا يعني أن أي شخص يمتلك حدًا أدنى فقط من الفهم لكيفية عمل البرمجة يمكنه بسهولة استخدام هذه المعلومات ونشر وكيل ذكاء اصطناعي تحت تصرّفه لاستغلال الأنظمة.
لا تتجاوز تكلفة ذلك 3 دولارات (أي ثمن علبة من مشروب Kool‑Aid)، وهذا يخفض حاجز الدخول بشكل كبير لدرجة أن أي شخص لديه معرفة أساسية بالبرمجة يمكنه شنّ هجمات إلكترونية متقدمة مدعومة بالذكاء الاصطناعي.
٦: الهجمات الإلكترونية المدعومة بالذكاء الاصطناعي — الزعيم النهائي أو سلسلة القتل (Kill Chain):
تعرّف على الزعيم الأخير للذكاء الاصطناعي في الجرائم السيبرانية: سلسلة القتل المؤتمتة بالكامل.
إذا كنت تظن أن هذا لم يحدث بعد، فهو بالفعل قيد التنفيذ بينما تقرأ هذا المقال.
تشتهر هذه الهجمات الإلكترونية المدعومة بالذكاء الاصطناعي باستغلال أنظمة مثل أنثروبيك (Anthropic) لتنفيذ عمليات شرسة.
في هذا النوع من الهجمات، يتصرّف وكيل الذكاء الاصطناعي كاستراتيجي بارع، ويجري أبحاثًا مستقلة لتحديد الأهداف عالية القيمة، ويحلّل البيانات الحساسة، بل ويصمّم هويات مزيفة لإخفاء أي آثار أو خيوط قد تقود إليه.
تُعزّز هذه العوامل الهجمات السيبرانية المدفوعة بالذكاء الاصطناعي من خلال اتخاذ قرارات اقتصادية دقيقة أيضًا، وذلك عبر تحليل القيمة المالية للضحية والأصول التي يمتلكها بدقة، ثم تحديد مبلغ الفدية المطلوب بعناية ليكون مجزيًا بما يكفي، وفي الوقت نفسه منخفضًا بما يدفع الضحية إلى الاضطرار للدفع.
وأنت كنت تظن أن شريكك السابق بارع في التلاعب بك؟
على العكس من ذلك، فإن مستقبل الأمن السيبراني في عام 2026 مُعرّض للخطر، وقد تجاوزنا مرحلة الاعتماد على الجدران النارية وبرامج مكافحة الفيروسات التقليدية باعتبارها حماية «كافية».
مع ازدياد الهجمات السيبرانية المدفوعة بالذكاء الاصطناعي إبداعًا واستقلاليةً، وتحوّلها إلى هجمات متعددة الأشكال وذكية اقتصاديًا، فإن الفجوة بين «القراصنة النخبة» و«المبرمجين الهواة» آخذة في التقلّص.
نشهد تحوّلًا هائلًا في الهجمات السيبرانية، حيث يتفوّق الذكاء الاصطناعي في الجرائم السيبرانية وسرعة تنفيذه للهجمات على زمن استجابة البشر.
ومع ذلك، فهذه ليست معركة خاسرة. لقد حان الوقت للتفكير بعقلية المخترق لهزيمة المخترق، ولكن بتقنيات أفضل وفهم أعمق.