مرحبًا بكم في عصر القرصنة باستخدام الذكاء الاصطناعي، حيث تجعل المطالبات الصحيحة من الهواة قراصنة ماهرين.
استخدمت مجموعة من المجرمين السيبرانيين مؤخرًا روبوتات الدردشة المخصصة للذكاء الاصطناعي لسرقة بيانات ما يقرب من 200 مليون من دافعي الضرائب. قدمت الروبوتات الكود والخطط الجاهزة للتنفيذ لتجاوز جدران الحماية.
وعلى الرغم من أنها تمت برمجتها بشكل صريح لرفض مساعدة المتسللين، فقد تم خداع الروبوتات للتحريض على الجرائم الإلكترونية.
وفقًا لتقرير حديث صادر عن شركة الأمن السيبراني الإسرائيلية Gambit Security، استخدم المتسللون الشهر الماضي كلود، برنامج الدردشة الآلي من Anthropic، لسرقة 150 غيغابايت من البيانات من الوكالات الحكومية المكسيكية.
وقال الخبراء الذين اكتشفوا الاختراق إن كلود رفض في البداية التعاون مع محاولات القرصنة، بل ورفض طلبات لتغطية المسارات الرقمية للقراصنة. قامت المجموعة بضرب الروبوت بأكثر من 1000 رسالة مطالبة لتجاوز الإجراءات الوقائية وإقناع كلود بالسماح لهم باختبار النظام بحثًا عن نقاط الضعف.
تحاول شركات الذكاء الاصطناعي إنشاء سلاسل غير قابلة للكسر على نماذج الذكاء الاصطناعي الخاصة بها لمنعها من المساعدة في القيام بأشياء مثل إنشاء محتوى جنسي للأطفال أو المساعدة في الحصول على الأسلحة وتصنيعها. إنهم يوظفون فرقًا كاملة لمحاولة كسر برامج الدردشة الخاصة بهم قبل أن يفعل ذلك شخص آخر.
ولكن في هذه الحالة، قام المتسللون باستمرار بتشجيع كلود بطرق مبتكرة وتمكنوا من “كسر حماية” برنامج الدردشة الآلي لمساعدتهم. عندما واجهوا مشاكل مع كلود، استخدم المتسللون برنامج ChatGPT الخاص بـ OpenAI لتحليل البيانات ومعرفة بيانات الاعتماد المطلوبة للتنقل عبر النظام دون أن يتم اكتشافها.
استخدمت المجموعة الذكاء الاصطناعي للعثور على نقاط الضعف واستغلالها، وتجاوز الدفاعات، وإنشاء أبواب خلفية، وتحليل البيانات على طول الطريق للسيطرة على الأنظمة قبل أن يسرقوا 195 مليون هوية من تسعة أنظمة حكومية مكسيكية، بما في ذلك سجلات الضرائب، وتسجيل المركبات، بالإضافة إلى تفاصيل الميلاد والممتلكات.
وقال كيرتس سيمبسون، الرئيس التنفيذي لشركة Gambit Security، في منشور على مدونة، إن الذكاء الاصطناعي “لا ينام”. “إنه ينهار تكلفة التطور إلى ما يقرب من الصفر.”
وأضاف: “لم يكن من الممكن لأي قدر من الاستثمار في الوقاية أن يجعل هذا الهجوم مستحيلاً”.
لم تستجب الأنثروبيك لطلب التعليق. وقالت لبلومبرج إنها حظرت الحسابات المعنية وعطلت نشاطها بعد التحقيق.
وقالت OpenAI إنها على علم بحملة الهجوم التي تم تنفيذها باستخدام نماذج Anthropic ضد الوكالات الحكومية المكسيكية.
وقال متحدث باسم OpenAI في بيان: “لقد حددنا أيضًا محاولات أخرى من قبل الخصم لاستخدام نماذجنا في أنشطة تنتهك سياسات الاستخدام الخاصة بنا؛ رفضت نماذجنا الامتثال لهذه المحاولات”. “لقد حظرنا الحسابات التي يستخدمها هذا الخصم ونقدر التواصل الذي قامت به شركة Gambit Security.”
إن حالات القرصنة التوليدية بمساعدة الذكاء الاصطناعي آخذة في الارتفاع، ولم يعد التهديد بالهجمات السيبرانية من الروبوتات التي تعمل من تلقاء نفسها خيالا علميا. ومع قيام الذكاء الاصطناعي بتنفيذ أوامره، يمكن للمبتدئين أن يتسببوا في حدوث ضرر في لحظات، في حين يمكن للمتسللين ذوي الخبرة شن العديد من الهجمات الأكثر تعقيدًا بجهد أقل بكثير.
وفي وقت سابق من هذا العام، اكتشفت أمازون أن أحد المتسللين ذوي المهارات المنخفضة استخدم الذكاء الاصطناعي المتوفر تجاريًا لاختراق 600 جدار حماية. وتولى آخر السيطرة على الآلاف من المكانس الروبوتية DJI بمساعدة كلود، وتمكن من الوصول إلى موجز الفيديو المباشر والصوت ومخططات الطوابق للغرباء.
وقال نيكولا يوركوفيتش، الخبير الذي يعمل على الحد من المخاطر الناجمة عن الذكاء الاصطناعي المتقدم: “إن أنواع الأشياء التي نشهدها اليوم ليست سوى علامات مبكرة على أنواع الأشياء التي سيتمكن الذكاء الاصطناعي من القيام بها في غضون سنوات قليلة”. “لذلك نحن بحاجة إلى الاستعداد بشكل عاجل.”
وفي أواخر العام الماضي، حذرت أنثروبيك من أن المجتمع قد وصل إلى “نقطة انعطاف“في استخدام الذكاء الاصطناعي في الأمن السيبراني بعد تعطيل ما قالت الشركة إنها حملة تجسس صينية ترعاها الدولة استخدمت كلود للتسلل إلى 30 هدفًا عالميًا، بما في ذلك المؤسسات المالية والوكالات الحكومية.
الذكاء الاصطناعي التوليدي كان أيضًا كذلك مستخدم لابتزاز الشركات، وإنشاء ملفات شخصية واقعية عبر الإنترنت من قبل عملاء كوريين شماليين لتأمين الوظائف في شركات Fortune 500 الأمريكية، وتنفيذ عمليات احتيال رومانسية، وتشغيل شبكة من حسابات الدعاية الروسية.
على مدى السنوات القليلة الماضية، تطورت نماذج الذكاء الاصطناعي من القدرة على إدارة المهام التي تستغرق بضع ثوانٍ فقط إلى عملاء الذكاء الاصطناعي اليوم الذين يعملون بشكل مستقل لعدة ساعات. قدرة الذكاء الاصطناعي على إكمال المهام الطويلة هي يتضاعف كل سبعة أشهر.
وقال يوركوفيتش، الذي يعمل في مركز أبحاث “إننا لا نعرف في الواقع ما هو الحد الأعلى لقدرة الذكاء الاصطناعي، لأنه لم يضع أحد معايير صعبة بما فيه الكفاية بحيث لا يستطيع الذكاء الاصطناعي القيام بها”. متر، وهي منظمة غير ربحية تقيس قدرات نظام الذكاء الاصطناعي لإحداث ضرر كارثي للمجتمع.
حتى الآن، كان الاستخدام الأكثر شيوعًا للذكاء الاصطناعي في القرصنة هو الهندسة الاجتماعية. يتم استخدام نماذج لغة كبيرة لكتابة رسائل بريد إلكتروني مقنعة لخداع الأشخاص وسحب أموالهم، مما يتسبب في حدوث فوضى ثمانية أضعاف زيادة في الشكاوى المقدمة من كبار السن الأمريكيين حيث خسروا 4.9 مليار دولار في عمليات الاحتيال عبر الإنترنت في عام 2025.
وقال كليف نيومان، الأستاذ المساعد في علوم الكمبيوتر في جامعة جنوب كاليفورنيا: “يمكن الآن إنشاء الرسائل المستخدمة للحصول على نقرة من الهدف على أساس كل مستخدم بشكل أكثر كفاءة ومع عدد أقل من علامات التصيد الاحتيالي”، مثل الأخطاء النحوية والإملائية.
تستجيب شركات الذكاء الاصطناعي باستخدام الذكاء الاصطناعي للكشف عن الهجمات، رمز التدقيق وتصحيح نقاط الضعف.
وقال نيومان: “في نهاية المطاف، ينبع الخلل الكبير في التوازن من حاجة الجهات الفاعلة الجيدة إلى أن تكون آمنة طوال الوقت، وحاجة الجهات الفاعلة السيئة إلى أن تكون على حق مرة واحدة فقط”.
تتزايد المخاطر المحيطة بالذكاء الاصطناعي لأنه يتسلل إلى كل جانب من جوانب الاقتصاد. ويشعر الكثيرون بالقلق من عدم وجود فهم كافٍ لكيفية ضمان عدم إساءة استخدام هذه التكنولوجيا من قبل جهات فاعلة سيئة أو دفعها إلى ارتكاب أعمال مارقة.
حتى أولئك الذين هم في قمة الصناعة حذروا المستخدمين من سوء الاستخدام المحتمل للذكاء الاصطناعي.
لطالما دافع داريو أمودي، الرئيس التنفيذي لشركة أنثروبيك، عن أن أنظمة الذكاء الاصطناعي التي يتم بناؤها لا يمكن التنبؤ بها ويصعب السيطرة عليها. لقد أظهرت أنظمة الذكاء الاصطناعي هذه سلوكيات متنوعة مثل: الخداع و ابتزاز، ل مكيدة و الغش عن طريق برامج القرصنة.
ومع ذلك، وقعت شركات الذكاء الاصطناعي الكبرى – OpenAI، وAnthropic، وxAI، وGoogle – عقودًا مع حكومة الولايات المتحدة لاستخدام الذكاء الاصطناعي الخاص بها في العمليات العسكرية.
في الأسبوع الماضي، وجه البنتاغون الوكالات الفيدرالية إلى التخلص التدريجي من كلود بعد أن رفضت الشركة التراجع عن طلبها بعدم السماح باستخدام الذكاء الاصطناعي الخاص بها في المراقبة المحلية الجماعية والأسلحة المستقلة بالكامل.
وقال أمودي: “إن أنظمة الذكاء الاصطناعي اليوم ليست موثوقة بدرجة كافية لصنع أسلحة مستقلة بالكامل”. أخبار سي بي اس.


