مايكروسوفت و OpenAI يعترفان: المتسللون يستخدمون ChatGPT لتحسين الهجمات الإلكترونية – سعوديوم

تكشف Microsoft وOpenAI اليوم أن المتسللين يستخدمون بالفعل نماذج لغوية كبيرة مثل ChatGPT لتعزيز وتحسين هجماتهم الإلكترونية الحالية.

وفي بحث منشور حديثا، اكتشفت مايكروسوفت وOpenAI محاولات من قبل مجموعات مدعومة من روسيا وكوريا الشمالية وإيران والصين باستخدام أدوات مثل ChatGPT للبحث عن الأهداف، وتحسين البرامج النصية، والمساعدة في بناء تقنيات الهندسة الاجتماعية.

تقول Microsoft في منشور بالمدونة: “تقوم مجموعات الجرائم الإلكترونية، والجهات الفاعلة التي تهدد الدول القومية، وغيرهم من الخصوم باستكشاف واختبار العديد من تقنيات الذكاء الاصطناعي عند ظهورها، في محاولة لفهم القيمة المحتملة لعملياتهم وما هي الضوابط الأمنية التي قد يحتاجون إليها للتحايل عليها”. .

وتبين أن مجموعة سترونتيوم، المرتبطة بالمخابرات العسكرية الروسية، تستخدم LLMs “لفهم بروتوكولات الاتصالات عبر الأقمار الصناعية، وتقنيات التصوير الراداري، ومعايير تقنية محددة”.

وكانت مجموعة القرصنة، المعروفة أيضًا باسم APT28 أو Fancy Bear، نشطة خلال الحرب الروسية في أوكرانيا وشاركت سابقًا في استهداف حملة هيلاري كلينتون الرئاسية لعام 2016.

تستخدم المجموعة أيضًا LLMs للمساعدة في “مهام البرمجة النصية الأساسية، بما في ذلك معالجة الملفات واختيار البيانات والتعبيرات العادية والمعالجة المتعددة لأتمتة العمليات الفنية أو تحسينها”، وفقًا لمايكروسوفت.

تستخدم مجموعة القرصنة الكورية الشمالية، المعروفة باسم Thallium، LLMs للبحث عن نقاط الضعف المبلغ عنها علنًا واستهداف المنظمات، للمساعدة في مهام البرمجة النصية الأساسية، وصياغة محتوى لحملات التصيد الاحتيالي.

وتقول مايكروسوفت إن المجموعة الإيرانية المعروفة باسم Curium تستخدم أيضًا LLMs لإنشاء رسائل بريد إلكتروني للتصيد الاحتيالي وحتى التعليمات البرمجية لتجنب اكتشافها بواسطة تطبيقات مكافحة الفيروسات، ويستخدم المتسللون الصينيون التابعون للدولة أيضًا LLMs للبحث والبرمجة والترجمات وتحسين أدواتهم الحالية.

كانت هناك مخاوف بشأن استخدام الذكاء الاصطناعي في الهجمات الإلكترونية، خاصة مع ظهور أدوات الذكاء الاصطناعي مثل WormGPT وFraudGPT للمساعدة في إنشاء رسائل بريد إلكتروني ضارة وأدوات قرصنة.

كما حذر مسؤول كبير في وكالة الأمن القومي الشهر الماضي من أن المتسللين يستخدمون الذكاء الاصطناعي لجعل رسائل البريد الإلكتروني التصيدية الخاصة بهم تبدو أكثر إقناعًا.

لم تكتشف Microsoft وOpenAI أي “هجمات كبيرة” باستخدام LLMs حتى الآن، لكن الشركتين أغلقتا جميع الحسابات والأصول المرتبطة بمجموعات القرصنة هذه. ويقول: “في الوقت نفسه، نشعر أنه من المهم نشر هذا البحث للكشف عن التحركات المتزايدة في المراحل المبكرة التي نرى جهات التهديد المعروفة تتخذها، ومشاركة المعلومات حول كيفية منعهم ومواجهتهم مع مجتمع المدافعين”. . مايكروسوفت.

وبينما يبدو استخدام الذكاء الاصطناعي في الهجمات الإلكترونية محدودًا في الوقت الحالي، إلا أن مايكروسوفت تحذر من حالات الاستخدام المستقبلية مثل انتحال الهوية الصوتية. “يعد الاحتيال المدعوم بالذكاء الاصطناعي مصدر قلق بالغ آخر.

يعد التركيب الصوتي مثالاً على ذلك، حيث يمكن لعينة صوتية مدتها ثلاث ثوانٍ تدريب النموذج ليبدو مثل أي شخص، وحتى شيء غير ضار مثل تحية البريد الصوتي الخاصة بك يمكن استخدامه للحصول على عينة مناسبة.

وبطبيعة الحال، يستخدم حل Microsoft الذكاء الاصطناعي للرد على هجمات الذكاء الاصطناعي. يقول هوما هاياتيفار، المدير الرئيسي لتحليلات الاكتشاف في Microsoft: “يمكن للذكاء الاصطناعي أن يساعد المهاجمين على أن يصبحوا أكثر تطوراً في هجماتهم، ولديهم الموارد اللازمة لتنفيذها”. “لقد رأينا ذلك مع أكثر من 300 جهة فاعلة للتهديد تتتبعها Microsoft، ونحن نستخدم الذكاء الاصطناعي للحماية والكشف والاستجابة.”

تقوم Microsoft ببناء Security Copilot، وهو مساعد AI جديد مصمم لمحترفي الأمن السيبراني لتحديد الخروقات وفهم الكميات الهائلة من الإشارات والبيانات التي تولدها أدوات الأمن السيبراني كل يوم بشكل أفضل. تقوم شركة البرمجيات العملاقة أيضًا بإصلاح أمان برامجها في أعقاب الهجمات السحابية الكبرى على Azure وحتى تجسس المتسللين الروس على المديرين التنفيذيين لشركة Microsoft.


مصدر الخبر

مقالات ذات صلة

زر الذهاب إلى الأعلى