دراسة: استخدام المتسللين ChatGPT لسرقة بياناتك الخاصة – سعوديوم

حذر تقرير هو الأول من نوعه من إمكانية استغلال ChatGPT وأنظمة الذكاء الاصطناعي الأخرى لشن هجمات إلكترونية وإسقاط أنظمة كمبيوتر أخرى، حيث كشف باحثون من جامعة شيفيلد عن ثغرة أمنية في ستة أدوات ذكاء اصطناعي تجارية من خلال مهاجمة بنجاح كل واحد منهم، بحسب صحيفة مترو. “.

اكتشف الخبراء أنهم يستطيعون إنتاج تعليمات برمجية ضارة إذا طرحوا أسئلة محددة على منصات مختلفة. بمجرد تنفيذ التعليمات البرمجية، يمكنها تسريب معلومات سرية ومقاطعة – أو حتى تدمير – الخدمات..

وقد تم بالفعل استخدام عمل الفريق لتعزيز منصات الذكاء الاصطناعي التجارية، على الرغم من أنهم يحذرون من أن الاستراتيجيات السيبرانية المحدثة قيد التطوير باستمرار..

هذه الدراسة، التي أجراها أكاديميون من قسم علوم الكمبيوتر في جامعة شيفيلد بالمملكة المتحدة، هي الأولى التي توضح أن أنظمة تحويل النص إلى نص SQL يُستخدم الذكاء الاصطناعي الذي يمكّن الأشخاص من البحث في قواعد البيانات عن طريق طرح الأسئلة بلغة بسيطة في مجموعة واسعة من الصناعات – ويمكن استغلاله لمهاجمة أنظمة الكمبيوتر في العالم الحقيقي..

وكشفت النتائج التي توصلوا إليها كيف يمكن اختراق أنظمة الذكاء الاصطناعي والتلاعب بها للمساعدة في سرقة المعلومات الحساسة، أو التلاعب بقواعد البيانات بأكملها أو تدميرها، أو حتى إسقاط الخدمات من خلال هجمات رفض الخدمة..

وقال شوتان بينج، طالب الدكتوراه الذي شارك في قيادة البحث: “في الواقع، العديد من الشركات ببساطة لا تدرك هذه الأنواع من التهديدات، ونظرًا لتعقيد روبوتات الدردشة، حتى داخل المجتمع، هناك أشياء غير مفهومة تمامًا”. في جامعة شيفيلد.


مصدر الخبر

مقالات ذات صلة

زر الذهاب إلى الأعلى