غوغل
منذ ظهور نماذج الذكاء الاصطناعي المتقدمة، أصبح المخترقون والجهات الخبيثة يسعون للاستفادة منها بطرق غير قانونية، على الرغم من الجهود الكبيرة التي تبذلها الشركات التقنية لوضع ضوابط صارمة لمنع استخدامها بشكل خاطئ.
لكن التحدي الرئيسي يتمثل في قدرة هؤلاء على التحايل وابتكار أساليب جديدة لاختراق هذه الأنظمة، وفقاً لتقرير نشره موقع “androidauthority”
وفي تقرير نشرته مجموعة “Threat Intelligence Group” التابعة لشركة غوغل، تم تسليط الضوء على محاولات مجموعات دولية لاستخدام الذكاء الاصطناعي الخاص بشركة غوغل بطرق مسيئة.
تحدد الشركة نوعين رئيسيين من الهجمات
الأول هو الهجمات التي تستخدم الذكاء الاصطناعي لدعم الأنشطة الضارة، مثل إنشاء أكواد قد تُستخدم في تطوير البرمجيات الخبيثة. الثاني هو الهجمات التي تهدف بشكل مباشر إلى استغلال الذكاء الاصطناعي لتنفيذ أفعال غير مرغوب فيها، مثل جمع بيانات الحسابات.
وتظهر أيضًا فئتان رئيسيتان من الخصوم: الأولى هي التهديدات المستمرة المتقدمة (APT)، وهي مجموعات قرصنة كبيرة مدعومة من دول، والثانية هي عمليات المعلومات (IO)، التي تركز على الخداع وإثارة الفوضى عبر وسائل التواصل الاجتماعي.
تشير التقارير إلى أن العديد من الكيانات من الصين وإيران وكوريا الشمالية وروسيا حاولت استغلال نموذج الذكاء الاصطناعي “جمني” في أنشطة متنوعة تتراوح بين اختراق البيانات وتطوير البرمجيات الخبيثة وحتى التلاعب بالمعلومات على منصات التواصل الاجتماعي.
وبالرغم من فشل معظم المحاولات في تجاوز أنظمة الأمان الصارمة لـ “جمني”، فإن الاستخدام الأكثر شيوعًا كان في البحث عن الثغرات البرمجية، تلخيص البيانات الاستخباراتية، وتحسين استراتيجيات الخداع الرقمي.
كما لجأت بعض المجموعات إلى استخدام الذكاء الاصطناعي في إنشاء محتوى مضلل بشكل أكثر إقناعًا، مما يزيد من صعوبة كشف حملات التضليل.
وعلى الرغم من جهود “غوغل” في تعزيز أمان منصاتها، يؤكد التقرير أن استغلال الذكاء الاصطناعي في الأنشطة غير المشروعة يمثل تهديدًا عالميًا متزايدًا، مما يستدعي تعزيز الجهود الأمنية والرقابية لمواجهته.