واشنطن ـ المغرب اليوم
منذ ظهور نماذج الذكاء الاصطناعي المتقدمة، يسعى المخترقون والجهات السيئة لاستغلالها بطرق غير مشروعة، رغم محاولات الشركات التقنية وضع ضوابط صارمة لمنع إساءة الاستخدام.
لكن التحدي الحقيقي يكمن في قدرة هؤلاء على التحايل وابتكار أساليب جديدة لاختراق هذه الأنظمة، بحسب تقرير نشره موقع "androidauthority" واطلعت عليه "العربية Business".
يظهر تقرير نشرته مجموعة Threat Intelligence Group التابعة لشركة غوغل حول إساءة استخدام الذكاء الاصطناعي التوليدي، كيفية محاولة مجموعات دولية استخدام الذكاء الاصطناعي الخاص بشركة غوغل بشكل سيئ.
وتحدد الشركة نوعين رئيسيين من الهجمات: تلك التي تستخدم الذكاء الاصطناعي لتقديم يد المساعدة، مثل إنشاء التعليمات البرمجية التي قد تُستخدم لبناء البرامج الضارة، وتلك التي تحاول بشكل مباشر جعل الذكاء الاصطناعي يقوم بإجراءات غير مرغوب فيها، مثل حصاد بيانات الحساب.
نسمع أيضًا عن فئتين أساسيتين من الخصوم: التهديدات المستمرة المتقدمة (APT)، والتي تميل إلى أن تكون مجموعات قرصنة كبيرة ممولة من الدول القومية، وعمليات المعلومات (IO)، والتي تتعلق أكثر بالخداع وإحداث فوضى في وسائل التواصل الاجتماعي.
ويبين التقارير أن العديد من الجهات في الصين وإيران وكوريا الشمالية وروسيا، حاولوا استغلال نموذج الذكاء الاصطناعي "Gemini" في أنشطة تتراوح بين قرصنة البيانات وتطوير البرمجيات الخبيثة، وحتى التلاعب بالمعلومات على وسائل التواصل الاجتماعي.
وبحسب التقرير، فشلت معظم المحاولات في تجاوز أنظمة الأمان الصارمة لـ "Gemini"، لكن الاستخدام الأكبر كان يتمثل في البحث عن ثغرات برمجية، وتلخيص بيانات استخباراتية، وتحسين عمليات الخداع الرقمي.
كما استخدمت بعض المجموعات هذا الذكاء الاصطناعي في صياغة محتوى مضلل بطرق أكثر إقناعًا، ما يجعل كشف حملات التضليل أكثر صعوبة.
ورغم جهود "غوغل" في تحصين منصاتها، إلا أن التقرير يؤكد أن استغلال الذكاء الاصطناعي لأغراض غير مشروعة لا يزال يمثل تهديدًا عالميًا متناميًا، يستدعي تكثيف الجهود الأمنية والرقابية لمواجهته.
قد يهمك ايضا
أرسل تعليقك
تعليقك كزائر