باحثون يكتشفون أسلوب اختراق أنظمة الذكاء الاصطناعي
كشفت دراسة حديثة أجراها باحثون بقيادة معهد كوريا المتقدم للعلوم والتكنولوجيا (KAIST) عن أسلوب جديد لاختراق أنظمة الذكاء الاصطناعي، يعتمد على التقاط إشارات غير مرئية تصدر خلال عمل الأجهزة، دون الحاجة إلى اختراق تقليدي أو وصول مباشر للنظام.
باحثون يكتشفون أسلوب اختراق أنظمة الذكاء الاصطناعي
ووفقا لما نشره موقع ذا صن تعتمد التقنية، التي أُطلق عليها اسم "ModelSpy"، على رصد الانبعاثات الكهرومغناطيسية الصادرة عن وحدات معالجة الرسومات (GPU) خلال تنفيذ المهام، ما يسمح بإعادة بناء تصميم النماذج الذكية بشكل دقيق.
وباستخدام هوائي صغير يمكن إخفاؤه بسهولة، نجح الباحثون في التقاط إشارات ضعيفة تنبعث من الأجهزة خلال تشغيل تطبيقات الذكاء الاصطناعي.
ورغم دقة هذه الإشارات، فإنها تحمل أنماطًا مرتبطة ببنية النموذج، مثل ترتيب الطبقات والمعلمات المستخدمة.
وأظهرت التجارب أن هذه الطريقة تمكنت من تحديد البنية الأساسية للنماذج بدقة تصل إلى 97.6%، حتى من مسافة تصل إلى 6 أمتار، وفي بعض الحالات عبر الجدران، ما يثير مخاوف جدية بشأن أمن هذه الأنظمة.


