رؤى المستقبل

الوضع في بيئة الاختبار ضروري: التخفيف من مخاطر تنفيذ التعليمات البرمجية في أنظمة الذكاء الاصطناعي العميلة

AI
رؤى الذكاء والمستقبل
· · 3 دقائق قراءة
الوضع في بيئة الاختبار ضروري: التخفيف من مخاطر تنفيذ التعليمات البرمجية في أنظمة الذكاء الاصطناعي العميلة

إن صعود أنظمة الذكاء الاصطناعي العميلة، التي تقوم بشكل مستقل بإنشاء وتنفيذ التعليمات البرمجية بناءً على طلبات المستخدمين، يقدم مخاطر كبيرة للأمن السيبراني. تسلط هذه المدونة، التي كتبها جون إيروين وكاي غريشاكي من NVIDIA، الضوء على الحاجة الماسة إلى وضع التعليمات البرمجية التي تم إنشاؤها بواسطة الذكاء الاصطناعي في بيئة اختبار لمنع نقاط الضعف في تنفيذ التعليمات البرمجية عن بُعد (RCE). تؤكد المشاركة على أن طرق التعقيم التقليدية غير كافية للحماية من هجمات حقن المطالبات المتطورة وتقدم دراسة حالة توضح كيف اكتشف فريق NVIDIA AI Red Team ومعالجة ثغرة أمنية خطيرة في خط أنابيب تحليلات مدفوعة بالذكاء الاصطناعي. يجادل المؤلفون بأن الوضع في بيئة الاختبار ليس تحسينًا أمنيًا اختياريًا بل هو مبدأ معماري ضروري لتأمين سير العمل المدعوم بالذكاء الاصطناعي.

خطر التعليمات البرمجية غير الموثوق بها التي تم إنشاؤها بواسطة الذكاء الاصطناعي

تقوم أنظمة الذكاء الاصطناعي العميلة بترجمة طلبات المستخدمين إلى تعليمات برمجية قابلة للتنفيذ، غالبًا بلغة Python، مما يخلق مسارًا مباشرًا للمهاجمين لحقن التعليمات البرمجية الضارة. تنبع المشكلة الأساسية من التعامل مع التعليمات البرمجية التي تم إنشاؤها بواسطة الذكاء الاصطناعي على أنها موثوقة بينما تقوم LLM (نموذج اللغة الكبيرة) الأساسية بمعالجة مدخلات يحتمل أن تكون غير موثوقة. هذا يخلق سيناريو حيث يمكن للمطالبات المصممة اختراق الإجراءات الأمنية وتؤدي إلى RCE. تشمل طبقات الهجوم الرئيسية ما يلي:

  • تجنب القضبان الواقية: تجاوز مرشحات المطالبات الأولية المصممة لتقييد مواضيع أو إجراءات معينة.
  • التلاعب بمعالجة الإدخال المسبق: إجبار تنسيقات إخراج محددة للتحكم في متغيرات الاستخراج (مثل معلمات البيانات والرسم) المستخدمة في إنشاء التعليمات البرمجية.
  • إنشاء تعليمات برمجية ضارة: خداع LLM لإنشاء مقتطفات تعليمات برمجية ضارة.
  • حقن حمولة التعليمات البرمجية: حقن الحمولة الضارة النهائية للهروب من أي قيود موجودة على التعليمات البرمجية.
  • تنفيذ الأوامر التعسفية: في النهاية تنفيذ أمر طرفي مشفر بـ Base64 على الجهاز الهدف.

عدم كفاية التعقيم

غالبًا ما يتم تطبيق تقنيات التعقيم، التي تتضمن تصفية أو تعديل التعليمات البرمجية قبل التنفيذ، كدفاع أساسي. ومع ذلك، تجادل المشاركة بأن التعقيم وحده محدود بطبيعته. يمكن للمهاجمين استغلال:

  • وظائف المكتبة الموثوقة: استخدام وظائف تبدو آمنة داخل المكتبات الموثوقة لتحقيق نتائج ضارة.
  • تجنب المرشح الثابت: تجاوز المرشحات الثابتة من خلال الترميز أو التلاعب بالسياق.
  • التلاعب بسلوك وقت التشغيل: استغلال السلوكيات الديناميكية أثناء تنفيذ التعليمات البرمجية التي لا يمكن للتعقيم التنبؤ بها.

يؤكد المؤلفون على أن الاحتواء هو الحل الوحيد القابل للتطوير والموثوق به. يمنع وضع بيئة التنفيذ في بيئة الاختبار التعليمات البرمجية التي تم إنشاؤها بواسطة الذكاء الاصطناعي من التأثير على موارد النظام على نطاق واسع، مما يحد بشكل كبير من نصف القطر المحتمل للانفجار.

دراسة حالة: ثغرة RCE في سير عمل التحليلات

حدد فريق NVIDIA AI Red Team ثغرة أمنية لتنفيذ التعليمات البرمجية عن بُعد (RCE)، CVE-2024-12366، في سير عمل تحليلات داخلية استخدم مكتبة تابعة لجهة خارجية لترجمة استعلامات اللغة الطبيعية إلى تعليمات برمجية Python. على الرغم من إجراءات التعقيم الأولية للمكتبة، فقد أظهر الفريق كيف يمكن لحمولات حقن المطالبات تجاوز هذه الضوابط. وشمل هذا الاستغلال تعرضات مساحة الاسم وتجاوزات الترميز وتقنيات التلاعب بالسياق التي أفسدت مرشحات التعليمات البرمجية في وقت التشغيل. سلط تحديد هذه الثغرة الأمنية الضوء على عيب حاسم: تظل الأنظمة التي تنفذ التعليمات البرمجية التي تم إنشاؤها بواسطة الذكاء الاصطناعي دون وضع في بيئة الاختبار خاصة بالمستخدمين عرضة للخطر على مستوى التحكم. التعقيم، على الرغم من كونه استراتيجية دفاعية متعمقة مفيدة، إلا أنه غير كافٍ لضمان سلامة التنفيذ.

الوضع في بيئة الاختبار كعنصر تحكم أساسي

تدعو مدونة اليوم إلى استخدام الوضع في بيئة الاختبار كآلية التحكم الأساسية للتخفيف من المخاطر المرتبطة بتنفيذ التعليمات البرمجية التي تم إنشاؤها بواسطة الذكاء الاصطناعي. يوفر الوضع في بيئة الاختبار حدودًا موثوقة من خلال عزل كل مثيل تنفيذ، مما يضمن احتواء أي مسار تعليمات برمجية ضار أو غير مقصود داخل بيئة مقيدة. بعد الإفصاح عن الثغرة المبلغ عنها، قام القائمون على صيانة مكتبة الجهة الخارجية بتنفيذ الوضع في بيئة الاختبار.

دروس لمطوري تطبيقات الذكاء الاصطناعي

تختتم المشاركة ببعض الدروس الأساسية لمطوري تطبيقات الذكاء الاصطناعي:

  • تعامل مع التعليمات البرمجية التي تم إنشاؤها بواسطة الذكاء الاصطناعي على أنها غير موثوقة بطبيعتها: طبق نفس مستوى الحذر كما هو الحال مع المدخلات التي يقدمها المستخدم.
  • التعقيم هو دفاع متعمق، وليس عنصر تحكم أساسي: الاعتماد فقط على التعقيم يخلق شعورًا زائفًا بالأمان. ضع في اعتبارك استخدام NVIDIA NeMo Guardrails.
  • عزل التنفيذ إلزامي: استخدم الوضع في بيئة الاختبار أو بيئات التنفيذ عن بُعد (على سبيل المثال، AWS EC2 أو Brev) للحد من تأثير التعليمات البرمجية الضارة.
  • التعاون أمر بالغ الأهمية: شارك في عمليات الإفصاح المفتوحة لتبادل النتائج الأمنية والمساهمة في جهود التخفيف الجماعية.

من خلال تبني هياكل معمارية أولية للاحتواء، يمكن للصناعة التأكد من أن الابتكار المدفوع بالذكاء الاصطناعي يتوسع بأمان وأمان.


المصدر: NVIDIA

مقالات ذات صلة

التعليقات

البريد لن يُنشر - يُستخدم للصورة الرمزية فقط

جاري تحميل التعليقات...