رؤى المستقبل

CLaRa من Apple: يحقق RAG الأصلي للضغط مع الاستدلال الكامن المستمر ضغطًا دلاليًا بمقدار 16x-128x

AI
رؤى الذكاء والمستقبل
· · 3 دقائق قراءة
CLaRa من Apple: يحقق RAG الأصلي للضغط مع الاستدلال الكامن المستمر ضغطًا دلاليًا بمقدار 16x-128x

تواجه أنظمة الجيل المعزز بالاسترجاع (RAG) تحديات في الحفاظ على الدقة والكفاءة عند التعامل مع نوافذ سياق كبيرة ومكونات استرجاع وتوليد منفصلة. يعالج إطار عمل جديد، CLaRa (الاستدلال الكامن المستمر)، الذي طوره باحثو Apple، هذه المشكلات عن طريق ضغط المستندات إلى رموز ذاكرة مستمرة وتنفيذ الاسترجاع والتوليد في مساحة كامنة مشتركة. يهدف هذا النهج إلى تقصير السياق وتجنب التشفير المزدوج وتحسين النظام من خلال السماح للمولد بتوجيه المسترجع بشأن المعلومات الأكثر صلة.

المفاهيم الأساسية لـ CLaRa

  • الضغط الدلالي: تستخدم CLaRa ضاغطًا دلاليًا لإرفاق عدد صغير من رموز الذاكرة المتعلمة بكل مستند. يتم تحقيق هذا الضغط أثناء التدريب المسبق للضاغط البارز (SCP)، حيث يقوم محول Mistral 7B مع محولات LoRA بالتبديل بين أدوار الضاغط والمولد. تصبح الحالات المخفية للطبقة النهائية لرموز الذاكرة هي التمثيل المضغوط للمستند.
  • الاسترجاع والتوليد المشترك: بعد الضغط في وضع عدم الاتصال، يتم تمثيل كل مستند فقط برموز الذاكرة الخاصة به. تدرب CLaRa سببًا للاستعلام ومولدًا للإجابات فوق نفس العمود الفقري. يقوم سبب الاستعلام بتعيين سؤال إدخال إلى رموز الذاكرة. يصبح الاسترجاع بحثًا بسيطًا عن تشابه جيب التمام بين تضمين الاستعلام وتضمينات المستند المرشح. ثم يتم ربط أفضل تضمينات المستند المضغوط برموز الاستعلام وتغذيتها في محول المولد.
  • تحديد أفضل k قابل للتفاضل: يتمثل الابتكار الرئيسي في استخدام محدد أفضل k قابل للتفاضل، يتم تنفيذه باستخدام مقدر Straight-Through. أثناء المرور الأمامي، يستخدم النموذج تحديدًا صعبًا لأفضل k. أثناء المرور الخلفي، يسمح توزيع softmax عبر درجات المستندات بتدفق التدرجات من المولد إلى معلمات سبب الاستعلام. هذا يشجع المسترجع على تحديد أولويات المستندات التي تحسن احتمالية الإجابة.

التدريب والتقييم

  • التدريب المسبق للضاغط البارز (SCP): يتم التدريب على ما يقرب من 2 مليون مقطع من ويكيبيديا 2021، يستخدم SCP نموذج Qwen-32B لإنشاء إشارات إشرافية، بما في ذلك أزواج QA البسيطة وأزواج QA المعقدة وإعادة الصياغة. تضمن حلقة التحقق الاتساق الواقعي والتغطية.
  • خسائر التدريب: يتضمن التدريب مصطلحي خسارة: مصطلح إنتروبيا متقاطع لتدريب المولد ومصطلح متوسط مربع الخطأ (MSE) لمحاذاة الحالة المخفية المتوسطة لرموز المستند مع الحالة المخفية المتوسطة لرموز الذاكرة. يوفر فقدان MSE مكاسب ثابتة من خلال الحفاظ على التمثيلات المضغوطة والأصلية في نفس المنطقة الدلالية.
  • مجموعات بيانات QA: يتم تقييم الضاغط على مجموعات بيانات مثل الأسئلة الطبيعية و HotpotQA و MuSiQue و 2WikiMultihopQA. تظهر النتائج أن CLaRa يمكن أن تتفوق على طرق الضغط والاسترجاع الحالية، خاصة في الإعدادات التي يكون فيها المستند الصحيح ضمن المجموعة المرشحة.

أبرز الأداء

  • تحقق CLaRa تحسينات كبيرة في درجات F1 مقارنة بخطوط الأساس مثل LLMLingua-2 و PISCO، حتى أنها تتفوق على مسترجع النصوص القائم على BGE بالإضافة إلى مولد Mistral-7B للمستند الكامل.
  • يحافظ النظام على أداء معتدل حتى في نسب الضغط العالية (أكثر من 32x)، مع كون الاختناق الرئيسي هو ضعف ملاءمة المستند بدلاً من جودة الضغط.
  • في مهام QA الشاملة، تُظهر CLaRa أداءً قابلاً للمقارنة أو أفضل قليلاً من DRO-Mistral-7B، الذي يستخدم نصًا كاملاً غير مضغوط، مع استخدام تمثيلات مستند أقصر 16 مرة.
  • تؤدي CLaRa أيضًا بقوة كمعيد ترتيب، حيث تحقق استدعاءً عاليًا عند 5، متجاوزًا خطوط BGE Reranker الخاضعة للإشراف.

إصدارات النموذج

أصدرت Apple ثلاثة نماذج على Hugging Face:

  • CLaRa-7B-Base
  • CLaRa-7B-Instruct (نموذج RAG موحد مضبوط على التعليمات مع ضغط مستند مدمج بمعدل 16x و 128x)
  • CLaRa-7B-E2E

الوجبات السريعة الرئيسية

  • تستفيد CLaRa من الضغط الدلالي الموجه بـ QA والموجه بإعادة الصياغة لاستبدال المستندات الأولية برموز ذاكرة مستمرة، مع الحفاظ على إشارات الاستدلال حتى في نسب الضغط العالية.
  • يتم تدريب الاسترجاع والتوليد بشكل مشترك في مساحة كامنة مشتركة، مما يحسن كلا المكونين بخسارة واحدة لنمذجة اللغة.
  • يسمح مقدر أعلى k قابل للتفاضل بتدفق التدرجات من رموز الإجابة إلى المسترجع، مما يؤدي إلى مواءمة ملاءمة المستند مع جودة الإجابة.
  • تتفوق CLaRa على خطوط الأساس النصية القوية في معايير QA متعددة القفزات ويمكنها حتى التغلب على خطوط أنابيب BGE / Mistral النصية الكاملة.
  • أصدرت Apple نماذج عملية وخط أنابيب التدريب الكامل، مما يجعل الإطار متاحًا لمزيد من البحث والتطوير.

في الختام، يمثل CLaRa تقدمًا كبيرًا في أنظمة RAG من خلال دمج ضغط المستندات الدلالية والتحسين المشترك في مساحة مستمرة مشتركة. يقدم هذا النهج بديلاً مقنعًا لطرق RAG التقليدية للتجميع والاسترجاع، مما يتيح الإجابة على الأسئلة بكفاءة ودقة مع أطوال سياق أقصر بشكل ملحوظ.


المصدر: MarkTechPost

مقالات ذات صلة

التعليقات

البريد لن يُنشر - يُستخدم للصورة الرمزية فقط

جاري تحميل التعليقات...