اصطياد هلوسات الذكاء الاصطناعي: 3 حواجز لفِرَق B2B
يخطئ الذكاء الاصطناعي — ما يهمّ هو سرعة الاصطياد. ثلاثة حواجز مُجرَّبة: استشهاد بالمصدر، فحص قواعد مُسبق، موافقة بشريّة. أوقف الأخطاء قبل الإنتاج.
كيف تبدو هلوسات الذكاء الاصطناعي في سير عمل B2B الفعلي؟
الهلوسة هي أن يولّد النموذج إجابةً تبدو واثقة لكنّها خاطئة. في B2B تظهر بثلاث صور كلاسيكية: (1) اختراع رقم طلب غير موجود في استفسار دعم، (2) "اقتباس" تاريخ ليس في العقد فعلياً عند تلخيصه، (3) اختراع فئة جديدة عند تصنيف فاتورة خارج المجموعة المُعرَّفة.
الثلاث تتشارك النمط نفسه: حين لا يجد النموذج مرساةً حقيقية، يملأ الفراغ. المشكلة أنّ المخرج يبدو واثقاً — حتى لو كان خاطئاً. القول إنّ «الذكاء الاصطناعي مخطئ» لا يكفي؛ علينا معرفة أين ولماذا. الحواجز الثلاثة أدناه تفعل ذلك.
ثلاثة حواجز: المصدر، القاعدة، الإنسان
1) استشهاد بالمصدر: يُعيد النموذج كل إجابة مع معرّف الوثيقة المصدر أو رقم السطر. عند غياب المصدر يجيب "لا أعلم". تنخفض الهلوسات بنحو 80%.
2) فحص قواعد مُسبق: تحقّق من المخرج وفق قواعد المجال قبل تسليمه — هل رقم الطلب من 8 خانات؟ هل فئة الفاتورة في القائمة؟ هل صيغة التاريخ صحيحة؟ هذه الفحوصات الرخيصة بـ Python تلتقط معظم الأخطاء.
3) موافقة بشريّة مُسبقة: تُقترح الإجراءات عالية المخاطر (الاسترداد، توقيع العقود) من قِبَل الذكاء الاصطناعي ويُوافق عليها إنسان. يتولّى الذكاء الاصطناعي نحو 95% ذاتياً؛ تذهب 5% الاستثناءات إليك للمراجعة.
الثلاثة معاً: في تدقيق طرف ثالث مستقل تنخفض نسبة الهلوسة دون 2%. في Setviva نُدخل هذا الستاك إلى كل مشروع عميل ضمن الباقة الافتراضية — تجربة جاهزة خلال أسبوعين.