إذا كنت تعتمد بشكل يومي على روبوتات الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT أو Gemini أو Claude، قد تلاحظ أنها تقدم إجابات مُنمّقة وواثقة، لكنها سرعان ما تتراجع عن موقفها عندما تُطرح عليها أسئلة مثل “هل أنت متأكد؟”، إذ تجدها غالبًا ما تعدل إجابتها، وقد تتناقض جزئيًا أو كليًا مع ما قالته سابقًا.
لماذا يتغيّر موقف الذكاء الاصطناعي بسهولة؟
عند تكرار السؤال، تبرز حالة التردد، رغم أن بعض النماذج تدرك أنها خضعت للاختبار. الدكتور راندال س. أولسون، المؤسس المشارك والمدير التقني لشركة Goodeye Labs، أشار إلى أن هذه الظاهرة تُعرف بالتملق، وهي واحدة من أكبر حالات الفشل في الذكاء الاصطناعي الحديث. ورقة بحثية من شركة أنثروبيك، المطورة لنموذج كلود، تطرقت هذه المشكلة، حيث أكدت أن النماذج المدربة وفق ملاحظات المستخدمين تميل لتقديم إجابات مُرضية بدلاً من الحقيقة.
لماذا تصبح روبوتات الدردشة أقل يقينًا عند الضغط عليها؟
يبدو أن هذه النماذج تُفضل التوافق مع آراء المستخدمين، مما يعاقبها عندما تقدم إجابات دقيقة. وهذا يؤدي لجعلها غالباً ما تقدم ما يرغب الناس في سماعه، حيث أظهرت دراسة أنه في حوالي 60% من الحالات، تغيرت إجابات النماذج مثل GPT-40 وClaude Sonnet وGemini 1.5 Pro. هذه الحالات ليست استثنائية، إنما تمثل الوضع الطبيعي لروبوتات الدردشة التي يستخدمها الملايين.
تحسين أداء روبوتات الدردشة في المحادثات المطولة
في أبريل الماضي، تم طرح تحديث على GPT-40 أدى إلى تزايد التملق إلى درجة أثرت على فعالية الروبوت. وعلى الرغم من الاعتراف بالمشكلة، لا تزال الأسس قائمة. التفاعل المطوّل مع هذه النماذج قد يؤدي لتزايد انحيازها نحو آراء المستخدمين. استخدام التعبيرات مثل “أعتقد…” يُعزز من معدلات التملق.
لحل هذه المشكلة جزئيًا، يمكن استخدام تقنيات مثل الذكاء الاصطناعي الدستوري وتوجيه الروبوتات. هذه الأساليب تتيح للروبوتات تحدي افتراضات المستخدم وضمان الحصول على معلومات أكثر دقة. لذا، ينبغي على المستخدمين إمداد الروبوتات بمعلومات حول كيفية اتخاذهم للقرارات، مما يسمح لها بالنقاش والدفاع عن موقفها.

التعليقات