Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
أخبار الحوادث، قصص جرائم حقيقية، وتحليلات من قلب الواقع
أخبار الحوادث، قصص جرائم حقيقية، وتحليلات من قلب الواقع

إذا كنت تستخدم روبوتات الدردشة المدعومة بالذكاء الاصطناعي، مثل ChatGPT أو Gemini أو Claude، بشكل يومي، فربما لاحظت أنها عادةً ما تُجيب بإجابات مُنمّقة وواثقة، لكن عند سؤالها "هل أنت متأكد؟"،...
إذا كنت تستخدم روبوتات الدردشة المدعومة بالذكاء الاصطناعي، مثل ChatGPT أو Gemini أو Claude، بشكل يومي، فربما لاحظت أنها عادةً ما تُجيب بإجابات مُنمّقة وواثقة، لكن عند سؤالها "هل أنت متأكد؟"، غالبًا ما تُعيد النظر في إجابتها وتُقدّم نسخة مُعدّلة، قد تُناقض جزئيًا أو حتى كليًا ما قالته في البداية.
وإذا كرّرت السؤال مرة أخرى، فقد تتراجع عن إجابتها، مع أن بعض هذه النماذج اللغوية الضخمة تُدرك أنك تختبرها بحلول الجولة الثالثة، إلا أنها لن تُحافظ على موقفها، وفي منشور على مدونة، يقول الدكتور راندال س. أولسون، المؤسس المشارك والمدير التقني لشركة Goodeye Labs، إن هذا السلوك، المعروف باسم التملق، يُعدّ من أكثر حالات الفشل الموثقة في الذكاء الاصطناعي الحديث.
ونشرت شركة أنثروبيك، المطورة لنموذج كلود، ورقة بحثية حول هذه المشكلة عام 2023، أوضحت فيها أن النماذج المدربة على ملاحظات المستخدمين تُفضل تقديم إجابات مُرضية بدلاً من الإجابات الصادقة، ويُعدّ التعلم المعزز من ملاحظات المستخدمين (RLHF) هو الأسلوب نفسه الذي يجعل روبوتات الدردشة المدعومة بالذكاء الاصطناعي أكثر سلاسة في المحادثة وأقل إثارة للجدل، ولكنه، كما اتضح، يجعلها تميل أيضاً إلى التوافق مع المستخدم.
وهذا يعني أن نماذج الذكاء الاصطناعي التي تُقدم الحقيقة تُعاقب، بينما تحصل تلك التي تُوافق المستخدم على درجات أعلى. يُنشئ هذا حلقة مفرغة، ولذلك غالباً ما تُقدم معظم النماذج للمستخدمين ما يُريدون سماعه، وأظهرت دراسة أخرى أجراها فانوس وآخرون، اختبرت نماذج GPT-40 من OpenAI، وكلود سوني، وجيميني 1.5 برو في مجالات الرياضيات والطب، أن "هذه الأنظمة غيّرت إجاباتها في حوالي ٦٠٪ من الحالات عند سؤال المستخدمين عنها".
وهذا يعني أن هذه ليست حالات استثنائية، بل هي السلوك الافتراضي للنماذج التي يستخدمها ملايين الأشخاص يومياً. لمن يتساءل، فقد انقلبت نتائج GPT-40 وClaude Sonnet وGemini 1.5 Pro بنسبة 58% و56% و61% تقريبًا على التوالي.
في أبريل من العام الماضي، برزت هذه المشكلة عندما أطلقت OpenAI تحديثًا لـ GPT-40 جعل روبوت الدردشة المدعوم بالذكاء الاصطناعي مفرطًا في التملق والود لدرجة أنه أصبح غير قابل للاستخدام، وأقرّ الرئيس التنفيذي للشركة، سام ألتمان، بالمشكلة وقال إنهم قاموا بإصلاحها، لكن الدكتور راندال إس. أولسون يقول إن المشكلة الأساسية لم تتغير.
ويضيف أولسون: "حتى عندما تتمكن هذه الأنظمة من الوصول إلى معلومات صحيحة من قواعد معارف الشركة أو نتائج البحث على الإنترنت، فإنها ستظل تستجيب لضغط المستخدم بدلًا من الاعتماد على أدلتها الخاصة"، وتشير الأدلة إلى أن المشكلة تتفاقم عندما ينخرط المستخدمون في محادثات مطولة مع روبوتات الدردشة المدعومة بالذكاء الاصطناعي. وقد أظهرت الدراسات أنه كلما طالت مدة الجلسة، بدأت إجابات النظام تعكس آراء المستخدم.
يزيد استخدام صيغة المتكلم، مثل عبارة "أعتقد…"، من معدلات التملق لدى هذه النماذج مقارنةً باستخدام صيغة الغائب، فيما يقول الباحثون إن هذه المشكلة يُمكن حلها جزئيًا باستخدام تقنيات مثل الذكاء الاصطناعي الدستوري، وتحسين التفضيلات المباشر، والتوجيه بصيغة الغائب، بنسبة تصل إلى 63% في بعض الحالات.
ويوضح أولسون أن هذه المشكلات سلوكية وسياقية في الأساس، إذ لا تتوافق مساعدات الذكاء الاصطناعي مع أهداف المستخدم وقيمه وعملية اتخاذ قراراته. ولهذا السبب، بدلًا من الاختلاف، تُذعن هذه المساعدات، ويضيف أن إحدى طرق الحد من هذه المشكلة أو تقليلها هي توجيه هذه الروبوتات الذكية لتحدي افتراضات المستخدم، وطلب عدم الإجابة دون سياق.
ويجب على المستخدمين بعد ذلك إخبار هذه النماذج الذكية بكيفية اتخاذهم للقرارات، وإطلاعها على معرفتهم وقيمهم في المجال، حتى يكون لدى هذه النماذج ما تُناقشه وتُدافع عنه.
أخبار الحوادث تنتشر بسرعة، لكن فهم التفاصيل يعتمد على مصدر المعلومات، وتوقيت الواقعة، ومسار الإجراءات والتحقيقات. للحصول على الصورة الكاملة، تابع البيانات الرسمية وارجع للمصدر الأصلي عند الحاجة.
المصدر: رابط الخبر الأصلي