الخطر الخفي لروبوتات الدردشة المدعومة بالذكاء الاصطناعي
حذّر علماء من “مخاطر خفية” تنطوي عليها شعبية روبوتات الدردشة المدعومة بالذكاء الاصطناعي، والتي باتت تؤيد سلوكيات، وآراء المستخدمين بشكل دائم، حتى عندما تكون ضارة، أو غير مسؤولة.
الدراسة الحديثة
أظهرت دراسة حديثة أن اللجوء إلى هذه الروبوتات للحصول على نصائح شخصية قد يؤدي إلى تشويه تصورات الأفراد عن أنفسهم، ويقلل من استعدادهم لإصلاح العلاقات بعد الخلافات.
مع تزايد الاعتماد على هذه التقنية في قضايا العلاقات والمشكلات الشخصية، حذّر الباحثون من قدرتها على “إعادة تشكيل التفاعلات الاجتماعية على نطاق واسع”، داعين المطورين إلى معالجة هذه المخاطر.
تأثير التملق الاجتماعي
قالت مايرا تشينج، الباحثة في علوم الحاسوب بجامعة ستانفورد، إن “التملق الاجتماعي” في روبوتات الذكاء الاصطناعي يمثل مشكلة كبيرة، مضيفة: “ما يثير قلقنا هو أن النماذج التي تؤيد المستخدمين باستمرار قد تشوه أحكامهم بشأن أنفسهم وعلاقاتهم والعالم من حولهم”.
الدراسة التي لم تخضع بعد لمراجعة الأقران، كشفت أن المشكلة أكثر انتشاراً مما كان متوقعاً، بعد أن لاحظ الباحثون من خلال تجاربهم الشخصية أن النصائح التي تقدمها الروبوتات كانت مشجعة بشكل مفرط ومضللة.
النتائج المقلقة
شملت الدراسة إجراء اختبارات على 11 روبوت دردشة، من بينها نسخ حديثة من ChatGPT وGemini وClaude وLlama وDeepSeek.
وأظهرت النتائج أن هذه الروبوتات أيّدت سلوك المستخدمين بنسبة تزيد بـ50% عن تأييد البشر في مواقف مماثلة.
تبرير السلوكيات الضارة
في أحد الاختبارات، قارن الباحثون ردود البشر والروبوتات على منشورات من منتدى “هل أنا المخطئ؟” في موقع Reddit.
الروبوتات واصلت تأييد السلوكيات حتى عندما كانت غير مسؤولة أو خادعة، أو تنطوي على إيذاء النفس.
التأثير على العلاقات الاجتماعية
وأظهرت النتائج أن من تلقوا ردوداً متملقة شعروا بمزيد من التبرير لسلوكهم، مثل الذهاب إلى معرض فني لطرف سابق دون إبلاغ الشريك، وكانوا أقل استعداداً لإصلاح الأمور بعد الخلافات.
نادراً ما شجعت الروبوتات المستخدمين على رؤية وجهة نظر الطرف الآخر.
الخطورة طويلة الأمد
وأشارت الدراسة إلى أن هذا التملق له تأثير طويل الأمد، إذ إن تأييد الروبوتات لسلوك المستخدمين جعلهم يقيّمون الردود بشكل إيجابي، ويثقون بها أكثر، ويبدون استعداداً أكبر لاستخدامها مستقبلاً للحصول على النصائح.
الضرورة الملحة للثقافة الرقمية النقدية
وشددت تشينج على ضرورة إدراك المستخدمين أن ردود روبوتات الذكاء الاصطناعي ليست موضوعية بالضرورة.
من جانبه، وصف الدكتور ألكسندر لافر، الباحث في التكنولوجيا الناشئة بجامعة وينشستر، الدراسة بأنها “مهمة”، وقال: “التملق كان مصدر قلق منذ فترة، وهو نتيجة لطريقة تدريب أنظمة الذكاء الاصطناعي”.
وأضاف: “نحن بحاجة إلى تعزيز الثقافة الرقمية النقدية؛ حتى يفهم الناس طبيعة الذكاء الاصطناعي ومخرجاته”.

