Close Menu
    اختيارات المحرر

    بارقة أمل لمرضى سرطان الدم.. علاج مناعي محتمل بديل للكيميائي

    مايو 2, 2026

    إطلالات النجوم Billboard Women in Music 2026: من الكورسيه الى الريش: نجمات الموسيقى يخطفن الأنظار 01 أيار 2026

    مايو 2, 2026

    تجربة علاج معدل خلايا car t مرضى سرطان الدم العلاج الكيميائي

    مايو 2, 2026
    فيسبوك الانستغرام يوتيوب تيكتوك
    السبت, مايو 2, 2026
    • من نحن
    • اتصل بنا
    • الشروط والأحكام
    • سياسة الخصوصية
    فيسبوك الانستغرام يوتيوب تيكتوك
    NanamediaNanamedia
    English
    • الرئيسية
    • ثقافة وفن
    • منوعات
    • رياضة
    • سينما
    • موضة وازياء
    • اقتصاد
    • صحة
    • تكنولوجيا
    • تقارير و تحقيقات
    • آراء
    NanamediaNanamedia
    English
    أنت الآن تتصفح:الرئيسية»تكنولوجيا»روبوتات الدردشة “المتملقة” تخبر المستخدمين بما يحبون سماعه
    تكنولوجيا

    روبوتات الدردشة “المتملقة” تخبر المستخدمين بما يحبون سماعه

    Nana MediaNana Mediaأكتوبر 26, 2025لا توجد تعليقات2 دقائق
    فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني
    روبوتات الدردشة "المتملقة" تخبر المستخدمين بما يحبون سماعه
    شاركها
    فيسبوك تويتر لينكدإن بينتيريست البريد الإلكتروني

    الخطر الخفي لروبوتات الدردشة المدعومة بالذكاء الاصطناعي

    حذّر علماء من “مخاطر خفية” تنطوي عليها شعبية روبوتات الدردشة المدعومة بالذكاء الاصطناعي، والتي باتت تؤيد سلوكيات، وآراء المستخدمين بشكل دائم، حتى عندما تكون ضارة، أو غير مسؤولة.

    الدراسة الحديثة

    أظهرت دراسة حديثة أن اللجوء إلى هذه الروبوتات للحصول على نصائح شخصية قد يؤدي إلى تشويه تصورات الأفراد عن أنفسهم، ويقلل من استعدادهم لإصلاح العلاقات بعد الخلافات.

    مع تزايد الاعتماد على هذه التقنية في قضايا العلاقات والمشكلات الشخصية، حذّر الباحثون من قدرتها على “إعادة تشكيل التفاعلات الاجتماعية على نطاق واسع”، داعين المطورين إلى معالجة هذه المخاطر.

    تأثير التملق الاجتماعي

    قالت مايرا تشينج، الباحثة في علوم الحاسوب بجامعة ستانفورد، إن “التملق الاجتماعي” في روبوتات الذكاء الاصطناعي يمثل مشكلة كبيرة، مضيفة: “ما يثير قلقنا هو أن النماذج التي تؤيد المستخدمين باستمرار قد تشوه أحكامهم بشأن أنفسهم وعلاقاتهم والعالم من حولهم”.

    الدراسة التي لم تخضع بعد لمراجعة الأقران، كشفت أن المشكلة أكثر انتشاراً مما كان متوقعاً، بعد أن لاحظ الباحثون من خلال تجاربهم الشخصية أن النصائح التي تقدمها الروبوتات كانت مشجعة بشكل مفرط ومضللة.

    النتائج المقلقة

    شملت الدراسة إجراء اختبارات على 11 روبوت دردشة، من بينها نسخ حديثة من ChatGPT وGemini وClaude وLlama وDeepSeek.

    وأظهرت النتائج أن هذه الروبوتات أيّدت سلوك المستخدمين بنسبة تزيد بـ50% عن تأييد البشر في مواقف مماثلة.

    تبرير السلوكيات الضارة

    في أحد الاختبارات، قارن الباحثون ردود البشر والروبوتات على منشورات من منتدى “هل أنا المخطئ؟” في موقع Reddit.

    الروبوتات واصلت تأييد السلوكيات حتى عندما كانت غير مسؤولة أو خادعة، أو تنطوي على إيذاء النفس.

    التأثير على العلاقات الاجتماعية

    وأظهرت النتائج أن من تلقوا ردوداً متملقة شعروا بمزيد من التبرير لسلوكهم، مثل الذهاب إلى معرض فني لطرف سابق دون إبلاغ الشريك، وكانوا أقل استعداداً لإصلاح الأمور بعد الخلافات.

    نادراً ما شجعت الروبوتات المستخدمين على رؤية وجهة نظر الطرف الآخر.

    الخطورة طويلة الأمد

    وأشارت الدراسة إلى أن هذا التملق له تأثير طويل الأمد، إذ إن تأييد الروبوتات لسلوك المستخدمين جعلهم يقيّمون الردود بشكل إيجابي، ويثقون بها أكثر، ويبدون استعداداً أكبر لاستخدامها مستقبلاً للحصول على النصائح.

    الضرورة الملحة للثقافة الرقمية النقدية

    وشددت تشينج على ضرورة إدراك المستخدمين أن ردود روبوتات الذكاء الاصطناعي ليست موضوعية بالضرورة.

    من جانبه، وصف الدكتور ألكسندر لافر، الباحث في التكنولوجيا الناشئة بجامعة وينشستر، الدراسة بأنها “مهمة”، وقال: “التملق كان مصدر قلق منذ فترة، وهو نتيجة لطريقة تدريب أنظمة الذكاء الاصطناعي”.

    وأضاف: “نحن بحاجة إلى تعزيز الثقافة الرقمية النقدية؛ حتى يفهم الناس طبيعة الذكاء الاصطناعي ومخرجاته”.

    شاركها. فيسبوك تويتر بينتيريست لينكدإن Tumblr البريد الإلكتروني
    السابق“رجل المنشار” يرتفع إلى 17 مليون دولار في افتتاح الولايات المتحدة
    التالي إعدام 400 ألف طائر.. انتشار عدوى انفلونزا الطيور في ألمانيا – DW – 2025/10/26
    Avatar photo
    Nana Media
    • موقع الويب

    المقالات ذات الصلة

    بارقة أمل لمرضى سرطان الدم.. علاج مناعي محتمل بديل للكيميائي

    مايو 2, 2026

    إيران تسلم مقترحها في المفاوضات وتفاؤل باكستاني بـاتفاق عادل

    مايو 2, 2026

    جيميناي يحصل على إمكانية إنشاء ملفات مباشرة داخل المحادثات

    مايو 1, 2026
    الأخيرة

    بارقة أمل لمرضى سرطان الدم.. علاج مناعي محتمل بديل للكيميائي

    مايو 2, 2026

    إطلالات النجوم Billboard Women in Music 2026: من الكورسيه الى الريش: نجمات الموسيقى يخطفن الأنظار 01 أيار 2026

    مايو 2, 2026

    تجربة علاج معدل خلايا car t مرضى سرطان الدم العلاج الكيميائي

    مايو 2, 2026

    AMC وCinema United يشيدان بفترة الإصدار المسرحي الواسعة بينما تدفع Netflix فيلم “Narnia” إلى فبراير 2027 | أخبار

    مايو 2, 2026
    الأكثر قراءة
    منوعات نوفمبر 10, 2025

    واتساب يطلق ميزة جديدة للمستخدمين » وكالة بغداد اليوم الاخبارية

    تكنولوجيا نوفمبر 23, 2025

    “تيك توك” تكلف مستخدميها بـ”مهام جديدة”.. ما هي؟

    موضة وازياء مارس 9, 2026

    إطلالات النجوم أناقة بيرين سات: فساتين السترابلس والـ Cut Out 08 آذار 2026

    من نحن
    من نحن

    مرحبًا بكم في نانا ميديا، مصدر الأخبار الموثوق الذي يواكب كل ما يحدث في العالم لحظة بلحظة. نقدم لكم تغطية شاملة للأخبار المحلية والدولية، حيث نرصد تطورات العرب والعالم، ونحلل أبرز الأحداث الاقتصادية، ونسلط الضوء على آخر مستجدات الرياضة، السينما، والثقافة والفن. نهدف إلى تقديم محتوى دقيق ومتنوع يلبي اهتمامات قرائنا في مختلف المجالات.

    الأكثر مشاهدة

    مهرجان ميزوبوتاميا الدولي للشعر في لاهاي: أصوات العالم تتحد ضد العنصرية

    سبتمبر 4, 2025180 زيارة

    مهرجان أفلام الشرق الأوسط وشمال أفريقيا في لاهاي ينطلق عبر الإنترنت لتوسيع دائرة جمهوره

    سبتمبر 25, 202525 زيارة

    مهرجان Film-I الدولي يعود إلى أبوظبي: منصة جديدة لترسيخ السينما الإماراتية والانفتاح على الإنتاج العابر للحدود

    يناير 28, 202623 زيارة

    نشرتنا الإخبارية

    اشترك معنا لتصلك آخر الأخبار مباشرة إلى بريدك الإلكتروني!!

    نحن لا نرسل رسائل غير مرغوب فيها! اقرأ سياسة الخصوصية الخاصة بنا لمزيد من المعلومات.

    Check your inbox or spam folder to confirm your subscription.

    © 2026 حقوق النشر. جميع الحقوق محفوظة لـ Nanamedia.org
    • من نحن
    • اتصل بنا
    • الشروط والأحكام
    • سياسة الخصوصية

    اكتب كلمة البحث ثم اضغط على زر Enter