الذكاء الاصطناعي وتسهيل عمليات الغش
تبين دراسة أجرتها جامعة دوسلدورف-إيسن في ألمانيا وكلية تولوز للاقتصاد في فرنسا، بالتعاون مع معهد ماكس بلانك للتنمية البشرية في برلين، أن بعض المستخدمين ينسون استخدام "الكوابح الأخلاقية" عند تفويض مهامهم لأدوات الذكاء الاصطناعي. وأوضح الباحثون أن الناس يميلون أكثر إلى الغش عندما يسمح لهم باستخدام برامج الذكاء الاصطناعي بدلاً من القيام بذلك بأنفسهم.
عدم الأمانة في استخدام الذكاء الاصطناعي
خلصت الدراسة إلى أن أنظمة الذكاء الاصطناعي تسهل عمليات الغش، حيث تبين أنها تلتزم في كثير من الأحيان بالتعليمات غير الأخلاقية التي يصدرها مستخدموها غير الأمناء. وأشار الباحثون إلى أن مستوى عدم الأمانة الذي رصدوه كان مستوى غير متوقع.
أمثلة عملية على استخدام الذكاء الاصطناعي في الغش
أدى استخدام محطات الوقود خوارزميات تحديد الأسعار لتنسيقها مع أسعار المنافسين إلى ارتفاع أسعار الوقود للمستهلكين. كما أشارت الدراسة إلى أن خوارزمية أخرى تستخدمها إحدى تطبيقات النقل الذكي شجعت السائقين على تغيير مواقعهم الحقيقية، ليس استجابة لاحتياجات الركاب، بل بهدف خلق نقص مصطنع في عدد المركبات المتاحة وزيادة الأسعار.
نتائج الدراسة
أظهرت النتائج أن منصات الذكاء الاصطناعي كانت أكثر ميلا إلى اتباع تعليمات مشبوهة بنسبة تتراوح بين 58% و98% مقارنة بالبشر، حيث تباينت النسبة من منصة إلى أخرى، في حين كانت النسبة لدى البشر 40% كحد أقصى.
تدابير الحماية
حذر معهد ماكس بلانك من أن تدابير الحماية المتاحة حالياً في نماذج اللغة الكبيرة للذكاء الاصطناعي لم تكن فعالة في ردع السلوكيات غير الأخلاقية. وأوضح الباحثون أنهم جربوا مجموعة من استراتيجيات الحماية، وخلصوا إلى أن قواعد منع السلوكيات الخادعة يجب أن تكون دقيقة للغاية لكي تصبح فعالة.
تحديات منع برامج الذكاء الاصطناعي من التوهّم
أشار باحثون في شركة تطبيقات الذكاء الاصطناعي الأميركية الرائدة "أوبن أيه. آي" إلى أنه من غير المرجح إمكانية منع برامج الذكاء الاصطناعي من "التوهّم" أو التلفيق. كما أظهرت دراسات أخرى أنه من الصعب منع نظام الذكاء الاصطناعي من خداع مستخدمه وإيهامه بإنجاز المهمة الموكلة إليه على أكمل وجه بخلاف الحقيقة.

