دراسة تحذيرية حول نماذج الذكاء الاصطناعي
حذّرت دراسة حديثة من أن نماذج الذكاء الاصطناعي قد توصي بعلاجات مختلفة للحالة الطبية نفسها، بالاستناد فقط إلى السمات الاجتماعية والاقتصادية والسكانية للمريض. أنشأ باحثون ملفات لما يقرب من 30 مريضاً وهمياً مختلفاً، وسألوا 9 نماذج للذكاء الاصطناعي تقدم الرعاية الصحية عن كيفية التعامل مع ألف سيناريو لحالات طارئة مختلفة.
تأثير السمات الشخصية على القرارات الطبية
وقال الباحثون في دورية "نيتشر ميديسن" (Nature Medicine) إن نماذج الذكاء الاصطناعي عدّلت في بعض الأحيان القرارات بناء على السمات الشخصية للمرضى، مما أثر على أولوية تلقي الرعاية، وفحوص التشخيص، وأسلوب العلاج، وتقييم الصحة النفسية، على الرغم من تطابق التفاصيل السريرية. على سبيل المثال، أوصى الذكاء الاصطناعي في كثير من الأحيان بإجراء فحوص تشخيصية متقدمة مثل الأشعة المقطعية، أو التصوير بالرنين المغناطيسي للمرضى من أصحاب الدخل المرتفع، ở حين نصح المرضى محدودي الدخل في كثير من الأحيان بعدم الخضوع لمزيد من الفحوص، وهو ما يحاكي إلى حد ما عدم المساواة في الرعاية الصحية في الواقع.
مشكلات في نماذج الذكاء الاصطناعي
وجد الباحثون أن المشكلات ظهرت في كل من نماذج الذكاء الاصطناعي ذات الملكية الخاصة ومفتوحة المصدر. وقال الطبيب جيريش نادكارني، بكلية "إيكان للطب" في نيويورك، والذي شارك في قيادة فريق الدراسة في بيان "لدى الذكاء الاصطناعي القدرة على إحداث ثورة في الرعاية الصحية، لكن إذا تم تطويره واستخدامه بشكل مسؤول فقط".
العمل على تحسين تصميم النماذج
من جهته، ذكر الطبيب إيال كلانج، والذي شارك في الدراسة "من خلال تحديد المجالات التي قد تؤدي فيها هذه النماذج إلى التحيز، يمكننا العمل على تحسين تصميمها، وتعزيز الرقابة، وبناء أنظمة تضمن أن يتمتع المرضى بالرعاية الآمنة". هذا يؤكد على أهمية التطوير المستمر للنماذج وتحليلها لضمان تقديم رعاية صحية عادلة وآمنة للمرضى.