ثورة الروبوتات: كيف نبنى الثقة في الآلات الذكية؟
ثورة الروبوتات لم تعد مجرد فرضية أكاديمية، بل هي تعيد تشكيل بيئة العمل من المستشفيات إلى المستودعات وحتى مناطق الكوارث. ومع توسع دور الآلات الذكية في أماكن تعرف بأنها عالية المخاطر، يبرز سؤال جوهري هو كيف نصمم روبوتات قادرة على كسب ثقة البشر وحتى تعزيزها؟
روبوتات تشاركية في الحياة اليومية
ما يسمى الروبوت التشاركي (COBOT) يندمج في أنشطة يومية حول العالم؛ من المراكز الطبية ومحاور الخدمات اللوجستية وحتى في المنازل. في المستودعات أصبح تحريك ونقل البضاعة أكثر أماناً وانخفض عدد الإصابات. وفي شركة أمازون، تتنقل روبوتات Proteus بشكل ذاتي حاملة عربات ثقيلة وسط العاملين دون تعطيل مساراتهم. أما في الصين، فتتقدم روبوتات إطفاء الحرائق إلى المواقع الخطرة قبل البشر لتحمي طواقم الإنقاذ.
هذه التقنيات تجارية وليست مجرد نماذج تجريبية؛ إذ باتت فوائداها الاقتصادية واضحة من حيث رفع الكفاءة ودعم البشر في الأعمال المرهقة. غير أن بناء الأسس الاجتماعية للثقة في تلك الآلات لا يزال أمامه وقت على ما يبدو.
الأمان مقابل السرعة.. سد فجوة الابتكار والثقة
المعضلة الكبرى اليوم تكمن في التفاوت بين أمرين، الأول تسارع الابتكار في مجال الروبوتات من جهة، والثاني بطء التشريعات المنظمة له.
وخلافاً لروبوتات الصناعة التي تعمل خلف حواجز لضمان الأمان، يتنقل ما يسمى الروبوت التشاركي في بيئة يعمها البشر ومتغيرة، ما يفرض دمج عوامل الأمان والموثوقية والإدراك المجتمعي في آن واحد.
وقطع الاتحاد الأوروبي شوطاً أبعد مع قانون الذكاء الاصطناعي الذي يصنف الأنظمة حسب مستوى المخاطر، ويلزم الروبوتات التفاعلية بتقييم المطابقة ورقابة ما بعد السوق. أما في الولايات المتحدة فما تزال المسؤوليات موزعة بين وكالات مثل OSHA وFDA وFAA، فيما يعتمد المطورون على معايير طوعية مثل 13482 ISO أو 61508 IEC لسد فجوات تنظيمية.
بناء الثقة بالتجربة والأدلة
لن تكفي وعود الابتكارات لتحصيل ثقة الجمهور؛ فالثقة يجب أن تتأسس على أدلة مقنعة تتعلق بالسلامة والواقعية أي قابلة للتنفيذ. متطلبات الثقة في روبوت يعمل كطبيب جراح يختلف تماماً عن روبوت يعمل على نقل الطلاب من مبنى إلى آخر في حرم جامعي. لذلك شرعت مبادرات دولية مثل “IEEE”، و”299 ISO/TC” للأخلاقيات في وضع مؤشرات لقياس سلامة الروبوت في ظل سلوك بشري متغير، وحماية الخصوصية لبيانات المستشعرات والتعرّف الصوتي، إلى جانب تحصين الأمن السيبراني في الأنظمة المتصلة، فضلاً عن القدرة على تفسير قرارات الروبوت.
لكن معظم هذه المعايير لا تزال اختيارية لأنها تفتقر إلى آليات إنفاذ، بينما قلما تعلن نتائج هذه الاختبارات على الملأ.
وقال خبير سلامة الروبوتات والمؤسس الشريك في شركة reasonX Labs، أمير صديقي، إن “الثقة تبنى على أساسات ومعايير دقيقة من السلامة والأمن والخصوصية والموثوقية”.
من الصناديق السوداء إلى الأنظمة الشفافة
ويختبر باحثون وشركات مفهم Trustworthiness Cases؛ وهي وثائق محكمة على غرار “حالات السلامة في صناعة الطيران” تسرد الافتراضات ووسائل الحماية وأنماط الفشل وخطط تخفيف الضرر، اعتمدتها وكالة “ناسا” الأمريكية، وهيئات الطيران البريطانية، يعمل مركز أبحاث الذكاء الاصطناعي الألماني (DFKI) على إتاحتها في المركبات تحت الماء، في حين تطبق برامج في كاليفورنيا النهج ذاته على روبوتات التوصيل وأذرع الرعاية المنزلية، ويعد المعيار 4600 UL من الأطر الشاملة لتقييم تلك الحالات.
الطريق إلى الأمام: يجب أن نتمهل لكي نسُرِع!
لا نحتاج إلى وقف مسيرة الروبوتات، بل إلى استثمار واسع في الحوكمة، تتمثل في ضرورة وجود معايير قابلة للقياس، وتدقيقات مستقلة، وتواصل شفاف مع الجمهور، خاصة أن حادث روبوت الأمن (نايتسكوب) الذي دهس طفلاً في ستانفورد عام 2016، وواقعة هيجان روبوت “Unitree H1” عام 2025 أثناء الاختبار، تعني أن الإخفاقات واردة رغم حساب كل شيء.
ومن أبرز الروبوتات التي تعمل في مجالات مختلفة، Moxi الذي يعمل في مجال المستشفيات، ونفذ 500 ألف عملية توصيل وساعد في خفض أعباء الممرضات.
أما الروبوت Cray X Exosuit فيعمل في مجال الخدمات اللوجستية، ويساعد على دعم الظهر وتقلیل الإصابات.
ويعمل الروبوت Proteus في مجال المستودعات التي تشهد تنقلاً آمناً لنحو 750 ألف روبوت بين العمال.
ويؤدي الروبوت Unitree B2 مهمة تقييم مخاطر الحرائق عن بُعد، وله دور في حماية رجال الإطفاء.
الخلاصة
ستغيّر الروبوتات حياتنا اليومية، لكن تحولاً دون ثقة يعني هشاشة مستمرة، ويجب الإصرار على أنظمة ذكية وقابلة للمساءلة وقابلة للتفسير وآمنة، حتى نطلق العنان لكامل إمكانات هذه الموجة التقنية دون أن نجني عواقب غير مقصودة.