تخطت الروبوتات القاتلة مرحلة الخيال العلمي، وانتقل التعامل معها من الفرجة الشيقة على مقاعد السينما فيأفلام هوليوود، إلى الرعب من وجودها على أرض الواقع حيث تستثمر دول مثل الولايات المتحدة، والصين، وإسرائيل، وكوريا الجنوبية، وروسيا، وأستراليا، والهند، والمملكة المتحدة، مليارات الدولارات لتطوير تكنولوجيا الحرب التي تستخدم فيها أسلحة ذاتية التشغيل(AWS) وتُبرمج هذه الأنظمة لاتخاذ قرارات بالقتل باستخدام تكنولوجيا التعرف على الوجه والتحليل البيومتري. يعني ذلك أنه يمكن استهداف الأفراد باستخدام الروبوتات القاتلةعلى أساس العرق والنوع الاجتماعي والعمر.وهذا هو الجانب الأكثر خطورة في استخدامات تكنولوجيا التعرف على الوجه الذي وعدت في مقالي السابق بتناوله.
الكارثة تكمن في أنه يتم السماح للآلة باتخاذ قرار حول مسائل الحياة والموت. وتقوم حكومات وشركات بتطوير طائرات بدون طيار وغيرها من الأسلحة المتطورة التي تملك القدرة على اختيار أهداف خاصة بها ومهاجمتها – بدون سيطرة بشرية. بل أن هذا التطور البشع تجاوز مرحلة التصنيع فهناك تقارير تشير إلى انه تم استخدام الروبوتات القاتلة في الحرب الليبية وفي استهداف عناصر في غزة.
وفي حالة تعميم استخدام هذه الروبوتات القاتلة فيما يسمى بحروب الجيل السابع، فإننا نفقد إنسانيتنا تماما وندخل مرحلة وحشية بربرية خلال الحروب حيث تفتقر الآلات إلى الاعتبارات الأخلاقية مثل التعاطف والتفهم، وتتخذ قرارات بناءً على عمليات متحيزة ومعيبة وظالمة. وعلى الرغم من انه تتم برمجتها من جانب البشر إل أنه في الممارسة العملية غالباً ما تخفق التطبيقات تكنولوجيا في التعرف على الوجه والصوت – فمثل قد لاتتعرف على النساء، والأشخاص الملونين، والأشخاص ذوي الإعاقة. كما أن فرص حدوث أخطاء في الاستخدام تتجاوز بكثير ما حدث في بعض المعارك تحت مسمى( قتل من نيران صديقة) لأن هناك أخطاء قاتلة لهذه الروبوتات، من أبرزها أنها عندما تختار الهدف لا يكون من الواضح ما إذا كانت قادرة على التمييز بين الجنود المعادين والأطفال الذين يلعبون بمسدسات الألعاب أو بين المدنيين الفارين من موقع الصراع والمتمردين الذين يقومون بتراجع تكتيكي، فهذه الأسلحة الذاتية المستقلة لا تعرف أنها ترتكب خطأ، على عكس الجنود الذين يمكنهم التدخل لوقف الأخطاء.وهذا يعني أن الأسلحة الفتاكة المستقلة لا يمكن أبداً برمجتها برمجة وافية لتحل محل صنع القرار البشري.
ولكن هناك إغراءات كثير لدى قادة الجيوش وبعض السياسيين لاستخدام هذه الروبوتات القاتلة بدلا من الجنود ، ليس فقط بهدف الحفاظ على الأمن، ومراقبة الحدود، وانما في المعارك، حفاظا على حياة الجنود وتجنبا للمسائلة السياسية والأخلاقية على نحو الذي حدث في الحروب الأمريكية خارج الحدود الوطنية،حين تساءل المواطنون الامريكان: لماذا تزهق أرواح أبنائنا في العراق وأفغانستان؟ فضلا عن التداعيات النفسية لهذه الحروب فيما عرف بمرض حرج الخليج.
هذه الكارثة تزداد سوءا وتصبح مدمرة للبشرية في حالة دمج الروبوتات القاتلة مستقبلاً مع أسلحة نووية أو كيماوية أو بيولوجية، وهو احتمال وارد لأن الروبوتات لن تموت بسبب تسرب الاشعاعات الكيماوية أو النووية او الجراثيم المتطايرة من الأسلحة البيولوجية، ومن هنا يصبح استخدام هذه الروبوتات القاتلة خيارا مفضلاأمام القائد العسكري لحماية جنوده ، فضلا عن المخاوف من تسرب هذه الأجهزة مثل الطائرات بدون طيار للمنظمات الإرهابية ورجال حرب العصابات.كما ان هناك فجوة خطيرة في أثناء التحقيق على جرائم الحرب إذا استخدمت هذه الروبوتات ، فمن سيُحاكم، هل السلاح أم الجندي أم القادة أم الشركة التي صنعت السلاح؟
لذا فإن هناك استياء عالمي ضد هذه الأجهزة حيث عبرت 100 دولة وعدد من منظمات المجتمع المدني عن قلقها مراراً منذ العام 2013 بشأن الروبوتات القاتلة، ودعت إلى معاهدة دولية تضمن الاحتفاظ بالسيطرة البشرية على استخدام القوة.
وتتعاون منظمة العفو الدولية مع تحالف (وقف الروبوتات القاتلة)، الذي يضم أكثر من 180 منظمة غير حكومية وشركاء أكاديميين لضمان السيطرة على استخدام القوة من خلال تطوير قانون دولي جديد. واطلقت (العفو الدولية) حملة عالمية بعنوان (أوقفوا الروبوتات القاتلة) وتدعو عبر موقعها الإلكتروني، الجميع الى التوقيع على عريضة لمنع هذه الآلات من اتخاذ قرارات في مسائل الحياة والموت.
التعليقات