تقنية

لنتحدث عن الروبوتات القاتلة • TechCrunch


أبحث عن عيد الشكر محادثة مائدة العشاء ليست سياسة أو رياضة احترافية؟ حسنًا ، لنتحدث عن الروبوتات القاتلة. إنه مفهوم قفز منذ فترة طويلة من صفحات الخيال العلمي إلى الواقع ، اعتمادًا على مدى فضفاض التعريف الذي تستخدمه لـ “الروبوت”. التخلي عن الطائرات العسكرية بدون طيار قانون Asimov الأول للروبوتات – “لا يجوز للروبوت أن يؤذي إنسانًا أو ، من خلال التقاعس عن العمل ، يسمح للإنسان أن يلحق الأذى” – منذ عقود.

كان الموضوع يغلي مرة أخرى مؤخرًا بسبب الاحتمال المتزايد للروبوتات القاتلة في تطبيق القانون المحلي. رفعت Boston Dynamics ، أحد أشهر صانعي الروبوتات في العصر ، بعض أعلام السياسة العامة عندما عرضت لقطات لروبوتها Spot الذي تم نشره كجزء من تدريبات شرطة ولاية ماساتشوستس على مسرحنا في عام 2019.

لم تكن الروبوتات مسلحة وبدلاً من ذلك كانت جزءًا من تمرين مصمم لتحديد كيف يمكن أن تساعد في إبعاد الضباط عن طريق الأذى أثناء الرهائن أو الموقف الإرهابي. لكن احتمال نشر الروبوتات في سيناريوهات تكون فيها حياة الناس في خطر مباشر كافٍ لدفع تحقيق من اتحاد الحريات المدنية ، الذي قال لـ TechCrunch:

نحن بحاجة ماسة إلى مزيد من الشفافية من الوكالات الحكومية ، التي يجب أن تكون صريحة مع الجمهور بشأن خططها لاختبار ونشر تقنيات جديدة. نحتاج أيضًا إلى لوائح على مستوى الولاية لحماية الحريات المدنية والحقوق المدنية والعدالة العرقية في عصر الذكاء الاصطناعي.

في العام الماضي ، في غضون ذلك ، قطعت شرطة نيويورك صفقة مع Boston Dynamics بعد رد فعل شعبي قوي ، بعد ظهور صور لـ Spot يتم نشرها ردًا على غزو منزل في برونكس.

من جانبها ، كانت Boston Dynamics شديدة الصخب في معارضتها لتسليح روبوتاتها. وقعت الشهر الماضي خطاب مفتوح، جنبًا إلى جنب مع الشركات الرائدة الأخرى Agility و ANYbotics و Clearpath Robotics و Open Robotics ، التي تدين هذا الإجراء. تلاحظ:

نعتقد أن إضافة أسلحة إلى الروبوتات التي يتم تشغيلها عن بعد أو بشكل مستقل ، والمتاحة على نطاق واسع للجمهور ، والقادرة على التنقل إلى مواقع كان يتعذر الوصول إليها سابقًا حيث يعيش الناس ويعملون ، يثير مخاطر جديدة من الأذى وقضايا أخلاقية خطيرة. ستؤدي التطبيقات المُسلَّحة لهذه الروبوتات القادرة حديثًا إلى الإضرار بثقة الجمهور في التكنولوجيا بطرق تضر بالمزايا الهائلة التي ستجلبها للمجتمع.

يُعتقد أن الرسالة كانت ، جزئيًا ، ردًا على عمل Ghost Robotics مع الجيش الأمريكي. عندما ظهرت صور أحد كلابها الروبوتية على تويتر وهي ترتدي بندقية مستقلة ، أخبرت شركة فيلادلفيا TechCrunch أنها اتخذت موقفًا محايدًا فيما يتعلق بكيفية استخدام الأنظمة من قبل شركائها العسكريين:

نحن لا نصنع الحمولات. هل سنقوم بالترويج والإعلان عن أي من أنظمة الأسلحة هذه؟ على الاغلب لا. هذا سؤال صعب الإجابة عليه. لأننا نبيع للجيش ، لا نعرف ماذا يفعلون معهم. لن نملي على عملائنا الحكوميين كيفية استخدامهم للروبوتات.

نحن نرسم الخط على مكان بيعها. نحن نبيع فقط للولايات المتحدة والحكومات الحليفة. نحن لا نبيع الروبوتات الخاصة بنا لعملاء المؤسسات في الأسواق المتصارعة. نتلقى الكثير من الاستفسارات حول روبوتاتنا في روسيا والصين. نحن لا نشحن هناك ، حتى لعملاء مؤسستنا.

بوسطن ديناميكس وجوست روبوتيكس حاليا متورطًا في دعوى قضائية تتعلق بعدة براءات اختراع.

هذا الأسبوع ، موقع إبلاغ الشرطة المحلية مهمة محلية ظهر قلق متجدد حول الروبوتات القاتلة – هذه المرة في سان فرانسيسكو. ويشير الموقع إلى أن اقتراح السياسة الذي تتم مراجعته من قبل مجلس المشرفين في المدينة الأسبوع المقبل يتضمن لغة حول الروبوتات القاتلة. ال “سياسة معدات إنفاذ القانون” يبدأ بجرد الروبوتات الموجودة حاليًا في حوزة إدارة شرطة سان فرانسيسكو.

هناك 17 في المجموع – 12 منها تعمل. إنها مصممة إلى حد كبير للكشف عن القنابل والتخلص منها – وهذا يعني أنه لم يتم تصميم أي منها خصيصًا للقتل.

“لا يجوز استخدام الروبوتات المدرجة في هذا القسم خارج نطاق التدريب والمحاكاة ، والاعتقالات الجنائية ، والحوادث الخطيرة ، والظروف الملحة ، وتنفيذ أمر قضائي أو أثناء تقييمات الأجهزة المشبوهة ،” ملاحظات السياسة. ثم يضيف ، بشكل أكثر إثارة للقلق ، “لن يتم استخدام الروبوتات إلا كخيار قوة مميتة عندما يكون خطر فقدان الأرواح لأفراد من الجمهور أو الضباط وشيكًا ويفوق أي خيار آخر للقوة متاح لقوات حماية القوات الخاصة”.

على نحو فعال ، وفقًا للغة ، يمكن استخدام الروبوتات للقتل من أجل إنقاذ حياة الضباط أو الجمهور. ربما يبدو غير ضار بما فيه الكفاية في هذا السياق. على الأقل ، يبدو أنه يقع ضمن التعريف القانوني لـ القوة المميتة “المبررة”. ولكن ظهرت مخاوف جديدة فيما يبدو أنه تغيير عميق في السياسة.

بالنسبة للمبتدئين ، فإن استخدام روبوت التخلص من القنابل لقتل المشتبه به لا يخلو من سابقة. في يوليو 2016 ، فعل ضباط شرطة دالاس ذلك بالضبط لما كان يُعتقد أنه المرة الأولى في تاريخ الولايات المتحدة. قال قائد الشرطة ديفيد براون في ذلك الوقت: “لم نرَ خيارًا آخر سوى استخدام روبوتنا المتفجر ووضع جهاز على امتداده لتفجيره حيث كان المشتبه به”.

ثانيًا ، من السهل معرفة كيف يمكن استخدام سابقة جديدة في ملف سيناريو CYA، إذا تم استخدام الروبوت عن قصد أو عرضًا بهذه الطريقة. ثالثًا ، وربما الأكثر إثارة للقلق ، يمكن للمرء أن يتخيل اللغة التي تنطبق على اقتناء نظام آلي مستقبلي غير مصمم فقط لاكتشاف المتفجرات والتخلص منها.

تضيف Mission Local أن رئيس لجنة قواعد مجلس المشرفين في SF ، آرون بيسكين ، حاول إدخال خط أكثر صداقة مع Asimov ، “لا يجوز استخدام الروبوتات كاستخدام للقوة ضد أي شخص”. يبدو أن SFPD شطب تغيير Peskin وتحديثه إلى لغته الحالية.

يأتي الحديث المتجدد حول الروبوتات القاتلة في كاليفورنيا ، جزئيًا ، بسبب قانون الجمعية رقم 481. الذي تم توقيعه في القانون من قبل الحاكم جافين نيوسوم في سبتمبر من العام الماضي ، تم تصميم القانون لجعل عمل الشرطة أكثر شفافية. ويشمل ذلك جرد المعدات العسكرية المستخدمة من قبل إنفاذ القانون.

تعد الروبوتات السبعة عشر المضمنة في مستند سان فرانسيسكو جزءًا من قائمة أطول تتضمن أيضًا مركبة Lenco BearCat المدرعة، الانفجارات السريعة و 15 رشاشًا فرعيًا.

في الشهر الماضي ، قالت شرطة أوكلاند ذلك لن تسعى للحصول على الموافقة للروبوتات المسلحة عن بعد. وقال القسم في تصريح:

لا يقوم قسم شرطة أوكلاند (OPD) بإضافة مركبات مسلحة عن بعد إلى القسم. شاركت العيادات الخارجية في مناقشات اللجنة المخصصة مع لجنة شرطة أوكلاند وأعضاء المجتمع لاستكشاف جميع الاستخدامات الممكنة للسيارة. ومع ذلك ، بعد إجراء مزيد من المناقشات مع الرئيس والفريق التنفيذي ، قررت الإدارة أنها لم تعد ترغب في استكشاف هذا الخيار المحدد.

جاء البيان بعد رد فعل شعبي عنيف.

خرج معجون الأسنان بالفعل من الأنبوب أول قانون أسيموف الأول. الروبوتات القاتلة هنا. أما بالنسبة للقانون الثاني – “يجب على الروبوت أن يطيع الأوامر الصادرة عن البشر” – فهذا في الغالب في متناول أيدينا. الأمر متروك للمجتمع لتحديد كيفية تصرف الروبوتات الخاصة به.



اضغط هنا لرؤية المصدر

مقالات ذات صلة

اترك رد

زر الذهاب إلى الأعلى

أنت تستخدم إضافة Adblock

برجاء اغلاق حاجب الاعلانات لمتابعة التصفح