本文是我们的一部分自主武器挑战系列。IEEE标准协会期待你的反馈关于这个话题,并邀请你来回答这些问题

致命的自主武器系统听起来可能很可怕,但武器系统的自主性远比“好与坏”和“道德与不道德”之间的简单辩论更加微妙和复杂。为了解决自主武器系统(AWS)可能引发的法律和伦理问题,重要的是要看看在整个自主范围内出现的许多技术挑战。由。召集的一组专家IEEE标准协会正在调查,但他们需要你的帮助。

武器系统可以建立一系列自主能力。它们可能是自动驾驶坦克,具有人工智能图像识别功能的无人侦察机,成群行动的无人水下航行器,具有先进目标识别功能的游荡弹药,等等。一些自主能力的争议较小,而另一些则引发了关于这种能力的合法性和伦理的激烈辩论。一些能力已经存在了几十年,而另一些仍然是假设的,可能永远不会被开发出来。

所有这些都可能使自主武器系统难以谈论,多年来,事实证明,这样做是非常具有挑战性的。即使是回答看似最简单的问题,比如AWS是否致命,也可能变得异常复杂。


迄今为止,国际讨论主要集中在致命性人工杀伤武器前景所带来的法律、伦理和道德问题上,对技术挑战的考虑有限。在联合国,这些讨论是在《特定常规武器公约》.然而,近十年过去了,联合国还没有提出一项涵盖AWS的新条约或规定。在《常规武器公约》和其他国际论坛的早期讨论中,与会者经常各执一词:有人可能认为“全自动武器系统”包括的能力只比今天的无人机先进一点点,而另一个人可能把这个词当作终结者的同义词。

讨论进展到2019年,《常规武器公约》成员国达成了一套关于致命性AWS的11项指导原则.但是这些原则是没有约束力的,技术社区如何实现它们还不清楚。在7月份的CCW最近一次会议上,代表们一再推动对AWS生命周期中出现的各种技术问题进行更细致的讨论和理解。

为了使这些讨论和其他讨论更加清晰,本文IEEE标准协会2020年召集了一个专家组,考虑将AWS原则转化为实践的道德和技术挑战,以及这对未来的发展和治理可能意味着什么。

去年,由我领导的专家组在一份题为“自主武器系统开发、使用和治理中的伦理和技术挑战“在该文件中,我们确定了自主武器系统的60多个挑战,分为10类:

  1. 建立共同语言
  2. 实现有效的人力控制
  3. 确定法律义务
  4. 确保鲁棒性
  5. 测试和评估
  6. 风险评估
  7. 解决操作限制
  8. 收集和管理数据
  9. 调整采购实践
  10. 解决非军事用途问题

“建立共同语言”是第一类,这并不奇怪。如前所述,当围绕AWS的辩论刚开始时,焦点是致命的自主武器系统,这仍然是人们关注的焦点。然而,确定AWS是否具有致命性比人们想象的要困难得多。

设想一架无人机可以进行自动监视并携带遥控武器。它使用人工智能导yabo2016网上亚博A航和识别目标,而由人类做出是否发动攻击的最终决定。武器和自主能力在同一系统内的事实表明,这可能被认为是一种致命的自动武器。

此外,人类可能无法实时监控无人机收集的所有数据以识别和验证目标,或者人类可能过度信任系统(a常见的问题当人类与机器一起工作时)。即使人类决定对AWS识别的目标发起攻击,也不清楚人类真正拥有多少“有意义的控制”。(“有意义的人为控制是另一个被热议的短语。)

定义的问题不仅仅是联合国决策者在讨论AWS时遇到的问题。AI开发人员对常用概念也有不同的定义,包括“偏见”、“透明”、“信任”、“自主”和“人工智能”。网上亚博Ayabo2016在许多情况下,最终的问题可能不是,我们能否为这些术语建立技术定义?而是,我们如何应对这些术语可能永远不会有一致的定义和一致的事实?因为,当然,对于AWS的所有挑战,最重要的问题之一不是我们是否在技术上可以解决这个问题,但即使有技术解决方案,应该我们构建和部署系统?

识别挑战只是IEEE-SA专家组工作的第一阶段。我们还得出结论,新的专家小组将从三个关键角度更深入地考虑这些挑战:

  • 保证和安全,它着眼于确保系统按预期方式运行的技术挑战。
  • 人机合作,它考虑了人类和机器将如何交互,以实现合理和现实的人类控制、责任和问责制。
  • 法律、政策和伦理,它考虑了挑战文件中提出的问题的法律、政治和伦理影响。

你怎么看?

这就是我们需要您反馈的地方!AWS面临的许多挑战与开发自主系统的其他领域所面临的挑战相似。我们期待并希望IEEE会员和读者亚博真人yabo.at将有来自各自领域的见解,可以为围绕AWS技术的讨论提供信息。

我们把一个一系列问题我们希望你能回答这些问题,以帮助我们更好地了解其他领域的人是如何解决这些问题的。自主能力将越来越多地应用于武器系统,就像它们在其他领域的应用一样,我们希望通过更详细地研究这些挑战,我们可以帮助建立有效的技术解决方案,同时有助于讨论什么可以和应该在法律上被接受。您的反馈将帮助我们朝着这个最终目标前进。公众意见开放至2022年12月7日

为IEEE标准协会撰写报告的独立专家小组包括伊曼纽尔布洛赫阿里尔康涅狄格州丹尼斯·加西亚对待两性阿什利Llorens集市Noorma,希瑟Roff

对话(4)
汤姆渴望 2022年11月10日
INDV

选择使用武器的人类要对攻击的结果负责,就这样。_____

如果AWS在战争中有用,就不会被禁止。我们不禁止真正有用的武器,因为我们认为对方会欺骗我们,无论如何都会生产武器以获得优势——因为我们会。______

相反,在没有必要杀戮的情况下,应该鼓励低杀伤力的AWS。针对可能是平民的目标的药物飞镖,针对明确的战斗人员的肢体伤害,以及摧毁敌人车辆的精确力量等等。

R·K·兰诺 2022年11月8日

爱情和战争是不择手段的,然后是行为的不可预测性自主平台。也许战争的动态作战环境使得预测AWS在实际部署中的可能结果变得极其困难,即使列出了10个项目。

基斯Kumm 2022年11月8日
LM

问:集团是否考虑过“限制AWS武器的发射”?这是“启用和发射的标准”的另一面。一个好的系统需要限制,特别是在自治功能方面。限制可能是适当的或不适当的,弱的或强的,这取决于标准和其他因素。标准可以形成一个基础,在此基础上可以应用其他因素。有人可能会犹豫称其为AWS的“判断”能力。但判断力是人类指挥链的核心能力,有时甚至更低。在不确定的环境中,AWS的链的顶端可能需要“判断”之类的东西。

仿生手军备竞赛

义肢行业过于专注于复杂、昂贵且通常不切实际的高科技假肢

12分钟读取
水平
一张照片上,一位年轻女子坐在一张白色的桌子旁,她有着棕色的眼睛和染成玫瑰金色的齐肩长发。她一手拿着碳纤维机械臂和机械手。她的另一只手臂在肘部附近。她的短袖衬衫上有手的图案。

作者Britt Young抱着她的Ottobock仿生仿生手臂。

加芙Hasbun。化妆:Maria Nguyen for MAC cosmetics;发型:Joan Laqui为Living Proof设计
DarkGray

在儒勒·凡尔纳1865年的小说中从地球到月球在美国,虚构的巴尔的摩枪支俱乐部的成员都是残疾的内战退伍军人,他们焦躁不安地寻找一个新的敌人来征服。他们在战争中不断创新更致命的武器。战争结束时,“四个人只有一条胳膊,六个人只有两条腿”,这些自学成才的截肢武器匠决定将他们的技能用于一种新的投射物:火箭船。

巴尔的摩枪支俱乐部将自己推向月球的故事讲述了老兵非凡的男性力量,他们不仅仅是“克服”了自己的残疾;他从中获得权力和野心。他们的“拐杖、木腿、人工手臂、钢钩、橡胶下巴、银色头盖和铂金鼻子”在他们的个性中不起主导作用——它们只是身体上的工具。这些零碎的人不太可能是发明的十字军战士,肩负着更不可能的使命。然而,还有谁比被技术改造的人更适合设计下一次技术上的巨大飞跃呢?

继续阅读↓ 显示更少
Baidu