国防人工智能与军备控制网络
国防人工智能与军备控制网络是一个用于监测、聚合和分析全球国防人工智能与军备控制进展和政策的平台。 我们搜寻并收集与军事人工智能伦理和治理、人工智能军备控制相关的报告和分析,并每天更新我们的服务。但这并不代表我们赞同其中的观点。欢迎为国防人工智能与军备控制网络推荐数据源与报告。

筛选688份文献

评论

新型人工智能攻击无人机展示了战场自主性的发展速度

第一人称无人机驾驶是昨天的新闻。无人机正变得越来越智能,因为它们周围的电子环境使操作员的沟通变得更加困难。

defense one

评论

忘记F-22、F-35或NGAD:第七代战斗机会是什么样子(2070年)

第七代战斗机可能可以完全无人驾驶,通过3D打印和人工智能驱动的模拟进行快速设计和生产。

national interest

分析

人工智能会从根本上改变战争的发动、战斗和结束方式吗?

在这篇文章中,日内瓦国际人道主义法与人权学院研究与政策主管Erica Harper阐述了人工智能军事决策的可能影响,因为这与发动战争、发动冲突和建设和平有关。她强调,虽然人工智能的这种使用可能会产生积极的外部性,包括在预防和减轻伤害方面,但风险是深远的。这些因素包括机会主义战争新时代的可能性、暴力脱敏的主流化以及错失的和平机会。需要根据多边脆弱性的现状来评估这种潜力,并将其纳入区域和国际层面的人工智能政策制定中。

icrc blog

分析

超越武器系统:人工智能在军事决策支持系统中的伦理挑战

在这篇文章中,拥有人工智能伦理、风险分析和国际安全研究背景的Matthias Klaus探讨了与军事人工智能应用相关的伦理挑战,这些挑战往往被对自主武器系统(AWS)的主要关注所掩盖。他强调了与DSS相关的一些伦理挑战,这些挑战通常被描述为给军事决策带来更多的客观性、有效性和效率。然而,它们可能会助长各种形式的偏见,侵犯人类的自主权和尊严,并通过导致同伴压力和技能下降,有效地破坏军事道德责任

icrc blog

公开论坛

推进人工智能的国际治理

具有军事应用的新技术可能需要新的治理模式。在本文中,我们对技术治理形式进行了分类,概述了它们的优点和缺点。

springer

工具包

议会参与在拒绝杀戮自动化、确保对武力使用的有效人类控制方面的作用

活动家工具包虽然议员们不会直接参与禁止和监管杀手机器人的国际条约谈判——这是由外交官在政府指示下进行的——但议员们在拒绝杀戮自动化、确保对武力使用的有效人类控制以及推动条约进程方面将发挥关键作用。因此,在游说工作中与他们接触非常重要。本指南旨在帮助活动家进行议会参与。尽管接触议员有其特殊性,并且需要根据你所在国家的具体情况进行调整,但议会联络应成为你整体倡导和游说活动的一个重要部分。

stop killer robots

评论

如何减缓致命AI的传播

如今,鲁莽和恶意的行为者很容易掌握最先进、最具潜在致命性的机器学习算法。

national interest

分析

人工智能系统在军事瞄准支持中的风险和无效性

随着基于人工智能的决策支持系统(AI DSS)在当代战场上的使用越来越多,联合国秘书长人工智能高级别咨询机构成员、REAIM专员和经合组织的Jimena Sofía ViverosÁlvarez。人工智能专家,反对依赖这些技术来支持目标识别、选择和参与周期,因为它们的风险和无效性是一个不可忽视的永久事实,因为它们实际上有可能加剧平民的痛苦。

icrc blog

分析

基于人工智能的军事决策支持系统中的算法偏差问题

算法偏差长期以来一直被认为是影响集成人工智能(AI)技术的决策过程的关键问题。在做出与使用武力有关的军事决策时越来越多地使用人工智能,这引发了人们对这些技术中的偏见以及人类用户如何根据分层的社会文化规范、知识和注意力模式进行编程和依赖数据的质疑

icrc blog

报告

核武器与人工智能:技术前景与现实

人工智能(AI)能力的最新进展增加了国家对将AI用于军事目的的兴趣。拥有核武器的国家对先进人工智能的军事整合有可能对其核威慑架构的要素产生影响,鉴于目前军事上采用先进人工智能的相对早期阶段,对这些因素的探索为进一步考虑人工智能与核关系中整合的可能现实以及潜在的透明度措施和治理实践奠定了基础

sipri

分析

军事决策中的人工智能:支持人类,而不是取代人类

军队在决策过程中纳入了越来越复杂的基于人工智能的决策支持系统(AI DSS),包括使用武力的决定。这一发展的新颖之处在于,这些人工智能DSS功能的过程挑战了人类在军事决策过程中进行判断的能力。这种对人类判断力的潜在侵蚀带来了若干法律、人道主义和伦理挑战和风险,特别是在对人们的生活、尊严和社区产生重大影响的军事决策方面。鉴于这一事态发展,我们必须紧急而认真地讨论如何使用这些系统及其对受武装冲突影响的人的影响。

icrc blog

声明

Stop Killer Robots就致命自主武器系统向政府专家小组发表的声明

“停止杀手机器人”向2024年缔约方政府专家组第一届会议关于致命自主武器系统领域新兴技术的完整声明。

stop killer robots

报告

各国向联合国秘书长提交的关于自主武器的报告概述

Stop Killer Robots的研究和监测团队发布了一份出版物,总结了各国对备受期待的联合国秘书长关于自主武器的报告的意见。

stop killer robots

分析

建立技术联盟

Maven 项目和美国第 18 空降军如何为国防部实施软件和人工智能

cset

评论

无人机正在摧毁乌克兰的一切:战争将永远不会一样

人们仍然担心给机器留下太多的控制权,以免科幻小说中的故事成为自我实现的预言。但事实仍然是,使用无人机可以帮助士兵免受伤害。

national interest

评论

忘掉NGAD或F/A-XX:第七代战斗机会是什么样子(2070年)

虽然第七代尚未确定,但它可能具有自主能力、先进材料和跨国合作。然而,这样的进步可能还需要几十年的时间,可能会在2070年代或更晚出现。

national interest

评论

恐怕我不能这样做:应该允许杀手机器人违抗命令吗?

军方需要证明,有可能制造出不说不的道德杀手机器人,或者在让人类知情的同时,设计出一种安全的拒绝权。

bulletin

报告

迈向自主武器系统监管的双层方法:识别途径和可能的要素

随着关于如何应对自主武器系统(AWS)带来的挑战的全球对话的发展,各国越来越支持一种可能的方法是通过“两级方法”。这种方法一方面会禁止某些类型和使用AWS,另一方面会对所有其他AWS的开发和使用施加限制和要求。各国面临的一项关键任务是就如何实施这种双层方法达成一致。

sipri

原创研究

军事人工智能背景下的指挥责任:理论与实践的平衡

人工智能(AI)在不同领域得到了不同程度的广泛应用,包括在军事环境中使用它来做出可能产生道德后果的决策的可能性。这一领域的一个反复出现的挑战是,在人工智能引发负面结果的情况下,道德责任的分配。

springer

评论

终结者来了:前参谋长联席会议主席预测美国军方将配备机器人

退役的美国陆军将军Mark Milley预测,到2039年,机器人和自主系统可能占美国军队的三分之一,并可能由人工智能(AI)操作和指挥。

national interest

评论

轰炸机剧:B-21袭击者的噩梦刚刚开始

仍在开发中的B-21突袭机隐形轰炸机在2023年底面临16亿美元的成本超支,在无人机战争兴起的情况下,这引发了人们对其费用的担忧。尽管如此,B-21旨在取代B-2幽灵,后者的隐形能力已经过时。

national interest

评论

潜艇时代结束了吗?

随着战争的发展,传统的军事战略和平台必须适应或面临淘汰。严重依赖航空母舰的美国军方现在面临着反介入/区域拒止(A2/AD)系统日益增长的威胁。

national interest

分析

人工智能治理的实现原则

如何管理人工智能是立法者和决策者最关心的问题。为了有效治理人工智能,监管机构必须 1)通过跟踪事件和收集数据来了解人工智能的风险和危害;2) 培养自己的人工智能素养,让公众更好地了解收益和风险;以及3)通过制定可以随着人工智能的发展而更新的政策来保持适应性和灵活性。

cset

原创文章

人工智能与战争:一种理性选择的方法

近年来,人工智能一直是一个热门话题,尤其是与战争和军事行动有关的人工智能。虽然理性选择方法已被广泛用于理解战争的原因,但很少有文献使用理性选择方法系统地研究人工智能在战争中的作用。本文旨在通过探索理性选择模型如何帮助我们理解人工智能在战争中的力量和局限性来填补这一空白。

springer

分析

重新设计车轮?AWS辩论可以从现有军备控制协议中吸取的三个教训

为了帮助各国详细说明两级管理自动武器系统的可能要素,斯德哥尔摩国际和平研究所(SIPRI)的Laura Bruun从过去的军备控制谈判中指出了三个教训,这些教训可以应用于自动武器系统辩论

icrc blog

年度报告

阻止杀手机器人运动-2023年年度报告

2023年年度报告概述了2023年4月至2024年3月期间阻止杀手机器人运动开展的活动。

stop killer robots

年度报告

阻止杀手机器人运动-2022年年度报告

2022年年度报告概述了2022年4月至2023年3月期间阻止杀手机器人运动开展的活动。

stop killer robots

年度报告

阻止杀手机器人运动-2021年度报告

2021年年度报告概述了2021年4月至2022年3月“制止杀手机器人运动”开展的活动。

stop killer robots

评论

会出什么问题?俄罗斯誓言开发无人驾驶飞机

这不仅对今天的乌克兰人来说是一种危险,而且在不久的将来可能对全人类来说也是一种危险。

national interest

评论

美国空军需要问的B-21突袭机问题

有人驾驶的飞机仍然很重要。随着B-21的问世,载人飞机应该会继续发挥作用。但自动化和人工智能正在到来,总有一天会侵犯飞行员的工作安全。

national interest

回应文件

Stop Killer Robots向联合国秘书长提交关于自主武器系统的报告

Stop Killer Robots根据关于自主武器系统的第78/241号决议提交给联合国秘书长的材料。

stop killer robots

评论

北约声称加强了俄罗斯在联盟领土上的混合活动

2020年的一项研究确定,至少有12个北约成员国使用社交媒体传播计算宣传和虚假信息,而两个(英国和美国)被证明具有很高的“网络部队”(负责操纵网上舆论的政府或政党行为者)能力。此类活动似乎与美国特种部队和情报机构有关,并与使用人工智能的私营部门举措有关

nato watch

评论

空军参谋长表示,无人驾驶F-16战斗机与人类飞行员“大致持平”

美国空军未来忠诚的飞行员正逐渐接近成为现实,更重要的是,人工智能控制的飞机可能会像任何人类飞行员一样优秀。这是空军部长弗兰克·肯德尔的评估,他最近乘坐一架自主控制的X62A VISTA(可变飞行模拟试验机)飞行,这是一架经过改装的F-16战鹰

national interest

评论

人工智能如何重新定义中东战争

以色列和海湾国家正在押注人工智能,以帮助他们抵御伊朗无人机。

national interest

评论

想喝多少就喝多少,但不要把人工智能称为生存威胁

生成型人工智能可以在很多方面造成严重破坏,但它并不像计算机代码那样对生存构成威胁。

bulletin

评论

美国空军模仿人工智能驾驶的F-16战斗机

作为DARPA空战进化(ACE)计划的一部分,美国空军正在将人工智能飞行员纳入F-16战斗机,从而提高其队伍中的人工智能能力。

national interest

评论

AI壮志凌云?:无人驾驶F-16刚刚参加了一场与有人战斗机的混战

在最近披露的飞行中,ACE AI算法在加利福尼亚州爱德华兹空军基地的空军试飞员学校控制了一架经过特殊改装的F-16战鹰测试机,该测试机被命名为X-62A或VISTA(可变飞行模拟器测试机)。自主作战演习的展示始于去年。

national interest

评论

听着,联合国:士兵不是杀人机器人的粉丝

令人惊讶的是,在美国军队服役的人比普通公众更不可能支持在军事行动中使用无人驾驶汽车,即使这样做可以挽救士兵的生命。

bulletin

原创文章

可解释的人工智能在军事领域

在军事领域,许多机构认为,自主和人工智能武器系统不应包含无法解释的人工智能,红十字国际委员会和美国国防部都明确将可解释性列为开发和使用此类系统的相关因素。

springer

评论

战争算法:人工智能在武装冲突中的应用

随着各国准备大规模部署致命的自主武器系统,人工智能正在被整合到无人机行动中,并支持人类在周围冲突中的决策...

carnegie council

评论

即将推出:自动F-16战鹰?

作为VENOM-AFT计划的一部分,美国空军正在推进其下一代空中优势(NGAD)计划,将自主能力集成到老式F-16战鹰中。

national interest

评论

美英安全协议可能影响人工智能的未来

两家研究机构将在人工智能安全测试等方面进行合作。

defense one

评论

立法者希望五角大楼就与澳大利亚、英国的人工智能发展做出回应

参议员们正在AUKUS项目中寻求更多关于人工智能安全的信息。

defense one

文章

联合国大会通过具有里程碑意义的人工智能决议

联合国大会宣布一致通过一项13点决议,旨在规范和确保人工智能领域的安全。决议是...

new defence order strategy

分析

被忽视:人工智能的算法偏见和军事应用问题

上周,缔约国举行了政府专家组第一届会议...

icrc blog

研究文章

从人工智能伦理原则到实践:一种将人工智能伦理原理应用于国防领域的目的论方法

本文提供了一种解释人工智能伦理原则的方法,以规定在高风险领域开发和部署人工智能系统的伦理标准。

springer

评论

DARPA今年资助的大型人工智能研究

国防部的主要研究部门将试验道德聊天机器人和新型机器人超级飞行员。

defense one

报告

赋能技术与国际安全:简编(2023年版)

我们迫切需要对赋能技术及其对国际安全的潜在影响进行更彻底和全面的审查。

unidir

声明

Stop Killer Robots就致命自主武器系统向政府专家小组发表的声明

阅读Stop Killer Robots向缔约方政府专家组2024年第一届会议发表的关于...

stop killer robots

评论

全球无人驾驶海军舰艇市场

战争进化博客。在我们的最后一次冒险中,我们调查了军舰和潜艇的全球市场。出于对题材连续性的文学原则的尊重,我们被迫...

military embedded systems

主要论文

公众对人工智能在国防中使用的看法:定性探索

这项研究首次探讨了公众对国防中人工智能的看法和态度。

springer

公开论坛

国防人工智能的伦理治理:原则与实践指导的规范权衡

人工智能(AI)技术在国防领域的快速传播对道德治理提出了挑战...人工智能伦理如何看待国防部出版的新生文献

springer

评论

杀手机器人即将进入战场

自主武器系统(AWS)的扩散——通常被错误地标记为“杀手机器人”——是一个新隐患。

national interest

评论

导弹防御的未来

反导弹防御的新技术正在挑战进攻优先于防御的假设。

national interest

评论

NGAD、F/A-XX和B-21突袭机将如何改变美国军队

随着华盛顿和北京之间的紧张局势继续加剧,开发世界上第一架下一代战斗机的军备竞赛正在进行。从潜艇和战斗机到轰炸机和主战坦克,美国和中国都在优先发展先进和尖端技术。也许最令人期待的第六代设计是即将到来的下一代空中优势(NGAD)计划、B-21隐形轰炸机和F/A-XX机身。

national interest

评论

人工智能会导致战争吗?

生成性人工智能对亚洲威慑的影响尚不清楚,可能会产生更大的冲突风险。

national interest

评论

自主无人机群与人工智能有争议的想象

基于人工智能的自主武器系统(AWS)具有大规模杀伤性武器的潜力,军事和军火工业对AWS的影响轻描淡写,也有人认为,它们可以建立在“负责任”或“值得信赖”的人工智能(AI)的基础上。

springer

新闻报道

杀手机器人:联合国投票促进各国在公约上采取行动

批准了联合国大会第一项关于“杀人机器人”的决议的国家应该推动就一项新的国际条约进行谈判,以禁止和规范这些武器,...

human rights watch

评论

忘记NGAD:第七代战斗机会是什么样子

自主技术正变得越来越可行,人类数字双胞胎的概念正在为不受人类弱点限制的下一代战斗机创造机会。

national interest

评论

B-21突袭机:最后一架有飞行员的隐形轰炸机?

新的B-21突袭者隐形轰炸机会是最后一架由飞行员控制的美国空军轰炸机吗?

national interest

评论

算法预测和先发制人的暴力:人工智能和无人驾驶航空系统的未来

先发制人打击的军事理由是基于对威胁的计算和预期。预期或预测的基本原理是人工智能操作逻辑的基础。

springer

观点

采用并扩展从军事到医疗保健的生成性人工智能的伦理原则

随着俄乌战争中人工智能军备竞赛的持续,预计人工智能驱动的致命武器系统将在战争中变得普遍。尽管人工智能在许多成功的应用中显示出了前景,但仍迫切需要解决与这些应用相关的道德问题。

springer

报告

探索人工智能和自主系统的合成数据:入门

本文探讨了现有的技术和组织方面的数据挑战,介绍了生成合成数据的关键技术特征和方法,并分析了在国际安全背景下使用合成数据的影响,包括对自主系统和网络领域的影响。

unidir

评论

人工智能与战争的未来:来自美国军方的令人不安的证据

美国军官可以批准使用他们不信任的人工智能增强军事技术。这是一个严重的问题。

bulletin

主要论文

人工智能风险的三道防线

出于经济、法律和道德原因,开发和部署人工智能系统的组织需要管理相关风险。然而,并不总是清楚谁应负责...

springer

文章

自主武器与数字非人化

这篇简短的解释性论文讨论了数字非人化背景下的自主武器。

stop killer robots

简报文件

以人为目标和数字非人化

这份简短的简报文件阐述了禁止设计用于针对人类的自主武器系统的必要性,以及此类系统固有的数字非人化。

stop killer robots

报告

各国对人类控制的立场趋同

本文考察了在武器系统自主性的背景下,各国对人类控制立场的趋同。

stop killer robots

新闻报道

今日D简报:国防部新的伦理人工智能工具

五角大楼刚刚发布了一套新的“道德人工智能工具”,以帮助用户更负责任地使用该技术。

defense one

分析

战争算法:人工智能在武装冲突决策中的应用

国际人道主义法本身,要求在武装冲突中开发和使用人工智能时采取“以人为本”的方法,试图在已经是不人道的活动中保护人类。

icrc blog

访谈

AI教父Yoshua Bengio:我们需要一个人类防御组织

在这次采访中,人工智能教父Yoshua Bengio讨论了关于人工智能的引人注目的头条新闻、人工智能研究人员的禁忌,以及为什么顶级人工智能研究者可能对人工智能可能给人类带来的风险持不同意见...

bulletin

分析

可信人工智能的Inigo Montoya问题(国际版)- 国家指导文件比较

澳大利亚、加拿大、日本、英国和美国在其高级人工智能政策文件中强调问责制、可解释性、公平性、隐私性、安全性和透明度原则。尽管措辞相同,但这些国家对这些原则的定义略有不同,这可能会对互操作性和国际规范的制定产生重大影响。

cset

新闻报道

保护人类免受杀人机器人的伤害

联合国秘书长António Guterres和红十字国际委员会主席Mirjana Spoljaric向各国政府发出了一个新的信息:“现在就采取行动,维护人类对武力使用的控制。”,各国领导人敦促联合国193个成员国采取果断行动,在2026年前谈判一项新的国际条约,禁止和规范自主武器系统。

human rights watch

评论

一架自主鱼鹰MK III刚刚通过关键军事测试

鱼鹰MK III的飞行是新ADAx试验场的第一次重大实验,但其他试验很快就会跟进。

national interest

问答

联合国大会关于自主武器系统(AWS)的决议常见问题

关于自主武器系统(AWS)的决议将于2023年10月提交给第78届联合国大会第一委员会。本文件简要回答了有关该问题的一些常见问题...

stop killer robots

政策简报

联合国大会决议对于自主武器系统进展至关重要的 5 个原因

2023年10月举行的第78届联合国大会第一委员会会议为自主武器系统的监管取得进展提供了一个关键机会。

stop killer robots

评论

美国国家安全局将成立人工智能安全中心

美国国家安全局正在建立人工智能安全中心,最终目标是促进人工智能能力在国家安全系统和国防工业中的安全开发、集成和采用。

defense one

评论

华盛顿对人工智能战争的押注

战争的未来肯定会是数据驱动和人工智能驱动的,而且在很多方面,它已经是了。

national interest

评论

人工智能与原子:人工智能如何彻底改变核材料

有一个三维的解决方案来管理不断演变的人工智能军民两用问题:推进以国家为中心的监测和监管,促进防扩散和...

bulletin

评论

专访:新兴军事技术专家Paul Scharre谈人工智能时代的全球权力动态

《四个战场:人工智能时代的力量》一书的作者事实上详细描述了在人工智能领域争夺世界领导地位的斗争,尤其是与美中力量有关的斗争...

bulletin

评论

为什么生物设计人工智能应该与聊天机器人受到不同的监管

基于LLM的聊天机器人和生物设计工具以不同的方式影响生物安全格局,需要独立治理,以避免被用于制造生物武器。

bulletin

评论

生物技术有望创造奇迹。但风险需要更多的监督。

利用人工智能扩大化学和生物武器范围的潜在应用在美国和海外引起了高度关注。应监管生物两用风险,以免人工智能技术用于制造生物武器...

bulletin

会议论文

核武器与人工智能军事化

这篇文章概述了人工智能技术和系统军事化带来的核风险。其中包括人工智能增强对核指挥、控制和通信的网络威胁...

springer

评论

融合:人工智能与新旧大规模杀伤性武器

人工智能能够放大其他技术的风险,需要重新评估标准政策方法。

bulletin

评论

用机器作战的混乱伦理

人工智能正在进入战斗决策。出了问题该怪谁?自动化可以帮助我们做出艰难的选择,但它不能独自完成。

mit technology review

评论

战争是混乱的,人工智能无法应付。

随着人工智能成为军事决策的一部分,重要的是要警惕技术如何改变冲突的原始想法。

bulletin

报告

美中竞争与军事人工智能

本报告探讨了美国如何管理战略风险——定义为武装冲突或核战争威胁增加的风险——这些风险可能由军事人工智能在其与中国的关系中造成或加剧...

cnas

评论

专家告诉立法者,美国正在失去人工智能对中国的优势

与美国相比,中国将更多的人工智能相关研究用于国防应用,美国的科技部门更专注于ChatGPT等消费者人工智能服务

defense one

评论

人为升级:设想核风险的未来

不将人工智能集成到全面的核指挥、控制和通信系统中的原因是多方面的。它们包括战争速度的加快、意外升级、误解...

bulletin

分析

人工智能与军备控制——如何以及在哪里进行讨论

联合国安理会将于2023年7月首次讨论人工智能对维护国际和平与安全的影响。对军备控制的影响是一个关键因素。然而,到目前为止,讨论是有限的,而且是脱节的。

gcsp

报告

武器化创新?绘制人工智能赋能的欧盟安全与防务地图

该论文就人工智能驱动的技术解决方案在整个欧盟的安全和国防中的主流化提供了一个警示故事,指出这使一种特定的地缘政治和军国主义的创新想象合法化,这种想象可能与欧盟对此类系统负责任、值得信赖和以人为中心的愿景不兼容...

sipri

评论

大多数人工智能研究不应公开发布

科学研究的透明度无疑是有价值的。但如果人工智能研究完全透明,那将是一个错误。为了最大限度地减少危害,两用技术——尤其是像人工智能这样的技术...

bulletin

新闻报道

巴勒斯坦论坛强调自主武器的威胁

自主武器系统可以帮助以色列自动使用武力。这些使用武力的行为往往是非法的,有助于巩固以色列对巴勒斯坦人的种族隔离。如果没有新的国际法来颠覆这项技术带来的危险,以色列今天正在开发的自主武器系统可能会助长其在世界范围内的扩散,并伤害最脆弱的群体...

human rights watch

新闻报道

《集束弹药公约》为新的自主武器条约提供了路线图

尽管政治和程序障碍阻碍了解决自主武器系统问题的进展,但新条约的支持者应该从《集束弹药公约》的成功以及促成该公约的谈判中汲取灵感...

human rights watch

意见

自主武器:影响和对策

击败自主武器需要持续的预防性努力,因为技术发展有时会超过政治。政府、民间社会组织、研究人员和行业参与者必须共同努力,正确处理这一复杂的主题,并确保新兴技术的正确和合乎道德的实施…

wgi

活动

机器人应急-2023

2023年5月31日,第三届生命安全领域机器人发展科学与实践会议将举行,名为“RoboEmercom”。会议讨论了在特种军事行动中使用机器人和技术系统(RTS)的经验,以及相关问题和潜在解决方案...

new defence order strategy

评论

为什么美国应该优先考虑自主排雷技术

如果美国决定向乌克兰发送集束弹药,它应该考虑投资于自主排雷能力。

bulletin

评论

专家告诉立法者,监管人工智能以提高可信度并避免灾难

人工智能对社会有利还是有害的区别在于真实性,这是人类独有的概念。

defense one

论文文章

采用人工智能:熟悉如何滋生信任和蔑视

对军事人工智能的熟悉在增加人工智能军事应用支持度方面几乎没有发挥作用,相反,随着时间的推移,反对声音略有增加。

springer

评论

政治和商业如何推动与中国的人工智能军备竞赛

商业竞争、政治和舆论正在推动美国人工智能的发展,并不必要地加剧了与中国的人工智能军备竞赛。

bulletin

报告

与致命自主武器系统领域新兴技术有关的建议:一份资源文件(更新)

对各国在2022年底之前提交给致命自主武器系统政府专家组的与致命自主武器领域新兴技术相关的不同提案的内容进行了比较分析。

unidir

评论

21世纪竞争的变化:从石油到人工智能(AI)

美国、中国和俄罗斯等主要大国已经认识到人工智能在塑造全球霸权动态未来方面的内涵。为了在彼此之间取得优势,这些国家在人工智能探索和增长方面进行了大量投资。

wgi

文章

人工智能、自动化与现代战争伦理

在这篇博客文章中,Palantir全球隐私总监Courtney Bowman和隐私以及公民自由政府和军事道德负责人彼得·奥斯汀探讨了技术提供商在国防领域的道德作用。未来的帖子将探讨Palantir在最重要的环境中支持防御工作流程的工作。

palantir

评论

大规模杀伤性武器专家试图让GPT-4 AI做坏事时发生了什么

ChatGPT的创建者决定测试他们的人工智能系统是否可以教人制造和使用核武器和生物武器。他们组织了数月的测试......

bulletin

评论

科幻小说如何塑造军事人工智能

流行文化影响着人们对人工智能的看法,并蔓延到军事规划者对战争的看法——掩盖了人工智能可能被使用的更平凡的方式。

bulletin

评论

生物学ChatGPT出现可能导致的问题

随着生物学尖端人工智能聊天机器人上线,带来了新的风险,如用来生产生物武器

bulletin

演讲

拉丁美洲和加勒比自治武器会议上对于自治武器的社会和人道主义影响的专家发言

感谢哥斯达黎加和FUNPADEM组织这次重要会议。我将讨论自主武器系统的一些社会和人道主义后果。通过自主武器...

human rights watch

新闻报道

拉丁美洲和加勒比国家反对自主武器系统集会

上个月,拉丁美洲和加勒比地区几乎所有国家都通过了一项新公报,呼吁“紧急谈判”一项具有约束力的国际条约,禁止和管制自主武器系统的努力取得了重大进展。

human rights watch

新闻报道

数字去人性化为杀手机器人铺平道路

上个月,“阻止杀手机器人”运动的成员在哥斯达黎加与来自29个国家的68名活动家会面,参加了自新冠肺炎疫情以来首次在当地举行的全球会议。中央...

human rights watch

分析

关于监管自主武器系统以确保追究违反国际人道主义法行为责任的三点经验教训

在这篇文章中,斯德哥尔摩国际和平研究所(SIPRI)的Vincent Boulanin和Marta Bo认为,看看国际法目前如何规定违反国际人道主义法的责任,为AWS的监管提供了有益的教训

icrc blog

分析

降低人工智能风险以获得军事决策优势

军事人员寻求利用人工智能获取决策优势。然而,人工智能系统在技术故障的可能性方面引入了新的不确定性来源。这种失败可能与战略和人为因素相互作用,导致误判和危机或冲突升级。有效利用人工智能需要通过降低人工智能失败的可能性并控制其后果来管理这些风险权衡。

cset

报告

在开发和使用自主武器系统方面遵守国际人道主义法:国际人道主义法律允许、禁止和要求什么?

毫无疑问,自主武器系统的开发和使用必须遵守国际人道主义法。然而,在某些方面,国际人道主义法规则应如何在AWS的背景下解释和应用仍然不清楚或有争议。本报告特别关注人机交互,旨在促进对这一问题的更深入理解。报告为政策制定者提供了一个基线,以推动围绕现有《国际卫生法》禁止或监管哪些类型和用途的AWS的讨论...

sipri

评论

人类面临灾难吗?自主武器系统治理的必要性

支持自主开发和部署武器系统 (AWS) 的逻辑是冷战时期升级威慑战略的延续,并且这种逻辑未能把握此类系统将如何改变战争行为。 那些认真研究将 AWS 引入战争所固有挑战的安全分析人员已经意识到这是一个严重的问题。对 AWS 进行有意义的人为控制似乎是不可能的...

carnegie council

政策

REAIM行动呼吁

在REAIM峰会上召开的政府代表已就在军事领域负责任地开发、部署和使用人工智能(AI)达成联合行动呼吁。

Government of the Netherlands

评论

美国与其他国家签署军事人工智能伦理协议

美国国务院和五角大楼官员希望阐明美国和中国在人工智能方面的对比。

defense one

评论

让人类参与其中不足以使人工智能对核武器安全

提高核武器指挥系统的自动化意味着将信仰和生命交到可能永远无法完全理解的算法手中。

bulletin

原创文章

在军队中不使用人工智能的不负责任性

关于在军事环境中使用人工智能(AI)的伦理问题的持续辩论受到了战争中使用致命自主武器系统(LAWS)的主要关注的负面影响...

springer

新闻报道

美国:自主武器新政策缺陷

人权观察组织在今天发布的一份报告中表示,美国国防部关于发展自主武器系统的新指令,对消除人类对使用武力的控制所造成的威胁的反应不足。该指令不仅没有对这些武器的开发制定适当的控制措施,反而可以为其提供便利...

human rights watch

新闻报道

2023年美国武器系统自主政策回顾

2023年1月25日发布的一项关于武器系统自主性的新指令表明,美国国防部(DoD)非常重视确保其制定政策和流程,以指导自主武器系统以及半自主武器系统(如远程操作的武装无人机)的开发、采购、测试、部署和使用。然而,该指令对自主武器系统引发的严重道德、法律、问责和安全问题以及风险的反应不足...

human rights watch

原创文章

人工智能和人道主义义务

人工智能(AI)为改善军事情报、监视和侦察行动提供了许多机会。而且,现代军队认识到减少平民伤害的战略价值...

springer

新闻报道

实施和创新

人道主义裁军旨在防止和补救武器对人类和环境造成的伤害,并在2022年得到了推进和加强。这也是一个创新的时代,特别是在应对自主武器系统带来的风险和危险方面...

human rights watch

演讲

北约秘书长延斯·斯托尔滕贝格访问大韩民国期间在CHEY研究所的讲话

北约秘书长延斯·斯托尔滕贝格访问大韩民国期间在CHEY研究所的讲话

nato

政策

AI风险管理框架(AI RMF 1.0)

2023 年 1 月 26 日,NIST 发布了 AI 风险管理框架 (AI RMF 1.0) 以及配套的 NIST AI RMF Playbook、AI RMF Explainer Video、AI RMF Roadmap、AI RMF Crosswalk 和各种观点。

nist

评论

NATO新的人工智能举措:新军事技术全速前进

2021年11月,北约观察(NATO Watch)发表了一篇评论,批评NATO将人工智能(AI)用于军事目的的做法。本文简要更新了以下评论...

nato watch

研究文章

责任差距与致命自主武器:辩论的批判性映射

人工智能在包括军事领域在内的各个领域有着广泛的应用。一些决策系统自主程度的提高导致了对未来可能使用致命自主武器系统的讨论。这些讨论中的一个核心问题是为一些基于人工智能的结果分配道德责任。

springer

论文

迎接中国的新兴能力:应对网络、空间和自主系统的进步(导言)

这是《迎接中国的新兴能力:应对网络、空间和自主系统的进步》报告的导言

nbr

论文

中国的网络、空间和自主武器系统:印度的担忧和回应

本文探讨了印度对中国在网络空间、外层空间、人工智能和自动化领域日益增长的技术实力的主要担忧;印度的回应;和...

nbr

论文

中国自主、网络和空间武器系统对菲律宾安全的影响

本文探讨了中华人民共和国(PRC)使用现有技术和新兴技术的影响,以及菲律宾在对抗PRC方面的有限反应...

nbr

报告

迎接中国的新兴能力:应对网络、空间和自主系统的进步

在这份NBR报告中,来自澳大利亚、印度、日本、菲律宾、台湾地区和越南的专家讨论了中国新兴的网络、太空和自主武器能力。他们检查区域...

nbr

论文

中国军事现代化的新领域:对日本的安全影响

本文分析了日本对中国在太空、网络和自主武器系统方面的新兴能力所构成的重大威胁的看法和应对措施,并考虑了日本应对这些威胁的政策选择...

nbr

访谈

乌克兰的人工智能战争:法蒂玛·鲁马(Fatima Roumate)访谈

《世界地缘战略洞察》就在乌克兰冲突中使用人工智能问题采访了法蒂玛·鲁马。Fatima Roumate博士是摩洛哥拉巴特穆罕默德五世大学Agdal法律、经济和社会科学学院国际法教授。自2010年起担任马拉喀什国际科学研究院创始院长…

wgi

论文

简介:自动化战争与人工智能的伦理

毫无疑问,当今围绕人工智能的最复杂的全球治理挑战涉及其在国防和安全方面的应用。

cigi

论文

人工智能与威慑的未来:前景与陷阱

如果无处不在的传感器导致实时数据的海啸,人工智能可能会提供预测对手下一步行动所需的分析能力,直到最后一刻。

cigi

论文

第三个无人机时代:展望2040

2022年期间的每一次袭击都在提醒人们,当国家制造的先进武器技术落入——或者可能落入——敌对的非国家组织手中时,会发生什么。

cigi

论文

网络冲突中的民用数据:法律和地缘战略考虑

评估生物安全部门的网络威胁和法律保护方面的差距将得益于该领域的技术和法律专家的审议。

cigi

论文

人工智能与国际人道主义法的实际责任差距

建立网络和连接军事系统的激励措施导致民用物体……越来越成为军民两用,因此可能成为目标基础设施。

cigi

论文

自主武器:平民保护的虚假承诺

谁应该为受伤或死亡的平民和受损或毁坏的民用基础设施负责?

cigi

视频

自动化武器的伦理

当前自动化系统在战争和冲突的许多方面的应用打开了一个新的潘多拉魔盒。在几乎没有人为干预的情况下自主运行的系统引发了道德和法律方面的担忧。道德主义者、国际法律专家和国际事务专家一直在对这项技术的潜在滥用以及缺乏管理其使用的任何法规敲响警钟。

cigi

视频

调节武器系统的自主性

在决定一个自治系统拥有多大权力时,政府需要考虑国际人道主义法和道德的影响,因为允许人工智能完全、无管制的控制可能是一场失控的噩梦。

cigi

视频

人工智能武器运作的法律空白

当各国考虑部署由人工智能(AI)驱动的现代自主系统时,除了工具的技术规范外,还必须考虑法律和道德问题

cigi

意见

武器系统自治与管制斗争

人类必须决定进行什么、何时和何地的交战,特别是在使用武力可能危及人类生命的情况下。

cigi

报告

在自主武器系统的开发和使用中保留人的责任

在斯德哥尔摩国际和平研究所(SIPRI)的一份报告中,Marta Bo与Laura Bruun和Vincent Boulanin一起探讨了人类如何对违反...

asser

文章

空军将领表示,未来无人机的自主性和极限至关重要(更新版)

高级自主性是空军未来无人机计划的关键,但人类仍将做出关键决定,比如何时发射武器。

the warzone

评论

加拿大选择哈利法克斯作为北约新军事技术创新中心的东道国

这些办公室旨在通过与私营部门公司和学者合作,磨练NATO的技术优势。他们的任务是与高科技初创公司和老牌公司合作,以...

nato watch

报告

人工智能与核指挥、控制和通信:整合的风险

由于与人工智能 (AI) 的集成,核指挥和控制系统的自主性不断增强,这将产生战略层面的影响,可能会增加核稳定性或增加核使用的风险。

cser

研究文章

武器审查在解决自主武器系统提出的问题中的作用

本文描述了传统的武器审查过程,并解释了为什么需要修改该过程以充分评估自主武器系统(AWS)

oxford academic

政策

中国关于加强人工智能伦理治理的立场文件

中国现结合自身在科技伦理领域的政策实践,参考国际社会相关有益成果,从人工智能技术监管、研发、使用及国际合作等方面提出关于加强人工智能伦理治理的立场。

中国外交部

演讲

负责任的人工智能赋能世界和平及可持续共生社会

联合国裁军事务厅和欧盟委员会于2022年4月共同举办“武器系统中的伦理与新兴技术”研讨会。曾毅研究员受邀作为中方发言专家参与此次会议。演讲题目:负责任的人工智能如何赋能世界和平及可持续共生社会。

远智研究院

政策

军事人工智能原则 [征求意见稿]

军事人工智能已经给世界带来了巨大风险与挑战,同时我们应当警惕由于军事人工智能的发展导致战争门槛降低,从而引发本可避免的灾难。“国防人工智能与军控网络”发布了军事人工智能的设计、研发、使用、部署全生命周期应当合乎的原则。

defense ai and arms control network

访谈

人工智能如何影响国际安全:Fatima Roumate访谈

World Geostrategic Insights 就人工智能 (AI) 在國際關係和全球治理中的應用以及 …

wgi

文章

国际人道主义法规定的自主武器指挥责任

自主武器的使用正在成为当今社会对人类最重大的威胁之一。使用自主武器面临的一个主要问题是指挥...

taylor & francis group

通讯稿

CSIS 成立人工智能委员会

战略与国际研究中心 (CSIS) 很高兴地宣布成立 CSIS AI 委员会。

csis

文章

人工智能时代执法宣言

《人工智能时代执法宣言》最近在罗马的一次集会上发表,重点是设计。。。

carnegie council

评论

美国海军想要成群的数千架小型无人机

预算文件显示了超级蜂群项目的计划,这是一种通过大量无人机同时攻击来压倒防御系统的方法。

mit technology review

意见

数字冷战的兴起

“事实是,在这个数字世界中,我们都是全天候生活在监狱和监控中,是的,生活在智能手机、SIM卡、社交应用程序和人工智能(AI)的监狱中。”~ Rana Danish Nisar博士~欢迎来到数字冷战:真相是痛苦的,世界已经准备好了…

wgi

评论

Sven Nyholm的DILEMA讲座

题为“人与机器人互动的伦理与传统道德理论”的DILEMA讲座

asser

声明

Stop-Killer机器人在第77届联大裁军与国际安全第一委员会上的发言

阅读《停止杀手机器人》在第77届联合国大会(UNGA)裁军与国际安全第一委员会上发表的声明副本。

stop killer robots

意见

NATO自主实施计划总结

NATO自主实施计划总结

nato

报告

人工智能与军控

人工智能 (AI) 的进步为世界各地的军队带来了巨大的机遇。随着支持人工智能的军事系统的潜力不断增加,一些活动家...

cnas

评论

泰勒·伍德科克:我们应该关注决策辅助、任务分配、情报、监视和侦察技术在战争中的作用

在《On Air》的一个新播客节目中,Asser研究所研究员泰勒·伍德科克(Taylor Woodcock)讨论了当今“对战争中自主武器系统(aws)的关注”,以及随之而来的缺乏...

asser

评论

谁会把我们从糟糕的人工智能中拯救出来?

上周,白宫科技咨询机构科学技术政策办公室(Office of Science and Technology policy)公布了一项人工智能权利法案,这是人工智能政策和伦理专家的回应。

mit technology review

白皮书

增强武器系统的自主性

本文重点介绍了十种武器系统,其特点可能对武器系统自主性方面的考虑有所帮助。它试图展示武器系统类型的多样性...

stop killer robots

白皮书

人工智能和自动化决策:民事和军事领域的共同挑战

本文初步概述了在更广泛的社会中对人工智能和自动化决策的反应,同时将这些反应与武器系统的自主性联系起来。

stop killer robots

政策

人工智能权利法案蓝图

为了推进拜登总统的愿景,白宫科技政策办公室确定了五项原则,这些原则应指导自动化系统的设计、使用和部署,以保护人工智能时代的美国公众。人工智能权利法案蓝图是一个保护所有人免受这些威胁的社会指南--以加强我们最高价值观的方式使用技术。为了回应美国公众的经验,并参考研究人员、技术专家、倡导者、记者和政策制定者的见解,这个框架附有《从原则到实践》--一本供任何寻求将这些保护措施纳入政策和实践的人使用的手册,包括在技术设计过程中实现这些原则的详细步骤。这些原则有助于在自动化系统能够有意义地影响公众的权利、机会或获得关键需求的时候提供指导。

ostp

报告

在自主武器系统的开发和使用中保留人的责任:关于违反国际人道主义法行为的责任

毫无疑问,人类必须为自主武器系统(AWS)的开发和使用承担责任,因为机器不能因违反国际人道主义法(IHL)而被追究责任。然而,在实践中,人类如何对涉及AWS的违反国际人道主义法的行为负责这一关键问题在AWS的政策辩论中并没有得到充分体现。本报告旨在对这个问题进行全面分析。

sipri

报告

对自主武器系统的行为承担道德责任——采取道德策略

在本文中,我们重点讨论了自主武器系统(AWS)行为的道德责任归属。为此,我们建议,如果人类...

ssrn

评论

控制中还是失控?自动驾驶车辆和自动武器系统程序员的刑事责任

在一篇新的论文中,Asser研究所的研究员Marta Bo研究了程序员何时可能对自动驾驶汽车和自动驾驶武器造成的伤害承担刑事责任。

asser

报告

人工智能犯罪:恶意使用和滥用人工智能概述

人工智能(AI)的能力发展迅速,几乎影响到社会的所有部门。人工智能已越来越多地融入犯罪和有害活动,不断扩大...

ssrn

评论

与人工智能军事应用有关的国家责任

在一篇新论文中,Asser Institute 高级研究员 Bérénice Boutin 探讨了国家在涉及人工智能 (AI) 技术军事应用的违反国际法行为中承担责任的条件和方式。

asser

评论

国家责任与军事人工智能的新出版物

Berenice Boutin最近发表了一篇题为《人工智能军事应用中的国家责任》的新文章。

asser

论文文章

人工智能军事应用中的国家责任

本文探讨了国家对涉及军事应用人工武器的违反国际法行为承担责任的条件和方式...

ssrn

研究文章

“自主武器”作为国家权力游戏中的地缘政治象征:分析中美军事政策中的人工智能想象

“自主武器系统”(AWS)多年来一直受到激烈讨论。许多政治、学术和法律行为体都在争论其后果,许多人呼吁严格监管或加强监管...

springer

报告

管理中美战争的风险:实施综合威慑战略

近日,美国布鲁金斯学会发布名为《管理中美战争的风险:实施综合威慑战略》的研究报告。报告指出,美国国防部长劳埃德·奥斯汀对“综合威慑”的理解预示着一个重要转变。 具体而言,美国将综合威慑纳入2022年国家发展战略中意味着国防部的战略力量正在扩大,美国和更多盟国的参与以及有效威慑必须跨越多个领域——陆地、海洋、空中、太空和网络空间。此外,美国国防部将不再完全依赖军事影响力,而是将政治、外交、信息和经济手段结合起来对中国进行综合威慑。

brookings

原创文章

人工智能与责任差距:问题是什么?

近几十年来,人工智能和依赖人工智能的自主系统的发展取得了巨大进展。然而,评论家指出了困难。。。

springer

原创文章

伦理互操作性的挑战

国防组织越来越多地制定道德原则……设计、开发和使用负责任的人工智能,尤其是用于国防、安全和情报用途。当这些…导致我。。。

springer

声明

自主武器:红十字委员会呼吁各国采取步骤进行条约谈判

红十字委员会在7月25日至29日举行的联合国《特定常规武器公约》致命自主武器系统政府专家2022年最后一次会议上发表声明。

icrc

评论

我们可以随意弥合人工智能的责任差距吗?

人工智能(AI)越来越多地执行以前只有人类才能完成的任务……医疗操作。然而,由于最好的人工智能系统往往是最不可控的……不再在道德上负责。。。

springer

文章

关于自主武器,你需要知道什么

自主武器是人道主义关切的直接原因。红十字国际委员会的高级科学和政策顾问尼尔·戴维森解释道。

icrc

评论

人工智能正在将陆军未来垂直升降计划提升到一个新的水平

配备有地形图、天气和导航信息数据库的先进算法可以帮助飞机在无需人工干预的情况下修正其飞行路径。

national interest

论文文章

机械人士兵:脑机接口的军事用途与武装冲突法

近年来,人们关注的焦点是新技术及其如何被军方使用。学者和决策者对自主武器系统和...

ssrn

综述

“人工智能监控的伦理争议:社会科学视角”

人工智能及其社会和伦理含义是复杂而矛盾的。监视是人工智能中最具道德挑战性的概念之一。在人工领域。。。

springer

评论

为什么军事人工智能初创公司的业务蓬勃发展

对乌克兰的入侵促使军方更新其武库,硅谷的立场也开始发挥作用。

mit technology review

简报文件

谈判一项自主武器系统条约——前进之路

这份简报提出了一个积极的愿景,鼓励各国政府就一项关于自主武器系统的新条约展开谈判。

stop killer robots

研究文章

全科想象:美国国防部的情报自动化

当前人工智能的复苏包括美国国防部重新启动对军事情报自动化的投资。一系列节目提出了一个完全整合的技术政治想象。。。

sage

政策

国防人工智能战略

这一战略规定了我们将如何以速度和规模采用和利用人工智能,将国防部转变为“人工智能就绪”的组织,并提供尖端能力...

government of the uk

评论

阻止自主武器扩散是否为时已晚?

如果自主武器是战争的未来,那么美国别无选择,只能应对其复杂性。

national interest

评论

关注人类因素以赢得AI军备竞赛

美国必须完善其投资,以纳入一项深思熟虑的、持续的任务工程运动,以加速和改进可信赖的人工智能的交付。

national interest

报告

爱沙尼亚:对人工智能和国家安全的好奇和谨慎态度

在本章中,我们概述了爱沙尼亚当前的人工智能环境,详细介绍了许多公共部门的使用案例以及工业和军事领域的发展情况,以检查人工智能在爱沙尼亚的应用。。。

ssrn

评论

更新的自主武器政策对美国全球领导层向前发展至关重要

更新后的政策有望反映该领域的发展,并纳入国防部最近的举措,为未来新兴能力的治理铺平道路。

council on foreign relations

评论

国防部正在更新其已有十年历史的自主武器政策,但混乱仍在广泛蔓延

2012年11月,国防部(DOD)发布了关于武器系统自主性的政策:DOD指令3000.09(DODD 3000.09)。尽管这项政策已有近10年的历史,但它仍然经常被误解,包括被美国军方领导人误解。例如,2021 2月,当时担任国防部联合反无人机系统办公室能力和需求司司长的马克·E·佩利尼上校说,“现在我们没有权力让一个人脱离圈子。根据现有的国防部政策,你必须在某个时候让一个人在决策周期内授权参与。

csis

政策

机器人与自主系统:国防科技能力

Dstl利用最新的机器人技术和人工智能技术,为英国的安全和国防创建有效且值得信赖的非交叉平台和自主系统。

government of the uk

声明

高级代表就致命自主机器人问题向人权理事会发表的声明

以下是裁军事务高级代表在人权理事会第二十三届会议上就致命自主机器人问题发表的声明。联合国开发计划署日内瓦办事处主任贾莫·萨雷瓦先生代表高级代表发言

联合国裁军事务厅

评论

“协作、便携的自主性”是特种作战人工智能的未来

在竞争环境中创建自主团队将是技术和政策的挑战。

defense one

报告

军事人工智能对全球灾难风险的贡献

近年来,人工智能技术在战争中的应用受到了越来越多的关注,这一领域正在迅速发展。本章探讨了此类军事人工智能技术可能以何种方式...

ssrn

文章

俄罗斯在自主武器系统上的大国身份

摘要本文对俄罗斯在自主武器系统(AWS)全球辩论中的立场进行了基于身份的分析。根据对俄语书面和口头的解释...

taylor & francis group

原创研究

人类对无人机的有意义的控制:探索人类与机器的合作,以四种不同的伦理观点为依据

以人为中心的人工智能系统设计和部署方法旨在支持和增强人类……但这在军事背景下会是什么样子?我们探索了以人为中心的方法。。。

springer

评论

人工智能与战争

作为Asser Institute研究论文系列的一部分,Asser研究员Berenice Boutin、Taylor Woodcock和Tomasz Zurek来自研究部门“公共利益监管:破坏性...

asser

评论

有意义的人类控制 - 新出版物

Berenice Boutin和Taylor Woodcock最近发表了一篇新的章节,题为“实现(有意义的)人类控制的可能性:法律视角”。

asser

研究文章

自主攻击中的最低人为干预水平

本文讨论了在武装冲突背景下对自主武器系统(AWS)可允许的自主程度的一个重要限制:国际人道主义法(IHL)要求人类能够在攻击过程中直接干预武器系统操作的程度。

oxford academic

报告

Just in Bello必要性、最小兵力需求和自主武器系统

在本文中,我们重点讨论指导自主武器系统(AWS)使用的必要性原则。我们从必要性原则开始分析,因为它...

ssrn

报告

为自主武器系统的行为承担道德责任:一种道德策略

在本文中,我们重点讨论了自主武器系统(AWS)行为的道德责任归属。我们从描述“责任差距”和……开始分析...

ssrn

论文文章

自主武器及其遵守国际人道主义法(LLM论文)

这项研究将首先尝试分析并试图揭示自主武器的最新进入,以及与这些致命武器的使用有关的问题,以及与此相关的问题...

ssrn

评论

共同责任:在美国联盟中制定军事人工智能道德

美国需要争取其最古老的盟友和新的合作伙伴,为人工智能时代建设一个更安全、更自由的世界。

national interest

文章

通过预期规范进行管理:裁研所如何构建自主武器系统知识

规范性变革的必要性很少是不言自明的,但需要行为体持续努力,创造行动需求。随着自主武器等新兴技术的发展...

taylor & francis group

评论

为人工智能伦理和治理中的原则主义辩护

人们普遍承认,高级人工智能原则很难通过明确的规则和设计指南转化为实践。因此,许多AI研究和开发小组声称...

springer

评论

退出人工智能军备竞赛不是一种选择

制造自主武器的竞赛将对二十一世纪的军事事务产生与二十世纪飞机在陆上和海战中一样的影响。

national interest

报告

人工智能在权威治理中的应用

本文旨在通过回顾和讨论最近关于人工智能对威权国家发展的影响的文献,简要描述人工智能为威权国家的发展带来的潜在情景。。。

ssrn

报告

自主武器和道德判断:对军事使用杀人机器人态度的实验证据

自主武器的出现带来了有趣的机会和重大的道德困境。本文探讨了增加武器自主性如何影响军事打击的批准...

ssrn

报告

自主武器系统与Jus ad Bellum

在这篇文章中,我们重点讨论了关于自主武器系统(AWS)的学术和政策辩论,特别是基于战争法原则的对使用这些武器的反对...

ssrn

评论

俄罗斯可能在乌克兰使用了一个杀人机器人。现在怎么办?

如果开源分析人士是对的,那么在俄乌冲突中使用了一种能够使用人工智能挑选目标的游荡弹药——杀手机器人。自主武器使用人工...

bulletin

声明

自主武器:红十字委员会仍然相信各国将通过新的规则

红十字国际委员会(红十字委员会)欢迎政府专家组继续开展工作,并敦促《特定常规武器公约》缔约国根据本公约的主要宗旨之一,即需要继续编纂和逐步发展国际法规则,开展重要工作

icrc

原创研究

双重用途并值得信赖?军民研发之间人工智能扩散的混合方法分析

人工智能(AI)似乎正在影响所有行业……创新的发动机。人工智能从民用部门向国防部门的扩散,以及人工智能的双重用途潜力已引起人们的关注。。。

springer

原创文章

AI机器人的曙光:迈向AI机器人问责制的新框架

商业、管理和商业伦理文献很少关注人工智能机器人的话题。广泛的潜在道德问题涉及使用无人驾驶汽车、在养老院使用人工智能机器人等。。。

springer

评论

军备控制法主席Thilo Marauhn:我们需要调整当前的军备控制法,以应对新的政治挑战

总的来说,我认为国际军备控制法在过去十年中失去了太多的公众支持,因此我的目标之一是让人们认识到军备控制领域的相关性。我想与政治活动家和政府专家合作,为这一领域的潜力作出贡献,以加强国际和平与安全。

asser

评论

完全自主的武器系统

红十字国际委员会武器股股长凯瑟琳·劳兰的介绍。关于完全自主武器系统的研讨会,法国常驻代表团,瑞士日内瓦。

icrc

评论

日益自主的武器带来的挑战

2014年6月24日,红十字委员会副主席克里斯汀·比尔利女士就...

icrc

评论

自主武器:人类扮演什么角色?

日内瓦(红十字委员会)——本周,红十字国际委员会将在日内瓦联合国的一次专家会议上发表讲话,敦促各国政府在审议自主武器问题时,关注人类对使用武力的控制问题。

icrc

评论

自主武器:红十字委员会在专家会议上发言

红十字委员会在2014年5月13日至16日在日内瓦举行的《常规武器公约》框架内致命自主武器系统专家会议上发言。

icrc

报告

犹太法律、技术伦理和自主武器系统:伦理哈拉克主义视角

技术伦理是技术哲学中涉及新兴机器人和数字人工智能技术的领域。在过去的十年中,出现了一个新的技术伦理挑战:自主...

ssrn

报告

全面人民防御和安全系统中致命自主武器系统的道义

全民国防和安全系统(Sistem pertahanan dan keamanan rakyat semesta Sishankamrata)是印度尼西亚全民国防系统的一个实施方案。致命的自主...

ssrn

报告

使用致命自主武器系统是否会给国际人权法带来特殊问题?

致命自主武器系统(LAWS)是根据国际人道主义法(IHL)和国际人权法(IHRL)的原则进行讨论和考虑的。符合法律、道德和...

ssrn

报告

自制自主武器扩散的伦理和法律限制

自主生产武器的主题交织着伦理、法律、工程和数据科学性质的多样化思想。关键的出发点是使用3D打印进行自我...

ssrn

报告

预防性禁止致命自主武器系统真假好主意

在一场呼吁禁止致命自主武器系统的运动之后,5月在日内瓦召开了一次专家会议。法律的出台引发了法律和道德问题。需要注意的是...

ssrn

报告

人工智能在网络犯罪和国家安全中的作用

人工智能在网络犯罪和阻碍国家安全中的作用“全面人工智能的发展可能意味着人类的终结……它将以越来越高的速度自行发展并重新设计自己...

ssrn

报告

人工智能和数据科学在致命自主武器系统中的作用

致命自主武器系统(LAWS)的出现迅速引起了学术界和公众的兴趣。本研究主要关注使用人工智能(AI)的LAWS含义...

ssrn

评论

研究项目

人工智能技术在军事上的潜在应用的伦理和法律影响已经被联合国、各国政府和非政府组织列入议程好几年了...

asser

白皮书

保护AI系统免受犯罪使用

可能的后果有一个特定的范围:恶意攻击可以操纵人工智能系统,从而也可以操纵使用该技术作为某些决策基础的人的行为。同样,在缺乏保障措施的情况下,人工智能系统可用于监控人员、工业间谍活动或作为武器。因此,保护人工智能系统不被犯罪分子、恐怖分子、竞争对手或雇主滥用,是负责任地使用该技术的一项高度相关的任务。

lernende systeme

文章

人工智能和自主武器系统:技术、战争和我们最具破坏性的机器

斯坦利中心将与亚利桑那州立大学的起源项目和《原子科学家公报》合作,共同举办一次研讨会,讨论风险和机遇...

stanley center

文章

人工智能的军事应用

人工智能(AI)、深度学习和机器人技术的进步正在实现新的军事能力,这将对军事战略产生颠覆性影响。这些的影响...

stanley center

评论

公共部门人工智能法律与伦理会议

会议将解决公共部门日益使用人工智能(AI)带来的多重挑战。随着人工智能在各个领域的逐步部署,例如...

asser

文章

技术军事工业学术综合体

1969年春天发生的哈佛大罢工,是因为我们学生认为哈佛大学参与了越南战争。哈佛毕业后。。。

carnegie council

论文

必要的一步后退?

几年前,禁止致命自主武器系统(LAWS)的国际努力取得了迅速进展,这让武器控制员感到惊讶:成立国际武器系统委员会仅五年后。。。

springer

分析

人道主义者的新索尔费里诺时刻

今年是亨利·杜南特的经典著作《索尔费里诺的记忆》于1862年出版160周年。。。

icrc blog

报告

军事人工智能的创新证明治理?我是如何学会停止担心并爱上机器人的

在对人工智能“军备竞赛”的担忧中,关于人工智能军事用途的国际辩论仍集中在防止使用致命的自主武器系统上...

ssrn

评论

让人工智能控制核武器:可能出什么问题?

如果一枚自主核武器以99%的信心结束了核战争,它应该开火吗?

bulletin

原创研究

责任分配不会解决人工智能的道德问题

谁对使用人工智能工具造成的事件和后果负责,人类代理人可以负责的事情和使用人工智能所做的事情之间是否存在差距。。。

springer

意见

北约副秘书长米尔恰·乔安在Cybersec全球2022活动上的主旨演讲

北约副秘书长米尔恰·乔安在Cybersec全球2022活动上的主旨演讲

nato

研究文章

自主武器与国际人道主义法原则的兼容性

自主武器的出现仍然是国际人道主义法中的一个热门话题。近年来,各国、国际组织、非政府组织和学术界就此事发表了很多意见。然而,对于如何最好地监管这项新兴技术,尚未达成协议。

oxford academic

分析

改变叙事:不是武器,而是战争技术

关于国家在进行敌对行动时所作选择的规则的辩论通常是有限的。。。

icrc blog

分析

承诺控制武器化人工智能:欧安组织和欧洲安全向前迈出的一步

目前与使用武器化人工智能有关的做法已经影响到欧洲的稳定和安全。欧安组织是一个有希望在《特定常规武器公约》陷入僵局的讨论基础上再接再厉的平台,因为它有着在欧洲安全的各种观点之间架起桥梁的历史。

gcsp

评论

新的一年和新的研究议程:重新思考国际法和欧洲法中的公共利益

在阿瑟研究所,我们以一项全新的研究议程(2022-2026年)开始新的一年,题为“重新思考国际法和欧洲法中的公共利益:将批判性反思与行动视角相结合”。它围绕与国际和欧洲公法和私法中的公共利益相关的问题组织

asser

公开论坛

通过《世界和平条约》优化和平,以限制军事化人工超级智能带来的战争风险

本文认为,在一个战争仍然正常化的世界中出现的人工超级智能(ASI)构成了灾难性的生存风险,因为ASI可能被一个国家所使用。。。

springer

评论

中国新的人工智能治理举措不容忽视

政府的三种做法将深刻影响算法在中国和世界各地的监管方式。

carnegie endowment

评论

捕狗者、无人机群、反病毒者、功能获得等:2021年我们最好的颠覆性技术故事

《公报》对生物安全、致命自主武器等进行了大量报道。看看我们今年最好的颠覆性技术故事。

bulletin

评论

中国如何在战争中使用人工智能?

人工智能尤其被视为“改变游戏规则”的关键战略技术。

the diplomat

声明

红十字委员会敦促各国明年在通过关于自主武器的具有法律约束力的新规则方面取得切实成果

红十字委员会武器和敌对行为股股长洛朗·吉塞尔在《禁止或限制使用某些常规武器公约》缔约国第六次审议大会上就使用某些常规兵器引起的人道主义关切

icrc

研究

各国议会在欧盟防务中的作用

欧盟追求单一的欧洲防务市场需要加强民主监督。欧洲议会和国家立法机构的成员应发挥更积极的作用...

carnegie endowment

评论

澳大利亚可能正在武装其无人驾驶飞机

有了波音ATS,作战空军将加大敌方进入ATS半径范围内空域的风险。要么敌人的战斗机部队将承担更多的护航任务,要么脆弱的飞机可能只能被排除在该地区之外。

national interest

报告

国际法中的自主武器系统

致命自主武器系统(LAWS)的新兴国际监管框架依赖于国际法的持续适用性以及人类控制和...

ssrn

政策

中国关于规范人工智能军事应用的立场文件

人工智能技术的快速发展及其广泛应用,正深刻改变人类生产和生活方式,给世界带来巨大机遇的同时,也带来难以预知的安全挑战。特别值得关注的是,人工智能技术的军事应用,在战略安全、治理规则、道德伦理等方面可能产生深远影响和潜在风险。

中国外交部

声明

彼得·毛雷尔:自主武器系统引发社会伦理关注

需要对战争的未来作出负责任的选择,包括明确和具有法律约束力的边界,禁止不可预测或旨在针对人类的自主武器系统,以及对所有其他武器系统的设计和使用进行严格监管。

icrc

研究文章

军用自主无人机 (UAV) - 从幻想到现实 - 法律和道德影响

自主无人机引发了关于意外伤害责任的重要司法和伦理问题,本文将对此进行讨论。

science direct

意见

北约秘书长延斯·斯托尔滕贝格在柏林弗里德里希·埃伯特基金会专题讨论会上的发言

北约秘书长延斯·斯托尔滕贝格在柏林弗里德里希·埃伯特基金会专题讨论会上的发言

nato

观点

创新与机遇:英国国家人工智能战略回顾

英国国家人工智能(AI)战略的发布代表着“信号”文件的一个重大变化。事实上,我们将《国家人工智能战略》视为创新的愿景,……我们支持。。。

springer

报告

阻止杀人机器人运动-2020年度报告

2020年年度报告概述了2020年4月至2021 3月制止杀人机器人运动开展的活动。

stop killer robots

评论

人工智能是F-16新型秘密武器

F-16可能很快就会在一个复杂的数字生态系统中运行

national interest

评论

国防部正在为技术承包商发布人工智能道德准则

对Maven项目的争议表明该部门存在严重的信任问题。这是一次试图解决这个问题的尝试。

mit technology review

原创研究

实现“良好的人工智能社会”:比较欧盟和美国的目标和进展

过去几年,世界各国政府发布了大量人工智能(AI)战略,旨在最大限度地提高AI的效益,最大限度地减少潜在的危害。。。

springer

分析

自主武器系统:关于人类在使用武力中的作用,法律说了什么,没有说什么

关于(致命)自主武器领域新兴技术监管的政府间讨论。。。

icrc blog

意见

北约副秘书长米尔恰·吉奥在2021 GoTech世界大会上的主题演讲

北约副秘书长米尔恰·吉奥在2021 GoTech世界大会上的主题演讲

nato

简报文件

阻止杀手机器人:政策制定者指南

这本小册子为世界各地的决策者制定一项新的国际条约以克服武器系统自主性带来的危险提供了指导。

stop killer robots

文章

红十字委员会对《特定常规武器公约》第六次审查会议的意见和建议

2021 12月在日内瓦举行的《某些常规武器公约》第六次审查会议是各缔约方评估并进一步发挥《特定常规武器公约》(CCW)在尽量减少武装冲突中的痛苦方面所发挥的重要作用的关键时刻。

icrc

评论

NATO新的人工智能战略:缺乏实质性和领导力

2021 10月在布鲁塞尔举行的北约国防部长会议(见北约观察简报第87号)上,各国部长同意采用北约人工智能(AI)新战略。战略...

nato watch

研究文章

真相、谎言和新武器技术:硅科Jus的前景?

这篇文章检验了新武器技术要求基督教道德摒弃正义战争传统(JWT)的主张,并主张发展而非解散。在JWT工作的人不应该抱有幻想,然而。。。

sage

评论

北约寻求强化其技术优势,并采取了一种受到Janus启发的战略:一个面向俄罗斯,另一个面向中国

2021 年 10 月 21 日至 22 日在布鲁塞尔举行的北约国防部长会议分析

nato watch

评论

俄罗斯希望用标记机器人打击无人机

该标记有望成为测试地面机器人、无人机和特种作战部队之间互动的基础。

national interest

文章

北约的人工智能战略

在2021 10月的会议上,盟国国防部长正式通过了北约人工智能战略。直接参与开发和…的现任和前任北约工作人员...

nato review

意见

北约秘书长延斯·斯托尔滕贝格于10月21日和22日在北约总部举行的北约国防部长会议之前举行的新闻发布会

北约秘书长延斯·斯托尔滕贝格于10月21日和22日在北约总部举行的北约国防部长会议之前举行的新闻发布会

nato

评论

公共部门人工智能的法律和道德

阿瑟研究所邀请“公共部门人工智能的法律和道德:从原则到实践和政策”主题的摘要参加一个跨学科会议...

asser

评论

论文征集:公共部门人工智能的法律与伦理

此次会议旨在解决公共部门日益使用人工智能(AI)带来的多重挑战。随着人工智能在各个领域的逐步部署,例如...

asser

研究文章

国防人工智能的伦理原则

全球各地的防务机构将人工智能(AI)视为维持……的关键技术。因此,开发或获取AI防务能力的努力在全球范围内不断增长。

springer

报告

NATO在军事领域负责任人工智能治理中的作用

在本章中,我们探讨北大西洋公约组织(北约)在新兴军事人工智能(AI)治理架构中的作用。随着全球大国争夺。。。

ssrn

声明

民间社会关于人道主义裁军中的种族和交叉性的声明

民间社会于2021 10月8日向联合国大会裁军和国际安全第一委员会发表声明。

stop killer robots

分析

参与行业:将国际人道主义法融入城市战争的新技术

除了武装冲突的城市化,还有第二个趋势:使用。。。

icrc blog

评论

将军备控制框架应用于自主武器

自主武器和机器人技术的发展正在迅速推进,并提出了如何管理它们的使用和扩散的难题。 现有的军备控制制度可以为如何管理自主武器提供一个模型。

brookings

评论

Ingvild Bode博士的DILEMA讲座

本系列讲座范围内感兴趣的主题包括人工智能军事应用的技术视角、对人类控制和人类机构技术的哲学探究、与(军事)人工智能相关的国际法分析,包括国际人道主义法和国际人权法,以及与这些主题相关的跨学科贡献。

asser

评论

一个自主机器人可能已经杀死了人类

这就是为什么这些武器比核武器更具破坏性

national interest

分析

武器系统的自主性:追赶技术

近八年来,联合国(UN)的国际社会一直。。。

icrc blog

意见

北约副秘书长 Mircea Geoană 在人工智能与网络会议上发表题为“潜力无限”的讲话

北约副秘书长 Mircea Geoană 在人工智能与网络会议上发表题为“潜力无限”的讲话

nato

政策

新一代人工智能伦理规范

国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》(以下简称《伦理规范》),旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。

中国科技部

回应文件

对政府专家组主席指导问题的答复

本文阐述了制止杀人机器人运动对政府专家组主席于2021 8月12日分发的其他问题的回应。

stop killer robots

报告

大数据与交战的未来:将隐私权和数据保护应用于战时人工智能

军事人工智能的竞赛正在如火如荼地进行。世界各地的军事人员正在开发和部署各种人工智能应用程序,包括用于推进监视、指挥和控制的工具。。。

ssrn

评论

以色列最新的高科技边防部队:捷豹机器人

以色列国防军有更大的野心,最终将捷豹整合到其常规作战能力中。

national interest

报告

军事系统中的人工智能行为准则

这份人工智能军事系统行为守则草案是由人道主义对话中心(HD)召集中国、美国和...

humanitarian dialogue

原创研究

绘制全球人工智能治理图:碎片化环境中的新生政权

过去几年,人工智能(AI)技术的发展和推广取得了快速进展,引发了各级政府和私人部门的监管举措狂潮。。。

springer

公开论坛

职业道德和社会责任:军事工作与建设和平

本文调查了与工程师和科学家参与军事工作相关的伦理问题有关的四个问题,包括以伦理为中心的系统观点的影响。。。

springer

分析

“冲击”在武装冲突期间监管新技术的价值(和危险)

战争的规则和标准不是自我修正的。矛盾、差距和歧义常常持续到外部压力使其突出为止。这

icrc blog

评论

加沙战争后,以色列派遣武装机器人监视哈马斯

据推测,美洲虎将为加沙师承担例行巡逻任务,将部署来守卫隔离墙的部队减少一个营。

national interest

声明

自主武器:红十字委员会建议通过新规则

红十字委员会建议各国通过新的、具有法律约束力的规则来管理自主武器系统,以确保在使用武力时保持充分的人的控制和判断。ICRCs认为,这将要求禁止某些类型的自主武器系统,并严格管制所有其他系统。

icrc

分析

负责任和道德的军事人工智能

美国的盟友已经开始制定自己的政策方法来负责任地使用军事人工智能。本期简报着眼于关键盟友,他们对如何在采用军事人工智能时管理道德风险提出了清晰、新兴和新生的观点。该报告比较了它们的趋同和分歧,为美国、其盟国和多边机构制定负责任的人工智能实施的共同方法提供了途径。

cset

分析

军事人工智能合作工具箱

国防部已经可以开始应用其现有的国际科技协议、全球科学网络以及在多边机构中的作用来促进数字国防合作。本期简报将这些选项集合构建为军事人工智能合作工具箱,发现可用工具为调整政策、推进研究、开发和测试以及连接人员提供了有价值的途径——尽管在欧洲-大西洋以更结构化的方式比在印太地区。

cset

咨询说明

瞄准人类的自主武器系统

这份发给活动家和外交官的咨询说明为禁止针对人类的自主武器系统提供了依据。

stop killer robots

报告

了解潜在侵犯人权行为的自主武器系统

多年来人工智能(AI)的发展导致了机器人与人交互的梦想的实现。这种机器人与人在一个全新层面上互动的想法...

ssrn

评论

Zoom之年

随着又一年的到来,阿瑟研究所希望通过我们的2020年年度报告突出我们去年在学术研究、合作、活动和出版物方面的成就...。

asser

评论

致命自主武器:我们想知道的10件事

与Asser研究员Marta Bo一起推出了一个新的播客系列《致命自主武器:我们想知道的10件事》。播客系列是LAWS&战争罪研究项目...

asser

文章

人工智能武器能做出道德决定吗?

机器做出真正独立和自主决策的能力是许多人的目标,特别是那些希望尽可能让人类脱离循环的军事领导人,他们声称...

taylor & francis group

文章

人工智能武器化:人工智能恐怖主义的可怕前景

关于人工智能(AI)的力量和危险,有很多猜测,但主要集中在AI在不久的将来会对我们的工作产生什么影响。现在,有...

bernard marr

文章

人工智能危险吗?6每个人都应该知道的人工智能风险

我们应该害怕人工智能吗?由于最近的发展使超级智能机器比最初想象的要快得多,现在是确定人工智能会带来什么危险的时候了。

bernard marr

文章

人工智能(AI)危险吗?我们现在应该对其进行监管吗?

现在,人工智能(AI)不再只是一个让技术大师们为各种可能性疯狂的假设场景,而是它正在使用并影响着我们的日常生活,它正在更新...

bernard marr

文章

机器学习简史 - 每位经理都应该阅读

在这篇文章中,我提供了一个快速的时间旅行,以检查机器学习的起源以及最近的里程碑。

bernard marr

文章

人工智能(AI)对人类构成威胁吗?

人工智能(AI)和超级智能机器是人类可能发生的最好还是最坏的事情?自从20世纪40年代计算机...

bernard marr

报告

《禁止完全自主武器系统条约》的关键要素:东南亚的前景

本文件从东南亚的角度解释了条约的关键要素,承认了该地区国家利益的多样性。

stop killer robots

报告

致命自主武器系统相关资源书目

由国际研究生院法律与战争罪研究项目组制作的与致命自主武器系统相关的跨学科资源书目,以及...

ssrn

声明

在《特定常规武器公约》关于自主武器系统的非正式讨论中的发言

该声明是在2021 6月29日举行的关于自主武器系统的非正式讨论中向《特定常规武器公约》与会者发表的。

stop killer robots

评论

以色列使用机器人和机枪巡逻加沙边境

随着世界各地的公共安全部门探索部署具有攻击能力的无人系统,美洲虎在边境巡逻和可能的防暴能力中的作用可能会继续受到审查。

national interest

分析

军事网络行动的未来发展及其对平民伤害风险的影响

在过去的十年中,几个国家已经开始开发能够。。。

icrc blog

研究文章

定位法律:致命自主武器、认识空间和“有意义的人类”控制

本文分析了致命自主武器系统(LAWS)争论的过度认识局限性,特别是有意义的人类控制概念,该概念已成为学术文献和政策论坛中监管争论的核心。

oxford academic

评论

五角大楼二号人物称,美国需要更好地保护其人工智能

私营部门经常忽视人工智能安全,但副部长凯瑟琳希克斯希望国防部领导一场文化变革。

defense one

分析

进入漏洞:军事应对全球网络不安全

随着全球地缘政治格局的不断分裂,网络空间的重要性与日俱增,因为。。。

icrc blog

分析

在军事网络行动中避免平民伤害:六个关键要点

在当今的武装冲突中,网络行动越来越多地被用于支持和配合动态。。。

icrc blog

评论

杀手算法:如何让军事AI处于人的控制之下

在阿姆斯特丹大学的采访中,项目负责人Berenice Boutin博士讨论了与军事人工智能相关的一些挑战,以及DILEMA研究项目如何解决这些挑战。

asser

政策

挪威关于新兴军事技术的政策:扩大关于人工智能和致命自主武器系统的辩论

诺拉·克里斯汀·斯泰;布鲁诺·奥利维拉·马丁斯(Bruno Oliveira Martins)(2021)《挪威关于新兴军事技术的政策:扩大关于人工智能和致命自主武器系统的辩论》,《政策简报》,11.奥斯陆:PRIO。

prio

文章

人工智能治理

摘要人工智能(AI)的快速发展和人工智能在自动驾驶汽车、致命武器系统、机器人等领域的应用的加强,使...

taylor & francis group

评论

如果使用了杀人机器人,我们会知道吗?

在联合国最近的一份报告表明,土耳其制造的Kargu-2自主追捕了在利比亚撤退的部队后,许多媒体专门报道了所谓的致命...

bulletin

报告

自主武器系统与国际人道主义法:确定限制以及所需的人机交互类型和程度

遵守国际人道主义法(IHL)被公认为评估自主武器系统(AWS)可接受性的关键基准。然而,在某些关键方面,现有的国际人道主义法规则如何以及在多大程度上限制了AWS的开发和使用,这一问题仍有待讨论或探索不足。

sipri

咨询说明

关于自主武器系统规范和作战框架的建议

这份分发给活动家和外交官的咨询说明为自主武器系统的规范和操作框架提供了建议。

stop killer robots

研究文章

总统使用分散注意力的无人机部队和公众支持

在国内动荡时期,对美国总统来说,在国外使用武力成为一种吸引人的策略,以期将注意力从国内局势转移到外交政策的成功。武器化无人机技术成本低。。。

sage

评论

飞行杀手机器人在利比亚使用过吗?很可能

土耳其制造的Kargu-2无人机可以在自动模式下运行,可能被用来攻击在利比亚与联合国承认的政府作战的撤退士兵。有一个正在进行的全球...

bulletin

立场文件

红十字委员会关于自主武器系统的立场 [立场及背景文件]

自2015年以来,红十字国际委员会(红十字委员会)敦促各国对自主武器系统设定国际商定的限制,以确保平民保护、遵守国际人道主义法和道德可接受性。为了支持目前为建立自主武器系统的国际限制所作的努力

icrc

报告

杀手机器人:未来还是虚构?

国际妇女争取和平与自由协会(IKFF)会员杂志5月版的重点是自主武器。

stop killer robots

评论

红十字会呼吁对自主武器进行更多限制

专家表示,该组织的独特地位可能最终让各国政府坐到谈判桌前。

defense one

立场文件

红十字委员会关于自主武器系统的立场 [关于自主武器系统的立场文件]

为了支持目前为解决自主武器系统带来的风险而对其进行国际限制的努力,红十字委员会建议各国在这一立场和背景文件中通过新的具有法律约束力的规则。

icrc

声明

彼得·毛雷尔:“我们必须决定我们希望人类在武装冲突期间的生死决定中扮演什么角色”

红十字国际委员会(红十字委员会)主席彼得·毛雷尔先生在虚拟简报会上就红十字委员会关于自主武器系统的新立场所作的发言。

icrc

文章

致命自主武器系统部署带来的领导挑战:人类对致命交战的监督削弱将如何影响指挥官行使领导权

致命自主武器系统(LAWS)——机器人武器能够根据其编程方式感知并单方面行动——将能够选择目标和...

taylor & francis group

报告

关于杀人机器人的事情。

瑞典文文件介绍了自主武器及其带来的道德、道德、人道主义、行动和法律挑战。

stop killer robots

报告

具有自主功能的武器系统的作战使用原则

这七项新原则侧重于在武装冲突中负责任地使用自主功能,以保持人类对判断和责任......

cnas

评论

担心未来的自主武器?看看已经出了什么问题

当谈到未来的自主武器时,许多政府表示,他们希望确保人类继续控制致命武力。高度自动化的防空系统的例子表明,这样做将很困难...

bulletin

简报

保护天空

本简报概述了主要的空间威胁,并就空间如何支持欧盟战略指南提出了具体建议。

euiss

评论

迎接未来的大规模杀伤性武器,无人机群

无人机群越来越大,再加上自主能力,它们可能会构成真正的威胁。想想“长崎”,从理论上了解大规模无人机群的死亡人数...

bulletin

评论

空军正在测试未来的武器:无人机群

未来是无人机,现代战争将永远不同。

national interest

分析

伦理与人工智能

法律在如何以合乎道德的方式开发和使用人工智能方面发挥着至关重要的作用。但是,如果由于缺乏联邦关系、利益或立法的政治意愿而存在漏洞,则该法律是不够的。如果在需要灵活性和创新的情况下强加监管僵化和负担,法律可能就太过分了。有关人工智能的健全的道德准则和原则可以帮助填补法律空白。在本文中,CSET 杰出研究员 James E. Baker 提供了关于三种机制的限制和承诺的入门读物,以帮助塑造最大限度地发挥人工智能优势并最大限度地减少其潜在危害的监管制度。

cset

报告

机器人杀手:很快就要开始工作了?

本文件的目的:分析说明的目的是进一步审查六家独立武器生产商,特别是集束弹药生产商提供的资料。

stop killer robots

评论

国际法在人工智能治理中的作用圆桌会议

3月26日,星期五,阿瑟研究所董事会主席兼学术主任Janne E.Nijman将召开2021美国学会虚拟年会的在线闭幕全体会议...

asser

评论

国防部人工智能负责人表示,中国在人工智能竞赛中与美国“危险接近”

JAIC 领导人强调,人工智能道德准则不会让美国放慢脚步。事实上,它们是必不可少的。

defense one

报告

颠覆性技术和致命自主武器系统的演变:军事领域的考虑

本文件讨论了国际政治问题以及主要国际行为体在致命自主武器系统发展方面的不同立场和战略...

stop killer robots

报告

致命自主武器系统的反常后果

致命自主武器系统(LAWS)是指使用人工算法独立识别、搜索和攻击目标而无需人工干预的军事系统。法律参考...

ssrn

报告

根据国际法管理致命自主武器的挑战

自2017年以来,联合国(UN)定期召集一个政府专家组(GGE),探讨部署致命自主机器人的技术、法律和道德问题...

ssrn

报告

无监督战争:自主武器部署面临的挑战

自主武器系统(AWS)被定义为机器人武器,其能够根据编程方式感知并单方面行动。这样的人外循环平台将...

ssrn

报告

自主武器(AWS)部署面临的领导挑战

自主武器系统(AWS)被定义为机器人武器,其能够根据编程方式感知并单方面行动。这样的人外循环平台将...

ssrn

评论

监管军事人工智能将很困难。这是一条前进的道路

如果国际社会不能妥善管理军事人工智能的开发、扩散和使用,国际和平与稳定可能会受到威胁

bulletin

报告

解释新兴和颠覆性技术带来的核挑战:欧洲政策制定者和专业人士的入门

这篇论文是那些试图参与当前欧洲核风险辩论的人的入门读物。它揭开了核领域新兴和破坏性技术所带来的挑战的神秘面纱,并将其背景化。它详细研究了高超音速武器、导弹防御、人工智能和自动化、反空间能力以及计算机网络操作(赛博)这五项重大且可能具有破坏性的技术发展,以突出经常被忽视的细微差别,并解释这些发展所带来的一些挑战是如何变得更加微不足道的,比有时所描绘的更成熟、更易于管理。通过强调在应对核挑战时政治优先于技术,本文还试图为有针对性地减少风险和军备控制提供基础,并为欧洲各地的决策者和专业人士提供规范性建议。

sipri

立场文件

红十字委员会的立场文件:人工智能和机器学习在武装冲突中:一个以人为中心的办法

在一段时间的冲突不断增加和迅速的技术变革、国际红十字委员会(红十字委员会)需要了解新技术的影响对人们受到武装冲突影响和设计人道主义解决方案,解决需求的最脆弱的群体。

icrc

书籍章节

在战场上应用人工智能:伦理辩论

Reichberg,Gregory M.&亨利克·塞斯(Henrik Syse)(2021)《将人工智能应用于战场:道德辩论》(Applied AI on the Battlefield:the Ethics Debates),载于约阿希姆·冯·布劳恩(Joachim von Braun);玛格丽特·S·阿切尔;Gregory M.Reichberg&Marcelo Sánchez Sorondo,eds,机器人、人工智能和人类:科学、伦理和脊髓灰质炎。。。

prio

评论

文盲而非道德阻碍了人工智能的军事整合

军队中的数据文盲文化正在扩大美国与其竞争对手之间的差距。成功将需要国会采取更深入、更直接的行动。

national interest

评论

无人机战争的下一个前沿?苏联时代的作物除尘器

阿塞拜疆在纳戈尔诺-卡拉巴赫战役中表明,即使是苏联时代的旧作物除尘器也可以被重新利用,并在无人机战争中有效使用——这是军队如何继续的另一个例子...

bulletin

评论

道德对人工智能的军事整合构成最大风险

等待人工智能集成到我们的武器系统中,使我们落后于有效与敌人竞争所需的技术曲线。

national interest

分析

通过欧安组织工具降低军事风险

欧安组织应为部分自主的武器系统制定建立信任措施。此类CBM应提供有关AWS功能和使用原则的信息,以提高透明度并建立各州之间的信任。

gcsp

分析

人工智能验证

人工智能与军事系统的快速整合引发了伦理、设计和安全等关键问题。尽管许多国家和组织都呼吁采取某种形式的“人工智能军备控制”,但很少有人讨论验证各国遵守这些法规的技术细节。本简报提供了一个起点,定义了“人工智能验证”的目标,并提出了支持武器检查和持续验证的几种机制。

cset

报告

致命自主武器系统:柬埔寨政策入门

本入门介绍了致命自主武器的基本知识和问题,以及它们与柬埔寨政策和法律的相关性。

stop killer robots

报告

致命的自主武器:印尼政策的入门

本入门介绍了致命自主武器的基本知识和问题,以及它们与印度尼西亚政策和法律的相关性。

stop killer robots

评论

乔·拜登如何将建立信任措施用于人工智能的军事用途

拜登政府有机会在军事人工智能方面促进国际合作,以降低无意冲突的风险,同时仍在追求美国在人工智能方面的军事领导地位。

bulletin

评论

不要只是加固美国军事基地,让它们更聪明

虽然对军事设施的主要威胁可能来自敌方弹道导弹和巡航导弹,但现在是时候考虑小型无人机和渗透者发动非常规攻击的可能性了。

national interest

报告

致命自主武器系统:泰国政策入门

本入门介绍了致命自主武器的基本知识和问题,以及它们与泰国政策和法律的相关性。

stop killer robots

报告

致命自主武器系统:菲律宾政策入门,第二版

本书第二版介绍了致命自主武器的基本知识和问题,以及它们与菲律宾政策和法律的相关性。

stop killer robots

评论

美国军事基地:无人机群攻击是否意味着毁灭?

美国的军事设施、指挥和控制中心,甚至空中、地面和海上作战平台都可能很快成为无人机群攻击的受害者。

national interest

报告

致命自主武器系统:尼泊尔政策入门

本入门介绍了致命自主武器的基本知识和问题,以及它们与尼泊尔政策和法律的相关性。

stop killer robots

报告

应对自主武器的威胁

本文主张制定一项关于致命自主武器系统(LAWS)的具有法律约束力的文书,并提出强有力的积极义务,以确保人类对使用武力的有效控制。

stop killer robots

报告

将人类置于和平支持行动中人工智能整合和部署治理的中心

联合国和北大西洋公约组织(北约)在其和平支持中建立了管理人工智能(AI)集成和部署的系统。。。

ssrn

评论

美国海军未来的无人驾驶舰船

该服务将需要更新、更好的高科技无人机来帮助对抗未来的冲突。

national interest

评论

威廉·布斯比的DILEMA讲座

主题是“远程、自主武器和人类机构”

asser

评论

人类对自主武器的有效控制和国际刑法

在国际法博客OpinioJuris的一篇文章中,Asser研究员Marta Bo写道,国际刑法可以为实践有意义的人的概念提供指导...

asser

评论

DILEMA讲座:远程、自主武器和人类机构

在人工智能时代拥有自主权意味着什么?根据国际法,远程自主武器是如何管理的?2021 2月22日星期一(16:00 CET/15.00 GMT),比尔·布思比教授...

asser

报告

阻止杀人机器人运动-2019年度报告

2019年年度报告概述了2019年4月至2020年3月期间“制止杀人机器人运动”开展的活动。

stop killer robots

报告

国际组织在遵守和执行大规模毁灭性武器方面的作用:自主性、代理性和影响力

本文探讨了多边核查机构在处理遵约和执法问题上的作用,它们在多大程度上实现了“代理”和“影响力”,以及是否以及如何加强这种能力。

unidir

文章

北约人工智能:动态采用,负责任使用

北约创新部门副负责人阐述了北约当前制定人工智能政策的努力。

nato review

论文

社交媒体上的影响力运营和解构

虽然新冠肺炎疫情突显了我们全球化社会面临的新的、难以置信的挑战,但利用全球不确定性时刻的外国影响力行动远非新鲜事。

cigi

论文

人工智能与人类“循环”

人工智能现在在许多活动中超过了我们的表现,这些活动一度被认为太复杂,任何机器都无法掌握。

cigi

论文

人工智能技术和安全的公共和私人层面

公私合作对于创建创新的治理解决方案至关重要,这些解决方案可以随着技术的发展进行调整。

cigi

论文

自主技术的国际法律规制

全球各地的立法机构应该准备修改他们的法律,并可能采用新的法律,管理自主技术。

cigi

论文

人工智能与全球力量的扩散

在人工智能的背景下,数据就是新石油这一经常使用的说法可能是错误的。

cigi

论文

新的军备竞赛与全球稳定

尽管有标题和吸引人的标题,但人工智能军备竞赛的性质和程度在现阶段很难辨别。

cigi

评论

导言:政策制定者如何预测不可预测的情况?

虽然人工智能应用程序预计会对我们的生活产生显著的积极影响,但同样的应用程序也可能被不良行为者滥用或操纵。

cigi

论文

在人工智能时代更新多边治理

智能机器的梦想现在推动着计算机科学,进而推动着世界各地的监管系统。

cigi

书评

人工智能伦理——对最近三份出版物的回顾

近年来,人工智能已成为社会不同学科和领域的热门话题。快速发展的技术创新,尤其是在机器学习等领域(以及越来越广泛地使用基于人工智能的系统),带来了人们对人工智能伦理需求的日益认识,无论是在政治、工业、科学还是整个社会。

springer

评论

Rebecca Crootof谈人工智能、自主武器系统和战争事故

由Asser高级研究员Berenice Boutin博士领导的DILEMA项目正在推出一个新的系列讲座,内容涉及人类机构与军事人工智能(AI)之间的法律、伦理和技术观点。

asser

评论

推出DILEMA系列讲座

DILEMA系列讲座将定期邀请研究项目相关问题的学者和其他专家介绍他们的工作,并与包括...

asser

政策简报

11月2日至6日《特定常规武器公约》致命自主武器系统会议政策简报

本政策概要强调,各国需要概述自主武器系统不可接受的参数,并采取步骤确保人类对武力使用的有效控制。

stop killer robots

声明

11月2日至6日在《特定常规武器公约》致命自主武器系统会议上的发言

这一声明强调了自主武器所面临的挑战以及迫切需要一项条约。

stop killer robots

报告

负责任的人工智能研究与创新促进国际和平与安全

2018年,联合国秘书长确定科学技术领域的负责任研究与创新(RRI)是学术界、私营部门和政府致力于缓解新技术带来的风险的一种方法。

sipri

报告

负责任的人工智能军事应用:欧盟能否引领最佳实践的发展?

人工智能(AI)的军事应用已成为大国竞争的焦点。2019年,几个欧盟(EU)成员国呼吁欧盟成员国在防务人工智能问题上加强合作。本报告探讨了为什么欧盟及其成员国将从制定负责任的人工智能军事使用原则和标准中获得政治、战略和经济利益。它描绘了在这个问题上已经做了什么,以及如何在欧盟内部就法律合规、道德和技术安全进行进一步的专家讨论。该报告为欧盟及其成员国提供了具体的方法,以努力实现负责任的人工智能军事使用的共同原则和最佳实践。

sipri

评论

美国未来的军事基地必须聪明安全

所有服务部门都知道,他们的传统固定设施(如关岛)和新的临时基地都将受到一系列扩大的威胁。鉴于此,他们必须更加安全。

national interest

研究文章

人工智能和合理化的不负责任:精英的意识形态?

在这篇Connexions的文章中,我们关注智能代理程序,这些程序是当代人工智能(AI)的前沿解决方案。我们探讨这些计划如何成为渴望的对象,其中包含改变组织和。。。

sage

报告

新武器,经证实的先例:杀手机器人条约的要素和模型

本报告概述了法律和政策先例如何可以作为构建具有法律约束力的文书的基础,而无需从头开始。

stop killer robots

评论

在关于自主武器的争论中,是时候解锁人工智能的“黑匣子”了

随着世界各国竞相将人工智能和更大的自主功能纳入武器,联合国多年来关于如何应对致命性的辩论一直没有得到答案...

bulletin

声明

在第75届联合国大会裁军和国际安全第一委员会上的发言

这一发言于2020年10月13日向出席第75届联合国大会(UNGA)裁军与国际安全第一委员会的代表发表。

stop killer robots

讨论

完美武器的筛选与探讨

小组成员讨论了网络如何成为非国家行为者和国家的首选武器。《完美武器》由约翰·马乔执导,根据大卫·桑格的同名书改编,探讨了网络冲突的兴起,这是各国现在相互竞争和破坏的主要方式。

council on foreign relations

评论

五角大楼与盟国和合作伙伴举行军事人工智能伦理使用会议

这是在人们对全球技术合作越来越感兴趣的背景下出现的。

the diplomat

声明

9月24日在《特定常规武器公约》关于致命自主武器系统的会议上的声明

这份声明是向2020年9月24日出席《特定常规武器公约》致命自主武器系统会议的代表们发表的。

stop killer robots

声明

9月21日在《特定常规武器公约》关于致命自主武器系统的会议上的声明

这份声明是向2020年9月21日出席《特定常规武器公约》致命自主武器系统会议的代表们发表的。

stop killer robots

报告

自治武器的风险:拉丁美洲的跨部门观点

这本西班牙语出版物从拉丁美洲跨部门的角度探讨了在边缘化人口中使用致命自主武器的潜在后果。

stop killer robots

研究文章

用无人机做梦:看不见的战争阴影下的巴勒斯坦

本文讨论了第一人称体裁,特别是Gazan战时日记,如何让作家和读者想象理解当代殖民地无人机战争的新可能性,这对战略沉默和。。。

sage

报告

人工智能、新兴技术和致命自主武器系统:亚洲的安全、道德和伦理视角

一份报告涵盖了人工智能、新兴技术和自主武器的发展给亚洲地区带来的主要担忧。

stop killer robots

报告

法律和律师:致命的自主武器将LOAC问题提上设计桌,法官辩护律师需要到场

本文讨论了在设计自主平台的过程中,如何考虑和解决通常与武装冲突法的战场考虑相关的风险...

ssrn

原创文章

自主武器系统中的权力运作:伦理条件和社会政治前景

本文的目的是从多角度审视当代最重要的安全问题之一:武器化,尤其是致命的人工智能。这项技术。。。

springer

评论

应该允许无人机和人工智能自己杀人吗?

这是一个简单的问题,机器人应该自己杀人吗?技术就在这里。无人系统,包括地面和空中机器人,可以在无人干预的情况下自主寻找、发现、跟踪、瞄准和摧毁敌人

national interest

报告

阻止杀人机器人:国家禁止完全自主武器和保持人类控制的立场

本报告阐述了各国在禁止完全自主武器和保持人类控制方面的立场。

stop killer robots

分析

管制和限制武装无人机的扩散:规范和挑战

武装无人机的国际市场正在蓬勃发展,造成了广泛扩散的风险,尤其是对非国家行为者或以不尊重战争法而闻名的国家。本文分析了这些扩散风险,并就如何减轻这些风险提出了建议。

gcsp

评论

俄罗斯发展人工智能:目标与现实

即使人工智能发展成为俄罗斯的最高优先事项,莫斯科也没有机会在这一领域赶上华盛顿和北京。然而,在有利的条件下,俄罗斯相当有能力...

carnegie endowment

报告

致命自主武器系统:菲律宾政策入门

本入门介绍了致命自主武器的基础知识和问题,以及武器开发领域的其他新兴技术,以及它们与菲律宾政策和法律的相关性。

stop killer robots

文章

无人机世界

这篇来自国际安全计划的文章研究了武装无人机的扩散、发展和使用。

new america

研究

赋予欧洲议会权力:在安全和防务方面实现更多的问责制

随着欧盟继续追求更大的安全和防务一体化,欧洲议会应该成为民主监督和问责制的重要来源。

carnegie endowment

报告

人工智能只会杀死我们,而不会抢走我们的工作

最近在人工智能治理方面的一个突出发展是白宫管理和预算办公室发布的《2020年人工智能应用监管指南》。。。

ssrn

报告

我在8月29日见到了维基:为什么自主武器系统是可防御的,应该开发

在本文中,我认为自主武器系统的发展没有理论障碍,必须考虑其实际效益。此外,我认为有意义的人...

ssrn

报告

数据是危险的:比较美国、加拿大和德国在数据陷阱中看到的风险

数据和国家安全有着复杂的关系。数据对国防至关重要,对了解和对抗对手至关重要。数据支撑了许多现代军事工具,从无人机到...

ssrn

研究

理解影响作战的协作模型:国防研究的经验教训

随着对虚假信息和影响运营的担忧加剧,从行业到决策者的利益相关者需要更好地了解此类活动的影响。这需要更多的研究...

carnegie endowment

评论

呼吁为《国际人道主义法年鉴》编写专家小组手册

武装冲突法手册以不同的形式出现。最常见的是军事手册,这是一个国家的国防部或武装部队的分支机构发布的出版物...

asser

原创文章

中国的人工智能方法:政策、伦理和监管分析

2017年7月,中国国务院发布了题为“新一代人工智能发展计划”的国家人工智能发展战略(新一代人工智能发展规划). 这个策略。。。

springer

出版物

自主武器系统:提高武器关键功能自主性的意义

自主武器系统的发展增加了人类对武器失去控制和使用武力的可能性。

icrc

出版物

专家会议:自主武器系统、技术、军事、法律和人道主义方面

红十字委员会于2014年3月26日至28日召开了一次关于自主武器系统的国际专家会议。会议汇集了来自21个国家的政府专家和13名专家,其中包括机器人学家、法学家、伦理学家以及联合国和非政府组织的代表。

icrc

文章

武器系统自主性的限制

武器系统自主性的限制:确定人类控制的实际要素

icrc

报告

人工智能、战略稳定与核风险

本报告旨在让读者具体了解拥有核武器的国家采用人工智能(AI)如何对战略稳定和核风险产生影响,以及如何在政策层面应对相关挑战。该分析基于对核武装国家人工智能相关技术和战略发展的广泛数据收集。它还以作者的结论为基础,这些结论来自于SIPRI在瑞典(欧洲-大西洋动态)、中国(东亚动态)和斯里兰卡(南亚动态)举办的一系列区域研讨会以及在纽约举办的跨区域研讨会。在这些研讨会上,从事军备控制、核战略和区域安全工作的人工智能专家、学者和从业者有机会讨论为什么以及如何由核武装国家采用人工智能能力会对区域内或区域间的战略稳定和核风险产生影响。

sipri

报告

武器系统自主性的限制:确定人类控制的实际要素

人们普遍认识到,为了保持人类对武器系统的控制以及在武装冲突中使用武力,需要限制自主武器系统(AWS)。

sipri

文章

人工智能的军事化

革命性的技术为人类带来了巨大的希望。当被用于军事用途时,它们会影响国际和平与安全。挑战是在……之间建立理解...

stanley center

研究文章

克服人工智能伦理和治理中跨文化合作的障碍

要实现人工智能(AI)的全球利益,需要在许多治理和道德标准领域开展国际合作,同时考虑到不同的文化视角和优先事项。。。

springer

评论

NATO科技组织详细介绍了将成为战略颠覆者的创新

报告认为,这些技术之间的交叉,例如数据、人工智能和自主性,将对未来军事能力的发展产生重大影响。正在评论...

nato watch

文章

无人机游戏?新技术如何影响威慑、防御和安全

指数级的技术进步,特别是在数字领域,正在影响生活的各个领域。它主要来自商业部门,导致了技术的民主化...

nato review

报告

人工智能的军事应用引发伦理问题

人工智能为国防提供了巨大的希望。例如,越来越多的机器人车辆和自主武器可以在对士兵来说过于危险的区域运行。但是,在战争中使用人工智能甚至在和平时期加强安全有什么伦理意义?

rand

评论

俄罗斯是否正在开发能够发射Kamikaze无人机的机器人?

对北约的威胁? 

national interest

简报文件

《完全自主武器条约》的关键要素

一份常见问题文件详细阐述了该运动的立场,并解决了条约提案的关键要素提出的问题。

stop killer robots

研究文章

如何翻译人工智能?公共话语中的神话与辩解

当今网络世界的自动化技术依赖于社会对其“智能”程度的期望。算法处理,以及它们发展过程中的偏见和失误,都形成了一个文化领域,进而决定了它们的未来。我们的论点是,一个强大的分析框架可以从文化驱动的科学和技术研究中得到,同时关注卡隆的翻译概念。兴奋和。。。

sage

报告

人工智能对战略稳定和核风险的影响,第三卷,南亚展望

这本编辑过的书是三本书中的第三本。该系列是SIPRI项目的一部分,该项目探索了与人工智能最新进展可能对核武器和理论以及战略稳定和核风险产生的影响相关的区域观点和趋势。本卷汇集了八位南亚问题专家的观点,即机器学习和自主性为何以及如何成为核武器国家之间军备竞赛的焦点。它进一步探讨了这些技术的采用可能如何对其在区域和跨区域一级的战略稳定性和核风险的计算产生影响。

sipri

原创文章

灰色地带的知识:人工智能和网络安全

网络安全保护公民和社会免受计算机网络造成的伤害。由于演员的多样性,犯罪分子、间谍、军队、黑客活动者、公司运营商。。。

springer

研究文章

自主武器系统的伦理及其对任何人工智能系统的适用性

大多数人工智能技术都具有双重用途。它们被纳入和平民用应用和军事武器系统。大多数现有的人工智能行为准则和伦理原则都是针对前者的,而在很大程度上忽略了后者。

science direct

报告

关于人为因素和自主武器系统的桌面练习

该项目汇集了来自75个不同国家的198名专家,讨论了在瞄准周期的各个步骤中引入自主权的技术、军事和法律影响。通过总结这一系列演习的主要结果,本报告旨在建立一个共同的知识库,以支持与致命自主武器系统规范和操作框架有关的更知情的谈判。

unidir

评论

我们离开发人工智能坦克还有多远?

远程控制坦克可能在不久的将来出现,但致命的机器人坦克可能还需要很多年。

national interest

报告

Stop killer robots - 2018年活动报告

2018年活动报告概述了2018年4月至2019年3月期间“制止杀人机器人运动”开展的活动。

stop killer robots

简报

数字化防御

数字技术可以极大地提高欧洲武装部队的战备状态和作战效能。然而,正如本简报所示,欧盟需要更好地理解国防数字化所涉及的风险和机遇,并且需要对其技术主权进行财政投资。

euiss

报告

杀手机器人:事实还是虚构? 自主武器系统 在国际人道主义法的框架内(杀手机器人: 现实还是虚构? 国际人道法背景下的自主武器系统)

近年来,自主武器系统呈现出加速发展的态势。 在武装冲突的情况下使用这种类型的武器没有明确规定......

ssrn

简报

数字鸿沟? 关于人工智能的跨大西洋防务合作

在美国国防部于2019年发布《人工智能战略》之后,本简报探讨了该倡议对欧洲和跨大西洋防务合作的影响。它认为,欧洲人需要制定军事创新战略,包括人工智能(AI),而跨大西洋伙伴需要设计一种共同的人工智能治理方法。

euiss

工具包

活动家工具包

一个工具包,供新的和现有的活动家了解关键问题和采取行动禁止自主武器的步骤。

stop killer robots

报告

行动包:拯救你的大学,让它远离杀手机器人

这个新的PAX行动套件提供了背景阅读和资源,以便采取行动,将大学从杀手机器人手中拯救出来。

stop killer robots

评论

美国国防部采纳人工智能伦理原则

五角大楼通过了一套关于人工智能使用的道德准则。

the diplomat

评论

五角大楼将采用应用人工智能的详细原则

消息人士称,这份名单将密切关注国防咨询委员会 10 月份的一份报告。

defense one

报告

冲突情报:大学如何帮助阻止致命自主武器的发展

本报告调查了大学如何为自主武器的发展做出贡献。

stop killer robots

工具包

交叉性和种族主义

本出版物探讨了当我们讨论杀人机器人和种族主义时,为什么交叉性很重要。

stop killer robots

分析

新年决心:将国际人道主义法带回家

随着旧的一年告别,新的一年成形,我们倾向于。。。

icrc blog

报告

杀手机器人WILFF指南

一份关于自动武器系统(也称为杀手机器人)的新资源指南,为WILFF网络和更广泛的公众提供了一个性别视角。

stop killer robots

评论

杀手机器人重新思考:人工智能武器真的能减少附带伤害吗?

尽管活动人士呼吁国际上禁止致命的自主武器,但将人工智能纳入武器系统可能会使其更准确,并减少平民伤亡...

bulletin

评论

Elsa B.Kania谈人工智能与大国竞争

关于人工智能的潜力、军事用途以及人工智能“军备竞赛”的谬误

the diplomat

评论

监管自主武器的努力被大大夸大了

有人说,试图利用《特定常规武器公约》先发制人地禁止致命的自主武器系统已经失败,因此应该放弃。这个论点是错误的。

bulletin

报告

高科技敌对时代的武装力量训练与教育

本章侧重于与武装部队人员的教育和培训有关的新技术给各国带来的法律挑战。近几十年来,新技术...

ssrn

评论

人工智能和平

美国应该从 70 年的核技术管理历史中吸取教训,建立管理人工智能军事技术的框架。 AI for Peace 计划应阐明这项新技术的危险、管理危险的原则以及为其他国家制定激励措施的结构。

rand

分析

“今天行动,明天塑造”:第33届国际会议

今天,我们启动了第33届红十字会与红新月会国际会议。。。

icrc blog

新闻稿

Asser研究员获得NWO资助,在军事背景下研究人工智能

随着越来越多的人工智能(AI)技术融入到我们生活的不同领域,以及为我们的社会带来的诸多好处,也存在着挑战。在军事背景下(这是Boutin项目的重点),人工智能技术有可能大大提高军事能力,并提供显著的战略和战术优势。与此同时,在军事环境中越来越多地使用自主技术和自适应系统,带来了深刻的道德、法律和政策挑战。

asser

声明

各国必须解决自主武器引起的关切

关于禁止或限制使用某些可能被认为具有过分伤害力的常规武器的公约。

icrc

声明

11月13日至15日在《特定常规武器公约》缔约方年会上的发言

本声明已于2019年11月14日向出席《特定常规武器公约》缔约方年会的代表们发表。

stop killer robots

报告

滑坡:武器工业和日益自主的武器

本报告分析了武器工业的发展,指出了在致命自主武器方面具有应用潜力的工作领域,并显示了在...

stop killer robots

评论

美国应该放弃对杀手机器人条约的反对

美国积极参与谈判一项相对温和的条约,为减轻自主武器的人道主义风险带来了最大希望。

bulletin

评论

在《星际争霸II》中,DeepMind的人工智能已经超过了几乎所有人类玩家

AlphaStar与自己合作,学习征服流行的银河战游戏的新策略。

mit technology review

原创研究

人工智能、责任归属和可解释性的关系证明

本文讨论了使用人工智能(AI)技术引起的责任归属问题。假设只有人类才能成为负责任的代理人;但这一点已经很重要了。。。

springer

评论

不扩散和新兴技术

决策者的错误印象是,他们来得太晚了,没有时间监管新的军民两用技术。但这种印象是误导性的。

carnegie endowment

评论

军事人工智能很容易被危险地愚弄

人工智能战争开始主导美国和中国的军事战略,但技术准备好了吗?

mit technology review

声明

军事需要永远不能成为使用不人道或滥杀滥伤武器的理由

向联合国大会第一委员会发表的声明:关于所有裁军和国际安全议程项目的一般性辩论

icrc

声明

在第74届联合国大会裁军和国际安全第一委员会上的发言

本声明于2019年10月18日向出席第74届联合国大会(UNGA)裁军与国际安全第一委员会的代表发表。

stop killer robots

评论

当主权受到威胁时,人工智能和网络安全的伦理

今天,主权和战略自主被认为处于危险之中,受到国际紧张局势加剧、破坏性数字转型和网络安全爆炸性增长的威胁。。。

springer

评论

空军正在测试一种秘密武器:无人机群

现代战争永远不会是这样。

national interest

报告

人工智能对战略稳定和核风险的影响,第二卷,东亚展望

这本编辑过的书是三本书中的第二本。它们是SIPRI项目的一部分,该项目探索了与人工智能最新进展可能对核武器和理论以及战略稳定和核风险产生的影响相关的区域观点和趋势。本卷汇集了来自东亚、俄罗斯和美国的13位专家对机器学习和自主性为何以及如何成为核武器国家之间军备竞赛的焦点的观点。它进一步探讨了这些技术的采用可能如何对其在区域和跨区域一级的战略稳定性和核风险的计算产生影响。

sipri

分析

自主武器系统:什么时候是监管的正确时机?

那些希望控制自主武器系统的扩散和使用的人通常倾向于先发制人。。。

icrc blog

报告

人工智能争夺战略优势:修辞与风险

在人工智能(AI)的发展方面,争夺战略优势的论调越来越多地被使用,有时在军事背景下,但也更广泛。。。。

ssrn

报告

人工智能军事化:全球南方的觉醒

人工智能(AI)的军事化正在进行中,主要军事大国一直在新兴技术上投入大量资源。呼吁人工智能治理。。。

ssrn

评论

联合国对于应对致命自主武器系统领域新技术的作用

数字系统智能自主方面的进展自然会引起政府、科学家和民间社会的关注,担心可能部署和使用致命的自主武器。我们需要一个论坛来讨论这些问题,并就可能的解决方案建立共同的理解。 ...

联合国裁军事务厅

评论

负责任的创新推动科技新时代

今天,我们正处于一个空前的技术变革时代的黎明。在从机器人和人工智能(AI)到材料和生命科学等领域,未来几十年的创新可以帮助我们促进和平,保护我们的星球,并解决我们世界上痛苦的根源。 ...

联合国裁军事务厅

立场文件

负责任的人工智能:要求和挑战

本立场文件讨论了负责任的人工智能在两个相互依存的目标方面的要求和挑战:(i)如何促进研究和开发努力,以实现对社会有益的应用。。。

springer

分析

黑魔法、僵尸和龙:21世纪国际人道主义法的故事

上个月,在我们纪念日内瓦公约70周年之际,我想。。。

icrc blog

研究

新技术、新威胁和新治理挑战:创造更明智应对的机会?

世界舞台上出现的一系列新技术、它们可能带来的新威胁以及相关的治理难题突出了一系列共同的主题。

carnegie endowment

文章

国际人道主义法在越南的会议:专家们解决网络战和自主武器的难题

虽然听起来很刺耳,但你觉得什么更好?被人类杀死还是被机器人杀死?如果国际人道主义法(IHL)适用于人类,他们有义务尊重它,那么什么法律禁止武装无人机或机器人杀人?在网络战和自主武器的背景下,国际人道主义法是否仍然相关?或者,它太老了,无法适应

icrc

问答

英特尔、道德和新兴技术:与 Cortney Weinbaum 的问答

Cortney Weinbaum 作为兰德公司的高级管理科学家研究与情报和网络政策相关的主题。在这次采访中,她讨论了情报界面临的挑战、使用人工智能作为解决方案的风险以及科学研究中的道德规范。

rand

评论

双重用途区分:3D打印如何塑造核计划的安全困境

核项目正在采用增材制造来提高生产能力,但其对战略稳定性的影响尚不清楚。本文使用安全困境...

carnegie endowment

声明

8月20日至21日在《特定常规武器公约》专家组关于致命自主武器系统的会议上的发言

这份声明是向2019年8月20日参加《特定常规武器公约》专家组致命自主武器系统会议的代表发表的。

stop killer robots

研究

机器学习价值链对地缘政治意味着什么

人工智能(AI)已成为经济价值的主要来源,对当今全球经济的贡献高达2万亿美元。先进的机器学习技术正在推动这一进程...

carnegie endowment

报告

自主武器

本条目提出了自主武器的拟议定义,解释了该定义的基础,将自主武器与无人机区分开来,并解释了自主武器如何不...

ssrn

报告

自主武器系统、武装冲突法和负责任的判断

军事技术继续超越法律。网络战、太空战、空战和导弹战的最新发展,引发了律师团体的创造性倡议,...

ssrn

评论

在叙利亚,俄罗斯找到了展示其招摇和机器人武器的机会

叙利亚内战使俄罗斯有机会测试并据称改进其机器人和自主武器。武器制造商最近在莫斯科的一次大会上展示了他们的一些产品。

bulletin

评论

海军很快将拥有一种新的武器来杀死战舰或潜艇

未来是现在? 

national interest

政策

新一代人工智能治理原则——发展负责任的人工智能

国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》(以下简称《治理原则》),提出了人工智能治理的框架和行动指南。

中国科技部

评论

博客:致命自主武器、战争罪和常规武器公约

Asser研究所和研究生院研究员Marta Bo博士和Taylor Woodcock在为The Global撰写的一篇博客文章中指出,目前缺乏关于自主武器和犯罪的讨论...

asser

报告

当速度致命:自主武器系统、威慑力和稳定性

虽然人工智能(AI)在军事上的应用非常广泛,并且超越了战场,但战场上的自主性,以致命的自主武器系统(LAWS)的形式,...

ssrn

评论

美国空军正在招募麻省理工学院帮助提高其人工智能技能

空军人工智能孵化器旨在开发服务于“公共利益”的技术,而不是武器开发。

mit technology review

评论

我们还能监管新兴技术吗?

从人工智能到军用机器人技术的快速发展,引发了一个问题:现在开始监管新兴技术是否为时已晚。

carnegie endowment

评论

联合国与战争的未来

多年来,联合国一直在讨论是否禁止致命的自主武器。随着各国在武器系统自主能力方面取得迅速进展,任何禁令都会太迟吗...

bulletin

分析

国际人道主义法对人工智能武器的法律规制:中国视角

可以说,国际人道主义法(IHL)是随着新兴技术的发展而发展的。…的历史。。。

icrc blog

报告

人工智能对战略稳定和核风险的影响,第一卷,欧洲-大西洋视角

这本经编辑的卷集中于人工智能(AI)对核战略的影响。这是三部曲的第一部分,探讨了与人工智能的最新进展可能对核武器和理论、战略稳定和核风险产生的影响相关的区域观点和趋势。它汇集了来自欧洲-大西洋共同体的14位专家的观点,即机器学习和自主性为什么以及如何成为核武装国家之间武装竞赛的焦点;以及采用这些技术可能如何影响其在区域一级和跨区域一级对战略稳定和核风险的计算。

sipri

报告

自主武器系统在目标打击中的合法使用(第3部分):评估外部限制

致命自主武器系统(LAWS)本质上是一种武器系统,一旦激活,就可以选择和攻击目标,而无需进一步的人为干预。虽然目前两者都不是...

ssrn

评论

制定法律:制定自主武器管理战略

这篇文章是“变革技术,变革治理”系列博客的第二篇文章,该系列文章探讨了新兴技术的全球影响,以及减轻其风险和实现其利益最大化的措施。

council on foreign relations

分析

安全网或纠结网:武器和战争中人工智能的法律审查

编者按:对于那些对武器法律审查感兴趣的人来说,这是。。。

icrc blog

分析

武装冲突拘留中依赖数据的预测系统的可行性

编者按:在这篇文章中,泰斯·布里奇曼继续讨论了拘留和潜在的使用。。。

icrc blog

分析

加强区分:需要在法律和社会保障专家小组上进行更加集中的自主武器瞄准讨论

致命自主武器系统(LAWS)政府专家组(GGE)会议本周在日内瓦举行。这

icrc blog

分析

军事环境中预测算法需要明确的治理框架

编者按:在这篇文章中,作为AI博客系列的一部分,Lorna McGregor继续讨论。。。

icrc blog

评论

为什么人工智能研究人员应该重新考虑抗议参与军事项目

一位国防部顾问建议,“建设性接触”将比选择退出更为成功。

mit technology review

分析

按算法扣留

编者按:作为这个AI博客系列的一部分,有几篇文章关注拘留和。。。

icrc blog

分析

对涉及人工智能的武器、作战手段和方法的法律审查:需要考虑的16个要素

在当代围绕武器法律审查的辩论中,主要关注的问题是什么。。。

icrc blog

分析

人工智能与冲突前沿的专家观点

人工智能的最新进展有可能影响我们生活的许多方面。。。

icrc blog

评论

中国本土无人机反映中东变化

自9·11事件以来,无人驾驶飞机一直是美国在中东及其他地区实力最明显、最具争议的标志之一。但是,随着地区大国寻求制定自己的路线,新一代更便宜的无人机——中国制造或当地制造,对其使用的限制要小得多——正在升空。

new america

报告

Bio Plus X:军备控制和生物与新兴技术的融合

长期以来,生物科学的技术进步对维持生物安全和防止生物武器扩散的努力提出了挑战。生物技术的发展与其他新兴技术如增材制造、人工智能和机器人技术的融合,增加了生物武器的开发和使用的可能性。

sipri

评论

下一个“深蓝”时刻:无人驾驶飞机竞速

1997年,IBM的“深蓝”电脑在一场国际象棋比赛中击败了大师加里·卡斯帕罗夫。这是一个历史性的时刻,标志着人类可以在复杂的战略游戏中战胜机器的时代的结束。如今,人工智能(AI)机器人不仅可以在国际象棋中击败人类,而且几乎可以在所有存在的数字游戏中击败人类。…

mit technology review

评论

特朗普下令在人工智能军备竞赛中采取某种模糊行动

通过一项行政命令,唐纳德·特朗普总统发起了美国人工智能倡议,进一步强调了一组正在重塑从医疗...

bulletin

评论

美国海军的下一个超级武器有致命缺陷吗?

一项关于海军无人机的新研究警告说,自主无人机的真正问题不是变得狂暴,而是无法适应意外情况。

national interest

评论

中国军队争相使用人工智能

一份新报告显示,一场更为真实的人工智能军备竞赛也在进行中。

mit technology review

评论

中国橄榄枝拯救世界免受人工智能武器

中国对人工智能武器开发的军备控制持开放态度吗?美国应该找出答案。

national interest

评论

小组讨论:人类对自主军事技术的控制

2月13日星期三,阿瑟研究所将于14:30至17:00举办一场关于“人类对自主军事技术的控制”的小组讨论会。该活动在...

asser

评论

网络武器:21世纪对战略稳定的日益威胁

网络武器对战略稳定的影响是一个日益严重的问题,远远超出了核力量控制和通信系统的安全范围。

carnegie endowment

分析

对新兴技术的军备控制只是和平时期的奢侈品吗?第一次世界大战的教训

在二十世纪之交,从法国的古斯塔夫·加贝到美国的奥维尔·赖特,许多具有丰富想象力的工程师希望他们的发明能够。。。

icrc blog

评论

美国是否面临人工智能伦理鸿沟?

美国政策制定者和军事界不必担心人工智能的“道德差距”,而是可以在人工智能道德方面发挥领导作用。这可能有助于确保人工智能军备竞赛不会成为一场逐底竞赛。

rand

报告

人工智能(AI)和自主机器人手术标准制定的法律、监管和伦理框架

背景:本文旨在推进关于人工智能(AI)和自主机器人手术潜力的辩论,特别关注伦理、监管和...

ssrn

评论

2019年,这里有六个真正的人工智能危险需要警惕

去年,一系列争议揭示了人工智能更黑暗(更愚蠢)的一面。

mit technology review

分析

机器自主性和持续护理义务

关于国际社会应对自主武器系统的方式的辩论。。。

icrc blog

文章

军事海上和空中自主系统的伦理问题

本文讨论了围绕军事自主系统的两类伦理问题。第一类涉及军事使用的伦理问题...

taylor & francis group

评论

空军希望用终极武器武装隐形F-35、F-15和F-16

空军和DARPA现在正在测试新的硬件和软件,这些硬件和软件能够使第四代飞机在空中驾驶舱指挥无人机,为空战带来新的自主性、更多的攻击选择和一系列新的侦察优势

national interest

评论

人工智能:从人类的角度进行详细解释

人工智能、人工智能是对我们生活方式的威胁,还是一种祝福?人工智能试图复制并取代人类智能最擅长的东西:做出复杂的决策。目前,人类...

bulletin

评论

自主武器即将到来,这就是我们如何正确使用它们

完全自主的武器不仅不可避免;自1979年以来,它们一直在美国的库存中。

national interest

新闻稿

自主武器:各国必须就人类控制在实践中的意义达成一致

一个武器系统应该能够自己决定杀死谁吗?

icrc

评论

向韩国学习:人工智能如何改变美国出口管制

本文讨论国家安全领域的民事机构如何在资源远少于重量级的军事和情报机构的情况下,利用人工智能来巩固安全利益

bulletin

评论

空军计划用终极武器装备隐形F-35、F-15和F-16

计算机能力、处理速度和人工智能的进步正在迅速改变平台在不需要人工干预的情况下能够执行的范围。

national interest

评论

谷歌的云人工智能老板表示,人工智能对你的公司来说不是“神奇的尘埃”

安德鲁·摩尔(Andrew Moore)表示,让技术在企业中发挥作用是一项巨大的挑战。

mit technology review

评论

自主武器:军事游戏的终极改变者?

知道这一点:如果自主武器被开发并引入世界武库,那么它们不太可能立即彻底改变战争。

national interest

讨论

保持人类对武器系统的有意义的控制

10月17日,在裁军和国际安全第一委员会一侧举行了题为“保持对武器系统的有意义的人类控制”的小组讨论

联合国裁军事务厅

声明

武器:2018年红十字委员会向联合国发表的声明

联合国大会,第73届会议,第一委员会。红十字委员会武器股股长凯瑟琳·劳兰女士发表的声明。

icrc

报告

自主武器系统在目标打击中的合法使用(第2部分):目标法和;实践

致命自主武器系统(LAWS)本质上是一种武器系统,一旦激活,就可以选择和攻击目标,而无需进一步的人为干预。虽然目前两者都不是...

ssrn

分析

致命自主武器系统扩散的危险:防止非国家行为者获取

恐怖组织、非法组织和其他非国家行为者对先进武器技术有着长期的迷恋。然而,限制此类武器扩散的国际努力目前落后于可能具有破坏性的新技术的出现。特别是,过去几年标志着致命自主武器系统的快速发展。

gcsp

评论

美国空军计划为F-15、F-22和F-35配备终极武器

空军和DARPA现在正在测试新的硬件和软件,以使第四代飞机能够在空中驾驶舱指挥无人机。

national interest

评论

五角大楼正在投入数十亿美元用于军事人工智能研究

美国国防部的研究部门DARPA将在未来五年内花费20亿美元用于军事人工智能项目

mit technology review

分析

人类对致命自主武器系统进行有意义控制的可能性

本周,致命自主武器系统(LAWS)政府专家组(GGE)将在联合国某些。。。

icrc blog

评论

阻止杀人机器人运动可以从反核武器运动中学到什么

今天反对在战场上使用人工智能驱动的自主机器人的运动者可以从去年成功的反核运动中学到什么。

bulletin

分析

性别和种族偏见对人工智能的影响

自动决策算法目前正在全球社会传播性别和种族歧视。这个

icrc blog

分析

国际人道主义法的人性

国际人道主义法(IHL)规范武装冲突中使用武力。它固有地提供。。。

icrc blog

评论

空军用终极武器装备F-15、F-22和F-35

空军和DARPA现在正在测试新的硬件和软件,这些硬件和软件能够使第四代飞机在空中驾驶舱指挥无人机,为空战带来新的自主性、更多的攻击选择和一系列新的侦察优势。

national interest

分析

自主武器:实现有意义的人类控制

今年,各国将第二次参加联合国关于。。。

icrc blog

评论

为什么人工智能研究人员不应该背弃军方

一本关于自主武器的新书的作者表示,从事人工智能研究的科学家需要做更多的工作来防止这种技术被武器化。

mit technology review

报告

自主武器系统:责任的可能性和可能性

本文讨论了与自主武器系统(AWS)相关的问责制挑战,这一挑战侧重于AWS将使其无法...

ssrn

评论

陆军新未来司令部的成败将取决于国会

在国会纠正其永不停息的财政过山车,军队领导层证明其从过去吸取了教训之前,未来司令部的成功仍然是可疑的。

national interest

分析

自主武器与人类控制

自国际监管辩论开始之初,关于确保人类对自主武器系统(AWS)的充分控制的担忧一直很突出。。。

icrc blog

分析

自主性和人工智能对战略稳定性的影响

文章讨论了人工智能、人类活动和未来的自主武器系统。

gcsp

评论

印度应该准备好利用人工智能的军事潜力,它可以重新定义我们所知道的战争

印度拥有庞大的人才库和蓬勃发展的初创企业,如果得到适当利用和鼓励,不仅可以提供本土军事解决方案,还可以创造巨大的...

carnegie endowment

分析

新型武器需要新的治理形式

用于控制可能违反国际人道主义法(IHL)的武器的出现和使用的现有国家和国际工具。。。

icrc blog

评论

“双城记”:日内瓦和海牙这两个联合国城市在推动全球正义中的作用

此次活动汇集了来自日内瓦和海牙的演讲者,探讨并强调这两个联合国城市在将和平与正义领域的研究与政策联系起来方面的作用。

asser

访谈

与Paul Scharre合作的杀手机器人和自主武器

新美国安全中心(CNAS)技术和国家安全项目的高级研究员兼主任保罗·沙尔(Paul Scharre)与指挥官詹姆斯·M·林赛(James M.Lindsay)讨论了自主武器和不断变化的战争性质。

council on foreign relations

评论

中国在人工智能战争中赶超美国军队

人工智能武器:中国和美国迫切希望主导这项新技术

national interest

评论

论文征集-《国际人道主义法年鉴》,第21卷(2018年)

近年来,许多事态发展再次突出了《武器法》对预防和管理武装冲突的重要性。叙利亚化学武器的使用...

asser

评论

军队的下一个超级武器:机器人坦克?

是的,这就要来了

national interest

研究文章

“电脑这么说”:预测性警务的伦理、有效性和文化技巧

在本文中,我使用了《纽约时报》的题为“预测性警务是否合乎道德且有效?”的辩论。 研究被视为预测性警务的关键操作以及它们可能对我们当前的文化和社会产生的影响。

sage

报告

正常自主事故:杀手机器人失败时会发生什么?

在过去的十年里,有很多关于致命的自主武器系统(LAWS)的文章,通常被称为“杀手机器人”。这包括法律、道德和道德问题...

ssrn

评论

为什么世界需要监管自主武器,而且很快

如果一个国家部署了自动瞄准并杀死人类的机器,那么其他国家可能会迅速效仿,从而导致破坏稳定的全球军备竞赛。这只是一小部分...

bulletin

评论

宣言和公开信:回到未来?

为什么联合国关于致命自主武器管理的讨论需要科学和研究界以及私营部门代表的更多参与。…的声明...

bulletin

评论

为“娱乐”辩护

在对人工智能及其假想威胁的公开焦虑中,应该更多地关注人工智能娱乐对我们的大脑和文明构成的威胁。

bulletin

评论

人工智能军事应用专家集

在本周的过程中,《公告》与斯坦利基金会合作,发布了关于如何管理世界各地军事人工智能研发爆炸的顶尖专家...

bulletin

评论

人工智能军事应用的前景与危险

人工智能的前景——包括它提高从后勤、战场规划到人类决策的一切速度和准确性的能力——正在推动世界各地的军队...

bulletin

报告

防止自主武器系统被用于故意违反战争法

自动武器系统(AWS)本质上是一种武器系统,一旦激活,就可以选择和攻击目标,而无需进一步的人工干预。虽然这些目前既没有部署也没有...

ssrn

分析

战争中的人类判断和致命决策

政府代表连续第五年在联合国举行会议。。。

icrc blog

评论

Assers第一届人工智能与国际法冬季学院

在第一版中,冬季学院将包括关于人工智能的法律和理论观点的一般会议(包括法律人格、集体代理、人类控制等),...

asser

分析

自主武器系统:对人类尊严的威胁?

在克里斯托弗·诺兰的《敦刻尔克》的开场,六名英国士兵正在寻找食物和。。。

icrc blog

声明

武器系统自主性的限制

《特定常规武器公约》致命自主武器系统政府专家组,红十字国际委员会的声明红十字国际委员会(红十字委员会)很高兴向“致命自主武器”政府专家组第二次会议发表意见。

icrc

评论

以下是美国需要如何为人工智能时代做好准备

政府对人工智能的漠不关心可能会让美国在竞争对手面前失利。但一个好的人工智能计划实际上是什么样子的呢?

mit technology review

评论

杀死杀人机器人,短暂抵制

如果你的大学与国防承包商合作研究自主武器,不要指望人工智能研究人员会坐视不管。

bulletin

评论

大型组织可能喜欢杀手机器人,但工人和研究人员肯定不喜欢

可以预见,有意为有利可图的军事合同制造人工智能武器的科技公司和大学将面临一些重大的挫折。

mit technology review

文章

伦理与自主武器系统:人类控制的伦理基础?

作为对自主武器系统提出的法律和道德问题的持续思考的一部分,红十字委员会于2017年8月28日至29日在日内瓦召开了一次圆桌会议,探讨道德问题。本报告-伦理与自主武器系统:人类控制的伦理基础?-总结讨论并强调ICRC的主要结论:

icrc

分析

自主武器系统:人类控制的伦理基础?

人类控制的要求将复杂任务和相关决策功能委托给传感器的风险。。。

icrc blog

文章

战争机器时代关键的人类因素

随着主要军队在将人工智能(AI)引入情报、监视、侦察甚至指挥系统方面取得进展,彼得罗夫的决定应该有力地提醒人们,依赖复杂系统的风险,在复杂系统中,错误和故障不仅可能发生,而且可能不可避免

stanley center

报告

日益自主的技术的武器化:人工智能

本文为非技术受众提供了一本关于人工智能和机器学习现状的入门读物,旨在支持关于日益自主的技术武器化的国际讨论。

unidir

评论

陆军想要一辆新坦克来对付俄罗斯和中国

陆军正在大规模加快其下一代战车武器和技术的早期原型设计。

national interest

研究

通过核作战计划进行21世纪威慑的危险逻辑

核国家不应使用冷战原则,而应根据二十一世纪的需要,将其核理论和核能力转向战略威慑。

carnegie endowment

评论

人工智能如何帮助印度武装部队

围绕自主武器的争议决不能掩盖这样一个事实,即与大多数技术一样,人工智能在世界各地的军事中有许多非致命用途,尤其是在...

carnegie endowment

报告

具有致命自主武器系统的战争机器人化(法律):人类的使命还是对人类的威胁?

法律是对人类的威胁,经过客观分析,没有对某一特定结果的先入为主的依恋,现行法禁止这些法律。分析不是在...

ssrn

报告

高技术时代的比例原则

本章在即将出版的《复杂战场:武装冲突法则与现代战争动力学》(牛津大学出版社出版)一书中探讨了一个关键问题的应用...

ssrn

文章

国际人道主义法下的自主武器系统

联合国裁军事务厅出版了一系列文章:对致命自主武器系统的看法

icrc

视频

印度应对自主武器挑战的专业知识和影响力

红十字国际委员会政策和人道主义外交负责人雨果·斯利姆博士本周访问了新德里,在印度外交部和观察家研究基金会于2018年1月16日至18日组织的Raisina对话会上发表讲话。

icrc

评论

人工智能的好年份

有必要摒弃人工智能全面替代人类的想法,并开始深入探讨人工智能作为一种工具的有效性...

carnegie endowment

访谈

不要害怕机器人末日:自主武器专家Paul Scharre

一位前陆军游骑兵——他恰好领导了制定国防部自主武器政策的团队——在接受《公告》采访时解释了这些武器的优点、缺点,以及为什么禁止它们将是一个非常困难的挑战...

bulletin

报告

自主武器系统:国际人道主义法和国际人权法面临的新挑战

本文考虑了最近有关建立国际禁止自主武器系统的文献。它试图解决一些学者表达的担忧,即...

ssrn

评论

神经、网络、屠杀:2017年新出现的技术威胁

回顾我们2017年对新兴技术威胁的最佳报道。

bulletin

评论

“想死多少就死多少”:加州大学伯克利分校斯图尔特·拉塞尔谈“屠宰场”

如果你做梦也没想到,大卖场货架上的玩具状无人机可以通过一点人工智能和一点形状爆炸物转化为人脸识别...

bulletin

报告

第36条审查:应对新兴技术带来的挑战

1949年日内瓦四公约1977年附加议定书第36条规定,各国有实际义务确定“在研究、开发、获取或采用新武器、作战手段或方法时”是否“在某些或所有情况下”国际法禁止其使用。这一机制通常被通俗地称为“第36条审查”。

sipri

观点

UNODA临时文件–第30号,2017年11月

致命自主武器系统展望

联合国裁军事务厅

评论

当心机器人帝国

鉴于人工智能(AI)在未来几年的重要性,印度必须密切关注中国在这一领域的发展,并制定自己的人工智能战略愿景...

carnegie endowment

报告

日益自主的技术的武器化:自主武器系统和网络作战

网络作战和日益自主的物理武器系统的相互作用可能会带来新的安全挑战,因为这些相互作用会增加复杂性并引入新的漏洞。

unidir

声明

致命自主武器系统专家会议

红十字委员会欢迎致命自主武器系统政府专家组的第一次会议。

icrc

评论

战争机器时代的关键人类因素

随着多支军队开始使用人工智能来增强他们在战场上的能力,几个致命的错误表明了自动化和半自主系统的风险,即使人类...

bulletin

分析

道德是法律的源泉:马滕斯条款和自主武器

道德发展,法律变化。这样,道德进步就可能发生。然而,这种关系。。。

icrc blog

报告

绘制武器系统自主性的发展图

《武器系统自主发展地图》报告介绍了一项为期一年的武器系统自主性发展地图研究的主要发现和建议。

sipri

讨论

禁止完全自主武器的途径

2017年10月16日,墨西哥常驻联合国代表团与国际机器人武器控制委员会、人权观察、,Seguridad Humana en Latinoamérica y el Caribe和制止杀人机器人运动主办了一场题为“禁止完全自主武器的途径”的小组讨论会,作为第72届大会第一委员会会外活动系列的一部分。

联合国裁军事务厅

评论

B-52轰炸机:现在装备了激光无人武器?

随着技术的进步,特别是在自主系统领域,许多人思考激光无人机武器是否很快就能使用传感器、瞄准和武器投送系统发现、获取、跟踪和摧毁敌方目标,而无需任何人为干预。

national interest

讨论

自主武器系统:理解学习算法和偏差

2017年10月5日,联合国裁军研究所(裁研所)在纽约联合国总部主办了一场会外活动“自主武器系统:学习算法和偏见”。活动欢迎一个由四名专家组成的小组参加关于机器学习中存在数据偏差及其对日常技术和军事化武器系统的潜在影响的高级别专题讨论

联合国裁军事务厅

评论

为什么“愚蠢”的机器很重要:自主武器和不断变化的规范

是否应该调整法律和监管规范,以应对未来超级智能自主武器的威胁?也许吧——但愚蠢的自主武器现在正在改变规范。

bulletin

分析

自主武器迷你系列:武装冲突中的距离、武器技术和人性

在这篇博文中,我探讨了距离对道德和法律的影响。。。

icrc blog

分析

迷你系列简介:自主武器系统和伦理

自主武器系统&公众良知的支配:人类控制的伦理基础?2017年8月28日至29日,红十字国际委员会召开了一次。。。

icrc blog

报告

裁军:基本指南——第四版(2017)

10月17日,在裁军和国际安全第一委员会一侧举行了题为“保持对武器系统的有意义的人类控制”的小组讨论

联合国裁军事务厅

评论

这些是中国在战争中粉碎美国所需要的武器

北京会建造它们吗? 

national interest

研究文章

机器人战争:机器人时代的美国帝国与地缘政治

机器人时代将如何改变战争?美国军方正在设想什么样的地缘政治前景?本文构建了一个机器人未来学来研究这些关键问题。它的核心问题是机器人——由人工跳跃驱动——如何。。。

sage

评论

杀手机器人来了,美国不是唯一的买家

其他国家在人工智能和机器人方面具有竞争力,大部分技能和技术都在私营部门获得,而不是由政府控制。

carnegie endowment

研究文章

当人工智能进入战争 - 青年意见、虚构的现实和自主武器

本文涉及青年陪审团关于使用自主武器系统 (AWS) 的审议结果。 陪审团的讨论集中在几个关键问题上。 陪审员们表达了在人工智能军事化方面让人类参与决策过程的重要性,并且只有人类才有道德代理能力。

science direct

评论

终结者机器人:美国军方的终极武器还是终极噩梦?

“致命的自主武器有可能成为战争中的第三次革命。”

national interest

评论

我们应该害怕人工智能吗?

有必要对人工智能日益普及带来的实际利益和风险保持清醒和清醒的头脑。

carnegie endowment

报告

完全自主的武器系统和国际人道主义法原则

20世纪军事技术的发展提高了机器和计算机的能力,同时降低了军队执行任务的数量和复杂性...

ssrn

文章

设计安全性

核武器已经存在了70年。它们是一项古老的技术,管理它们的规范和制度已经相当完善。然而,新兴技术可以创造...

stanley center

文章

自主军用无人机:不再是科幻小说

有一天,不受人类直接控制的机器可能做出生死攸关的决定,这一点需要认真对待。在过去几年中,我们看到了一个快速的...

nato review

评论

为什么印度需要战略人工智能愿景

目前人工智能发展的轨迹表明,未来的经济和国家安全将由人工智能决定,使其成为影响全球政治的少数技术之一。

carnegie endowment

报告

在控制的十字路口:自主武器系统中的人工智能与国际人道主义法的交叉点

本文探讨了自主武器系统(AWS)中人工智能(AI)和机器学习与国际人道主义法(IHL)的相互作用。律师和科学家...

ssrn

报告

捍卫边界:国际人道主义法和人权法对使用自主武器系统的限制和要求

关于自主武器系统(AWS)合法性的学术调查的重点是遵守国际人道主义法关于敌对行为的规则。相当少的关注...

ssrn

报告

自主武器系统:武装冲突法和其他法律挑战

随着技术进步和机器获得了无人机操作的能力,自主武器系统(AWS)在国际法下的合法性是一个迅速增长的重要问题...

ssrn

评论

禁止自主武器的理由在于道德,而不是实用性

叙利亚化学武器禁令的失败并不是对拟议的全球自主武器禁令的打击。禁令的力量来自道德,而非实践。

bulletin

评论

人工智能核心的黑暗秘密

没有人真正知道最先进的算法是如何做到的。这可能是个问题。

mit technology review

评论

自主武器系统:是否需要空间战手册?

研究了在空间战中使用自主武器系统(AWS)的合法性。目前,有关于空战、导弹战、海战和网络战的手册,但文献中的一个明显差距是没有关于空间战的手册。

science direct

报告

通过功能分配实现自主武器系统有意义的人为控制

在2014年和2015年举行的第一次联合国自主武器系统专家会议(AWS)上,为数不多的趋同主题之一是要求有有意义的人...

ssrn

文章

成群无人机的优点和缺点

美国和中国军队开始测试成群的无人机——由许多小型、廉价的无人驾驶飞机组成的分布式协作系统。这个独立的新子集...

taylor & francis group

评论

美国空军首席科学家:隐形无人机和杀手群可能很快就会出现

美国空军的未来看起来很广阔

national interest

评论

美国强大的F-15、F-16或F-35如何很快发射激光

一个巨大的发展即将到来。

national interest

分析

战争的演变:关注法律

在过去的100年里,战争发生了什么变化?国际社会是否仍有足够的能力合理地减少其对…的负面影响。。。

icrc blog

评论

美国军方可能处于终极海军武器的边缘

感谢DARPA和BAE系统公司

national interest

评论

战争蜂群:印度准备好了吗?

一场新的军备竞赛正在形成,围绕三种相互关联的技术展开:自主武器、蜂群和网络战。

carnegie endowment

评论

AI规则:从三到二十三

考虑到人工智能发展的速度、其应用范围的扩大以及当前研究工作的日益激烈,重新审视和研究人工智能可能还为时过早...

carnegie endowment

评论

印度有机会塑造战争的未来

印度被任命为一个旨在启动致命自主武器系统谈判的小组的主席,这为其在全球有关该问题的辩论中发挥领导作用提供了独特的机会。

carnegie endowment

报告

致命自主武器AKA杀手机器人的合法性

自动化战争,包括在持续的武装冲突中广泛使用的无人机,现在已成为全球军事技术的一部分。假设...

ssrn

评论

ISIL用武器化无人机展开战斗

除了在伊拉克使用无人机进行侦察外,ISIL还将无人机连同炸弹一起发射出去。

new america

评论

美国总计划将M1艾布拉姆斯坦克变成超级武器

算法正在发展到这样一个地步,即它们将能够允许艾布拉姆斯坦克乘员在战斗中移动时以指挥和控制能力操作多辆附近的“翼人”机器人车辆。

national interest

报告

自主武器系统:武装冲突法和其他法律挑战

随着技术的进步和机器获得了在无人控制的情况下运行的能力,自主武器系统(AWS)在国际法下的合法性是一个越来越重要的问题。本文认为,现有的法律是无效的,需要一套不同的法律。本文探讨了AWS在战争中开发和使用的几个关键问题。

science direct

报告

自主武器系统与非国际武装冲突的门槛

正在进行的国际人道主义法(IHL)讨论主要集中在国家发展和使用AWS是否能够遵守...

ssrn

报告

绘制武器系统自主性发展图:自主性入门

自2013年以来,在1980年《联合国特定常规武器公约》(CCW)框架下讨论了致命自主武器系统的治理问题。讨论仍处于早期阶段,大多数缔约国仍在了解利害关系的问题,首先是什么是“自主”,以及在武器系统和使用武力的情况下,这在多大程度上是一个令人关切的问题。一些缔约国强调,对“自治”含义的概念和技术基础进行进一步调查,将有助于今后的讨论。

sipri

报告

绘制驱动武器系统自主发展的创新生态系统

自2013年以来,在1980年《联合国特定常规武器公约》(CCW)框架下,国际上一直在讨论致命自主武器系统的治理问题。迄今为止,讨论仍停留在非正式层面。在《特定常规武器公约》的主持下,召开了三次非正式专家会议(2014年、2015年和2016年举行),讨论与法律和安全领域新兴技术有关的问题。然而,一些代表团已经表示,他们对一项关于法律的新议定书可能对创新产生的影响表示担忧,特别是在民用领域,因为可以说,法律所依据的大部分技术可能是双重用途的。

sipri

评论

杀手机器人:道德关注与军事优势

面对全球人工智能和机器学习的快速发展,美国军方应该平衡美国人对计算机做出生死决定的道德担忧和保持优势的需要。

rand

评论

杀手机器人:道德关注与军事优势

对计算机做出生死决定的伦理担忧是真实的,而且它们很重要

national interest

评论

五角大楼的“终结者难题”:可以自己杀人的机器人

美国已将人工智能置于其国防战略的中心,拥有能够识别目标并做出决策的武器。

new america

报告

远程和自主作战系统——攻击预防措施和个人责任

人类战争漫长而悲惨的历史表明,人们对发动袭击和击败对手的更有效方法的不懈追求。这反过来又推动了……手段和方法的创新...

ssrn

文章

新技术和武器对国际人道主义法的影响

国际人道主义法、其对新武器、战争手段和方法的适用性以及遥控和自主武器系统对国际人道主义法律的影响是最近在首尔举行的一次研讨会议程上的议题之一。

icrc

分析

新武器的法律审查:义务范围和最佳做法

《日内瓦公约第一附加议定书》第36条规定,每个缔约国都必须确定。。。

icrc blog

评论

中国的新型巡航导弹都是炒作吗?

我应该如何看待AI巡航导弹? 

national interest

评论

五角大楼自主系统计划

今天,国防科学委员会(DSB)发布了一项期待已久的研究,简称为自主研究。自20世纪50年代末以来,DSB一直处于调查前沿科学、技术和制造业问题并提供政策指导的前沿。

council on foreign relations

评论

大家想要人工智能武器吗?ISIS、民主国家还是独裁国家?

如果你是一个不能信任自己军队中人民的独裁者,你仍然可以信任一台机器来做你的肮脏工作。

bulletin

评论

情报机构中的人工智能伦理

国防界已经开始了一场关于作战系统中人工智能伦理的健康对话

national interest

评论

禁止杀人机器人?先定义一下如何?

有很多关于监管自主武器的讨论,但如果我们甚至不能就它们的内容达成一致,就很难制定深思熟虑、有效的政策

bulletin

报告

完全自主的分散;需要重新关注《特定常规武器公约》关于关键功能的讨论

联合国(UN)《特定常规武器公约》(CCW)关于致命自主武器(LAWS)的讨论被混淆了,没有建设性,主要是为了相同的定义...

ssrn

分析

没有刑事责任的战争罪?主动保护系统案例

随着武器系统在过去由人类完成的瞄准周期中接管越来越多的功能,它越来越。。。

icrc blog

报告

自主武器系统

《国际公法百科全书》中的这一条目探讨了自主武器系统(AWS)的发展和国际法律挑战。这篇文章涵盖...

ssrn

文章

自主武器系统:对未来战争的深刻影响

2016年4月,红十字委员会武器部门负责人凯瑟琳·劳兰应邀前往伦敦,在戈德史密斯大学举行的国际机器人武器控制委员会(ICRAC)峰会年会上发表主旨演讲。在她的演讲中,Lawand介绍了ICRC对自主武器系统的看法,即可以自行选择和攻击目标的武器,

icrc

评论

美国空军下一个超级武器:致命激光?

战斗机和无人机发射的空射激光武器将迅速焚烧大量移动中的敌方空中和地面目标,如飞机、无人机、车辆、建筑物和地面部队。

national interest

文章

红十字委员会关于自主武器系统的意见

作为对《特定常规武器公约》正在进行的讨论的贡献,本文件从红十字委员会的角度,并根据其最近专家会议的讨论,着重介绍了自主武器系统的一些关键问题。

icrc

文章

为什么自主武器系统在非洲很重要

自主武器系统是非洲特别关注的一类新兴武器。随着新的和新兴的战争技术,特别是那些依赖信息技术和机器人技术的战争技术继续取得快速进展,重要的是确保对这些新发展带来的许多而且往往是复杂的挑战进行知情的讨论。

icrc

文章

自主武器:杀人和销毁的决定是人类的责任

《特定常规武器公约》——红十字委员会在致命自主武器系统专家会议上宣读的声明。

icrc

分析

电子简报:新技术与现代战场

近年来,一系列新技术进入现代战场,产生了新的作战手段和方法。。。

icrc blog

报告

自主武器和人类控制

来自世界各地的国家在瑞士日内瓦举行的联合国会议上讨论了自主武器、可能出现在未来的武器,这些武器将在……

cnas

报告

问责差距、自主武器系统和国际法责任模式

在大多数情况下,AWS无法遵守国际人道主义法和国际人权法的规定,导致侵犯重要权利,如……的权利...

ssrn

报告

自主武器系统是否属于日内瓦公约第一附加议定书第36条的主题?

各国有义务对所有新武器进行法律审查,以确定武器的合法性,并确定其使用是否在所有或某些情况下都违反了...

ssrn

报告

定义2016年自主武器系统(AWS)中“有意义的人为控制”的新概念

非政府组织第36条提出了“有意义的人类控制”(MHC)这一新兴概念,作为解决自主武器系统(AWS)带来的挑战的可能方案。各种状态,...

ssrn

报告

尊严、Ubuntu、人类与自主武器系统(AWS)辩论:非洲视角

在本文中,我讨论了非洲“ubuntu”或人类概念与当前正在进行的AWS辩论的相关性。在将ubuntu的概念追溯到津巴布韦前殖民时期之后...

ssrn

报告

绘制《特定常规武器公约》关于法律的辩论:总结并向前推进

自2013年以来,在1980年《联合国特定常规武器公约》(CCW)框架内讨论了致命自主武器系统的治理问题。讨论还处于早期阶段,大多数州仍在了解相关问题。为了解决有争议的问题,并为任何潜在的正式谈判奠定建设性基础,需要进行长期的讨论。

sipri

报告

自主武器和操作风险

20YY 战争未来倡议主任保罗·沙尔(Paul Scharre)研究了未来自主武器的风险,这些武器会选择自己的目标,以及发生灾难性...

cnas

研究文章

公众舆论与杀手机器人的政治辩论

今天的无人机可能成为明天的杀手机器人,这一点引起了全世界人民的关注。科学家和商业领袖,从斯蒂芬·霍金到埃隆·马斯克,最近签署了一封信,敦促世界禁止。。。

sage

报告

自主武器:监管容忍还是监管抵制?

本文应用作者先前发表的评估武器易受性的模型,试图制定关于自主武器的国际法规。本文的结论是...

ssrn

报告

鉴于武器系统的自主性增强,实施第36条武器审查

1949年日内瓦公约第一附加议定书第36条要求各国对所有新武器、作战手段和方法进行法律审查,以确定国际法是否禁止使用这些武器、手段和方法。然而,审查具有自动化和自主功能的武器的合法性面临着一些技术挑战。此类审查需要复杂的程序来测试武器性能,并评估与意外失控相关的风险。由于此类评估需要大量的技术和财政资源,因此有强烈的动机深化各国在武器审查领域的合作和信息共享。增加互动可以帮助确定最佳实践和解决方案,以降低与测试和评估程序相关的成本。

sipri

报告

律师应该如何看待武器自治?

各国正在开发越来越自主的武器系统,这些武器系统有望在未来几年内对武装冲突的行为作出巨大改变,但仍有很大的问题没有得到解决...

ssrn

研究文章

政治问责制和自主武器

自主武器将能够在没有直接人类输入的情况下选择和攻击目标。对引进这种武器的一个重要反对意见是,它们将使查明和追究责任者更加困难。。。

sage

文章

致命的自主武器:扼杀“机器人不强奸”的论点

批判性地思考“机器人不强奸”这一论点

prio

评论

军事机器人:武装,但有多危险?

关于在战争中使用人工智能控制致命武器的争论比看起来更复杂。

mit technology review

文章

澳大利亚:与克里斯·詹克斯教授就自主武器进行问答

武器技术的进步意味着,在战场上使用武力的决定越来越多地可以由机器在没有人为干预的情况下操作。最近在堪培拉举行的一次活动,“跨越卢比孔:攻击性自主武器的道路”,集中讨论了与这些类型系统的潜在使用相关的一系列问题。在事件之后,

icrc

评论

杀手机器人应该被禁止吗?

自主武器可能会改变军事游戏规则,许多人希望禁止这种武器。在考虑这一举措之前,我们需要完善辩论,美国必须表现出领导力

national interest

报告

军事机器人的自主性:评估技术和法律门槛

虽然机器人仍然不在我们的家中,但它们已经开始在战场上蔓延。然而,当今的军事机器人大多是远程控制平台,没有真正的自主性...。

ssrn

视频

自动武器杀人许可证?

自主武器是一个情绪化的话题,有可能改变战争的整体性质。有一天,机器能够在没有人类控制的情况下进行杀戮吗?我们应该如何处理这种可能性的法律和道德含义?在日内瓦举行的一次为期五天的会议一直在研究这些问题。ICRCs武器部门负责人凯瑟琳·劳兰德

icrc

声明

自主武器系统:机器做出生死决定在道义上可以接受吗?

《特定常规武器公约》,致命自主武器系统专家会议,2015年4月13日至17日,日内瓦。红十字委员会的声明

icrc

报告

NATO瞄准过程:确保人类控制和合法使用“自主”武器

使用所谓自主武器系统的前景引起了重大的法律和道德关切。本章通过提供对…的另一种视角,为辩论做出了贡献...

ssrn

评论

半自主和独立:普拉托斯洞穴中的杀手机器人

为了预防未来杀手机器人的威胁,不要忽视当今的“半自主”武器

bulletin

报告

自主武器在联合国:代表的入门手册

CNAS 专家 Paul Scharre、Michael Horowitz 和 Kelley Sayler 为联合国代表提供了有关自主武器的指导……

cnas

报告

战争、责任和杀手机器人

尽管许多人担心自主武器系统可能会使战争变得“太容易”,但没有人讨论过它们的使用会如何改变宪法战争权力的分配。无人机、网络...

ssrn

评论

阻止杀手机器人和其他未来威胁

反对完全自主武器的运动可能是对抗未来危险技术的路线图

bulletin

报告

武器系统自主性简介

20YY Warfare Initiative 主任 Paul Scharre 和兼职高级研究员 Michael Horowitz 讨论未来军事系统纳入更大