人工智能的武器化



<div _ngcontent-c14 =“”innerhtml =“

自治武器系统兴起的现实Depositphotos由CogWorld增强

介绍

技术发展已成为一场竞赛。在引领新兴技术竞赛和未来战争战场的竞争中,人工智能(AI)正迅速成为全球权力游戏的中心。正如许多国家所看到的那样,自主武器系统(AWS)的发展正在迅速发展,人工智能武器化的这种增加似乎已经成为一种高度不稳定的发展。它不仅给每个国家的决策者带来了复杂的安全挑战,也为人类的未来带来了复杂的安全挑战。

今天的现实是,人工智能正在引领我们走向一个没有边界或边界的新算法战场,可能会或可能不会涉及到人类,并且在网络空间,地球空间和太空中无法理解和控制人类生态系统。 (CGS)。因此,人工智能武器化的想法是,一旦在CGS上激活,可以选择和参与人类和非人类目标而无需人类设计者或操作员进一步干预的武器系统, 引起极大的恐惧。

任何智能机器或机器智能的思想都能够在没有任何人为参与和干预的情况下执行任何预计的战争任务 – 仅使用其嵌入式传感器,计算机编程和人类环境和生态系统中的算法的交互 – 成为现实 这是不容忽视的。

人工智能的武器化

随着人工智能,机器学习和深度学习的进一步发展,从概念转向商业化,计算能力,内存,大数据和高速通信的快速加速不仅创造了创新,投资和应用狂潮,而且还在加强追求对于AI芯片。这个 持续快速进步和发展 表明人工智能正在走向战争的革命,各国毫无疑问将继续发展AI将使之成为可能的自动化武器系统

当各国个别和集体加速努力以获得科学和技术的竞争优势时,人工智能的进一步武器化是不可避免的。因此,需要可视化明天的算法战争是什么样的,因为建立自主武器系统是一回事,但在与其他国家和其他人类的算法战中使用它们是另一回事。

正如报道所述 已经出现了 复杂的算法系统在CGS中支持战争的越来越多的方面,事实是人工智能的商品化现在已经成为现实。正如网络空间所见,自动化战争(网络战)已经存在 已经开始了 – 任何人和每个人都是目标的地方。那么,接下来是什么,地缘战和太空战呢?而且,谁和目标是什么?

全面展开人工智能武器化的快速发展: 导航和利用无人驾驶海军,空中和地形车辆,产生附带损害估计, 部署“即发即忘”导弹系统 并使用固定系统实现从人员系统和设备维护到部署的一切自动化 监视无人机机器人 所有的例子都是例子。因此,当算法支持越来越多的战争方面时,它给我们带来了一个重要问题:人工智能在今天和明天的战争中应该被允许,限制和彻底禁止使用?

虽然自主武器系统被认为提供了降低武器系统运营成本的机会 – 特别是通过更有效地利用人力 – 并且可能使武器系统能够实现更高的速度,准确性,持久性,精确性,范围和协调性。在CGS战场上,理解和评估技术,法律,经济,社会和安全问题的必要性仍然存在。

程序员和编程的角色

面对这些复杂的安全挑战和未知之源,人类安全和保障的根本在于程序员和编程的作用以及半导体芯片的完整性。这背后的原因是程序员可以定义和确定AWS的性质(至少在开始时),直到AI开始自我编程。

但是,如果一名程序员有意或无意地将自主武器编程为违反当前和未来的国际人道法(IHL),人类将如何控制人工智能的武器化?此外,由于AWS以软件为中心,因此错误的责任以及AWS系统设计和使用的操作应该在哪里?这就把我们带到了问题的核心 – 何时以及如果一个自治系统杀死,谁负责杀戮,无论它是否合理?

网络安全挑战

简而言之,算法绝不是安全的 – 它们也不会受到错误,恶意软件,偏见和操纵的影响。而且,由于机器学习使用机器来训练其他机器,如果存在恶意软件或操纵训练数据会发生什么?虽然安全风险无处不在,但连接设备增加了远程位置网络安全漏洞的能力,而且由于代码不透明,安全性非常复杂。因此,当人工智能与其他人工智能发生战争时(无论是网络安全,地理安全还是空间安全),正在进行的网络安全挑战将为人类的未来和CGS中的人类生态系统增添巨大的风险。

虽然似乎自动武器系统仍然存在,但我们个人和集体需要回答的问题是人工智能驱动并确定我们的人类生存和安全战略,还是我们会这样做?

承认这一新兴现实,风险集团与位于澳大利亚卧龙岗大学的出版作者兼法学副教授马库斯瓦格纳发起了关于自主武器系统的急需讨论。

披露:Risk Group LLC是我的公司

风险小组与Markus Wagner讨论自治武器系统和法律,Markus Wagner是澳大利亚卧龙岗大学的出版作者和法学副教授,负责风险综合报告。

下一步是什么?

随着各国个人和集体加速努力以获得科学和技术的竞争优势,人工智能的进一步武器化是不可避免的。因此,AWS的定位将改变人类的意义,并且不会以不确定的方式改变安全的基本原则以及人类与和平的未来。

重要的是要了解和评估是否无法阻止自主军备竞赛,可能出现什么问题。现在是时候承认这样一个事实,即仅仅因为技术可能允许AWS的成功开发,这并不意味着我们应该这样做。武器化人工智能可能不符合人类的利益!是暂停的时候了。

“>

自治武器系统兴起的现实Depositphotos由CogWorld增强

介绍

技术发展已成为一场竞赛。在引领新兴技术竞赛和未来战争战场的竞争中,人工智能(AI)正迅速成为全球权力游戏的中心。正如许多国家所看到的那样,自主武器系统(AWS)的发展正在迅速发展,人工智能武器化的这种增加似乎已经成为一种高度不稳定的发展。它不仅给每个国家的决策者带来了复杂的安全挑战,也为人类的未来带来了复杂的安全挑战。

今天的现实是,人工智能正在引领我们走向一个没有边界或边界的新算法战场,可能会或可能不会涉及到人类,并且在网络空间,地球空间和太空中无法理解和控制人类生态系统。 (CGS)。因此,人工智能武器化的想法是,一旦在CGS上激活,可以选择和参与人类和非人类目标而无需人类设计者或操作员进一步干预的武器系统, 引起极大的恐惧。

任何智能机器或机器智能的思想都能够在没有任何人为参与和干预的情况下执行任何预计的战争任务 – 仅使用其嵌入式传感器,计算机编程和人类环境和生态系统中的算法的交互 – 成为现实 这是不容忽视的。

人工智能的武器化

随着人工智能,机器学习和深度学习的进一步发展,从概念转向商业化,计算能力,内存,大数据和高速通信的快速加速不仅创造了创新,投资和应用狂潮,而且还在加强追求对于AI芯片。这个 持续快速进步和发展 表明人工智能正在走向战争的革命,各国毫无疑问将继续发展AI将使之成为可能的自动化武器系统

当各国个别和集体加速努力以获得科学和技术的竞争优势时,人工智能的进一步武器化是不可避免的。因此,需要可视化明天的算法战争是什么样的,因为建立自主武器系统是一回事,但在与其他国家和其他人类的算法战中使用它们是另一回事。

正如报道所述 已经出现了 复杂的算法系统在CGS中支持战争的越来越多的方面,事实是人工智能的商品化现在已经成为现实。正如网络空间所见,自动化战争(网络战)已经存在 已经开始了 – 任何人和每个人都是目标的地方。那么,接下来是什么,地缘战和太空战呢?而且,谁和目标是什么?

全面展开人工智能武器化的快速发展: 导航和利用无人驾驶海军,航空和地形车辆,产生附带损害估计, 部署“即发即忘”导弹系统 并使用固定系统实现从人员系统和设备维护到部署的一切自动化 监视无人机机器人 所有的例子都是例子。因此,当算法支持越来越多的战争方面时,它给我们带来了一个重要问题:人工智能在今天和明天的战争中应该被允许,限制和彻底禁止使用?

虽然自主武器系统被认为提供了降低武器系统运营成本的机会 – 特别是通过更有效地利用人力 – 并且可能使武器系统能够实现更高的速度,准确性,持久性,精确性,范围和协调性。在CGS战场上,理解和评估技术,法律,经济,社会和安全问题的必要性仍然存在。

程序员和编程的角色

面对这些复杂的安全挑战和未知之源,人类安全和保障的根本在于程序员和编程的作用以及半导体芯片的完整性。这背后的原因是程序员可以定义和确定AWS的性质(至少在开始时),直到AI开始自我编程。

但是,如果一名程序员有意或无意地将自主武器编程为违反当前和未来的国际人道法(IHL),人类将如何控制人工智能的武器化?此外,由于AWS以软件为中心,因此错误的责任以及AWS系统设计和使用的操作应该在哪里?这就把我们带到了问题的核心 – 何时以及如果一个自治系统杀死,谁负责杀戮,无论它是否合理?

网络安全挑战

简而言之,算法绝不是安全的 – 它们也不会受到错误,恶意软件,偏见和操纵的影响。而且,由于机器学习使用机器来训练其他机器,如果存在恶意软件或操纵训练数据会发生什么?虽然安全风险无处不在,但连接设备增加了远程位置网络安全漏洞的能力,而且由于代码不透明,安全性非常复杂。因此,当人工智能与其他人工智能发生战争时(无论是网络安全,地理安全还是空间安全),正在进行的网络安全挑战将为人类的未来和CGS中的人类生态系统增添巨大的风险。

虽然似乎自动武器系统仍然存在,但我们个人和集体需要回答的问题是人工智能驱动并确定我们的人类生存和安全战略,还是我们会这样做?

承认这一新兴现实,风险集团与位于澳大利亚卧龙岗大学的出版作者兼法学副教授马库斯瓦格纳发起了关于自主武器系统的急需讨论。

披露:Risk Group LLC是我的公司

风险小组与Markus Wagner讨论自治武器系统和法律,Markus Wagner是澳大利亚卧龙岗大学的出版作者和法学副教授,负责风险综合报告。

下一步是什么?

随着各国个人和集体加速努力以获得科学和技术的竞争优势,人工智能的进一步武器化是不可避免的。因此,AWS的定位将改变人类的意义,并将毫不含糊地改变安全的基本原则以及人类与和平的未来。

重要的是要了解和评估是否无法阻止自主军备竞赛,可能出现什么问题。现在是时候承认这样一个事实,即仅仅因为技术可能允许AWS的成功开发,这并不意味着我们应该这样做。武器化人工智能可能不符合人类的利益!是暂停的时候了。