首页 >> 李宗盛

致命的自动武器是否是战争的未来 (2)严泰京

2022-07-20 01:53:50

致命的自动武器是否是战争的未来?

能够做出决定的武装武器系统听起来就像是《终结者》电影中的一样。但是,一旦致命的自动武器出现在世界上,就不可能再回头了。

迈克尔·理查森博士说:“很有可能我们无法使用致命的自动武器系统将精灵放回瓶中”迈克尔·理查森博士最近因其在无人机技术方面的工作而被美国广播公司评选为人文学科前五名。

理查森博士,研究政治暴力和新兴技术的说,致命自动武器的发展正在急剧加速。他说,这些系统尚未在操作中部署,但是仍有几个原因值得我们大家关注。

新南威尔士大学艺术与社会科学学院的高级研究员说:“世界上大多数主要军队正在开发各种致命的自动武器,有时甚至与大型科技公司合作。”

“这是一个很大的问题-将有关暴力行为的某些决策移交给机器意味着什么,地球上的每个人都将对这方面发生的事情负责。”

接近自主的军事技术已经在该领域。他说,借助无人机,越来越多的战斗可以从配备有屏幕和界面的控制站进行。

但是,真正的转变是在威胁发生之前就预测威胁并予以消除。

他说:“特别是对美军而言,致命的无人驾驶飞机的攻击是基于确定某人或某群人是否可能成为威胁,也就是说,他们将来可能会造成[伤害]。”

“如果您的威胁是有人用枪指着您的脸,那么威胁就迫在眉睫。但是,有人在阿富汗农村开着车,后面有一个电饭锅,有一袋钉子……您可能会有一些数据提示,这个人将要制造一种简易的爆炸装置,可能使部队处于危险之中。

在这种情况下,威胁要从您所观察到的步骤中移开几个步骤。这个人可能还只是拥有一个新的电饭锅和一个破损的围栏来修复因此,您有可能根据对可能发生的事情的预测来杀死某人,而不是根据某人当时正在做的任何事情来杀死他们。”

当军队转向使用机器学习算法来在威胁发生之前识别威胁时,他们还没有将控制权移交给机器。但是理查森博士说,这并不是一个飞跃。

他说:“朝着高度可预见的杀戮迈进的过程肯定正在发生,这是一个非常可怕的发展。” “在许多情况下,我们将具备技术能力,将人为决策从流程中剔除,并将这些预测推向最前沿。我们不一定赋予这些技术开枪的决策权,但是在这一点上需要克服的不是技术上的,而是道德上的或战略上的。”

监管致命的自主武器

理查森博士说,全球治理和军备控制是我们需要采取的限制致命自动武器的若干措施之一。

他说:“尽管这并没有阻止核武器的发展,但广泛的公众反对可能有助于阻止致命的自动武器系统的发展,或者至少减慢该技术的生产。”

“但是目前,致命自动武器系统目前尚未受到《某些常规武器公约》的管制。事实上,甚至没有关于致命自动武器的定义的公认和公认的定义。系统。”

他说,澳大利亚通过与美国军方的合作,在开发此类技术方面“基础设施上是同谋”,并可能促使其他国家承担更多责任。

“我们可能会声称,我们无能为力地影响这一领域的主要参与者,例如美国,中国和俄罗斯。尽管如此,澳大利亚是该世界体系的一部分。就动荡暴力而言,它正在'那里'发生,我们是其中不可或缺的一部分。”他说。“从军事空间开始的监视和控制方法的种类通常会扩展到其他地方,我们当然已经看到,自9/11以来特别是监视。”

理查森博士认为公众普遍反对核武器以及面部识别软件,这表明仍然有可能减慢致命自动武器的发展。

“我们已经从面部识别技术的广泛采用和开发,变成了暂停其发展的大型科技公司。这是持续不断的公众压力的结果,也是来自学术界和倡导团体的巨大压力的结果。,他们表现出……他们深有问题,导致更大的不公正,而不是更多的正义与安全。

如果我们能够围绕面部识别技术创造这种推动力,也许我们也可以反对致命的自主武器。它们依赖于类似类型的自动检测和识别技术,但做出的选择要比一个人是否找到工作,是否允许他们进入场馆要大得多。它们可能是生与死的选择。”

注射式丰胸

沧州市人民医院

酒精依赖症表现症状

麻辣烫健康吗

孙思邈祛斑霜

友情链接