马斯克联手115专家 吁全球禁止杀人机器人

人气 2057

【大纪元2017年08月22日讯】(大纪元记者夏雨综合报导)周日(8月20日),特斯拉首席执行官马斯克(Elon Musk)和其他领先人工智能专家共116人,联合呼吁联合国在全球禁止使用具有杀伤性的机器人,包括无人机、坦克和机关枪等。

福克斯援引英国《卫报》的报导说,马斯克和谷歌旗下的DeepMind共同创办人苏雷曼(Mustafa Suleyman)等116名科技名人签署一封公开信,信中写道:“一旦这个潘多拉的盒子被打开,这将很难关闭。”

这封信于周一在澳大利亚墨尔本举行的国际人工智能联合会议上发布。

致命自主武器“在道德上是错误的”

联合国最近投票决定开始正式讨论这类武器,包括无人机、坦克和自动化机枪。在此之前,人工智能和机器人公司的创始人们已经向联合国发出公开信,要求防止目前正在进行的杀人机器人军备竞赛。

创始人们在信中警告,这种军备竞赛有可能在火药和核武器之后引发“第三次战争革命”。

信中写道:“一旦发展,致命的自主武器将使武装冲突规模比以往任何时候都要大,而且发展速度之快超出人类能理解的程度。这些恐怖武器可能成为恐怖分子对无辜人民使用的武器,以及以恶意的方式行事的武器。”

专家们表示,自主武器(autonomous weapons)“在道德上是错误的”。报导说,专家希望将杀人机器人添加到联合国禁用武器清单中,其中包括化学武器和故意致盲的激光武器。

自主武器会对无辜人民造成重大伤害

悉尼新南威尔士大学人造智能教授沃尔什(Toby Walsh)表示,几乎所有技术都有好坏两面性,人造智能也是如此;它可以帮助解决当今社会面临的许多紧迫问题,然而,同样的技术也可以用于自主武器工业化战争。

加拿大机器人公司Clearpath Robotics的创始人Ryan Gariepy 表示:“与其它仍然在科幻领域的人工智能产品的潜在表现不同,自主武器系统现在正处于发展尖端,并且具有非常真实的潜力,会对无辜的人民造成重大伤害以及造成全球不稳定。”

马斯克过去曾经谈到过人造智能的固有风险。7月15日在罗德岛州州长协会夏季会议上的讲话中,马斯克说,在损失无可挽回之前,政府需要主动规范人工智能。他将人工智能描述为“现代文明面临的最大风险”。

他表示,直到人们看到机器人走上街头杀人才警惕,就晚了;目前他们不知道如何反应,因为它(人工智能)似乎如此飘渺。

他在技术网站Recode的评论中说:“人工智能是一个罕见情况,我认为我们需要积极主动的监管而不是被动(行事)。因为当我们在人工智能法规中被动作出反应时,已经为时已晚。”

根据联合国的网站资料显示,联合国负责关注这些武器类型的团体原定周一会面讨论,但已遭取消,将延后至11月再行讨论。

各国研发自主武器

虽然杀人机器人目前看似只存在于科幻小说中,如终结者的T-800或ROBOCOP机器战警ED-209,但在现实中,致命的自主武器已经在使用。三星的SGR-A1哨兵据说在技术上有能力自主射击,它拥有监视、语音识别和跟踪能力,且可用机枪或榴弹发射器射击。

由BAE系统公司开发的英国塔拉尼斯无人机(Taranis drone)旨在能够连续携带空对空和空对地弹药,并具有充分的自主权。

俄罗斯、美国和其它国家正在开发可以远程控制或自主操作的机器人坦克,这些项目包括俄罗斯Uran-9无人战斗地面车辆的自主版本以及改装成自主系统的常规坦克。#

责任编辑:李缘

相关新闻
新创风险高 硅谷种子投资退 分析指两原因
人工智能泡沫太大 “失控”状态再引关注
硅谷企业屈从中共内幕曝光
富士康再投数十亿 在密歇根研发自驾车
如果您有新闻线索或资料给大纪元,请进入安全投稿爆料平台
评论