人工智慧将毁灭人类

恐引发军备竞赛 千名科学家:别开发杀人机器人

人气 106
标签:

【大纪元2015年07月29日讯】(大纪元记者凌妃综合报导)正当人类正在享受人工智能(Artificial Intelligence, AI)所带来的便利之际,一群忧心人工智能发展的科学家,包括霍金、马斯克和乔姆斯基,公开呼吁更多政府与国际组织应该站出来控管人工智能在机器人武器的发展,以避免第三波全球军事竞争革命。

据英国《独立报》(The Independent)7月27日报导,一封来自于上千位知名科学家的公开信表示,杀人武器将在几年之后就问世,而不是数十年后。人类需要有更高的智慧主导人工智能,因为当人类失去对致命武器的控制权时,可能就是人类灾难的开始。

知名科学家公开要求禁止“杀人机器人”

签署这封公开信的科学家、机器人专家以及人工智能研究员超过1,000人,包括霍金(Stephen Hawking)、科技人马斯克(Elon Musk)与“美国人的良心”哲学家、麻省理工教授乔姆斯基(Noam Chomsky)。此外,还包括苹果(Apple)共同创始人沃兹尼亚克(Steve Wozniak)以及数百名来自全球顶尖大学与实验室的人工智能机器人研究员。

生命未来研究所(Future of Life Institute, FLI)也加入连署,该组织旨在减轻人类所面临的生存风险,并警告“军事人工智能军备竞赛”的危险性。

公开信要求禁止“进攻性自主式武器”(Offensive Autonomous Weapons),也就是所谓的“杀人机器人”(Killer Robots)。“杀人机器人”是指,在没有人操作的情况下,机器人完全掌控生杀大权,能够自动选择并瞄凖目标主动攻击。

“杀人机器人”将威胁到人类存在

“杀人机器人”就像电影《机器战警》(RoboCop)以及《魔鬼终结者》(Terminator)中执行任务的机器人。霍金警告,人类进一步开发人工智能,创造可以进行思考的机器武器,将会威胁到人类的存在。

特斯拉(Tesla)执行长马斯克(Elon Musk)形容人工智能是“召唤恶魔”。他说:“我们应该很谨慎地处理人工智能。如果要我猜人类最大的生存威胁是什么,我想那就是人工智能。”

“杀人机器人”恐引起全球第三波军备竞赛

公开信中强调,这些“杀人机器人”可能会根据程序设定自动搜索并毁灭人类,而不是像现在人必须在千里之外的非战区操控武装无人机。

部署人工智能系统在未来几年内就将成为可能,不需要再等几十年的时间。这些“进攻性自主式武器”已成为继火药和核军备之后的第三波军事竞争革命。当“进攻性自主式武器”落入恐怖分子或是独裁者手中,世界则将陷入毁灭的威胁。

虽然实际的“杀人机器人”还没真正问世,但是科技的推进已经让它在不久的将来成为可能。这群专家认为,在未来几年内,机器人武器的科技将变得廉价并无处不在,这恐将降低战争的门槛,使战争更常发生。

“禁止杀人机器人活动”

科学家也警告,不要过分强调人工智能将带给人类的潜在好处,因为机器人武器的威胁更大。现在反对人工智能滥用的声浪也越来越大,像是成立于2012年的“禁止杀人机器人活动”(Campaign To Stop Killer Robots),旨在禁止机器人武器。

“禁止杀人机器人活动”正积极地将该议题搬至在日内瓦召开的联合国“传统武器公约”(Convention of Conventional Weapons)会议上,“传统武器公约”禁止某些特定传统武器的使用,诸如地雷以及激光武器等。

“禁止杀人机器人活动”试图让“传统武器公约”成立一个政府级的专家组织,以能够真正探讨这个议题,最终限制使用杀人机器人。

今年初,英国《卫报》报导,英国在联合国的一个会议中反对禁止杀人机器人,因为他们“还看不到禁止自主式武器的必要性”,但英国外交部官员告诉《卫报》说,英国并没有开发任何这种武器。

责任编辑:林妍

相关新闻
苹果iPad和MacBook将改用OLED 撼动显示器市场
搭机妙招超好用 iPhone一键揭航班状态
韩国选举管理系统漏洞多 恐遭中朝黑客攻击
分析:马斯克新AI计划 如何最大程度寻真相
如果您有新闻线索或资料给大纪元,请进入安全投稿爆料平台
评论