site logo: www.epochtimes.com

AI会带来灾难性后果 加拿大准备好了吗?

2022年10月11日,英国伦敦上议院会议室。 机器人艾达向通信和数码委员会成员发表首次演讲。(Rob Pinney/Getty Images)
人气: 974
【字号】    
   标签: tags:

【大纪元2024年03月18日讯】(大纪元记者王兰多伦多报导)一家领先的人工智能安全公司本周警告称,包括加拿大在内的各国已经没有足够的时间来设计和实施先进人工智能(AI)系统开发和部署的全面保障措施。

据CBC报导,人工智能研究人员在美国国务院委托撰写的一份报告《纵深防御:提高先进人工智能安全性的行动计划》中写道,在最坏的情况下,追求权力的超人人工智能系统可能会逃脱其创造者的控制,并对人类构成“灭绝级”的威胁。

该部门坚持,作者在报告中表达的观点不反映美国政府的观点。

但该报告传达的信息,使加拿大政府迄今为止在人工智能安全和监管方面的行动,重新成为人们关注的焦点——一位保守党议员警告说,政府提出的《人工智能和数据法案》已经过时了。

人工智能与所有人的较量

倡导负责任地开发安全人工智能的美国公司Gladstone AI撰写了这份报告。它的警告分为两大类。

第一个问题涉及人工智能开发人员失去对通用人工智能(AGI)系统控制的风险。 作者将AGI定义为一种可以在所有经济和战略相关领域超越人类的人工智能系统。

虽然迄今为止还不存在通用的人工智能系统,但许多人工智能研究人员相信它们离实现并不遥远。

“有证据表明,随着先进人工智能接近人类和超越人一般能力的AGI水平,它可能会变得实际上无法控制。具体来说,在缺乏对策的情况下,能力很强的人工智能系统可能会从事所谓的权力寻求行为。”作者写道,并补充说,这些行为可能包括防止人工智能本身被关闭或改变其目标的策略。

作者警告说,在最坏的情况下,这种失控“可能对人类构成灭绝级别的威胁”。

“这些系统开始变得本质上危险的创造性的风险。他们能够发明危险的创造性策略来实现其编程目标,同时产生非常有害的副作用。所以这就是我们正在考虑的失去控制的风险。”该报告的作者之一、Gladstone AI首席执行官杰里米·哈里斯(Jeremie Harris)周四在接受CBC采访时表示。

报告中提到的第二类灾难性风险是先进人工智能系统作为武器的潜在用途。

“一个例子是网络风险。”哈里斯说,“例如,我们已经看到了自主代理。你现在可以转到其中一个系统并询问,‘嘿,我希望你为我构建一个应用程序,对吧?’ 这是一件了不起的事情。它基本上是软件工程的自动化。整个行业。这是一件非常好的事情。”

“但是想像一下同一个系统……你要求它执行大规模的分布式拒绝服务攻击或其它一些网络攻击。其中一些非常强大的优化应用程序的访问壁垒下降了,并且恶意软件的破坏性使用这些系统随着它们变得更强大而迅速增加。”

哈里斯警告说,先进人工智能系统的滥用可能会扩展到大规模杀伤性武器领域,包括生物和化学武器。

该报告提出了以美国为首的各国应采取的一系列紧急行动,以防范这些灾难性风险,包括出口管制、监管和负责任的人工智能开发法。

加拿大的立法已经失效了吗?

加拿大目前没有专门针对人工智能的监管框架。

政府于2021年11月推出了《人工智能和数据法案》(AIDA),作为C-27法案的一部分。该法案旨在为加拿大负责任地设计、开发和部署人工智能系统奠定基础。

该法案已在众议院二读通过,目前正在由工业和技术委员会进行研究。

联邦政府还于2023年推出了《先进生成人工智能系统负责任开发和管理自愿行为准则》,该准则旨在暂时为加拿大公司提供共同标准,直至AIDA生效。

在周五(3月15日)的新闻发布会上,工业部长商鹏飞(François-Philippe Champagne)被问到,鉴于人工智能报告中警告的严重性,为什么他仍然相信政府拟议的人工智能法案有能力监管快速发展的技术。

“每个人都在称赞C-27。”商鹏飞说,“我有机会与我的七国集团同事交谈……他们认为加拿大处于人工智能的最前沿,你知道,建立信任和负责任的人工智能。”

保守党议员加纳(Michelle Rempel Garner)在接受CBC采访时表示,商鹏飞对C-27法案的描述完全是无稽之谈。

加纳表示:“专家们在委员会的证词中并不是这么说的,这也不是现实。C-27已经过时了。”

AIDA是在世界领先的人工智能公司之一OpenAI于2022年推出ChatGPT之前推出的。人工智能聊天机器人代表了人工智能技术的惊人演变。

加纳说:“事实上,政府没有实质性地解决在技术发生根本性变革之前提出这项法案的事实……这有点像在印刷机广泛使用后试图监管抄写员。政府可能需要重新开始。”

“到AIDA生效时,将是2026年。前沿人工智能系统的规模将比我们今天看到的扩大数百到数千倍。”哈里斯告诉国会议员,“AIDA的设计需要考虑到这种风险水平。”

哈里斯告诉委员会,AIDA需要明确禁止引入极端风险的系统,解决危险强大的人工智能模型的开源开发问题,并确保人工智能开发人员承担确保其系统安全开发的责任,其中包括防止国家和非国家行为者的盗窃行为。

哈里斯对议员们表示:“AIDA是对现状的改进,但它需要进行重大修改,才能应对近期人工智能能力可能带来的全面挑战。”

责任编辑:严枫#

评论