site logo: www.epochtimes.com

谢田:无人驾驶车的利他主义原则(中)

无人驾驶汽车如果在路上正式运行,必须依照人类拟定的“利他主义”原则,才不会酿成大祸。图为英国伦敦的一辆自驾车在测试之中。(Getty Images)

无人驾驶汽车如果在路上正式运行,必须依照人类拟定的“利他主义”原则,才不会酿成大祸。图为英国伦敦的一辆自驾车在测试之中。(Getty Images)

人气: 299
【字号】    
   标签: tags: , ,

【大纪元2017年09月05日讯】关于机器人可能会反制人类,机器人可能不受人类的控制,最近已经有了新的、可怕的趋势。脸书的研究人员发现,人工智能(AI)的程序可以使用一种人不懂而只有计算机(电脑)懂得的语言,进行它们之间的对话。因为这个程序创建了自己的语言,所以脸书的科研人员最后关闭了这样的人工智能(AI)语言程序。他们的研究人员意识到,非常令人可怕的是,人工智能程序产生的新语言不是英语,而是仅能被它自己识别的代码。这是今年七月被披露的事件。

为此,特斯拉电动汽车创始人马斯克(Elon Musk)也对人工智能提出了警告。马斯克对美国的州长们说,需要积极主动地而不是被动地对人工智能进行监管。他甚至担心,当人们真正需要对人工智能进行监管时,可能就已经太迟了。虽则如此,马斯克自己的OpenAI实验室,也成功的让人工智能机器人开发出了自己的语言。

很多人都很愉快的使用谷歌的机器翻译功能,并且在实际运用中帮助谷歌完善机器的翻译效能。但谷歌的翻译服务团队发现,他们的人工智能程序可以静悄悄地编写自己的机器语言,来帮助翻译句子。值得人们警惕的是,人类目前根本无法掌握这种机器所使用的新语言的逻辑性!当谷歌的翻译变得日益广泛运用,当世界各地操不同语言的人们、甚至国际会议,都使用谷歌翻译时,那岂不是连人们的思维、沟通、交往,都会被机器人和机器人背后的力量所控制和左右?!

目前,世界各国的主要汽车厂商对自驾车的“自主程度”有不同的处理方法和态度。大众集团(Volkswagen Group)旗下品牌奥迪(Audi)发布了一款可上路行驶的最先进的自动驾驶汽车,允许车主长时间不看道路的系统。新款奥迪A8允许驾驶员在交通拥堵、车速不超过每小时60公里时,让车辆进入自动驾驶状态,而驾驶员可以完全不管。

奔驰、日产和奥迪等车企,采取对车辆逐步增强“自主”程度的态度、在发生紧急情况时把控制权交还给驾驶员。福特和捷豹、路虎比较保守,表示只有当车辆“自主”技术能在所有情形下驾驶车辆时,才会给自己的汽车加装该技术。福特董事长比尔.福特(Bill Ford)表示,自驾车的技术要求不难实现,但道德和制度层面的问题才是最大的难题。

关于机器人时代的伦理,美国科幻作家阿西莫夫早就给出了三条法则。阿西莫夫在1950年出版的短篇小说集《我,机器人》中提出“机器人学三大法则”,被称为是机器人的“摩西十诫”。法则第一条是:机器人不得伤害人类,或因不作为而使人类受到伤害;第二条:除非违背第一法则,机器人必须服从人类的命令;第三条:在不违背第一及第二法则的情况下,机器人必须保护自己。后来,阿西莫夫又补充了第零条法则:机器人不得伤害人类整体,或因不作为使人类整体受到伤害。

但机器人学的三大法则,也难以真正的、完全的解决人和机器的关系问题。阿西莫夫的《机器人与帝国》故事中,一名罪犯犯下重罪,必须被处死,但如果机器人在场看见了,机器人要服从第一法则,就不能对人类个体可能死亡而袖手旁观,它可能就需要去“劫法场”救下那个死刑犯,从而干扰了人类社会的秩序。第二法则的“自保”和第三法则的“服从命令”也有可能发生冲突,从而使得机器人无所适从。

阿西莫夫的“第零法则”,是更高的智慧,涉及人类的整体。但涉及到人类的整体,涉及到人类的前途和命运,这时候机器人插进来,就更可怕。机器人如果看到人类无节制、无限度的盲目发展,导致更多的灾难、战争和贫穷,如果要遵循“第零法则”,机器人就必须选择用机器人自己“理性的头脑”来支配和保护人类,这样人类就不会绝种,但人类自己的自由意志,可能就被机器人夺取了。这是人类希望的吗?我们的世界上,超过85%的人是信神、信佛的,信神信佛的人们相信,人是神佛创造的,如果神造的人就这样被机器人或者机器人背后的势力、生命去左右了人类的人生、生命,神佛会允许这样的事情发生吗?

在道德层面,一个典型的例子就是,当要发生汽车事故时,自驾车是选择救驾驶员,还是选择让驾驶员受伤而去救10个行人?在解释人类社会的行为时,有一个“有轨电车难题”。

在这个经典的思维实验中,一辆有轨电车沿着轨道飞驰而来,马上要撞到五个人。如果你有控制杆可以把电车转到另一个轨道,从而救下这五个人,但是会牺牲掉另一个轨道上的一个人。这个时刻,你怎么办?你是“采取行动但是杀死一个人”还是“什么都不做让五个人死”?这个选择的难处,在于它迫使人们在“不杀生”的个人道德和“救更多的人”的更高的善良之间,进行一番挣扎。

面对“有轨电车难题”,大多数人可能会选择更高的善良,转向救大多数人,而牺牲一个人。但是,人是有强烈的感情的,如果可能的单个受害人是妇女、儿童、弱者或者自己的亲人,实验参与者很有可能让大多数人牺牲,而救下自己的亲人或者一名妇女或儿童。这里,人类做出这种选择,可能都是非常困难的,那显而易见,人类不能让机器去做这个选择,不能让机器决定人的生死。所以,我们必须对机器、机器人、自驾车和电脑做出一定的规范。#

(待续) ◇

责任编辑:刘菁

本文转自546期【新纪元周刊】“商管智慧”栏目

想看到新纪元更多精彩文章吗?请访问新纪元周刊网站:

http://www.epochweekly.com/

评论
2017-09-05 1:06 PM
Copyright© 2000 - 2016   大纪元.