弘正义:中共利用人工智能发展科学难进步的根本原因

【大纪元2024年04月18日讯】把科技激励起来就能发展好科学吗?不是。导致中共国在人工智能上落后的还有一个比芯片更严重的原因。这个原因很少有人说,为什么?因为这相关到中共的独裁专制和维稳问题。

人们现在一讲到这个AI的问题,人们都知道必须有计算机,而计算机核心就是芯片,然而现在西方不让中共国用这高级芯片。

从另一个角度上去看这个问题,给不给高级芯片不是关键,因为差一点的芯片也可以的。但是把这个事放到一边,主要要看人工智能真正需要的是什么?真的是高级芯片吗?并不是这样的。

在许多领域,只要计算机的计算是以人类普世的价值观为指导的,人工智能以其超强的记忆力和快速地运算等还可以将人们从一些文化沉淀当中解放出来,并更好地拓展思路,让人们看到更多的可能性,人类的智慧是奇妙的,很容易陷入陷阱,而计算机有助于避免这类陷阱,这是最关键的。

只要计算机的计算所依据的主要的价值观是人类普世的价值观,则人类普世的价值观的内涵和外延就符合人类的先进的规范,会给人类带来美好的一切。否则就会带来灾难。这实际上涉及到人工智能的发展方向和规范等问题。

这就是说算法的先进性到底在哪?算法应当是以人类普世价值观为基础的,构建出来这种算法,然后才能得到后面的结果。后面的结果是什么?人工智能可以将人们从一些文化的沉淀当中解放出来,更好地拓展思路,让人们看到更多的可能性。

换言之,假如说这个算法不是建立在人类普世价值观上,不具有符合人类普世价值观的开放和自由。那么这个算法即使设计出来了,它也不是个好的算法。为什么它不是个好的算法?就是它不能拓展人们的思路,不能向我们提供更多的可能性。这好像是高大上。其实很简单,就像在现实的生活当中,最重要的什么?最重要的是深邃的思想,而不是所谓的自然科学领域的东西。所以,那是人文领域的东西,要让这个思想得到解放,解放到符合人类普世价值观上。后来的所有的东西逐渐地是一个自然而然的过程。

思想解放到符合人类普世价值观了,科技逐渐地就会有成果。科技也不是一天来的,西方人也是一点一点地把科技积累起来,为什么?就是由于要有符合人类普世价值观的自由的思想。比如讲人们如果现在设计一个人工智能的话,设计一个算法的话。比如问了它一个问题,它就尽可能全面地回答了这个问题。

最简单得就像Chat GPT一样。就要问一个问题,在这个答案当中需不需要考虑违禁词的问题?在这个给出答案的过程当中,需不需要考虑这个答案是否符合主流思想的问题?如果有了这两条都不用更多的了,就有这两条之后,那么想问一下这样的算法还能基于人类普世价值观念吗?显然不能。如果不能基于人类普世价值观念,那么还能够将人们从一些文化的呈现当中解放出来吗?不能。会加深人们的文化正见,还能够更好的拓展人们的思路吗?不会,这样会压缩人们的思路,让人们思想变得更加僵化。变成说计算机都这么说,那简直就是千真万确。它能够让人们看到更多的可能性吗?也不可能!

所以说没有了这些东西,这样的算法不是基于人类普世价值观念的。那么后来其他的一切问题即使给出了,这些东西又有什么价值呢?这就是人们一直在强调的,在谈到这些问题时是涉及到对普世价值和人工智能发展方向与规范的认知的问题。

首先要搞清楚算法是什么东西。不要以为说算法真的像算一道题一样,不是这样的,它是一个思考的过程,它是一个选择的过程,它是一个搜索的过程。要知道了这些之后,就必须要知道说它这个搜索的依据,它选择的依据一定得是正确的。

所以,说真正要搞人工智能,首先来讲是要搞这些,是要搞算法那个依据要让它客观公正,要让它是一个合情合理的,要让它是符合人类普世价值观念的。

中共国没有这些东西的,则后来的所有的算法是没有真正价值,没有真正意义的。所以说,就说上面结论的价值至少向人们展示了一个非常深刻的道理。如中共国这些东西是这样的,那么可以毫不客气的讲,中共国在人工智能上不可能去超越人的。导致中共国在人工智能上落后的一个比芯片更严重的原因就是这个原因。

那么人工智能又相关于人文科学和自然科学等的很多方面,那么中共国的人文、科学和技术等的很多方面也就会落后了。甚至更低一些的人工智能的搜索引擎,如中共国国内的百度和国外的Google两个搜索引擎就是建立在不同价值观基础上的。

例如,西方的搜索引擎Google对外宣传遵守人类的普世价值,不作恶等;而形成鲜明相反对照的是中国大陆的百度就使伪劣医院上检索,伪劣医院给的钱越多,上的检索越靠前等,导致多种人命事故发生等。

现在要做好真正的科研,在中国大陆,人们都要冒着被中共非法处理的风险通过翻墙去Google搜索才能够搜索到真正有利于所做的无论是文科还是理科以及应用等的研究。这样可见科技人员在中共国的生存和发展是多么的困难,这些也就是为什么中共国引进了大量的国际教授级人才,现在基本上是清零了,只有极少数个别的留下来了的原因之一。对于人工智能的语言模型更是需要遵守人类普世价值。

特别是我们已经证明马克思主义的整个理论体系,都是反科学、反社会和反人类的。那么建立在这样一种反科学、反社会和反人类体系上的人工智能肯定要误导中共国的整个的人文科学和自然科学等。那么中共国的人文科学和自然科学等的相关发展就会更加落后。这也是中共国人文科学、自然科学和技术利用人工智能难于真正进步的宿命。(相关阅读弘正义,马克思主义整个理论体系都是反科学、社会和人类的

无论是相对于文科还是理科以及技术来说,关于0~1的原始创新牵扯到符合人类普世价值的思想自由和私有财产保护等。没有这些,最原始的创新就没有办法真正地进行得好。特别是在共产主义国家,根本没有符合人类普世价值的思想自由,思想被禁锢,只允许有反科学、反社会和反人类的三反的马克思主义的学说作为指导思想统治一切,那就更难有真正对科学、社会和人类来说的真正好的和水平很高的原始创新的成就了。这也就是人们看到中共建政70多年,几乎没有看到对人类科学取得真正的0~1的原始创新的原因。

中共国只有彻底放弃反科学、反社会和反人类的马克思主义,才能够回避上面的这些问题,与世界接轨,才能给中国带来新的希望。否则中共国只能艰难地在马克思主义邪教(特别是马克思主义邪教在文革中早请示、晚汇报等的狂热远超过一般宗教)统治下的污泥浊水的沼泽地里慢慢地艰难爬行,中国将没有希望,中华民族只能够在中共的反科学、反社会和反人类的马克思主义的邪教的绑架下艰难地呻吟、挣扎……

例如,现在中共国经济严重下滑,大量的失业人口,人们如果没有钱看重病,则只有在家里等死,食品安全等到了极其可怕的程度,各种问题层出不穷。人们已经认识到中共治理下:医疗服务搞不好,是因为有“特需”;食品安全搞不好,是因为有“特供”;市场经济搞不好,是因为有“特色”;法治建设搞不好,是因为有“特权”。

第二次世界大战时期,降落伞有百分之一的打不开,意味着百分之一的生命就要因为质量问题而丢掉性命。美军一再要求改进,反馈回来是生产厂家已经尽全力了,没有办法了,只能够这样了。问题最后到美军司令官那里,美军司令官命令对每一批产品,首次试用的是降落伞的厂长。结果合格率为百分之百。

所以,上面那么多搞不好的原因就可知了,即对中共国的独裁专制的决策官员自己来说根本就没有这些问题,所以他们根本不会把这些问题放在心上。

责任编辑:金岳

相关新闻
荆楚:马克思主义六大逻辑错误(上)
专家:中共若主导AI领域 将摧毁自由与民主
弘正义:马克思主义的哲学是反科学、社会和人类的
AI时代 意识形态对AI的控制和影响(2)
如果您有新闻线索或资料给大纪元,请进入安全投稿爆料平台
评论