在陈述这种可能性时,对计算机、ai的所谓“自我意识”,方然并未丝毫涉及,他认为这一点也不重要。
什么是“自我意识”,计算机,什么时候需要仰赖人来评头论足一番,用碳基生物的“自我意识”之概念去判断基础大相径庭的另一种存在,而不顾其本质能力究竟如何,这种做法,简直就是一种傲慢。
人类的判断,加诸于计算机系统之上,至多也只是在一些很简单的场合,才比较有把握。
譬如“加法器”,功能单一的整合电路,不论设计者如何堆砌零件,把运行其上的代码优化到什么样的程度,都无法作为“自我意识”的证据,这是很显然的。
然而一旦系统规模超限,突破某临界值,站在人类立场去判断ai是否有自我意识,就是完全的不可能。
和在场专家们不同,没有一直纠结在“自我意识”上,方然更在意的是风险。
无须调研,他也能确切的知道,“创造性思维繫统”的价值,在于抢佔科技研发的制高点,其带来的风险,则是“觉醒”的计算机系统,一定会反噬其创造者,因此而始终没下定决心去做这件事。
现在,藉由斯蒂芬霍肯的话,意识到局面险恶,他才开始很认真的思考这一问题。
管理员的想法,大抵如此,在座的专家们则各有算盘。
如莱斯利兰伯特这样的研究者,为什么抵触这研究,道理,是不言自明的,任何一位参与研究的科学家都明白,搞这种系统,就是在自己给自己挖坑。
这种划时代的东西,失败,还则罢了,倘若真的成功,一旦系统具备“创造性研究”的综合能力,包括自己在内的所有研究者,迟早都会被不知疲倦、永远忠诚的研发机器人所替代,最终仍难免一死。
身为管理员,方然着眼于文明的整体,身为研究者,却只顾关注自己的命运:
科学家们是怎么想的,并不清楚,自己暂且先这样认为。
“阿达民先生,恕我直言,我一直极不赞成‘创造性思维繫统’的研究。
计算机,ai,这些事物发展到今天,在很多领域已经远远胜过了人,这固然是事实,但,又有什么理论能保证,计算机与ai能够在一切领域胜过人?
即便着眼未来,这句话有一天会成为现实,到那时,人类的地位、处境又会怎样,身为人类中的一员,先生,即便您的地位、处境与我们这些人,也和外面定居点里的一大群民众不同,面对吉凶未卜的‘那种系统’,结局恐怕也会是一样的。
这种巨大的风险,您,真的从未考虑过,说真的这让我有一点难以置信。”
“让我想想,您,还有专家组的成员们,是不是觉得,这种研究就是人类在自掘坟墓?
还是说,您只是在担心,有朝一日被‘系统’取代呢。”
方然的语气,夹杂着某种挪揄,他认为这就是莱斯利兰伯特的动机。