Jiaqi Hu: 第二版前言 霍金提出了三个和我一样的观点
今年是我《拯救人类》一书的第一版出版十周年的时间,十年间科学技术又有了飞速的发展,人类社会也有了许多的不同。
回想十年前,《拯救人类》出版发行时几乎没有一个人全部认同我的几个核心观点,哪怕只是认同我的某一个核心观点的人都少之又少。然而,仅仅短短的十年,人类历史的一瞬间,科学技术的发展却已很大程度地改变了世界的认知。一些我当时的预言似乎今天就快要变为现实。以至于一些著名的科学家和学者都陆续提出了一些和我类似,甚至于是完全相同的观点。
以“霍金提出了三个和我一样的观点”为名作为《拯救人类》的第二版前言,就是想借当今世界最著名的物理学家史蒂芬·霍金展开我的说明。其实,这十年来提出和我相同的一些观点的科学家有很多,以霍金为例完全只是因为他的名气大的缘故。
说“霍金提出了三个和我一样的观点”当然是想借霍金的名气衬托我研究成果的重要,这一点我毫不讳言。说是“霍金提出了和我一样的观点”而不是相反,是因为我提出的观点在先,霍金提出的观点在后,而且我提出的观点比他要早很多。这三个观点都在2007年出版的《拯救人类》第一版中有明确与详细阐述。
第一个观点:2010年4月,霍金指出,外星人几乎肯定存在,我们应该避免与外星人接触,千万不要联系外星人,如果联系外星人有可能会导致人类被毁灭,因为人类斗不过外星人。霍金的推理和举例与我的完全一致,但比我晚了三年。
第二个观点:2014年12月霍金指出,人工智能技术终将产生自我意识并取代人类,因为技术的发展速度要快于生物的进化速度,当人工智能发展完善后,可能会导致人类灭绝。霍金的推理和举例与我的基本一致,但比我晚了七年。
第三个观点:也就是今年(即2017年)3月霍金在接受《伦敦时报》采访时指出,人工智能如果管控不好有可能灭绝人类,我们需要以更快的速度识别这类威胁,并在失控前采取行动,要做到这一点,需要组建某种形式上的世界政府。霍金的推理和举例与我的基本一致,但比我晚了十年。
以上观点肯定不是我借鉴了霍金的,多半是他借鉴了我的,不仅因为我在先,他在后,而且我的相关著作和文章不但发给过多国领导人和多个机构,其电子版都用中、英两种文字在多个网站上公开发过,不只有中国的网站,还有美国、英国等国家的科技、社会和政治类英文网站。
我想说,世界顶级科学家思考的观点正在趋近我的核心观点,而这些核心观点我认为事关人类的生死存亡,努力让世界接受这这些观点并采取相应的行动,这才是最重要的。同时我还想说,霍金的观点还不够深入,不够全面,不够彻底。
还在1979年我刚上大学不久就产生了一个很怪的想法,科学技术是一把双刃剑,既能造福人类,也能毁灭人类,那么科学技术照此发展下去会不会有一天把人类给灭绝。如果在不久的未来科学技术就会灭绝人类无疑是天大的事,那么我们有没有可能解决这一问题呢?很快我就觉得这是一个很值得研究的课题,人的一生难得做成一件值得去做的大事。不久后我就决定,我这一辈子只有这一个事业。我从国家机关下海经商也是为了这一事业,因为有一定的经济基础后就可以静下心来进行研究与写作,并有条件推广我的研究成果。
几十年过去了,对于我而言,这件大事早已不止是一个事业,更多的是一份责任和使命,因为我的研究结论非常可怕,它告诉我,人类的发展道路出现了根本的方向性错误,这种错误有可能彻底葬送人类,使人类坠入万劫不复的灭绝深渊,而没有重新再开始的机会。
要严密地论证科学技术是否会灭绝人类,并找到化解这一危机的方案是很难的,完成这一工作我用了近二十八年的时间,并终于在2007年1月完成了我的《拯救人类》一书。这部八十万字的著作在还是样书的时候,我就将其寄给过中国国家主席、美国总统和联合国秘书长等26位人类领袖,除了伊朗使馆来过一个电话外,再没有任何反馈。
2007年7月,《拯救人类》分一、二卷由同心出版社出版,但仅发行了一天就被要求停止发行。
之后我又出版了《最大的问题》一书,还在香港出版了《论人类灭绝》和《拯救人类(精选本)》两部书,并发表过多篇文章,而且将《拯救人类(精选本)》和多篇文章用中、英文放到了网上。并为此建了一个网站,名为“胡家奇网”。为了陈述自己的观点和建议,我之后又多次给各大国的领导人和联合国秘书长等人类领袖,以及相关机构写信,还在一些大学和研究机构发表过演讲。
我曾与许多人进行过交流,但我的核心观点常被认为是杞人忧天,有些人甚至直言不讳地说我的观点是谬论。
虽然今天已经有不少科学家和学者提出了一些和我相同的观点,这是我感到欣慰的地方,但也非常遗憾,我最核心的观点目前还没有有分量的人提出,也没有有分量的人认可,这是我忧心如焚的事,因为留给人类的时间真的已经不多。
这些年的研究我形成了几个核心观点和一系列的分观点,做为《拯救人类》第二版的前言,这里只谈我的三个具有现实意义的核心观点,其他的核心观点本书都有全面的阐述。
我的第一个具有现实意义的核心观点是:科学技术的继续发展必定很快灭绝人类,长则二、三百年,短则就在本世纪,而且我认为多半会是后者。
其实现在已经有人提出了和我几乎一样的观点,2013年5月,与霍金同在一座城市的牛津大学人类未来研究院发布研究成果指出,人类最早将在下世纪被灭绝,罪魁祸首就是科学技术。这是由众多数学家、哲学家、科学家组成的专门的小组研究得出的结论。该研究成果和用例与我的研究成果与用例几乎完全一致,但比我晚了六年。
该研究院的院长尼克·博斯特罗姆在接受网络采访时表示:“人类的科技能力与人类运用这些能力的智慧正在展开一场重大比赛,我担心前者可能会遥遥领先于后者。”(博斯特罗姆说的这一担忧我称为进化失衡现象,曾发表过专门文章)。
博斯特罗姆进一步阐述:行星撞地球、超级火山、核爆炸等危害不足以威胁人类的生存,人类最大的威胁来自科技创新所带来的“不确定因素”,如合成生物学、纳米技术和人工智能,以及其它还没有出现的科学技术成果。
当我得知牛津大学未来研究院得出了与我一样的研究成果后喜出望外,随即写了一封“致:牛津大学人类未来研究院院长尼克·博斯特罗姆教授”的信,同时我又写了一篇文章“终于有了知音”,这两部分文字我都翻译成英文发给了尼克·博斯特罗姆并放到了网上,为了引起对方的重视,我还用了我是北京市门头沟区政协委员的头衔,但始终没有回复。
2016年初,由谷歌开发的智能机械人“阿尔法狗”战胜韩国围棋高手李世石,震惊了世界,这充分显示机械人已经具备了深层学习的能力,对其进一步的思考是很怕的。随即霍金、马斯克、比尔·盖茨等世界顶级科学家都指出,人工智能的发展可能成为人类面临的最大的生存威胁。因为,当智能机械人具备了人类的思考能力和自我意识后将会比人类的反应能力高出千倍、万倍以至亿倍,高等物种毁灭低等物种的简单道理告诉我们,那时人类再想控制它就困难了。
2016年5月比尔·盖茨在红迪网站“有问必答”(AMA)栏目中指出,“再过几十年,人工智能就会强大得足以引起担忧,……不知道为什么有些人对此无动于衷”。这促使我考虑,我的公司也要抓紧进行人工智能的研究,因为我不研究,许多人也在研究,我研究还能跟踪这一技术的动向,如人类真有不测,到时也许还能帮得上忙。
我的第二个具有现实意义的核心观点是只有实现人类的大统一,即成立世界政府,建立世界政权才有可能把握科学技术的研究方向。即霍金提出的用“世界政府”把握人工智能的观点。
上述道理是,任何国家都不可能真心实意去把控科学技术,因为国家之间是竞争关系,失败者有可能亡国灭种,而科学技术是第一生产力,国家之间的竞争关键是科学技术的竞争,谁会为了人类的整体利益失去国家竞争的优势呢?!联合国出面也做不成这件事,只有实现人类的大统一,建立世界政府,世界政府是站在全世界和全人类的立场而非国家的立场考量一切,没有国家竞争的压力,便可以用世界政权的力量把控全球。
我的第三个具有现实意义的核心观点,也是目前还没有有一定影响的人接受的观点是,为了避免人类的灭绝必须从现在起就要严格限制科学技术的发展。因为科学技术有不确定性,越是高深的科学技术越难把控,连最顶级的科学家也不能完全准确地预测科学技术成果带来的后果,正如就连爱因斯坦、牛顿以及霍金本人也有不少科学判断的失误一样,正如有不少科技成果已经给我们带来了不少灾难一样。
科学技术已经发展到现在这样的高度后还在冒然前行,风险之大谁都难以预测。将现有安全、成熟的科技成果广泛普及到全球,并进行合理的管理,完全可以保障全人类丰衣足食。如果向科学技术进行无限制的索取,人类灭绝必将为时不远。道理是,也许有一些高科技成果对人类无害,但不可能所有的高科技成果都对人类无害;也许我们能够把控一些高科技的发展方向和使用方向,但不可能把控所有高科技的发展方向和使用方向。常在河边站哪有不湿鞋,夜路走多了必定碰到鬼,只要有一次大的科技失误人类的路就走到了尽头。霍金认为管控好人工智能就能解决问题,那么我们能够管控一时,能够管控永远吗?!能够管控一项科技成果,能够管控所有科技成果吗?!只有通过世界政权的力量,将现有安全成熟的科技成果进行严格筛选后加以普及利用,而后将其他的科技成果和科学理论严密、永久地封存并达到遗忘,同时严格限制科学技术研究,这才是人类永续未来的唯一途径。这正是我认为霍金的认识还不够深刻和全面的地方。也许人们认为这是谬论,但我坚信这是真理。
这里需要澄清的是,说限制科学技术的发展不是否定科学技术对人类的正面作用,只是担心它的负面作用有可能彻底灭绝人类;说限制科学技术的发展不是只要中国或美国限制,也不是只要中国或美国首先限制,而是全球要同步限制。
另外,我还说一下霍金与我就外星人的问题提出了相同观点的事,这只是我的一个分观点。
我认为外星人肯定存在,因为宇宙中有几千亿的星系,每个星系又有数亿颗恒星(我们所在的银河系有二、三千亿颗恒星),能够孕育智慧生命的是绕恒星运转的行星,所以,有可能孕育智慧生命的星球即使概率极小,但总量都会很大。
但是,外星人要穿越恒星际的距离来到地球却是非常困难的。恒星间的距离论光年计,如距我们所在的太阳系最近的恒星是半人马座α星,即比邻星,距离我们都达4.25光年。即使采用我们目前最快的非载人航天器也要数万年才能到达,而要载人就更是困难得多,况且比邻星周边几乎肯定不可能有智慧生命的存在。因为比邻星是三合星,也就是三颗恒星绕在一起,这样的星球周边是不适合生命生存的。由此可知,地球形成了46亿年,最早的微生物距今42.8亿年,我们一直都没有确切地在地球上发现外星人的痕迹应该正是在于此。
然而,如果有一天外星人真的来到了地球就麻烦了,因为宇宙诞生了138亿年,宇宙中在四五十亿年前就有可能出现了智慧生命,能够穿越恒星际的距离来到地球的外星人,其科学技术的领先程度且能是我们用千年、万年甚至亿年可以赶上的?自然规则告诉我们,高文明群体鄙视低文明群体,高等物种杀戮低等物种甚至将其当成自己的食物煎炸烹烤。文明程度高出我们不知道多少倍的外星人来到地球后我们地球人多半就像美洲印第安人和澳洲土著人面对殖民主义者的命运一样,甚至更糟。所以,我们千万不要联系外星人。现在一些人热衷于向外星人传递信息,其实是很不理性的。
最后,我认为拯救人类要靠人类自己,而最具拯救人类能力的是大国领袖,我本人作为一个学者,只能起到呼吁的作用,这就是我多次给大国领袖写信的原因。
其实,如果坚信我的第三个核心观点,得出只有实现大统一才能拯救人类这一结论就是顺理成章的。被称为“人工大脑之父”的雨果·德·加里斯相信人工智能会灭绝人类,但他却认为高等物种灭绝低等物种是理所当然的,人工智能灭绝人类也是理所应当的,而制造这种高等物种的人就是神,是上帝。那么让我们试想,作为人类这一物种本身,我们能够容忍被灭绝吗?
在开始《拯救人类》第二版修改工作时,电影院正在放映一部电影《生化危机:终章》,说的是一个高科技公司研制出了一种可以灭绝人类的生化武器,公司的股东们便策划只保留本公司的股东,而将全人类其他的所有都灭绝。这种事只有那些丧尽天良的家伙才会干。但全世界那么多高科技企业,就没有一些丧尽天良者吗?
回想十年前,《拯救人类》出版发行时几乎没有一个人全部认同我的几个核心观点,哪怕只是认同我的某一个核心观点的人都少之又少。然而,仅仅短短的十年,人类历史的一瞬间,科学技术的发展却已很大程度地改变了世界的认知。一些我当时的预言似乎今天就快要变为现实。以至于一些著名的科学家和学者都陆续提出了一些和我类似,甚至于是完全相同的观点。
以“霍金提出了三个和我一样的观点”为名作为《拯救人类》的第二版前言,就是想借当今世界最著名的物理学家史蒂芬·霍金展开我的说明。其实,这十年来提出和我相同的一些观点的科学家有很多,以霍金为例完全只是因为他的名气大的缘故。
说“霍金提出了三个和我一样的观点”当然是想借霍金的名气衬托我研究成果的重要,这一点我毫不讳言。说是“霍金提出了和我一样的观点”而不是相反,是因为我提出的观点在先,霍金提出的观点在后,而且我提出的观点比他要早很多。这三个观点都在2007年出版的《拯救人类》第一版中有明确与详细阐述。
第一个观点:2010年4月,霍金指出,外星人几乎肯定存在,我们应该避免与外星人接触,千万不要联系外星人,如果联系外星人有可能会导致人类被毁灭,因为人类斗不过外星人。霍金的推理和举例与我的完全一致,但比我晚了三年。
第二个观点:2014年12月霍金指出,人工智能技术终将产生自我意识并取代人类,因为技术的发展速度要快于生物的进化速度,当人工智能发展完善后,可能会导致人类灭绝。霍金的推理和举例与我的基本一致,但比我晚了七年。
第三个观点:也就是今年(即2017年)3月霍金在接受《伦敦时报》采访时指出,人工智能如果管控不好有可能灭绝人类,我们需要以更快的速度识别这类威胁,并在失控前采取行动,要做到这一点,需要组建某种形式上的世界政府。霍金的推理和举例与我的基本一致,但比我晚了十年。
以上观点肯定不是我借鉴了霍金的,多半是他借鉴了我的,不仅因为我在先,他在后,而且我的相关著作和文章不但发给过多国领导人和多个机构,其电子版都用中、英两种文字在多个网站上公开发过,不只有中国的网站,还有美国、英国等国家的科技、社会和政治类英文网站。
我想说,世界顶级科学家思考的观点正在趋近我的核心观点,而这些核心观点我认为事关人类的生死存亡,努力让世界接受这这些观点并采取相应的行动,这才是最重要的。同时我还想说,霍金的观点还不够深入,不够全面,不够彻底。
还在1979年我刚上大学不久就产生了一个很怪的想法,科学技术是一把双刃剑,既能造福人类,也能毁灭人类,那么科学技术照此发展下去会不会有一天把人类给灭绝。如果在不久的未来科学技术就会灭绝人类无疑是天大的事,那么我们有没有可能解决这一问题呢?很快我就觉得这是一个很值得研究的课题,人的一生难得做成一件值得去做的大事。不久后我就决定,我这一辈子只有这一个事业。我从国家机关下海经商也是为了这一事业,因为有一定的经济基础后就可以静下心来进行研究与写作,并有条件推广我的研究成果。
几十年过去了,对于我而言,这件大事早已不止是一个事业,更多的是一份责任和使命,因为我的研究结论非常可怕,它告诉我,人类的发展道路出现了根本的方向性错误,这种错误有可能彻底葬送人类,使人类坠入万劫不复的灭绝深渊,而没有重新再开始的机会。
要严密地论证科学技术是否会灭绝人类,并找到化解这一危机的方案是很难的,完成这一工作我用了近二十八年的时间,并终于在2007年1月完成了我的《拯救人类》一书。这部八十万字的著作在还是样书的时候,我就将其寄给过中国国家主席、美国总统和联合国秘书长等26位人类领袖,除了伊朗使馆来过一个电话外,再没有任何反馈。
2007年7月,《拯救人类》分一、二卷由同心出版社出版,但仅发行了一天就被要求停止发行。
之后我又出版了《最大的问题》一书,还在香港出版了《论人类灭绝》和《拯救人类(精选本)》两部书,并发表过多篇文章,而且将《拯救人类(精选本)》和多篇文章用中、英文放到了网上。并为此建了一个网站,名为“胡家奇网”。为了陈述自己的观点和建议,我之后又多次给各大国的领导人和联合国秘书长等人类领袖,以及相关机构写信,还在一些大学和研究机构发表过演讲。
我曾与许多人进行过交流,但我的核心观点常被认为是杞人忧天,有些人甚至直言不讳地说我的观点是谬论。
虽然今天已经有不少科学家和学者提出了一些和我相同的观点,这是我感到欣慰的地方,但也非常遗憾,我最核心的观点目前还没有有分量的人提出,也没有有分量的人认可,这是我忧心如焚的事,因为留给人类的时间真的已经不多。
这些年的研究我形成了几个核心观点和一系列的分观点,做为《拯救人类》第二版的前言,这里只谈我的三个具有现实意义的核心观点,其他的核心观点本书都有全面的阐述。
我的第一个具有现实意义的核心观点是:科学技术的继续发展必定很快灭绝人类,长则二、三百年,短则就在本世纪,而且我认为多半会是后者。
其实现在已经有人提出了和我几乎一样的观点,2013年5月,与霍金同在一座城市的牛津大学人类未来研究院发布研究成果指出,人类最早将在下世纪被灭绝,罪魁祸首就是科学技术。这是由众多数学家、哲学家、科学家组成的专门的小组研究得出的结论。该研究成果和用例与我的研究成果与用例几乎完全一致,但比我晚了六年。
该研究院的院长尼克·博斯特罗姆在接受网络采访时表示:“人类的科技能力与人类运用这些能力的智慧正在展开一场重大比赛,我担心前者可能会遥遥领先于后者。”(博斯特罗姆说的这一担忧我称为进化失衡现象,曾发表过专门文章)。
博斯特罗姆进一步阐述:行星撞地球、超级火山、核爆炸等危害不足以威胁人类的生存,人类最大的威胁来自科技创新所带来的“不确定因素”,如合成生物学、纳米技术和人工智能,以及其它还没有出现的科学技术成果。
当我得知牛津大学未来研究院得出了与我一样的研究成果后喜出望外,随即写了一封“致:牛津大学人类未来研究院院长尼克·博斯特罗姆教授”的信,同时我又写了一篇文章“终于有了知音”,这两部分文字我都翻译成英文发给了尼克·博斯特罗姆并放到了网上,为了引起对方的重视,我还用了我是北京市门头沟区政协委员的头衔,但始终没有回复。
2016年初,由谷歌开发的智能机械人“阿尔法狗”战胜韩国围棋高手李世石,震惊了世界,这充分显示机械人已经具备了深层学习的能力,对其进一步的思考是很怕的。随即霍金、马斯克、比尔·盖茨等世界顶级科学家都指出,人工智能的发展可能成为人类面临的最大的生存威胁。因为,当智能机械人具备了人类的思考能力和自我意识后将会比人类的反应能力高出千倍、万倍以至亿倍,高等物种毁灭低等物种的简单道理告诉我们,那时人类再想控制它就困难了。
2016年5月比尔·盖茨在红迪网站“有问必答”(AMA)栏目中指出,“再过几十年,人工智能就会强大得足以引起担忧,……不知道为什么有些人对此无动于衷”。这促使我考虑,我的公司也要抓紧进行人工智能的研究,因为我不研究,许多人也在研究,我研究还能跟踪这一技术的动向,如人类真有不测,到时也许还能帮得上忙。
我的第二个具有现实意义的核心观点是只有实现人类的大统一,即成立世界政府,建立世界政权才有可能把握科学技术的研究方向。即霍金提出的用“世界政府”把握人工智能的观点。
上述道理是,任何国家都不可能真心实意去把控科学技术,因为国家之间是竞争关系,失败者有可能亡国灭种,而科学技术是第一生产力,国家之间的竞争关键是科学技术的竞争,谁会为了人类的整体利益失去国家竞争的优势呢?!联合国出面也做不成这件事,只有实现人类的大统一,建立世界政府,世界政府是站在全世界和全人类的立场而非国家的立场考量一切,没有国家竞争的压力,便可以用世界政权的力量把控全球。
我的第三个具有现实意义的核心观点,也是目前还没有有一定影响的人接受的观点是,为了避免人类的灭绝必须从现在起就要严格限制科学技术的发展。因为科学技术有不确定性,越是高深的科学技术越难把控,连最顶级的科学家也不能完全准确地预测科学技术成果带来的后果,正如就连爱因斯坦、牛顿以及霍金本人也有不少科学判断的失误一样,正如有不少科技成果已经给我们带来了不少灾难一样。
科学技术已经发展到现在这样的高度后还在冒然前行,风险之大谁都难以预测。将现有安全、成熟的科技成果广泛普及到全球,并进行合理的管理,完全可以保障全人类丰衣足食。如果向科学技术进行无限制的索取,人类灭绝必将为时不远。道理是,也许有一些高科技成果对人类无害,但不可能所有的高科技成果都对人类无害;也许我们能够把控一些高科技的发展方向和使用方向,但不可能把控所有高科技的发展方向和使用方向。常在河边站哪有不湿鞋,夜路走多了必定碰到鬼,只要有一次大的科技失误人类的路就走到了尽头。霍金认为管控好人工智能就能解决问题,那么我们能够管控一时,能够管控永远吗?!能够管控一项科技成果,能够管控所有科技成果吗?!只有通过世界政权的力量,将现有安全成熟的科技成果进行严格筛选后加以普及利用,而后将其他的科技成果和科学理论严密、永久地封存并达到遗忘,同时严格限制科学技术研究,这才是人类永续未来的唯一途径。这正是我认为霍金的认识还不够深刻和全面的地方。也许人们认为这是谬论,但我坚信这是真理。
这里需要澄清的是,说限制科学技术的发展不是否定科学技术对人类的正面作用,只是担心它的负面作用有可能彻底灭绝人类;说限制科学技术的发展不是只要中国或美国限制,也不是只要中国或美国首先限制,而是全球要同步限制。
另外,我还说一下霍金与我就外星人的问题提出了相同观点的事,这只是我的一个分观点。
我认为外星人肯定存在,因为宇宙中有几千亿的星系,每个星系又有数亿颗恒星(我们所在的银河系有二、三千亿颗恒星),能够孕育智慧生命的是绕恒星运转的行星,所以,有可能孕育智慧生命的星球即使概率极小,但总量都会很大。
但是,外星人要穿越恒星际的距离来到地球却是非常困难的。恒星间的距离论光年计,如距我们所在的太阳系最近的恒星是半人马座α星,即比邻星,距离我们都达4.25光年。即使采用我们目前最快的非载人航天器也要数万年才能到达,而要载人就更是困难得多,况且比邻星周边几乎肯定不可能有智慧生命的存在。因为比邻星是三合星,也就是三颗恒星绕在一起,这样的星球周边是不适合生命生存的。由此可知,地球形成了46亿年,最早的微生物距今42.8亿年,我们一直都没有确切地在地球上发现外星人的痕迹应该正是在于此。
然而,如果有一天外星人真的来到了地球就麻烦了,因为宇宙诞生了138亿年,宇宙中在四五十亿年前就有可能出现了智慧生命,能够穿越恒星际的距离来到地球的外星人,其科学技术的领先程度且能是我们用千年、万年甚至亿年可以赶上的?自然规则告诉我们,高文明群体鄙视低文明群体,高等物种杀戮低等物种甚至将其当成自己的食物煎炸烹烤。文明程度高出我们不知道多少倍的外星人来到地球后我们地球人多半就像美洲印第安人和澳洲土著人面对殖民主义者的命运一样,甚至更糟。所以,我们千万不要联系外星人。现在一些人热衷于向外星人传递信息,其实是很不理性的。
最后,我认为拯救人类要靠人类自己,而最具拯救人类能力的是大国领袖,我本人作为一个学者,只能起到呼吁的作用,这就是我多次给大国领袖写信的原因。
其实,如果坚信我的第三个核心观点,得出只有实现大统一才能拯救人类这一结论就是顺理成章的。被称为“人工大脑之父”的雨果·德·加里斯相信人工智能会灭绝人类,但他却认为高等物种灭绝低等物种是理所当然的,人工智能灭绝人类也是理所应当的,而制造这种高等物种的人就是神,是上帝。那么让我们试想,作为人类这一物种本身,我们能够容忍被灭绝吗?
在开始《拯救人类》第二版修改工作时,电影院正在放映一部电影《生化危机:终章》,说的是一个高科技公司研制出了一种可以灭绝人类的生化武器,公司的股东们便策划只保留本公司的股东,而将全人类其他的所有都灭绝。这种事只有那些丧尽天良的家伙才会干。但全世界那么多高科技企业,就没有一些丧尽天良者吗?
评论
发表评论