强ai是否会毁灭人类,是,或者不是,结论其实一点也不重要。
从什么论据出发,进而,经由一番怎样的论证得出结论,对阿达民而言,才更重要。
在这一点上,坦率的讲,方然在和斯蒂芬霍肯对话前,就大概猜得到,这位旧时代蛮声在外的身残志坚者,会给出什么样的告诫。
但,事关人与人工智能的本质,在这方面,说一句大言不惭的话,即便眼前这位教授的专业学识与思维水准,远在自己之上,方然也并不认为,斯蒂芬霍肯会比自己更了解何为“强人工智能”,更能洞悉其本质。
想到这里,看一下视野中叠加的时钟,方然向霍肯教授打过招呼,离开机器去吃午餐。
吃饭,普通人的寻常日程。
对行动不便的斯蒂芬霍肯,则需要一定的时间与耐心。
参观暂时中止,“替身”在废弃矿井深处待机,两位参观者则利用这稍显漫长的时段,继续隔空喊话般的辩论。
“教授,梳理你的言论,我可否这样概括一下要义
您对‘强人工智能’的恐惧,或者说警惕,完全基于这样的事实,人类研发的‘强ai’,看起来,能力很快就会超越人,甚至于超越一个大量人口组成的群体,具备人类迄今为止从未有过的强大思维与处理能力。
然后呢,因为这超越了人的能力,人类,即便严阵以待、费尽心机,也没办法切实的提防其‘独走’,甚至反戈一击。
最终的结论,很大概率,人类会被自己创造的‘强ai’所灭绝,是这样吗。”
“正是如此,”
一边让仿真人喂饭,一边交谈,霍肯教授的话很简洁,
“您呢,是否承认这一点?”
“这显然不是‘承认’、或者‘不承认’的问题,我刚才说的,并非事实,只是您站在自己的立场上,构思出来的观点。
从‘强人工智能的力量超越人类’,推导出‘人类必将被其灭绝’,这一论证,恕我并不能认同,当然,如果您是指‘人类无法防范强ai的反叛、或者无意识的毁灭行为’,这我倒是完全同意
强人工智能具有的——智慧,超越人类,这是一切讨论的大前提,否则,正如教授您所言,无法超越人类的强人工智能,没有研发的价值。”
“既然承认强ai的力量,超越人类,却又不认为‘人类无法防范来自强ai的威胁’;
这不是很矛盾么,阁下?”
“一点也不矛盾。
教授,我的确记得,关于‘强人工智能’的讨论,早在几十年前,一直延续到旧时代的灭亡,从未中断。
在诸多专家、学者的表态中,有一个观点,我至今仍印象深刻
面对能力在自己之上的‘强人工智能’,人类,仍然有一个至关重要的优势是人选择创造强人工智能,而不是相反,这意味着我们(理应)善加利用这先手之利,在创造出这一划时代的事物前,做好万全的准备。”
阿达民的话,语调一点也不高,斯蒂芬霍肯却若有所感,他没有插言。
“这句话,在思考‘是否研发强ai’的决策过程中,时常浮现于脑海,思考后,我目前倾向于认为,‘先手之利’的确是人类面对强人工智能时的唯一优势。
那么问题就在于,人类,如果别无选择,必须迈出‘研发强ai’这一步,
接下来,应该如何利用这优势?
我想到的结论,很直白,教授,您只消回顾历史,对照人类历史上似曾相识的一幕,便不难理解我的思路。”
“似曾相识的一幕,抱歉,我不太明白。”
谈话的内容有些出乎意料,斯蒂芬霍肯的脸上,现出一丝谨慎。
在替身机器之外,神情的变化,在方然眼前的全息显示