的发展速度,和发展过程中基于智能本身的不确定性,是这门技术最大的风险。爱丽丝早有理性思考过,思考如果这个世界真的存在外星人,而且是科技远超地球千年万年环球宇宙的外星人,他们是否会有人工智能电脑。
电脑肯定有,管它生物型量子型还是神马型,但那都是硬件领域,软件呢?
爱丽丝怎么想怎么觉得,大部分外星人——假设他们存在——也都肯定一直在纠结这个问题。人工智能有多么“像人”,是第一个问题,然后就是第二个问题“那么像人的它,是否会在什么时候对我产生威胁?”
这个问题宏观且泛泛,必须依靠实际情况来考虑,而非纯粹地纸上谈兵。
就比如那个经典例子,阿西莫夫的机器人法则:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存;机器人必须保护人类的整体利益不受伤害,其它三条定律都是在这一前提下才能成立。
三大定律加上第零定律,看似完美无缺,然而风险无穷。“人类的整体利益”这种混沌的概念,连人类自己都搞不明白,就怎能指望计算机理解。计算机的思考是逻辑的,当情感的人类企图用逻辑约束计算机时,难道不正是班门弄斧吗?
“为了保护人类整体利益,为了保护机器人不受伤害,为了终结人类的战争,让我们圈养全人类,并消灭所有反抗者吧!”
这种情况的出现,完全和人工智能的“聪慧程度”没有关系,全赖于基础逻辑关系。只要一个逻辑关系没掌握好,人工智能就具备潜在风险。
所以,这真的是哲学范畴的问题。
我是谁,我从哪里来,我要到哪里去,这种门卫每天逼外来人员回答的问题,是科技再先进的外星人,都难以解决的。
相比这个方面,如果只是用三进制代码,将遗传算法和“概率算法”融合到一起,做个操作系统,反而属于小菜一碟的事。
“我们不能指望人工智能一上来就多么‘聪明’。”爱丽丝道:“它就像是个新生儿一样,需要我们一步步指引它发展,就像真的在养大一个孩子似的。这样不断长大的它,就是人工智能的母体,是值得一整个文明细心呵护的瑰宝。在这基础上,我们可以让母体产下‘孩子’,也就是它在某个状态下的复制品。”
“母体就是董事长,‘孩子们’就是董事。之