近日,“人工智能可能比核武器还要危险。”特斯拉老板埃伦·马斯克在推特上发文预警,他认为,超级智能计算机将很有可能消灭人类。
▲牛津大学哲学教授尼克·博斯特伦(Nick Bostrom)与詹姆斯·巴拉特(James Barrat)
什么样的机器人才是有危险的人工智能?英国代码破译者、计算机先驱阿兰·图灵设计了一个甄别实验:一台计算机和一个人做竞赛,说服一个看不到它们的观察者,使其相信自己才是真正的人类。当机器人至少把半数观察者蒙骗了,才算通过了测试。目前,尚无一台计算机接近于通过测试。但图灵也指出,当超级智能通过图灵测试时,人类的报应就来到了。
根据维基百科中的解释,人类所担心的智能机器人是能够像人一样思考、行动、理性地思考和理性地行动。这里行动应广义地理解为采取行动,或制定行动的决策,而不是肢体动作。而且它们具有有知觉和自我意识。
人工智能对人类的毁灭能力是什么?牛津大学人类未来研究所的研究人员给出了解释,人工智能不是像核武器一样消灭人类,而是会逐步取代人类,真正可怕的是它们的智力。它们将比人类更聪明、更擅长社交、更有工作能力,假如一个超级机器人走进一个酒吧,它比人类更能吸引男人、女人,那时它们才真的可怕。
首先在技术上,具有人工智能的机器人将使得人类全部失业。只要对某技能的人复制一百次,就能复制出一百个具有此能力的机器人,那么在一百个行业里就会拥有一万名高级员工,这也许一个星期就能训练完成,只要愿意还可以复制得更多,成千上万……如果它们真的是超人,性能肯定比描述的更强。这样一来,人工智能几乎可以代替任何人,包括各类专业人员。
《超级智能:方法、危险、战略》和《我们最后的发明:人工智能及人类时代的终结》两本书的作者牛津大学哲学教授尼克·博斯特伦(Nick Bostrom)与詹姆斯·巴拉特(James Barrat)认为,“现在我们人类就像一群摆弄着一颗危险炸弹的无知孩童。”即便是出于好意而创造的人工智能,它仍有犯下种族灭绝罪行的倾向。
詹姆斯·巴拉特认为:“如果没有小心谨慎的制衡指令,一个有着自我意识、不断自我完善并追寻目标的系统将发展到在我们看来非常荒谬的程度,以完成它的目标。”
不论如何,未来对于人工智能的制造,一定要将不得伤害人类设定为其最重要的行事规则。美国科幻小说家艾萨克·阿西莫夫(Isaac Asimov)在他的机器人相关小说中为机器人设定了行为准则,也就是机器人三定律(Three Laws of Robotics)——
法则一,也是最为重要的一条法则:机器人不得伤害人类,也不得因不作为而使人类受到伤害;
法则二,机器人必须服从人类的命令,除非违背第一法则;
法则三,在不违背第一及第二法则的前提下,机器人必须保护自己。
执教于印第安纳大学等学术机构的认知科学教授道格拉斯·郝夫斯台特(Douglas Hofstadter)在其《哥德尔、艾舍尔、巴赫——集异璧之大成》一书中称,在获取知识的过程中,计算机必须以和人类差不多的方式整合知识。
不管这个愿望在人类追逐利益的冲动面前是多么无力,但对人工智能的担心是显然的。
▲谷歌公司的工程总监雷·库兹威尔(Ray Kurzwell)
那么,这一天何时到来,谷歌公司的工程总监雷·库兹威尔(Ray Kurzwell)认为,到2029年时,计算机将变得比人类更智能。不过,稍微令人安慰的是,他在《灵魂机器时代》(The Age of Spiritual Machines)中称,人工智能还是会受制于人类。
百度CEO李彦宏对人工智能的发展速度同样乐观,他在今年上半年透露,“百度内部有一个项目叫做‘百度大脑’,它现在的智力水平相当于两到三岁孩子的水平。随着计算成本的飞速下降和计算能力的飞速提升,我们完全可以想象有一天电脑可以越来越接近人脑的智力。”