大公网

大公报电子版
首页 > 艺文 > 大公园 > 正文

英伦漫话/危险游戏\江 恒

2023-03-30 04:25:21大公报
字号
放大
标准
分享

  图:人工智能会否取代人类工作,是社会近年的热话之一。\资料图片

  上世纪五十年代,设计了现代计算机雏形的英国数学家图灵,曾提出疑问:机器能否像人类一样思考?如今随着AI聊天机器人ChatGPT爆火,人们开始好奇这种假设是否已经成真。

  图灵的疑问不是没有道理,从古希腊铁匠之神赫菲斯托斯拥有赋予金属物品生命的能力,到十九世纪诗人雪莱创作出由人工拼凑而成的科学怪人,机器能否变得像人一样,能思考有智慧,始终在人类的脑海里挥之不去。一九五○年,图灵在发表的论文《计算机器与智能》中大胆预言,创造出拥有真正智能的机器存在可能性。

  图灵为此提出著名的“图灵测试”(Turing test),以最简洁明瞭的方式来判定机器是否拥有智能,并在之后的数十年中被奉为测试人工智能的圭臬。其灵感来自于维多利亚时代的“模仿游戏”,即通过对一个人提问,从回答来判断对方是男是女。图灵测试的具体做法是:人类询问者通过键盘和荧幕与机器聊天,如果没有辨别出对方是机器,并误以为是与人在对话,就不得不承认机器拥有人类的智能。

  图灵测试看似简单,却一直没有机器取得突破,英国作家迈克尔.伍尔德里奇在《人工智能全传》一书中提到,这导致有些机器设计者动起了“小心思”,试图用一些小技巧去迷惑人类询问者,使他们相信正在与真人打交道。像上世纪六十年代中期,美国科学家魏岑鲍姆创造的最早聊天机器人ELIZA,其扮演的是一名精神病医生的角色,与病人交谈,提出开放性问题,让病人试图敞开心扉。ELIZA学习了一些关键词,比如家人、朋友、孤独和悲伤等,然后使用关联了关键词的脚本来提出后续问题。起初开场白看起来还不错,但几句对话以后,这种互动的肤浅性便暴露无遗,显然ELIZA仍停留在机械式应答,根本没有理解到对话的意义,自此之后,ELIZA就成了采用肤浅的小伎俩伪装人工智能的代名词。

  甚至于在二○一四年被认为首次通过图灵测试的一个名为尤金的俄罗斯机器人,从严格意义上讲也未真正过关,尽管在测试现场,有逾三成的裁判对尤金是人类深信不疑,但因为裁判的人数相对较少和过程中较高的判断错误率,无法可靠地反映出结果。更有甚者,一些机器为通过测试而刻意作弊,像是在回答中用模拟情绪和故意打字错误等来变得更像人类,均令测试结果难具说服力。

  然而,随着近年人工智能的飞跃式发展,情况正在发生改变。例如从亚马逊智能助理Alexa,到打败围棋世界冠军的“阿尔法狗”(AlphaGo),再到聊天机器人ChatGPT,机器同人类的智能已愈发接近。用亚马逊高级副总裁普拉萨德的话说,如今机器在听、看和感受等很多方面有着长足进步,尤其记忆和检索等能力要远高于人类。特别是ChatGPT,能写又会画,智力水平绝不亚于人类,已不是图灵测试仅靠文本交流就能检验机器是否具备智能。

  对于外界担心按此发展下去,机器可能如图灵预言般拥有真正智能,科学界认为仍要取决于机器是否具备意识。如同英国科普作家乔尔.利维在《我们为何如此行事》一书中,以上世纪八十年代哲学家约翰.塞尔的“中文房间”(Chinese Room)实验为例,指出关键所在是机器有无能力知道言语、符号等真正的含义。该实验是将一个人关在一个密闭房间,由外面送进上面写有中文的纸条,虽然此人不懂中文,却能靠中文字典来理解并作答,最终令看到他回答的人误以为他懂中文,实际上他一无所知。以此类推,机器就像实验的人,虽能对答如流,其实不明就里,这就是俗称的“意识”难题。专注于人工智能的英国《金融时报》专栏作家桑希尔,把意识形容为“人类最后的堡垒”,也是人工智能的“最后边界”。

  当然机器还面临另一大挑战,就是如何理解人类世界,以及支配其中的许多约定俗成的规则。心理学家斯蒂芬.平克曾设计一段简短对话:“鲍勃:我要离开你。爱丽丝:她是谁?”这段对话背后的复杂含义对人类来说轻而易举,但怎么能让计算机编程明白却并不容易,因为对话贯穿了生活中的常识性东西以及伦理、欲望等因素,正如《人工智能全传》中提到,要机器理解类似的场景并贴切作答,到目前为止,还没有一个成功的案例。

  尽管如此,很多科学家仍存在顾虑,已故英国著名科学家霍金曾经提醒,创造出媲美人类甚至超过人类的东西将要面对可怕后果,不仅会使数以百万计的工作职位不复存在,它还可能自行启动,以不断加快的速度重新设计自己。而人类局限于缓慢的生物进化过程,根本无法竞争,最终将被超越甚至被毁灭。英国科学家洛夫洛克也断言,人工智能在某个时候肯定会取代人类,他在《新星世:即将到来的超智能时代》一书甚至描述,“届时半机器人会写关于人类的小说来取乐。”果真如此的话,就应验了图灵的合作伙伴、英国数学家I.J.古德当初的警告,人工智能是一场危险游戏。

点击排行