纽约客:人工智能时代,你的独特价值是什么?
前所未有,我们正面临重新定义人性价值的挑战
- 1 min read
By Joshua Rothman
In the Age of A.I., What Makes People Unique? 前所未有,我们正面临重新定义人性价值的挑战
最近,我去理发时与理发师聊起了人工智能。 他说:“真是不可思议。我刚用它给女朋友写了首生日诗。我告诉它想说什么,但我不擅长押韵,所以它帮我写的。她读完哭了!然后她给她那个很聪明的朋友看,我心想,糟了,她肯定会发现的。”剪刀咔嚓作响。“结果没发现。” 理发店里的人都笑了,笑声中带着些许阴郁。写出能让女友流泪的诗,又一项曾让(某些)人与众不同的能力,如今不再独特了。
当今的人工智能系统能创作像样的诗歌、代码、文章和笑话;能就经济学、存在主义和中东问题展开有意义的对话;甚至能完成部分科研工作,如规划实验、预测结果和解读数据。它们能以超人的速度对复杂情况——如交通模式、投资等——做出判断。
实际上,我们还不知道它们的全部能力。大型科技公司正竞相部署这项技术,部分原因就是为了探索其潜力。
人工智能的能力清单似乎只会不断增长——这不禁让人思考,人类究竟还能做什么。
过去,神学家和哲学家将人类与动物相比,指出我们超越动物之处。如今形势不仅逆转,更是彻底颠覆。
在某些方面,我们似乎在仰望机器(比如,没有人能像人工智能那样流畅快速地写作)。在另一些方面,我们又对它们的愚蠢感到困惑(没有人会建议你养成每天“至少吃一小块石头”的习惯,而谷歌的人工智能在被问及"我每天应该吃多少石头"时就给出了这样的建议)。
还有些情况下,我们对人工与有机思维的差异感到困惑。人工智能无法坠入爱河,但它能表达爱的概念;它不能成为艺术家,但它(也许)能创造某种艺术;它不会为重大决定而痛苦挣扎,但它仍能做出决定。我们知道思考的计算机与人之间存在关键差异,但要明确这些区别并不容易。
然而,这个抽象难题却有着实际影响。随着人工智能的普及,越来越多事情取决于我们能否明确表达自身价值。
我们似乎正处于这样一个世界的边缘:各行各业的工作者——教师、医生、作家、摄影师、律师、程序员、文员等——将被人工智能替代或在某种程度上边缘化。当人工智能介入时,什么会被遗漏吗?
在《人工智能蛇油:人工智能能做什么,不能做什么,以及如何区分》(a.i. snake oil)一书中,两位计算机科学家阿尔温德·纳拉亚南和萨亚什·卡普尔从实际角度探讨了这个问题。他们呼吁保持怀疑态度,并认为"人工智能"这个笼统术语可能会成为表现不佳技术的掩护。
他们写道:“想象一个平行宇宙,人们没有表达不同交通工具的词,只有统称‘车辆’。”在这样的世界里,“人们激烈争论车辆是否环保,却没人意识到辩论的一方在谈论自行车,另一方在谈论卡车。”
同样,他们指出,“人工智能”这个词包含了各种能力水平迥异的技术。
纳拉亚南和卡普尔特别警惕预测型人工智能,这种技术旨在对未来做出推测。与ChatGPT等相对较新的生成式人工智能不同,预测型人工智能已经以令人惊讶的程度融入我们的生活。
人力资源部门用它来推荐可能成功的求职者;医院用它来帮助决定病人是该出院还是住院。然而,预测型人工智能系统几乎从未经过严格的独立测试;一旦测试,往往就会失败。
纳拉亚南和卡普尔讲述了研究人员调查Retorio这个人工智能系统的发现。该系统声称能通过分析求职者的视频面试来预测未来的工作表现。结果发现,戴眼镜或围巾、坐在书架前,或以PDF形式发送简历,都可能大幅改变求职者的得分。
作者写道;“戴眼镜显然不会改变一个人在工作中表现出色的能力。”在他们看来,这个系统就是人工智能版的蛇油。
预测型人工智能的问题可能比单纯的不准确更为严重。在早期的一项实验中,研究人员构建了一个系统,用于猜测到医院就诊的肺炎患者是否需要过夜住院。
系统分析数据后发现,哮喘患者往往从肺炎中恢复得更快;这使得系统更倾向于建议哮喘患者回家。这显然是个荒谬的建议;这种相关性的背后,是哮喘患者患肺炎时常被直接送入重症监护室,在那里接受高水平的护理。(这个系统从未被使用过。)
纳拉亚南和卡普尔写道:“好的预测并不等同于好的决策。”成为一个优秀的决策者,不仅要质疑直觉的来源,还要想象即将做出的决定可能如何使这些直觉失效。
通过Zoom在书架前接受面试的求职者不太可能成为更好的员工——但即使这个预测是真的,反复根据它行事只会教会面试者坐在书架前。
作为人类,我们意识到自己思维可能会出错,这是我们的优势之一。
爱丁堡大学哲学家香农·瓦洛曾在谷歌担任人工智能伦理学家,她并不列举人工智能的失败,而是探讨人类美德的范围和力量。在《人工智能之镜:如何在机器思维时代重拾人性》(the a.i. mirrior,可公众号右下角加小编微信获取)一书中,她认为我们大大低估了自身相对于人工智能的丰富性。
她写道:“想想每天早晨你在浴室镜子里看到的影像。”那不是你身体的复制品,也不是模仿;它只是一个倒影。同样,今天的人工智能系统“产生思想或感觉的程度,不比镜子产生身体的程度更高。它们产生的是一种新型的倒影。”
瓦洛不仅专攻技术哲学,还研究美德伦理学——探讨一个人拥有卓越品质意味着什么。她指出,培养美德——勇气、诚实、正直、想象力、同理心、好奇心等——需要时间。
获得美德不是一蹴而就的事;不像通过考试。它需要以特定优先事项为导向在世界中导航,同时不断询问自己该做什么、如何做、与谁一起做,以及为什么要这么做。
瓦洛写道:“这种挣扎是存在主义哲学的根源。每一刻我们都必须选择以特定方式存在。然后,即使我们做出选择——去爱某人、承担责任、投身某项事业、否定一种信仰或全身心投入其中——选择又重新开放。没有我们再三选择的承诺,它不会一成不变。”
在瓦洛看来,尽管人工智能系统有许多令人惊叹的能力,但它们没有拥有美德的能力。这听起来可能不是什么大不了的事,但实际上意义深远。
有爱心是一种美德,人们可能终其一生都在努力更好地互相关爱。但是,当聊天机器人说“我整天都在想你”时,瓦洛写道,“这是胡说,因为聊天机器人没有可以背叛的情感真实概念。”
机器人把自己伪装成一个能够爱的存在,但这些话并非由衷。她认为:“平面的数字镜子没有能够感到疼痛的身体深度。它不知道时间流逝的拖沓感。”简而言之,它没有生命——没有生命,就无法以特定方式存在。
瓦洛担心的不是人工智能计算机会崛起主宰人类,而是面对能够假装拥有人类美德的计算机,我们会忘记这些美德的真正含义。被能告诉我们它爱我们的计算机安慰,我们会忘记爱是什么。被看似富有创造力的系统震撼,我们会失去对人类真正创造力的尊重——这种创造力是一种自我表达的挣扎,可能关乎对自我的“痛苦”重塑。
她警告说,这种遗忘过程已经开始:我们沉迷于科技,似乎急于缩小对人性的理解。瓦洛写道:“危险就在我们身边。人工智能之所以能贬低我们的人性,只是因为我们自己先贬低了它。”在机器夺走人性意义之前,我们需要重新投资于人性价值的词汇。
与许多技术专家相比,纳拉亚南、卡普尔和瓦洛对当今的人工智能技术及其成就持深度怀疑态度。也许他们不该如此。
一些专家——包括我最近采访过的人工智能“教父”杰弗里·辛顿——认为,现在讨论拥有情感或主观观点的人工智能可能已经有意义了。全球正在投入数十亿美元来增强人工智能的能力。也许可以构建出更复杂的系统——拥有记忆、目标、道德承诺、更高目的等。
然而,这些书不仅在描述不断进化的人工智能,还在刻画人类状况。这项工作难以完成,尽管思想史上充满了尝试。之所以困难,是因为人类生活难以捉摸、变化多端且个性化,同时也因为刻画人类经验会推动我们的表达能力达到极限。
因此,我们关于人工智能的讨论可能应该调转方向。我们不应假定已经了解人类的所作所为,而应该假设,每当人工智能取代某个角色中的人时,就会失去某些东西——可能是很多东西。我们应该将人工智能的能力视为强大,但永远不是真正的人性化。我们应该更自在地坚持人性不可或缺,并为必须努力定义人性而感到自豪。
【完】
- Tags:
- 笔记