我最近沉迷用豆包做图、用DeepSeek做规划。不过,一旦从AI那得到满意的结果,我也会在心里焦虑:不会过不了多久,AI就让我失业了吧?毕竟网上总说,文职最容易被AI取代……
在《投喂AI》这本书中,3位牛津大学学者对“AI取代工作”的担忧做出了回应。实际上,目前的AI并不能思考,也不能理解文本的真正含义,而只是基于数据进行输出。诸多“可能被替代岗位”的预测信息也并不准确,更值得担忧的反倒是夸大AI的功能和生产力,导致人们未经深思熟虑就将它们应用于众多行业。
AI技术受到各种政治、经济和文化因素的影响,可能会放大偏见,强化刻板印象。作者指出:“就像私立学校培养出的政治精英阶层,他们的话听起来似乎很有道理,细想下来却充满了该阶层对社会的偏见,体现了社会权力分配不均的事实。”
01.
ChatGPT并不聪明,
它不能理解句子的真正含义
人们很早之前就发明了语言模型和聊天机器人,现如今,是数据集和各种算法的支撑让它们能够生成各种行文流畅、内容精准的文本。
但大语言模型不能进行思考,也不能理解句子的真正含义。它分析的是语言,而不是语言背后的社会意义。人类在回答问题时,调动的是对语境和人类社会的理解。而模型在回答问题时,调动的是各字符之间的统计关系,它并不真正了解这些字符在现实中的含义。
计算机语言教授艾米丽·本德把ChatGPT这样的模型称作“随机鹦鹉”,她强调,这些系统只是基于数据进行输出,并未真正理解文本数据的含义,因此具有局限性。
问题不在于这些程序如何运作,而在于我们与这些机器交流时会忘记它们是机器。与AI聊天时,我们会错认为它具备一定的理解力和意图。由于输出的结果很复杂,所以它看起来好像真的理解了我们的想法,但实际上这只是一种幻觉。
电影《超体》
大语言模型其实只是在根据概率猜词。这就解释了为什么给它明确指令的时候,它给出的答案很准确;但在其他情况下,它的回答完全经不住考验——只是听上去很合理,但其实全是它自己编造的错误信息,根本原因就是它无法理解自己说的是什么。
被问到有唯一正确答案的问题时,大语言模型的表现往往不尽如人意,但面对一些提炼总结的任务,它的表现可圈可点。
如果颠倒陈述逻辑,大语言模型也会出现故障。在一个叫作“逆转诅咒”的实验中,研究人员发现,询问ChatGPT-4“汤姆·克鲁斯的妈妈是谁”,在79%的情况下,它能给出正确答案“玛丽·李·菲弗尔”;但如果反过来问“玛丽·李·菲弗尔的儿子是谁”,它的正确率仅有33%。
人类想要正确理解大语言模型,客观地评估其优缺点,就不能把它当成人来看。它没有智力,也没有创造力,自然也没有信念、精神和情绪。
在日常生活中,我们经常会从心灵属性的角度看待某种行为,赋予其信念和想法,这就是哲学家丹尼尔·丹尼特所说的“意向立场”。但我们不能这样对待大语言模型,因为它们没有情感和心智。
尽管如此,它们还是可以在很多领域帮助人类大幅提升工作能力,它们虽然不能像你有意识且有心智的同事一样理解你,但它们用途广泛、功能强大。
02.
机器能否取代你的工作?
有预测称,AI将导致大量工作岗位消失,投行高盛预计可能有多达3亿个工作岗位被自动化或AI取代,麦肯锡咨询公司预测的数量是4亿~8亿。埃森哲咨询公司调查发现,人类工作中有大量语言使用场景,因此40%左右的工作时间会受到大语言模型的影响。
但我们也不能完全相信这些数据,因为咨询公司的工作就是炒作客户所在行业的价值。通常这些数据都来自高度抽象的系统分析,系统会收集各行各业中可能被机器替代的岗位信息,然后进行计算。
计算的前提是大语言模型能够被大规模地、广泛地应用于实际工作中,但这种情况并不常见。
21世纪第2个10年也曾发生过一次技术失业恐慌。
2013年,牛津大学的两位研究人员调查了不同岗位被计算机取代的可能性,发现在未来10~20年,美国有47%的岗位将面临被计算机取代的“高风险”。
这个研究让人们开始担忧。但这么多年过去了,预测没有成真。实际情况没有预测的那么严重,研究人员对工作的分类方式导致数字被夸大了。事实上,公司没必要让机器取代工人,而应让机器发挥更大的作用。
大语言模型虽然在某些写作或内容创作领域表现很好,但在教育、医疗保健、工程、法律、金融和文化产业领域中,取代人类的可能性很小。大语言模型还不够客观和准确,不能获得人类的完全信任,因此在一些重要岗位上,机器更多是辅助而非取代。
电视剧《人生切割术》
国际劳工组织2023年的一份报告显示,像ChatGPT这样的生成式AI在工作场景中的主要作用是辅助而不是替代。文职岗位更容易被机器取代,有24%的文职岗位属于极易被替代的岗位。生成式AI对大多数职业的影响是改变工作岗位所需技能、工作时间和劳动强度。
通过对大语言模型的分析,我们发现它更擅长处理有明确目标和有较多文本数据支撑的标准化任务。据此,我们能判断出它对哪些行业的冲击最大。
虽然机器不可能完全取代人类工作,但有一些专门为特定行业设计的生成式AI还是会彻底改变这些行业。
比如,跟代码打交道的软件开发员和计算机程序员将受到极大影响。曾经一个程序员团队才能完成的工作,现在一个人就能完成。
此外,一些涉及大量文本数据整合和分析的工作,如法律和金融行业的部分工作、市场分析和交易方面的工作,也可以使用AI来提高工作效率。但我们还是要提高警惕,不要过度依赖ChatGPT。
使用大语言模型的最大风险,就是夸大其功能和生产力,导致人们未经深思熟虑,就将它们应用于众多行业。这样一来,决策权就从可以充当责任主体的人类移交给了不受监控、无法追责的机器。
2023年,AI初创企业吸引了全球近500亿美元的投资。人们认为通过在决策关键点引入大语言模型,能够提高工作效率,让行业彻底变革。然而,在执法、银行贷款、简历筛选、福利发放和教育等领域,算法决策实际上加剧了长期存在的偏见、歧视和错误决策问题。
模型不具备人类的理解能力、社会意识和同理心,因此试图简单地用它替代人类是不现实的。
AI的发展并非完全由技术人员掌控。它受到市场竞争压力的影响,各家公司都在争抢这一新兴领域的头把交椅。更重要的是,AI技术还受到各种政治、经济和文化因素的影响,它对特定领域或职业的影响取决于技术的应用趋势,而这种趋势很难预测。所以,如果过度依赖当前大语言模型的能力,给予机器过多的权力和责任,而没有足够的人力监督,这过于鲁莽。
模型就像私立学校培养出的政治精英阶层,他们的话听起来似乎很有道理,细想下来却充满了该阶层对社会的偏见,体现了社会权力分配不均的事实。
03.
末日恐惧大可不必,
AI的这些风险更令人担忧
有人认为,有关AI毁灭世界的警告其实就是在炒作AI产品。可要说完全不信,那也是假话。因为如果完全不信未来的聊天机器人能够在我们修理它的电路时监视我们,我们也就没必要对这个现在还漏洞百出的东西如此上心。
尽管有炒作嫌疑,但AI领域还是有人相信其会对人类未来生存构成威胁。2022年的一项针对AI研究人员的调查显示,一半人认为AI有10%以上的概率会毁灭人类。很多人担心,某种超级AI会比预想的更 早到来,它们最终会产生自我意识,给自己制定目标,甚至想要消灭人类。
但我们也要清醒一点,从目前形势来看,在能够预见的未来,人类不会面临此类威胁。现在的AI连仓鼠水平的自主意识都没有,更别提什么超级AI了。大语言模型不会在早上醒来时思考要不要忠于人类。它只不过是标准的语言模型,根据人类输入的提示语检索数据集,然后输出结果。
它确实有潜在的风险,如协助黑客攻击、编造虚假信息和传播错误信息,但现实中我们离电影《终结者》和《机械姬》里机器追杀人类的桥段还很远。媒体上针对这些风险的讨论既为时过早,也脱离了当前AI的现实。
电影《终结者》
然而,这并不意味着人类不该认真思考AI发展所带来的长期后果,也不意味着AI不会发展到电影中的程度。我们要做的是从当前这代AI的现实情况出发,分析它们正在造成或可能造成的危害,并预判随其技术演进可能滋生的风险。
那么,我们现在正面临怎样的风险呢?
一些不法之徒可能会利用大语言模型危害社会,比如,传播虚假信息、操纵选举和制造生物武器。首先,生成式AI可以让用户快速制造虚假信息,并在社交媒体上进行传播。
以往,这类误导性内容的传播往往依赖于人工操控的机器人,仅搭载初级文本生成工具,但AI不仅极大地扩展了受众范围,还提升了信息的个性化程度和说服力。
先进的大语言模型能够让聊天机器人与网络上数百万人进行互动交流,每一次互动都是量身定制的,针对用户需求进行一对一解答,用户根本意识不到自己正身处精心设计的操控之中。
大语言模型还让人们更容易接触到制作生物武器和其他可用于恐怖袭击的化学品的信息。虽然商用的大语言模型都设有安全防护,阻止聊天机器人向用户传播危险信息,但事实证明这些措施都可被绕过。开源模型的进一步传播将使更多人有能力创造危害性物质。大语言模型具备专家级别的专业知识,理论上甚至能够指导用户制造新型病毒。
除了以上风险,生成式AI还会放大偏见,强化刻板印象。这些负面影响在金融、住房、社会福利、司法等关键领域尤为显著,直接影响人们的生活质量和基本权利。
为了进一步了解这些问题,我们还要深挖塑造AI发展的隐形价值观。
本文节选自
《投喂AI》
副标题: 人工智能产业的全球底层工人纪实
作者: [英]詹姆斯·马尔登/[英]卡勒姆·坎特/[英]马克·格雷厄姆