关于要不要限制,你是降临派还是幸存派

《三体》中的降临派、拯救派和幸存派分别代表着不同的观念和立场。借用这三个概念,我们可以将对 AI 看法的人划分为 AI 降临派、AI 拯救派和 AI 幸存派。

AI 降临派:

这一派的人认为 AI 的发展将为人类带来巨大的好处,甚至取代人类成为地球的主导力量。他们相信 AI 可以解决人类的许多问题,如气候变化、资源分配、疾病治疗等。AI 降临派的人通常对 AI 技术非常热衷,支持无限制地发展和应用 AI 技术,期待 AI 在未来改变世界。

AI 拯救派:

这一派的人认为 AI 是人类发展的关键,但需要在一定范围内受到监管和引导。他们认为,通过合理的政策制定和伦理道德约束,可以确保 AI 技术的安全和可持续发展。拯救派关注 AI 对社会和个人产生的影响,期望在维护人类利益的同时,让 AI 成为人类的得力助手。

AI 幸存派:

这一派的人对 AI 技术持怀疑甚至担忧的态度。他们认为 AI 技术的发展将可能导致一系列问题,如失业、隐私侵犯、安全威胁等。幸存派的人认为,人类应该小心应对 AI 技术的发展,寻求与 AI 和谐共生的方法。他们强调 AI 的潜在风险,提倡谨慎和审慎的态度来平衡 AI 技术的利弊。

这三派的划分并没有严格按照《三体》原著的定义(原著中降临派要毁灭全人类,拯救派想要拯救三体人,幸存派要出卖人类利益为后代谋求苟活的空间),而是以人们对 AI 的接受程度以及欲施加的监管力度进行划分。

降临派(欢迎 AI 降临)接受程度最高,拯救派(用 AI 造福人类)次之,幸存派(在 AI 时代幸存)最保守,以便于我们理解立场。

让我们看看在这一周内,三派有哪些观点碰撞。

降临派

吴恩达:暂停 AI 开发不可行

本周,一封上千人签署的公开信火遍了全网,一家名为未来生命研究所(Future of Life Institute)的机构呼吁全球应该至少暂停六个月开发比 GPT-4 更强大的模型,以让有关的监管手段能够跟上。

人们在该信上看到了许多知名人士的签名,包括图灵奖得主 Yoshua Bengio、马斯克、史蒂夫 · 沃兹尼亚克、Skype 联合创始人、Pinterest 联合创始人、Stability AI CEO 等人。

该信爆火后,人们发现部分知名人士的签名实际上是网友冒签的,所谓千人签名的真实性存疑。

不管怎么说,这封公开信还是激起了人们关于是否要封禁 AI 研究的讨论。

著名计算机科学家、Google Brain 的联合创始人吴恩达在社交媒体上发表了他对这封信的看法。

他认为,让有关部门暂停他们尚未了解的新兴技术,往好了说是反竞争,往坏了说是开了一个糟糕的先例。

以下是他的观点原文:

要求在 6 个月禁止开展比 GPT-4 更进一步的研究是一个可怕的想法。我看到许多新的应用在教育,医疗保健,食品……这将帮助许多人。继续改进 GPT-4 会对这些领域有所帮助。我们要权衡 AI 创造的巨大价值和现实的风险。

除非有关部门介入,否则没有切实可行的方法来实施暂停并阻止所有团队扩大 LLM(大语言模型)。让有关部门暂停他们不了解的新兴技术是反竞争的,树立了一个可怕的先例,是糟糕的创新政策。

负责任的人工智能很重要,而且人工智能有风险。目前主流的媒体报道称,人工智能公司正在疯狂地发送不安全的代码,这种说法是不正确的。绝大多数人工智能团队(遗憾的是,并非所有人工智能团队)都认真对待人工智能和安全问题。

暂停 6 个月不是一个切实可行的建议。为了提高人工智能的安全性,有关透明度和审计的规定应该变得更加切实可行,产生更大的影响。让我们在推进技术进步的同时,在安全方面作更多的投资,而不是扼杀进步。

Jim Fan:我们应该欣赏 GPT-4

针对大语言模型的安全性,英伟达 AI 科学家 Jim Fan 提出了一个有意思的观点。

他认为按照 AI 的行为规范,那么大部分人类也是“不安全”的,许多大语言模型在安全性和公正性上已经表现得很好,我们不应该一味地批评它们。

以下是他的观点原文:

按照 GPT 的“伦理与安全”指导方针,我们大多数人也表现得不理性、有偏见、不科学、不可靠,总的来说——“不安全”。事实上,我们对人工智能的要求更高。这是件好事,我完全支持做更多。但有些事不吐不快。

我指出这一点的原因是为了让大家了解安全校准工作对于整个研究团体来说是多么困难。大多数的训练数据本身就是有偏见的、有毒的、不安全的等等。实际上,创造一个安全的人工智能助手是违反人类数据分布的。

从某种意义上说,许多生产型 LLM(Claude,Cohere,GPT)在安全性和公正性方面都是“超人”,尽管它们并不完美。对我们来说,下意识地批评失败案例比欣赏挑战(和成就)更加容易。

拯救派

Sam Altman:确保 AGI 惠及全人类

生命研究所的公开信将 OpenAI 拉入了舆论的风暴之中,OpenAI 的 CEO Sam Altman 在 Twitter 上却表示他依然很平静,并提出了建立 AGI(通用人工智能)的三个要点。

以下是他的观点原文:

我们需要为了 AGI 美好的未来而付出的努力:

1. 调整超级智能的技术能力;

2. 充分协调大多数主要 AGI 的工作;

3. 有效的全球监管框架,包括民主治理。

此前,Sam Altman 在 Lex Fridman 的采访播客曾表示自己会对 OpenAI 的技术感到害怕,他表示:

当人们认为这是一个巨大的飞跃时,我会说,我有点害怕,我觉得这很奇怪。

我认为一点都不害怕的话才是疯狂的,我同情那些非常害怕的人。

Sam Altman 更关心的是“虚假信息问题或经济冲击”,而不是如何用算法制造“超级智能”。他认为有些公司并不会像 OpenAI 一样设置如此严格的安全栅栏,并担心因此导致 AI 失控造成不良的社会影响。

马云:ChatGPT 只是 AI 时代的开始

马云回国后来到云谷学校,聊到了 ChatGPT 对教育领域的影响。马云表示,ChatGPT 这一类技术已经对教育带来挑战,但是 ChatGPT 这一类技术只是 AI 时代的开始。

以下是他的观点原文:

我们要用人工智能去解决问题,而不是被人工智能所控制,虽然人的体力、脑力比不过机器,但机器只有“芯”,而人有“心”。工业时代是知识驱动,知识的竞争;数字时代,是智慧驱动,是创造力和想象力的竞争,是领导力、担当力、责任的竞争,是独立思考的竞争。

幸存派

Gary Marcus:什么都不做是不对的

当生命研究所的公开信发布后,Gary Marcus 可以说是该观点最坚定的支持者。

面对该公开信受到的质疑,Gary Marcus 做出了一段很长的回应,以下是他的观点原文:

很多针对 6 个月内禁止培训超大型 #LLM 的攻击都没有抓住要点。

这么多的利害关系,这里有一个 Twitter # long gread 整理出什么才是真正重要的:

很多对这封信的攻击都集中在赞助人身上,而不是署名人。大多数签名的人(如我,约书亚 · 本吉奥等)与 FLI 没有任何关系。评判这封信应该看它写了什么,而不是谁写的。这里真正的新闻不是埃隆 · 马斯克签署了协议,而是这么多不是天生盟友的人(比如本吉奥和我,因 2019 年的激烈辩论而闻名)出于共同关心而走到了一起。

提出一个不同的选择并没有错,而大多数批评这封信的人也没给出一个恰当的解决办法。

什么都不做是不好的。几乎所有人,甚至包括 OpenAI 在内,都承认其存在严重的风险,但迄今为止,有关部门或行业都没有采取什么切实措施来减轻这些风险。

并不是所有签署了这封信的人都主要关心长期风险;我们中的许多签署了这封信的人至少同样担心短期风险。

这封信并没有呼吁禁止人工智能。没有要求永久禁止。它没有呼吁禁止 GPT-4。它没有呼吁禁止绝大多数人工智能研究,只是在一个非常具体的项目上短暂停顿了一下,该项目的技术已经“知道”存在风险,却没有已知的解决方案。实际上需要更多的研究。有人看过那封信吗?

我个人没有改变;我仍然认为 LLM 是不可靠的,仍然认为它们表达事实的能力非常糟糕。我不认为它们接近 AGI。但这并不意味着他们没有撕裂我们社会结构的潜力ーー特别是考虑到当前的混合情况:难以置信的广泛和快速部署、企业不负责任、缺乏监管以及一直存在的不可靠性。

Eliezer Yudkowsky:暂停还不够,我们应该把 AI 永远关闭!

Eliezer Yudkowsky 是著名的人工智能科学家和作家,同时也是机器智能研究所(MIRI)的联合创始人,MIRI 致力于确保超人工智能对人类具有友善的价值观。

未来生命研究所的公开信爆火之后,Eliezer Yudkowsky 在《时代(Time)》上发表了一篇名为《Pausing AI Developments Isn't Enough. We Need to Shut it All Down》的文章。

在开头提到他并没有在上面签名,因为这封信低估了形势的严重性,提出的要求太少,无法解决问题。

文中提到了当人工智能变得比人类更聪明之后可能造成的危害,Eliezer Yudkowsky 提出了一个相当消极的观点:

我们还没准备好。我们没有在任何合理的时间内做好准备。没有计划。人工智能能力的进步是巨大的,远远领先于人工智能排列的进步,甚至领先于理解这些系统内部到底发生了什么的进步。如果我们真的这么做(放任其发展),我们都会死的。

Eliezer Yudkowsky 在前不久接受 Lex Fridman 的采访时再次警告,人类没有第二次校准人工智能的机会,如果人类失败,人类就将灭亡。

THE END
0.AI时代,把兴趣变成事业的人到底有多牛?很荣幸的,存在世界的许多年里,兴趣多半时间一直是我的事业,从小写字就是我的爱好,长大了我也一度用它来养家糊口,赚钱的滋味很爽,被他人欣赏的感觉更佳,文笔出色成了我的光环,也曾自诩在我的世界绝不允许出现不完美的字眼儿。 将爱好作为专业当然也会存有bug,因为这样真正能让你感到轻松的娱乐就变少了,有一段时间,开始放弃日记、散文这样缺 jvzquC41yy}/lrfpuj{/exr1r16g7kkh2egd2n
1.马云退休五年后发内部信高喊:“AI时代到来,我们正当其时!”有了自身阿里云的业务应用通义千问等,也有了大手笔扫货AI大模型赛道,显示了阿里迫切抓住这一波AI浪潮的机会,也给了风清扬喊出的“AI时代到来,我们正当其时!”的底气。 下面,看看在“风清扬”《致改革 致创新》的内部信中的几个重点内容: 1、有错误不可怕,没有人不犯错,真正可怕的是不知错、不认错、不改错;jvzquC41yy}/gny/ejooc7hqo1sq1j8273;10qyon
2.顶级特工系列电影面临危机切中了人工智能的时代痛点,然后呢?观众期望看到的是,既然对手是“未来”的,战争是“未来”的,那么电影多少能给出有关“未来”的格局与思考,退而求其次,起码也得架构出一个符合“未来”的战场,给铁粉们上点来自“未来”的间谍片硬菜吧,毕竟《黑客帝国》都过去二十多年了。可惜影片对时代痛点浅尝辄止的表现,仅仅只是切中而已,我们甚至连属于AI时代的武器都没有jvzquC41o0vpwfp0et0u‚xvgo532;812:51;8554966;=;0ujznn
3.面向未来的教育,让孩子看见更大的世界关键词:AI时代的教育变革 杨咏梅:AI时代,如何培养孩子的竞争力? “当前,学习无动力、真实世界无兴趣、社交无能力、生命无价值感的‘四无’少年普遍存在于我们身边。”中国家庭教育学会宣传教育专业委员会副理事长杨咏梅给大家展示了一组权威数据。数据显示,现在越来越多的孩子出现心理健康问题。“我们要不断反思,我们jvzquC41l{jc0|hgfwsffrf0eqs0FxhwogtuGujevtuokl4fqe333?;50jznn
4.爱奇艺龚宇:始终追求内容高品质和多样性AIGC将引行业发生大变化AI大潮涌动,文娱企业如何拿到通向下一个时代的船票? 9月21日在丽江举行的2023爱奇艺iJOY悦享会上,爱奇艺创始人、CEO龚宇分享了他对行业的最新思考。在龚宇看来,AI(人工智能)在影视内容策划、开发、制作以及宣发等方面将有重要应用空间。目前围绕爱奇艺实际需求,在文本、图片、声音、视频和3D模型五大应用场景,AI已经jvzq<84vgen/eww0ep5uglmrj1814<5;445u49752;83a>7864>:9=3ujvsm
5.巴比特|元宇宙每日必读:AI时代,小团队获得大成就的案例会越来越多,未从我们了解到的数据来看,在 AI 领域出手最多的机构大概有两三家,每家大概投四五个项目(其中也以模型类为主),其他真正出手投过一两个项目的大概有 20 家机构左右,所以真正的 AI 应用层项目能拿到融资的其实很少,至少和目前整体市场的热度及共识是完全不匹配的。jvzquC41dnuh0lxfp0tfv8|gkzooa=95:5>928ftvkimg8igvcomu86525;64A>
6.AI时代,如何成为不可替代的智慧教师挑战:育人重任在AI时代面临多重考验 育人专业性、权威性遇挑战。“以前家长总说‘老师您说了算’,现在会拿着教育公众号文章追问‘为啥不这样教’?”执教34年的长春市解放大路小学校教师郑立嵩,一语道出教师专业性面临的时代挑战。信息洪流中,家长通过短视频、育儿博主获取碎片化“新知”,对教师的期望越来越高,质疑jvzquC41gf{/umhjkpg/exr1ujux1:>885734<>4:5<62>;30jznn
7.谢源:计算存储一体化,在存储里做深度学习,架构创新实现下一代AI芯片简介:加州大学圣芭芭拉分校教授谢源发表了演讲《人工智能时代的计算机架构创新》。AI时代硬件领域犹如战国群雄争霸,没有一种芯片能完全通用,也没有一家公司能独霸市场。在这个激动人心的时代,硬件研发似乎有无限可能。 谢源教授于1997年获得清华大学电子工程系学士学位,于1999年和2002年获得普林斯顿大学电机工程系硕士和博士jvzquC41fg|fnxugt0gmk‚zp0eun1jwvkerf1;<9:57