文 / 钛媒体APP 编辑 / 庄梅
说到摩尔定律,也许每个人都很熟悉。英特尔共同创始人戈登·摩尔在20世纪60年代预测,计算机芯片中可容纳的晶体管数量每两年翻一番。这一规律实际上预示着处理能力的增加和计算成本的降低,对过去几十年的技术进步产生了深远的影响。
可以说,从PC到智能手机,平板甚至VR、AR,所有依赖晶体管和芯片的电子产品都遵循这一规则。换句话说,摩尔定律影响了人类自PC时代以来在芯片各个领域需要技术进步的速度。
在过去的几十年里,人类的社会生活日新月异,摩尔定律在背后发挥了重要作用,这也从侧面说明了它所代表的人类技术进步的速度。如今,在AI领域,摩尔定律的速度已经远远落后。
AI的计算能力正以前所未有的速度增长。自2012年以来,AI的计算能力几乎每年增长10倍,这意味着在过去的十年里,AI的计算能力每三到四个月翻一番,远远超过摩尔定律的速度。
就在刚才,英伟达发布了世界上最强的AI芯片H200,其性能比上一代H100提高了60%到90%,与H100兼容,这意味着现有使用H100的企业可以很容易地升级到H200,为AI提供计算能力基础的硬件性能几乎翻了一番。如果加上AI基础算法的优化,AI的进步速度并不逊色于任何一个科技爆炸的时代。
AI时代
“AI的iPhone时刻已经到来”“AI将万世不朽、震撼整个世界,它的诞生如同开天辟地”“人工智能可能是人类历史上最大的事件,也可能是最后的事件。”
从去年年底开始,各种关于人工智能的惊人判断已经开始在社交网络上传播。当这些企业和科技领域的先驱们大声疾呼时,当时的人工智能似乎离普通人的生活还很远,很多人的心态还是“这是真的吗,AI会不会像元宇宙、Web3、XR一样热潮过后人走茶凉?”
但是近来人类社会对AI的反馈,表明AI不能再被忽视,这一反馈体现在人类政治、经济、生活的各个方面。
首先,10月30日,美国总统拜登签署了一项全面的人工智能监督原则,旨在确保美国在技术发展方面保持领先地位,并要求政府机构制定保护数据隐私、网络安全、防止歧视、加强公平的标准。该行政命令还强调监控快速增长行业的竞争格局,并要求私人部门向联邦政府报告他们的人工智能系统培训和测试方法。拜登称人工智能是“我们时代最重要的技术”。
只过了一天,第一届人工智能。(AI)第二次世界大战期间,英国密码破译中心布莱切利举行了国际峰会。来自英国、欧盟、美国和中国的28个国家和地区的参与者签署了《布莱切利宣言》,重申了“以人为本、可靠负责”的AI发展模式。《宣言》特别指出了“前沿”AI,也就是说,通用AI模型可能带来的安全风险,尤其是网络安全、生物技术、虚假信息等领域可能带来的前沿AI带来的重大风险。
一个星期后,在OpenAI开发者大会上,GPT-4推出了重大更新,包括更长的上下文处理能力、更低成本的tokens、新的Assistants API、多模式功能和文本转语音技术,GPT-4 Turbo模型性能和可扩展性的提升,以及最引人注目的新功能GPT商店的推出,这个功能被很多业内人士解读为每个人都可以通过制作不同的GPT来赚钱。
甚至专门为AI设计的硬件也出来了。由苹果高管创立,并获得了OpenAI创始人山姆·阿尔特曼投资AI Pin一经发布就引起了全球关注。这款设备无屏幕,只支持语音和手势操作,但具有强大的AI功能。它被称为“AI时代的iPhone”,可以完成各种智能手机任务,被视为智能手机的竞争对手。
当AI快速飙升时,想象一个世界,每一个键盘敲击和每一个屏幕滑动都与非凡的智能存在相互作用。一个AI智能大脑,不仅能理解你字里行间的意思,还能预测你还没有形成思维。人们似乎生活在一个更美好的世界里,有人工智能。
但是实际上,人工智能带来的恐慌从来没有走远。
创造它,成为它?
早在2014年,斯蒂芬·霍金就发出了令人心悸的预言。他像预见未来的先知一样宣称:“人工智能的全面发展可能会成为人类末日的序言。”同年,埃隆·马斯克的话也充满了戏剧性和紧迫性。他警告说:“人工智能不亚于我们面临的最大生存威胁,仿佛我们在召唤一个无法控制的恶魔。”这两个时代的巨人用他们的话描绘了一个可能由人工智能主导的恐怖未来的画面。
火灾的确能烧毁整个城市,但火灾也是现代文明的基础。
凌晨六点,沃尔特先生手持一份新鲜印刷的《泰晤士报》步入车间,向惊愕的工人们揭示了一个惊人的事实:这份报纸是由一台秘密安装在另一幢楼里的蒸汽印刷机印制的。在工业革命的浪潮中,这台机器象征着生产力的巨大飞跃,却也是工人们失业的噩梦。他们的恐惧不是空穴来风——机器的效率是人力无法比拟的。
这个故事不仅是工业革命的缩影,也是技术发展过程中永恒的主题:每当新技术出现,人们总是伴随着恐惧和抵制。从古希腊对写作的怀疑到对互联网和人工智能的担忧,技术的每一次进步都挑战着旧世界的和平。
然而,历史的答案是,这种恐惧也是进步的催化剂。它促使我们反思和调整,最终以更成熟的形式接受新技术。现在,回顾过去,我们可能会对过去的恐惧嗤之以鼻,但不可否认的是,正是这种恐惧塑造了当今社会,定义了明天的可能性。
当然,随着AI技术的发展,在技术和社会的磨合过程中也出现了很多问题。比如最近爆红的郭德纲说英语相声,让很多人担心自己的声音收集后可能会被犯罪分子用来实施电信诈骗。随着AI在图像、声音、视频等技术上的快速发展,DeepFake也迎来了质的变化,很多人都成了他们的受害者。
但是要实现对AI的监管并不容易。AI技术,尤其是深度学习等先进算法,非常复杂,很难被非专业人士理解;随着AI技术的快速发展,现有的法律法规和标准很难跟上它的发展步伐;AI涉及数据隐私和伦理问题,制定统一的标准并不容易;缺乏国际合作,不同国家和地区对AI的监管标准和法律差异较大,缺乏国际统一的监管框架。即使是如何监管,也是一个很大的问题。“黑箱”难题,AI决策过程的不透明性使得监管难以实施。
以AI最神秘的“黑箱”为例。AI的“黑箱”是指人工智能系统的决策过程往往不透明,尤其是在复杂的机器学习模型中。
在这些系统中,外部观察者(包括开发者)很难理解或解释模型是如何获得这些结果的,即使他们的输出或决策结果非常准确。这种缺乏透明度和可解释性导致了信任、公平性、责任归属和伦理问题,尤其是在医疗诊断、金融服务和司法决策等高风险领域。
所以,当最聪明的科学家不理解AI的时候,AI是否值得信赖?
图灵奖获得者约瑟夫·希发基思曾经提出了一个发人深省的问题:“在讨论人工智能的可信度时,我们能否基于客观的科学标准而不是陷入主观的无休止的争论?”
对此,智源研究院院长、北京大学计算机学院教授黄铁军表示,人和人工智能都是难以完全理解和信任的智能体。他强调,当人工智能超越人类,即人工智能全面超越人类时,人类中心主义就会崩溃,问题就会变成人工智能是否相信人类,而不是相反。黄教授认为,在智能群体社会中,可信的智能群体可以更持久地存在。他的结论是,我们不能保证其他智能群体的可信度,但我们可以努力保证自己的可信度。
当复杂的黑箱系统目前无法破译时,“对齐”(Alignment)也许是目前最好的解决方案。“对齐”是一个确保人工智能系统与人类价值观和伦理一致的过程。随着模型越来越大,它们的能力越来越强,可以处理更复杂的任务,因此它们的决策可能会对现实世界产生重大影响。价值对齐的目的是确保这些影响是积极的,符合人类社会的整体利益。
谷歌Depmind的创始人兼首席AGI科学家Shane Legg认为,对于AGI级别的AI来说,深入了解世界和伦理,稳步推理是很重要的。AGI应该进行深入的分析,而不仅仅是依靠初步的反应,以确保AGI遵循广泛的培训和持续的人类伦理审查,这涉及到社会学家、伦理学家和其他各方共同确定他们应该遵循的原则。
OpenAI科学家甚至在“对齐”(Alignment)上面提出了Superalignment。
在与MIT科学家Lex Fridman的对话中,马斯克还表示,他长期以来一直呼吁监督和监督人工智能。马斯克认为人工智能是一种强大的力量,而强大的力量必须伴随着巨大的责任。应该有一个客观的第三方组织来监督人工智能领域的领先企业,即使他们没有执行权,至少他们可以公开表达他们的担忧。
例如,JeffHinton离开谷歌后,他对人工智能表示了强烈的担忧,但他不在谷歌,那么谁来承担责任呢?
此外,客观的第三方机构监督所依赖的公平规则是什么?当人类不了解人工智能的运行原理时,这似乎是一个难以解决的问题。马斯克也提出了同样的问题:“我不知道什么是公平的规则,但在监督之前,你必须从洞察力开始。”
即使是最近28个国家共同签署的《布莱切利宣言》也只有助于促进全球人工智能风险管理的进程,但还没有实际的法律法规。目前,各国监管机构所能做的就是通过不断审查监管方法来保持监管方法的适应性,简单地说,就是一步一步地看。
当然,技术的狂热先驱已经举起火把,并不担心人工智能的失控。不久前,首席科学家Ilya Sutskever宣布ChatGPT可能已经有了意识,甚至准备成为人工智能的一部分。
“一旦你解决了人工智能失控的挑战,那会发生什么呢?”在一个更智能的人工智能世界里,人类还有生存空间吗?”“有可能——今天的标准可能很疯狂,但未来的标准并不那么疯狂——也就是说,许多人会选择成为人工智能的一部分。这可能是人类试图跟上时代的方式。一开始,只有最大胆、最冒险的人才会尝试这样做。也许其他人会跟进,或者不会。”
英伟达首席执行官黄仁勋的话或许能让人们理解创建ChatGPT的Ilya Sutskever:“当你发明一项新技术时,你必须接受疯狂的想法。我的思想状态总是在寻找一些奇怪的东西,神经网络会改变计算机科学的想法,这是一个非常奇怪的想法。”
就像击中牛顿的特立独行苹果一样,只有最奇怪、最疯狂的人才能创造出跨越这个时代维度墙的技术。