图片来源@视觉中国

文|金融思想,作者| Amigo,编辑|关东升

说起摩尔定律,可能大家都会比较熟悉。英特尔公司的联合创始人戈登·摩尔在20世纪60年代预测,计算机芯片上可容纳的晶体管数量每两年将翻一番。这个规律实际上预示着处理能力的提高和计算成本的降低,对过去几十年的技术进步产生了深远的影响。

可以说,从PC到智能手机、平板电脑甚至VR、AR,所有依赖晶体管和芯片的电子产品都遵守这个规律。换句话说,摩尔定律影响了PC时代以来各个需要芯片的领域的技术进步速度。

几十年来,人类社会生活日新月异,摩尔定律在背后发挥了重要作用,这也从侧面说明了它所代表的人类技术进步的速度之快。现在在AI领域,摩尔定律的速度已经远远落后了。

人工智能的计算能力正以前所未有的速度增长。自2012年以来,AI的计算能力每年增长约10倍,这意味着在过去十年中,AI的计算能力每三到四个月翻一番,远远超过摩尔定律的速度。

就在刚刚,英伟达发布了全球最强AI芯片H200。其性能比上一代H100提高60%至90%,并兼容H100。这意味着使用H100的现有企业可以轻松升级到H200,这对于今天的AI来说,几乎是计算基础硬件性能的两倍。如果对AI的基础算法进行优化,AI的进步速度不亚于任何一个大的技术爆炸时代。

在AI时代,“AI的iPhone时刻已经到来”,“AI将永垂不朽,震动整个世界,它的诞生就像世界的开始”“人工智能可能是人类历史上最大的事件,也可能是最后的事件。”

从去年年底开始,各种关于人工智能的惊人结论开始在社交网络上传播。当这些企业和科技领域的先行者大声疾呼的时候,当时的人工智能似乎离普通人的生活还很遥远,很多人的心态还是“这是真的吗?AI会不会像超宇宙、Web3、XR那样热潮过后就凉了?”

但最近人类社会对AI的反馈表明,AI已经不能被忽视,这体现在人类政治、经济、生活的方方面面。

首先,10月30日,美国总统拜登签署了一项全面的人工智能监管原则,旨在确保美国在技术发展方面保持领先,并要求政府机构制定保护数据隐私、网络安全、防止歧视、加强公平的标准。该行政命令还侧重于监控快速增长行业的竞争格局,并要求私营部门向联邦政府报告他们的人工智能系统培训和测试方法。拜登称人工智能是“我们这个时代最重要的技术”。

仅仅一天后,第一届人工智能(AI)国际峰会在二战时期的英国密码学中心布莱切利(Bletchley)举行。来自英国、欧盟、美国和中国等28个国家和地区的与会者签署了《布莱奇利宣言》,重申了“以人为本、值得信赖、负责任”的人工智能发展模式。宣言特别指出了“前沿”AI,即通用AI。

一周后,在OpenAI开发者大会上,GPT-4推出了重大更新,包括更长的上下文处理能力,更低成本的令牌,新的助手API,多模态功能和文本到语音技术,GPT-4 Turbo模型的性能和扩展性的提升,以及最引人注目的新功能GPT商店的推出。这个功能被很多业内人士解读为,每个人都可以通过制作自己不同的GPT来赚钱。

连专门为AI打造的硬件都出来了,由苹果前高管创办、OpenAI创始人山姆·奥特曼投资的AI Pin自发布以来就吸引了全球的关注。这款设备没有屏幕,只支持语音和手势操作,但拥有强大的AI功能。它被称为“AI时代的iPhone”,可以完成多种智能手机任务。被视为智能手机的竞争对手。

当AI飞速飙升的时候,想象一个世界,在这个世界里,每一次按键,每一次屏幕滑动都是一次具有非凡智能的交互,一个不仅能理解你字里行间的含义,还能预测你尚未形成思维的AI智能大脑。人们似乎生活在一个有人工智能的更美好的世界。

但事实上,人工智能引发的恐慌从未远去。

创造它,成为它?早在2014年,一个令人心碎的预言就出自斯蒂芬·霍金之口。像一个预见未来的预言家,他宣称:“人工智能的全面发展,很可能将是人类末日的前奏。”同年,埃隆·马斯克的话也充满了戏剧性和紧迫性。他警告说:“人工智能不亚于我们面临的最大生存威胁,就好像我们在召唤一个无法控制的恶魔。”这两个时代巨人,用他们的话,描绘了一幅令人恐惧的,可能被人工智能主导的未来图景。

火的确可以烧毁整个城市,但也是现代文明的基础。

1814年11月29日凌晨,伦敦《泰晤士报》的印刷车间里充满了紧张的等待。工人们在焦虑中徘徊,而老板约翰·沃尔特先生的命令是等待——一个重要的消息即将从战后的欧洲传来。随着时间的流逝,工人们越来越担心。在当时的报业中,手工印刷的缓慢步伐是正常的,但今天的延迟似乎表明了一些不同寻常的事情。

早上六点,沃尔特先生拿着一份刚印好的《泰晤士报》走进车间,向惊愕的工人们透露了一个惊人的事实:这份报纸是由秘密安装在另一栋楼里的蒸汽打印机打印出来的。在工业革命的浪潮中,这种机器象征着生产力的巨大飞跃,但也是工人失业的噩梦。他们的担心并非空穴来风——机器的效率是人力无法比拟的。

这个故事既是工业革命的一个缩影,也是技术发展过程中一个永恒的主题:每当新技术出现,人们总是伴随着恐惧和抗拒。从古希腊对文字的怀疑到现代对互联网和人工智能的担忧,技术的每一次进步都挑战着旧世界的和平。

然而,历史的答案是,这种恐惧也是进步的催化剂。它促使我们反思和调整,最终以更成熟的形式接受新技术。现在回想起来,你可能会对过去的恐惧嗤之以鼻,但不可否认的是,正是这种恐惧塑造了今天的社会,定义了明天的可能性。

当然,随着AI技术的发展,其与社会融合的过程中也存在很多问题。比如最近爆出来的郭德纲的英语相声,让很多人担心自己的声音被采集后可能会被不法分子用来实施电信诈骗。随着AI在图像、声音、视频等技术上的飞速发展,DeepFake也发生了质的变化,很多人成为了它的受害者。

但是要实现对AI的监管并不容易。AI技术,尤其是深度学习等高级算法,非常复杂,非专业人士很难理解。AI技术发展迅速,现有的法规和标准很难跟上它的发展。AI涉及数据隐私和伦理问题,不易制定统一标准;缺乏国际合作,不同国家和地区对AI的监管标准和法律差异很大,缺乏国际统一的监管框架,甚至如何监管都是老大难问题;“黑箱”问题和人工智能决策过程的不透明使得监管难以实施。

以AI最神秘的“黑匣子”为例。AI的“黑匣子”意味着人工智能系统的决策过程往往不透明,尤其是在复杂的机器学习模型中。

在这些系统中,即使它们的输出或决策结果非常准确,外部观察者(包括开发人员)也很难理解或解释模型是如何得到这些结果的。这种缺乏透明度和可解释性的情况引发了信任、公平、责任归属和道德方面的问题,尤其是在医疗诊断、金融服务和司法决策等高风险领域。

那么,当最聪明的科学家都不懂AI的时候,AI还值得信任吗?

图灵奖得主约瑟夫·希法克斯(Joseph Shifakis)曾提出一个发人深省的问题:“在讨论人工智能的可靠性时,我们能否基于客观的科学标准进行,而不是陷入主观的无休止的争论?”

对此,致远研究院院长、北京大学计算机学院教授黄铁军表示,人类和AI都是难以完全理解和信任的智能体。他强调,当AI智能超越人类,即存在完全超越人类的人工宇宙智能时,人类中心主义就会崩溃,问题就变成了AGI是否相信人类,而不是反之。黄教授认为,在智能群体社会中,可信的代理人可以更持久地存在。他的结论是,我们无法保证其他代理商的可信度,但我们可以努力保证自己的可信度。

当复杂的黑匣子系统目前无法破译时,“对齐”可能是目前最好的解决方案。“对齐”是一个确保AI系统符合人类价值观和道德规范的过程。随着模型变得越来越大,它们的能力越来越强,可以处理更复杂的任务,因此它们的决策可能会对现实世界产生重大影响。价值一致的目的是确保这些影响是积极的,符合人类社会的整体利益。

谷歌DeepMind的创始人兼首席AGI科学家谢恩·莱格(Shane Legg)认为,AGI级别的人工智能对世界和道德有深刻的理解,并进行稳健的推理,这很重要。AGI应该进行深入的分析,而不是仅仅依靠最初的反应,确保AGI遵循人类伦理需要广泛的培训和持续的审查,让社会学家、伦理学家和其他各方参与进来,共同确定它应该遵循的原则。

OpenAI科学家甚至在“比对”之上提出了超级比对。

马斯克在与麻省理工学院科学家莱克斯·弗里德曼(Lex Fridman)交谈时也表示,他早就呼吁对人工智能进行监管和监督。马斯克认为,AI是一种强大的力量,强大的力量必然伴随着巨大的责任。应该有一个客观的第三方机构像裁判一样监督AI领域的龙头企业。即使他们没有行政权力,他们至少可以公开表达他们的关切。

比如杰夫·辛顿(Jeff Hinton)离开谷歌后,表达了对AI的强烈担忧,但他已经不在谷歌了,那么谁来承担责任?

另外,客观的第三方监督所依赖的公正规则是什么?在人类还没有搞清楚AI的运行原理的情况下,这似乎是一个很难解决的问题。马斯克也提出了同样的问题:“我不知道公平的规则是什么,但在监管之前,你必须从洞察开始。”

即使是最近28个国家签署的《布莱切利宣言》,也只是有助于推动全球AI风险管理的进程,并没有真正可以执行的法律法规。目前各国监管者能做的,就是通过不断检讨监管方法,保持监管方法的适应性。简而言之,就是一步一个脚印。

当然,狂热的技术先锋们早已高举火炬,并不担心AI失控。OpenAI的首席科学家Ilya Sutskever最近宣布ChatGPT可能是有意识的,他甚至准备成为AI的一部分。

“一旦你解决了人工智能失控的挑战,然后呢?在一个人工智能更加智能的世界,人类还有生存空间吗?”“有一种可能性——以今天的标准来看很疯狂,但以未来的标准来看没那么疯狂——许多人会选择成为人工智能的一部分。这可能是人类试图跟上时代的一种方式。起初,只有最大胆和最有冒险精神的人才会尝试这样做。也许会有其他人追随,或者不会。”

英伟达CEO黄仁勋的一句话或许能让人理解创造ChatGPT的伊利亚·苏茨基弗(Ilya Sutskever):“当你发明一项新技术时,你不得不接受疯狂的想法。我的精神状态总是在寻找一些怪异的东西,神经网络会改变计算机科学的想法,这是一个非常怪异的想法。”

就像砸牛顿特立独行的苹果一样,只有最奇怪最疯狂的人才能创造出跨越这个时代次元墙的技术。