黄仁勋向七位论文作者提问,强调大模型资源的严重浪费。

2024-03-24 热点资讯 关注公众号
"黄仁勋发表论文提出Transformer模型,该模型彻底改变了解决器处理长距离依赖难题的方式。Transformer结构和多头注意力机制引发人工智能界轰动,如ChatGPT由Transformer架构构建。这项创新源自八位曾在谷歌工作的AI科学家的共同努力。"

文/ 腾讯科技 郭晓静

2017年,一篇具有里程碑意义的论文——《Attention is All You Need》横空出世,它首次引入了基于自注意力机制的Transformer模型,这一创新架构摆脱了传统的RNN和CNN的束缚,通过并行处理的注意力机制,有效克服了长距离依赖的难题,并显著提升了序列数据处理的速度。Transformer的编码器-解码器结构和多头注意力机制在人工智能领域掀起了一场风暴,大热的ChatGPT正是基于这一架构构建的。(延展阅读:Transformer七子重聚GTC,7年奠基之作背后佚事揭秘)

想象一下,Transformer模型就像是你的大脑在和朋友交谈时,能够同时关注对方说的每个词,并理解这些词之间的联系。它赋予了计算机类似人类的语言理解能力。在此之前,RNN是处理语言的主流方法,但其信息处理速度缓慢,就像老式的磁带播放器,必须逐字逐句地播放。而Transformer模型则像是一位高效的DJ,能够同时操控多个音轨,迅速捕捉到关键信息。

Transformer模型的出现极大地提升了计算机处理语言的能力,使得机器翻译、语音识别和文本摘要等任务变得更加高效和精确,这对整个行业来说是一个巨大的飞跃。

这项创新成果源于八位曾在谷歌工作的AI科学家的共同努力。他们最初的目标非常简单:改进谷歌的机器翻译服务。他们希望机器能够完整地理解并通读整个句子,而不是孤立地逐词翻译。这一理念成为了“Transformer”架构的起点——“自我注意力”机制。在此基础上,这八位发挥各自的专长,于2017年12月发表了论文《Attention Is All You Need》,详细描述了Transformer架构,开启了生成式AI的新篇章。

在生成式AI的世界里,规模定律(Scaling Law)是核心原则。简而言之,随着Transformer模型规模的扩大,其性能也随之提升,但这同样意味着需要更强大的计算资源来支持更庞大的模型和更深层的网络,而提供高性能计算服务的英伟达也同时成为了这场AI浪潮中的关键角色。

在今年的GTC大会上,英伟达的黄仁勋以一种充满仪式感的方式邀请了Transformer的七位(Niki Parmar因故临时未能出席)参与圆桌论坛的讨论,这是七位首次在公开场合集体亮相。

他们在对话中也表达了一些令人印象深刻的观点:

  • 1 这个世界需要比Transformer更好的东西,我想我们在座的所有人都希望它能被某种东西所取代,将我们带到一个新的性能高原。
  • 2 我们在最初的目标上并没有成功,我们开始Transformer的初衷是想要模拟Token的演化过程。它不仅仅是线性的生成过程,而是文本或代码的逐步演化。
  • 3 像2+2这样的简单问题,它可能会使用大模型的万亿参数资源。我认为自适应计算是接下来必须出现的事情之一,我们知道在特定问题上应该花费多少计算资源。
  • 4 我认为当前的模型太过经济实惠,规模也还太小,大概1美元百万token的价格,比外出购买一本平装书要便宜100倍。

以下为实录:

黄仁勋:在过去的六十年中,计算机技术似乎并没有经历根本性的变革,至少从我出生的那一刻起便是如此。我们目前所使用的计算机系统,无论是多任务处理、硬件与软件的分离、软件的兼容性,还是数据备份能力,以及软件工程师的编程技巧,基本上都是基于IBM System360的设计原则——中央处理器、Bio子系统、多任务处理、硬件与软件、软件系统的兼容性等等。

我认为,自1964年以来,现代计算并没发生过根本性改变。尽管在20世纪的80年代和90年代,计算机经历了一次重大的转型,形成了今天我们所熟悉的形态。但随着时间的流逝,计算机的边际成本持续下降,每十年其成本就减少十倍,十五年减少一千倍,二十年减少一万倍。在这场计算机革命中,成本的降低幅度是如此之大,以至于在二十年的时间里,计算机的成本几乎降低了一万倍,这种变化为社会带来了巨大的动力。

试着想象一下,如果你生活中所有昂贵的物品都降到了原来的一万分之一,比如二十年前你花20万美元购买的汽车,现在只需1美元,你能想象这种变化吗?然而,计算机成本的下降并非一蹴而就,而是逐渐到达了一个临界点,之后成本下降趋势突然停止了,它依然每年都在不断改进一点点,但是变化率停滞不变了。

我们开始探索加速计算,但使用加速计算并不容易,你需要从头一点一点来设计。过去,我们可能按照既定的步骤一步步解决问题,但现在,我们需要重新设计这些步骤,这是一个全新的科学领域,将之前的规则重新表述为并行算法。

我们认识到这一点,并相信,如果我们能够加速哪怕是1%的代码,节省99%的运行时间,那么一定会有应用能够从中受益。我们的目标是让不可能变为可能,或者将可能变为不可能,或者已经可能的事情变得更加高效,这就是加速计算的意义。

回顾公司的历史,我们发现我们有能力加速各种应用。起初,我们在游戏领域取得了显著的加速效果,效果好到让人误以为我们是一家游戏公司。但实际上,我们的目标远不止于此,因为这个市场庞大,大到能够推动难以置信的技术进步。这种情况并不常见,但我们找到了这样一个特例。

长话短说,2012年,AlexNet点燃了星星之火,这是人工智能与英伟达GPU的首次碰撞。这标志着我们在这一领域的神奇旅程的开始。几年后,我们发现了一个完美的应用场景,为我们今天的发展奠定了基础。

简而言之,这些成就为生成式人工智能的发展奠定了基础。生成式AI不仅能够识别图片,还能将文字转化为图片,甚至创造出全新的。现在,我们有了足够的技术能力去理解像素,识别它们,并理解它们背后的意义。通过这些背后的意义,我们可以创造出新的。人工智能通过数据理解其背后含义的能力,这是一个巨大的变革。

我们有理由相信,这是一场全新的工业革命的开始。在这场革命中,我们正在创造前所未有的东西。例如,在之前的工业革命中,水是能源的来源,水进入我们创造的装置,发电机开始工作,进水、出电,如同魔法一样。

生成式AI,是一种全新的“软件”,它又能够创造软件,它依赖于众多科学家的共同努力。想象一下,你给AI原材料——数据,它们进入一栋“建筑”——我们称之为GPU的机器,它就能输出神奇的结果。它正在重塑一切,我们正在见证“AI工厂”的诞生。

这种变革可以被称为全新的工业革命。在过去,我们从未真正经历过这样的变革,但现在,它正缓缓展开在我们面前。不要错过接下来的十年,因为在这十年里,我们将创造出巨大的生产力。时间的钟摆已经启动,我们的研究人员已经开始行动。

今天我们邀请了Tansformer的创造者们,来一起讨论未来生成式AI会将我们带向何方。

他们是:

Ashish Vaswani:2016年加入谷歌大脑团队。2022年4月,与Niki Parmar共同创办了Adept AI,同年12月离开该公司,并共同创立了另一家人工智能初创公司Essential AI。

Niki Parmar:在谷歌大脑工作了四年,之后与Ashish Vaswani共同创立了Adept AI和Essential AI。

Jakob Uszkoreit:2008年至2021年在谷歌工作。2021年离开谷歌,并与他人共同创立Inceptive,该公司主营业务为人工智能生命科学,致力于使用神经网络和高通量实验来设计下一代RNA分子。

Illia Polosukhin:2014年加入谷歌,是八人团队中最早离开的人之一,于2017年同他人共同创立了区块链公司NEAR Protocol。

Noam Shazeer:曾于2000年至2009年间和2012年至2021年期间就职于谷歌。2021年,Shazeer离开谷歌并与前谷歌工程师Daniel De Freitas共同创立Character.AI。

Llion Jones:曾工作于Delcam、YouTube。2012年加入谷歌,担任软件工程师。后来离开谷歌,创办人工智能初创企业sakana.ai。

Lukasz Kaiser:曾任法国国家科学研究中心研究员。2013年加入谷歌。2021年,他离开谷歌,成为OpenAI的研究员。

Aidan Gomez:毕业于加拿大多伦多大学,Transformer论文发表时,他还是谷歌大脑团队的实习生。他是八人团队中第二个离开谷歌的人。2019年,他与他人共同创立了Cohere。

黄仁勋:今天坐到这里,请大家积极争抢发言的机会,在这里没有什么话题是不可以谈的,你们甚至可以从椅子上跳起来去讨论问题。让我们从最基础的问题谈起,你们当时遇到了什么问题,是什么启发你们去做Transformer?

Illia Polosukhin:如果你想要发布能够真正读取搜索结果的模型,比如处理成堆的文档,你需要一些能够迅速处理这些信息的模型。当时的递归神经网络(RNN)并不能满足这样的需求。

确实,那时候虽然有递归神经网络(RNN)和一些初步的注意力机制(Arnens)引起了关注,但它们仍然需要逐个单词地阅读,效率不高。

Jakob Uszkoreit:我们生成训练数据的速度远远超过了我们训练最先进架构的能力。实际上我们使用的是更简单的架构,比如以n-gram作为输入特征的前馈网络。这些架构至少在谷歌规模的大量训练数据中,由于训练速度更快,通常都能超越那些更复杂、更先进的模型。

那时候的强大RNN,特别是长短期记忆网络(LSTM),已经存在。

Noam Shazeer:看起来这是一个亟待解决的问题。我们在2015年左右就已经开始注意到这些Scaling law,你可以看到随着模型规模的增大,它的智能程度也随之提高。这里就像是世界历史上最好的问题,非常简单:你只是在预测下一个token,它就会变得如此聪明,能够做一百万个不同的事情,你只是想扩大规模并让它变得更好。

而一个巨大的挫败感在于,RNN处理起来实在是太麻烦了。然后我偶然听到这些家伙在讨论,嘿,让我们用卷积或者注意力机制来取代它。我心想,太好了,我们就这么干。我喜欢把Tansformer比作是从蒸汽机到内燃机的飞跃。我们本可以用蒸汽机完成工业革命,但那将会非常痛苦,而内燃机让一切都变得更好。

Ashish Vaswani:我在研究生时期就开始体会到一些苦涩的教训,尤其是在我从事机器翻译工作的时候。我意识到,嘿,我不会去学习那些复杂的语言规则。我认为梯度下降(Gradient Descent)——我们训练这些模型的方法——是一个比我更出色的老师。所以我不会去学习这些规则,我只会让梯度下降(Gradient Descent)为我完成所有工作,这就是我的第二个教训。

我从这些苦涩的教训中学到的是,那些可以扩展的通用架构最终将在长期中胜出。今天可能是token,明天可能就是我们在计算机上采取的行动,它们将开始模仿我们的活动,并能够自动化我们所做的许多工作。正如我们所讨论的,Transformer特别是其自注意力机制,具有非常广泛的适用性,它也让梯度下降变得更好。另外就是物理学,因为我从Noam那里学到的一点是,矩阵乘法是个好主意。

Noam Shazeer:这个模式一直在重复出现。所以每一次当你添加一堆规则时,梯度下降终将比你更擅长学习这些规则。就是这样。就像我们一直在做的深度学习一样,我们正在构建一个形状像GPU的AI模型。而现在,我们正在构建一个形状像超级计算机的AI模型。是的,超级计算机现在就是模型。是的,这是真的。是的。超级计算机只是为了让你们知道,我们正在构建超级计算机,使其成为模型的形状。

黄仁勋:所以你们要解决什么问题?

Lukasz Kaiser:机器翻译。回想五年前,这个过程似乎非常艰难,你得搜集数据,可能进行翻译,但结果可能只是勉强正确。那时的水平还很基础。但现在,这些模型即使没有数据也能学会翻译。你只需提供一种语言和另一种语言,模型就能自行学会翻译,这种能力就像自然而然地涌现出来的,而且效果令人满意。

Llion Jones:但是,“Attention”的直觉就是你所需要的。所以我想出了这个标题,基本上发生的事情就是在我们寻找标题的时候。

我们只是在做消融,开始把模型的一些碎片扔掉,只是为了看看它会不会变得更糟。令我们惊讶的是,它开始变得更好。包括像这样扔掉所有的卷积效果要好得多。所以这就是标题的来源。

Ashish Vaswani:基本上有趣的是,我们实际上是从一个最基本的框架开始的,然后我们添加了东西,我们添加了卷积,我猜后来我们又把它们去掉了。还有多头注意力等其他很多非常重要的东西。

黄仁勋:谁想出了Transformer的名字?为什么叫Transformer?

Jakob Uszkoreit:我们喜欢这个名字,我们只是随便起了一个名字,觉得它很有创意,改变了我们的数据生产模式,使用了这样一种逻辑。所有的机器学习都是Transformer,都是颠覆者。

Noam Shazeer:我们之前没有想过这个名字,我觉得这个名字特别简单,很多人都觉得这个名字特别好。我之前想过很多的名字,比如Yaakov,最终确定了“Transformer”,它描述了模型的原理,它实际上转换了整个信号,按照这个逻辑,几乎所有的机器学习都会被转换。

Llion Jones:Transformer之所以成为这样一个人们耳熟能详的名字,不仅仅是因为翻译的,而且是因为我们希望以一种更概括的方式来描述这种变革。我不觉得我们做得多么出色,但是作为一个变革者,作为驱动和引擎,它是有逻辑的。大家能够了解到这样一种大语言模型、引擎和逻辑,从架构上而言,这都是一个比较早的着手时期。

但是我们确实意识到,我们实际上是在尝试创造一些非常非常通用的东西,它真的可以将任何东西变成其他任何东西。而且我不认为我们预测到当Transformer被用于图像时,这实际上会有多好,这有点令人惊讶。这对你们来说可能是合乎逻辑的,但事实上,你可以将图像分块并标记每个小点,对吧。我认为这在建筑上很早就存在了。

因此,当我们构建张量到张量库时,我们真正关注的是扩大自回归训练的规模。这不仅仅是语言,还有图像、音频的组件。

所以卢卡什(Lukasz)说他正在做的是翻译。我想他是低估了自己,所有这些想法,我们现在开始看到这些模式结合在一起,它们都加入了模型。

但实际上,一切都很早就存在了,这些想法正在渗透,这需要一些时间。卢卡什(Lukasz)的目标是我们拥有所有这些学术数据集,它们从图像到文本,从文本到图像,从音频到文本,从文本到文本。我们应该对一切进行训练。

这个想法确实推动了扩展工作,最终成功了,它是如此有趣,以至于我们可以将图像翻译成文本,将文本翻译成图像,翻译文本到文本。

你正在用它来研究生物学,或生物软件,它可能类似于计算机软件,它以程序的形式开始,然后你将其编译成可以在 GPU 上运行的东西。

一个生物软件的生命始于某些行为的规范。比如说,你想打印一个蛋白质,就像细胞中的特定蛋白质一样。然后你学会了如何使用深度学习将其转化为RNA分子,但实际上一旦进入你的细胞,表现出这些行为。所以这个想法真的不仅仅是翻译成英语。

黄仁勋:你们是否创建了一个大型的实验室来生产所有这些?

Aidan Gomez:大量可用,实际上仍然公开,因为这些数据通常仍然主要由公共资助。但实际上,你仍然需要数据来清楚地说明你正在尝试的现象。

尝试在给定的产品中进行建模,比如说蛋白质表达和 mRNA 疫苗之类的东西,或者是的,在帕洛阿尔托,我们有一大堆机器人和穿着实验室外套的人,既有学习研究人员,也有以前是生物学家的人。

现在,我们认为自己是新事物的先驱,致力于实际创建这些数据并验证设计这些分子的模型。但最初的想法就是翻译。

黄仁勋:最初的想法是机器翻译,我想问的是,在架构的强化和突破中,看到的关键节点是什么?以及它们对Transformer的设计有什么影响?

Aidan Gomez:一路走来,你们都看到了,你认为在基础Transformer设计之上真的有很大的额外贡献吗?我认为在推理方面,已经有大量的工作来加速这些模型,使它们更有效率。

我仍然认为这有点让我感到不安,因为我们的原始形式是多么相似。我认为这个世界需要比Transformer更好的东西,我想我们在座的所有人都希望它能被某种东西所取代,将我们带到一个新的性能高原。

我想问在座的每个人一个问题。你认为接下来会发生什么?就像这是令人兴奋的一步,因为我认为它与 6-7 年前的东西太相似了,对吧?

Llion Jones:是的,我想人们会惊讶于你说的相似程度,对吧?人们确实喜欢问我接下来会发生什么,因为我是这篇论文的。就像魔法一样,你挥动魔法棒,下一步会出现什么?我想指出的是,这个具体的原理是如何被设计的。我们不仅需要变得更好,我们需要变得明显地更好。

因为如果它只是稍微好一点,那么这还不足以将整个人工智能行业推向新事物。因此,我们被困在原始模型上,尽管从技术上讲,它可能不是我们现在拥有的最强大的东西

但是每个人都知道自己想要什么样的个人工具,你们想做更好的上下文窗口,你们想要更快地产生token的生成能力。好吧,我不确定你是否喜欢这个答案,但他们现在使用了太多的计算资源。我认为大家做了很多浪费的计算。我们正在努力提高效率,谢谢

黄仁勋:我觉得我们是让这一切更加有效,感谢!

Jakob Uszkoreit:但我觉得这主要是关于如何分配资源,而不是一共消耗了多少资源。比如我们不希望在一个容易得问题上花太多钱,或者在一个太难的问题上花太少而最终得不到解决方案。

Illiya Polosukhin:这个例子就像2+2,如果你正确地将他输入到这个模型中,它就会使用一万亿个参数。所以我认为自适应计算是接下来必须出现的事情之一我们知道在特定问题上应该花费多少计算资源。

Aidan Gomez:我们知道目前计算机的生成能力有多少,我觉得这是接下来需要集中注意力的问题,我觉得这是宇宙级的变革者,这也是未来的发展趋势。

Lukasz Kaiser:这种概念在Transformer之前就存在了,它被整合进了Transformer模型中。实际上,我不确定在座的各位是否清楚,我们在最初的目标上并没有成功,我们开始这个项目的初衷是想要模拟Token的演化过程。它不仅仅是线性的生成过程,而是文本或代码的逐步演化。我们进行迭代,我们进行,这使我们有可能不仅模仿人类如何发展文本,还能将他们作为这一过程的一部分。因为如果你能像人类那样自然地生成,他们实际上就能够提供反馈,不是吗?

我们所有人都研读过香农的论文,我们最初的想法是,只专注于语言建模和困惑度,但事实上这并没有实现。我认为这也是我们能够进一步发展的地方。这也与我们现在如何智能地组织计算资源有关,这种组织方式现在也适用于图像处理。我的意思是,扩散模型具有一种有趣的特性,它们能够通过迭代不断地精炼和提升质量。而我们目前还没有这样的能力。

我的意思是,这个根本性问题:哪些知识应该内置于模型之中,哪些知识应该置于模型之外?是使用检索模型吗?RAG(Retrieval-Augmented Generation)模型就是一个例子。同样地,这也涉及到推理问题,即哪些推理任务应该通过外部的符号系统来完成,哪些推理任务应该直接在模型内部执行。这在很大程度上是一个关于效率的讨论。我确实相信,大型模型最终会学会如何进行2+2这样的计算,但如果你要计算2+2,却通过累加数字来进行,那显然是低效的。

黄仁勋:如果AI只需要计算2+2,那么它应该直接使用计算器,用最少的能量来完成这个任务,因为我们知道计算器是做2+2计算的最有效工具。然而,如果有人问AI,你是如何得出2+2的决定的?你知道2+2是正确的答案吗?这将耗费大量的资源?

Noam Shazeer:确实如此。你之前提到过一个例子,但我同样确信在座的各位所研发的人工智能系统都足够智能,能够主动使用计算器。

目前全球公共产品(GPP)正是这样做的。我认为当前的模型太过经济实惠,规模也还太小。它之所以便宜,是因为像NV这样的技术,感谢它的产出。

每次操作的计算成本大约是10到-18美元。或者说,大致在这个数量级。感谢您创造了如此多的计算资源。但是,如果你观察一个拥有五千亿参数的模型,并且每个token进行一万亿次计算,大概是一美元百万token,这比外出购买一本平装书并阅读的成本要便宜100倍。我们的应用程序在价值上比巨型神经网络上的高效计算高出百万倍或更多。我的意思是,它们无疑比治愈癌症等事情更有价值,但不仅如此。

Ashish Vaswani:我觉得让世界更聪明,就是指如何去获得来自于世界的反馈,我们能否实现多任务、多线的并行。如果你真的想构建这样一个模型,帮助我们设计这样一个模型,这是一种非常好的方式。

黄仁勋:能快速分享一下你们为什么创办你们的公司吗?

Ashish Vaswani:在我们公司,我们的目标是构建模型并解决新的任务。我们的工作是理解任务的目标和,并随着这些的变化来满足客户的需求。实际上,从2021年开始,我发现模型最大的问题在于,你不能仅仅让模型变得更聪明,你还需要找到合适的人才来解读这些模型。我们希望让这个世界与模型相互交融,使模型变得更加庞大和卓越。学习过程中需要取得一定的进展,最初在实验室的真空环境下是无法完成这些工作的。

Noam Shazeer:在2021年,我们共同创立了这家公司。我们拥有如此出色的技术,但这项技术并没有惠及很多人。想象一下,如果我是一个病人,听到你这样说,我会觉得有数百亿人他们需要完成不同的任务。这就是深度学习的意义所在,我们通过对比来提升技术。实际上,由于技术的不断发展,得益于黄仁勋的推动,我们的终极目标是帮助全世界的人们。你们必须进行测试,我们现在需要开发更快的解决方案,让数百人能够应用这些应用程序。比如最初,并不是所有人都在使用这些应用,很多人使用它们只是为了娱乐,但它们确实有效,确实在工作。

Jakob Uszkoreit:感谢。我想谈谈我们创立的生态软件体系。在2021年,我参与创立了这家公司,我们的目标是解决一些真正具有科学影响力的问题。过去,我们处理的相当复杂。但当我迎来第一个孩子时,我看待世界的方式发生了改变。我们希望让人类的生活变得更加便利,也希望对蛋白质的研究做出贡献。尤其是有了孩子之后,我更希望能够改变现有的医疗架构,并且希望科学技术的发展能够对人类的生存和发展产生积极影响。例如,蛋白质的结构和解构已经受到了一定的影响,但目前我们缺乏数据。我们必须基于数据做出努力,这不仅是职责,也是作为父亲的责任。

黄仁勋:我喜欢你的观点,我总是对新医药设计充满兴趣,以及让计算机学习新药开发和生成的过程。如果能学习和设计新药,并且有实验室进行测试,就能确定这样的模型是否可行。

Llion JonesLlion Jones:是的,我是最后一位分享者。我们共同创立的公司叫做Sakana AI,意思是“鱼”。我们之所以用日本的“鱼”来命名公司,是因为我们像鱼群一样,自然启发了我们寻找智能的灵感。如果我们能将许多检验的元素结合起来,就会创造出复杂而美妙的事物。许多人可能不了解这个过程和的具体细节,但我们内部的核心哲学是“学习永远胜利”。无论你是想解决问题,还是想学习任何,学习总会帮助你取得胜利。在生成式人工智能的过程中,学习也会帮助我们取得胜利。作为在场的研究者,我想提醒大家,我们赋予计算机的AI模型真正的意义,让它们真正帮助我们理解宇宙的奥秘。实际上,我也想告诉大家,我们即将宣布一项最新的进展,我们对此非常兴奋。虽然我们现在拥有一系列的研究成果作为基石,但我们正在经历一种变革性的发展,目前的模型管理是有组织的,它让人们真正参与进来。我们让这些模型变得更加可行,使用这些大型模型和变革性的模式,改变人们对世界和宇宙的认知方式。这是我们的目标。

Aidan Gomez:我创立公司的初衷与Noam Shazeer相似。我认为计算机正在进入一种新的模式,它正在改变现有的产品和我们的工作方式。一切都基于计算机,而且它在技术内部发生了一定的变化。我们的角色是什么?我实际上是在弥合差距、弥合鸿沟。我们可以看到不同的企业创建这样的平台,让每个企业适应并融合产品,这是直接面向用户的一种方式。这是我们推进技术的方式,我们能让技术变得更加经济、更加普及。

黄仁勋:我特别欣赏的是,当Noam Shazeer显得特别平静时,你却显得非常兴奋。你们俩的个性差异真是鲜明。现在,请Lukasz Kaiser发言。

Lukasz Kaiser:我在OpenAI的经历非常颠覆性。公司里充满了乐趣,我们处理着大量数据进行计算,但归根结底,我的角色还是一个数据处理者。

Illiya Polosukhin:我是第一个离开的人。我坚信我们将取得重大进展,软件将改变整个世界。最直接的方式就是教会机器编写代码,让编程对每个人都变得可及。

在NEAR,我们的进展虽然有限,但我们致力于整合人类智慧,获取相关数据,比如进一步启发人们,认识到我们需要一种基础性的方法论。这种模式是基础性的进展,这种大模型在全球范围内被广泛使用,它在航天等领域有众多应用,它关乎各领域的交流与互动,实际上为我们提供了能力。随着使用的深入,我们发现它带来了更多的模型,目前并没有太多关于版权的争议。

我们现在正处于一个全新的生成式时代,这是一个崇尚创新和创新者的时代,我们希望积极参与并拥抱变化,因此我们寻求不同的方法来帮助构建一个非常酷的模型。

黄仁勋:这种积极的反馈系统对我们整体经济非常有益。我们现在能够更好地设计经济。有人提问,在这个GPT模型正在训练数十亿token规模数据库的时代,下一步是什么?新的模型技术将是什么?你们想要探索什么?你们的数据来源是什么?

Illia Polosukhin:我们的起点是矢量和位移。我们需要真正具有经济价值的模型,人们能够对其进行评估,最终将你的技术和工具应用到实践中,从而使整个模型变得更好。

黄仁勋:你如何对模型进行领域训练?最初的互动和交互模式是什么?是模型之间的交流和交互吗?还是有生成式的模型和技术?

Illia Polosukhin:在我们团队中,每个人都有自己的技术专长。

Jakob Uszkoreit:下一步是推理。我们都认识到了推理的重要性,但很多工作目前还是由工程师手工完成的。我们实际上是在教他们以一种交互式的问答方式去回答,我们希望他们能够理解为什么在一起,一起提供强有力的推理模式。我们希望模型能够生成我们想要的,这样的生成方式是我们所追求的。无论是视频、文本还是3D信息,它们都应该被整合在一起。

Lukasz Kaiser(Lukasz Kaiser):我认为,大家是否理解推理实际上来源于数据?如果我们开始进行推理,我们手头有一系列数据,我们会思考这些数据为何与众不同?然后我们会了解到各种不同的应用,其实都是基于数据推理的过程。由于计算机的能力,由于这样的系统,我们可以从那里开始进一步发展。我们可以推理出相关的,进行实验。

很多时候,这些都是源自数据的。我认为推理的发展非常迅速,数据模型也非常重要,而且不久的将来会有更多交互性的。我们还没有进行充分的培训,这不是关键和要素,我们需要让数据更加充实。

Noam Shazeer:设计一些数据,比如设计教学机器,可能涉及数百个、数亿个不同的代币。

Ashish Vaswani:我想提出的一点是,在这一领域,我们有很多合作伙伴,他们取得了一些里程碑式的进展。最好的自动化算法是什么?其实是将真实世界的任务分解成不同的。我们的模型也非常重要,它帮助我们获取数据,观察数据是否处于正确的位置。一方面,它帮助我们关注数据;另一方面,这样的数据为我们提供了优质的模型来完成抽象任务。因此,我们认为对这一进展的衡量,也是创意的一种方式,是科学发展的一种方式,也是我们自动化发展的一种方式。

黄仁勋:如果没有良好的衡量体系,你就无法完成出色的工程。你们彼此之间有没有想问的问题?

Illia Polosukhin:没有人真正想要了解自己到底走了哪些步骤。但实际上,我们希望能够了解、探索我们到底在做什么,获取足够的数据和信息,进行合理的推理。比如,如果你有六步,但实际上你可以通过五步进行推理来跳过一步。有时候你不需要六步,有时候你需要更多步骤,那么你要如何复现这样的场景?你从Token进一步发展需要什么呢?

Lukasz Kaiser:我个人的信仰是,如何复现这样的大模型,这是一个非常复杂的过程。系统会不断进步,但从本质上讲,你需要设计一种方法。人类是善于复现的生物,在人类历史中,我们不断复现成功的场景。

黄仁勋:很高兴能与各位交流,也希望你们有机会相互交流,产生难以言喻的魔法。感谢各位参与这次会议,非常感谢!

【本次对话活动于北京时间凌晨4点结束,为了您能第一时间了解对话主要,本实录仅为快速整理和初步审校版本,供参考阅读。】


上一篇:互联网医院:线上预约挂号
下一篇:苹果重新设计 App Store 购买记录页面:让你的每笔消费清清楚楚
更多更酷的内容分享
猜你感兴趣
黄仁勋:每日七天六点的惊人日程,揭示高强度工作的背后秘密

黄仁勋:每日七天六点的惊人日程,揭示高强度工作的背后秘密

英伟达市值一夜猛增1320亿美元,并在美东时间6月3日收盘时达到2.83万亿美元。英伟达创始人兼CEO黄仁勋现年仅29岁,曾在创业初期感到忐忑不安,但经过不懈努力,已成为科技圈顶级红人。在近期会议上,黄仁勋分享了他的管理和领导经验和见解,表达了他对成功的追求和对困难的勇气。

热点资讯 06.04
黄仁勋解答了AI的下一个浪潮,你明白了吗?

黄仁勋解答了AI的下一个浪潮,你明白了吗?

英伟达CEO黄仁勋在GTC大会上分享了他的公司技术发展策略,并讨论了AI、云计算和机器人等领域的前景。他还表示,英伟达并非仅仅出售硬件产品,而是积极布局数据中心市场,致力于消除技术鸿沟,让所有人都可以像和人交谈一样控制软件。最后,黄仁勋还回答了一些媒体提问。

热点资讯 03.23
黄仁勋预测:人工智能下一波浪潮将源于物理世界中的AI

黄仁勋预测:人工智能下一波浪潮将源于物理世界中的AI

悄然来临。物理AI正逐步渗透到我们的生活中,如生产线上操作的机器人等。黄仁勋指出,当前大部分AI并未掌握物理定律,这使得它们无法理解复杂的物理现象,更不用说解释世界和感知世界了。随着技术的发展,越来越多的人工智能开始理解物理规律,并能在现实中自主执行任务。这一时代的到来令人欣喜,人工智能将继续引领人类社会前进。

热点资讯 06.03
黄仁勋明日将登上港岛,沈向洋半小时震撼演讲:推出多款AI大模型,深度展示AI的未来与魅力

黄仁勋明日将登上港岛,沈向洋半小时震撼演讲:推出多款AI大模型,深度展示AI的未来与魅力

IDA大会在深圳举行,沈向洋发表主题演讲并公布创新成果。他认为计算力、算法和数据是关键,并表示机器人将走向千家万户,这是个激动人心的机会。该大会汇聚产学研企界领袖,构建国际化平台,被认为是大湾区最具影响力科技盛会之一。

热点资讯 11.22
销量上涨提振‘医用卫生巾’概念股上涨,凸显二者差别

销量上涨提振‘医用卫生巾’概念股上涨,凸显二者差别

医用卫生巾销量大增的主要原因是因为部分卫生巾品牌虚标长度和卫生标准低。此外,医用卫生巾对细菌菌落总数、真菌菌落总数等卫生指标的要求更高,这使得医用卫生巾在各地市场监督管理局的监督抽查中,要求更严格。尽管医用卫生巾销量增长,但相关企业表示,医用吸收垫收入占公司整体营收比例很低,对业务不构成很大影响。几家医疗机构表示,最近几天,医用吸收垫销量明显出现增长。总体来看,随着人们对卫生巾需求的提高和质量要求的提升,医用卫生巾市场将继续保持稳定增长态势。

热点资讯 11.23
国常会再提平台经济:未来政策将进一步加大对这一领域的支持

国常会再提平台经济:未来政策将进一步加大对这一领域的支持

括算法开发、云计算平台建设、数字营销等服务。同时,政府还需要引导和支持创新技术的研发和应用,以驱动经济发展。会议还指出,要加大对科技创新的支持力度,加强知识产权保护,鼓励企业和个人积极参与技术创新。此外,还要加强数据的安全管理和利用,确保数据的质量和安全。会议强调,通过这些措施,可以充分发挥平台经济的优势,推动经济社会的发展。

热点资讯 11.23
78岁女郎精准减持,60余年经验造就这位股市大神

78岁女郎精准减持,60余年经验造就这位股市大神

田秀英计划减持君正集团不超过3%的股份,这是她在2007年通过受让股权获得的君正集团股份后首次大规模减持。这引发了网友热烈讨论,有人称赞她是“耐心资本的典范”,也有人质疑她与实控人杜江涛的关系。然而,君正集团方面人士称,田秀英此举是出于个人原因,不会对公司经营产生负面影响。此外,田秀英两次“踩点”宣布减持的行为引起了市场的关注。最终,君正集团股价下跌了2.52%。

热点资讯 11.23
吴泳铭引领阿里电商重回巅峰:找回关键先生的力量

吴泳铭引领阿里电商重回巅峰:找回关键先生的力量

阿里巴巴宣布成立电商事业群,蒋凡任组长;同时整合淘天集团、国际数字商业集团以及1688、闲鱼等电商业务。集团要面对强敌Temu和Lazada,将继续推动AI相关业务,并优化线上线下融合布局。

热点资讯 11.23
英伟达Q3营收暴增2500亿,人工智能时代的挖土工人赚翻了

英伟达Q3营收暴增2500亿,人工智能时代的挖土工人赚翻了

目前唯一赚取大额利润的AI生意是出售算力,由英伟达实现。

热点资讯 11.23
两名男子因操纵股价被证监会罚没近3.35亿,揭秘操纵股价全过程:建仓、拉抬、出货详细披露

两名男子因操纵股价被证监会罚没近3.35亿,揭秘操纵股价全过程:建仓、拉抬、出货详细披露

证监会处罚了85后刘洪涛、90后娄阁操纵“腾茂科技”的内幕行为,两人被罚没近3.35亿元,其中刘洪涛被罚3.2亿元。两人涉嫌操纵多只新三板股票并控制多个证券账户,从中获利。刘洪涛、娄阁涉嫌使用大量资金、大量账户进行非法交易,并利用不确定的重大信息引导投资者买卖股票,造成严重后果。

热点资讯 11.23
Redmi K Pro价格升级,填补小米数字系列空白点

Redmi K Pro价格升级,填补小米数字系列空白点

小米Redmi品牌CEO王腾将在微博发布最新信息,称新推出的K系列将主打全能旗舰,并有价格上调的趋势,而随后的2-3K档位将由Turbo系列承担。王腾表示,无论是定价多少,都将确保产品在各个价位上的优秀性价比和绝对优势。

热点资讯 11.23
腾讯与支付宝涉足零工就业:互联网新趋势的深度解析

腾讯与支付宝涉足零工就业:互联网新趋势的深度解析

11月20日,支付宝官方微信号发布《找工作吗?活多、日结、离家近》一文,提出面向零工群体上线了“日结”专区功能,已在27个大中型城市上线超过15万个零工岗位。而10月17日,腾讯官方微信号发布《腾讯推出新功能:附近的工作》一文,提出在“出行服务”中推出了“零工市场”服务,用户可在此直接查询附近的零工信息,腾讯推出的新功能让零工就业服务更加便捷。 文章指出,近年来,零工需求呈旺盛增长态势,供给端和需求端都有所变化。一方面,随着经济发展,越来越多的人开始从事灵活就业,如自由职业者、兼职等;另一方面,新型灵活就业求职者的比例不断提高,这使得零工市场需求持续攀升。为了满足零工群体的需求,两个巨头已经推出了一些服务,包括支付宝推出的“日结”专区功能和腾讯推出的“零工市场”。未来,线上零工市场将面临一些挑战,比如年龄较大的零工可能无法适应在线工作,并且相关的技术和岗位也会逐渐饱和。因此,规范化和规范化的线下零工市场对于保护零工群体的合法权益至关重要。

热点资讯 11.23
华东重机:成功研发并批量生产GPU芯片,开启智能化新时代

华东重机:成功研发并批量生产GPU芯片,开启智能化新时代

锐信图芯已实现GPU芯片量产和批量供货

热点资讯 11.23
蒋凡回归阿里核心层:谣言粉碎剂的再度出山

蒋凡回归阿里核心层:谣言粉碎剂的再度出山

阿里巴巴集团宣布全面整合淘宝天猫集团、国际数字商业集团等电商业务,成立电商事业群,由蒋凡负责。这标志着阿里核心层期待已久的回归,也为阿里带来了新的惊喜和改变。

热点资讯 11.23