黄仁勋:我从不在乎市场份额,英伟达唯一目标是创造新市场
“觉得黄仁勋最近的采访内容还挺不错!”
英伟达 CEO 黄仁勋最近进行了一次令人热议的炉边谈话:
英伟达一直没有过多地谈论市场份额。
我们讨论的主要是如何创新,创造下一个新产品?如何缩短过去一年才能完成的飞轮转速到一个月?
面对与 Azure 和 AWS 等云计算巨头自主构建 ASIC 芯片的竞争,黄仁勋用一个比喻来说明:
公司受到鱼塘大小的限制,唯一的目标是用想象力扩大鱼塘(创造新市场)。
此外,除了英伟达的话题外,黄老板还讨论了 AGI 的智能扩展、机器学习的加速,以及推理与训练的重要性……
虽然访谈时长较长(近 1 个半小时),但很多观众已经看完并开始思考并行了(开始思考是吧!)
网友:积极学习!积极学习!
黄仁勋:未来的推理增长将远超训练
考虑到视频较长,先来看一下主要观点,黄老板的核心观点包括(省略细节):
“口袋里的 AI 助理”将很快以某种形式出现,即使最初可能有缺陷;
英伟达的竞争优势在于构建了全方位的从 GPU、CPU、网络到软件和库的全栈平台;
人工智能的扩展重点已从训练阶段转移到训练后和推理;
推理(inference)时的计算将成为新的智能扩展路径;
未来推理的增长将超过训练的增长;
开源和闭源将共存,开源模型可能用于创建特定领域的应用程序;
……
(以下为重点部分整理)
Q:关于个人 AI 助理的发展前景,您认为何时我们可能将拥有一个无所不知的 AI 助理?
A:很快就会以某种形式出现。这个助理可能有缺陷,但会随着时间逐渐改进,这是技术发展的自然规律。
Q:您是否认为 AI 领域的发展速度是最快的?
A:是的,这是因为我们重新定义了计算。在过去的 10 年中,我们成功将计算的边际成本降低了 10 万倍,这超出了摩尔定律的预期(降低约 100 倍)。
我们通过以下方法实现了这一目标:
引入加速计算,将 CPU 上效率低下的工作转移到 GPU 上
推出新的数值精度
设计新架构(如张量核心)
应用高速内存(HBM)
通过 MVLink 和 InfiniBand 扩展系统
这种快速发展促使我们从传统的编程方式转向了机器学习,整个技术堆栈都在迅速创新和进步。
Q:关于模型规模的扩展方面,有哪些变化?
A:以前,我们主要关注预训练模型的扩展(主要是模型规模和数据规模),使每年所需的计算能力增加了 4 倍。
现在,我们可以看到后训练(post-training)和推理阶段也在扩展。人类的思维过程不是一次性的,而包括快速思考、慢思考、推理、反思、迭代和模拟等多个阶段。
此外,人们以前认为预训练容易,推理简单,但现在两者都变得复杂了。
Q:与 3-4 年前相比,您认为英伟达今天的优势更大还是更小?
A:实际上更大了。以前人们认为芯片设计就是追求更多的 FLOPS 和性能指标,这种观念已过时。
当今关键在于整个机器学习系统的数据流程(flywheel),因为机器学习不止是软件编程,还涉及全流程的数据处理。从数据采集、整理、训练前的准备等各个环节都十分复杂,需要大量的处理工作。
Q:与 Intel 等公司相比,Nvidia 在芯片制造和设计方面有何不同的策略?
A:Intel 擅长制造和设计更快的串行处理 x86 芯片,而 Nvidia 沿用了不同的策略:
在并行处理中,每个晶体管无需高出色
我们更倾向于使用较多但速度稍慢的晶体管,而不是少量但速度较快的晶体管
宁愿有数量翻倍,速度降低 20% 的晶体管,也不要数目减半,速度提高 20% 的晶体管
Q:关于定制的 ASIC(如 Meta 的推理加速器、亚马逊的 Trainium、Google 的 TPU)以及供应短缺,这会改变与 NVIDIA 的合作态势吗?
A:各自致力于不同领域。NVIDIA 的目标是为新的机器学习、生成式 AI 和智能 Agent 世界构建计算平台。
在过去 60 年间,我们彻底改变了整个计算技术堆栈,从编程方式到处理器架构,从软件应用到人工智能,每个领域都有了变革。我们的目标是实现一个无所不在的计算平台。
Q:NVIDIA 作为一家公司的核心目标是什么?
A:构建一个无处不在的架构平台。我们不追求市场份额,我们创建市场。我们专注于创新和解决下一个问题,推动技术进步。
Q:NVIDIA 怎么看待竞争对手和合作伙伴?
A:我们对竞争有清醒的认知,但这并不改变我们的使命。我们会向 AWS、Azure 等合作伙伴提前透露我们的路线图,保持透明,即使他们也在研发自己的芯片。对于开发者和人工智能初创公司,我们提供 CUDA 作为一个共同的平台。
Q:你们对于 OpenAI 的看法如何?如何评价其发展?
A: OpenAI 是我们这个时代最重要的公司之一。尽管 AGI 的确切定义和时机并非最重要,但 AI 能力的发展路径会十分惊人。从生物学家到气候研究员,从游戏设计师到制造工程师,AI 在不同领域的创新都需到我们注意。
我对 OpenAI 推动该领域发展的速度和决心感到折服,同时也为其能资助下一代模型感到高兴。
Q:你们看待 AI 模型的未来以及人工智能之间的区别如何?
A:AI 模型正在商品化,Llama 的出现使构建模型更经济。这将导致模型公司的整合,只有那些拥有经济引擎并能持续投资的公司才能存活。
Q:对于人工智能模型的未来以及模型与人工智能之间的区别,你有什么看法?
A:模型是人工智能不可或缺的一部分,但人工智能是一种能力,需要应用于许多不同的领域。我们将看到模型的发展,但更重要的是人工智能如何应用于各种不同的场景。
Q:对于 X 公司的看待以及他们建立大型超级计算群的成就如何?
A:他们在 19 天内(通常需要 3 年)建造了一个拥有 100,000 个 GPU 的超级计算机集群。这展示了我们平台的力量,以及我们整合整个生态系统的能力。
Q:你认为分布式计算和推理扩展会走向哪个方向?
A:我对此充满热情和乐观。推理时的计算作为全新的智能扩展向量,不同于仅构建更大的模型。
Q:在人工智能中,有许多任务只能在运行时完成吗?
A:是的,许多智能工作无法提前完成,许多事情需要在运行时完成。
Q:如何看待人工智能的安全性?
A:我们必须构建安全的人工智能,并需要与政府部门合作。我们已经着手建立多个系统以确保人工智能的安全,并需要保证人工智能对