今年5月,OpenAI首席执行官Sam Altman向美国参议员们发表讲话时承认,他并不想让人们过多使用ChatGPT。他表示:“如果他们少用点,我们会很高兴的。”原因在于“我们没有足够的GPU。”
Bloomberg专栏作家Parmy Olson认为,Altman的言论凸显了不断增长的人工智能(AI)领域中令人不安的动态,由于其基础设施的价值和规模,现有科技公司的权力正变得更加根深蒂固。人工智能热潮并没有为创新的新公司创造一个繁荣的市场,反而似乎在帮助大型科技公司巩固实力。
智通财经了解到,GPU是一种特殊的芯片,最初设计用于在电子游戏中渲染图形,后来成为人工智能竞赛的基础。这些芯片价格昂贵、稀缺,主要来自英伟达(NVDA.US)。由于需求激增,英伟达的市值上月突破了1万亿美元。为了构建人工智能模型,开发人员通常会从微软(335.05, -0.80, -0.24%)(MSFT.US)和亚马逊(127.9, -1.14, -0.88%)(AMZN.US)等公司购买云服务器的访问权限——GPU为这些服务器提供动力。
俗话说,在淘金热期间,卖铁锹。毫无疑问,今天的人工智能基础设施提供商赚得盆满钵满。但现在与19世纪中期有了很大的不同,当时加州淘金热的赢家都是暴发户,比如推出耐穿矿工裤的Levi Strauss,以及通过售卖五金工具而成为百万富翁的Samuel Brennan。
Olson认为,如今,至少在未来一年左右的时间里,销售人工智能服务的大部分利润将流向微软、亚马逊和英伟达等公司,这些公司已经在科技领域占据主导地位多年。
部分原因是,虽然云服务和芯片的成本在上升,但访问人工智能模型的价格却在下降。2022年9月,OpenAI将访问GPT-3的成本降低了三分之一。六个月后,它使访问成本降低了10倍。今年6月,OpenAI将其嵌入模型的成本削减了75%。Sam Altman曾表示,访问成本“正朝着接近零的方向发展”。
与OpenAI这样的新贵相比,大型科技公司有很大的优势,这要归功于它们可以直接使用那些至关重要的GPU,以及成熟的客户群。
与此同时,人工智能模型的制造商面临着人才流动问题,这使得他们难以保密和保持产品差异化。他们的成本是永无止境的:一旦他们把钱花在云服务器上来训练他们的模型,他们还必须为客户运行这些模型,这个过程被称为推理。AWS估计,推理占人工智能模型总运营成本的90%。这些钱大部分流向了云计算提供商。
这为人工智能领域的双层体系奠定了基础。那些在上层的人有金钱和显赫的关系。从硅谷著名孵化器Y Combinator毕业的创业者,从亚马逊和微软等云供应商那里获得了价值数十万美元的服务。第二梯队的人工智能公司将组成一个长尾,无论他们的算法有多聪明,他们都没有这种关系和资源来训练他们的人工智能系统。
不过,Bloomberg的Olson指出,小公司的一线希望是,大型科技公司有一天会发现他们的产品和服务也变得商品化,迫使他们放松对人工智能市场的控制。芯片短缺最终会缓解,GPU将更容易获得,价格也会更便宜。云计算提供商之间的竞争逐渐升温,例如,谷歌(120.01, -1.07, -0.88%)(GOOGL.US)正在开发自己的GPU版本——称为TPU,而英伟达正在建立自己的云业务来与微软竞争。
而且,随着研究人员开发出LoRA 和PEFT 等技术,使构建人工智能模型的过程更加高效,需要的数据和计算能力将更少。现在,人工智能模型正在变得越来越小,这将需要更少的GPU和基础设施,这意味着大型科技公司的优势不会永远持续下去。