对抗英伟达?Open AI这次动真格了
日期:2023-10-10 10:45:43
10月7日,微软和Open AI宣布了各自的造芯计划。在此之前,谷歌、亚马逊、Meta已系数下场自研AI芯片,对英伟达的霸主地位发起围攻。
ChatGPT的爆红让所有科技公司红了眼。大模型竞赛一触即发,巨头和新贵你追我干,催生出的巨大算力需求也让“AI卖铲人”英伟达,成为了实际的受益者。
靠着庞大的芯片出货量,英伟达赚的盆满钵满,市值直接突破万亿美元。财报数据显示,2024财年第二季度,英伟达营收135亿美元,创历史新高。其中,数据中心业营收103.2亿美元,仅这一季度就翻了一倍多。
目前,英伟达几乎控制着全球80%的芯片市场。据行业人士透露,英伟达用于AI和高性能计算应用的H100 GPU早已销售一空,即便现在交钱订货,也要等到明年中旬才能到货。
算力压顶,玩家们显然不甘被英伟达永远“卡脖子”。
01.年亏37亿
Open AI想摆脱英伟达
生成式人工智能,来源于GPU支持。强大的算力,意味着更快的数据处理速度。
随着越来越多的公司加入AI模型竞赛,A100 和 H100 等高端 GPU供不应求,这给英伟达和其制造商台积电带来巨大生产压力。今年第一季度的财报会上,英伟达创始人黄仁勋就表示,订单多到不可思议,公司核心目标就是生产更可能多的先进芯片。
英伟达的GPU不仅不愁卖,实际售价也水涨船高。市面上,H100 GPU已是原价2万美元的两倍,约为 29 万元人民币。
没有算力支撑,大模型难以更新迭代。这对于人工智能企业来说,无疑是发展的阻碍。
据《金融时报》报道,今年8月,百度、字节跳动、腾讯和阿里巴巴向英伟达共订购了价值50亿美元的芯片。但业内人士表示,仅有10亿美元的A800 GPU处理器,能在年内交付。这款处理器由英伟达为中国客户打造,性能与A100接近。
Open AI的CEO Sam Altman也曾多次抱怨算力短缺问题。在伦敦听证会上,他称算力的短缺让API可用性低于标准,这让许多用户感到不满,更阻碍了ChatGPT推出更大的“上下文窗口”。上下文窗口决定了模型的响应速度,和单次提示使用的数据。
而算力成本问题,更是让Open AI苦恼。据路透社报道,2022年OpenAI营收2800万美元,亏损为5.4亿美元(约合人民币37亿元)。亏损的主要算因就是算力开销。
根据分析师 Stacy Rasgon 曾估算,ChatGPT每次查询成本约 4 美分。若ChatGPT 查询增长到 Google 搜索规模的十分之一,需要价值约 481 亿美元的 GPU,每年则需160 亿美元的芯片才能保持运行。
想要GPT越聪明,就得投入更多的算力。据摩根士丹利预测,GPT-5大概要使用2.5万个GPU,是GPT-4的三倍之多。
Sam Altman对此感到焦虑,他表示2023年OpenAI 的目标就是是尽可能降低成本,减少不必要的花销。
据路透援引知情人士消息,从去年开始,Open AI就探讨各种方案来解决AI 芯片的短缺问题。目前,该公司正在探索自研芯片,并评估潜在的收购目标来完成芯片开发任务。
与此同时,Open AI官网也挂出了AI芯片工程师等职位。一月前,该公司还从Meta挖来了人工智能编译器领域的牛人Andrew Tulloch。
Andrew Tulloch此前是Meta人工智能实验室(FAIR)杰出工程师。他是机器学习领域的知名人物,擅长处理机器训练中的大规模问题,发表了大量有关该主题的论文,并被业内广泛引用。
02.谷歌、微软纷纷下场造芯
不止Open AI,微软、Meta 、谷歌等科技大厂也在打造自己的芯片。
OpenAI自研芯片计划曝光的同一天,其合作伙伴微软也表示要下场做芯片了。据知情人士报道,微软计划在下个月的年度开发者大会上,推出首款为人工智能设计的芯片。
据The Information报道,微软在2019年就已经开始芯片研发工作了,研发投入累计近20亿美元。这款芯片代号为雅典娜”(Athena),将会使用台积电的5nm工艺打造。若成功投产,预计每颗芯片的成本降低1/3。
不过,The Information报道称,微软并不认为自己的AI芯片可以直接替代英伟达的高端GPU,而是想要大幅削减成本,以及吸引更多云客户。此外,微软还与AMD进行合作,共同开发人工智能芯片MI300X。
实际上,在芯片大战中,微软一直处于落后地位,谷歌、亚马逊等科技巨头早已发布其自研的芯片。
2016年,谷歌自研芯片TPU问世,该款芯片能为深度学习模型执行矩阵运算,随后相继推出了AI芯片TPU v3 、TPU v4。亚马逊是最早涉足自研芯片的云厂商,2018年推出自研AI推理芯片Inferentia;今年年初,性能更强的Inferentia 2发布。
此外,Meta也公布了内部芯片研发计划,芯片代号为MTIA。这种定制芯片将采用开源芯片架构RISC-V,属于ASIC专用集成电路,将涵盖所有类型的人工智能工作。
03.英伟达地位难以撼动?
但各巨头纷纷下场,就能撼动英伟达的芯片霸主地位吗?
资深芯片研究专家、科普作者汪波向凤凰网科技表示,英伟达最大的护城河就是CUDA开发系统,如同苹果的IOS系统一样,CUDA生态系统面向开发者。
目前CUDA有400万开发者,且只能用英伟达的 GPU 并行计算框架,这也是AI行业普遍依赖英伟达芯片的主要原因。
汪波表示,有了CUDA系统,程序员能用自己熟悉的编程语言控制GPU。用户一旦习惯了程CUDA系统的编程语言,不愿再去学习其他公司的编程语言,这使得ADM等公司不得开发适配CUDA的软件。“由于CUDA生态的优势,即便其他公司在追赶英伟达,也会比英伟达慢一拍。”
国内某芯片公司工程师告诉凤凰网科技,软件生态的建立和发展没有捷径,只有通过大量时间、投入和用户反馈的积累才能做到,英伟达的CUDA生态做了20多年,已经形成了壁垒。“我们预计,在理想的情况下,软件生态建设也需要5-10年时间才能看到成效。”
该工程师表示,OpenAI自研芯片也有其独特的优势, 若不像谷歌、微软一样服务于行业,而是满足自身模型训练的定制化需求,就不用考虑兼容性的问题。
半导体观察作者李飞指出,若Open AI自研芯片成功,将大幅降低模型成本成本。当前,英伟达8卡H100 GPU服务器采购成本约为30万美元,由于溢价原因这台服务器三年总成本为100万美元左右。Open AI自研芯片成功,有望将这一服务器成本成本降低到10万美元以下。
人工智能初创公司 SambaNova Systems 的总经理 Alex White 则认为,自研芯片成本投入巨大,需要具备专业技术和稀缺资源,这并非一朝一夕的事情,Open AI投入了也不一定能够成功。
推荐信息
【推荐】 人工智能chat gpt在线聊天机器人入口
【推荐】 Chat gpt人工智能网页版使用入口
【推荐】 chatgpt人工智能中文版在线使用
【推荐】 chat gpt人工智能中文官网入口
【推荐】 ChatGPT4.0人工智能官网体验入口
【推荐】 Chat gpt人工智能网页版使用免费在线使用
推荐项目
1、本网站为开放性注册平台,以上所有展示信息均由会员自行发布,内容的真实性、准确性和合法性均由发布会员负责,青年创业网对此不承担任何法律责任。
2、在做任何投资前请自行认真核实。如发现网站信息有涉嫌违反相关法律规定或侵权,请联系QQ微信:398879136 删除。