155万一张A100芯片,首批AI韭菜要被割了?
文/方姐
上个月阿里云峰会的时候,阿里云在会场里头热火朝天的发布通义千问,外头一个中年大哥举着个二维码叫人扫,声称可以直连ChatGPT。
也是好多年没见过“街扫”了啊,上一次这么热闹,还是O2O、P2P大战时候。
大模型确实火热,现在科技圈大佬谁不说要搞大模型,都不好意思跟人打招呼。只是大家情况是有所不同的,阿里、腾讯这些早进入云服务领域的大厂,已经解决了大模型有没有的问题,还软硬兼备。而王慧文、王小川等新入局者只能“先软后硬”,先做算法再考虑搞自己的硬件底座。
因为硬件底座的基石芯片很难买到。AIGC不仅是算法的比拼,更是算力的比拼。据市场调查机构 TrendForce 数据显示,如果以英伟达 A100 显卡的处理能力计算,GPT-3.5大模型需要2万块GPU来处理训练数据。
而因为众所周知的原因,A100芯片已经无法从官方渠道购得,当然了,有钱不赚白不赚,英伟达针对中国客户推出了H800,综合使用效率只有A100的60%,价格不菲,还要排队,财大气粗的大厂量大从优,至于创业公司就需要在一个很长的订货名单里等待咯。
大厂确实不缺A100和H800。按照一份流传出的交流纪要,阿里云AI专家提到,阿里云在云上就有上万片的A100,整体能够达到10万片,集团体量应该是阿里云的5倍。腾讯云利用H800加速卡打造的大模型算力集群,集群规模达到了数千台服务器。并且,巨头们都还在继续采购。
这大模型大战还没开始,就已然成为巨头的游戏。
于是巨头之外的创业者们就面临着:迫切想搞大模型的心情和搞不到算力的尴尬,想搞也搞不起来。
但如果你真有诚心,还是有办法的,那就是找黄牛。
有需求就有供给,市场上有一些声称有A100芯片的人,他们神神秘秘,没说自己从哪搞来的芯片,反正一副爱买不买的架势,“价格一天一变,而且要的话就得马上订,不然就没了。”
你要问价,人就发来了报价单,上面写着15万元/张。本来以为这个价格已经挺贵了,谁都知道,一张A100官方售价是1万美元,这相当于溢价了100%。
但是令方姐没想到的是,又一个黄牛发来了报价,一张A100芯片现货售价——155万元。
这就是说,要是有人以原价屯了A100芯片,现在最高能获得2000%的投资回报率。这可比什么沙坤、乌鸦哥、巴勃罗赚钱多了,珠江上的“大飞”也别走私猪脚、奶粉了,直接上A100岂不更香。
方姐称了下重量,A100这黄牛价比黄金还贵,顶张A100出门,天下都知你富。
至于大模型嘛,花的是投资人的钱(虽然不知道投资人有没有这么大方),为估值着想,最好是宣传准备自建算力矩阵。只是,就这个价,黄牛说,手头也只有4块,搭建一个1万块的大模型,也不知道要到猴年马月了,到时候黄花菜都凉了。
大模型的生意模型还没得到验证,芯片黄牛的生意倒风生水起了。上一次黄牛这么硬气,大概是去年年末今年年初囤积“特效药”P药时候。
P药能治病救人,茅台越囤越香,这A100要是遵循摩尔定律,只会越来越便宜。英伟达推出新芯片,黄牛不就砸手里了么。
估计,黄牛是觉得大模型创业者们刚拿到融资,财大气粗,能割多少是多少。万物皆可囤,万物皆韭菜。
毕竟市场钱确实多。前段时间,OpenAI首席执行官 Sam Altman说,公司必须要筹集到1000亿美元,以支付训练 AI 模型的高昂费用。
要是OpenAI真能融到这么多钱,那所有创业者都得欢呼:我们也可以,我们要融100亿、10亿,反正军备竞赛一开始,卖军火的最高兴。
讲道理是讲不通的。一个AI领域的资深专家告诉方姐,通用的大模型底座的确不应该需要那么多,但没有明显赢家的时候,大家都觉得有机会。其实总体来看是浪费。
黄牛们巴不得风风火火的大模型创业者们都不租用别家的云计算,赶紧自建矩阵“浪费起来”。只是黄牛倒腾手里那几张也买不起大豪斯,英伟达黄教主才是最大的赢家,高兴就倾销,不高兴就囤货拉涨停,横竖都赢麻,其他人,无论创业者、大厂还是黄牛,都得候着。
他才是真·AI“战争之王”。