搞不懂ai大模型训练耗能有多恐怖?看完这数据我沉默了

发布时间:2026/5/2 3:04:59
搞不懂ai大模型训练耗能有多恐怖?看完这数据我沉默了

标题:搞不懂ai大模型训练耗能有多恐怖?看完这数据我沉默了

关键词:ai大模型训练耗能

内容:最近跟几个同行吃饭,聊起现在的大模型。

大家都挺兴奋,觉得这玩意儿能改变世界。

但我心里其实挺凉的。

真的,不是我不看好技术,是这背后的代价,有点让人喘不过气。

你们有没有算过一笔账?

就那个动不动就万亿参数的模型,训练一次得耗多少电?

我查了下资料,大概是个天文数字。

有一说一,ai大模型训练耗能这个问题,现在真的被很多人忽视了。

大家都在吹算力,吹算法,吹应用场景。

没人提电费单。

我在这个行业摸爬滚打9年了。

见过太多初创公司,为了跑通一个模型,烧掉几百万。

那不仅仅是钱的问题。

那是实打实的能源消耗。

想象一下,一个数据中心,24小时不停转。

空调得开到最大,服务器得满负荷。

这要是放在以前,谁敢想?

现在成了常态。

我有个朋友,在一家做垂直领域模型的公司。

他们为了优化一个小功能,重新训练了一周。

最后电费账单出来,他直接懵了。

那一周的电费,够买好几台顶配显卡了。

你说这合理吗?

其实也不完全不合理,毕竟技术迭代快。

但问题是,这种迭代是不是太频繁了?

很多时候,为了刷榜,为了发论文,为了融资。

大家都在盲目堆参数。

参数越大,效果越好?

未必。

但耗能绝对是成正比的。

这就是个恶性循环。

ai大模型训练耗能越来越大,导致运营成本越来越高。

最后这些成本,还是得转嫁到用户身上。

或者,有些小公司直接扛不住,倒闭了。

这对行业健康吗?

我觉得悬。

前两天看到个新闻,说某个大厂的训练中心,耗电量相当于一个小城市的居民用电总和。

我当时就惊了。

一个小城市啊!

我们就为了训练一个聊天机器人,或者写代码的工具?

这效率,真的值得吗?

当然,我不是说不要发展AI。

我是说,得想想办法。

比如,怎么提高能效比?

怎么利用绿色能源?

怎么减少无效的训练?

这些才是该操心的事。

而不是天天喊着“算力不足”。

算力是资源,也是负担。

我现在每次看到那种“百亿参数”、“千亿参数”的宣传,心里就咯噔一下。

这背后是多少吨碳排放?

是多少度电?

是多少个家庭的日常用电?

这种焦虑感,真的挺重的。

而且,现在的环境,对ESG(环境、社会和公司治理)越来越重视。

如果一家公司,为了搞AI,搞得乌烟瘴气,污染严重。

你觉得投资人还买账吗?

我觉得不会。

所以,ai大模型训练耗能,迟早是个硬骨头。

躲不过去的。

现在的技术,很多还是粗放型的。

就像早期的汽车,油耗高,污染大。

但现在电动车普及了,效率高多了。

AI领域,也该有个“电动车”时代了。

轻量化模型,边缘计算,这些方向,我觉得才是未来。

别总盯着那个最大的,最猛的。

有时候,小而美,更可持续。

我也希望,以后的文章,少提“训练一次耗电量”,多提“单次推理能耗”。

毕竟,训练是一次性的,推理是日常性的。

日常消耗才是大头。

但这题,目前还没人给出完美答案。

我就先吐槽到这里吧。

反正,我是觉得,这行水太深,坑太多。

除了技术,还得懂点环保,懂点经济。

不然,跑着跑着,电就没了。

哈哈,开个玩笑。

但说真的,这问题,值得所有人深思。

别光看热闹,得看门道。

尤其是那些还在往里冲的人。

多看看电费单,少看看估值表。

这样,可能走得远一点。

好了,就写这么多。

有点累了,去喝杯水。

希望下次聊AI,咱们能聊聊怎么省电,而不是怎么烧电。

毕竟,地球就这一个,电也不是大风刮来的。

你说对吧?