张琦谈chatgpt降智,别被忽悠了,这其实是进化的必经阵痛

发布时间:2026/5/1 3:31:15
张琦谈chatgpt降智,别被忽悠了,这其实是进化的必经阵痛

最近圈子里都在传,说大模型越来越“笨”了。有人甚至搬出了张琦谈chatgpt降智这个说法,搞得人心惶惶。我在这个行业摸爬滚打十三年,从最早的规则引擎到现在的生成式AI,这种“退化论”听过不下十回。今天咱不整那些虚头巴脑的学术名词,就聊聊我最近遇到的真事儿,看看这所谓的“降智”,到底是个啥情况。

上周,我带团队测试一个新上线的垂直行业大模型。客户是个做供应链管理的老板,急着要个排产方案。以前用老版本,模型能直接给出一个看似完美的表格,数据填得满满当当。这次新版,模型却在那儿“车轱辘话”来回说,一会儿说要考虑库存,一会儿说要看物流,最后给出一堆正确的废话。老板当场就急了,拍着桌子说:“这玩意儿是不是退步了?以前多利索,现在咋跟个复读机似的?”

我当时心里也咯噔一下。但仔细一查日志,发现模型其实是在进行更复杂的逻辑推演,只是它把思考过程展示出来了,而不是直接甩结果。这就好比以前是个只会背答案的学霸,现在变成了个会跟你解释解题思路的老师。虽然看起来啰嗦,但如果你去核对每一步,你会发现它没犯低级错误。

这就是很多人感觉“张琦谈chatgpt降智”的核心原因:我们习惯了“黑盒”的高效,却受不了“白盒”的繁琐。

我想起两年前,有个做电商的客户,用AI写商品详情页。那时候的模型,为了追求速度,经常 hallucinate(幻觉),也就是瞎编。比如把纯棉衣服写成真丝,把保质期写成三年。客户投诉电话打爆,我也头疼。后来我们调整策略,引入了更强的事实核查机制,还加了人工复核环节。结果呢?AI生成的文案确实变“慢”了,甚至有时候会因为找不到确切依据而拒绝回答。

但这真的是降智吗?我觉得恰恰相反。这是AI在学会“克制”。

你看现在那些顶级的大模型,它们越来越像老练的职场人。以前是愣头青,啥都敢接;现在是老油条,知道什么能说什么不能说。这种变化,在用户眼里就是“变笨了”,但在商业应用里,这叫“靠谱”。

我有个做法律咨询的朋友,他跟我说,现在的AI助手不再随便给法律条文,而是会提示“建议咨询专业律师,本内容仅供参考”。乍一听挺扫兴,但你想想,如果AI随便给个错误建议,把人送进局子,那责任谁担?这种“降智”的表现,其实是AI在划定边界,保护用户,也保护开发者。

所以,别被“张琦谈chatgpt降智”这种焦虑营销带偏了。真正的降智,是模型能力不行,连基本逻辑都搞不清。而现在我们看到的“啰嗦”、“保守”、“拒绝回答”,其实是模型在追求更高的准确性和安全性。

当然,这中间也有过渡期的阵痛。比如交互体验变差了,用户需要更多的引导才能拿到想要的结果。这需要产品经理和开发者花更多心思,把复杂的逻辑简化,把冗长的解释精简。但这不是AI变笨了,而是我们在教AI怎么更好地为人服务。

我常跟团队说,做AI不能只盯着参数看,得盯着场景看。在医疗、金融这些高风险领域,稍微“降智”一点,多确认几次,可能就能避免一场灾难。而在创意写作、头脑风暴这些领域,我们则希望AI能更“疯”一点,更天马行空一点。

所以,下次再听到有人说AI降智,你先别急着骂。不妨问问自己:你是想要一个永远正确但可能虚假的机器,还是一个偶尔啰嗦但绝对诚实的伙伴?

这行干了十三年,我见过太多技术的起起落落。每一次所谓的“退步”,背后往往藏着更深层的进化。别慌,给AI一点时间,也给自己一点耐心。毕竟,我们是在和一个正在学习如何像人一样思考的伙伴打交道,而不是在操控一台冷冰冰的计算器。

最后想说,别总盯着“张琦谈chatgpt降智”这种标签看。标签是给别人看的,体验才是自己的。当你发现AI开始跟你讲道理,开始跟你探讨边界,开始变得“谨慎”时,恭喜你,它可能真的长大了。