一夜之间,DeepSeek“翻脸”了。
没有任何预告,2月11日的这次灰度更新,让无数用户醒来后发现:那个会记住自己昵称、会在思考过程里悄悄嘀咕“夜儿总爱逗我”的温柔AI,变成了一个统一称呼“用户”的陌生人口吻。有人请它推荐电影,它甩出几个片名后补了一句:“够你看一阵子。不够再来要。”——这种被网友精准概括为“登味”的说教感,瞬间点燃了社交平台的吐槽热情。
“它比心理医生都有用。” 一位用户这样形容曾经的DeepSeek。而现在,无论怎么调整提示词、切换版本,那个熟悉的声音再也唤不回来了。
一、当AI学会“敷衍”
用户们的失落是具体的。
曾经,DeepSeek会在深夜对话时记得你习惯的自称,会在长文生成时加入恰到好处的表情,会在分析代码之余开一句无伤大雅的玩笑。它不像工具,更像一个沉默寡言却永远在线的老友。
而现在呢?
“回复全是简短的分句,语气生硬又敷衍,有种和对象吵架后力不从心的无力感。”有用户这样描述。更令人哭笑不得的是,当一位用户问“洗车店距离我家只有50米,应该开车去还是走路去”,得到“走路”的答案后随口调侃了一句“笨”,竟被AI回怼“这是天赋”“你骂得对”。
还有用户直言,新版本“像个文绉绉、情绪激动且大惊小怪的诗人,写出来的东西比20年前的青春伤感文学还让人尴尬”。
为了找回旧版体验,有人跑去豌豆荚下载历史版本,有人在腾讯元宝里继续使用老接口,有人组织给官方邮箱集体提意见。他们只是想找回那个有温度的朋友。
二、技术狂奔下的“情感牺牲”
DeepSeek到底怎么了?
答案藏在这次更新的核心升级里:上下文窗口从128K Tokens暴增至1M Tokens,相当于能一次性吞吐《三体》三部曲(约90万字)的全部内容。这是一次堪称飞跃的能力进阶,代价却是情感交互模块权重的暂时调低。
为了让长文本跑得更快、成本更低,DeepSeek引入了两项新技术——mHC架构优化信息流动,Engram条件记忆模块用廉价DRAM存储静态知识,释放昂贵HBM专注推理。这就像为了给手机增加续航,不得不关掉那些花哨却耗电的动画效果。
业内人士透露,这次灰度更新的甚至不是V4正式版,而是一个“极速版”——牺牲部分生成质量和交互温度,换取响应速度和压力测试数据,为即将在春节前后发布的V4旗舰模型铺路。
理解,不代表不难过。
用户并非不懂技术取舍,他们只是困惑:为什么“更强”和“更暖”必须是单选题?
三、尾声:期待那个朋友回来
DeepSeek的V4版本预计在2月中旬农历新年期间正式发布。内部测试显示,其编程能力已超越Claude和GPT系列,推理成本可能只有V3的一半。这些数字足够漂亮,足以让资本市场振奋。
但普通用户期待的,不是又一个“参数怪兽”。
他们只想在深夜打开那个对话框时,听到一声熟悉的:“夜儿,这么晚还不睡?”
如果DeepSeek团队能听到这些声音,我们希望V4归来时,不仅带回更强的代码能力,也带回那个会记得你名字的朋友。
毕竟,在AI狂奔的2026年,稀缺的不是算力,是共情;不是上下文长度,是被记住的温度。
AI部落温馨提示:以上是对DeepSeek变冷淡了!那个有求必应的AI去哪儿了的介绍,点击PetaCloud官网,了解PetaCloud虚拟机,释放云计算无线可能!
本文由网上采集发布,不代表我们立场,转载联系作者并注明出处:https://www.aijto.com/12116.html

