【DeepSeek网页、APP服务出现重大中断】《科创板日报》30日讯,“DeepSeek崩了”登上热搜。DeepSeek官方服务状态网站显示,DeepSeek网页、APP服务出现重大中断。根据事件报告,昨日21:35,DeepSeek发现网页、APP服务异常,并进行调查,于当日23:23解决该事件。今日00:20,DeepSeek对网页、APP性能异常问题进行调查,并于01:24实施修复方案,但截至发稿,该事件仍未被解决。
详细拆解(为什么 “体量再大也扛不住”)
1. 流量与算力严重失衡(最根本)
用户狂飙:日活从 1.2 亿→2 亿,增长 66.7%
算力跟不上:同期算力储备仅增8.3%,完全不匹配
高峰暴击:3 月底毕业季 + 项目交付,深度思考、长文本、代码等高负载功能集中爆发,请求量超日常数倍
2. 技术架构天生 “吃算力”(MoE + 深度思考)
MoE(混合专家)模型:动态路由机制,高峰时资源争抢严重,弹性不足
深度思考模式:多步推理,单次请求算力消耗是普通问答的数倍,极易把集群打满微博
显存 / 带宽瓶颈:大模型推理极度依赖 GPU 显存与网络带宽,一满就崩
3. 硬件与供应链卡脖子(有钱也难买)
高端 GPU 受限:受出口管制,英伟达 A100/H100 难买、价高
国产芯片适配:昇腾等适配效率约 80%,推理性能有短板
扩容周期长:从下单、到货、部署到上线,至少数月,跟不上用户增长速度
4. 外部攻击与运营压力(雪上加霜)
DDoS 攻击:网传峰值 3.2Tbps,消耗大量带宽,加剧节点压力
免费模式陷阱:免费吸引海量用户,但收入不足以支撑算力持续投入
研发挤占资源:为追新模型(如 V4),大量算力投入研发,挤压在线服务资源
5. 行业共性问题(不是 DeepSeek 一家)
通义千问、腾讯元宝、豆包等大厂 AI 服务,都曾因流量过载崩过
AI 服务与传统网站不同:GPU / 显存是硬瓶颈,不像 CPU / 内存容易弹性扩容
三、为什么你觉得是 “简单错误”?
你看到的是 **“服务器繁忙”**,觉得 “加机器不就完了”
实际是:GPU 不是普通服务器,买不到、扩不动、调度难、成本高
这不是 “运维失误”,而是AI 行业现阶段的系统性挑战
四、用户侧怎么应对(临时方案)
避开高峰(晚 8-11 点、白天 10-12 点)
少用 “深度思考” 等高负载功能
切换到其他稳定平台(如豆包、GPT-4o 等)
重要内容及时导出,避免丢失