3月29日晚间至30日凌晨,国内知名AI大模型平台DeepSeek遭遇了一场持续超过12小时的大规模服务中断。从当晚21时35分首次出现异常,到30日上午10时许才完全恢复,此次宕机事件波及网页端与App端,导致全球数千万用户无法正常访问,相关话题迅速冲上社交媒体热搜,引发了公众对AI服务稳定性的广泛关注。
故障始末:反复拉锯的技术抢修
根据DeepSeek官方服务状态页面发布的信息,此次服务中断呈现出“反复拉锯”的态势。
3月29日 21:35:平台首次监测到服务异常,大量用户反馈页面加载失败,并频繁收到“服务器繁忙”的提示。
23:23:技术团队完成首轮修复,但服务稳定性未达预期。
3月30日 00:20:故障复发,平台性能再次出现异常。
01:24:技术团队实施新的修复方案,服务开始逐步恢复。
10:00左右:经过近12小时的紧急抢修,所有服务才最终恢复正常。
用户影响:关键工作流被迫中断
此次宕机正值高校毕业季和企业项目交付的关键期,对依赖AI工具的用户群体造成了显著影响。
学生群体:许多正在使用DeepSeek辅助撰写毕业论文、进行数据分析的学生被迫中断工作,有用户称“写到一半直接卡死,思路全断”。
职场人士与程序员:依赖AI进行方案策划、代码调试和竞品分析的专业人士工作进度受阻,部分用户因未及时保存而导致内容丢失。
内容创作者:文案撰写、脚本生成等创作流程停滞,有用户调侃“上班搭子没了,计划全乱”。
此外,部分付费会员也抱怨,在关键时刻未能享受到应有的稳定服务,权益受到损害。
原因分析:算力失衡是主因
业内分析普遍认为,此次宕机的根本原因在于DeepSeek用户规模的爆炸式增长与其算力基础设施建设的严重失衡。
数据显示,过去一年DeepSeek的日活跃用户数激增了66.7%,但同期其算力储备仅增长了8.3%。3月底正值使用高峰,海量的长文本生成、代码分析等高算力需求集中爆发,瞬间击穿了系统的承载极限。其采用的混合专家(MoE)架构在高并发场景下的动态路由机制也暴露出拥堵问题。
另有未经证实的行业消息称,故障期间平台可能还遭遇了大规模网络攻击,进一步加剧了服务中断,但该说法尚未获得官方证实。
行业警示:AI依赖风险浮出水面
此次事件不仅是一次技术故障,更是一记警钟,敲响了关于社会对单一AI服务过度依赖的风险。
随着AI工具深度融入各行各业的生产力流程,其服务的可靠性已成为影响工作效率甚至业务连续性的关键因素。此次宕机让大量用户和企业意识到,将核心工作流完全绑定在单一云端AI服务上存在巨大风险。
