前述
2025 年的春节对于 IT 从业者来说充满了挑战与惊喜。挑战在于各大公有云厂商纷纷加班抢占 DeepSeek 领域的市场;惊喜在于中国终于拥有了从 0 到 1 的 AI 大模型,并且被 OpenAI 列入竞争对手行列。
各类大大小小的公司也跃跃欲试,纷纷想体验一下 DeepSeek 带来的创新与便捷。
今天,木子完成了 Azure、SiliconFlow、腾讯云 HAI、华为云 ModelArts Studio、OpenRouter 以及自建 Ollama + DeepSeek 等解决方案的体验。
现为大家提供一份 DeepSeek 全球各大公有云厂商价格一览表,帮助大家更快地找到适合自己的解决方案。
补充一点,目前全球各大公有云厂商的 DeepSeek 平台化建设刚刚起步,预计还需要 1-2 个月的时间才能完成。初期难免会遇到各种问题,请给予他们一些时间来改进和完善。
Azure
在 Azure AI Foundry 上目前可以免费使用 DeepSeek-R1。由于后端资源池控制比较严格,所以响应速度较慢。预计不久将上线价格计算器,方便用户进行价格估算。(收费后,算力引爆)
SiliconFlow
SiliconFlow 提供 DeepSeek 系列模型的体验与购买服务,包括 DeepSeek-R1 和 DeepSeek-V3,且价格合理。
-
DeepSeek-R1
- 输入:¥4/M Tokens
- 输出:¥16/M Tokens
-
DeepSeek-V3
- 输入:¥1/M Tokens(原价 ¥2)
- 输出:¥2/M Tokens(原价 ¥8)
腾讯云 HAI
腾讯云 HAI 提供自部署模型的算力支持。默认支持 DeepSeek-R1:1.5B 和 DeepSeek-R1:7B 模型,价格实惠,以下配置仅 7.2 元/小时(从测试结果来看,此配置跑 DeepSeek-R1:70B 没有压力,响应速度较快)。
- 显存:2*32GB+
- 算力:30+TFlops SP
- CPU:18~20 核
- 内存:80GB
华为云 ModelArts Studio
华为云 ModelArts Studio (MaaS)已支持昇腾适配版的 DeepSeek-R1 蒸馏模型,支持的模型包含:
- DeepSeek-R1-Distill-Llama-8B
- DeepSeek-R1-Distill-Qwen-14B
- DeepSeek-R1-Distill-Qwen-32B
此外,ModelArts Studio 还提供免费体验,赠送 200 万体验 Tokens。
百度智能云
千帆 ModelBuilder 提供两周的免费使用(至 2 月 18 日 24:00),包括 DeepSeek-R1 和 DeepSeek-V3,价格比 SiliconFlow 还便宜,价格屠夫啊!!!
-
DeepSeek-R1
- 输入:¥2/M Tokens
- 输出:¥8/M Tokens
-
DeepSeek-V3
- 输入:¥0.8/M Tokens
- 输出:¥1.6/M Tokens
OpenRouter
OpenRouter 提供免费版本的 DeepSeek-R1(Free),但响应速度一般。其收费版支持银联信用卡充值,暂未体验。
自建 Ollama + DeepSeek
NVIDIA GeForce GTX 1080 Ti 跑 deepseek-r1:7b、deepseek-r1:8b 无压力,思考大概几秒钟(需要考虑上下文长度、Max Token 等参数)。但 deepseek-r1:14b、deepseek-r1:32b 较慢,大概需要思考 3 分钟,这与是否全 GPU 调度有很大关系。
Apple M4 Pro 48GB 跑 deepseek-r1:32b 无压力(需要考虑上下文长度、Max Token 等参数)。
相关教程
在接下来的几天里,木子将陆续发布 Azure AI Foundry、腾讯云 HAI、华为云 ModelArts Studio 以及自建 Ollama 等 DeepSeek 部署教程。如果您觉得内容对您有所帮助,请关注我们,以便随时获取最新动态。
变更记录
- 2025-02-04
- 新增百度智能云