DeepSeek 全面解析:全球各大公有云厂商价格一览表

前述

2025 年的春节对于 IT 从业者来说充满了挑战与惊喜。挑战在于各大公有云厂商纷纷加班抢占 DeepSeek 领域的市场;惊喜在于中国终于拥有了从 0 到 1 的 AI 大模型,并且被 OpenAI 列入竞争对手行列。
各类大大小小的公司也跃跃欲试,纷纷想体验一下 DeepSeek 带来的创新与便捷。
今天,木子完成了 Azure、SiliconFlow、腾讯云 HAI、华为云 ModelArts Studio、OpenRouter 以及自建 Ollama + DeepSeek 等解决方案的体验。
现为大家提供一份 DeepSeek 全球各大公有云厂商价格一览表,帮助大家更快地找到适合自己的解决方案。
补充一点,目前全球各大公有云厂商的 DeepSeek 平台化建设刚刚起步,预计还需要 1-2 个月的时间才能完成。初期难免会遇到各种问题,请给予他们一些时间来改进和完善。

Azure

Azure AI Foundry 上目前可以免费使用 DeepSeek-R1。由于后端资源池控制比较严格,所以响应速度较慢。预计不久将上线价格计算器,方便用户进行价格估算。(收费后,算力引爆)

SiliconFlow

SiliconFlow 提供 DeepSeek 系列模型的体验与购买服务,包括 DeepSeek-R1 和 DeepSeek-V3,且价格合理。

  • DeepSeek-R1

    • 输入:¥4/M Tokens
    • 输出:¥16/M Tokens
  • DeepSeek-V3

    • 输入:¥1/M Tokens(原价 ¥2)
    • 输出:¥2/M Tokens(原价 ¥8)

腾讯云 HAI

腾讯云 HAI 提供自部署模型的算力支持。默认支持 DeepSeek-R1:1.5B 和 DeepSeek-R1:7B 模型,价格实惠,以下配置仅 7.2 元/小时(从测试结果来看,此配置跑 DeepSeek-R1:70B 没有压力,响应速度较快)。

  • 显存:2*32GB+
  • 算力:30+TFlops SP
  • CPU:18~20 核
  • 内存:80GB

华为云 ModelArts Studio

华为云 ModelArts Studio (MaaS)已支持昇腾适配版的 DeepSeek-R1 蒸馏模型,支持的模型包含:

  • DeepSeek-R1-Distill-Llama-8B
  • DeepSeek-R1-Distill-Qwen-14B
  • DeepSeek-R1-Distill-Qwen-32B

此外,ModelArts Studio 还提供免费体验,赠送 200 万体验 Tokens。

百度智能云

千帆 ModelBuilder 提供两周的免费使用(至 2 月 18 日 24:00),包括 DeepSeek-R1 和 DeepSeek-V3,价格比 SiliconFlow 还便宜,价格屠夫啊!!!

  • DeepSeek-R1

    • 输入:¥2/M Tokens
    • 输出:¥8/M Tokens
  • DeepSeek-V3

    • 输入:¥0.8/M Tokens
    • 输出:¥1.6/M Tokens

OpenRouter

OpenRouter 提供免费版本的 DeepSeek-R1(Free),但响应速度一般。其收费版支持银联信用卡充值,暂未体验。

自建 Ollama + DeepSeek

NVIDIA GeForce GTX 1080 Ti 跑 deepseek-r1:7b、deepseek-r1:8b 无压力,思考大概几秒钟(需要考虑上下文长度、Max Token 等参数)。但 deepseek-r1:14b、deepseek-r1:32b 较慢,大概需要思考 3 分钟,这与是否全 GPU 调度有很大关系。
Apple M4 Pro 48GB 跑 deepseek-r1:32b 无压力(需要考虑上下文长度、Max Token 等参数)。

相关教程

在接下来的几天里,木子将陆续发布 Azure AI Foundry、腾讯云 HAI、华为云 ModelArts Studio 以及自建 Ollama 等 DeepSeek 部署教程。如果您觉得内容对您有所帮助,请关注我们,以便随时获取最新动态。

变更记录

  • 2025-02-04
    • 新增百度智能云
Avatar photo

关于 木子

Email: [email protected] 微信:rockylinuxcn QQ: 2306867585
Founder of the Rocky Linux Chinese community, MVP、VMware vExpert、TVP, advocate for cloud native technologies, with over ten years of experience in site reliability engineering (SRE) and the DevOps field. Passionate about Cloud Computing、Microservices、CI&CD、DevOps、Kubernetes, currently dedicated to promoting and implementing Rocky Linux in Chinese-speaking regions.
用一杯咖啡支持我们,我们的每一篇[文档]都经过实际操作和精心打磨,而不是简单地从网上复制粘贴。期间投入了大量心血,只为能够真正帮助到您。
暂无评论

发送评论 编辑评论


				
|´・ω・)ノ
ヾ(≧∇≦*)ゝ
(☆ω☆)
(╯‵□′)╯︵┴─┴
 ̄﹃ ̄
(/ω\)
∠( ᐛ 」∠)_
(๑•̀ㅁ•́ฅ)
→_→
୧(๑•̀⌄•́๑)૭
٩(ˊᗜˋ*)و
(ノ°ο°)ノ
(´இ皿இ`)
⌇●﹏●⌇
(ฅ´ω`ฅ)
(╯°A°)╯︵○○○
φ( ̄∇ ̄o)
ヾ(´・ ・`。)ノ"
( ง ᵒ̌皿ᵒ̌)ง⁼³₌₃
(ó﹏ò。)
Σ(っ °Д °;)っ
( ,,´・ω・)ノ"(´っω・`。)
╮(╯▽╰)╭
o(*////▽////*)q
>﹏<
( ๑´•ω•) "(ㆆᴗㆆ)
😂
😀
😅
😊
🙂
🙃
😌
😍
😘
😜
😝
😏
😒
🙄
😳
😡
😔
😫
😱
😭
💩
👻
🙌
🖕
👍
👫
👬
👭
🌚
🌝
🙈
💊
😶
🙏
🍦
🍉
😣
Source: github.com/k4yt3x/flowerhd
颜文字
Emoji
小恐龙
花!
上一篇
下一篇