deepseek api调用教程,价格,如何免费试用,有哪些ai客户端支持?
前言
在之前的文章里面,我们已经学习了如何本地部署deepseek r1,详情可以参考这个文章:
DeepSeek r1 本地部署教程: https://feizhuke.com/deepseek-r1-bendibushu.html
由于最近deepseek收到攻击,官方服务不是很稳定,今天我们这个教程分享如何在本地ai客户端通过deepseek官方api和第三方api服务商使用deepseek的服务! 简单来说就是:1.获取deepseek api; 2. 把api添加到ai客户端里!
「deepseek部署教程软件下载及使用技巧大全」
链接:https://pan.quark.cn/s/d16b78f09b7e
deepseek api服务推荐
deepseek api官网: https://platform.deepseek.com/
第三方deepseek api推荐: 更加稳定
更多的ai api可以前往这里查看: https://feizhuke.com/favorites/ai-api
deepseek ai客户端推荐
这里推荐两个比较好用的deepseek ai客户端
1.Cherry Studio 2.chatbox
更多好用的ai客户端推荐: https://feizhuke.com/favorites/ai-kehuduan
Cherry Studio简介
Cherry Studio 是一款专为Windows、macOS 和 Linux 用户设计的 多模型 GPT 客户端,旨在为用户提供无缝的 AI 体验。无论是开发者、设计师还是普通用户,Cherry Studio 都能满足您的多样化需求。
Cherry Studio官网: https://cherry-ai.com/
Cherry Studio如何配置deepseek api:
ChatBox简介
ChatBox是一款开源免费跨平台的 OpenAI API 桌面客户端,支持 Windows、macOS 和 Linux。它支持自定义 KEY 和 API Host 地址,还能帮你在本地保存所有的聊天记录,并且可以管理多个会话,并设置不同的 Prompt,让 AI 化身各种不同用途的多功能助理。
ChatBox官网: https://chatboxai.app/zh#
ChatBox配置deepseek 教程
deepseek api价格(官方)
模型 & 价格
下表所列模型价格以“百万 tokens”为单位。Token 是模型用来表示自然语言文本的的最小单位,可以是一个词、一个数字或一个标点符号等。我们将根据模型输入和输出的总 token 数进行计量计费。
1.deepseek-chat
模型已经升级为 DeepSeek-V3;deepseek-reasoner
模型为新模型 DeepSeek-R1。
2.思维链为deepseek-reasoner
模型在给出正式回答之前的思考过程,其原理详见推理模型。
3.如未指定 max_tokens
,默认最大输出长度为 4K。请调整 max_tokens
以支持更长的输出。
4.关于上下文缓存的细节,请参考DeepSeek 硬盘缓存。
5.表格中展示了优惠前与优惠后的价格。即日起至北京时间 2025-02-08 24:00,所有用户均可享受 DeepSeek-V3 API 的价格优惠。 在此之后,模型价格将恢复至原价。DeepSeek-R1不参与优惠。
deepseek-reasoner
的输出 token 数包含了思维链和最终答案的所有 token,其计价相同。
扣费规则
扣减费用 = token 消耗量 × 模型单价,对应的费用将直接从充值余额或赠送余额中进行扣减。 当充值余额与赠送余额同时存在时,优先扣减赠送余额。
产品价格可能发生变动,DeepSeek 保留修改价格的权利。请您依据实际用量按需充值,定期查看此页面以获知最新价格信息。
deepseek api价格(第三方)
硅基流动 deepseek api价格
DeepSeek-R1
DeepSeek-R1 是一款强化学习(RL)驱动的推理模型,解决了模型中的重复性和可读性问题。在 RL 之前,DeepSeek-R1 引入了冷启动数据,进一步优化了推理性能。它在数学、代码和推理任务中与 OpenAI-o1 表现相当,并且通过精心设计的训练方法,提升了整体效果。
DeepSeek-V3
DeepSeek-V3 是一款拥有 6710 亿参数的混合专家(MoE)语言模型,采用多头潜在注意力(MLA)和 DeepSeekMoE 架构,结合无辅助损失的负载平衡策略,优化推理和训练效率。通过在 14.8 万亿高质量tokens上预训练,并进行监督微调和强化学习,DeepSeek-V3 在性能上超越其他开源模型,接近领先闭源模型。