邀请奖励

限时活动:分享邀请链接,每成功邀请 1 位好友注册并完成实名认证,邀请人可得 30元无门槛代金券,被邀请人可得 15元无门槛代金券 (仅限模型 API 服务)。仅限新用户注册。查看活动详情

立即邀请

方式一:复制邀请链接
方式二:复制邀请码
方式三:分享海报

邀请数据

奖励金额

此处为您通过邀请或被邀请获得的代金券累计金额,点击查看获得的代金券

邀请人数

您邀请的好友总数

0

热门模型查看更多

M
Llama 4 Maverick Instruct
输入 1.45/ 百万 tokens | 输出 6.2/ 百万 tokensLlama 4 Maverick 17B Instruct (128E) 是 Meta 基于混合专家(MoE)架构开发的高性能多模态语言模型,每次推理动态激活 170 亿参数(总参数量达 4000 亿),集成 128 个专家模块。该模型支持 12 种语言的文本/图像输入及文本/代码输出,专为视觉-语言任务优化,通过指令微调实现类助手交互、图像推理和通用多模态应用。采用早期融合技术实现原生多模态处理,具备 100 万 token 的上下文窗口,训练数据融合公开资源、授权内容及 Meta 平台数据(总量约 22 万亿 token),知识截止于 2024 年 8 月。2025 年 4 月 5 日以 Llama 4 社区许可证发布,适用于需要先进多模态理解和高吞吐量的研究及商业场景。大语言企业认证专属
M
Llama 4 Scout Instruct
输入 0.725/ 百万 tokens | 输出 3.6/ 百万 tokensLlama 4 Scout 17B Instruct (16E) 是由 Meta 开发的混合专家(MoE)语言模型,从 1090 亿总参数中动态激活 170 亿参数,支持文本和图像的多模态输入,并能以 12 种语言输出文本和代码。该模型专为智能助手交互和视觉推理设计,每次推理调用 16 个专家模块,具备 1000 万 token 的超长上下文窗口,训练数据规模达 40 万亿 token。通过早期融合技术实现跨模态无缝集成,适用于多语言对话、图像描述和视觉理解等任务,采用 Llama 4 社区许可证,训练数据更新至 2024 年 8 月,并于 2025 年 4 月 5 日正式发布。大语言企业认证专属
D
DeepSeek V3 0324
输入 2/ 百万 tokens | 输出 8/ 百万 tokensDeepSeek V3 0324 是深度求索(DeepSeek)团队旗舰级对话模型系列的最新版本,采用混合专家(Mixture-of-Experts, MoE)架构,参数量达685B参数。大语言NEW

活动 FAQ

Q

deepseek-r1/community 和 deepseek-r1 的区别?

A

Community 版本供大家尝鲜,也是全参数满血版模型,稳定性和效果无差异,如需大量调用则须充值并切换到非 Community 版本。

Q

为什么没有输出思考内容?

A

配置 system prompt:开启深度思考。请用 <think> 和 </think> 包裹你的内部推理过程,最终回复要简洁自然。

Q

有 DeepSeek 模型使用教程吗?

A

PPIO DeepSeek 模型可以与三方工具集成使用。查看使用教程

Q

代金券如何使用?

A

调用 API 时优先扣除代金券额度,代金券不用于充值。

立即体验,开启 AI 应用构建之旅