大语言模型服务可靠、可扩展、高性价比

使用 API 快速构建生成式AI应用

模型列表

提供行业领先、市场已充分验证的模型列表,帮您出色的完成AI应用建设。

这些模型普遍在角色扮演、故事扩写、代码生成、情感陪伴等领域具备高智商和高情商的表现。

deepseek/deepseek-r1/community
全参数
满血版
DeepSeek R1是DeepSeek团队发布的最新开源模型,具备非常强悍的推理性能,尤其在数学、编程和推理任务上达到了与OpenAI的o1模型相当的水平。
64000 上下文窗口
输入4/百万 tokens
输出16/百万 tokens
deepseek/deepseek-v3/community
全参数
满血版
DeepSeek-V3在推理速度方面实现了比之前模型的重大突破。在开源模型中排名第一,并可与全球最先进的闭源模型相媲美。DeepSeek-V3 采用了多头潜在注意力 (MLA) 和 DeepSeekMoE 架构,这些架构在 DeepSeek-V2 中得到了全面验证。此外,DeepSeek-V3 开创了一种用于负载均衡的辅助无损策略,并设定了多标记预测训练目标以获得更强的性能。
64000 上下文窗口
输入1/百万 tokens
输出2/百万 tokens
deepseek/deepseek-r1
全参数
满血版
DeepSeek R1是DeepSeek团队发布的最新开源模型,具备非常强悍的推理性能,尤其在数学、编程和推理任务上达到了与OpenAI的o1模型相当的水平。
64000 上下文窗口
输入4/百万 tokens
输出16/百万 tokens
deepseek/deepseek-v3
全参数
满血版
DeepSeek-V3在推理速度方面实现了比之前模型的重大突破。在开源模型中排名第一,并可与全球最先进的闭源模型相媲美。DeepSeek-V3 采用了多头潜在注意力 (MLA) 和 DeepSeekMoE 架构,这些架构在 DeepSeek-V2 中得到了全面验证。此外,DeepSeek-V3 开创了一种用于负载均衡的辅助无损策略,并设定了多标记预测训练目标以获得更强的性能。
64000 上下文窗口
输入1/百万 tokens
输出2/百万 tokens
deepseek/deepseek-r1-distill-llama-70b
DeepSeek R1 Distill Llama 70B是基于Llama3.3 70B的大型语言模型,该模型利用DeepSeek R1输出的微调,实现了与大型前沿模型相当的竞争性能。
32000 上下文窗口
输入5.8/百万 tokens
输出5.8/百万 tokens
deepseek/deepseek-r1-distill-qwen-32b
DeepSeek R1 Distill Qwen 32B 是一种基于 Qwen 2.5 32B 的蒸馏大语言模型,通过使用 DeepSeek R1 的输出进行训练而得。该模型在多个基准测试中超越了 OpenAI 的 o1-mini,取得了密集模型(dense models)的最新技术领先成果(state-of-the-art)。以下是一些基准测试的结果: AIME 2024 pass@1: 72.6 MATH-500 pass@1: 94.3 CodeForces Rating: 1691 该模型通过从 DeepSeek R1 的输出中进行微调,展现了与更大规模的前沿模型相当的竞争性能。
64000 上下文窗口
输入2.18/百万 tokens
输出2.18/百万 tokens
deepseek/deepseek-r1-distill-qwen-14b
DeepSeek R1 Distill Qwen 14B 是一种基于 Qwen 2.5 14B 的蒸馏大语言模型,通过使用 DeepSeek R1 的输出进行训练而得。该模型在多个基准测试中超越了 OpenAI 的 o1-mini,取得了密集模型(dense models)的最新技术领先成果(state-of-the-art)。以下是一些基准测试的结果: AIME 2024 pass@1: 69.7 MATH-500 pass@1: 93.9 CodeForces Rating: 1481 该模型通过从 DeepSeek R1 的输出中进行微调,展现了与更大规模的前沿模型相当的竞争性能。
64000 上下文窗口
输入1/百万 tokens
输出1/百万 tokens
deepseek/deepseek-r1-distill-llama-8b
DeepSeek R1 Distill Llama 8B 是一种基于 Llama-3.1-8B-Instruct 的蒸馏大语言模型,通过使用 DeepSeek R1 的输出进行训练而得。
32000 上下文窗口
输入0.3/百万 tokens
输出0.3/百万 tokens
qwen/qwen-2.5-72b-instruct
Qwen2.5-72B-Instruct 是阿里云发布的最新大语言模型系列之一。该 72B 模型在编码和数学等领域具有显著改进的能力。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升。
32768 上下文窗口
输入2.75/百万 tokens
输出2.88/百万 tokens
qwen/qwen-2-vl-72b-instruct
Qwen2-VL 是 Qwen-VL 模型的最新迭代版本,在视觉理解基准测试中达到了最先进的性能,包括 MathVista、DocVQA、RealWorldQA 和 MTVQA 等。Qwen2-VL 能够理解超过 20 分钟的视频,用于高质量的基于视频的问答、对话和内容创作。它还具备复杂推理和决策能力,可以与移动设备、机器人等集成,基于视觉环境和文本指令进行自动操作。除了英语和中文,Qwen2-VL 现在还支持理解图像中不同语言的文本,包括大多数欧洲语言、日语、韩语、阿拉伯语和越南语等
32768 上下文窗口
输入4.5/百万 tokens
输出4.5/百万 tokens
meta-llama/llama-3.2-3b-instruct
meta-llama/llama-3.2-3b-instruct
32768 上下文窗口
输入0.216/百万 tokens
输出0.36/百万 tokens
qwen/qwen2.5-32b-instruct
Qwen2.5-32B-Instruct 是阿里云发布的最新大语言模型系列之一。该 32B 模型在编码和数学等领域具有显著改进的能力。该模型提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升。
32000 上下文窗口
输入1.26/百万 tokens
输出1.26/百万 tokens
baichuan/baichuan2-13b-chat
Baichuan-13B 百川智能开发的包含 130 亿参数的开源可商用的大规模语言模型,在权威的中文和英文 benchmark 上均取得同尺寸最好的效果
14336 上下文窗口
输入1.75/百万 tokens
输出1.75/百万 tokens
meta-llama/llama-3.1-70b-instruct
Meta最新一代的Llama 3.1模型系列,70B(700亿参数)的指令微调版本针对高质量对话场景进行了优化。在业界评估中,与领先的闭源模型相比,它展现出了强劲的性能。(仅针对企业实名认证通过主体开放)
32768 上下文窗口
输入2.45/百万 tokens
输出2.82/百万 tokens
meta-llama/llama-3.1-8b-instruct
Meta最新一代的Llama 3.1模型系列,8B(80亿参数)的指令微调版本特别快速高效。在业界评估中,表现出强劲的性能,超越了很多领先的闭源模型。(仅针对企业实名认证通过主体开放)
32768 上下文窗口
输入0.4/百万 tokens
输出0.4/百万 tokens
01-ai/yi-1.5-34b-chat
零一万物,最新开源微调模型,340亿参数,微调支持多种对话场景,高质量训练数据,对齐人类偏好。
16384 上下文窗口
输入1.1/百万 tokens
输出1.1/百万 tokens
01-ai/yi-1.5-9b-chat
零一万物,最新开源微调模型,90亿参数,微调支持多种对话场景,高质量训练数据,对齐人类偏好。
16384 上下文窗口
输入0.4/百万 tokens
输出0.4/百万 tokens
thudm/glm-4-9b-chat
智谱AI发布的GLM-4系列最新一代预训练模型的开源版本。
32768 上下文窗口
输入0.5/百万 tokens
输出0.5/百万 tokens
qwen/qwen-2-7b-instruct
Qwen2是全新的Qwen大型语言模型系列。Qwen2 7B是一个基于transformer的模型,在语言理解、多语言能力、编程、数学和推理方面表现出色。
32768 上下文窗口
输入0.32/百万 tokens
输出0.32/百万 tokens
简单易用:只需一行代码,开发者即可快速使用派欧云的模型服务。
Python
Curl
复制
from openai import OpenAI

client = OpenAI(
  base_url='https://api.ppinfra.com/llm/v1',
  api_key='<你的 API KEY>',
  # 获取 API Key 请参考:https://ppinfra.com/docs/get-started/quickstart.html#_2-管理-api-密钥
)

completion_res = client.completions.create(
  model='Qwen2-7B-Instruct',
  prompt='派欧算力云提供 GPU 云产品能用于哪些场景?',
  stream=True,
  max_tokens=512,
)

大型语言模型

派欧算力云为您提供企业级大语言模型服务,比您自行部署 AI Infra,更可靠、更快、更经济、更具扩展性。

您可将精力集中在应用增长和客户服务上,而大型语言模型基础设施可放心交给派欧算力云

可靠稳定
可靠稳定
全球网络加速
推理低时延、稳定
超高性价比
超高性价比
按使用量计费
低成本,服务好
快速扩容
快速扩容
高效扩展 AI Infra
解决高峰负载问题

典型应用场景

AI 情感陪伴机器人
AI 情感陪伴机器人
AI 小说生成器
AI 小说生成器
AI 总结摘要
AI 总结摘要
AI 代码生成
AI 代码生成
24
7X24小时客户服务

我们的服务团队始终在线,确保为您提供连续不断的支持,让您高枕无忧

开启 AI 应用构建之旅