
大语言模型服务可靠、可扩展、高性价比
使用 API 快速构建生成式AI应用
模型列表
提供行业领先、市场已充分验证的模型列表,帮您出色的完成AI应用建设。
这些模型普遍在角色扮演、故事扩写、代码生成、情感陪伴等领域具备高智商和高情商的表现。
deepseek/deepseek-r1/community
全参数
满血版
DeepSeek R1是DeepSeek团队发布的最新开源模型,具备非常强悍的推理性能,尤其在数学、编程和推理任务上达到了与OpenAI的o1模型相当的水平。
64000 上下文窗口
输入¥4/百万 tokens
输出¥16/百万 tokens
deepseek/deepseek-v3/community
全参数
满血版
DeepSeek-V3在推理速度方面实现了比之前模型的重大突破。在开源模型中排名第一,并可与全球最先进的闭源模型相媲美。DeepSeek-V3 采用了多头潜在注意力 (MLA) 和 DeepSeekMoE 架构,这些架构在 DeepSeek-V2 中得到了全面验证。此外,DeepSeek-V3 开创了一种用于负载均衡的辅助无损策略,并设定了多标记预测训练目标以获得更强的性能。
64000 上下文窗口
输入¥1/百万 tokens
输出¥2/百万 tokens
deepseek/deepseek-r1
全参数
满血版
DeepSeek R1是DeepSeek团队发布的最新开源模型,具备非常强悍的推理性能,尤其在数学、编程和推理任务上达到了与OpenAI的o1模型相当的水平。
64000 上下文窗口
输入¥4/百万 tokens
输出¥16/百万 tokens
deepseek/deepseek-v3
全参数
满血版
DeepSeek-V3在推理速度方面实现了比之前模型的重大突破。在开源模型中排名第一,并可与全球最先进的闭源模型相媲美。DeepSeek-V3 采用了多头潜在注意力 (MLA) 和 DeepSeekMoE 架构,这些架构在 DeepSeek-V2 中得到了全面验证。此外,DeepSeek-V3 开创了一种用于负载均衡的辅助无损策略,并设定了多标记预测训练目标以获得更强的性能。
64000 上下文窗口
输入¥1/百万 tokens
输出¥2/百万 tokens
deepseek/deepseek-r1-distill-llama-70b
DeepSeek R1 Distill Llama 70B是基于Llama3.3 70B的大型语言模型,该模型利用DeepSeek R1输出的微调,实现了与大型前沿模型相当的竞争性能。
32000 上下文窗口
输入¥5.8/百万 tokens
输出¥5.8/百万 tokens
deepseek/deepseek-r1-distill-qwen-32b
DeepSeek R1 Distill Qwen 32B 是一种基于 Qwen 2.5 32B 的蒸馏大语言模型,通过使用 DeepSeek R1 的输出进行训练而得。该模型在多个基准测试中超越了 OpenAI 的 o1-mini,取得了密集模型(dense models)的最新技术领先成果(state-of-the-art)。以下是一些基准测试的结果:
AIME 2024 pass@1: 72.6
MATH-500 pass@1: 94.3
CodeForces Rating: 1691
该模型通过从 DeepSeek R1 的输出中进行微调,展现了与更大规模的前沿模型相当的竞争性能。
64000 上下文窗口
输入¥2.18/百万 tokens
输出¥2.18/百万 tokens
deepseek/deepseek-r1-distill-qwen-14b
DeepSeek R1 Distill Qwen 14B 是一种基于 Qwen 2.5 14B 的蒸馏大语言模型,通过使用 DeepSeek R1 的输出进行训练而得。该模型在多个基准测试中超越了 OpenAI 的 o1-mini,取得了密集模型(dense models)的最新技术领先成果(state-of-the-art)。以下是一些基准测试的结果:
AIME 2024 pass@1: 69.7
MATH-500 pass@1: 93.9
CodeForces Rating: 1481
该模型通过从 DeepSeek R1 的输出中进行微调,展现了与更大规模的前沿模型相当的竞争性能。
64000 上下文窗口
输入¥1/百万 tokens
输出¥1/百万 tokens
deepseek/deepseek-r1-distill-llama-8b
DeepSeek R1 Distill Llama 8B 是一种基于 Llama-3.1-8B-Instruct 的蒸馏大语言模型,通过使用 DeepSeek R1 的输出进行训练而得。
32000 上下文窗口
输入¥0.3/百万 tokens
输出¥0.3/百万 tokens
qwen/qwen-2.5-72b-instruct
Qwen2.5-72B-Instruct 是阿里云发布的最新大语言模型系列之一。该 72B 模型在编码和数学等领域具有显著改进的能力。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升。
32768 上下文窗口
输入¥2.75/百万 tokens
输出¥2.88/百万 tokens
qwen/qwen-2-vl-72b-instruct
Qwen2-VL 是 Qwen-VL 模型的最新迭代版本,在视觉理解基准测试中达到了最先进的性能,包括 MathVista、DocVQA、RealWorldQA 和 MTVQA 等。Qwen2-VL 能够理解超过 20 分钟的视频,用于高质量的基于视频的问答、对话和内容创作。它还具备复杂推理和决策能力,可以与移动设备、机器人等集成,基于视觉环境和文本指令进行自动操作。除了英语和中文,Qwen2-VL 现在还支持理解图像中不同语言的文本,包括大多数欧洲语言、日语、韩语、阿拉伯语和越南语等
32768 上下文窗口
输入¥4.5/百万 tokens
输出¥4.5/百万 tokens
meta-llama/llama-3.2-3b-instruct
meta-llama/llama-3.2-3b-instruct
32768 上下文窗口
输入¥0.216/百万 tokens
输出¥0.36/百万 tokens
qwen/qwen2.5-32b-instruct
Qwen2.5-32B-Instruct 是阿里云发布的最新大语言模型系列之一。该 32B 模型在编码和数学等领域具有显著改进的能力。该模型提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升。
32000 上下文窗口
输入¥1.26/百万 tokens
输出¥1.26/百万 tokens
baichuan/baichuan2-13b-chat
Baichuan-13B 百川智能开发的包含 130 亿参数的开源可商用的大规模语言模型,在权威的中文和英文 benchmark 上均取得同尺寸最好的效果
14336 上下文窗口
输入¥1.75/百万 tokens
输出¥1.75/百万 tokens
meta-llama/llama-3.1-70b-instruct
Meta最新一代的Llama 3.1模型系列,70B(700亿参数)的指令微调版本针对高质量对话场景进行了优化。在业界评估中,与领先的闭源模型相比,它展现出了强劲的性能。(仅针对企业实名认证通过主体开放)
32768 上下文窗口
输入¥2.45/百万 tokens
输出¥2.82/百万 tokens
meta-llama/llama-3.1-8b-instruct
Meta最新一代的Llama 3.1模型系列,8B(80亿参数)的指令微调版本特别快速高效。在业界评估中,表现出强劲的性能,超越了很多领先的闭源模型。(仅针对企业实名认证通过主体开放)
32768 上下文窗口
输入¥0.4/百万 tokens
输出¥0.4/百万 tokens
01-ai/yi-1.5-34b-chat
零一万物,最新开源微调模型,340亿参数,微调支持多种对话场景,高质量训练数据,对齐人类偏好。
16384 上下文窗口
输入¥1.1/百万 tokens
输出¥1.1/百万 tokens
01-ai/yi-1.5-9b-chat
零一万物,最新开源微调模型,90亿参数,微调支持多种对话场景,高质量训练数据,对齐人类偏好。
16384 上下文窗口
输入¥0.4/百万 tokens
输出¥0.4/百万 tokens
thudm/glm-4-9b-chat
智谱AI发布的GLM-4系列最新一代预训练模型的开源版本。
32768 上下文窗口
输入¥0.5/百万 tokens
输出¥0.5/百万 tokens
qwen/qwen-2-7b-instruct
Qwen2是全新的Qwen大型语言模型系列。Qwen2 7B是一个基于transformer的模型,在语言理解、多语言能力、编程、数学和推理方面表现出色。
32768 上下文窗口
输入¥0.32/百万 tokens
输出¥0.32/百万 tokens
简单易用:只需一行代码,开发者即可快速使用派欧云的模型服务。
复制
from openai import OpenAI
client = OpenAI(
base_url='https://api.ppinfra.com/llm/v1',
api_key='<你的 API KEY>',
# 获取 API Key 请参考:https://ppinfra.com/docs/get-started/quickstart.html#_2-管理-api-密钥
)
completion_res = client.completions.create(
model='Qwen2-7B-Instruct',
prompt='派欧算力云提供 GPU 云产品能用于哪些场景?',
stream=True,
max_tokens=512,
)
大型语言模型
派欧算力云为您提供企业级大语言模型服务,比您自行部署 AI Infra,更可靠、更快、更经济、更具扩展性。
您可将精力集中在应用增长和客户服务上,而大型语言模型基础设施可放心交给派欧算力云
可靠稳定
超高性价比
快速扩容
典型应用场景

AI 情感陪伴机器人

AI 小说生成器

AI 总结摘要

AI 代码生成