Serverless
AI 应用部署从未如此简单
为 AI 推理场景设计,提供弹性伸缩和负载均衡的按需算力。简单托管私有镜像或模型到平台,获取运行结果,无需管理服务器。
专注于您的 AI 应用开发为您提供更灵活的计算请求处理
按需付费,节省成本
仅需为实例实际运行时长付费,按秒计费, 无需为闲置资源支付,有效降低成本
弹性伸缩,高可用性
自定义弹性策略,业务高峰自动扩容,低峰自动缩容,支持负载均衡,免去硬件管理烦恼
私有镜像,快速部署
可进行私有镜像部署,无需对代码进行 大量适配,切换门槛极低
私有镜像,快速部署
支持私有镜像托管,支持高速拉取 Dockerhub 镜像,快速部署到实例,并根据需求灵活配置运行环境
开箱即用,便捷配置
一个界面配置自定义弹性伸缩策略,可运行时调整,支持通过模板创建,无需复杂操作
体验快速部署
秒级冷启动
通过实例保留、镜像预热及高性能硬件,确保秒级冷启动,显著减少业务等待时间
日志保留,实时监控
提供完善的日志系统,便于快速排查问题;实时监控 Endpoint,跟踪请求数、任务执行时间等关键指标;
按需付费,节省成本
按需计费,精确到秒计费,下方展示秒价和小时价
每卡价格 | 按秒 | 按小时 |
---|---|---|
RTX 4090D | ¥0.000573 | ¥2.0628 |
RTX 4090 | ¥0.000658 | ¥2.3688 |
RTX 3090 | ¥0.000387 | ¥1.3932 |