超简单的GPU容器实例租用

只需两步,即可拥有一台含有高性能GPU的容器云主机,秒级拉取AI镜像,即刻展开智算工作

按小时
按日
按月
NVIDIA-4090

24G显存,AI算力性能 330T FLOPS

上线特惠
¥1.90/时
立即购买
CPU
12核
内存
64GB
系统盘
50GB
网络
100M共享
NVIDIA-3090

24G显存,AI算力性能 82.6T FLOPS

限时特惠
¥1.45/时
已售罄
CPU
16核
内存
64GB
系统盘
50GB
网络
100M共享
NVIDIA-H20

96G显存,AI算力性能 148T FLOPS

热卖低价
¥6.20/时
已售罄
CPU
24核
内存
128GB
系统盘
50GB
网络
100M共享
NVIDIA-A800

80G显存,AI算力性能 312T FLOPS

¥9.38/ 时
¥7.15/时
已售罄
CPU
12核
内存
64GB
系统盘
50GB
网络
100M共享
NVIDIA-A100

40G显存,AI算力性能 312T FLOPS

¥8.98/ 时
¥5.85/时
已售罄
CPU
12核
内存
64GB
系统盘
50GB
网络
100M共享
NVIDIA-H100

80G显存,AI算力性能 2000T FLOPS

¥17.58/ 时
¥12.98/时
已售罄
CPU
24核
内存
128GB
系统盘
50GB
网络
100M共享
NVIDIA-H800

80G显存,AI算力性能 1979T FLOPS

¥15.69/ 时
¥13.88/时
已售罄
CPU
16核
内存
128GB
系统盘
50GB
网络
100M共享
NVIDIA-H200

141G显存,AI算力性能 2000T FLOPS

¥16.62/ 时
¥13.94/时
已售罄
CPU
24核
内存
125GB
系统盘
50GB
网络
100M共享

算力强劲的AI服务器租用

裸金属形式交付,提供专属算力资源,适配企业级AI服务、深度学习等场景

包月
包年
NVIDIA-4090
四川成都

入门级AI卡,适配中小推理任务

¥7500/月
立即购买
GPU:8 x RTX4090(24G显存)
数据盘:3.84T*4
CPU:96核心
内存:2048G
NVIDIA-A100
四川成都

通用计算卡,支持大规模训练与推理

¥29400/月
立即购买
GPU:8*A100(40G) PCIE
数据盘:3.84T*4
CPU:48核心
内存:1024G
NVIDIA-A800
四川成都

面向特定市场的计算卡,满足合规

¥34000/月
立即购买
GPU:8*NVIDIA A800 PCIE
数据盘:3.84T*4
CPU:48核心
内存:1024G
NVIDIA-H800
四川成都

面向特定市场的减配版H100

¥70000/月
立即购买
GPU:8*NVIDIA H800 PCIE
数据盘:960GB*2
CPU:64核心
内存:256G
NVIDIA-H20
四川成都

AI推理优化卡,侧重能效与成本平衡

¥32000/月
立即购买
GPU:8*NVIDIA H20 NVLINK
数据盘:3.84T*4
CPU:112核心
内存:2048G
NVIDIA-H100
四川成都

高端加速卡,专为Transformer优化

¥72000/月
立即购买
GPU:H100 SXM5 80GB*8
数据盘:3.84T*4
CPU:96核心
内存:2T
NVIDIA-A30
四川成都

中端AI卡,支持训练,能效比优秀

¥5300/月
立即购买
GPU:4*NVIDIA 3090
数据盘:3.84T*2
CPU:32核心
内存:512G
昇腾910B
四川成都

国产高性能AI卡,对标主流计算需求

¥25000/月
立即购买
NPU:8*Ascend 910B-64G-HCCS
数据盘:3.84T*2
CPU:192核心
内存:2048G

丰富的模型与镜像选择

平台提供多种热门镜像与模型,结合容器的快速拉起特性,用户零门槛一键部署,可在几分钟内启动一个预置的AI环境

满足企业级AI应用
支持异构混合部署,突破大模型算力瓶颈

极智算提供的主流镜像包括基础镜像、应用镜像、自定义镜像等,模型涵盖大语言模型(如DeepSeek、Qwen、Llama)、视觉模型(如Stable Diffusion)和多模态模型等。

DeepSeek-R1
对话
知识库
开源且基于MIT协议,推理能力强,擅长中文理解,支持复杂任务
GLM-Z1
多语言对话
智能客服
推理速度快,性价比高,性能媲美DeepSeek-R1
Llama 4 Maverick
语创意写作
图像识别
混合专家架构,图像理解能力强,适合创意写作和通用助手
Qwen 2.5-VL
辅助设计
智能客服
支持文本、视觉、音频等多种模态输入和输出,能够生成高质量的图文内容

平台优势

从入门级GPU到专业GPU全覆盖

高性能GPU集群

提供多种高性能GPU型号,如NVIDIA A100、H100、H800等,具备强大的计算能力和高显存带宽。支持FP32、TF32等多种混合精度计算,能够满足不同精度需求的计算任务,提升计算效率和资源利用率。同时,优化了对稀疏矩阵运算的支持,减少了AI模型运算中的冗余计算。

高效的网络与存储

采用NVLink和PCIe等先进互连技术,支持RDMA网络,可定制低延迟和高吞吐量的IB组网需求,实现快速数据传输,优化大规模并行应用的性能。实施数据存储、备份、恢复和归档策略,确保数据的完整性和可访问性。

灵活的租赁模式

提供按小时、按天、按月按等多种灵活的租赁方式,用户可以根据实际需求选择合适的计费模式,避免资源浪费,降低使用成本。

支持根据项目需求弹性扩展或收缩算力资源,能够灵活应对不同阶段的算力需求波动,确保资源的高效利用。为用户提供定制化的算力解决方案,满足不同行业和应用场景的特定需求。

丰富多样的算力交付形式

通过容器化和裸金属两种主要方式,为用户提供灵活、高效且高性能的算力服务,以满足从弹性计算到高性能计算等不同业务需求,实现算力资源的高效利用和优化配置。

容器化算力

基于容器虚拟化技术的轻量级计算资源,通过容器封装实现应用隔离与快速部署,具备弹性伸缩、高资源利用率和跨平台迁移的特性。

弹性扩展与敏捷部署

支持按需动态调整资源分配,适应业务负载变化

微服务架构友好

支持分布式和异构计算,便于独立部署

算力池化优化

将异构算力资源统一管理,实现资源的按需申请与使用

轻量级隔离

通过控制组等技术实现轻量级隔离,减少资源消耗

裸金属算力

直接运行在GPU服务器上的算力资源,具备高计算性能、资源独占、高稳定性和强安全性的特点,适合对性能和安全性要求极高的关键业务场景。

高性能算力输出

无虚拟化开销,适合密集型AI任务

高安全性

物理机隔离,适合对安全要求较高的场景

适合高负载应用

对性能要求较高的AI应用,如深度学习等

算力资源独占

避免算力资源争抢,确保AI应用运行的稳定性