📋 免费 AI API 渠道整理

整理所有可免费调用的主流 AI API 渠道,含速率限制与使用建议

Updated: 2026-03

12
永久免费渠道
9
新用户试用
21
总渠道数

⚠️ 内容说明

本页信息可能已过期,各平台的免费政策和限制会随时调整,使用前请以官方最新公告为准。

🆓 永久免费(限速 / 限额)

渠道 可用模型 RPM 限制 TPD / 其他限制 备注
G
Gemini
Google AI Studio
Gemini 2.5 Pro / Flash
1M token 上下文
Flash: 30 RPM
Pro: 10 RPM
Flash: 1500 RPD
Pro: 25 RPD
⭐ 首选
N
NVIDIA NIM
NVIDIA
Kimi K2.5, DeepSeek-V3
Llama 4 等
~40 RPM 按模型不同
免费额度较宽松
多模型
O
OpenRouter
/free 路由
多家免费模型
标 :free 后缀
20 RPM 200 RPD (免费)
有等待队列
路由聚合
Q
Groq
快 LPU 推理
Llama 4 Scout/Maverick
Mixtral, Gemma 3
30 RPM (Llama 4)
15 RPM (其他)
14,400 RPD
6000 TPM
⚡ LPU 极速
智谱
GLM-4.7-Flash
GLM-4.7-Flash 30B MoE
混合思考模型
200K 上下文,128K 输出
1 QPS
(并发 1 请求)
不限总量
速度约 20 tok/s
国内直连
需实名认证
硅基流动
SiliconFlow
Qwen3, DeepSeek-V3
Llama, InternLM 等
RPM 10~60 注册送 14 元额度
免费模型持续可用
国内首选
讯飞星火 Lite
iFlytek Spark
Spark Lite 系列
国内合规
2 QPS Token 总量不限 国内直连
需实名
C
Cloudflare
Workers AI
Llama 3, Mistral
多种开源模型
无明确 RPM 10,000 neurons/天
(免费套餐)
边缘推理
GH
GitHub Models
GitHub
GPT-5, o3, DeepSeek-V3
Llama 4 等
5~10 RPM ~200 RPD/IP 需 GitHub 账号
多厂模型
HF
Hugging Face
Inference API
数千开源模型
分类/嵌入/生成
~10 RPM 免费额度较小
大模型受限
模型丰富
Co
Cohere
Command R+
Command R+, Embed
适合 RAG/搜索
20 RPM 1000 RPD 无需信用卡
RAG 场景
美团大模型
Meituan
美团自研大模型 按套餐限制 50 万 tokens/天 国内直连
需实名注册

🎁 新用户试用(一次性额度)

渠道 可用模型 并发 / RPM 新用户额度 备注
阿里云百炼
DashScope
通义千问全系列
Qwen3-Max/Plus/Turbo
按模型等级
Turbo: 60 RPM
新用户免费 tokens
各模型分别赠送
国内直连
D
DeepSeek
推理强
DeepSeek-V3
DeepSeek-R1(推理)
60 RPM 新用户少量赠额 低价付费为主
推理极强
K
Kimi
月之暗面
Kimi k1.5, moonshot
128K 超长上下文
3 RPM(免费) 注册即可用
有限免费额度
国内直连
长上下文
百度千帆
Baidu
文心 4.0 系列
国内合规
并发 5 路 新用户赠额 国内直连
需实名
腾讯混元
Hunyuan
混元全系列
含多模态
并发 5 路 新用户赠额 国内直连
需实名
字节扣子
Coze / 豆包
豆包系列
工作流 / Agent 友好
按套餐限制 新用户赠额
工作流额外赠送
国内直连
Agent 场景
小米 MiLM
MiLM 系列
MiLM 系列 待确认 新用户试用额度 国内直连
百川智能
Baichuan
Baichuan 多模态
含文档理解
按套餐不同 新用户约 80 元额度 国内直连
零一万物
Yi / 01.ai
Yi-Large, Yi-Lightning
Yi 系列模型
按套餐限制 注册即赠额度 国内直连

📊 关键指标对比

⚡ 最快推理速度

Groq > Cerebras > Gemini Flash

📦 最大免费容量

Google AI Studio(百万 token/天)

🇨🇳 国内直连首选

硅基流动 / 智谱 / 讯飞 Lite

🔀 多模型路由

OpenRouter(一 Key 几十模型)

🧠 推理任务

DeepSeek-R1 / Gemini 2.5 Pro

💻 Agentic Coding

GLM-4.7-Flash / DeepSeek-V3

💡 建议策略

主力用 Gemini Flash(容量大、速度快)+ Groq(极速 LPU),
备用 OpenRouter :free(多模型切换),
国内场景优先 硅基流动智谱 GLM-4.7-Flash(1 QPS 足够个人开发)。
推理/代码任务可单独接入 DeepSeek 低价付费。