整理所有可免费调用的主流 AI API 渠道,含速率限制与使用建议
Updated: 2026-03
本页信息可能已过期,各平台的免费政策和限制会随时调整,使用前请以官方最新公告为准。
| 渠道 | 可用模型 | RPM 限制 | TPD / 其他限制 | 备注 |
|---|---|---|---|---|
|
Gemini
Google AI Studio
|
Gemini 2.5 Pro / Flash 1M token 上下文 |
Flash: 30 RPM Pro: 10 RPM |
Flash: 1500 RPD Pro: 25 RPD |
⭐ 首选 |
|
NVIDIA NIM
NVIDIA
|
Kimi K2.5, DeepSeek-V3 Llama 4 等 |
~40 RPM | 按模型不同 免费额度较宽松 |
多模型 |
|
OpenRouter
/free 路由
|
多家免费模型 标 :free 后缀 |
20 RPM | 200 RPD (免费) 有等待队列 |
路由聚合 |
|
Groq
快 LPU 推理
|
Llama 4 Scout/Maverick Mixtral, Gemma 3 |
30 RPM (Llama 4) 15 RPM (其他) |
14,400 RPD 6000 TPM |
⚡ LPU 极速 |
|
智谱
GLM-4.7-Flash
|
GLM-4.7-Flash 30B MoE 混合思考模型 200K 上下文,128K 输出 |
1 QPS (并发 1 请求) |
不限总量 速度约 20 tok/s |
国内直连 需实名认证 |
|
硅基流动
SiliconFlow
|
Qwen3, DeepSeek-V3 Llama, InternLM 等 |
RPM 10~60 | 注册送 14 元额度 免费模型持续可用 |
国内首选 |
|
讯飞星火 Lite
iFlytek Spark
|
Spark Lite 系列 国内合规 |
2 QPS | Token 总量不限 | 国内直连 需实名 |
|
Cloudflare
Workers AI
|
Llama 3, Mistral 多种开源模型 |
无明确 RPM | 10,000 neurons/天 (免费套餐) |
边缘推理 |
|
GitHub Models
GitHub
|
GPT-5, o3, DeepSeek-V3 Llama 4 等 |
5~10 RPM | ~200 RPD/IP | 需 GitHub 账号 多厂模型 |
|
Hugging Face
Inference API
|
数千开源模型 分类/嵌入/生成 |
~10 RPM | 免费额度较小 大模型受限 |
模型丰富 |
|
Cohere
Command R+
|
Command R+, Embed 适合 RAG/搜索 |
20 RPM | 1000 RPD | 无需信用卡 RAG 场景 |
|
美团大模型
Meituan
|
美团自研大模型 | 按套餐限制 | 50 万 tokens/天 | 国内直连 需实名注册 |
| 渠道 | 可用模型 | 并发 / RPM | 新用户额度 | 备注 |
|---|---|---|---|---|
|
阿里云百炼
DashScope
|
通义千问全系列 Qwen3-Max/Plus/Turbo |
按模型等级 Turbo: 60 RPM |
新用户免费 tokens 各模型分别赠送 |
国内直连 |
|
DeepSeek
推理强
|
DeepSeek-V3 DeepSeek-R1(推理) |
60 RPM | 新用户少量赠额 | 低价付费为主 推理极强 |
|
Kimi
月之暗面
|
Kimi k1.5, moonshot 128K 超长上下文 |
3 RPM(免费) | 注册即可用 有限免费额度 |
国内直连 长上下文 |
|
百度千帆
Baidu
|
文心 4.0 系列 国内合规 |
并发 5 路 | 新用户赠额 | 国内直连 需实名 |
|
腾讯混元
Hunyuan
|
混元全系列 含多模态 |
并发 5 路 | 新用户赠额 | 国内直连 需实名 |
|
字节扣子
Coze / 豆包
|
豆包系列 工作流 / Agent 友好 |
按套餐限制 | 新用户赠额 工作流额外赠送 |
国内直连 Agent 场景 |
|
小米 MiLM
MiLM 系列
|
MiLM 系列 | 待确认 | 新用户试用额度 | 国内直连 |
|
百川智能
Baichuan
|
Baichuan 多模态 含文档理解 |
按套餐不同 | 新用户约 80 元额度 | 国内直连 |
|
零一万物
Yi / 01.ai
|
Yi-Large, Yi-Lightning Yi 系列模型 |
按套餐限制 | 注册即赠额度 | 国内直连 |
Groq > Cerebras > Gemini Flash
Google AI Studio(百万 token/天)
硅基流动 / 智谱 / 讯飞 Lite
OpenRouter(一 Key 几十模型)
DeepSeek-R1 / Gemini 2.5 Pro
GLM-4.7-Flash / DeepSeek-V3
主力用 Gemini Flash(容量大、速度快)+ Groq(极速 LPU),
备用 OpenRouter :free(多模型切换),
国内场景优先 硅基流动 或 智谱 GLM-4.7-Flash(1 QPS 足够个人开发)。
推理/代码任务可单独接入 DeepSeek 低价付费。