Groq以其惊人的 AI 响应速度吸引了大量开发者,其免费套餐对于个人体验和学习来说相当友好。
🚀 获取 Groq API Key 的步骤
获取 API Key 是使用的第一步,整个过程是免费的。
- 注册账户:访问 Groq 官方控制台,使用你的邮箱或者直接通过 GitHub、Google 账号注册并登录。
- 创建 API Key:登录后,在控制台界面找到 API Keys 菜单,点击 “Create API Key” 按钮。为密钥起一个易于识别的名字(比如“我的测试项目”),然后在弹出的窗口中立即复制并妥善保存你的 API Key,因为它只会显示一次。
鉴于网络访问的复杂性,如果直接访问控制台遇到困难,可以尝试使用网络代理服务,或参考下文提到的通过第三方代理进行访问的方法。
⚙️ 如何使用 API Key
Groq API 完全兼容 OpenAI API 格式,这使得它能轻松集成到大量现有应用和工具中。
| 应用场景 | 配置要点 | 示例/说明 |
|---|---|---|
| 直接代码调用 | 将代码中的 base_url 指向 Groq 端点,并使用你的 API Key。 | 例如在 Python 中:client = OpenAI(base_url="https://api.groq.com/v1", api_key="你的-Groq-API-Key")。 |
| 第三方客户端 (如 LobeChat, Dify) | 在模型的设置中,选择 OpenAI 兼容的选项,然后填入你的 Groq API Key 和对应的 API 地址。 | 如果直接连接不畅,可能需要配置代理地址(详见下文)。 |
| 浏览器插件 (如沉浸式翻译) | 在插件的 OpenAI 相关设置中,填入 Groq API Key、模型名和代理 API 地址。 |
🌐 解决国内访问限制的实用方法
由于网络限制,直接连接 Groq API 可能不稳定。一个常见的解决方案是使用一个在海外部署的代理服务器来中转请求。
目前一个流行的选择是使用 Deno Deploy 来部署一个简单的代理脚本。基本思路是:将一段代理代码 Fork 到自己的 GitHub 账户,然后在 Deno Deploy 平台上一键部署。成功后,你会获得一个唯一的代理域名(例如 https://your-app-name.deno.dev),之后在配置 API 时,将 API Endpoint 指向这个代理地址即可(例如 https://your-app-name.deno.dev/openai/v1)。这种方法在撰写本文时(2025年9月)被许多用户验证有效,但稳定性可能会随时间变化。
📊 了解免费额度与速率限制
Groq 的免费额度主要通过速率限制(Rate Limit) 来管理,而非月度总额度限制。这意味着你可以在限制内持续使用。不同模型的限制不同,以下是一些流行模型的免费限制示例:
| 模型名称 | 每分钟请求数 (RPM) | 每分钟 Token 数 (TPM) | 每日请求数 (RPD) |
|---|---|---|---|
| Llama-3.1-70B-Versatile | 30 | 6,000 | 14,400 |
| Llama-3.2-90B-Versatile | 30 | 6,000 | 14,400 |
| Llama-3.2-11B-Versatile | 30 | 12,000 | 14,400 |
| Mixtral-8x7B-32768 | 30 | 6,000 | 14,400 |
重要提示:
- 限制是分开计算的:每个模型的限制是独立的,你在一个模型上达到限制不会影响使用另一个模型。
- 超出限制会报错:如果你的请求超出速率限制,API 会返回 429 错误码。
- 合理使用:这些限制对于个人测试、学习和中小规模的应用来说通常是足够的。如果需要更高的限制,可以向 Groq 官方支持团队申请。
🚀 Groq 提供了与 OpenAI 兼容的 API 端点
Groq 的 API 设计兼容 OpenAI 的 Python 库,这使得集成过程非常顺畅。核心步骤是正确配置 API 密钥和基础 URL。
1. 安装必要的库
首先,确保你已经安装了 openai 库。
pip install openai
2. 配置 API 密钥与客户端
在代码中,导入 openai 库,然后使用你的 Groq API 密钥和 Groq 的 API 端点来初始化客户端。
import os
from openai import OpenAI
# 初始化客户端,指定Groq的API端点并发送聊天请求
client = OpenAI(
api_key=os.getenv("GROQ_API_KEY"), # 你的Groq API密钥
base_url="https://api.groq.com/openai/v1" # Groq的OpenAI兼容端点
)
# 发送聊天补全请求
try:
completion = client.chat.completions.create(
model="llama3-70b-8192", # 指定Groq的模型,例如llama3-70b-8192
messages=[
{"role": "system", "content": "你是一个有用的助手。"},
{"role": "user", "content": "请用简单的语言解释什么是人工智能?"}
],
temperature=0.7, # 控制回复的随机性
max_tokens=1024 # 限制回复的最大长度
)
# 打印模型的回复
print(completion.choices[0].message.content)
except Exception as e:
print(f"调用API时出错: {e}")
💡 实用技巧与注意事项
为了让你更好地使用 Groq API,这里有一些额外的提示。
- 模型选择:Groq 提供了多个模型,例如
llama3-70b-8192、mixtral-8x7b-32768等。你可以查阅 Groq 官方文档获取最新的可用模型列表。 - 利用高速优势:Groq 以其极高的推理速度著称。在你的应用中,可以利用这一特点构建需要快速响应的场景,如实时对话助手。
🤝 与其他工具集成
你还可以通过 langchain-groq 库将 Groq 与 LangChain 框架结合,构建更复杂的应用(如AI代理)。
# 首先安装 langchain-groq
# pip install langchain-groq
from langchain_groq import ChatGroq
# 初始化LangChain的Groq聊天模型
llm = ChatGroq(
model_name="llama3-70b-8192",
api_key="你的-Groq-API-密钥"
)
# 之后便可将其用于LangChain的链或代理中
OpenRouter API说明
OpenRouter 是一个很受开发者欢迎的AI模型聚合平台,它通过一个统一的API接口,让你能方便地调用数百个不同供应商的大语言模型。下面这个表格帮你快速抓住其核心信息和使用要点。
| 特性维度 | 具体说明 |
|---|---|
| 核心价值 | 提供标准化 API,统一接入 OpenAI、Anthropic、Google、Meta 等多家供应商的模型 |
| 关键特性 | 模型路由与容错、完全兼容 OpenAI SDK、透明按量计费、用量分析与监控 |
| 免费额度 | 账户余额 < 10美元时,每日可调用免费模型 50次 (RPD);账户余额 ≥ 10美元时,每日额度提升至 1000次 (RPD) |
| 速率限制 | 免费模型通常有 每分钟20次请求 (RPM) 的限制;付费模型的速率限制与账户余额相关,余额越高,限制越宽松 |
🛠️ 如何使用 OpenRouter API
由于其API设计完全兼容OpenAI,因此集成过程非常顺畅。
- 获取API密钥
- 访问 OpenRouter官网 注册账号。
- 在设置中找到 API Keys 页面,点击 “Create Key” 创建一个新的密钥,并务必妥善保存。
- 在代码中调用
你几乎可以像使用OpenAI官方库一样使用OpenRouter,只需将客户端指向OpenRouter的端点并传入你的密钥即可。# 安装OpenAI Python库:pip install openai from openai import OpenAI import os # 初始化客户端,指向OpenRouter client = OpenAI( base_url="https://openrouter.ai/api/v1", api_key=os.getenv("OPENROUTER_API_KEY") # 建议将密钥设为环境变量 ) # 发送请求,注意模型名称的格式 completion = client.chat.completions.create( model="deepseek/deepseek-r1-0528:free", # 使用免费模型示例 messages=[ {"role": "user", "content": "请用简单的语言解释什么是人工智能?"} ] ) print(completion.choices[0].message.content)
💡 实用技巧与注意事项
为了让你获得更好的使用体验,这里还有一些补充信息:
- 模型命名规则:在OpenRouter中调用模型时,需要使用完整的模型标识符,格式通常为
提供商/模型名:后缀,例如qwen/qwen2.5-vl-72b-instruct:free。后缀:free表示调用该模型的免费版本。 - 自带密钥模式:除了使用平台计费,OpenRouter还支持 BYOK 模式,即你可以填入自己的模型供应商(如OpenAI、Anthropic)的API密钥。在此模式下,OpenRouter仅收取少量(如5%)的路由服务费,模型费用直接支付给原供应商。
- 国内用户友好:一个重要的优势是,OpenRouter在国内网络环境下可以直连访问,无需特殊工具。同时,它支持使用微信和支付宝进行充值,对国内开发者非常方便。