L
Llama 4 Scout
开源Meta
开源10M上下文可商用
开源界最长上下文,支持 10M tokens,混合专家架构。Meta 最新开源旗舰,开源领域最长上下文记录。
上下文: 10M
输入: $2/1M Tokens
输出: $2/1M Tokens
核心优势
开源最长上下文
商用免费
可深度定制
社区活跃
模型特性
10M 超长上下文
混合专家架构
开源可商用
低成本推理
多语言支持
可微调定制
适用群体
超长文档处理
私有化部署
模型定制
学术研究
代码示例
cURL
curl -X POST https://api.open-hubs.com/v1/chat/completions \
-H "Authorization: Bearer $OPENHUBS_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "llama-4-scout",
"messages": [
{"role": "system", "content": "你是一个专业的AI助手"},
{"role": "user", "content": "请帮我分析这个问题..."}
],
"temperature": 0.7,
"max_tokens": 2000
}'Python
from openai import OpenAI
client = OpenAI(
api_key="$OPENHUBS_API_KEY",
base_url="https://api.open-hubs.com/v1"
)
response = client.chat.completions.create(
model="llama-4-scout",
messages=[
{"role": "system", "content": "你是一个专业的AI助手"},
{"role": "user", "content": "请帮我分析这个问题..."}
],
temperature=0.7,
max_tokens=2000
)
print(response.choices[0].message.content)JavaScript / Node.js
import OpenAI from 'openai';
const client = new OpenAI({
apiKey: process.env.OPENHUBS_API_KEY,
baseURL: 'https://api.open-hubs.com/v1',
});
const response = await client.chat.completions.create({
model: 'llama-4-scout',
messages: [
{ role: 'system', content: '你是一个专业的AI助手' },
{ role: 'user', content: '请帮我分析这个问题...' },
],
temperature: 0.7,
max_tokens: 2000,
});
console.log(response.choices[0].message.content);模型保障
企业级安全
全球可用
99.9% 可用性
OpenAI 兼容
提供商信息
M
Meta
官方授权