BUZZ AI
控制台模型价格
控制台模型价格
  1. API 参考
  • 文档总览
  • 核心接口
    • Messages API(对话补全)
  • 系统API
    • 获取令牌列表
    • 新增令牌
    • 获取令牌支持模型
    • 获取账号信息
  • Rerank 重排序模型
    • 重排序
  • 余额查询
    • 查询总额度
    • 查询已用额度
  • 快速开始
    • 平台介绍
    • 注册与获取 API Key
    • 5 分钟快速上手
    • 计费说明
  • API 参考
    • API 总览
    • 认证详解
    • Messages API(对话补全)
    • 模型列表
    • 重排序接口
    • 令牌管理
    • 用户账户
    • 余额查询
  • 使用指南
    • OpenAI 兼容性说明
    • 第三方工具接入指南
    • OpenClaw 安装指南
    • 错误处理指南
    • 最佳实践
  • 常见问题
    • FAQ
  • 更新日志
    • Changelog
控制台模型价格
控制台模型价格
  1. API 参考

Messages API(对话补全)

Messages API(对话补全)#

TLDR:Messages API 是 BUZZ AI 的核心接口,用于与 Claude 模型进行对话交互。

接口概述#

Messages API 允许你向 Claude 发送消息并获取响应,支持:
单轮对话
多轮对话(上下文记忆)
流式响应
系统提示词
Prompt Caching(缓存优化)

创建消息#

请求#

POST /v1/messages

请求头#

参数必需类型说明
Content-Type是string固定为 application/json
x-api-key是stringAPI Key 认证
anthropic-version是stringAPI 版本,固定为 2023-06-01

请求参数#

参数必需类型说明
model是string模型 ID
messages是array消息列表
max_tokens是integer最大输出 token 数(1-8192)
system否string/array系统提示词
temperature否number温度参数(0-1),默认 1.0
top_p否number核采样参数(0-1)
top_k否integerTop-K 采样参数
stream否boolean是否流式响应,默认 false
stop_sequences否array停止序列

Messages 格式#

{
  "messages": [
    {
      "role": "user",
      "content": "用户消息"
    },
    {
      "role": "assistant",
      "content": "助手回复"
    }
  ]
}
角色说明:
user:用户消息
assistant:助手回复(用于多轮对话)

基础示例#

curl#

Python (Anthropic SDK)#

Python (OpenAI SDK)#

Node.js#


响应格式#

成功响应#

{
  "id": "msg_01XFDUDYJgAACzvnptvVoYEL",
  "type": "message",
  "role": "assistant",
  "content": [
    {
      "type": "text",
      "text": "你好!我是 Claude,一个由 Anthropic 开发的 AI 助手..."
    }
  ],
  "model": "claude-sonnet-4-6-20250514",
  "stop_reason": "end_turn",
  "stop_sequence": null,
  "usage": {
    "input_tokens": 10,
    "output_tokens": 25
  }
}

响应字段说明#

字段类型说明
idstring消息 ID
typestring固定为 "message"
rolestring固定为 "assistant"
contentarray响应内容数组
modelstring使用的模型
stop_reasonstring停止原因(end_turn/max_tokens/stop_sequence)
usageobjectToken 使用统计

多轮对话#

示例#


系统提示词#

基础用法#

高级用法(Prompt Caching)#

💡 提示:使用 Prompt Caching 可以大幅降低成本,特别适合长系统提示词。

流式响应#

Python 示例#

curl 示例#

Node.js 示例#

完整流式处理#


参数详解#

temperature#

控制输出的随机性:
0.0:确定性输出,适合代码生成
0.7:平衡创造性和准确性
1.0:最大创造性,适合创意写作(默认)

max_tokens#

限制输出长度:
最小:1
最大:8192
推荐:根据实际需求设置,避免浪费

stop_sequences#

自定义停止序列:

错误处理#

常见错误#

400 Bad Request
{
  "type": "error",
  "error": {
    "type": "invalid_request_error",
    "message": "messages: field required"
  }
}
401 Unauthorized
{
  "type": "error",
  "error": {
    "type": "authentication_error",
    "message": "invalid x-api-key"
  }
}
429 Rate Limit
{
  "type": "error",
  "error": {
    "type": "rate_limit_error",
    "message": "Rate limit exceeded"
  }
}

错误处理示例#


最佳实践#

1. 合理设置 max_tokens#

2. 使用 Prompt Caching#

3. 流式响应提升体验#

上一页
认证详解
下一页
模型列表
Built with