MiniMax-Free-API 服务已启动,请使用客户端进行连接

面向开发者的 MiniMax API 代理

兼容 OpenAI 协议,支持 Gemini 和 Claude 适配器,稳定流式、多轮上下文与检索。工程语义清晰、易接入、可维护。

支持 MiniMax-M2 / M2-Stable
多路 Token 支持
Gemini & Claude 适配

⚠️ 免责声明

逆向 API 存在不稳定性。建议前往 MiniMax 官方开放平台 付费使用,避免封禁风险。

本项目仅用于研究学习,不接受任何资金往来。仅限自用,禁止商用或对外提供服务。

核心特性

🎯

流式输出

毫秒级首字节,边生成边传输,提升交互性能(SSE/Web/CLI)。

💬

多轮对话

上下文记忆与压缩,保证长对话的稳定响应(Token 管理与截断策略)。

🔍

联网检索

实时信息聚合,提升回答的时效与准确性(可插拔 Provider)。

🎨

多媒体支持

语音合成、语音识别、图像解析、长文档解读等全栈能力。

🚀

MiniMax 生态

深度集成 MiniMax 全家桶,支持 MiniMax-M2 等先进模型。

🔄

多路 Token

支持多账号轮询,自动挑选可用 Token,提升服务稳定性。

接入指南

01 · 从 MiniMax-Agent 获取 Token

登录 MiniMax-Agent,随机发起一个对话,打开浏览器F12工具,在 Application › LocalStorage 中找到 _token 的值。

点击 user_detail_agent,找到 realUserID 的值,将 realUserID_token 使用 + 号进行拼接。

格式:realUserID+_token
示例:450234567894+eyJhbGciOiJIUzI1NiI......

拼接后的值将作为 Authorization 的 Bearer Token:

Authorization: Bearer YOUR_COMPLETE_TOKEN
获取_minimax_token

02 · 多账号轮询

将多个 Token 用逗号拼接,服务自动挑选一个执行。

Authorization: Bearer TOKEN1,TOKEN2,TOKEN3

03 · 选择客户端或 SDK

推荐使用 LobeChat / NextChat / Dify 或直接使用 OpenAI SDK。

curl -X POST /v1/chat/completions \
  -H "Authorization: Bearer YOUR_USER_TOKEN" \
  -H "Content-Type: application/json" \
  -d '{ "model":"MiniMax-M2", "messages":[{"role":"user","content":"Hello"}] }'

接口兼容性

OpenAI 兼容

/v1/chat/completions
推荐

Google Gemini 兼容

/v1beta/models/:model:generateContent
gemini-cli

Anthropic Claude 兼容

/v1/messages
claude-code

支持模型

MiniMax-M2

专为高效编码与 Agent 工作流而生的先进模型,具备强大的推理和代码生成能力。

用途 · 高效编码 / Agent 工作流 / 智能体开发

MiniMax-M2-Stable

更高并发稳定性,商业使用场景优化,提供稳定可靠的 AI 服务体验。

用途 · 高并发 / 商业应用 / 生产环境

客户端生态

覆盖聊天、命令行与应用开发场景。

LobeChat

现代化聊天界面。

NextChat

简洁多平台客户端。

Dify

AI 应用开发平台。

OpenAI SDK

直接编程接入。

ChatBox

桌面端聊天工具。

继续探索

更多客户端持续适配中。