为什么在栈还没彻底变乱前,就该上统一 AI 网关
从产品和交付视角解释,为什么团队应该在提供方扩散之前就建立统一 AI 网关,而不是等复杂度失控后再补救。
快速开始
开发者可以顺滑融入业务代码,Power User 一步即可在各类效率工具中接入大应用。
为什么选 MoleAPI
一个 API 地址统一接入多家模型,一个后台管理所有 Key 和用量,随时切换模型不用改代码。
通过同一个 API 地址访问 GPT、Claude、Gemini 等模型。换模型只需要改一个参数,不用改代码。
兼容 OpenAI SDK、Cursor、Claude Code 等主流工具。把 base URL 换一下就行。
创建和管理 API Key,设置消费上限,按模型查看用量明细——全在一个控制台。
产品一览
看看支持哪些模型,能接什么工具,适合哪些场景。
支持 GPT-4o、Claude 3.5、Gemini Pro 等前沿模型,覆盖对话、推理、代码生成和 Embedding 场景。新模型上线后第一时间可用。
GPT-4o、Claude 3.5 Sonnet、Gemini Pro 等,用于对话、分析和复杂推理任务。
代码生成、文本向量化和 RAG 流程的专用模型。同样的 API,换个模型名就行。
上游发布新模型后我们会尽快上线。你不需要等 SDK 更新,也不需要改接入方式。
教程与指南
从零开始接入、从 OpenAI 迁移过来、配置 Cursor 和 Claude Code,这些教程都帮你写好了。
从产品和交付视角解释,为什么团队应该在提供方扩散之前就建立统一 AI 网关,而不是等复杂度失控后再补救。
面向已经使用 OpenAI 兼容 SDK 的团队,总结一条低代码扰动、可回滚的 MoleAPI 迁移路径。
解释开发者工具链为什么不该游离在网关策略面之外,以及主站应该如何承接这类搜索意图。
接入文档、API 参考、控制台、更新日志——你需要的信息都在这里。
关于价格、兼容性和使用方式,这些是新用户最常问的问题。
按 token 计费,价格和直接调用模型提供商差不多。具体价格可以在控制台查看。新用户注册就送免费额度。
中转带来的延迟很小,通常不到 50ms。响应内容直接从上游流式传输,实际体验和直连差别不大。
可以。只需要把 base URL 和 API Key 换掉,现有代码、SDK 和工具都不用改。
换一个模型只需要改一个参数。因为所有模型用的都是同一套 API 格式,你的应用逻辑完全不用动。