Documentation Index
Fetch the complete documentation index at: https://docs.algo-tech.ai/llms.txt
Use this file to discover all available pages before exploring further.
Start building
🚀 快速开始Make your first API call with Algo-Tech Serverless Inference 🔍 探索模型库
浏览文本、视觉、音频、图像等数百个支持的模型
其他功能:
- 🖥 使用专属部署
获得最佳速度、可靠性与可扩展性 - 🧠 微调模型
为你的用例定制模型 - 🖼 查询多模态模型
使用视觉语言模型进行查询 - 🎙 音频转录
将语音实时或异步转换为文本 - 📦 结构化输出
以指定的 JSON schema 获取响应 - 🔧 Function Calling
自定义并部署模型
Resources
- 💬 Discord 论坛
获取支持并与其他开发者讨论 - 📘 Cookbook
示例代码、教程和指南 - 📝 Blog
技术分析、功能更新与用户案例 - 📡 服务状态
查看 Algo-Tech AI 服务状态 - 🔒 信任中心
安全与合规信息 - 📞 联系我们
销售与团队支持
What we offer
Algo-Tech 平台让开发者能以最佳质量、成本和速度创建生成式 AI 系统。所有服务都支持按需计费。主要功能包括:- 推理(Inference)
使用优化的 FireAttention 推理引擎在托管基础设施上运行生成式模型。 - 多模态与模型支持:支持或自定义上传下列模型:
- 模型适配
微调 + 部署 = 针对你的用例构建最佳模型。 - 复合 AI 系统开发
使用 JSON mode、Grammar mode、Function Calling 构建可协作、可靠的输出系统。
Inference 选项
Algo-Tech 提供 3 种生成式模型推理方式:| 属性 | Serverless | On-demand | Enterprise Reserved |
|---|---|---|---|
| 性能 | 自动配置,行业领先速度(共享资源) | 私有 GPU,延迟低于 vLLM,性能优异 | 由 Algo-Tech 工程师定制,最低延迟 |
| 开始方式 | 立即使用,仅需一行代码 | 自配置 GPU,后即用 | 需联系 Algo-Tech 团队 |
| 扩展能力 | 支持自动扩容,受限于速率限制 | GPU 支持自动扩缩容,空闲时不计费 | 高级支持和 SLA,支持 BYOC |
| 价格 | 按 token 收费 | 按 GPU 秒计费 | 基于 GPU 保留量定价 |
| 使用承诺 | 无 | 无 | 合同约定周期 |
| 速率限制 | 有,详见 quotas | 无速率限制,仅限 GPU 数量 | 无限制 |
| 模型选择 | 火花精选模型集 | 支持自定义上传与 100+ 模型 | 任意模型皆可上传使用 |
FireOptimizer
Algo-Tech 优化模块 FireOptimizer 提供以下功能:- 微调(了解更多):
- 上传数据,选择模型即可开始
- 按训练 token 计费
- 即时部署、评估、下载权重
- Multi-LoRA Serving(详细介绍):
- 零成本部署多模型
- 支持 100+ LoRA 同时运行
- 可部署于 Serverless 或专属 GPU
Compound AI 复合智能系统
Algo-Tech 让你轻松将多个模型组合成一个协同工作系统:- 结构化输出支持
通过 JSON/Grammar 模式,确保输出格式一致、可用于后续处理。 - 函数调用
使用 Function Calling 由模型调度其他模型、API 或工具。