提供者概览
Llama Stack 的目标是构建一个生态系统,让用户可以轻松地为相同的 API 替换不同的实现。这些示例包括:
LLM 推理提供者(例如,Ollama、Fireworks、Together、AWS Bedrock、Groq、Cerebras、SambaNova、vLLM 等),
向量数据库(例如,ChromaDB、Weaviate、Qdrant、Milvus、FAISS、PGVector、SQLite-Vec 等),
安全提供者(例如,Meta 的 Llama Guard、AWS Bedrock Guardrails 等)
提供者有两种形式:
远程:提供者作为独立于 Llama Stack 代码库的独立服务运行。Llama Stack 包含少量适配器代码。
内联:提供者在 Llama Stack 代码库内完整指定和实现。它可能只是一个现有库的简单包装器,或者是在 Llama Stack 内的完整实现。
重要的是,Llama Stack 始终努力为每个 API 提供至少一个完全内联的提供者,以便您可以在本地迭代一个功能齐全的环境。
外部提供者
Llama Stack 支持位于主代码库之外的外部提供者。这使您可以独立创建和维护自己的提供者。有关详情,请参阅外部提供者指南。
代理
使用 LLM 运行多步代理工作流程,包括工具使用、内存 (RAG) 等。
DatasetIO
与数据集和数据加载器接口交互。
评估
生成输出(通过推理或代理)并执行评分。
推理
使用 LLM 运行推理。
后训练
微调模型。
安全
在系统(而不仅仅是模型)级别对输出应用安全策略。
评分
评估系统输出。
遥测
从系统中收集遥测数据。
工具运行时
与 ToolGroup 资源相关联。
向量 IO
向量 IO 指的是对向量数据库的操作,例如添加文档、搜索和删除文档。向量 IO 在检索增强生成 (RAG) 中扮演着关键角色,其中向量 IO 和数据库用于存储和检索文档进行检索。
向量 IO 提供者
以下提供者(即数据库)可用于向量 IO: