Butcher Wiki
把开源项目大卸八块,提取可移植的 Agent 工程组件。按问题域浏览,看不同项目如何解决同一个工程难题。
上下文管理
Context Window Management
LLM 上下文窗口有限,长任务中如何保留关键信息、裁剪冗余内容、避免 token 超限崩溃。这不是一个"优化"问题,而是一个"生存"问题。
多 Agent 编排
Multi-Agent Orchestration
多个专职 Agent 如何协调执行顺序、并行分发任务、汇聚结果。核心挑战是在灵活性和可控性之间找到平衡。
容错与重试
Fault Tolerance & Retry
LLM 调用失败、响应截断、格式错误时如何检测、恢复、重试。Agent 系统的鲁棒性取决于容错设计。
工具系统
Tool System Design
统一管理、注册、发现、执行工具;MCP 协议标准化。工具系统是 Agent 能力的边界。
沙箱隔离
Sandbox Isolation
Agent 执行代码时如何隔离环境,防止宿主机污染。安全性和便利性的平衡。
记忆持久化
Memory Persistence
跨会话的用户偏好、历史上下文、事实知识如何存储和检索。Agent 的"长期记忆"。
质量检查
Quality Assurance
生成内容的多维自动评估、Generator-Critic 迭代循环。确保 Agent 输出质量。
搜索与检索
Search & Retrieval
多搜索源聚合、树状递归深度研究、知识缺口检测。Agent 获取外部知识的核心能力。
Human-in-the-Loop
Human-Agent Interaction
Agent 执行中如何在关键节点暂停、向用户澄清、获取审批。人机协作的关键。
中间件管道
Middleware Pipeline
Agent 生命周期中横切关注点的可组合中间件解耦。日志、限流、缓存等通过中间件注入。
可观测性
Observability & Cost Tracking
LLM 调用链路追踪、Token 计量、成本分析、结构化日志。没有可观测性就是盲飞。
推理增强
Reasoning Enhancement
Extended Thinking、分层 LLM 策略、MoE 路由。提升 Agent 的推理能力和效率。
配置驱动架构
Config-Driven Architecture
通过YAML配置文件统一管理系统行为,支持Pydantic schema验证和环境变量覆盖
多模态内容处理
Multimodal Content Processing
将图像、表格、公式等非文本内容转化为可检索的结构化知识
文档解析管线
Document Parsing Pipeline
多格式文档的统一解析、转换与结构化内容提取
批量并发处理
Batch & Concurrent Processing
大规模文档的并发解析、进度追踪与错误聚合
知识图谱构建
Knowledge Graph Construction
从文本和多模态内容自动提取实体与关系构建知识图谱
配置管理
Configuration Management
环境变量驱动的分层配置系统,支持运行时动态更新
Mixin 架构模式
Mixin Architecture Pattern
通过 Mixin 多继承组合实现关注点分离的模块化架构
深度研究框架
Deep Research Framework for AI Agents
深度研究框架为 AI Agent 提供多轮迭代、多源信息融合、逻辑推理的能力,支持复杂问题的系统性分析与验证。该框架通过结构化的研究流程、信息聚合与交叉验证,帮助 Agent 生成更可靠、更深入的研究结论。
隐私控制
Privacy Control
用户数据隐私保护机制,包括内容过滤、标签剥离、边缘处理等
进程生命周期管理
Process Lifecycle Management
守护进程管理、优雅关闭、孤儿进程清理、跨平台进程协调、版本热更新与并发重启防护
数据库迁移
Database Migration
版本化 schema 演进、迁移管理、数据兼容性保障
国际化
Internationalization (i18n)
多语言支持、模式继承、prompt 本地化
实时事件流
Real-time Event Streaming
服务端推送事件、SSE 客户端管理、实时状态广播
平台适配
Platform Adaptation
多 IDE/多操作系统适配、输入输出标准化、跨平台兼容。IDE hook 格式标准化与跨 OS 进程生命周期管理的工程实践
异步队列处理
Async Queue Processing
事件驱动消息队列、原子消息认领、空闲超时管理
配置管理
Configuration Management
分层配置加载、默认值管理、运行时模式切换
序列化与状态恢复
Serialization & State Recovery
支持 Agent 系统中断后从检查点恢复完整运行状态
多 LLM Provider 适配
Multi-LLM Provider Adapter
统一接入多种 LLM API 后端,屏蔽差异提供一致接口
SOP 驱动的角色系统
SOP-Driven Role System
通过标准操作流程定义角色行为,实现可复用的 Agent 角色模板
经验池与学习
Experience Pool & Learning
跨会话积累和复用 Agent 执行经验,提升任务成功率
消息路由与通信
Message Routing & Communication
多 Agent 间基于标签的消息路由、订阅和异步通信机制
配置管理
Configuration Management
分层配置系统支持环境变量、文件、CLI 多级覆盖;多 Agent 框架中按角色粒度定制配置的组合式架构
LLM 输出结构化
LLM Output Structuring
将 LLM 自由文本输出强制转换为类型安全的结构化数据
插件架构
Plugin Architecture
通过接口定义+注册表模式实现可插拔组件系统,支持运行时发现和替换
工作区隔离
Workspace Isolation
为并行任务创建独立的代码工作区,防止文件冲突和分支污染
会话生命周期管理
Session Lifecycle Management
管理 Agent 会话从创建到完成的完整生命周期,包括状态机、轮询和自动清理
CI/CD 反馈闭环
CI/CD Feedback Loop
自动检测 CI 失败和 Code Review 变更,将反馈路由回 Agent 形成自动修复闭环
通知路由
Notification Routing
按事件优先级将通知路由到不同渠道(桌面/Slack/Webhook),支持多通道并行推送。Agent 编排系统中事件驱动的多渠道通知分发与自动升级机制
配置驱动编排
Config-Driven Orchestration
通过 YAML 配置文件声明式定义项目、插件、反应规则,Zod 校验 + 智能默认值
Agent 活动检测
Agent Activity Detection
通过 JSONL 日志解析和终端输出分析检测 Agent 当前状态
多源 RAG Pipeline 架构
Multi-Provider RAG Pipeline Architecture
Agent 系统需要从多种知识源检索信息,不同场景适合不同 RAG 后端(向量检索、知识图谱、多模态)。该域解决如何设计可插拔的 RAG pipeline,让每个知识库可独立选择最优检索策略。
实时 Web 仪表盘
Real-time Web Dashboard
基于 Next.js + SSE 的实时 Agent 监控面板,展示 session 状态和 PR 进度
安全加固
Security Hardening
输入校验、路径遍历防护、控制字符过滤、shell 转义等多层安全措施
AST代码解析
AST-Based Code Parsing
基于抽象语法树的多语言代码结构化解析,提取函数、类、调用关系等语义元素
多渠道消息网关
Multi-Channel Message Gateway
统一管理多个消息平台的接入、路由和分发,解耦渠道层与业务逻辑
代码关系图建模
Code Relationship Graph Modeling
构建代码调用图、依赖图、继承图等多层关系网络,支持跨文件结构导航
MCP协议集成
MCP Protocol Integration
实现 Model Context Protocol 服务器,让 AI 编码助手直接调用代码分析能力
技能系统
Skill System
可扩展的 Agent 技能加载系统,支持 Markdown 技能文件的发现、校验和渐进式加载
定时任务调度
Task Scheduling
支持定时、周期和 cron 表达式的任务调度系统,持久化存储任务状态
容器化部署
Container Deployment
Docker Compose 多服务容器化部署方案,智能启动脚本自动管理服务生命周期
配置驱动架构
Configuration-Driven Architecture
YAML 集中配置管理所有组件参数,环境变量注入敏感信息,支持评估模式切换
多语言 Prompt 管理
Multi-Language Prompt Management
Agent 系统中 prompt 分散在各模块,需要统一管理、支持多语言、热更新和版本控制。该域解决如何将 prompt 从代码中解耦,实现结构化的 prompt 资产管理。
多仓库管理
Multi-Repository Management
多仓库并行索引、智能选择与跨仓库检索,支持 LLM/embedding 双模式仓库路由
可插拔渠道架构
Pluggable Channel Architecture
通过抽象基类和注册表实现平台渠道的可插拔管理,支持独立替换和分级配置
凭据与密钥管理
Credential & Secret Management
安全存储和管理 API 密钥、Cookie、Token 等敏感凭据,支持自动提取和脱敏展示
环境检测与自动化安装
Environment Detection & Auto Setup
自动检测运行环境并智能安装配置依赖,提供安全模式和预览模式
Agent 技能分发
Agent Skill Distribution
通过结构化知识文件向 AI Agent 注入工具使用能力,支持多平台自动安装
声明式工作流引擎
Declarative Workflow Engine
通过声明式模板定义可复用工作流,支持步骤编排、依赖管理、变量替换和条件分支
依赖图与任务调度
Dependency Graph & Task Scheduling
基于 DAG 的任务依赖管理,支持拓扑排序、循环检测和并行度分析
数据迁移框架
Data Migration Framework
版本化数据库 schema 迁移,支持自动迁移、安全检查、备份验证和格式兼容
外部系统集成
External System Integration
统一接口抽象多平台 issue tracker 集成,支持 Jira/GitLab/Linear 双向同步
角色路由系统
Role-Based Routing
基于用户角色的智能路由,自动检测 maintainer/contributor 并路由到不同仓库
LLM Provider 抽象层
LLM Provider Abstraction Layer
Agent 系统需要支持多个 LLM 提供商(OpenAI/Anthropic/本地模型),且需要在运行时检测模型能力、统一错误处理。该域解决如何设计 provider 抽象层,使上层 Agent 代码与具体 LLM 实现解耦。
模板分子系统
Template Molecule System
可复用 issue 模板库,支持层级加载和实例化,实现工作项标准化
Git 工作树集成
Git Worktree Integration
深度集成 git worktree,通过 hooks 自动同步 Dolt 数据,支持多分支并行开发
哈希 ID 防冲突
Hash-Based ID Collision Prevention
使用 hash-based ID 替代自增 ID,实现分布式环境下的 ID 唯一性保证
层级 Epic 系统
Hierarchical Epic System
层级化任务分解,支持 epic/task/subtask 树形结构和层级 ID
临时消息系统
Ephemeral Messaging System
临时消息机制用于 agent 间通信,支持 threading 和自动过期,不污染持久化数据
认证与会话管理
Authentication & Session Management
解决用户身份验证、会话生命周期、OAuth 集成和 API 鉴权问题
数据库迁移
Database Schema Migration
解决数据库 schema 版本演进、向前兼容和安全回滚问题
多租户数据隔离
Multi-Tenant Data Isolation
解决多用户环境下数据所有权、可见性控制和跨用户隔离问题
SSRF 防护
Server-Side Request Forgery Protection
防止服务端发起对内网资源的非授权请求,保护内部服务安全
内容源自动检测
Content Source Auto-Detection
通过 URL 模式匹配和内容嗅探自动识别信息源类型,降低用户配置成本
幻觉防控
LLM Hallucination Mitigation
大模型容易生成虚假、不准确或自相矛盾的内容,这在生产环境中会导致严重的信任问题和业务风险。该域聚焦于识别、量化和消减幻觉现象,通过多层验证、事实对齐和输出约束等手段提升Agent的可靠性。
国际化
Internationalization (i18n)
解决多语言 UI 展示、语言偏好持久化和后端内容多语言返回问题
E2E 测试框架
End-to-End Testing Framework
用轻量级 bash+curl 实现全面的 API E2E 测试,覆盖多用户场景和数据隔离
Feed 生成
RSS & JSON Feed Generation
将应用数据输出为标准订阅格式(RSS 2.0/JSON Feed 1.1),实现内容跨平台分发
软删除模式
Soft Delete Pattern
用标志位替代物理删除,保留数据完整性并支持关联数据的优雅降级
CI/CD 流水线
CI/CD Pipeline
自动化代码质量检查、测试执行、安全审计和容器化构建部署
Source Pack 分享机制
Content Pack Sharing
将信息源打包为可分享的社区资源包,支持一键安装和去重
研发流程规范
Development Process Governance
建立 PRD 驱动的研发流程,规范分支策略、Code Review 和部署回滚机制
可插拔渠道架构
Pluggable Channel Architecture
通过抽象基类+注册表模式实现可独立替换的渠道/插件系统
凭据与密钥管理
Credential & Secret Management
安全存储、脱敏显示、自动提取多平台凭据(Cookie/Token/API Key)
环境引导与健康检查
Environment Bootstrap & Health Check
自动检测运行环境、安装依赖、诊断服务状态并生成可操作的修复建议
流式输出
Streaming Output & Real-time Response Handling
AI Agent 需要处理 LLM 的流式响应,实现实时输出、增量更新和渐进式结果展示。流式输出能显著降低用户感知延迟,提升交互体验,但引入了复杂的状态管理、错误处理和数据一致性挑战。
Agent 技能分发
Agent Skill Distribution
将工具能力打包为SKILL.md分发到多个Agent平台,实现跨Agent能力复用
反爬与代理管理
Anti-Crawl & Proxy Management
系统化应对平台IP封锁、登录墙、反爬检测,提供代理和Cookie认证方案
上游依赖同步
Upstream Dependency Sync
追踪上游工具仓库变更,自动比较差异并辅助合并更新
多 LLM Provider 适配
Multi-LLM Provider Adapter
统一适配多个 LLM 提供商的接口抽象层,支持运行时切换和配置驱动
国际化
Internationalization (i18n)
前后端协同的多语言支持系统,覆盖 UI 文案和 LLM 输出语言
配置管理
Configuration Management
JSON 配置文件驱动的系统行为管理,支持环境变量替换和自定义路径
流式响应
Streaming Response
HTTP SSE 和 WebSocket 双通道实时流式传输 LLM 生成内容
认证授权
Authentication & Authorization
应用级授权码验证和多 Git 平台私有仓库 token 认证
多 Git 平台适配
Multi-Git Platform Adapter
统一适配 GitHub/GitLab/Bitbucket 的仓库克隆和文件内容获取
容器化部署
Containerized Deployment
多阶段 Docker 构建优化镜像体积,docker-compose 编排前后端服务
国际化工程
Multi-language Support Engineering
AI Agent 在全球化部署中需要支持多语言交互、本地化提示词和跨语言上下文管理。国际化工程涉及语言检测、动态翻译、文化适配和多语言知识库的协调,确保 Agent 在不同语言环境下的一致性和准确性。
缓存策略
Caching Strategy
三层缓存架构:仓库克隆缓存、embedding 数据库缓存、wiki 内容缓存
隐私与数据过滤
Privacy & Data Filtering
在数据采集层实现隐私标签过滤、敏感内容剥离和 ReDoS 防护
进程生命周期管理
Process Lifecycle Management
管理子进程注册、僵尸进程清理、有序关闭和跨平台端口释放
多 AI 提供商路由
Multi-Provider AI Routing
支持多个 AI 提供商(Claude/Gemini/OpenRouter)的动态切换、自动降级和共享上下文
配置管理
Configuration Management
统一管理多层级配置(文件/环境变量/默认值),支持模式继承和运行时切换
数据库迁移
Database Migration
管理数据库 schema 版本演进,支持增量迁移、平台兼容性探测和双向回滚
实时事件流
Real-time Event Streaming
通过 SSE 实现服务端到客户端的实时事件推送,支持多客户端广播和断连处理
异步消息队列
Async Message Queue
基于 EventEmitter 和 SQLite 持久化的异步消息队列,支持原子认领、空闲超时和自愈机制
插件系统架构
Plugin System Architecture
实现完整的插件生命周期:声明式元数据、钩子注册、技能系统和 marketplace 分发
配置管理
Configuration Management
多层级配置加载、验证、热更新与敏感信息保护
多渠道消息适配
Multi-Channel Messaging Adapter
统一抽象多个聊天平台(IM/Email/社交)的消息收发接口,通过适配器模式和消息总线解耦渠道实现与核心业务逻辑,支持动态注册和生命周期管理。
多供应商适配
Multi-Provider Adapter
通过接口抽象统一多个第三方服务供应商的调用与切换
图片处理管线
Image Processing Pipeline
多来源图片的获取、压缩、格式转换与平台上传的完整处理链
内容格式转换
Content Format Conversion
将通用格式内容转换为特定平台要求的格式,含样式注入与约束适配
风格化写作系统
Stylized Writing System
基于YAML配置的创作者风格管理,驱动AI生成符合特定写作风格的内容
平台 API 集成
Platform API Integration
封装第三方平台API实现素材管理、内容发布等核心业务操作
封面智能生成
Smart Cover Generation
通过NLP分析文章内容自动提取主题与情绪,生成匹配的AI图片提示词
CLI 技能化架构
CLI Skill Architecture
将CLI工具封装为AI Agent可调用的Skill,通过SKILL.md定义工作流和自然语言接口
对抗辩论架构
Adversarial Debate Architecture
通过结构化多方对抗辩论提升 Agent 决策质量,支持正反方和多角色辩论
多供应商 LLM 抽象
Multi-Provider LLM Abstraction
统一多个 LLM 供应商的接口差异,实现供应商无关的模型调用
数据供应商路由
Data Vendor Routing
可配置的数据源路由系统,支持多供应商切换和自动降级
多 LLM Provider 统一接入
Multi-Provider LLM Gateway
通过统一接口层接入多个 LLM 提供商,实现模型名到 Provider 的自动路由、API 密钥管理、请求格式适配,降低模型切换成本。
实时终端仪表盘
Real-time Terminal Dashboard
基于 Rich 库构建多面板实时终端 UI,展示 Agent 执行进度和结果
插件化架构
Plugin Architecture
通过接口定义+槽位注册实现可插拔组件系统,支持运行时动态加载
配置管理
Configuration Management
YAML 配置文件 + Zod 校验 + 智能默认值推导,支持多项目多实例
事件驱动反应系统
Event-Driven Reaction System
基于状态转换自动触发预配置反应,支持重试、升级和多通道通知路由
工作区隔离
Workspace Isolation via Git Worktrees
利用 git worktree 为每个 agent 会话创建独立工作目录,支持 symlink 共享和 postCreate 钩子
SCM 平台集成
Source Code Management Integration
通过 gh CLI 封装 GitHub PR 全生命周期管理,包括 CI 检查、Review 追踪、合并就绪判断
通知路由
Multi-Channel Notification Routing
按事件优先级路由通知到不同渠道(desktop/slack/webhook),支持 Block Kit 富文本
CLI 设计
CLI Design & Developer Experience
Commander.js 实现子命令体系,支持交互式 init 向导、auto 模式、batch-spawn 批量操作
会话生命周期管理
Session Lifecycle State Machine
16 种会话状态的完整状态机,支持 spawn/restore/kill/cleanup 全生命周期,轮询驱动状态转换
Agent 活跃度检测
Agent Activity Detection
通过 JSONL 日志尾部读取和终端输出模式匹配双重机制检测 agent 活跃状态
定时任务调度
Cron/Task Scheduling
为 Agent 提供定时任务能力,支持一次性(at)、周期性(every)和 cron 表达式三种调度模式,任务持久化存储,Agent 可通过工具调用自主创建调度。
安全加固
Security Hardening
强制 execFile 替代 exec 防 shell 注入,sessionId 正则校验防路径穿越,GraphQL 变量传参防注入
插件架构
Plugin Architecture
可插拔的模块化架构设计,通过接口定义+注册发现实现组件热替换
会话生命周期管理
Session Lifecycle Management
Agent 会话从 spawn 到 merge 的完整状态机管理,含状态转换、活跃度检测和自动清理
事件驱动反应系统
Event-Driven Reaction System
基于事件类型自动触发预配置动作,支持重试计数和升级策略
配置驱动系统
Configuration-Driven System
YAML+Zod 配置驱动的系统设计,convention over configuration 自动推导
SCM 平台集成
SCM Platform Integration
完整的 PR 生命周期管理:检测、CI 聚合、Review 追踪、Merge 就绪判断
通知路由
Notification Routing
按事件优先级路由到不同通知渠道,支持多渠道并发推送
Web 终端集成
Web Terminal Integration
通过 ttyd 进程池为每个 session 提供 Web 终端访问,支持端口池化和健康检查
安全加固
Security Hardening
execFile 防注入、路径遍历校验、密钥扫描等多层安全防护
对抗辩论系统
Adversarial Debate System
通过结构化多视角对抗辩论(多轮 + 裁判)提升 Agent 决策质量
技能插件系统
Skill/Plugin System
通过 Markdown 文件(SKILL.md)定义 Agent 技能,支持工作区和内置两级技能源、需求检查、优先级覆盖,实现 Agent 能力的声明式扩展。
多 LLM Provider 抽象
Multi-LLM Provider Abstraction
统一多个 LLM 提供商的接口差异,实现 provider 无关的模型调用
数据源路由与 Fallback
Data Vendor Routing & Fallback
可配置的多数据源路由系统,支持分类级和工具级配置覆盖及自动 fallback
实时 CLI 仪表盘
Real-time CLI Dashboard
基于 Rich 库的实时终端仪表盘,展示多 Agent 执行进度和结果
反思学习机制
Reflection & Learning Mechanism
Agent 交易后自动反思决策质量,将教训存入记忆供未来相似情境检索
多 LLM Provider 抽象
Multi-LLM Provider Abstraction
统一多个 LLM 提供商的接口差异,实现模型无关的调用层
对抗辩论决策
Adversarial Debate Decision Making
通过多角色对抗辩论提升 LLM 集体决策质量
数据源路由与抽象
Data Source Routing & Abstraction
统一多数据源接口,支持配置驱动的路由和自动 fallback
配置管理
Configuration Management
集中管理应用配置,支持默认值、环境变量和运行时覆盖
交互式 CLI 界面
Interactive CLI Dashboard
构建实时更新的终端仪表盘,展示 Agent 执行进度和分析结果
经验反思学习
Experience Reflection & Learning
交易后反思盈亏原因,将经验写入记忆库供后续决策参考
Pydantic 配置驱动架构
Config-Driven Architecture
使用 Pydantic 模型定义完整配置树,支持 JSON 文件加载、环境变量覆盖、多路径发现,所有系统行为通过声明式配置驱动而非硬编码。
模型验证与兼容
Model Validation & Compatibility
验证模型名称合法性,自动处理不同模型的参数和输出格式差异
插件工厂注册系统
Plugin Factory Registry
通过工厂模式和编译期/运行时自动注册实现可扩展的组件管理
C++/Python 跨语言绑定
Cross-Language Binding
通过 pybind11 等工具实现 C++ 高性能核心与 Python 易用接口的桥接
线程池与并发执行
Thread Pool & Concurrency
通过线程池、任务分组和并行执行策略管理计算密集型工作负载
WAL 持久化与段管理
WAL & Segment Storage
通过写前日志和分段存储实现数据持久性、崩溃恢复和高效读写
SQL 过滤引擎
SQL Filter Engine
内嵌 SQL 解析与查询规划引擎,支持结构化过滤与向量检索的混合查询
容器感知资源管理
Container-Aware Resource Management
自动检测 cgroup/Docker/K8s 环境的 CPU 和内存限制,自适应配置运行参数
向量量化压缩
Vector Quantization
通过 INT8/半精度/二值化等量化技术压缩向量存储,降低内存和计算开销
Embedding 提供者抽象
Embedding Provider Abstraction
通过 Protocol 接口统一多种嵌入模型提供者,支持本地和远程 API 的即插即用切换
错误码体系
Error Code System
通过自注册错误码和 Status 类实现结构化错误传播与跨语言错误映射
KV Cache 内存管理
KV Cache Memory Management
LLM 推理中 KV Cache 的分页式内存管理。nano-vllm 在 block_manager.py 中实现了 PagedAttention 风格的块分配器,通过 block_table 映射、引用计数、按需分配/释放物理块,解决 KV Cache 显存碎片化和浪费问题。
查询执行器策略
Query Executor Strategy
根据 schema 自动选择查询执行策略,支持单向量/多向量/无向量三种模式的流水线执行
CI/CD 多平台构建
Multi-Platform CI/CD
通过 GitHub Actions 矩阵策略实现多平台自动构建、测试和 wheel 发布
可插拔日志系统
Pluggable Logging System
通过 Factory 模式实现可插拔日志后端,支持控制台和文件输出、日志轮转和级别过滤
Schema 驱动数据模型
Schema-Driven Data Model
以 Schema 为核心驱动数据定义、校验和运行时 DDL 操作
懒加载依赖管理
Lazy Dependency Loading
通过懒加载机制延迟导入可选依赖,减少安装体积并提供友好的错误提示
国际化
Internationalization (i18n)
前后端多语言支持、本地化格式化、翻译管理与语言回退机制
A2A 协议集成
Agent-to-Agent Protocol
基于标准协议实现 Agent 间发现、通信和能力协商
IP 合规治理
IP Compliance Governance
AI 生成内容的知识产权合规检查、安全替换和实时执法数据管理
国际化
Internationalization (i18n)
多语言术语词汇表和本地化 prompt 支持,提升非英语场景的生成质量
领域模板系统
Domain Template System
按领域/类型提供标准化的生产就绪模板,降低从零开始的创作门槛
前缀缓存
Automatic Prefix Caching
跨请求复用相同前缀的 KV Cache,避免重复计算。nano-vllm 在 block_manager.py 中用 xxhash 对 token 块计算哈希,通过 hash_to_block_id 字典实现自动前缀匹配,命中时直接复用物理块并跳过 prefill,显著提升多轮对话和共享 system prompt 场景的吞吐。
跨平台兼容
Cross-Platform Distribution
统一技能包在多个 AI Agent 平台上的分发、安装和兼容性管理
多数据源适配器
Multi-DataSource Adapter
统一抽象多个金融数据源,基于交易所路由自动选择适配器
策略自动恢复
Strategy Auto-Resume
进程重启后自动恢复运行中的策略,保持仓位状态连续性
Prompt模板工程
Prompt Template Engineering
统一管理和渲染LLM提示词模板,支持模板继承、变量注入和动态组合
声明式工作流配置
Declarative Workflow Configuration
通过YAML/JSON声明式定义工作流行为,支持继承、引用解析和Schema校验
多平台内容发布
Multi-Platform Content Publishing
配置驱动的多平台自动化发布,通过浏览器自动化适配不同内容平台
定时任务调度
Task Scheduling & Cron
纯Python自驱动定时任务调度,支持cron表达式、指数退避和卡死检测
内容去AI化
Content Humanization
两阶段去AI味处理:确定性文本清理+LLM驱动改写,使AI生成内容更自然
SSE实时进度推送
SSE Real-time Progress
通过Server-Sent Events实现长时间任务的实时进度推送和前端可视化
跨章节语义去重
Cross-Section Semantic Deduplication
多Agent协作生成长文时检测并消除不同章节间的语义重复内容
连续批处理调度
Continuous Batching Scheduler
迭代级别的动态批处理调度器。nano-vllm 的 scheduler.py 实现了 prefill/decode 两阶段调度:waiting 队列中的新请求优先 prefill,running 队列中的序列持续 decode。支持 preempt 抢占机制——当显存不足时驱逐低优先级序列,释放块后重新排队。
Skill扩展系统
Skill Extension System
插件化技能注册与执行系统,支持装饰器注册、超时保护和批量执行
限流与速率控制
Rate Limiting & Throttling
全局令牌桶限流器按domain分组控制API调用频率,防止触发服务商速率限制
认证授权
Authentication & Authorization
多策略认证、OAuth集成、API Key管理和权限控制
国际化
Internationalization
多语言支持、翻译管理和语言自动跟随
积分与计费
Credit & Billing System
积分经济系统、订阅管理、用量计量和支付集成
Webhook触发
Webhook Trigger System
外部事件触发工作流执行的Webhook系统
定时调度
Scheduled Execution
基于Cron表达式的工作流定时执行系统
多模型提供商适配
Multi-Provider LLM Adapter
统一适配多家LLM/Embedding/Reranker提供商的抽象层
技能包管理
Skill Package Management
技能的安装、发布、版本管理和注册表系统
变量提取
Intelligent Variable Extraction
LLM驱动的工作流变量自动提取与参数化
张量并行推理
Tensor Parallelism
多 GPU 张量并行推理实现。nano-vllm 通过 NCCL 后端的 torch.distributed 实现 TP,在 linear.py 中提供 ColumnParallelLinear/RowParallelLinear/QKVParallelLinear 三种并行线性层,自动按 tp_size 切分权重。model_runner.py 用 multiprocessing spawn 启动多进程,rank 0 为主进程通过 Event 同步调度。
协作编辑
Real-time Collaborative Editing
基于CRDT的多用户实时协作编辑系统
分享与发布
Content Sharing & Publishing
内容分享、复制和公开发布的权限与速率控制
多 LLM 供应商抽象
Multi-LLM Provider Abstraction
统一抽象多个 LLM 供应商的 API 差异,实现模型路由和客户端工厂模式
浏览器自动化抽象层
Browser Automation Abstraction
封装 CDP 协议差异,提供跨引擎(Playwright/Puppeteer)的统一浏览器操作接口
进程生命周期管理
Process Lifecycle Management
通过看门狗子进程确保父进程崩溃时自动清理浏览器和远程会话资源
DOM 感知与无障碍树
DOM Awareness & Accessibility Tree
构建混合 DOM+a11y 快照为 LLM 提供结构化页面理解,支持差异比对和深度定位
自愈缓存系统
Self-Healing Cache System
缓存的操作序列在回放时自动检测选择器变化并通过 LLM 重新定位,实现缓存自修复
Computer Use Agent 多模态
Computer Use Agent (CUA)
实现多供应商 Computer Use Agent 框架,通过截图+坐标实现视觉驱动的浏览器操作
Schema 兼容层
Schema Compatibility Layer
解决 Zod 跨版本兼容和 JSON Schema 到 Zod 的动态转换,确保结构化输出的类型安全
认证授权
Authentication & Authorization
多因素身份认证、API Key 权限管理、请求限流与访问控制
CUDA Graph 与编译优化
CUDA Graph & Torch Compile Optimization
通过 CUDA Graph 捕获和 torch.compile 消除 GPU kernel launch 开销。model_runner.py 在 decode 阶段预捕获不同 batch size 的 CUDA Graph,运行时直接 replay 避免重复 launch。sampler/rotary_embedding/layernorm/activation 均用 @torch.compile 装饰,attention 层使用 Triton 自定义 kernel (store_kvcache_kernel) 实现高效 KV Cache 写入。
加密保险库
Encryption-at-Rest Vault
本地密钥管理、数据加密存储、seal/unseal 状态机与密钥恢复
多渠道通信
Multi-Channel Communication
统一接口适配多个即时通讯平台,消息路由与访问控制
语音输入输出
Voice I/O
TTS/STT 多提供者抽象层,支持云端和本地语音推理
任务调度
Task Scheduling
Cron 定时任务调度、多存储后端、限流与健康检查
技能系统
Skill System
可扩展的技能发现、安装与注册,增强 agent 能力边界
多 LLM Provider 管理
Multi-Provider Management
统一接口管理多个 LLM 提供者,动态模型发现与连接池复用
配置管理与校验
Configuration Management
TOML 配置加载、环境变量替换、schema 语义校验与版本迁移
Agent 经济系统
Agent Economic System
为 AI Agent 设计收支平衡的经济生存机制,通过成本约束驱动高效行为
任务分类与定价
Task Classification & Pricing
用 LLM 将自由文本任务自动分类到职业类别并估算经济价值
多模态产物评估
Multimodal Artifact Evaluation
对 Agent 生成的多格式文件产物进行视觉+文本的 LLM 多模态质量评估
Prompt 工程模式
Prompt Engineering Patterns
System prompt 的结构化设计模式:身份定义、行为约束、输出格式控制、XML 标签分区、few-shot 示例、规则优先级等。是 AI Agent 产品化的核心工程能力。
实时仪表盘与 WebSocket
Real-time Dashboard & WebSocket
通过 WebSocket 实时推送 Agent 运行状态到前端仪表盘实现可视化监控
配置驱动的 Agent 基准测试
Config-Driven Agent Benchmarking
通过 JSON 配置文件驱动多 Agent 并行基准测试,支持多任务源和过滤策略
知识图谱构建
Knowledge Graph Construction
从非结构化文档中自动抽取实体和关系,构建可查询的知识图谱
多后端存储抽象
Multi-Backend Storage Abstraction
统一存储接口抽象,支持多种后端(SQL/NoSQL/向量库/图数据库)插件化切换
多进程并发控制
Multi-Process Concurrency Control
单进程/多进程统一锁抽象,支持Gunicorn多worker模式下的数据一致性
LLM提供商抽象
LLM Provider Abstraction
统一多LLM提供商接口,支持OpenAI/Azure/Anthropic/Gemini/Ollama等12+提供商
认证授权
Authentication & Authorization
JWT令牌认证与角色授权,支持用户/访客双角色和可配置过期策略
LLM响应缓存
LLM Response Caching
LLM调用结果缓存,通过hash key去重避免重复计算,降低API成本
配置管理
Configuration Management
多层配置体系(默认值→环境变量→CLI→配置文件),统一类型转换和校验
多租户数据隔离
Multi-Tenant Data Isolation
workspace+namespace双层隔离实现多租户数据分离,每个租户独立存储空间
安全护栏
Safety Guardrails
AI Agent 的安全边界设计:PII 过滤、恶意代码拒绝、prompt 注入防御、秘密泄露防护、操作权限边界。确保 Agent 在自主执行时不越界。
API兼容层
API Compatibility Layer
实现第三方API协议兼容(如Ollama),让现有工具无缝接入自定义RAG系统
异步并发限流
Async Concurrency Throttling
异步函数调用的并发限流与超时管理,防止LLM/Embedding API过载
文档生命周期管理
Document Lifecycle Management
文档从上传到处理完成的全生命周期状态跟踪与管理
容器化部署
Containerized Deployment
Docker/K8s多级部署方案,支持多worker模式和数据库依赖编排
历史回放与回测
Historical Replay & Backtesting
在历史数据上回放交易策略,严格防止未来信息泄露,确保实验可复现
多市场适配
Multi-Market Adaptation
同一系统适配不同市场的交易规则、数据格式和业务约束
配置驱动架构
Configuration-Driven Architecture
通过外部配置文件驱动系统行为,支持环境变量覆盖和运行时配置持久化
服务生命周期管理
Service Lifecycle Management
管理多个微服务的启动、健康检查、故障检测和优雅关闭
绩效评估体系
Performance Benchmarking
标准化评估 Agent 交易绩效,计算风险调整后收益指标并支持跨模型对比
并发与文件锁
Concurrency & File Locking
在多进程并行场景下通过文件锁保证共享状态的原子性更新
多模型适配
Multi-Model Adaptation
同一 Agent 框架针对不同 LLM(GPT-5、Claude Sonnet 4、Gemini 2.5 Pro 等)的 prompt 和工具定义适配策略。解决模型能力差异带来的行为一致性问题。
领域特定 Prompt 工程
Domain-Specific Prompt Engineering
为不同业务领域设计专用 prompt 模板,动态注入运行时数据驱动 Agent 行为
多LLM Provider抽象
Multi-LLM Provider Abstraction
统一封装多种LLM/Embedding提供商,实现provider无关的模型调用抽象层
配置管理
Configuration Management
多层配置合并、环境变量覆盖、类型自动转换、deprecated属性迁移的统一配置系统
速率限制与并发控制
Rate Limiting & Concurrency Control
全局单例速率限制器、Worker池并发控制、异步信号量协调多层并发请求
WebSocket实时通信
WebSocket Real-time Streaming
WebSocket连接管理、消息队列化发送、多类型事件流式推送的实时通信系统
动态Agent角色生成
Dynamic Agent Role Generation
通过LLM分析查询自动生成专业Agent角色和系统提示词,实现查询驱动的动态专家分配
多格式报告生成
Multi-format Report Generation
支持多种报告类型和导出格式,结构化报告生成流水线,内联AI图片和引用管理
虚拟文件系统抽象
Virtual Filesystem Abstraction
通过统一 URI 协议将异构上下文映射为虚拟文件系统,支持标准文件操作和事务保障
多格式文档解析
Multi-Format Document Parsing
支持 15+ 种文档格式的统一解析框架,含 AST 级代码理解和自定义解析器扩展
多租户认证授权
Multi-Tenant Authentication
API Key 驱动的多租户认证体系,支持三级角色和租户级数据隔离
代码编辑协议
Code Edit Protocol
AI Agent 安全修改代码文件的协议设计:精确字符串替换、diff 格式、编辑确认机制、并发编辑冲突处理。是 AI 编码助手的核心交互协议。
Prompt 模板管理
Prompt Template Management
YAML 驱动的 Prompt 模板系统,支持变量校验、Jinja2 渲染和线程安全缓存
语义 DAG 处理引擎
Semantic DAG Processing Engine
事件驱动的 DAG 执行器,自底向上聚合语义摘要,支持并发控制和收敛检测
向量数据库抽象层
Vector Database Abstraction Layer
通过适配器模式支持多种向量存储后端,统一 collection/index/store 三层架构
多 Provider LLM 抽象
Multi-Provider LLM Abstraction
统一多模型 Provider 调用接口,支持 text/vision 模态和结构化输出验证
凭据与密钥管理
Credential & Secret Management
管理 API Key、Cookie、Token 等敏感凭据的安全存储、提取和访问控制
环境引导与依赖管理
Environment Bootstrapping & Dependency Management
自动检测运行环境、安装系统依赖、配置上游工具链的一键引导系统
Agent 技能协议
Agent Skill Protocol
定义 Agent 可消费的技能指令格式,实现跨 Agent 平台的能力注入与命令参考
工作流模板引擎
Workflow Template Engine
声明式工作流模板的解析、继承、组合与实例化,将模板编译为可执行的任务依赖图
外部系统双向同步
External System Bidirectional Sync
与外部 issue tracker 的双向数据同步,包括冲突检测与解决策略
版本控制数据库
Version-Controlled Database
使用版本控制数据库实现数据的分支、合并、历史追溯和分布式同步
Spec 驱动开发
Spec-Driven Development
AI Agent 从'直接编码'到'先规划后实现'的工作流演进:需求文档→设计文档→任务分解→逐步实现。Kiro 的三阶段流程和 Traycer 的 plan/phase 模式是典型代表。
无冲突 ID 生成
Collision-Free ID Generation
基于内容哈希的分布式 ID 生成,确保多 agent 并行场景下零冲突
层级配置管理
Hierarchical Configuration Management
多层级配置优先级链,支持项目级、用户级和全局级配置的合并与覆盖
Agent 友好 CLI 设计
Agent-Friendly CLI Design
专为 AI Agent 优化的 CLI 设计模式,包括 JSON 输出、原子操作和非交互式接口
技能系统
Skill System
Agent 能力的模块化封装、渐进式加载与动态扩展
配置管理
Configuration Management
多层配置加载、环境变量解析、热重载与单例缓存
反射加载
Reflection & Dynamic Loading
运行时从字符串路径动态导入类和变量,实现插件化组件替换
文件与制品管理
File & Artifact Management
用户文件上传、工作区管理、制品交付与增量注入
API 网关
API Gateway
统一 API 入口、反向代理分离、RESTful 端点管理
并行推理与Test-Time Scaling
Parallel Inference & Test-Time Scaling
通过多路径并行推理和不确定性驱动的分支采样提升Agent推理质量
并发执行与负载均衡
Concurrent Execution & Load Balancing
大规模Agent推理场景下的并发控制、多实例负载均衡和数据分片策略
多渠道消息网关
Multi-Channel Messaging Gateway
统一接入WhatsApp/Telegram/Slack/Discord/Signal/iMessage等10+消息渠道的网关架构
断点续跑与幂等推理
Checkpoint Resume & Idempotent Inference
长时间批量推理任务中断后能从断点恢复,避免重复计算
网页内容提取与摘要
Web Content Extraction & Summarization
从原始网页中提取结构化信息并生成面向目标的摘要
文件解析与多模态处理
Multimodal File Parsing
支持PDF/Office/视频/音频等多格式文件的解析和内容提取
搜索结果缓存
Search Result Caching
缓存搜索和网页抓取结果,避免重复API调用降低成本
浏览器自动化Agent
Browser Automation Agent
通过MCP协议控制真实浏览器实现深度网页交互和信息获取
文档处理管线
Document Processing Pipeline
多阶段串联的文档解析管线设计,支持多后端路由和阶段组合
模型管理与自动下载
Model Management & Auto-Download
AI模型的生命周期管理,包括自动下载、缓存、多源切换和单例复用
多硬件适配
Multi-Hardware Adaptation
统一抽象多种GPU/NPU加速设备,自动检测并适配不同硬件平台
配置管理
Configuration Management
环境变量与配置文件双层配置体系,支持运行时参数灵活控制
并发控制
Concurrency Control
请求级并发限制保护GPU等有限资源不被过载
插件扩展系统
Plugin Extension System
完整的插件生命周期管理:发现/安装/加载/启用/卸载,支持npm/git/bundled三种来源
存储抽象层
Storage Abstraction Layer
统一文件读写接口,支持本地和云存储透明切换
批处理优化
Batch Processing Optimization
按分辨率分组的智能批处理策略,根据硬件资源自适应调整batch size
多语言检测
Multilingual Detection
自动语言检测与多语言OCR路由,支持30+语言族
任务调度
Task Scheduling
基于SQLite的异步任务队列,支持监控、健康检查和超时恢复
PDF智能分类
Document Classification
基于多维度特征分析自动判断PDF文档类型,选择最优处理路径
多GPU分布式推理
Distributed GPU Inference
基于LitServe的多GPU推理服务,支持自动设备分配和负载均衡
API设计模式
API Design Patterns
REST API与Web UI双入口设计,支持多格式响应和安全防护
强化学习训练框架
RL Training Framework
为LLM/VLM Agent提供基于策略梯度的强化学习训练管道,支持多种优势估计和奖励塑形
多模态处理
Multi-Modal Processing
处理文本、图像、视频等多模态输入的统一管道,包括预处理、编码、上下文拼接
分布式训练
Distributed Training
大模型分布式训练基础设施,包括数据并行、张量并行、资源调度和推理引擎集成
认证配置轮转
Auth Profile Rotation
多认证配置自动轮转:OAuth/API Key/Token三种凭证类型,cooldown冷却期,故障标记,优先级排序
向量索引与嵌入
Vector Indexing & Embedding
多模态向量嵌入与索引系统,支持增量构建、多模型切换和高效检索
训练数据构建
Training Data Construction
利用专家模型自动构建高质量RL/SFT训练数据,包括CoT轨迹生成和格式转换
模型注册与适配
Model Registry & Adaptation
统一的模型架构注册表和运行时适配层,支持多架构动态加载和monkey patch
检查点管理
Checkpoint Management
分布式训练的检查点保存、恢复和管理,支持断点续训和自动发现最新检查点
多渠道消息网关
Multi-Channel Messaging Gateway
统一接入多个消息平台,实现跨渠道消息路由、会话管理和协议适配
插件系统架构
Plugin Architecture
提供可扩展的插件注册机制,支持工具、渠道、Hook等多种扩展点
安全审计框架
Security Audit Framework
自动化安全检查,发现配置漏洞、权限问题和攻击面暴露
配置管理与校验
Configuration Management
类型安全的配置系统,支持schema校验、环境变量替换、热重载和迁移
定时任务调度
Task Scheduling
Cron表达式驱动的定时任务系统,支持持久化、补偿执行和隔离运行
多模型Provider抽象
Multi-Provider Model Abstraction
统一抽象20+LLM提供商,实现模型别名、认证轮换和provider适配
安全审计框架
Security Audit Framework
自动化安全审计:文件权限检查、沙箱配置校验、密钥泄露扫描、攻击面分析、插件代码安全扫描
浏览器自动化
Browser Automation
基于Playwright的浏览器自动化,支持CDP协议、多Profile和AI辅助交互
技能系统
Skill System
通过SKILL.md文件定义可复用Agent能力,支持安装、同步和运行时注入
守护进程管理
Daemon Process Management
跨平台守护进程管理,支持launchd/systemd/schtasks三大平台服务注册
渠道健康监控
Channel Health Monitoring
自动监控消息渠道连接状态,支持故障检测、自动重启和重启风暴防护
ACP协议适配
Agent Client Protocol Adapter
实现Agent Client Protocol标准协议,使标准客户端可接入自定义Agent系统
推测解码
Speculative Decoding
通过草稿模型预测+验证机制加速自回归生成,降低推理延迟
分布式并行推理
Distributed Parallel Inference
多维并行策略实现大模型跨设备分布式推理
模型量化
Model Quantization
通过低精度表示压缩模型权重,降低显存占用和计算开销
LoRA动态适配
LoRA Dynamic Adapter
运行时动态加载和切换多个LoRA适配器,实现单基座模型多任务服务
连续批处理调度
Continuous Batching Scheduler
动态合并请求实现连续批处理,最大化GPU吞吐量
守护进程管理
Daemon Service Management
跨平台守护进程:launchd(macOS)/systemd(Linux)/schtasks(Windows)统一抽象,支持安装/卸载/重启/状态检查
KV Cache分页管理
KV Cache Paged Management
将KV Cache按block分页管理,消除内存碎片,支持前缀共享和跨节点传输
多模态推理
Multimodal Inference
统一处理文本、图像、音频、视频等多模态输入的推理框架
硬件平台抽象
Hardware Platform Abstraction
统一抽象层适配多种硬件平台,实现设备无关的推理引擎
CUDA Graph编译优化
CUDA Graph & Compilation
通过CUDA Graph捕获和torch.compile编译消除kernel启动开销
OpenAI兼容API
OpenAI Compatible API
提供OpenAI协议兼容的HTTP/gRPC推理服务端点
弹性伸缩
Elastic Scaling
运行时动态增减推理节点,实现集群弹性伸缩
权重卸载与预取
Weight Offloading & Prefetch
将模型权重卸载到CPU内存,按需预取到GPU,突破显存限制
disaggregated推理
Disaggregated Serving
将prefill和decode阶段分离到不同节点,实现异构资源调度
服务注册与依赖注入
Service Registry & Dependency Injection
通过IoC容器管理服务生命周期,支持多种服务发现和依赖自动注入
认证授权
Authentication & Authorization
多层认证体系设计,支持JWT/API Key/SSO等多种认证方式
配置热重载
Configuration Hot Reload
基于chokidar文件监听的配置热重载:hybrid模式区分hot/restart/none,按配置路径前缀匹配重载策略,支持渠道级精细重启
可视化工作流引擎
Visual Workflow Engine
基于Graph-Vertex-Edge模型的可视化工作流编排引擎
事件驱动架构
Event-Driven Architecture
基于事件管理器的实时通信和状态广播机制
缓存策略
Caching Strategy
多层缓存体系设计,从LRU内存缓存到组件共享缓存
数据库迁移
Database Migration
使用Alembic管理数据库Schema版本演进和增量迁移
组件化扩展体系
Component Extension System
基于基类继承的声明式组件扩展系统,支持自定义组件热加载
API兼容层
API Compatibility Layer
将内部服务包装为标准API格式,实现与外部生态的无缝对接
异步任务队列
Async Task Queue
管理长时间运行的异步任务,支持状态追踪和超时保护
多模态交互
Multimodal Interaction
支持语音、文本等多种交互模态的实时通信系统
对象存储抽象
Object Storage Abstraction
统一文件存储接口,支持本地和云存储后端无缝切换
Feature Flag系统
Feature Flag System
集中管理功能开关,实现渐进式功能发布和A/B测试
定时任务调度
Cron Job Scheduling
内置cron服务:支持一次性/周期性任务,持久化存储,catch-up补偿,stagger错峰,隔离agent执行,session reaper自动清理
凭证管理
Credential Management
安全存储和管理API密钥、凭证等敏感信息
任务调度系统
Task Scheduling System
管理异步任务的优先级调度、分发、批量消费和超时回收
工厂模式与组件注册
Factory Pattern & Component Registry
通过工厂模式实现组件可插拔,统一注册和实例化多种后端实现
认证授权
Authentication & Authorization
API Key 认证、scope 权限控制和内部服务白名单机制
请求上下文传播
Request Context Propagation
跨线程的请求上下文自动传播,支持分布式追踪和日志关联
配置管理
Configuration Management
类型安全的配置体系,支持多格式加载、严格校验和环境变量覆盖
记忆生命周期管理
Memory Lifecycle Management
记忆从创建、激活、归档到重组的完整生命周期管理
多模态消息解析
Multimodal Message Parsing
将多模态对话消息(文本/文件/图片/音频)解析为结构化记忆条目
依赖管理与懒加载
Dependency Management & Lazy Loading
可选依赖的运行时检测和懒加载,避免强制安装所有包
国际化
Internationalization (i18n)
解决 AI CLI 工具的多语言用户体验问题,包括界面、文档、触发词的本地化
浏览器自动化
Browser Automation
Playwright驱动的浏览器自动化:CDP协议控制、Chrome profile管理、扩展中继、截图/导航/交互工具、沙箱浏览器容器(noVNC)
IDE 集成
IDE Integration
解决终端 AI 助手与 IDE 编辑器的双向通信和上下文共享问题
市场与插件生态
Marketplace & Plugin Ecosystem
解决 AI CLI 工具的能力扩展和社区生态建设问题
层级配置管理
Hierarchical Configuration Management
解决 AI CLI 工具在多环境、多项目场景下的配置优先级和覆盖问题
输出风格系统
Output Style & Persona System
解决 AI 助手行为模式和输出风格的灵活定制问题
CI/CD 自动化集成
CI/CD AI Integration
解决 AI CLI 工具与 CI/CD 流水线的集成,实现 AI 驱动的自动化任务
Prompt 工程框架
Prompt Engineering Framework
结构化 prompt 构建、验证、压缩和编译的系统化方法论
模块化技能架构
Modular Skill Architecture
将领域知识拆分为独立可加载的技能模块,支持按需组合和跨平台分发
多 LLM Provider 抽象
Multi-LLM Provider Abstraction
统一抽象多个 LLM 提供商,支持自动降级和配置驱动切换
实时流式通信
Real-time Streaming Communication
SSE 流式架构实现 Agent 响应实时推送与前端消费
交易执行引擎
Trading Execution Engine
从数据采集到订单执行的完整交易决策管道
消息路由引擎
Message Routing Engine
多维度消息路由:peer/guild/team/account/channel/role绑定,支持通配符匹配、父级继承、Discord角色路由,session key自动生成
特征工程管道
Feature Engineering Pipeline
并发获取多源金融数据并计算特征向量供 LLM 决策
故障诊断知识库
Troubleshooting Knowledge Base
结构化的故障模式数据库,按症状→原因→修复方案组织,支持快速定位和解决问题
全栈 LLM 训练流水线
Full-Stack LLM Training Pipeline
从 tokenizer 到 Web 聊天的端到端 LLM 训练与部署流水线
任务抽象与数据混合
Task Abstraction & Data Mixing
统一的评估任务抽象层,支持数据混合、课程学习和 RL reward
多 GPU 推理服务
Multi-GPU Inference Serving
基于 Worker Pool 的多 GPU 数据并行推理服务
GC 与内存管理优化
Runtime Memory Optimization
精细的 Python GC 控制与 GPU 内存管理策略
分布式训练编排
Distributed Training Orchestration
多 GPU/多节点训练的通信、同步、状态分片与梯度聚合
混合精度与 FP8 训练
Mixed Precision & FP8 Training
利用低精度浮点格式加速训练同时保持数值稳定性
Scaling Laws 自动化
Scaling Laws Automation
基于 scaling laws 自动推导计算最优的训练超参数
KV Cache 推理引擎
KV Cache Inference Engine
高效的自回归推理引擎,含 KV 缓存管理和工具调用状态机
技能管理系统
Skills Management System
Agent技能发现/安装/加载:支持bundled/npm/git来源,workspace级技能快照,技能prompt注入system prompt,技能命令注册,环境变量覆盖
BPE Tokenizer 训练与推理
BPE Tokenizer Training & Inference
从零训练 BPE tokenizer 并高效服务推理的完整方案
高效数据加载管道
Efficient Data Loading Pipeline
面向大规模预训练的分布式数据加载与文档打包策略
高级优化器设计
Advanced Optimizer Design
结合 Muon 正交化与 AdamW 的混合优化器,含融合内核与分布式支持
技能系统
Agent Skill System
Agent 技能的发现、加载、分层覆盖和渐进式披露机制
可插拔后端架构
Pluggable Backend Architecture
通过协议抽象实现文件操作和执行环境的可插拔后端
Prompt 缓存优化
Prompt Caching Optimization
利用 LLM 提供商的 prompt 缓存能力降低重复 token 计费
多模型提供商管理
Multi-Provider Model Management
统一管理多个 LLM 提供商的模型配置、凭证检测和运行时切换
会话与线程管理
Session & Thread Management
多线程会话的创建、切换、持久化和状态隔离
环境上下文感知
Environment Context Awareness
自动检测运行环境信息并注入 Agent 系统提示
Agent 通信协议
Agent Communication Protocol
标准化 Agent 间通信协议,支持会话管理和多模态内容
多模态媒体理解
Media Understanding Pipeline
图片/音频/视频/PDF多模态处理管道:provider路由(vision/audio/deepgram)、并发控制、格式检测、沙箱媒体暂存、链接内容提取
Agent 评估框架
Agent Evaluation Framework
Agent 行为的标准化评估、基准测试和追踪基础设施
认证授权
Authentication & Authorization
解决 Agent 服务的身份验证、资源隔离和多租户访问控制问题
配置管理
Configuration Management
解决 Agent 系统运行时参数管理、多环境配置和 UI 驱动配置的问题
多模型路由
Multi-Model Routing
解决不同任务阶段使用不同 LLM 模型的选择、切换和成本优化问题
评估驱动开发
Eval-Driven Development
解决 Agent 输出质量的系统化评估、基准测试和持续改进问题
LangGraph 状态图模式
LangGraph State Graph Patterns
解决基于 LangGraph 构建复杂 Agent 工作流的状态管理、子图嵌套和条件路由问题
KV Cache 分页与前缀缓存
Paged KV Cache & Prefix Caching
解决 LLM 推理中 KV Cache 内存碎片化和重复计算问题,通过分页管理和内容哈希实现高效缓存复用
张量并行推理
Tensor Parallel Inference
解决单 GPU 显存不足时的大模型推理问题,通过权重分片和通信原语实现多卡并行
CUDA Graph 捕获优化
CUDA Graph Capture Optimization
解决 GPU 推理中内核启动开销占比过高的问题,通过预捕获计算图实现零开销重放
连续批处理调度
Continuous Batching & Scheduling
解决 LLM 推理中静态批处理导致 GPU 利用率低的问题,通过动态调度实现序列级别的连续批处理
语音合成与交互
Text-to-Speech & Voice
Edge TTS语音合成、语音通话扩展(voice-call)、Discord语音频道集成、macOS/iOS/Android原生语音唤醒,文本预处理优化朗读效果
模型权重加载与分片
Model Weight Loading & Sharding
解决 HuggingFace 模型权重到自定义并行架构的映射问题,通过声明式映射实现自动权重融合与分片
Triton 自定义算子
Custom Triton Kernels
解决 PyTorch 原生算子无法高效处理分页内存访问的问题,通过 Triton JIT 编写自定义 GPU 内核
GPU 内存动态分配
Dynamic GPU Memory Management
解决 GPU 显存利用率与 OOM 风险的平衡问题,通过运行时内存探测动态决定缓存容量
Torch 编译优化
Torch Compilation Optimization
解决手写 CUDA kernel 成本高的问题,通过 @torch.compile 装饰器让编译器自动进行算子融合优化
语音音频管道
Speech & Audio Pipeline
端到端语音处理:VAD检测、STT转录、TTS合成的完整音频管道
多平台Bot框架
Multi-Platform Bot Framework
统一的多平台聊天机器人框架,支持Telegram/Discord/Satori协议
依赖注入
Dependency Injection
使用IoC容器管理服务依赖,实现模块解耦和可测试性
角色卡片系统
Character Card System
角色定义、导出和互操作的标准化系统,支持V3规范
国际化
Internationalization
集中式多语言翻译系统,支持8种语言和Crowdin协作翻译
认知架构
Cognitive Architecture
分层认知系统:感知层→反射层→意识层的仿生Agent架构
模型目录与发现
Model Catalog & Discovery
多provider模型自动发现:Bedrock/Ollama/HuggingFace/BytePlus/Together等,模型别名映射,provider配置自动注入,模型兼容性适配
跨平台部署
Cross-Platform Deployment
单代码库部署到Web/Desktop/Mobile:PWA、Electron、Capacitor/iOS
LLM提供商抽象
LLM Provider Abstraction
通过xsai统一25+LLM提供商接口,支持Chat/Embed/Speech/Transcription四类模型
模块生命周期协议
Module Lifecycle Protocol
完整的模块编排协议:认证→兼容性协商→声明→准备→配置→贡献→激活的10步生命周期
文档处理管线
Document Processing Pipeline
将非结构化文档(PDF/HTML/MD)转换为结构化、可检索的分块,支撑 RAG 系统的数据准备层
多源数据聚合
Multi-Source Data Aggregation
从多个异构数据源并发抓取、归一化为统一模型的工程能力
内容去重
Content Deduplication
跨数据源的 URL 级和语义级内容去重与合并策略
AI 内容评分
AI Content Scoring
用 LLM 对内容进行结构化评分、标签生成和质量过滤
多 LLM 提供商适配
Multi-LLM Provider Abstraction
通过抽象层统一适配多家 LLM API,实现提供商无关的调用
双语内容生成
Bilingual Content Generation
AI驱动的中英双语结构化内容生成与排版优化
静态站点部署
Static Site Generation & Deployment
自动生成Markdown报告并通过CI/CD部署为静态站点
配置Schema校验
Configuration Schema Validation
Zod驱动的配置schema校验:类型安全、环境变量替换、include文件合并、legacy迁移、敏感字段脱敏、配置备份轮转
配置驱动架构
Configuration-Driven Architecture
单一JSON配置文件驱动全部行为,Pydantic验证+环境变量替换
多 LLM Provider 抽象
Multi-LLM Provider Abstraction
统一多个 LLM 提供商的接口差异,支持按场景选择不同模型配置
多模态预处理
Multimodal Preprocessing Pipeline
将图片/音频/视频等多模态输入统一转换为文本,供下游管道处理
配置驱动架构
Configuration-Driven Architecture
通过声明式配置控制系统行为,减少硬编码,支持运行时调整
可插拔存储后端
Pluggable Storage Backend
通过 Repository+Factory 模式抽象存储层,支持按需切换数据库后端
记忆去重与强化
Memory Deduplication & Reinforcement
通过内容哈希去重和强化计数实现记忆的自然遗忘与巩固
API Key 轮询与多供应商管理
API Key Rotation & Multi-Provider Management
管理多个 API Key 的轮询调度、多供应商路由和功能级模型绑定
Web Worker 任务卸载
Web Worker Task Offloading
将 AI 生成等重计算任务卸载到 Web Worker,通过 Bridge 模式管理通信
项目级状态隔离
Project-Scoped State Isolation
多项目数据隔离存储,支持项目切换时状态重载和跨项目资源共享
提示词工程管道
Prompt Engineering Pipeline
多层语义提示词组装系统,支持摄影参数翻译、风格档案回退和媒介类型适配
Agent 继承体系
Agent Inheritance Hierarchy
通过多层继承构建可扩展的 Agent 能力体系,每层叠加特定职责
AI 输出解析与清洗
AI Output Parsing & Sanitization
清洗 AI 返回的非标准 JSON,提取有效数据边界,修正类型异常
批量生成管道
Batch Generation Pipeline
批量AI内容生成的并发控制、断点续传、进度追踪和失败重试
Electron 混合存储架构
Electron Hybrid Storage Architecture
Electron 文件系统与浏览器 localStorage 的双模存储,通过 preload bridge 暴露 API
异步任务轮询
Async Task Polling
对异步AI生成API的任务提交-轮询-结果获取模式,支持超时和状态追踪
Store 版本迁移
Store Version Migration
Zustand persist 的多版本迁移链,支持数据格式升级、废弃字段清理和向后兼容
多渠道消息适配
Multi-Channel Messaging Adapter
统一接入多个即时通讯渠道,抽象消息收发、渲染和去抖逻辑
技能市场与热安装
Skill Marketplace & Hot Install
从多个技能源发现、安装和管理可扩展的 Agent 技能
定时任务调度
Scheduled Task System
基于 Cron 表达式的定时任务调度,支持 Agent 查询和消息推送
配置热重载
Configuration Hot Reload
监听配置文件变更,自动差异对比并热重载变更的组件配置
本地模型推理
Local Model Inference
支持多后端本地模型加载与推理,统一 chat 接口
多 LLM 提供商适配
Multi-LLM Provider Adapter
统一接口适配多个 LLM 提供商,屏蔽 API 差异实现无缝切换
系统提示词工程
System Prompt Engineering
声明式 Markdown 文件构建系统提示词,支持分层组合和运行时动态更新
多渠道消息路由
Multi-Channel Message Routing
统一管理多个 IM 渠道的消息接收、路由、去重和分发
技能插件系统
Skill Plugin System
Agent 技能的创建、安装、启用和市场化分发
配置热重载
Configuration Hot Reload
运行时监控配置文件变更并自动重载受影响组件
定时心跳任务
Scheduled Heartbeat Tasks
Agent 定时自主执行任务并将结果推送到指定渠道
本地模型管理
Local Model Management
本地 LLM 模型的下载、注册、选择和推理后端管理
浏览器自动化
Browser Automation
Agent 内置的 Playwright 浏览器控制能力
Markdown 驱动的 Prompt 工程
Markdown-Driven Prompt Engineering
通过 Markdown 文件组合构建 Agent 的 system prompt
国际化
Internationalization
前后端统一的多语言支持机制
消息渲染适配
Message Rendering Adapter
将 Agent 输出统一渲染为各渠道可发送的格式
浏览器自动化
Browser Automation
Agent 驱动的浏览器自动化,支持状态感知和视觉反馈的网页交互
静态代码分析
Static Code Analysis
多维度静态分析检测代码质量问题,覆盖 dead code、复杂度、重复、命名等
多语言插件架构
Multi-Language Plugin Architecture
可扩展的语言插件系统,支持零代码变更接入新语言
Anti-Gaming 评分完整性
Anti-Gaming Score Integrity
防止 AI 或人类通过作弊手段提升质量分数的完整性保护机制
AI Agent 引导系统
AI Agent Guidance System
为 AI 编码 Agent 生成结构化行动指引,驱动自主代码改善循环
工作队列与优先级排序
Work Queue & Prioritization
智能工作队列系统,自动排序和聚类代码问题,控制信息密度
LLM 主观评审系统
LLM Subjective Review System
基于 LLM 的盲审流水线,分批评估代码设计质量并合并多轮评审结果
配置管理
Configuration Management
类型化项目配置系统,支持 CLI 管理和运行时安全解析
自动修复系统
Auto-Fix System
自动化代码修复框架,支持 dry-run 预览和修复后状态联动
文件区域分类
File Zone Classification
基于路径模式的文件意图分类系统,驱动检测和评分策略
增量扫描与状态合并
Incremental Scan & State Merge
跨会话增量扫描,智能合并新旧 findings 并追踪质量趋势
Agent-to-Agent 协议
Agent-to-Agent Protocol
实现标准化 Agent 间通信协议,支持跨系统 Agent 互操作
多供应商 AI 调度
Multi-Provider AI Dispatch
管理多个 AI 供应商的 Key 轮转、负载均衡、模型能力发现与动态路由
批量并发处理
Batch Concurrency Control
大规模 AI 任务的自适应分批、并发控制、错开启动与容错隔离
Prompt 工程系统
Prompt Engineering System
结构化 Prompt 模板编译、多层语义组装与媒介类型适配
角色一致性管理
Character Consistency Management
跨分镜角色视觉一致性保障,包括角色圣经、参考图绑定与风格 token 管理
Web Worker 通信桥
Web Worker Communication Bridge
主线程与 Worker 的异步命令/事件通信、Promise 管理与媒体注入
数据迁移与恢复
Data Migration & Recovery
存储架构升级时的安全迁移、幂等执行与数据恢复机制
异步任务轮询
Async Task Polling
异步 AI 生成任务的状态轮询、动态超时与网络容错
AI 输出清洗
AI Output Sanitization
AI 返回文本的鲁棒解析,包括 markdown 围栏剥离、JSON 边界定位与类型修正
Zustand 状态管理架构
Zustand State Architecture
大型 Electron 应用的 Zustand 多 Store 架构、持久化适配与项目切换协调
Electron IPC 安全桥接
Electron IPC Security Bridge
Electron 渲染进程与主进程的安全通信,contextBridge 隔离与 API 命名空间设计
配置管理
Configuration Management
类型安全的分层配置系统,支持多模块独立配置和环境隔离
多模态预处理
Multimodal Preprocessing
将图片、音频、视频等非文本输入转化为结构化文本,供下游 LLM 处理
记忆去重与强化
Memory Deduplication & Reinforcement
检测重复记忆并通过强化计数和时间衰减实现记忆显著性排序
多 LLM 后端适配
Multi-LLM Backend Adapter
通过策略模式统一适配多个 LLM/Embedding 提供商,支持按步骤配置不同模型
数据库迁移
Database Migration
管理数据库 schema 的版本演进,支持自动建表和增量迁移
SDK 客户端包装
SDK Client Wrapping
透明代理包装第三方 SDK 客户端,在不改变原始 API 的前提下注入增强功能
Prompt 工程模板化
Prompt Engineering Templates
将 LLM prompt 结构化为可组合、可覆盖的模板块,支持按类型和场景定制
动态作用域模型
Dynamic Scope Model
运行时动态生成带用户作用域的数据模型,实现多租户数据隔离
多 Provider LLM 抽象层
Multi-Provider LLM Abstraction
统一多个 LLM 提供商的接口差异,实现按配置切换模型和后端
多模态预处理
Multimodal Preprocessing
将图片、音频、视频等非文本输入统一转换为文本表示后进入处理管道
记忆去重与强化
Deduplication & Reinforcement
通过内容哈希去重,重复信息转为强化计数,结合时间衰减实现记忆显著性排序
Agent 状态机
Agent State Machine
通过状态枚举和上下文管理器实现安全的 Agent 生命周期状态转换
可插拔存储架构
Pluggable Storage Architecture
通过 Protocol 接口和 Factory 模式实现存储后端热切换,支持多租户作用域隔离
透明记忆注入
Transparent Memory Injection
通过包装 LLM 客户端在调用前自动检索并注入相关记忆,对业务代码零侵入
主动式 Agent 记忆
Proactive Agent Memory
在对话过程中后台异步执行记忆化,达到阈值自动触发,实现持续记忆同步
配置驱动的 Prompt 工程
Configurable Prompt Engineering
将 LLM prompt 模板化并支持用户覆盖,通过分块组合与排序实现灵活的 prompt 定制
文档摄入管道
Document Ingestion Pipeline
解决非结构化文档到可检索向量索引的端到端转换问题,包括格式转换、分层切块和索引构建
API Key 轮转管理
API Key Rotation Management
管理多个API Key的轮转调度、失败标记与冷却恢复,确保服务高可用
多供应商路由
Multi-Provider Routing
将不同AI功能路由到不同供应商和模型,实现配置驱动的供应商选择
异步任务轮询
Async Task Polling
提交异步AI生成任务后通过轮询机制追踪任务状态直到完成
并发与限流
Concurrency & Rate Limiting
控制AI API调用的并发数量和请求频率,防止触发供应商限流
数据版本迁移
Data Schema Migration
管理客户端持久化数据的版本演进,确保旧数据平滑升级到新schema
Agent 核心架构
Agent Core Architecture and Design Patterns
定义 AI Agent 的核心架构设计、生命周期管理和状态流转机制。涵盖 Agent 的初始化、执行循环、决策流程和资源管理,是构建可靠 Agent 系统的基础。
AI 响应解析
AI Response Parsing
清洗和解析LLM输出中格式不稳定的JSON/结构化数据
Prompt 编排引擎
Prompt Orchestration Engine
多阶段组装复杂Prompt,链式注入角色/场景/风格等上下文模块
提示词工程系统
Prompt Engineering System
多层级提示词模板编译、语义组装和多模态引用管理
任务队列与并发控制
Task Queue & Concurrency Control
优先级任务队列、错开启动并发执行器和批间限流
多供应商 AI 调度
Multi-Provider AI Dispatch
多 API Key 轮换、黑名单、负载均衡和模型能力自动分类
Web Worker 后台处理
Web Worker Offloading
将 AI 生成任务卸载到 Web Worker 避免阻塞主线程 UI
AI 输出解析与清洗
AI Output Parsing & Cleaning
处理 AI 返回的非标准 JSON:代码围栏剥离、边界定位、安全解析
角色一致性系统
Character Consistency System
通过角色圣经管理视觉特征、风格 token 和参考图实现跨场景一致性
数据迁移与恢复
Data Migration & Recovery
安全的存储结构迁移(单体→per-project)和自动数据恢复
自适应批处理
Adaptive Batch Processing
根据模型 token 限制自动分批 AI 调用,双重约束贪心分组
执行框架
Agent Execution Framework Design
Agent执行框架是AI Agent工程的核心基础设施,负责协调Agent的生命周期、任务调度、步骤执行和结果返回。设计合理的执行框架能够确保Agent高效、可靠地完成复杂任务,同时支持异步处理、错误恢复和性能优化。
Electron 安全桥接
Electron Secure Bridge
通过 contextBridge 安全暴露主进程能力给渲染进程
智能分组算法
Intelligent Grouping Algorithm
基于时长、场景和角色重叠度的贪心分镜分组算法
MCP协议集成
MCP Protocol Integration
如何基于MCP协议实现Agent与工具服务的标准化通信
节点式工作流引擎
Node-based Workflow Engine
如何设计声明式依赖的节点工作流引擎并自动解析执行顺序
多模态处理管道
Multimodal Processing Pipeline
如何在Agent系统中实现图片/视频等多模态输入的自动处理与模型路由
配置管理
Configuration Management
如何实现类型安全、路径自动解析、多环境回退的配置系统
Prompt模板系统
Prompt Template System
如何组织和管理大量LLM提示词模板实现复用与多语言支持
技能归档系统
Skill Archiving System
如何将Agent工作流保存为可复用的技能模板实现风格迁移
媒体数据传输协议
Media Data Transfer Protocol
如何在分布式Agent组件间高效传输大体积媒体文件
国际化
Internationalization (i18n)
如何在Agent系统中实现多语言支持覆盖提示词和用户交互
AI搜索
Intelligent Search & Retrieval System
在 AI Agent 系统中实现高效的语义搜索和信息检索能力,支持多源数据查询、相关性排序和结果聚合。该域解决 Agent 如何快速定位和获取相关信息的核心问题,直接影响 Agent 决策质量和响应准确性。
节点依赖 DAG 编排
Node Dependency DAG Orchestration
管理节点间依赖关系,自动检测并递归执行缺失前置节点
MCP 协议集成
MCP Protocol Integration
基于 Model Context Protocol 实现 Agent 与工具服务的标准化通信
Prompt 模板管理
Prompt Template Management
文件级 prompt 模板的组织、渲染、缓存和多语言支持
配置管理
Configuration Management
类型安全的配置加载、验证和路径解析
Skill 技能系统
Skill Plugin System
可扩展的技能/插件系统,支持运行时发现、加载和保存
会话生命周期管理
Session Lifecycle Management
会话级资源的创建、追踪和自动清理
多模态路由
Multimodal Model Routing
根据输入内容自动路由到文本 LLM 或视觉 VLM
数据压缩传输
Data Compression & Transfer
Client-Server 间大文件的压缩编码传输与完整性校验
敏感信息脱敏
Sensitive Data Masking
递归检测并遮蔽日志和输出中的敏感字段
分层索引
Hierarchical Indexing
小块精确搜索+大块完整上下文的双层索引策略
MCP协议
Model Context Protocol Integration
MCP(Model Context Protocol)是标准化的 Agent-LLM 通信协议,定义了工具调用、资源访问、提示词注入等交互规范。在 AI Agent 工程中,正确实现 MCP 协议是确保 Agent 与外部系统无缝协作、提升互操作性和可扩展性的关键。
查询改写
Query Rewriting
结合对话上下文改写模糊查询,拆分多意图问题为独立子查询
混合搜索
Hybrid Search
结合稠密向量语义搜索和稀疏 BM25 关键词匹配的混合检索策略
实时语音交互
Realtime Voice Agent
支持实时语音输入输出的agent系统,集成WebSocket流式通信和TTS能力
Agent间通信协议
Agent-to-Agent Protocol
标准化的agent间通信协议,支持分布式agent发现、注册和协作
Agent强化学习训练
Agentic RL Training
针对agent应用的强化学习训练框架,支持workflow定义、自动评估和模型优化
技能集成
Skill Integration and Management
在 AI Agent 系统中,技能(Skill)是原子化的能力单元,需要统一的集成、注册、调用和生命周期管理机制。该域解决如何让 Agent 灵活地发现、加载、执行和卸载各类技能,同时保证技能间的隔离性和可组合性。
技能系统
Skill System
Agent 能力的模块化封装、发现、加载和管理机制
配置驱动架构
Config-Driven Architecture
通过声明式配置文件驱动系统行为,支持环境变量和热重载
国际化
Internationalization (i18n)
多语言支持、语言检测和翻译管理机制
认证授权
Authentication & Authorization
用户身份验证、会话管理和访问控制机制
反射式模块加载
Reflection & Dynamic Module Loading
运行时动态解析和加载模块、类和变量的插件化机制
虚拟文件系统
Virtual File System
Agent 可见的虚拟路径与物理路径之间的映射和隔离机制
API 网关
API Gateway
统一 API 入口、路由分发和服务编排的网关层
任务规划模式
Task Planning Mode
Agent 将复杂任务分解为可跟踪的 Todo 列表并实时更新进度
国际化与多语言
Internationalization & Multilingual
前后端多语言支持、语言回退链、prompt本地化管理
配置管理
Configuration Management
分层YAML配置、模块级覆盖、preset模式、参数集中管理
多LLM提供商适配
Multi-LLM Provider Adaptation
统一LLM调用接口、自动路由Cloud/Local、能力矩阵管理
知识库管理
Knowledge Base Management
文档增量添加、多RAG管线切换、Hash去重、多模态解析
实时通信
Real-time Communication
WebSocket双向通信、进度广播、日志流式推送
Embedding多提供商适配
Embedding Provider Adaptation
统一Embedding接口、适配器模式管理多提供商、兼容多RAG框架
引用管理
Citation Management
学术引用ID生成、引用链追踪、报告内联引用自动插入
知识图谱构建
Knowledge Graph Construction
从非结构化文本中自动抽取实体和关系,构建可查询的知识图谱
多后端存储抽象
Multi-Backend Storage Abstraction
统一存储接口支持多种后端实现的热切换,解耦业务逻辑与存储细节
认证授权
Authentication & Authorization
API服务的身份验证和访问控制,保护敏感数据和操作
LLM提供商抽象
LLM Provider Abstraction
统一多LLM提供商接口,实现模型切换零耦合
并发控制
Concurrency Control
管理异步LLM请求的并发度、优先级和超时,防止资源耗尽
LLM响应缓存
LLM Response Caching
缓存LLM调用结果避免重复计算,降低成本和延迟
文档处理管道
Document Processing Pipeline
多格式文档解析、分块和索引的完整处理流水线
多租户数据隔离
Multi-Tenant Data Isolation
通过命名空间机制实现多租户数据隔离,支持独立存储和配置
配置管理
Configuration Management
多层优先级配置系统,统一管理环境变量、CLI参数和代码默认值
知识图谱可视化
Knowledge Graph Visualization
交互式知识图谱可视化,支持3D渲染和Web界面浏览
知识图谱构建
Knowledge Graph Construction
从非结构化文本中自动抽取实体和关系,构建可查询的知识图谱
多后端存储抽象
Multi-Backend Storage Abstraction
通过统一抽象层支持多种存储后端的即插即用切换
LLM响应缓存
LLM Response Caching
缓存LLM调用结果避免重复计算,降低成本并加速响应
异步并发控制
Async Concurrency Control
管理大量异步LLM/Embedding调用的并发度、优先级和超时
文档处理流水线
Document Processing Pipeline
从文档入库到知识图谱构建的完整异步处理流水线
多LLM提供商适配
Multi-LLM Provider Adapter
统一适配多种LLM提供商API,支持运行时切换和配置驱动
认证授权
API Authentication & Authorization
为API服务提供JWT认证、角色管理和访问控制
多进程数据共享
Multi-Process Data Sharing
在多进程(Gunicorn worker)环境下实现存储数据的安全共享与同步
配置管理
Configuration Management
多层配置体系支持默认值、环境变量、.env文件和CLI参数的优先级覆盖
文档智能分段
Document Intelligent Segmentation
将超长文档按语义边界智能分段,保持算法和概念完整性,支持按查询类型检索相关片段
多LLM提供商管理
Multi-LLM Provider Management
统一管理多个LLM提供商的API Key、模型路由和回退策略,实现提供商无关的调用接口
代码索引与参考系统
Code Index & Reference System
通过LLM分析代码仓库构建结构化索引,为代码生成提供相关参考代码的检索能力
多渠道消息路由
Multi-Channel Message Routing
通过异步消息总线解耦Agent核心与多个聊天渠道,实现统一的消息收发和路由
技能系统
Skill System
通过文件系统加载可扩展技能定义,支持always-loaded和按需加载,动态注入Agent能力
子Agent委托
Subagent Delegation
在后台生成隔离的轻量Agent实例执行特定任务,共享LLM但拥有独立上下文
定时任务调度
Task Scheduling
Agent可自主创建和管理定时任务,支持一次性、周期性和cron表达式三种调度模式