集成
AI 与 LLM
让你的 Fumadocs 文档站点对 AI 更友好
Fumadocs 通过为大语言模型提供专用的文档内容来实现 AI 集成,使文档站点对 AI 更友好。
关键功能
1. LLM 文档设置
要使文档对 AI 可访问,创建一个 getLLMText 函数将页面转换为静态 MDX。这需要在源配置中启用 includeProcessedMarkdown。
2. 三种分发格式
llms.txt:通过 Loader API 的 llms() 函数生成,提供索引文档。
llms-full.txt:完整版本,AI 代理可以通过映射 getLLMText 到所有页面并合并结果来阅读完整文档。
Markdown 扩展:允许在页面 URL 后追加 .mdx,使 AI 代理可以通过路由处理器和中间件以 Markdown/MDX 格式获取页面内容。
3. 框架支持
不同框架的实现方式:
- Next.js(带有 revalidation 的路由处理器)
- React Router(基于 loader 和中间件)
- Tanstack Start(文件路由和服务端处理器)
- Waku(API 路由和静态渲染)
4. 内容协商
使用 Accept 头通过 isMarkdownPreferred() 工具优先向 AI 代理提供 Markdown 内容。
5. AI 页面操作
LLMCopyButton 和 ViewOptions 等组件提供界面控件,用于访问 Markdown 版本和 GitHub 源码。
6. Ask AI 功能
两种提供商选项:OpenRouter(使用 Vercel AI SDK)和 Inkeep AI(需要 API 密钥配置)。两者都能启用带有 /search 工具的聊天对话框用于文档查询。