toMedia
集成

AI 与 LLM

让你的 Fumadocs 文档站点对 AI 更友好

Fumadocs 通过为大语言模型提供专用的文档内容来实现 AI 集成,使文档站点对 AI 更友好。

关键功能

1. LLM 文档设置

要使文档对 AI 可访问,创建一个 getLLMText 函数将页面转换为静态 MDX。这需要在源配置中启用 includeProcessedMarkdown

2. 三种分发格式

llms.txt:通过 Loader API 的 llms() 函数生成,提供索引文档。

llms-full.txt:完整版本,AI 代理可以通过映射 getLLMText 到所有页面并合并结果来阅读完整文档。

Markdown 扩展:允许在页面 URL 后追加 .mdx,使 AI 代理可以通过路由处理器和中间件以 Markdown/MDX 格式获取页面内容。

3. 框架支持

不同框架的实现方式:

  • Next.js(带有 revalidation 的路由处理器)
  • React Router(基于 loader 和中间件)
  • Tanstack Start(文件路由和服务端处理器)
  • Waku(API 路由和静态渲染)

4. 内容协商

使用 Accept 头通过 isMarkdownPreferred() 工具优先向 AI 代理提供 Markdown 内容。

5. AI 页面操作

LLMCopyButtonViewOptions 等组件提供界面控件,用于访问 Markdown 版本和 GitHub 源码。

6. Ask AI 功能

两种提供商选项:OpenRouter(使用 Vercel AI SDK)和 Inkeep AI(需要 API 密钥配置)。两者都能启用带有 /search 工具的聊天对话框用于文档查询。

On this page