让文档活起来:RAG、Agent 推理与自动 Wiki 一体化的知识框架

图龙网络科技 发布于 3小时前 分类:语言模型

一款开源的、基于大语言模型(LLM)的知识管理框架,专为企业级文档理解、语义检索与智能推理场景打造。

框架围绕三大核心能力构建:RAG 快速问答适合日常知识查询,ReAct Agent 智能推理自主编排知识检索、MCP 工具与网络搜索完成复杂多步任务,全新的 Wiki 模式则让 Agent 从原始文档中自治生成相互链接的 Markdown 知识库与可视化知识图谱。结合多源数据接入(飞书 / Notion / 语雀,更多持续接入中)、二十余家主流模型厂商集成、Langfuse 全链路可观测性,以及完全可私有化部署的模块化架构,WeKnora 帮助团队把分散文档沉淀为可查询、可推理、可持续演进的专属知识资产。

框架支持从飞书、Notion 及语雀等外部平台自动同步知识(更多数据源持续接入中),覆盖 PDF、Word、图片、Excel 等十余种文档格式,并可通过企业微信、飞书、Slack、Telegram 等 IM 频道直接提供问答服务。模型层面兼容 OpenAI、DeepSeek、Qwen(阿里云)、智谱、混元、Gemini、MiniMax、NVIDIA、Ollama 等主流厂商。全流程模块化设计,大模型、向量数据库、存储等组件均可灵活替换,支持本地与私有云部署,数据完全自主可控。WeKnora 还无缝集成了 Langfuse,为 Agent 运行、Token 使用及任务流水线提供了全面的可观测性追踪。

最新更新

v0.5.1 版本亮点:

  • Wiki 模式:全新推出 Agent 驱动的 Wiki 知识体系,可从原始文档中自动梳理并生成相互关联的 Markdown 页面,内置独立的 Wiki 浏览器与可视化知识图谱,直观呈现页面之间的引用与关联关系,帮助团队沉淀结构化、可迭代演进的专属知识库。
  • 可观测性:集成 Langfuse,深入跟踪 Agent ReAct 循环、LLM Token 消耗、工具调用以及 asynq 任务流水线,全面掌控 Agent 推理与系统性能。
  • 自定义索引策略:在知识库级别独立开启或关闭 向量检索、关键词检索(混合检索)、Wiki 模式 以及 知识图谱 构建。
  • 向量数据库 UI 与知识库绑定:新增前端 Vector Store 管理界面与连通性测试,并支持为不同知识库绑定专属的向量数据库实例。
  • 语雀数据源:新增语雀连接器,支持文档的全量与增量同步,实现语雀知识的无缝接入。
  • 微信小程序:新增轻量级微信小程序客户端(位于 miniprogram/),可在手机端配置 WeKnora API、选择知识库、导入网页 URL 并直接在微信中进行知识对话。
  • 知识库列表视图与批量操作:文档管理新增列表视图(与卡片视图并存),支持多选、悬浮批量操作栏与批量删除,大幅简化大规模知识库的整理工作。
  • 会话与 IM 流程优化:用户菜单新增租户维度的 IM 频道总览、对话列表新增关键词搜索与按用户维度置顶,IM 频道发起的会话也明确标注了来源。
  • 重要修复:修复 LaTeX 公式在流式输出过程中闪现并消失的问题(#1056)、移除 DOCX 解析默认 100 页限制、去掉会打断多轮 IM Agent 推理的流水线级超时、IM 会话按 Agent 隔离、加固 Wiki 入库流程(异常 JSON 不再静默丢数据、失败操作自动重入队),并让加密字段解密失败时显式报错而非返回空数据。46ee3a2dea30743

    从文档解析、向量化、检索到大模型推理,全流程模块化解耦,组件可灵活替换与扩展。支持本地 / 私有云部署,数据完全自主可控,零门槛 Web UI 快速上手。

    🧩 功能概览

    智能对话

    能力 详情
    智能推理 ReACT 渐进式多步推理,自主编排知识检索、MCP 工具与网络搜索,支持自定义智能体
    快速问答 基于知识库的 RAG 问答,快速准确地回答问题
    Wiki 模式 Agent 驱动从原始文档中自动生成并维护结构化、相互链接的 Markdown Wiki 知识页面
    工具调用 内置工具、MCP 工具、网络搜索
    对话策略 在线 Prompt 编辑、检索阈值调节、多轮上下文感知
    推荐问题 基于知识库内容自动生成推荐问题

    知识管理

    能力 详情
    知识库类型 FAQ / 文档 / Wiki,支持文件夹导入、URL 导入、标签管理、在线录入
    数据源导入 飞书 / Notion / 语雀 知识库自动同步(更多数据源开发中),支持增量与全量同步
    文档格式 PDF / Word / Txt / Markdown / HTML / 图片 / CSV / Excel / PPT / JSON
    检索策略 BM25 稀疏召回 / Dense 稠密召回 / GraphRAG 图谱增强 / 父子分块 / 多维度索引
    端到端测试 检索+生成全链路可视化,评估召回命中率、BLEU / ROUGE 等指标

    集成与扩展

    能力 详情
    模型厂商 OpenAI / Azure OpenAI / DeepSeek / Qwen(阿里云)/ 智谱 / 混元 / 豆包(火山引擎)/ Gemini / MiniMax / NVIDIA / Novita AI / SiliconFlow / OpenRouter / Ollama
    向量数据库 PostgreSQL (pgvector) / Elasticsearch / Milvus / Weaviate / Qdrant
    对象存储 本地 / 腾讯云COS / 火山引擎 TOS / MinIO / AWS S3 / 阿里云 OSS
    IM 集成 企业微信 / 飞书 / Slack / Telegram / 钉钉 / Mattermost / 微信
    网络搜索 DuckDuckGo / Bing / Google / Tavily / Baidu / Ollama

    平台能力

    能力 详情
    部署 本地 / Docker / Kubernetes (Helm),支持私有化离线部署
    界面 Web UI / RESTful API / Chrome Extension / 微信小程序
    可观测性 集成 Langfuse 以追踪 ReAct 循环、Token 消耗、工具调用和任务流水线
    任务管理 MQ 异步任务,版本升级自动数据库迁移
    模型管理 集中配置,知识库级别模型选择,多租户共享内置模型,WeKnora Cloud 托管模型与文档解析

    🧩 Chrome 插件

    WeKnora Chrome 插件支持在浏览器中直接将网页内容采集到 WeKnora 知识库。选中文本、图片或整个页面,一键保存为知识条目,无需复制粘贴或手动上传文件。

    📱 微信小程序

    WeKnora 微信小程序 提供轻量移动端客户端,支持配置 WeKnora API、选择知识库、导入 URL,并在微信内向知识库提问。

    🦞 ClawHub Skill

    WeKnora ClawHub Skill 是 WeKnora 发布在 ClawHub 平台上的技能。安装后,可通过 WeKnora REST API 上传文档(文件 / URL / Markdown)、执行混合检索(向量 + 关键词)以及管理知识条目。

    • 文档导入 — 通过 Agent 上传文件、导入网页或写入 Markdown 知识
    • 混合检索 — 在单个或多个知识库中进行向量 + 关键词混合搜索
    • 知识管理 — 以编程方式浏览、编辑和删除知识条目
      cp .env.example .env   # 按需编辑 .env,详见文件内注释
      docker compose up -d   # 启动核心服务

      启动成功后访问 http://localhost 即可使用。

      如需使用本地 Ollama 模型,请先运行 ollama serve > /dev/null 2>&1 &

      🔧 可选服务(Docker Compose Profile)

      按需添加 --profile 启动额外组件,多个 profile 可叠加使用:

      Profile 说明 启动命令
      (默认) 核心服务 docker compose up -d
      full 全部功能 docker compose --profile full up -d
      neo4j 知识图谱 (Neo4j) docker compose --profile neo4j up -d
      minio 对象存储 (MinIO) docker compose --profile minio up -d
      langfuse 链路追踪 (Langfuse) docker compose --profile langfuse up -d

      组合示例:docker compose --profile neo4j --profile minio up -d

      停止服务:docker compose down

      🌐 服务地址

      服务 地址
      Web UI http://localhost
      后端 API http://localhost:8080
      链路追踪 (Langfuse) http://localhost:3000

0个回复

  • 暂无回复