发布时间:2026-03-16 21:50:07编辑:123阅读(10)
LangGraph 技术概述
LangGraph 是由 LangChain 团队推出的一个 用于构建可控 LLM Agent 工作流的框架。
它基于 图(Graph)结构来组织大模型调用、工具调用、状态管理和决策流程,适合构建 复杂 AI Agent、自动化推理系统、
RAG pipeline、任务规划系统。
可以理解为:
LangGraph = 面向 Agent 的状态机 + DAG 工作流框架
相比传统的 LLM 调用链,它提供 循环、分支、状态持久化、可恢复执行 等能力。
核心概念:
| 概念 | 说明 |
| State | 整个执行流程共享的数据 |
| Node | 一个执行单元(函数/LLM/工具) |
| Edge | 节点之间的连接 |
| Conditional Edge | 条件分支 |
| Graph | 完整执行流 |
| Checkpoint | 执行状态持久化 |
MCP技术概述
MCP(Model Context Protocol) 是一种用于 大模型与外部工具、数据源、系统之间通信的标准协议。它的核心目标是:
让 LLM 可以像调用 API 一样安全、标准化地访问外部能力。
MCP 最早由 Anthropic 在 2024 年提出,用于解决 LLM Agent 调用工具、访问数据、执行任务时缺乏统一协议的问题。
现在在 AI Agent 生态中(如 LangChain, LangGraph, Claude Desktop 等)逐渐被支持。
一、MCP 的核心概念
MCP 本质是一个 客户端-服务器协议。
LLM 通过 MCP Server 可以访问:
工具(Tools)
数据源(Data Sources)
系统能力(System APIs)
二、MCP 解决的问题
在 MCP 之前,大模型工具调用存在几个问题:
1 工具接口不统一
每个 Agent 框架都有自己的 tool schema
例如:
LangChain Tool
OpenAI Function Calling
自定义 API
导致 无法跨平台复用工具。
2 数据访问安全问题
LLM 直接访问数据库风险很大。
MCP 提供:
权限控制
沙箱
安全代理
3 上下文扩展困难
LLM 的上下文窗口有限。
MCP 支持:
按需查询数据
流式返回数据
动态加载上下文
MCP SDK与MCP技术生态
在这些MCP完整的技术架构中,开发者尤其需要关注MCP的SDK(开发工具)和MCP技术生态。所谓MCP的SDK,指的是官方
提供的用于开发MCP工具的第三方库,截至目前,MCP SDK已支持Python、TypeScript、Java、Kotlin和C#等编程语言进行客户端和服务器创建。
MCP项目官网:https://github.com/modelcontextprotocol
主流的MCP集成平台如下:
MCP官方服务器合集:https://github.com/modelcontextprotocol/servers
MCP Github热门导航:https://github.com/punkpeye/awesome-mcp-servers
Smithery:https://smithery.ai/
MCP导航:https://mcp.so/
魔塔社区MCP广场:https://www.modelscope.cn/mcp
52281
52189
42342
39225
33707
30663
29380
24329
24207
22572
5°
10°
178°
172°
183°
182°
224°
405°
424°
437°