一、术语解释及用途
- LLM(大语言模型)
- 是什么:像GPT这样的大规模人工智能模型,通过海量文本数据训练,能理解、生成人类语言。
- 用途:写文章、回答问题、翻译、聊天机器人等。比如客服系统用它自动回复用户问题。
- MCP(模型控制面板)
控制ai agent(mcp client)和tool服务(mcp server)之间的交互
- 是什么:一个管理模型的“控制台”,类似手机的设置菜单,用来配置模型参数、分配任务。
- 用途:让开发者调整模型行为(比如限制回答敏感内容),或切换不同模型处理任务。比如用MCP让客服模型在遇到技术问题时转接给专业模型。
- A2A(智能体协作)
- 是什么:多个智能体(Agent)互相配合完成任务,像团队分工合作。
- 用途:复杂任务拆分。例如电商场景:A智能体分析用户需求,B智能体查库存,C智能体生成订单,协作完成购物流程。
System Prompt系统提示词(ai扮演角色)
User Prompt用户提示词(用户提问)
AI agent(类型)
二、部署智能体环境
角色:Traefik 是一个“交通警察”,负责管理不同服务之间的请求路由(比如把用户请求导向正确的模型)
部署步骤
- 装Traefik:在服务器上安装,配置网络规则。
- 连LLM:设置Traefik将用户请求转发给LLM(如调用GPT接口)。
- 接MCP:通过Traefik让MCP管理模型配置,比如动态切换模型版本。
- A2A协作:配置Traefik识别不同智能体的任务,自动转发请求(如用户问天气,转到天气模型;问翻译,转到翻译模型)。
- 国外的Cursor
角色:Cursor 类似一个“智能积木板”,提供可视化界面拖拽组件搭建智能体,内置LLM和MCP支持。
部署步骤
- 选模板:在Cursor界面选择“客服机器人”模板,自动生成基础代码。
- 绑模型:连接LLM(如Claude)和MCP,设置模型权限和参数。
- 设协作:用图形化界面定义智能体间的协作规则(比如A处理不了时自动转B)。
- 一键部署:导出代码到服务器,或直接通过Cursor云服务运行。
三、举个实际例子
假设你要做一个智能客服:
- 用Traefik:需要手动配置路由规则,把用户问题分给不同模型,再通过MCP调整模型参数,A2A则需要写代码定义协作逻辑。
- 用Cursor:拖拽“问题分类”组件→连接LLM→设置MCP管理模型→用连线定义“转人工”规则,点击发布即可。
总结
- LLM是“能说会道”的大脑,MCP是它的“遥控器”,A2A是团队合作模式。
- Traefik适合定制化开发(需技术基础),Cursor适合快速搭建(拖拽操作)。
实践
哪些平台支持MCP查询
github查看:
MCP官方资源https://github.com/modelcontextprotocol/servers
MCP热门资源:https://github.com/punkpeye/awesome-mcp-servers
其它平台
Glama: https://glama.ai/mcp/servers
Smithery:https://smithery.ai
cursor: https://cursor.directory
MCPso(高德地图): https://mcp.so/zh
阿里云百炼:https://bailian.console.aliyun.com/?tab=mcp#/mcp-market
配置模型apikey:
硅基流动:https://siliconflow.cn/zh-cn/models
deepseek:https://platform.deepseek.com/
MCP的通信机制
根据 MCP 的规范,当前支持两种通信机制(传输方式)
stdio(标准输入输出):主要用在本地服务上,操作你本地的软件或者本地的文件。比如 Blender 这种就只能用 Stdio 因为他没有在线服务。 MCP默认通信方式
SSE(Server-Sent Events服务器发送事件):主要用在远程通信服务上,这个服务本身就有在线的 API,比如访问你的谷歌邮件,天气情况等
MCP的通信机制:stdio方式
优点
这种方式适用于客户端和服务器在同一台机器上运行的场景,简单,stdio模式无需外部网络依赖,通信速度快,适合快速响应的本地应用。
可靠性高,且易于调试
缺点
stdio 的配置比较复杂,我们需要做些准备工作,你需要提前安装需要的命令行工具。stdio模式为单进程通信,,无法并行处理多个客户端请求,同时由于进程资源开销较大,不适合在本地运行大量服务。(限制了其在更复杂分布式场景中的使用)
MCP的通信机制:SSE方式
场景
SSE方式适用于客户端和服务器位于不同物理位置的场景,适用于实时数据更新、消息推送、轻量级监控和实时日志流等场景对于分布式或远程部署的场景,基于 HTTP 和 SSE 的传输方式则更为合适
优点
配置方式非常简单,基本上就一个链接就行,直接复制他的链接填上就行
安装uvx环境
python
方法1:pip install uv
方法2:
powershell -ExecutionPolicy ByPass -c “irm https://astral.sh/uv/install.ps1 | iex “
uv –version
uv –help
uv python find 3.13
uv python install 3.13
uv项目:
uv init
uv add geopandas
uv tree 查看包依赖
uv remove geopandas
uv sync 同步解析
uv tool install mypy 语法检查
uv tool run mypy
nvx flake8(uv tool run flake8) 格式检查
uv tool run ruff check 语法检查
TypeScript
VS Code 安装Cline
安装node.js即可
npx(bun)
Bun: https://github.com/oven-sh/bun/releases
UV: https://github,com/astral-sh/uv/releases
MCP 遵循客户端-服务器架构(client-server),其中包含以下几个核心概念
MCP 主机(MCP Hosts)
MCP 客户端( MCP clients )
MCP 服务器( MCP Servers )
本地资源( Local Resources)
远程资源( Remote Resources )
1:MCP Host
作为运行 MCP 的主应用程序,例如 claude Desktop、cursor、 cline 或 AI 工具。
为用户提供与LLM交互的接口,同时集成 MCP client 以连接 MCP Server。
2:MCP Client
MCP client 充当 LLM 和 MCP server 之间的桥梁,嵌入在主机程序中,主要负责
接收来自LLM的请求;
将请求转发到相应的 MCP server
将 MCP server 的结果返回给 LLM
有哪些常用的clients
MCP 官网(https://modelcontextprotocol.io/clients) 列出来一些支持 MCP 的 clients。
分为两类:
AI编程IDE:Cursor、Cline、Continue、Sourcegraph、Windsurf等聊天客户端:Cherry Studio、Claude、Librechat、chatwise等
更多的client参考这里:MCP Clients: https://www.pulsemcp.com/clients
Awesome MCP Clients: https://github.com/punkpeye/awesome-mcp-clients/
3:MCP Server
stdio的方式
与传统的远程 API 服务器不同,MCP 服务器既可以作为本地应用程序在用户设备上运行,也可部署至远程服务器。SSE的方式
比如你让助手“帮我査航班信息”>它调用航班査询 API
“算一下 37% 折扣后多少钱” →它运行计算器函数
作用:让 LLM 不仅能“说”,还能“做”(执行代码、查询数据等)
cherry studio
cherry studio 是一款集多模型对话、知识库管理、AI绘画、翻译等功能于一体的全能 AI 助手平台。支持 windows,Linux和 Mac。
同时,cherrystudio提供了一个简洁便于操作的可视化页面,通过简单的配置即可开启MCP服务。非常适合大众用户用于构建“低代码智能流程“
Cherry Studio的下载地址:https://cherry-ai.com/
热门MCP Servers推荐
推荐1:文件系统 filesystem
Filesystem McP 旨在为大型语言模型(LLM)和 AI 助手提供对本地文件系统的安全、受控访问。
主要功能:
文件读写:允许读取和写入文件内容,支持创建新文件或覆盖现有文件。
目录管理:支持创建、列出和删除目录,以及移动文件或目录。
文件搜索:能够在指定路径中搜索匹配特定模式的文件或目录。
元数据获取:提供获取文件或目录的详细元数据,包括大小、创建时间、修改时间、访问时间类 型和权限等信息。
推荐2:数据库 mysqldb-mcp-server
-种模型上下文协议(MCP)实现,支持与 MySaL数据库进行安全交互。此服务器组件可促进 AI应用程序(主机/客户端)与 MySQL数据库之间的通信,提供安全的 MvSQL数据库操作,通过受控接口使数据库探索和分析更安全、更有条理。
推荐3:高德地图 amap-maps
官
高德地图是一个支持任何 MCP 协议客户端的服务器,允许用户轻松地利用高德地图 MCP 服务器进行各种基于位置的服务。
高德地图的主要特点
支持多种位置服务,包括地理编码、天气和距离测量
提供步行、驾车、公交等多种交通方式的 API
允许根据关键字或位置详细搜索兴趣点(POI)
推荐4:网页数据采集 Firecrawl
Firecrawl MCP 工具是一款基于模型上下文协议(MCP)的企业级网页数据采集服务器。能够为大型语言模型(LLM)提供强大的网页抓取能力。
主要功能
Javascript 渲染:能够处理动态网页内容,突破传统抓取工具的局限,获取更全面的数据批量处理:支持并行处理和队列管理,提高数据抓取效率。
智能限速:根据网络状况和任务需求智能调整抓取速度,避免对目标网站造成过大压力。多种输出格式:支持将抓取的内容转换为 Markdown、HTML等格式,满足不同场景的需求
说明:去firecrawl官网注册后即可查看自己的apikey
推荐5:Github
GitHub MCP 服务器是一个模型上下文协议 (MCP)提供与 GitHub API无缝集成的服务器,从而实现面向开发人员的高级自动化工具和交互功能
使用案例:
自动化 GitHub 工作流程和流程
从 GitHub 存储库中提取和分析数据:
构建与 GitHub 生态系统交互的 A驱动的工具和应用程序。
说明:去https://github.com/settings/tokens 申请自己的token
推荐6:Git
用于 Git 存储库交互和自动化的模型上下文协议服务器
直接的Git仓库操作,包括读取、搜索和分析本地仓库
推荐7:记忆图谱 memory
基于知识图谱的长期记忆系统用于维护上下文
使用本地知识图谱的持久内存的基本实现。这使 claude 可以在聊天中记住有关用户的信息。
推荐8:控制台 desktop-commander
在计算机上无缝执行终端命令和管理流程。使用强大的命令执行和文件作工具简化您的开发任务。
推荐9:社交软件 slack
用于 slack API的 MCP 服务器,个使 LLM 能够与 slack 工作区进行交互,用于频道管理和消息传递。
说明:去https://app.slack.com/intl/zh-cn注册并获取自己的team id
A2A
谷歌,25年4月10日发布开源的、应用层协议A2A(Agent-to-Agent协议),即Agent-to-Agent。其设计目的是使智能体(Agent)间能够以一种自然的模态进行协作,类似于人与人之间的互动。
Github 地址:https://github.com/google/A2A
Dify
是一款开源的大语言模型应用开发平台,专注于帮助开发者快速构建、部署和管理生成式 AI 应用。以下是其核心特性及应用场景的详细介绍:
核心功能
- 可视化开发与低代码支持
Dify 提供拖拽式界面和可视化工作流编排功能,用户无需编写代码即可通过配置提示词、上下文参数及插件等模块构建 AI 应用。支持文本生成、问答、翻译等多种任务类型38。 - 多模型兼容架构
支持对接 GPT-4、Claude、Llama、讯飞星火等主流大模型,并允许混合部署商业模型与开源模型,满足不同场景需求45。 - 高级技术组件
- 检索增强生成(RAG):支持从 PDF、PPT 等文档中提取文本构建知识库,提升模型输出的准确性58。
- Agent 智能体:通过函数调用或 React 框架定义智能体,可调用 Google 搜索、DALL·E 等 50+ 内置工具处理复杂任务58。
- 提示词优化:内置 Prompt Engineering 工具,支持少样本学习(Few-shot Learning)优化模型输出质量37。
- 企业级管理能力
提供私有化部署、数据安全管控、API 集成及全链路性能监控(请求日志、效果分析等),适合企业级应用场景