LLM&MCP


一、术语解释及用途

  1. LLM(大语言模型)
  • 是什么:像GPT这样的大规模人工智能模型,通过海量文本数据训练,能理解、生成人类语言。
  • 用途:写文章、回答问题、翻译、聊天机器人等。比如客服系统用它自动回复用户问题。
  1. MCP(模型控制面板)
  • 是什么:一个管理模型的“控制台”,类似手机的设置菜单,用来配置模型参数、分配任务。
  • 用途:让开发者调整模型行为(比如限制回答敏感内容),或切换不同模型处理任务。比如用MCP让客服模型在遇到技术问题时转接给专业模型。
  1. A2A(智能体协作)
  • 是什么:多个智能体(Agent)互相配合完成任务,像团队分工合作。
  • 用途:复杂任务拆分。例如电商场景:A智能体分析用户需求,B智能体查库存,C智能体生成订单,协作完成购物流程。

二、部署智能体环境

  • 角色:Traefik 是一个“交通警察”,负责管理不同服务之间的请求路由(比如把用户请求导向正确的模型)

    部署步骤

    1. 装Traefik:在服务器上安装,配置网络规则。
    2. 连LLM:设置Traefik将用户请求转发给LLM(如调用GPT接口)。
    3. 接MCP:通过Traefik让MCP管理模型配置,比如动态切换模型版本。
    4. A2A协作:配置Traefik识别不同智能体的任务,自动转发请求(如用户问天气,转到天气模型;问翻译,转到翻译模型)。
  1. 国外的Cursor
  • 角色:Cursor 类似一个“智能积木板”,提供可视化界面拖拽组件搭建智能体,内置LLM和MCP支持。

    部署步骤

    1. 选模板:在Cursor界面选择“客服机器人”模板,自动生成基础代码。
    2. 绑模型:连接LLM(如Claude)和MCP,设置模型权限和参数。
    3. 设协作:用图形化界面定义智能体间的协作规则(比如A处理不了时自动转B)。
    4. 一键部署:导出代码到服务器,或直接通过Cursor云服务运行。

三、举个实际例子

假设你要做一个智能客服:

  • 用Traefik:需要手动配置路由规则,把用户问题分给不同模型,再通过MCP调整模型参数,A2A则需要写代码定义协作逻辑。
  • 用Cursor:拖拽“问题分类”组件→连接LLM→设置MCP管理模型→用连线定义“转人工”规则,点击发布即可。

总结

  • LLM是“能说会道”的大脑,MCP是它的“遥控器”,A2A是团队合作模式。
  • Traefik适合定制化开发(需技术基础),Cursor适合快速搭建(拖拽操作)。

实践

哪些平台支持MCP查询

github查看:
MCP官方资源https://github.com/modelcontextprotocol/servers
MCP热门资源:https://github.com/punkpeye/awesome-mcp-servers
其它平台
Glama: https://glama.ai/mcp/servers
Smithery:https://smithery.ai
cursor: https://cursor.directory
MCPso(高德地图): https://mcp.so/zh
阿里云百炼:https://bailian.console.aliyun.com/?tab=mcp#/mcp-market

配置模型apikey:
硅基流动:https://siliconflow.cn/zh-cn/models
deepseek:https://platform.deepseek.com/
MCP的通信机制

根据 MCP 的规范,当前支持两种通信机制(传输方式)
stdio(标准输入输出):主要用在本地服务上,操作你本地的软件或者本地的文件。比如 Blender 这种就只能用 Stdio 因为他没有在线服务。 MCP默认通信方式
SSE(Server-Sent Events服务器发送事件):主要用在远程通信服务上,这个服务本身就有在线的 API,比如访问你的谷歌邮件,天气情况等

MCP的通信机制:stdio方式
优点
这种方式适用于客户端和服务器在同一台机器上运行的场景,简单,stdio模式无需外部网络依赖,通信速度快,适合快速响应的本地应用。
可靠性高,且易于调试
缺点
stdio 的配置比较复杂,我们需要做些准备工作,你需要提前安装需要的命令行工具。stdio模式为单进程通信,,无法并行处理多个客户端请求,同时由于进程资源开销较大,不适合在本地运行大量服务。(限制了其在更复杂分布式场景中的使用)

MCP的通信机制:SSE方式
场景
SSE方式适用于客户端和服务器位于不同物理位置的场景,适用于实时数据更新、消息推送、轻量级监控和实时日志流等场景对于分布式或远程部署的场景,基于 HTTP 和 SSE 的传输方式则更为合适
优点
配置方式非常简单,基本上就一个链接就行,直接复制他的链接填上就行

安装uvx环境

python

方法1:pip install uv
方法2:
powershell -ExecutionPolicy ByPass -c “irm https://astral.sh/uv/install.ps1 | iex “
uv –version
uv –help

TypeScript
VS Code 安装Cline
安装node.js即可
npx(bun)
Bun: https://github.com/oven-sh/bun/releases
UV: https://github,com/astral-sh/uv/releases

MCP 遵循客户端-服务器架构(client-server),其中包含以下几个核心概念
MCP 主机(MCP Hosts)
MCP 客户端( MCP clients )
MCP 服务器( MCP Servers )
本地资源( Local Resources)
远程资源( Remote Resources )

1:MCP Host
作为运行 MCP 的主应用程序,例如 claude Desktop、cursor、 cline 或 AI 工具。
为用户提供与LLM交互的接口,同时集成 MCP client 以连接 MCP Server。

2:MCP Client
MCP client 充当 LLM 和 MCP server 之间的桥梁,嵌入在主机程序中,主要负责
接收来自LLM的请求;
将请求转发到相应的 MCP server
将 MCP server 的结果返回给 LLM

有哪些常用的clients
MCP 官网(https://modelcontextprotocol.io/clients) 列出来一些支持 MCP 的 clients。
分为两类:
AI编程IDE:Cursor、Cline、Continue、Sourcegraph、Windsurf等聊天客户端:Cherry Studio、Claude、Librechat、chatwise等
更多的client参考这里:MCP Clients: https://www.pulsemcp.com/clients
Awesome MCP Clients: https://github.com/punkpeye/awesome-mcp-clients/

3:MCP Server
stdio的方式
与传统的远程 API 服务器不同,MCP 服务器既可以作为本地应用程序在用户设备上运行,也可部署至远程服务器。SSE的方式
比如你让助手“帮我査航班信息”>它调用航班査询 API
“算一下 37% 折扣后多少钱” →它运行计算器函数
作用:让 LLM 不仅能“说”,还能“做”(执行代码、查询数据等)

cherry studio

cherry studio 是一款集多模型对话、知识库管理、AI绘画、翻译等功能于一体的全能 AI 助手平台。支持 windows,Linux和 Mac。
同时,cherrystudio提供了一个简洁便于操作的可视化页面,通过简单的配置即可开启MCP服务。非常适合大众用户用于构建“低代码智能流程“
Cherry Studio的下载地址:https://cherry-ai.com/

热门MCP Servers推荐
推荐1:文件系统 filesystem
Filesystem McP 旨在为大型语言模型(LLM)和 AI 助手提供对本地文件系统的安全、受控访问。
主要功能:
文件读写:允许读取和写入文件内容,支持创建新文件或覆盖现有文件。
目录管理:支持创建、列出和删除目录,以及移动文件或目录。
文件搜索:能够在指定路径中搜索匹配特定模式的文件或目录。
元数据获取:提供获取文件或目录的详细元数据,包括大小、创建时间、修改时间、访问时间类 型和权限等信息。

推荐2:数据库 mysqldb-mcp-server
-种模型上下文协议(MCP)实现,支持与 MySaL数据库进行安全交互。此服务器组件可促进 AI应用程序(主机/客户端)与 MySQL数据库之间的通信,提供安全的 MvSQL数据库操作,通过受控接口使数据库探索和分析更安全、更有条理。

推荐3:高德地图 amap-maps

高德地图是一个支持任何 MCP 协议客户端的服务器,允许用户轻松地利用高德地图 MCP 服务器进行各种基于位置的服务。
高德地图的主要特点
支持多种位置服务,包括地理编码、天气和距离测量
提供步行、驾车、公交等多种交通方式的 API
允许根据关键字或位置详细搜索兴趣点(POI)

推荐4:网页数据采集 Firecrawl
Firecrawl MCP 工具是一款基于模型上下文协议(MCP)的企业级网页数据采集服务器。能够为大型语言模型(LLM)提供强大的网页抓取能力。
主要功能
Javascript 渲染:能够处理动态网页内容,突破传统抓取工具的局限,获取更全面的数据批量处理:支持并行处理和队列管理,提高数据抓取效率。
智能限速:根据网络状况和任务需求智能调整抓取速度,避免对目标网站造成过大压力。多种输出格式:支持将抓取的内容转换为 Markdown、HTML等格式,满足不同场景的需求
说明:去firecrawl官网注册后即可查看自己的apikey

推荐5:Github
GitHub MCP 服务器是一个模型上下文协议 (MCP)提供与 GitHub API无缝集成的服务器,从而实现面向开发人员的高级自动化工具和交互功能
使用案例:
自动化 GitHub 工作流程和流程
从 GitHub 存储库中提取和分析数据:
构建与 GitHub 生态系统交互的 A驱动的工具和应用程序。
说明:去https://github.com/settings/tokens 申请自己的token

推荐6:Git
用于 Git 存储库交互和自动化的模型上下文协议服务器
直接的Git仓库操作,包括读取、搜索和分析本地仓库

推荐7:记忆图谱 memory
基于知识图谱的长期记忆系统用于维护上下文
使用本地知识图谱的持久内存的基本实现。这使 claude 可以在聊天中记住有关用户的信息。

推荐8:控制台 desktop-commander
在计算机上无缝执行终端命令和管理流程。使用强大的命令执行和文件作工具简化您的开发任务。

推荐9:社交软件 slack
用于 slack API的 MCP 服务器,个使 LLM 能够与 slack 工作区进行交互,用于频道管理和消息传递。
说明:去https://app.slack.com/intl/zh-cn注册并获取自己的team id

A2A

谷歌,25年4月10日发布开源的、应用层协议A2A(Agent-to-Agent协议),即Agent-to-Agent。其设计目的是使智能体(Agent)间能够以一种自然的模态进行协作,类似于人与人之间的互动。
Github 地址:https://github.com/google/A2A


文章作者: 读序
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 读序 !
  目录