Zhi Blog
  1. LLM&RAG&Agent
Zhi Blog
  • Zhi Blog
  • LLM&RAG&Agent
    • agent+大数据
    • deepseek的指令
    • 大模型控制电脑
    • 10.开发llm的两种方式
    • 11.展示写一个网站
    • 12.展示写一个reactflow前端
    • 13.大模型在反复迭代场景中的应用举例
    • 14.agent开发的workflow流程和自主编排
    • 15.利用大模型实现提示词的优化
    • 16.这就是为啥要学习提示词工程
    • 提示技巧
    • 17.提示词通用技巧以及提示词工程框架介绍
    • 18.Unsloth 大模型微调工具
    • autogen starter
    • MCP1:about MCP
    • MCP2: 如何用langchain创建自己的MCP server&client
    • 十分钟系列
      • 1.十分钟实现免费本地大模型对话框
      • 2.十分钟在本地部署大模型
      • 3.十分钟实现本地大模型部署并部署对话应用
      • 4.十分钟实现本地知识库部署
      • 5.十分钟在本地实现Deepseek R1 70B免费对话
      • 6.十分钟实现本地可视化开发Agent
      • 7.待补充
    • 参考
      • AI最大赛道Agent机遇全解析
      • 从第一性原理看大模型Agent技术
      • Agent项目
      • LLama部署和微调手册
      • Agent实战-JSON结构化智能
      • AI智能体卷爆大模型!AutoGPT等4大Agent打擂,「西部世界」谁将成为软件2.0
      • Agent调研--19类Agent框架对比
      • 国内近 50 款 AI Agent 产品问世,技术足够支撑应用可靠性了吗
      • 解析 AI Agent 的发展现状和技术难点
      • 清华大学与智谱 AI 联合推出 CogAgent:基于多模态大模型的 GUI Agent,具备视觉问答、视觉定位等能力
      • Agent 还没出圈,落地先有了“阻力”:进入平台期,智力能否独立担事?
      • 钉钉卡位战:SaaS 挣不到的钱,Agent 会挣到
      • 近三代操作系统开发元老一起创业搞 AI Agent 操作系统
      • 从科幻走向现实,LLM Agent 做到哪一步了
  • Hudi
    • 1.hudi介绍和简单实践
    • 2.flink基于hudi的数据湖实践
    • 3.概说hudi
  • Iceberg
    • iceberg初步实践
  1. LLM&RAG&Agent

MCP1:about MCP

mcp全称为模型上下文协议,简单来说,就是大模型的标准化工具箱.大模型可以利用这些工具和外界互动,获取信息并且完成具体任务.例如,我们日常工作中经常要与浏览器,文件,数据库等外部工具打交道.在传统方式中我们需要手动截图或复制文本,然后粘贴到AI窗口里面进行对话.MCP则通过标准化的协议自动化了这一步骤.MCP服务作为AI与外部工具的中间层.代替人类访问并且操作外部工具.
image.png
每个MCP服务(MCP Server)都专精于一类的工作.比如有的读写浏览器,有的读写本地文件.MCP server通常就是运行在本地的一段nodejs或者python程序.mcpserver接到请求之后,通过自己的代码功能或者使用api请求访问外部工具完成任务.
image.png
所以看到MCP协议和function call非常相似,MCP的最大优点在于整合了各家大模型不同的function call标准(JDBC),整合成了一个统一的标准协议.市面上所有的大模型都可以接入MCP协议.

实战演示#

首先是需要有支持MCP协议的客户端,目前支持MCP协议的客户端有Cursor,Cline,WindSurf,Claude app.这里以cline为例.
在cline中配置的模型提供方为openrouter,模型是免费的deepseek模型,MCPServer本质上是nodejs程序,所以需要保证nodejs的运行环境.
image.png
在cline中点击这里,会出现MCPserver的配置页面.可以添加一个MCP server
本身重要的是配置mcp server的配置文件,打开对话框之后,不需要具体告诉它需要用哪些mcp server,以及用哪些工具,mcp会自动从自己的工具箱中找到合适的工具使用.
过程
cline往MCP服务器传递参数,MCP服务器获得找到合适的工具,返回给大模型信息,大模型基于mcp服务器给到的数据,进行回答响应.
一个MCPserver是解决一类问题的集合,可以包括很多的功能.
不离开vscode就可以完成一切的相关操作,从这里就可以看到MCP的强大之处.

MCP是如何对接大模型的#

前面我们说过,MCP简单来说就是大模型的标准化工具箱,那么大模型是怎么知道工具箱里有哪些工具?使用什么样的参数进行调用的呢?mcp和function call的关系是什么?是不是只有支持了function call模型,才能使用MCP?
image.png
我们捋一下MCP的调用过程:首先Cline把用户提问和MCP的详细使用方法传递给大模型,其中MCP的详细使用方法是直接附加在系统提示词中的,接下来大模型决定使用哪个MCP工具,以及如何传递参数,Cline根据大模型决定的调用方式来调用MCP Server(就是运行在本地电脑上的nodejs或python程序),Cline调用MCP Server后拿到返回结果,加上之前的上下文再次传递给大模型,大模型进行最后的整理,然后把最终的结果返回给用户.

MCP和function call的关系是什么#

deepseekR1是不支持function call的,大模型是要能读懂提示词,就能使用MCP.跟是否具备functioin call是没有关系的.
MCP和function call只是功能相似,它们之间是相互独立的,MCP的最大优点就是整合了各家大模型不同的function call的标准,成为一个标准协议.
所以做MCP的开发,就能让你的API功能多个模型中都能通用.

注意MCP client对接大模型的方式#

客户端使用MCP协议对接AI大模型的方式有两种,一种是利用系统提示词,另外一种是使用模型的function call功能,cherryStudio使用的是function call功能,cline使用的是系统提示词.
修改于 2025-04-07 02:29:05
上一页
autogen starter
下一页
MCP2: 如何用langchain创建自己的MCP server&client
Built with