भाग २१ - Model Context Protocol (MCP) आणि LLM सह त्याचा उपयोग¶
Model Context Protocol (MCP) हे एक खुले मानक आहे जे LLMs (Large Language Models) ना बाह्य टूल्स, डेटाबेस, API किंवा संसाधनांशी सहजपणे जोडण्याची परवानगी देते. MCP हे एखाद्या "AI साठी USB‑C" प्रमाणे काम करते — एकच इंटरफेस अनेक गोष्टींसाठी वापरता येतो.
🔧 MCP म्हणजे काय?¶
MCP हे client-server प्रकारात काम करते:
- MCP Server: टूल्स, प्रॉम्प्ट्स, आणि डेटा resources उपलब्ध करून देतो.
- MCP Client: LLM host (जसे Claude, ChatGPT, Gemini) मधून सर्व्हरशी संवाद साधतो.
हे संवाद स्थानिक (stdin/stdout
) किंवा HTTP/SSE वापरून होतो.
🧩 वापराची उदाहरणे¶
1. एंटरप्राइझ डेटा सुलभ करणे¶
Claude किंवा Gemini सारख्या मॉडेल्स GitHub, Jira, Google Drive इत्यादीशी MCP वापरून जोडू शकतात.
2. डेटा आधारित उत्तरं¶
"Postgres मधून गेल्या आठवड्याचे विक्री डेटा दाखवा" — MCP Server हा डेटा मिळवतो आणि LLM उत्तर तयार करतो.
3. मल्टी‑स्टेप AI एजंट्स¶
डॉक्युमेंट शोधा → संक्षेप करा → ईमेल पाठवा — MCP ही साखळी सहज सांभाळतो.
4. स्थानीय फाइल्स वाचणे¶
Claude Desktop सारख्या App MCP वापरून सुरक्षितपणे लोकल फाइल्स वाचू शकतात.
🧪 Python उदाहरण: FastMCP वापरून MCP Server¶
from fastmcp import FastMCP
mcp = FastMCP("DemoServer")
@mcp.tool()
def add(a: int, b: int) -> int:
return a + b
@mcp.resource("greeting://{name}")
def greeting(name: str) -> str:
return f"Hello, {name}!"
@mcp.prompt()
def review(text: str) -> str:
return f"Please review this:\n\n{text}"
if __name__ == "__main__":
mcp.serve()