Или как новый открытый стандарт от создателей Claude (Anthropic) значительно упрощает интеграцию AI с такими сервисами, как PostgreSQL, GitHub, Google Drive и многими другими

Введение

Недавно наткнулся на — Model Context Protocol (MCP) от Anthropiс, создателей LLM Claude. Вроде как даже open-source. Анонсировали его в ноябре, но активный рост популярности начинается только сейчас

Статистика запроса по Model Context Protocol за последние 12 мес

Выглядит так, что MCP значительно упрощает интеграцию AI с другими сервисами

Наши LLMки часто изолированы от наших данных, поскольку подключение каждого нового источника информации требовало кастомных интеграций. MCP должен решить эту проблему, став универсальным стандартом для подключения AI к любым источникам данных — Google Drive, Slack, GitHub, Git, Postgres и другим.

Я не разработчик и прям руками эту штуку еще не трогал, но потратил пару вечеров на чтение документации и изучение основных деталей нового протокола. Если найдете в тексте неточности или захотите что-то дополнить, то велкам 🫡


⚙️ Что такое MCP

Model Context Protocol — это новый протокол для общения AI-модели с внешними сервисами. Сейчас и ранее, для каждой интеграции нужно вручную разбирать API сервисов, писать код и поддерживать обновления. MCP планирует убрать эти сложности

Примерная схема взаимодействия нас и сторонних сервисов. На второй картинке красную зону и сам MCP нам редактировать не надо, а только подключиться к уже готовому MCP

⚙️ Основная идея

  • Мы подключаем MCP-сервер, внутри которого есть различные инструметы.

  • Этот сервер общается с LLM через JSON-RPC

  • LLM сам понимает, какие инструменты доступны именно у этого MCP-сервера

  • Мы не привязываемся к конкретной LLM, протокол должен одинаково хорошо работать как с GPT, так и с Claude или с любой другой LLM

💫 Что это нам дает

  • 🟢 Сокращение затрат на разработку

  • 🟢 Универсальный подход к интеграции AI

  • 🟢 Гибкость и адаптивность AI-систем к изменениям

MCP – это как USB-разъём, только для AI-сервисов. Нам уже не нужно устанавливать драйвера под каждое наше устройство


🛠 Почему эта технология стоит внимания?

Раньше, чтобы AI взаимодействовал с внешними сервисами, нужно было:

  • 👨‍💻 Изучать API каждого сервиса отдельно.

  • 🛠 Писать кастомные интеграции и постоянно их поддерживать.

  • ⚠️ Тратить много времени и сил при каждом изменении API.

Теперь же достаточно

  • ✅ Поднять MCP-сервер — небольшую программу, которая работает постоянно, принимает JSON-RPC-запросы от AI и отправляет ответы туда же

  • ✅ Подключить его к AI-модели

  • ✅ И все — в теории, модель сама должна понимать, какие функции есть у этого MCP-сервера и как их можно использовать


🔸 Примеры использования MCP

На основе изучения GitHub проекта

Используем MCP-сервер для чтения PostgreSQL: GitHub MCP PostgreSQL.

📊 Пример №1: Запрос к PostgreSQL БД

Я спрашиваю у LLM

Какой средний чек за март?

✍️ MCP получает мой запрос и переводит его в PostgreSQL нотацию

{
  "jsonrpc": "2.0",
  "id": 1,
  "method": "tools/call",
  "params": {
    "tool_name": "query_postgres",
    "args": {
      "query": "SELECT AVG(order_amount) FROM orders WHERE date BETWEEN '2024-03-01' AND '2024-03-31';"
    }
  }
}

📌 Ответ, который получает MCP от PostgreSQL

{
  "jsonrpc": "2.0",
  "id": 1,
  "result": {
    "value": "123.45"
  }
}

✅ А LLMка отвечает мне

Средний чек заказа в марте — $123.45.

Что в итоге

  • AI сам пишет SQL-запросы, пользователю не нужно знать SQL.

  • AI может автоматически делать отчёты и аналитику без аналитиков. Можно еще и MCP Grafana подключить

🔸 Пример №2: AI-ассистент задач на Todoist

Используем MCP-сервер для Todoist: GitHub MCP Todoist.

Записываем голосовуху в наш ChatGPT с подключенным MCP Todoist

Напомни купить молоко завтра, это важно

✍️ MCP получает мой запрос и переводит его в формат, понятный для Todoist API

{
  "jsonrpc": "2.0",
  "id": 2,
  "method": "tools/call",
  "params": {
    "tool_name": "add_task",
    "args": {
      "content": "Купить молоко",
      "due_date": "2024-03-18",
      "priority": 4
    }
  }
}

📌 Ответ, который MCP-сервер получает от Todoist

{
  "jsonrpc": "2.0",
  "id": 2,
  "result": {
    "task_id": 12345,
    "status": "added"
  }
}

✅ AI отвечает мне в LLM

Я добавил задачу «Купить молоко» на 18 марта с высоким приоритетом

Что это даёт:

  • Можно использовать голосовую и текстовую натуральную речь для управления тасктрекером

  • AI превращается в полноценного менеджера задач, хотя хранится все в вашем аккаунте Todoist


Как по мне, появление MCP можно сравнить с такими же фундаментальными вещами, как USB, TCP/IP и REST. Эти технологии также позволили стандартизировать подходы к интеграциям, снизив барьер входа и сократив время разработки. Вопрос только в том, насколько общепризнанным станет этот формат

Один из самых интересных кейсов для меня на сегодня — подключение AI к базам данных и аналитическим инструментам. Любой, кто сталкивался с корпоративной аналитикой, знает, как бывает сложно получить необходимые данные или построить дашборды. Если AI сможет давать аналитику за 10 секунд вместо дней общения с аналитиками — это было бы супер пупер

Было vs Стало

Раньше (без MCP)

Сейчас (с MCP)

⚠️ API вручную для каждого сервиса

✅ Нужен MCP-сервер для каждого сервиса, но AI работает с ними единым способом

⚠️ Постоянная поддержка кода

✅ Универсальный стандарт JSON-RPC

⚠️ Долгая интеграция и поддержка

✅ Моментальная интеграция

🧐 Ограничения MCP

Пока основное ограничение MCP как и многих новых протоколов — ограниченная поддержка сервисов (список здесь), но уже сейчас ясно, что этот стандарт может убрать барьер между LLM и реальными данными.

💬 Как итог

Model Context Protocol — интересный и важный шаг к универсальной и простой интеграции AI в бизнес и повседневные процессы.

А если вы уже пробовали MCP, то мне было бы очень интересно послушать опыт реального внедрения. Сам же я планирую протестировать это на неделе на боевом проекте

Еще раз картинку продублирую

Часть существующих MCP

На сайте уже за 100 перевалило по разным продуктам, можете ознакомиться

  • AWS KB Retrieval - Retrieval from AWS Knowledge Base using Bedrock Agent Runtime

  • Brave Search - Web and local search using Brave's Search API

  • EverArt - AI image generation using various models

  • Everything - Reference / test server with prompts, resources, and tools

  • Fetch - Web content fetching and conversion for efficient LLM usage

  • Filesystem - Secure file operations with configurable access controls

  • Git - Tools to read, search, and manipulate Git repositories

  • GitHub - Repository management, file operations, and GitHub API integration

  • GitLab - GitLab API, enabling project management

  • Google Drive - File access and search capabilities for Google Drive

  • Google Maps - Location services, directions, and place details

  • Memory - Knowledge graph-based persistent memory system

  • PostgreSQL - Read-only database access with schema inspection

  • Puppeteer - Browser automation and web scraping

  • Redis - Interact with Redis key-value stores

  • Sentry - Retrieving and analyzing issues from Sentry.io

  • Sequential Thinking - Dynamic and reflective problem-solving through thought sequences

  • Slack - Channel management and messaging capabilities

  • Sqlite - Database interaction and business intelligence capabilities

  • Time - Time and timezone conversion capabilities

Ссылки в статье

🔗 Документация MCP
🔗 GitHub MCP PostgreSQL
🔗 GitHub MCP Todois