
Всего через несколько недель после того, как OpenAI заявила, что примет стандарт конкурирующей компании Anthropic для подключения моделей AI к системам, где хранятся данные, Google последовала ее примеру.
Всего через несколько недель после того, как OpenAI заявила, что примет стандарт конкурирующей компании Anthropic для подключения моделей AI к системам, где хранятся данные, Google последовала ее примеру.
В честь 50-летия Microsoft разработчики Copilot выпустили масштабное обновление. Теперь GitHub Copilot поддерживает режим нейросетевого агента для редактора VS Code и интеграцию с любыми другими приложениями через MCP. Также команда проекта добавила новые языковые модели от Anthropic, Google и OpenAI.
В последнее время аббревиатура MCP стала все более часто появляться в некоторых статьях и разделах комментариев на arXiv или Daily Papers Hugging Face, которые я просматриваю. Внезапно осознав, что мое представление об этом лишь приблизительное, я решил изучить его более подробно и поделиться с вами.
Ключевые различия между протоколами MCP от Anthropic и A2A от Google.
Почему функции безопасности, управления задачами и возможности совместной работы A2A могут дать ему преимущество в формирующейся экосистеме агентов.
LLMки поражают своей сообразительностью, не так ли? Но стоит попросить их заглянуть в гуглодок/гитхаб/БД — и магия пропадает. Почему? ИИ живут в информационном вакууме, а каждая попытка подружить их со сторонними инструментами превращается в головную боль разработчиков и зоопарк костылей (помните анекдот про 15 стандартов зарядок?).
Давайте представим, как было бы замечательно, если бы был единый стандарт, как USB‑С, но для ИИ? Чтобы любой ассистент мог легко подключиться к любому инструменту? У меня есть хорошая новость: такой стандарт есть. Он называется Model Context Protocol (MCP), его создали Anthropic и поддерживают OpenAI и Microsoft.
Звучит сложно? Я тоже сначала ничего не понял, но разобрался и хочу рассказать вам понятно и интересно: Что такое MCP. С чем его едят. Как он устроен под капотом. И что с безопасностью.
Если вам тоже интересно, как ИИ наконец‑то выплывают из своего аквариума и начинают по‑настоящему помогать в работе — заглядывайте под кат! Я постарался разложить все по полочкам, с аналогиями и примерами.
Почему хаос интеграции данных в LLM-приложениях мешает масштабированию AI-агентов?
Model Context Protocol от Anthropic решает три критические проблемы: стандартизацию взаимодействия моделей с окружением, четкое разделение управления компонентами и упрощение интеграции источников данных.
Узнайте, как MCP позволяет разным командам работать над единой системой, не мешая друг другу, и почему это важно для будущего агентных AI-систем.
Привет! Мы — партнеры Битрикс24 и создаем для бизнеса приложения с генеративным ИИ, интегрируя их с корпоративными порталами.
В этой статье мы расскажем о созданном нами решении, которое позволяет любым разработчикам легко подключать свои чаты и другие приложения с LLM-моделями к Битрикс24. Речь идет о MCP-сервере — помощнике для ИИ, который позволяет получать из портала Битрикс24, например из раздела CRM, точные данные для ответа пользователю.
Где-то летом 2024 года в некоторых OpenAI сервисах появилась возможность использовать "инструменты".
Инструмент — это функция, которая выполняется на сервере и возвращает некий результат. Например, в ChatGPT можно было использовать инструменты для поиска информации в интернете, для генерации изображений и т.д.
Это был закрытый API, который использовался внутри OpenAI, и как и что там происходило было довольно туманно.
Anthropic
(создатель Claude
) совершил мини-революцию в AI инструментарии, создав открытый протокол Model Context Protocol (MCP) с расширенными возможностями для создания подобных инструментов и даже больше.
Уже сейчас можно подключать MCP серверы к IDE, например, Cursor AI или Cline, и значительно расширить их возможности. Так же это может рассматриваться как, как минимум, частичная замена RAG
и fine-tuning
.
И если раньше ваше приложение заискивая пыталось выклянчить у чатбота подходящий результат, то теперь доминанта бизнес-логики снова вернулась к нему, а LLM работает простым сервисом.
Эра мультиагентов? Как LangChain, только на стероидах: протокол Agent2Agent (A2A) от Google + MCP
Представьте себе будущее, где десятки ИИ-агентов от разных производителей легко и безопасно общаются друг с другом. Звучит фантастически? Уже нет! Google только что выпустил революционный протокол Agent2Agent (A2A), способный полностью изменить ваш подход к автоматизации и совместной работе систем искусственного интеллекта.
Почему это важно? A2A позволяет агентам ИИ объединяться, решая задачи быстрее и эффективнее, чем когда-либо. Это значит меньше затрат, выше производительность и, главное — полная свобода интеграции агентов от любых поставщиков.
Хотите узнать первым, как именно работает A2A и почему Google делает ставку на мультиагентное будущее?
Не упустите возможность заглянуть в завтрашний день!
Привет! Это Влад Шевченко, технический директор направления искусственного интеллекта red_mad_robot. Сегодня я хочу рассказать, что из себя представляет протокол MCP от Anthropic — для этого лучше всего создать его аналог собственными руками.
Эта статья предназначена для разработчиков, которые хотят глубже понять, как работает MCP, и научиться создавать подобные механизмы самостоятельно.
Анализ уязвимости и ограничения Model Context Protocol для подключения инструментов к ИИ-ассистентам.
Узнаете, как оценить риски MCP-интеграций в своих проектах и минимизировать угрозы безопасности
Microsoft сделала огромный подарок: Режим Агента (Agent mode) стал доступен всем пользователям Visual Studio Code! Агент действует как автономный программист, который в паре с вами работает над проектом. Одна ваша команда — и он выполняет многоэтапные задачи по написанию кода, такие как анализ кодовой базы, исправление файлов, выполнение команд в терминале. Он реагирует на ошибки компиляции и ошибки линтера и вместо вас смотрит, что пишут в терминале. Он автоматически вносит исправления, делая это в цикле снова и снова — до тех пор, пока задача не будет завершена. Агент может использовать предоставленные вами инструменты, что позволяет ему взаимодействовать с внешним миром — то есть, с внешними серверами MCP и расширениями VS Code (VS Code extensions), многократно увеличивая спектр решаемых задач.
На заре появления LLM пользователям приходилось просто копировать свой код в текстовое окно, чтобы ИИ могла его обработать. Естественно, такой подход быстро всех утомил, и разработчики начали искать свои способы загрузки данных в модель. У этого подхода была серьезная проблема — каждому приходилось изобретать велосипед заново.
Именно поэтому появился протокол MCP (Model Context Protocol) — универсальный способ дать искусственному интеллекту доступ к нужным данным, неважно где они хранятся — на компьютере пользователя или же в интернете.
Всем привет, сегодня я расскажу вам о том, как делать можно делать агентов с помощью Pydantic AI.
Начнем с простых примеров в виде вызова LLM , а затем постепенно будем усложнять задачу, создавая более сложного агента. Начиная от простой валидации данных на выходе, заканчивая хайповым MCP протоколом.
OpenAI использует стандарт конкурирующей компании Anthropic для подключения помощников на основе искусственного интеллекта к системам, где хранятся данные. В своем сообщении на X в среду генеральный директор OpenAI Сэм Альтман сказал, что OpenAI добавит MCP (model context protocol) во все свои продукты, включая приложение для ChatGPT.
UX-инженер Сонни Лазуарди (Sonny Lazuardi) выпустил плагин для интеграции Cursor в Figma. С его помощью можно использовать языковую модель для генерации макетов.