Как стать автором
Обновить
738.94

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга

Microsoft признала, что задействовала ИИ в рекламе Surface Pro и Surface Laptop для создания кадров в которых было мало движения. В ролике специально сделана быстрая смена кадров, чтобы зрители не успевали всматриваться в детали.

Крупные планы рук, печатающих на клавиатуре, и другие сцены, где были сложные движения, были сняты на настоящую камеру. Microsoft пошла на этот шаг, поскольку в таких кадрах искусственный интеллект показывал плохие результаты.

Для создания видео специалисты из Microsoft сначала сгенерировали изображения при помощи текстовых подсказок и визуальных референсов. Затем полученные картинки были загружены в видеогенераторы Hailuo и Kling. Какие именно генераторы использовались для создания изображений, в компании не уточнили.

Теги:
0
Комментарии4

200 нейросетей для работы с текстами, видео, документами в виде подборки ИИ-сервисов. Всё удобно разбито по категориям: генерация картинок, 3D-моделей и логотипов, апскейл старых фоток и даже инструменты для веб-дизайна. К каждой нейросети есть короткое и понятное описание.

Теги:
+3
Комментарии4

Открываем доступ к большим языковым и визуально‑генеративным моделям в пакетном режиме

Сегодня Yandex B2B Tech открывает доступ внутри Yandex Cloud AI Studio к LLM и визуально‑генеративным моделям (VLM), таким как DeepSeek VL2 Tiny, Qwen2.5 VL и Gemma3 27B. Режим Batch Processing, или режим пакетного инференса позволяет эффективно обрабатывать тысячи запросов с помощью таких генеративных моделей.

Всего в пакетном режиме доступно около 20 опенсорсных нейросетей, в том числе модели, которые умеют одновременно анализировать изображения и текст. Среди уже доступных моделей — Qwen2.5 и LLaMa 3.3*, рассуждающие нейросети QwQ и DeepSeek R1, полный список можно посмотреть на сайте.

По мере появления новых моделей в опенсорсе они будут оперативно добавляться на ML‑платформе. Так, вскоре будет доступна VLM‑модель Яндекса, которая используется в Алисе, Нейроэксперте, Поиске с Нейро и других сервисах.

Применение новых моделей в режиме Batch Processing позволяет фокусироваться на эффективной обработке большого объёма данных. Компании смогут использовать модели по расписанию, по мере накопления данных или для объёмных разовых задач. Такое использование обойдётся вдвое дешевле, чем в стандартном режиме. Тарификация при пакетном инференсе на больших объёмах данных начинается от 200 тыс. токенов.

Какие сценарии удобно решать в пакетном режиме

  1. Анализ и суммаризация больших объёмов данных. Batch Processing помогает эффективно обрабатывать длинные последовательности текста и создавать качественный пересказ или анализ материалов. Это актуально, например, для исследовательских организаций и компаний, работающих с большими объёмами пользовательского контента.

  2. Периодическая обработка данных клиентов. Многие компании регулярно анализируют текстовые данные от клиентов: отзывы, комментарии, запросы в службу поддержки и другие формы обратной связи. Пакетный инференс позволяет эффективно обрабатывать эти данные по расписанию, например, еженедельно или ежемесячно.

  3. Масштабное индексирование и обогащение контента. Для компаний, работающих с большими библиотеками контента, пакетный инференс даёт возможность эффективного индексирования и обогащения материалов. Языковые модели могут автоматически генерировать метаданные, ключевые слова, теги и другие элементы, улучшающие поиск и организацию контента.

  4. Обогащение датасетов для тюнинга моделей. Для команд, которые дообучают лёгкие версии языковых моделей с помощью дистилляции ответов больших версий моделей, Batch Processing помогает создавать синтетические датасеты для дообучения. На базе этих данных и с помощью инструмента LoRA Fine‑tuning разработчики могут создавать лёгкие модели высокого качества, при этом получая более реактивную скорость ответов и меньшую стоимость за обращение к модели.

*Llama создана компанией Meta. Meta признана экстремистской организацией, её деятельность в России запрещена.

Теги:
+8
Комментарии0

Владелец Tesla попросил бортовой компьютер электромобиля отвезти его в место, где он ещё ни разу не бывал — и... система отвезла его в фитнес-клуб.

Теги:
0
Комментарии0

Подключайтесь к трансляции «MLечного пути» — митапа для тех, кто делает ML

В центре внимания — кейсы, технологии, рабочие сложности и способы с ними справиться. Подключайтесь к трансляции в 18:00 мск.

Что будет?

  1. Доклады. Поговорим про инференс, вызовы для бизнеса и все, что с этим связано.

  2. Startup Pitch. Послушаем коллег, которые презентуют собственные ML-проекты. На митапе вы сможете поделиться обратной связью и познакомиться с рекомендациями экспертов.

  3. Интерактивы. Не дадим заскучать ни онлайн, ни офлайн. Участвуйте в челленджах и викторинах. 

  4. Нетворкинг. Создадим площадку для комфортного общения с гостями и экспертами митапа. 

Программа

  • Как приручить LLM: подбор инфраструктуры для инференса без головной боли

  • Как оптимизировать инференс в GPU

  • Инференс в экстремальных условиях

  • Edge-AI в полевых условиях: развертывание видеоаналитики для комбайнов

Смотреть трансляцию:

👉 на YouTube
👉 во ВКонтакте

Начинаем через час!

Теги:
+3
Комментарии0

Начинаем вебинар по повышению производительности инфраструктуры

Привет, Хабр! В 12:00 по МСК проведем вебинар, где разберем, как эффективно использовать GPU в облаке для ML-проектов. Продакт-менеджер облачной платформы Selectel Антон Баранов расскажет, как оптимизировать производительность инфраструктуры и сократить расходы без потери качества. Присоединяйтесь!

Смотреть трансляцию:

на YouTube

в VK

Программа вебинара

  • Шесть способов сократить расходы на IT-инфраструктуру с GPU

  • Подбираем GPU под конкретную задачу. Разбор кейсов клиентов

  • Облако с GPU: обзор возможностей облачной платформы и доступных GPU-карт

  • Как выбрать подходящие карты в облаке и в MKS

  • Сокращаем сетевые задержки с помощью локальных SSD NVMe-дисков в облаке с GPU

  • Ответы на ваши вопросы

Кому будет полезно 

  • Техлидам и менеджерам ML-проектов: как выбрать оптимальную инфраструктуру.

  • Data-инженерам, MLOps-инженерам, DevOps-инженерам

  • Всем, кто работает с облачными ресурсами и хочет повысить ROI проектов.

Теги:
+4
Комментарии0

#статья Тайные сообщества товаров: обзор графовых методов

Новая статья от команды матчинга и группировки уже ждёт вас на Хабре. Расскажем, как мы исследовали алгоритмы community detection для группировки товаров, с какими проблемами столкнулись и при чём тут матчинг.

Время прочтения: 15 минут.

За это время вы узнаете: на какие шаги раскладывается задача группировки товаров и какие методы можно использовать непосредственно на этапе группировки. Надеемся, статья будет полезной и тем, кто впервые сталкивается с community detection, и тем, кто ищет для себя новые подходы

🙂 Читать статью

Теги:
0
Комментарии0

🎙 Vozo AI — нейросеть, которая переводит и дублирует видео на любой язык, сохраняя оригинальный голос и синхронизацию губ.

Что по возможностям?

➖ Перевод и дубляж видео на более чем 60 языков.

➖ Клонирование голоса для сохранения оригинальной интонации.

➖ Синхронизация губ для естественного воспроизведения речи.

➖ Автоматические субтитры для удобства восприятия.

➖ Многоголосый перевод для видео с несколькими спикерами.

➖ Бесплатное использование возможно, но есть нюанс: до 3 минут перевода видео в месяц без оплаты.

➖ поддерживает видео ссылкой с юутба или файлом!

🔗 Становимся полиглотом на 3 минутки в месяц тут - тык

Теги:
0
Комментарии1

Представлен инструментарий Turns Codebase into Easy Tutorial with AI, который превращает любой репозитарий GitHub в учебник. Нейросеть анализирует весь код, разбирается в нём и создаёт гайд, в котором просто и понятно расписано как ресурс работает. С помощью решения можно легко учить новые технологии, изучать программирование по готовым проектам; писать документацию к своим репо.

Пример гайда по Tutorial: MCP Python SDK.

Теги:
+3
Комментарии0

🚀 Google представляет Gemma 3 QAT: мощный ИИ для обычных видеокарт

Google анонсировала Gemma 3 QAT — новую версию своей модели искусственного интеллекта, оптимизированную с помощью Quantization-Aware Training (QAT). Эта технология позволяет запускать передовые ИИ-модели на потребительских GPU, таких как NVIDIA RTX 4090, без значительной потери качества.

Что нового в Gemma 3 QAT:

🔹 Поддержка 4-битного и 8-битного квантования: значительно снижает требования к памяти и ускоряет работу модели.

🔹 Сохранение высокой точности: даже при сниженной разрядности модель сохраняет точность, близкую к оригинальной.

🔹 Доступность для широкого круга разработчиков: теперь запускать мощные ИИ-приложения можно на более доступном оборудовании.

📌 Круто, что Google делает передовые ИИ-технологии более доступными, позволяя разработчикам создавать мощные приложения без необходимости в дорогостоящем оборудовании.

🔗 Подробнее: Google Developers Blog

Теги:
0
Комментарии0

Опубликован курс по созданию языковых моделей с нуля от Стэнфордского университета — «СS336: Language Modeling from scratch», включая видеолекции для всех, кто хочет научиться создавать собственные ИИ-модели с нуля: от архитектуры и токенизаторов до обучения с подкреплением и масштабирования. К лекциям есть множество дополнительных материалов и домашних заданий.

Теги:
+2
Комментарии0

🚀 Google представила InstructPipe — революционный инструмент для визуального программирования с помощью ИИ

Представьте, что вы описываете свою идею словами, а ИИ превращает её в рабочий прототип подкрепляя визуальной блок схемой.

🔍 Что такое InstructPipe?

InstructPipe — это AI-ассистент, интегрированный в платформу Visual Blocks, который преобразует текстовые описания в визуальные пайплайны. Пользователь вводит инструкцию, выбирает категорию (например, "язык", "визуализация" или "мультимодальность"), и система генерирует соответствующую блок-схему.

Ключевые особенности:

- Использование больших языковых моделей (LLMs) для генерации псевдокода.

- Интерпретатор кода, который преобразует псевдокод в визуальные блоки.

- Интерактивный редактор, позволяющий пользователю доработать и настроить пайплайн.

Чем интересен продукт?

- Если вы хотите сделать пайплайн на коленке, вам туда

- Быстрое прототипирование идей

- Если вам не нужно полноценное внедрение, а решение быстро и просто

🔗 Подробнее

Теги:
0
Комментарии0

Работаем со свертками в PyTorch с помощью библиотеки CUTLASS и алгоритма Implicit GEMM

Библиотека CUTLASS — это набор C++ шаблонов для реализации высокопроизводительного GEMM в коде. Она предоставляет структурные блоки, из которых можно собрать или просто вызвать операцию GEMM. Поддерживает вычисление смешанной точности, использование TensorCores и других примитивов, доступных для быстрого вычисления. В отличие от cuBLAS, это open source-библиотека. Ее относительно просто интегрироватьь и модифицировать под свои задачи. 

Как устроена работа с библиотекой. Источник
Как устроена работа с библиотекой. Источник

Подход основан на тайлинге — разбиении задачи на мелкие подзадачи и распараллеливании. Как устроен процесс работы:

  • Процедура начинается с работы с глобальной памятью: выбираем блоки данных (тайлы) из глобальной памяти для умножения матриц.

  • Затем используются примитивы для переноса этих данных в shared-память, где происходит тайлинг на этом уровне.

  • После выполняется работа на уровне варпов и регистров с использованием TensorCores или CUDA Cores. 

Эти настройки также можно конфигурировать с помощью библиотеки. Основная цель — максимально перенести данные для вычислений в регистры процессоров и свести к минимуму операции с глобальной памятью, поскольку они вызывают наибольшие задержки.

Библиотека предоставляет различные уровни специализации и конфигурирования: Device-level, Kernel-level, Block-level, warp, Instruction. Весь API представлен в виде шаблонов, из которых можно набирать те типы, которые потом инстанцируются для реализации нужного тайлинга. 

Какие еще инструменты могут расширить функциональность PyTorch для работы с большими свертками? Как выбрать алгоритм, подходящий для обучения моделей? Узнаете из статьи →

Теги:
+2
Комментарии0

Ближайшие события

Сегодня OpenAI анонсировала две новые модели искусственного интеллекта — o3 и o4-mini, расширяя возможности ИИ за пределы обработки текста, включая веб-браузинг, генерацию изображений и визуальное восприятие.​
Axios

🧠Модель o3
o3 — как заявили OpenAI это самая продвинутая модель на сегодняшний день, обладающая улучшенными способностями к рассуждению и пониманию изображений. Изначально планировалось выпустить o3 как часть GPT-5, но было решено представить её отдельно вместе с o4-mini. ​

🧠Модель o4-mini
o4-mini — более компактная и эффективная версия, предназначенная для выполнения задач, таких как математика, программирование и визуальный анализ, при меньших затратах.

Добавили интересные апдейты и прощание с более старыми моделями:

  1. Натаскали модельки на качественный поиск в браузере и генерацию изображений

  2. Ризонинг поверх изображений!Добавили интеграцию изображений в процессы рассуждения.

  3. Добавят доступ в ChatGPT Plus, Pro и Team для моделей o3, o4-mini и o4-mini-high.

  4. Постепенное прекращение поддержки старых моделей, таких как o1, o3-mini и o3-mini-high. ​

Ждем первый доступ для всех и анонсы gpt5?

Теги:
+1
Комментарии0

Google опубликовала гайд по бизнес-идеям с ИИ под капотом с примерами 601 кейса под любую сферу: торговля, логистика, медиа, кодинг, телеком, наука. В гайде расписаны реальные примеры от различных компаний по интеграции ИИ-агентов в бизнес.

Теги:
0
Комментарии0

🚀 OpenAI выпускает GPT-4.1 — новый уровень!

OpenAI представили GPT-4.1, и это не просто апдейт — это серьёзный шаг вперёд.
Модель с контекстным окном в 1 МИЛЛИОН токенов (да, догнали Gemini спустя год!) и возможностями на уровне (а то и выше) топовых open-source моделей вроде o3-mini — и всё это без цепочек рассуждений.

GPT-4.1 уже показывает отличные результаты по кодингу и бенчмаркам.
⚠️Но есть нюанс: доступна только через API, в чатах OpenAI (пока) её не будет.

А вайбкодеры сегодня принимайте подарок!🎁

Целую неделю GPT-4.1 можно использовать бесплатно в Windsurf — это альтернатива Cursor с полноценной интеграцией новой модели.

Это первая базовая модель, которая по коду реально обходит многие хайповые open-source решения. Отличный повод затестить и вкатиться в новую волну AI-кодинга.

GPT-4.1 уже здесь, но только для разработчиков. Остальным придётся немного подождать.

Теги:
+1
Комментарии0

Проанализировав опыт наших клиентов и открытые данные по рынку, мы пришли к выводу, что 70% компаний используют графические процессоры (GPU) менее чем на 55% их мощности. Часто ресурсы GPU используются неоптимально, например, когда мощные графические процессоры выполняют небольшие задачи. Что можно с этим сделать? Расскажем на вебинаре.

📆 Когда: 22 апреля в 11:00 мск

📍 Где: онлайн

Мы покажем, как можно более эффективно организовать работу с GPU с помощью Evolution ML Inference. Сервис позволяет запускать несколько моделей на одном GPU, автоматически масштабирует ресурсы и сокращает расходы до 70%.

Программа вебинара:

  • почему Shared GPU выгоднее выделенных ресурсов: расчет экономии на примере реальных проектов;

  • пошаговый запуск моделей с Hugging Face за несколько кликов;

  • как избежать переплат: настройка лимитов GPU и мониторинг в реальном времени;

  • динамическое масштабирование: добавление ресурсов при пиковой нагрузке и отключение в простое.

В результате с помощью сервиса вы сможете развертывать модели без сборки Docker-образа, платить только за фактическое использование ресурсов и сократить время запуска проектов с использованием AI в 3 раза.

Будет полезно дата-сайентистам, DevOps-инженерам и руководителям, которые хотят оптимизировать затраты на ML-инфраструктуру.

Зарегистрироваться 👈

Теги:
0
Комментарии0

🚀 x.ai представили публичный API для Grok 3

Ссылка на документацию

🔍 Основные детали:

1. Доступные модели:

🟣 флагман Grok 3

🟣 облегченная Grok 3 Mini

Контекстное окно у обеих: 131k токенов.

2. Что у Grok 3 Mini:

🟣 Единственная модель с двумя режимами reasoning (low/high).

🟣 На презентации показала лучшие результаты, чем Grok 3, из-за более долгого обучения.

Хотя разработчики обещают дообучить Grok 3, но сроки не ясны.

3. Стоимость (в пересчете на 1 млн токенов):

🟣 Grok 3:

- Стандартная скорость: $3 (input) / $15 (output)

- Fast mode: $5 / $25 (но работает *медленнее* по тестам OpenRouter 😅)

🟣 Grok 3 Mini:

- Стандарт: $0.3 / $0.5

- Fast mode: $0.5 / $4

В целом Grok 3 Mini выглядит выгодно: цена ниже, чем у аналогов (например, o3 mini), а качество на уровне.

Grok 3 пока видимо проигрывает конкурентам (GPT-4.5, Gemini 2.5 Pro, Sonnet 3.7) по функционалу и скорости. Сам же Fast mode вызывает вопросы: высокая цена при текущей скорости выглядит странно.

Посмотрим, как дообучат Grok 3, но mini сейчас выглядит интересно!

*P.S. Кто уже тестил? Делитесь впечатлениями в комментах!* 👇

Теги:
-1
Комментарии0

Верните мой 2007-й: превращаем старые фотки в снимки с зеркалок с помощью ИИ

Однажды группе ИИ-энтузиастов пришла идея: а что если обучить искусственный интеллект улучшать смартфонные снимки до профессиональных с помощью парных фотографий? Задумка понравилась. Для сбора датасета выбрали актуальные в то время Sony Xperia Z, iPhone 3GS, BlackBerry Passport и цифровую зеркалку Canon EOS 70D в качестве эталона. Модель обучили улучшать фотографии, сделанные на смартфонах, в соответствии с такими же изображениями, полученными с камеры. Проект реализовали, исходный код опубликовали на GitHub, а подробное описание — на arXiv.org. Но что же в нем интересного сейчас, почти десять лет спустя?

DPED не просто применяет косметические фильтры. Датасет способен значительно улучшать фотографии на уровне структуры изображения, детализации, динамического диапазона и цветопередачи, приближая результат именно к профессиональной зеркальной фотокамере, а не просто «улучшая» фото.

Открытый исходный код и доступность датасета DPED позволяют легко адаптировать, изменять и дорабатывать модель. Это дает большие возможности исследовательскому сообществу и разработчикам мобильных приложений. Именно гибкость и понятность архитектуры делают DPED хорошим кандидатом для дальнейших экспериментов и улучшений.

В своей статье команда регионального научно-образовательного центра «Искусственный интеллект и анализ больших данных» при НГТУ им. Р. Е. Алексеева запустила DPED на свежих версиях софта, преодолев все проблемы совместимости, и попробовала через него улучшить фото с современного планшета.

Теги:
+7
Комментарии0

Шпаргалка, которая поможет быстро найти нужный ИИ-сервис. Все нейросети актуальные и удобно разбиты по категориям.

Теги:
0
Комментарии1
1
23 ...

Работа

Data Scientist
41 вакансия