? ? ? - ИИ vs ИИ.

В современном мире уже не отличишь изображение, сгенерированное Midjourney, от настоящего. И как же не стать жертвой шантажа?
Для решения проблемы исследователи из MIT разработали технологию PhotoGuard, которая вносит в изображения незаметные искажения, затрудняющие манипуляции с ними.
PhotoGuard использует две "атаки":
"кодирующая" атака направлена на скрытое представление изображения в модели ИИ, заставляя модель воспринимать изображение как случайную сущность.
Более сложная "диффузионная" атака оптимизирует искажения так, чтобы они максимально походили на целевое изображение.
Несмотря на то что PhotoGuard открывает широкие возможности для защиты от манипуляций с изображениями. Требуется сотрудничество всех заинтересованных сторон, включая разработчиков моделей, платформы социальных сетей и политиков.
Хотя PhotoGuard не является полным решением, он представляет собой шаг к защите от несанкционированных манипуляций. Проблема заключается в создании надежных средств защиты, способных противостоять будущему развитию технологий ИИ. Для решения этой актуальной проблемы необходим совместный подход, позволяющий найти баланс между потенциальными преимуществами и защитой генеративных моделей.