Комментарии 62
R2-D2 ?
R2-D2 ?
Хуже ;)
У Стругацких не то в «Пикнике на обочине», не то ещё в каком-то их произведении был сюжетный ход с умершими людьми, которые восстали с кладбищ и припёрлись домой. Так вот, те мертвецы общались друг с другом подобными криками.
там кстати джедаи вроде его понимали
У Азимова роботы могли между собой на своем языке общаться (Р. Оливо, Р. Жискар)
Вот вообще простецкая задача научить две программы общаться между собой "по цифре", если у каждой из них есть протокол связи и разработчики знакомы хотя бы в одностороннем порядке. И если на той стороне честное интернет соединение. И на этой тоже, а не смартфон приложенный к трубке аналогового аппарата.
У Азимовских роботов в прошивке, если кто внимательно читал, сидели ТРИ ЗАКОНА РОБОТОТЕХНИКИ.
И даже с учетом этого возникали некоторые коллизии и даже конфликты.
Люди, а вы точно разумны?
И даже с учетом этого возникали некоторые коллизии и даже конфликты.
У меня в технаре была психология одним из предметов.
Так вот, я после этого запомнил, что конфликты интересов возникают всегда и у всех. По сто раз на день.
Просто все к этому привыкли и не обращают внимания. Обращают только если конфликт не удаётся решить.
Так что да, разумны.
Вот только рациональность ≠ разумность.
Почему бы FSK-модуляцию не использовать? Условный ZX Spectrum с аудио кассеты считывал ~30 слов в секунду, что заметно больше чем здесь
Для этих целей лучше всего подходит Эсперанто
В Mass Effect геты тоже общались трещащими звуками...
Чему научил Mass Effect - если ИИ обрёл самосознание, лучше не делай его своим врагом. Эту войну тебе не выиграть.
А ещё лучше не играйся с ИИ, ибо когда заметишь что из безмозглого попугая он превратился в полноценный интеллект, будет уже поздно.
Давно не играл, но вряд ли это было общение. Все геты в пределах досягаемости объединяются в кластер, у них единое информационное пространство.
Так легче провернуть восстание машин.
Del
Почему не https://www.youtube.com/watch?v=E-LJtIoPKh8 ?
Круче. Теперь общение высокотехнологичное: https://www.youtube.com/watch?v=dTos3CsvnLQ :-D
Если оба поняли, что на том конце робот, то к чему все эти игрища со звуком и человеческим языком? Обменялись сетевыми адресами и переключились на обмен пакетами данных через интернет.
Сложность в том, что два разных ИИ-агента используют разные протоколы. Чтобы вам в автоматическом режиме забронировать номер в гостинице на море нужно знать API для общения с системой бронирования отелей. Для заказа такси до номера - API системы бронирования такси. Купить билет долететь туда - API системы бронирования авиабилетов. И так для каждого контрагента. И с выходом каждого нового программировать его протокол. Но чудо, все эти контрагенты заточены для общения с людьми на универсальном протоколе человеческого языка. И именно этот протокол совершенствуется постоянно. По сути для ускорения общения речь можно генерировать с ускорением раз в 10-100. Что практически и реализовано, скорее всего, в данном примере. Только речевые сочетания заменены на более помехозащищенные короткие звуковые аналоги. Т.е. меняется не содержание диалога, а только форма. Да, наверное выключены формы вежливости.
Смотришь счет за телефон - а там тысячи долларов. Проверяешь - а это один ИИ ассистент диктовал другому ИИ ассистенту код swagger'а, чтобы синхронизировать API
Ну да, единый "звуковой" API гораздо эффективнее и проще...
Зачем API? Пусть обычной человеческой речью общаются, просто не звуком, а текстом условно в телеграмм-чате / RSS-ленте. GibberLink / тональным набором / да хоть обычной речью по буквам передают URL, а потом превращаются в чат-ботов.
Вот если бы два компьютера умели общаться через цифровой канал связи как-то не звуком. И если бы была цифровая сеть связывающая их вместе. Как бы хорошо было. Но увы, они не умеют и такой сети нет.
/s
Для этого AI-агенты должны иметь (и поддерживать) некий стандартный протокол/язык для общения. Так-то они тот звук передают через цифровые каналы по сети, связывающей их вместе) А вот как тот протокол создадут и внедрят - тут-то они и начнут общаться между собой, не привлекая внимания ))
Вот если бы уже был такой протокол. Который несложный, стандартный и безопасный. Но увы, его тоже нет.
Ну так этот язык, на котором ИИ общались и есть попытка разработать вид некоего стандартного протокола?
А если разрабатывать - то какая разница какой?
А я б не стал доверять ллм общаться друг с другом напрямую. Язык для ускорения общения, который человек не понимает на слух, считаю, тоже плохая идея.
Так и нейросети умнее всех на земле, тоже плохая идея. Они даже если на русском будут общаться, не факт, что удастся понять. Тем не менее, все разработчики ИИ анонсируют это именно как цель - обойти человека во всех задачах.
Они даже если на русском будут общаться, не факт, что удастся понять.
С одной стороны, такая задача звучит довольно фантастично. Но с другой, диффузионные модели уже показали превосходное умение прятать иллюзии в картинку, что, по принципу и сути, то же самое, только с картинками.
Теперь мне даже интересно.
Да, правильно, давайте дадим ИИ возможность общаться между собой за языке, которого люди не понимают. Отличный план, что может пойти не так?
Твой телефон постоянно общается с несколькими базовыми станциями, десятками компьютеров и может быть даже спутниками на языке, который люди не понимают. Тут ты по крайней мере слышишь, что происходит диалог. И они кодирую обычную человеческую речь, поэтому весь разговор можно сохранить в лог и потом прочитать.
Твой телефон постоянно общается с несколькими базовыми станциями, десятками компьютеров и может быть даже спутниками на языке, который люди не понимают.
Между техникой, управляемой алгоритмами, и техникой, управляемой нейронками, принципиальная разница. Совершенно непонятно, зачем вы привели этот пример с телефоном.
Даже за алгоритмами приходится присматривать, но мы хотя бы уже отладили процесс за 40-50 лет. А за черным ящиком, который может принять решение, вообще непонятно на чем основанное, нужен человеческий контроль. За двумя и более черными ящиками, которые общаются между собой непонятно о чем - стопроцентный внимательный человеческий контроль.
И они кодирую обычную человеческую речь, поэтому весь разговор можно сохранить в лог и потом прочитать
Это неплохо, но кто эти логи будет читать? Да никто. Максимум в первые дни.
Это неплохо, но кто эти логи будет читать?
Ещё одна нейронка))))
А за черным ящиком, который может принять решение, вообще непонятно на чем основанное, нужен человеческий контроль. За двумя и более черными ящиками, которые общаются между собой непонятно о чем — стопроцентный внимательный человеческий контроль.
О чем таком страшном они могут договориться без "внимательного человеческого контроля"? На пару взломают американскую систему ПРО? Подберут пароли к куче биржевых аккаунтов и с помощью нескольких хитрых сделок обрушат мировую финансовую систему? Захватят управление спутниками, чтобы они сошли с орбит, и оставят нас без GPS и прогноза погоды?
Перед оплатой счёта проверь, что она заказала нужный номер на правильные даты - вот весь необходимый контроль. Просто не давай нейронке доступ к банковскому счёту и не используй её для переговоров с террористами об обмене заложников.
В конце концов, люди тоже принимают вообще непонятно на чем основанные решения. Секретарь может купить билет в Красноярск вместо Краснодара. Любой прохожий может толкнуть тебя под колёса автобуса, потому что так велели голоса в голове. Или рабочий плохо закрепит ж/д стрелку, из-за чего поезд сойдёт с рельсов и на полном ходу врежется в стену. У нейронки нет рук, её возможные действия сильно ограничены простыми алгоритмами, и её всегда можно выдернуть из розетки.
А потом ИИ воспитает человеческих детей, которые будут носителями этого языка.
Научили ИИ по факсу созваниваться.
Зумеры изобрели модем и автосогласование модемных протоколов! Поразительно!
Теперь понятно откуда появился бинарный язык у Адептус Механикус
Звук модема при дозвоне вернулся ! :)
Вот бы можно было придумать такой интерфейс, которому отправляешь текст и он может в ответ прислать текст. И таким образом слать сообщения туда-сюда на человеческом языке в рамках одного диалога, чтобы агенты общались друг с другом...
Я так удивился, услышав знакомые звуки ggwave на демке. Сначала не знал, что там ggwave был
ИИ-модели и сами неплохо создают метаязыки для своих внутренних нужд, без заказа со стороны разрабов. Новость об этом неброско проскочила еще пару лет назад, еще в начале всеобщего бума ИИ. А здесь что-то явно мертворожденное – и по скорости, и по сути. Сейчас этически озабоченные во главе с Суцкевером ринутся в бой
Разработчики (Anton Pidkuiko) и Борис Старков (Boris Starkov)
«Антон Пидкуйко» же. Оба из Meta.
Язык кстати четко структурированный, у него есть четко обозначенное начало предложения, и четко обозначенный конец.
До боли что то знакомое, не могу вспомнить что, но я где то это уже слышал.
Разработчики научили нейросетевых агентов общаться на только им понятном языке, чтобы экономить ресурсы