Как стать автором
Обновить

Комментарии 74

Человек имеет ту же проблему:

– Какого цвета бумага?

– Белая.

– Какого цвета унитаз?

– Белый.

– Какого цвета снег?

– Белый.

– Что пьёт корова?

– Молоко...

Просто у человеческой сети есть второй шанс а у искусственной нет. Точнее, если попросить ее подумать получше, то она тоже поправится как человек

Возможно, что у человека просто больше нейронов,

лучше организована сеть

и более длительный и качественный процесс обучения.

Возможно у человека просто отсутствует 0 и 1.

В ллм тоже отсутствует 0 и 1

Да ладно))) Транзисторы умеют что-то ещё помимо 0 и 1?

Да ладно))) Транзисторы умеют что-то ещё помимо 0 и 1?

Вот транзисторы — точно умеют.

Да, но по факту в основе всех компьютеров 0 и 1.

Головной мозг человека работает на основе электрохимических сигналов. И Бог знает чего ещё.

Да, но по факту в основе всех компьютеров 0 и 1.

Но, тем не менее, компьютеры умеют что-то ещё, помимо 0 и 1.

Головной мозг человека работает на основе электрохимических сигналов. И Бог знает чего ещё.

Алгоритмам — все равно, на основе чего работать, они — нематериальны.

НЛО прилетело и опубликовало эту надпись здесь

Проведите те-же самые исследования над случайно взятыми людьми - убедитесь, что множество людей только имитируют мышление.

А некоторые даже не имитируют.

В чем цель подобных мизантропических выпадов?

Потому что если студент заучил тему и не понимает что он говорит, то мы скажем "он разумен, просто он не хочет учиться". А если AI сделал то же самое, мы говорим "он на самом деле лишь иммитирует мышление". Это не научно. Почему не считать, что со студентом и AI происходит в точности одно и то же.

Почему не считать, что со студентом и AI происходит в точности одно и то же.

Дело в том, что студент может заучить и не понимать, а может и понять.
А AI понять не может.

Другими словами, студент может имитировать мышление, как и AI.
Но ещё студент может и мыслить, чего AI уже не может.

Вот, где разница.

Книжка не понимает то что в ней написано, это да. Но книгу сколько не читай, там всегда все объясняется одними и теми же словами. А AI правильно отвечает на вопрос поставленный в любой форме и с любой стороны. Это означает, что в связях закодированы не просто слова а именно "понимание", в том смысле что идеи и концепции существуют там отдельно от слов в виде некий связанных образах и могут выражаться любыми словами по необходимости.

Если пойти дальше, то "понимание" в более сильном смысле означает, что агент может использовать понимание чтобы строить некие стратегии достижения неких поставленных целей. Например, школьник может уметь решать задачики, но при этом может не осилить применение математики для достижения неких реальных целей, если он "не понимает" математику достаточно хорошо.

И здесь с построением стратегий у AI пока плохо. Но плохо в основном потому что решение вычисляется в один проход, и пока никто не знает как построить сеть, которая могла бы итерационно обдумывать ситуацию для выбора наиболее выгодной стратегии действий. Т.е. сеть "понимает" только в той степени в которой понимает человек у которого секунда на принятие решения. Если у человека больше времени, то такое понимание архитектура уже не позволяет пока воспроизводить.

Книжка не понимает то что в ней написано, это да. Но книгу сколько не читай, там всегда все объясняется одними и теми же словами.

Это, если прочитана только одна книга.
А если прочитано огромное количество разных книг, и в каждой объясняется своими словами, отличными от слов в другой книге?

А AI правильно отвечает на вопрос поставленный в любой форме и с любой стороны.

В статье как раз приведён пример, опровергающий это утверждение.

Как только пять киви стало по размеру меньше среднего, так сразу ответ стал неправильным, потому что сети стало интуитивно казаться, что размер обязательно должен повлиять и на количество, видимо, потому, что размер и количество — родственные понятия.

Для чистой интуиции это — вполне адекватный ход, здесь её даже не в чем упрекнуть.

Это означает, что в связях закодированы не просто слова а именно "понимание"

В связях нечто закодировано, но почему это — именно понимание?
Почему не чувствование, как у очень опытного в какой-то области человека?

Если пойти дальше, то "понимание" в более сильном смысле означает, что агент может использовать понимание чтобы строить некие стратегии достижения неких поставленных целей. Например, школьник может уметь решать задачики, но при этом может не осилить применение математики для достижения неких реальных целей, если он "не понимает" математику достаточно хорошо.

Однотипные задачки школьник может решать на интуиции, то есть, вообще без привлечения интеллекта к процессу, если он предварительно научился их решать и прорешал какое-то их количество.

С пониманием самого понимания, что это такое, насколько я понимаю, есть проблемы, как ни тавтологично звучит эта фраза. Трудно говорить о предмете без понимания этого предмета.

И здесь с построением стратегий у AI пока плохо.

Логично, ибо I — это Intuition, а не Intelligence.

Но плохо в основном потому что решение вычисляется в один проход, и пока никто не знает как построить сеть, которая могла бы итерационно обдумывать ситуацию для выбора наиболее выгодной стратегии действий.

Последние версии как раз многопроходные, в частности, gpt-4o, но это улучшило лишь качество интуиции, интеллекта это не добавило.

Т.е. сеть "понимает" только в той степени в которой понимает человек у которого секунда на принятие решения.

Если речь о секунде, то мы рассматриваем интуицию, а не интеллект.
Интеллект за секунду мало, что может.

Поэтому сеть не "понимает", а "чувствует".

Если у человека больше времени, то такое понимание архитектура уже не позволяет пока воспроизводить.

Потому что у сети архитектура интуиции, а не интеллекта.
А у человека наличествуют обе составляющие, у него есть и то, и другое.

Поэтому человек может не только чувствовать (интуиция), но и понимать и мыслить (интеллект), хоть на это и требуется значительно больше времени и усилий, а сеть этого не может принципиально, потому что у неё наличествует функциональность лишь интуиции, но (пока) нет функциональности интеллекта.

А если прочитано огромное количество разных книг, и в каждой объясняется своими словами, отличными от слов в другой книге?

Это предположение хорошо опровергается после нескольких месяцев программирования с AI. В комбинаторике сплошные факториалы. Много книг это все еще исчезающе малое количество от всех возможных вариантов изложения идеи. Но AI поймет суть и объяснит в подходящих словай как бы вы не спрашивали. Посчитать сложно, но выглядит все именно так, что книги свернулись в единое понимание и именно оно используется когда задается вопрос.

В статье как раз приведён пример, опровергающий это утверждение.

Это просто когнитивное искажение у AI, такое же как в моем первом сообщении с коровой которая пьет молоко (а не дает его). Если попросить AI подумать получше, он ответит правильно.

Поэтому человек может не только чувствовать (интуиция), но и понимать и мыслить (интеллект), хоть на это и требуется значительно больше времени и усилий, а сеть этого не может принципиально, потому что у неё наличествует функциональность лишь интуиции, но (пока) нет функциональности интеллекта.

Это плохая идея, клеить слова суть которых ясно не определена к мышлению человека и AI (интуиция, интеллект). Лучше смотеть что сеть может или не может.

Сеть AI может упаковать знания в связанную схему образов, чтобы извлекать из нее нужный ответ. Это довольно очевидно. И точто то же может делать мозг.

AI подвержен определенным искажениям, это тоже факт, но мозг вообще не умеет решать логические задачи или формировать программный код в один проход по нейронам. Так что здесь искажения вполне ожидаемы.

Сеть AI не может создать стратегию руководствуясь какими-то общими мотивациями. Архитектура этого не позволяет, это тоже факт. Это можно частично имитировать итерационными промтами, но это не то как работает мозг.

Это предположение хорошо опровергается после нескольких месяцев программирования с AI.

Это может быть проявлением всего лишь недостаточной начитанности AI в какой-то области.

Много книг это все еще исчезающе малое количество от всех возможных вариантов изложения идеи.

А все возможные и не обязательны.

Но AI поймет суть и объяснит в подходящих словай как бы вы не спрашивали.

Внешне выглядит так, как будто поймёт.

Посчитать сложно, но выглядит все именно так, что книги свернулись в единое понимание и именно оно используется когда задается вопрос.

Вот видите, вы тоже формулируете как "выглядит всё именно так".
Выглядит.

Единое понимание выражалось людьми, которые понимали и, в целом, понимание у них было достаточно единое.

И понимание это выражалось в текстах, которые использовались как истина в последней инстанции для обучения AI.

Теперь AI чувствует и выдаёт результат, но в результате выражено то понимание, которое люди, написавшие тексты, вложили в них.

Это — не понимание самого AI.

От AI здесь — лишь чувствование, какие части просмотренных текстов и как скомпоновать, чтобы получалось максимально похоже на то, как это у людей получается (по самой сути обучения, когда предсказывается следующее слово, чтобы результат был достаточно близок к тому, как оно в текстах у людей бывает).

Если попросить AI подумать получше, он ответит правильно.

AI может ответить правильно и если перегенерировать ответ.
Или если изменить параметры AI, влияющие на генерацию.

Это плохая идея, клеить слова суть которых ясно не определена к мышлению человека и AI (интуиция, интеллект).

Если не использовать хотя бы то неясное понимание, которое уже есть, то тогда вообще становится не о чем говорить.

Лучше смотеть что сеть может или не может.

И не просто, что она может или не может, а — как она может, и каковы наблюдаемые свойства там, где не может.

Сеть AI может упаковать знания в связанную схему образов, чтобы извлекать из нее нужный ответ.

Причём, извлекать сразу, безо всякого предварительного "обдумывания" и предварительного "понимания" вопроса.

А такими свойствами обладает только интуиция, интеллект так не может.

Это довольно очевидно.

Мне тоже очевидно, но — с теми дополнениями, которые я выше привёл.

И точто то же может делать мозг.

Может, потому что он поддерживает, кроме прочего, механизм интуиции.

AI подвержен определенным искажениям, это тоже факт, но мозг вообще не умеет решать логические задачи или формировать программный код в один проход по нейронам.

Мозг не умеет решать интеллектом, чтобы было в один проход.

Но интуицией — это запросто: необходимо лишь сначала до одурения писать вариации на одну и ту же тему, после чего появится способность писать нужную вариацию в один проход, причём, вообще не привлекая интеллект, чисто на ощущениях, типа "мне кажется, что вот так надо написать".

Так что здесь искажения вполне ожидаемы.

У человека будут очень похожие искажения, если он поступит, как я написал выше, и попробует писать в один проход полностью на интуиции.

Сеть AI не может создать стратегию руководствуясь какими-то общими мотивациями. Архитектура этого не позволяет, это тоже факт. Это можно частично имитировать итерационными промтами, но это не то как работает мозг.

Прихожу к тому же выводу что и раньше: сеть AI может только в интуицию, а мозг может как минимум и в интуицию, и в интеллект.

То есть, мозг может и как AI, а может ещё и не как AI, а AI так уже не может.
Это — не совсем то же самое, что и "это не то, как работает мозг".

Вы придумали свои собвтвенные понятия "интуиция" и "интеллект", за которыми стоит только некое ваше субъективное переживание, которое некак формально не объясняется и не может быть частью рационального знания.

Но на самом деле все гораздо проще. Нет ни интуиции, ни интеллекта, есть только нейронные сети и математика. Схема работы AI сейчас минимальна - это один проход по сети для следующего слова. Мозг человека тоже умеет работать в таком режиме: разбуди профессора ночью и задай вопрос на который он в разных вариациях миллион раз отвечал студентам, или задачу из тех что он решал миллион раз, и получишь быстрый ответ в реальном времени без размышлений и даже возможно он не проснется полностью. При этом в его голове будет происходить в точности то что происходит в AI, судя по всему: генерация следующего слова по предыдущей речи в один проход по нейронной сети.

Профессору конечно доступен и другой режим работы, когда его сеть итерационно продвигается к требуемой цели. Этот режим пока недоступен. Вы можете называть эту ситуацию "остуствием понимания", "интуицией", "интеллектом", это не меняет сути.

Вы придумали свои собвтвенные понятия "интуиция" и "интеллект", за которыми стоит только некое ваше субъективное переживание,

Они — не собственные, их свойства — объективны.

которое некак формально не объясняется и не может быть частью рационального знания.

Когда формально объяснят полностью, тогда и станет частью рационального знания.

Однако, нельзя, не зная, сначала формально объяснить и сделать частью рационального знания, а потом исследовать.

Это — последовательный итерационный процесс, в начале которого ещё нет формализации, но это не мешает продвигаться в исследовании.

Но на самом деле все гораздо проще. Нет ни интуиции, ни интеллекта, есть только нейронные сети и математика.

У разных архитектур сетей — разные свойства.
Вы здесь предлагаете не делать подобного разделения.

Схема работы AI сейчас минимальна - это один проход по сети для следующего слова.

При этом используется вполне определённая архитектура.
Пока не нащупали эту архитектуру, получалось — не очень.`

Мозг человека тоже умеет работать в таком режиме: разбуди профессора ночью и задай вопрос на который он в разных вариациях миллион раз отвечал студентам, или задачу из тех что он решал миллион раз, и получишь быстрый ответ в реальном времени без размышлений и даже возможно он не проснется полностью. При этом в его голове будет происходить в точности то что происходит в AI, судя по всему: генерация следующего слова по предыдущей речи в один проход по нейронной сети.

Наверное, всё-таки, не в точности, но свойства "движка" обнаруживаются довольно похожие, вплоть до явления галлюцинаций.

И этот режим соответствует интуиции.

Профессору конечно доступен и другой режим работы, 

Верно, доступен, и он соответствует интеллекту.

когда его сеть итерационно продвигается к требуемой цели.

И не просто итерационно продвигается, а таким образом, что рождается новое качество — понимание, которое затем можно применять.

Этот режим пока недоступен.

Да, пока ещё не нащупали архитектуру, которая даёт результат, близкий по свойствам к человеческому интеллекту.

Но, наблюдая за человеком, можно прогнозировать, что интеллект потребует куда более серьёзных вычислительных ресурсов, нежели интуиция.

Вы можете называть эту ситуацию "остуствием понимания", "интуицией", "интеллектом", это не меняет сути.

Верно, не меняет, но позволяет не смешивать всё в одну кучу.

Вы же прекрасно оперируете "двумя режимами", несмотря на отсутствие строгой формализации понятий.

Они — не собственные, их свойства — объективны.

Вот эта фраза - единственная причина по которой я продолжал спорить. В остальном мы пишем в своих сообщениях почти одно и то же. Объективные свойства - это когда мы говорим что конкретно AI может за счет каких внутренних механизмов он это может. Не нужно искать в нем квалиа, душу, сознание, разум, интуицию, ощущение зеленого цвета и прочий субъективный опыт, как все пытаются.

Не нужно искать в нем квалиа, душу, сознание, разум, интуицию, ощущение зеленого цвета и прочий субъективный опыт, как все пытаются.

Ощущения (квалиа), сознание и душу пока, действительно, рановато искать, а вот интуицию и интеллект — уже пора.

Без этого всё будет намного дольше и труднее, и будет в куда более значительной степени зависеть от удачи.

Суть здесь в том, что и первые и вторые вещи искать никогда не пора. По той причине что они не существуют как некие качества или объекты, которые можно выделить и изучать. Существует только набор оъективных оценок - какого рода задачи AI уже может решать а какого еще нет. А так же существует понимание механизмов как эти задачи решаются.

Суть здесь в том, что и первые и вторые вещи искать никогда не пора.

Те, кто упорно не будет искать того, что уже можно, просто останутся позади тех, кто будет.

Правда, слово "искать" здесь неточное, скорее, уточнять свойства и понимать, каковы возможности и пределы.

По той причине что они не существуют как некие качества или объекты, которые можно выделить и изучать.

Посылка для этого вывода — какая-то несерьёзная.

Существует только набор оъективных оценок - какого рода задачи AI уже может решать а какого еще нет. А так же существует понимание механизмов как эти задачи решаются.

Чтобы сделать оценки, необходимо понимание свойств механизмов и идентификация самих механизмов, но вы говорите, что их искать никогда не пора.

Если есть понимание, что архитектура LLM в принципе неспособна на интеллект, то усилия сосредотачиваются в попытках найти другую архитектуру, которая могла бы реализовывать интеллект.

Если нет — усилия сосредотачиваются на усовершенствовании LLM, что, очевидно, в силу свойств LLM, не приведёт к появлению интеллекта, и поэтому его создание отсрочивается на неопределённое время.

Я думаю, что следует подождать, когда рано или поздно осуществится следующий прорыв, как он осуществился уже с LLM, но только уже в сторону настоящего интеллекта.

Тогда и будет понятно, пора было те вещи искать или нет.

Если прорыв осуществят именно те, кто искали, нашли и воспользовались найденным, то значит, было пора.

Те, кто упорно не будет искать того, что уже можно, просто останутся позади тех, кто будет.

Наоборот. Те кту будут упорно искать то что не существует, останутся позади тех кто будет искать то что существует.

Примерно как средневековые ученые, которые искали бога и разумный замысел во всем в то время как надо было тупо записать уравненения.

Если есть понимание, что архитектура LLM в принципе неспособна на интеллект

Здесь лишнее слово "интеллект". "Интеллект" это то как то что я делаю выглядит изнури моего разума. А нужно оперировать вещами которые мы рассматриваем снаружи.

Если прорыв осуществят именно те, кто искали, нашли и воспользовались найденным, то значит, было пора.

Точно не они. Нужно просто найти способ обучения, который позволить научить сеть-агента, которая активно планирует действия для удовлетворения мотиваций. Чем все и занимаются вроде.

В крайнем случае нужно подвести теоретическую базу под подобное поведение. Пока она есть только в части задач распознавания по сути.

Наоборот. Те кту будут упорно искать то что не существует, останутся позади тех кто будет искать то что существует.

Примерно как средневековые ученые, которые искали бога и разумный замысел во всем в то время как надо было тупо записать уравненения.

Зачем искать то, чего не существует?

Слово "искать" здесь — неточное: уточнять свойства и понимать, каковы возможности и пределы.

Здесь лишнее слово "интеллект". "Интеллект" это то как то что я делаю выглядит изнури моего разума. А нужно оперировать вещами которые мы рассматриваем снаружи.

Однако, несмотря на разницу изнутри и снаружи, логично воспользоваться пониманием, идущим изнутри, что интеллект — это не просто хитро накрученная интуиция.

Возможно, снаружи интеллект и будет выглядеть неожиданно, но, в любом случае, он будет кардинально отличаться от интуиции.

Точно не они. Нужно просто найти способ обучения, который позволить научить сеть-агента, которая активно планирует действия для удовлетворения мотиваций.

А если это принципиально невозможно в рамках данной архитектуры, как невозможно найти точку пересечения параллельных прямых?

Чем все и занимаются вроде.

Вот и плохо, пора бы уже делом заняться, а не поиском точки пересечения параллельных прямых.

Не совсем так. Да, закодированы комплексно связанные вектора, которые куда больше похожи на концепции, чем на прямую запись. Но это всё ещё запись, которая не подвергается сомнению в процессе ответа.

Пример про белое и молоко выше хорош. Он показывает как раз активацию ассоциированных связей. Но если НС лишь из них состоит, то человеческое сознание предлагает куда более широкий инструментарий.

> в один проход
Уже нет. Сейчас как раз внедрили разбор по шагам и повторные прогоны. Итог:

НЛО прилетело и опубликовало эту надпись здесь

"выйдите на улицу, взгляните, как много вокруг тупых имитирующих мышление людей" - это никакой не аргумент

Сравнить человека с LLM - не мизантропия. Просто противники ИИ каждый раз поднимают планку, что бы «обосновать» якобы фундаментальное преимущество людей над железом. Но с каждым пройденным рубежом это будет всё сложнее.

Сравнить человека с LLM - не мизантропия

о подобном сравнении речи не было

противники ИИ

почему противники? или вы записываете в противники ИИ всех, кто скептично относится к предположению, что llm обладают какой-либо формой мышления?

Они так делают не потому, что не могут, а по другой причине:

2 процента людей — думают, 3 процента — думают, что они думают, а 95 процентов людей лучше умрут, чем будут думать.

Джордж Бернард Шоу.

Нет, этот эффект характерен именно для сеток. Человек как раз на такие вариации вопросов внимания не обратит.

Адово плюсую, например.
Достаточно быть не тупым и немного пообщаться с человеками. Полно людей, которые руководствуются лишь паттернами, нередко инициированными извне. Некоторые не могут выйти за рамки даже при угрозе их жизни.

Ранее исследователи выяснили, что большие языковые модели, такие как GPT-4o и Claude, не могут правильно подсчитать число букв «r» в слове «strawberry». 

Видел пост, где люди выкладывали результаты попыток получить от LLM слово с двумя буквами Ы. Получилось примерно то же самое.

Скрытый текст

УМВР

а они этого почти не умеют, потому что токен больше, чем буква или сочетание букв

вероятно, LLM «рассуждают»

Даже такая формулировка звучит слишком сильно для алгоритма предсказания последующего наиболее вероятного символа

Если мы возьмём толпу добросовестных фрилансеров, дадим им установку, что они цифровые помощники и будем просить продолжить текст на одно слово, то можем ли назвать такую систему "алгоритм предсказания последующего наиболее вероятного слова"?
Можем ли мы сказать, что за такой системой нет мышления?

У нас нет другого выхода, если только не начать называть мышлением "алгоритм предсказания последующего наиболее вероятного слова"

Хороший вопрос. Можно ли сказать, что наличие мышления в элементах, образующих систему, не гарантирует наличия мышления у системы в целом?

Если это так, тогда можно сказать, что даже если llm мыслит, то мы этого никогда не узнаем, т.к. у нас интерфейс ввода/вывода неудачный. Т.к. за этим интерфейсом, даже люди (а мы соглашаемся, что люди мыслят) не продемонстрируют мышления.

В данном случае мы можем говорить об отсутствии такого общего свойства лишь потому, что не обнаружили его тестированием. То есть показали, что точечная работа (предсказание следующего) есть, а глобальной работы с представлением структуры задачи — нет. Но на данный момент многопроходные нейронки, у которых уже под капотом зашиты команды на вычленение условий задачи, справляются с решением.
Так что вполне возможно, мы видим зарю машинного мышления. Пусть и не особо развитого.

Вот прям обнял!

Я иногда думаю: может, коронавирус не прошёл для человечества бесследно? Торговые войны, обычные войны, «научные» «исследования» «искусственного интеллекта».

ничего страшного, многие люди тоже только имитируют мышление ¯\_(ツ)_/¯

LLM, как и прочие нейронные сети накапливают знания в связях. Активация просто формирует выходной сигнал - достаточно ли этого для на мышления и на каких объемах таких связей формируется мышление - это вопрос.

Кроме того, мозг - штука, в общем-то трехмерная, а нейросеть - в подавляющем большинстве случаев, двухмерная и без высокой специализации - решает одну задачу, в этом суть.

Таким образом, мы точно можем быть уверены что в нейросети повторяют некие структуры мозга, но есть и такие структуры, которые нейросети еще не повторяют.

Т.е. тут может быть два исхода:

  • при развитии архитектур NN сознание возникнет само собой (вероятно);

  • не возникнет (кризис ИИ, требующий более детального анализа структур мозга - 3d-сканирование, реконструкция, более сложные типы нейронов).

Кроме того, мозг - штука, в общем-то трехмерная, а нейросеть - в подавляющем большинстве случаев, двухмерная 

Как раз наоборот. Кора мозга довольно тонкая, а значит двумерная. Полносвязанные слои искусственной нейронной сети напротив не ограничены никаким физическим пространством и могут иметь абсолютно любую конфигурацию.

Ну не в один же нейрон :)

Структура нейронных связей в головном мозге человека топологически может быть описана как многомерная (с математической точки зрения), хотя мозг физически трехмерный объект. Не вдавался в подробности, но скорее всего LLM тоже не совсем двухмерные

Это наблюдение согласуется с другими качествами, часто приписываемыми LLM. Так, на фразу «Я люблю тебя» обычно следует ответ «Я тоже тебя люблю», но это не значит, что ИИ испытывает чувства. Хотя он может следовать сложным цепочкам рассуждений, с которыми сталкивался ранее, цепочка может быть разорвана даже поверхностными отклонениями, а это говорит о том, что ИИ на самом деле воспроизводит закономерности, которые наблюдал в своих обучающих данных.

Не понял, где тут отличие от мясных компьютеров.

Отличие хотя бы в том, что человек может дать огромное множество ответов в зависимости от разных причин (я тоже, а я нет, а я тебя, извини, мне жаль, не обижайся, серьёзно?, правда?, и я тебя люблю и ещё сотни вариантов), а LLM просто даст наиболее часто встречающийся ответ.

А с какой целью? Пока LLM не может делать хорошо ничего полезного, кроме поиска. Вы можете предложить какие-то другие способы применения LLM? Читала, что некоторые приложения могут писать SQL-запросы. Простые - возможно. Сложные - вряд ли. В них сложная логика, а с этим как раз у LLM проблемы. Есть данные, что они выдают не больше 69% правильных ответов. Мне лично такой инструмент не нужен.

Помнится, в Blindsight "вампиры" тоже только имитировали наличие сознания. Но они это делали ОЧЕНЬ убедительно, и в конечном итоге вытеснили людей с вершины пищевой пирамиды.

Как я понял автора, он считает что все психопаты имитируют наличие сознания ради выживания в социуме.

Не понимаю, зачем люди ставят логические задачи перед системой, которая по сути предсказывает следующее слово в тексте. Это китайская комната, она не может рассуждать.

Не ну так вы слона не продадите, особенно за охренеарды долларов.

Китайская комната может всё. Но не придирайтесь к её внутренней сути, смотрите по результатам.

Я дома по вечерам обучаю пятилетнюю естественную нейросеть читать. Вот знаете, она прекрасно говорит, выдает в устной речи сложные деепричастные обороты, демонстрирует отличное логическое мышление. Но вот с подсчётом числа букв в слове пока есть сложности. Но мы справимся.

Для подсчёта числа букв нужно не умение рассуждать, а определённый объём оперативной памяти и произвольное внимание. С этим у всех пятилеток обычно проблемы, но с возрастом это пройдёт. :)

Потому что он нашёл этот ответ в одной из статей про LLM на Хабре :)

Эта проблема уже похоже преодолена и информация с статье устарела. Сейчас все варианты моделей дают правильный ответ.

Да нет в ЛЛМ никакого ИИ. Там даже нет пространственного мышления и абстрагирования, потому что просто ему некуда там взяться. Я уже молчу про работу лобных долей, где у людей выбирается по какому пути мышления идти простому или сложному. Да блин, тут даже слуховую кору пока никто не смог нормально повторить, которая проще и умеет автоматически подстригаться под шум.

ЛЛМ это совсем про другое. Это маленький кирпичик, являющийся возможно частью будущего ИИ.

Всё это напоминает мне 50-60ые года и уран, когда его использовали в конструкторах детских, косметике, пише, врачебное облучение, в аксессуарах и тд. И стоял такой же хайп..

И уран и ЛЛМ важные шаги, меняющие отрасль. Но называть это ИИ, как обещать уже завтра сделать термоядерный синтез который обеспечит бесплатной энергией.

Хрен с этим маркетингом. Он всегда был. Одно не пойму, люди реально верят что там ИИ или будет ИИ на этом. Или же просто считают, что это тренд на котором надо заработать и поэтому готовы сказать, что там уже сверх ИИ.

Действительно, отсутствие истинного логического рассуждения в моделях вызывает вопросы о том, как мы можем использовать ИИ в будущем. Забавно, что такие сложные системы не могут справиться с задачами, которые ребёнок решит интуитивно. Интересно, что для улучшения результатов могут понадобиться более точные подсказки. В любом случае, нам ещё предстоит много узнать о том, как эти технологии развиваются и где их настоящие границы.

Топорный пример. Яндекс тоже самое отвечает без фразы "Размеры яблок не влияют на количество". Я не сторонник теории заговоров, да и мысль не моя, но такое подозрение, что от apple сейчас выйдет LLM "Антоновка", которая думает логически, может угадывать желание юзера по логам телефона и еще прекрасно гадает на картах таро и по о face ID

Хрен с этим маркетингом. Он всегда был. Одно не пойму, люди реально верят что там ИИ или будет ИИ на этом. Или же просто считают, что это тренд на котором надо заработать и поэтому готовы сказать, что там уже сверх ИИ.

Хм, ну есть варианты:

  • являешься зачинателем и явным выгодополучателем текущего хайпа

  • стоишь гдето рядом, можешь поддержать хайп и получить часть крошек с барского стола

  • стоишь достаточно далеко от кормушки, но можешь (позволить) убедить себя в ожидаемом чуде, чтобы получить некое социальное одобрение и/или приятные иллюзии

  • живешь в тайге тебя это просто мало касается

  • впрямую сталкиваешься с обьективными противоречиями/недостатками распиаренного нечто и дистанцируешься от них - дада, все хорошо прекрасная маркиза, но я как-нибудь по старинке, проверенными и непротиворечивыми подходами

  • принадлежишь к любой из вышеперечисленных категорий, но истина дороже надеваешь латы ДонКихота и идешь дискутировать с сектантами первых трех категорий сражаться с ветряными мельницами, в надежде что тебя аргументированно переубедят, ну или посмертно реабилитирут, лет через сто после того как затопчут.

И какое же будет средневзвешенное мнение при таких исходных? Особено при том, что первая категория самая влиятельная, а СМИ такие независимые.

Какой же пример привести, чтобы поменьше сагрить очередные чуства чуствующих или обладателей единственно правильного мнения?
Ну пусть будет СССР, его все еще модно зачем-то пинать. Какой там был процент верящих в светлое социалистическое будущее в достаточно оптимистичные и вольные 60-е годы, после всех пережитых трудностей?

Правильно название исследования должно звучать так: что-то что мы ещё не до конца понимаем как работает, кажется всего лишь имитирует то, что мы ещё не до конца понимаем как работает.

И более того, "... чему мы никак не можем дать строгого определения". Пока что все крутится вокруг того, что "сознание/мышление/интеллект - это такая штука, которая есть у людей, но нет у компьютера" 🤷🏼‍♂️

основная идея материала — ИИ не умеет думать как человек, а лишь имитирует мышление.

Долго они к этому подходили, долго.

По словам исследователей, это говорит о том, что ИИ на самом деле вообще не понимает сути задачи.

Верно, не понимает, — ИИ её чувствует.

Обучающие данные позволяют моделям отвечать правильно в некоторых ситуациях, но как только требуется малейший элемент «рассуждения», они начинают выдавать странные инеинтуитивные результаты.

Результаты, как раз, интуитивные.

Хотя он может следовать сложным цепочкам рассуждений, с которыми сталкивался ранее, цепочка может быть разорвана даже поверхностными отклонениями, а это говорит о том, что ИИ на самом деле воспроизводит закономерности, которые наблюдал в своих обучающих данных.

Хорошее наблюдение, но почему так долго?
Некоторые неспециалисты открыли это для себя ещё год назад.

Другой специалист из OpenAI возразил против сделанных выводов, заявив, что других результатов можно было достичь с помощью небольшой подсказки.

Напоминает когнитивное искажение, когда трудно отказаться от ранее сделанного выбора, потому что тогда придётся признать его ошибочность, а в доминирующих культурах это — признак слабости, это — стыдно, поэтому очень хочется этого избежать.

Поэтому, вероятно, LLM «рассуждают», но таким способом, который пока непонятен исследователям.

Да, мозг весьма изобретателен в том, чтобы оправдать непризнание ошибки.
Порой просто диву даёшься, насколько он изобретателен.

Но ИИ — это Искусственная Интуиция.

Поэтому ИИ, когда она отвечает... ей просто кажется, что она отвечает правильно.
То есть, она отвечает так, как чувствует, как "видит", не более того.

Достаточно часто она на самом деле отвечает правильно.
Но это — показатель качества материала, на котором "обучена" интуиция.

Если посмотреть на ответы ИИ с этой точки зрения, то всё становится на свои места.
Все "странности", нестыковки и прочие галлюцинации перестают быть таковыми.

К каждому ответу ИИ полезно в уме дописывать фразу от имении ИИ:

"Я так вижу, мне так кажется".

Тогда галлюцинации ИИ станут восприниматься совсем по-другому, и ничего странного в этом явлении уже не будет.

Вопрос: зачем нужна дорогая машина, которая отвечает на вопросы бредом, мотивируя это тем, что она так видит?

Это специфика обучения. Проставьте, если бы на младенца просто вывалили тонны информации, ничего не раскладывая по полочкам, не объясняя взаимосвязи.

Не удивительно, что машина, при таком обучении, может ошибаться

Вообще-то с младенцем так и происходит. На него вываливаются тонны информации, а его мозг сам обрабатывает информацию, раскладывает по полочкам и находит взаимосвязи. Именно поэтому можно сказать, что младенец самообучается и его можно обучать, а вот про LLM этого сказать нельзя.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости

Истории