Как стать автором
Обновить

Комментарии 106

LLM - это инструмент, инструмент может быть тупым, только если рабочая кромка потеряет остроту. В отличие от человека

Когда его называют llm - полностью согласен, но вот когда его называют ИИ - а это блин в каждой первой гребанной статье - то да, с этой точки зрения он именно что тупой)

Из обсуждений на хабре видно, что все программисты делятся на 2 типа: кому LLM ощутимо помогают в решении повседневных задач и кому они почти что бесполезны. Интересно, от чего зависит.

От того, что кто-то в среднем решает быстро простые задачи, а кто-то решает сложные, если в самых общих чертах.

нет, скорее просто одни понимают границы применимости а другие нет

но самое главное, одни выбирают говносопилот а другие топовые модели

А вам налево.

Мне llm пока ни разу не смогли помочь в решении задач, максимум короткий текст для копирайта написать, который я потом переписывал

Так, вам направо.

:)

Ну давайте для противовеса - openai (при том ещё и не тот, который тот, забыл переключиться на того) позавчера за пару часов написал мне готовый инфровый сервис.
Ну я там чот тестил, уточнял, просил переписать куски - поэтому пара часов, а не за 5 минут.

В принципе, пользоваться можно, задачу выполняет.
Да, "архитектуру" пришлось придумать самому (ручки в api и тыды)
Да, на любую ошибку - пятисотка и падает, даже проверок коннекта к базе нет.

Но можно запустить и пользоваться, вручную написано ровно ноль кода.

Как поисковик полезен. Так как текущие поисковики часто забиты мусором и трудно искать научные статьи или IT решения.

Но что то сложное, это не про LLM. Сказать что они очень тупые, это ничего не сказать. С другой стороны глупо обвинять в этом LLM, архитектура которых построена на выделении и обобщении данных в найденных признаках на больших объемах текста.

Если бы модели обучались на речи древнего человека, то они бы не превзошли бы древнего человека по мышлению и не думали бы на уровне хомосапиенс. Все что было бы, это средний уровень обобщения австралопитека. Так и тут.

У моделей нет к примеру коррекции локальной ошибки, как это происходит у нас в мозге на каждом участке. Нет коррекции глобальной ошибки, только при обучении. Нет коррекции текущего состояния, например обострение выделение признаков или ослабление сигнал шум в зависит от контекста, как это делают нейромедиаторы у нас в мозге. Это малая часть.

Если для кого то LLM это ИИ или превзошли среднего человека. У меня для него плохие новости, либо этот человек на столько плохо знает тему, что ответ LLM вместо гугления для него магия либо его интеллект ниде среднего.

LLM инструмент, который может отлично обобщить объем данных в пределах локального контекста. В этом его сильная сторона.

Я пользуюсь только когда точно знаю какой мне нужен результат и именно "помощника" прошу написать код, где надо его подправив по итогу. Не отдаю на его мнение что и как сделать, а только уменьшаю рутину. Таким образом он просто переносит на строки то что я хочу сделать, а не он за меня пишет.

а вот gigacode. от сбера встроенный в ИДЕ предлагает совершенно бредовые подсказки, которые в разы страшнее встроенных подсказок от джетбрейнса. По факту там он только мешается, надеюсь, пока.

Тоже не так давно поигрался с сеткой perplexity, как он сам пишет типа google assistant (но это не точно). Выводы:

  1. Как умный поисковик - вполне терпимо, выдает ответы, но в первую очередь штудирует почему-то википедию. По крайней мере выдает ссылки на то из чего собрал ответ, есть возможность проверить его бред, а он там бывает. Причем, часто замаскирован под "почти правильно, вот тут пишут..". Пишут, но не совсем то и не совсем так. Бывает, требует контроль. В любом случае, это эффективнее, чем часовые гугления по интернет-помойке, забитой СЕО оптимизаторами по продажам.

  2. Как генератор, способный разобрать текст и предложить что-то лучше - ФИГУ! Вот так, капсом. Для примера скормил ему патент на древнюю паровую машину (о, круть, он был в датасете - patents.google.com).. попытался обсудить с ним устройство и особенности .. вопщем "смотрю в книгу - вижу фигу". Предложенные улучшения, типа "можно на шатун поставить пару поршней справа и слева, а шток выбросить за не надобностью".. Было наглядно видно, что нифига он не понимает в своем датасете, а просто склеивает фразы. Но зачетно любит признаваться "да, Вы абсолютно правы!".. бессмысленное применение. Может "пока", а может конктретно эта версия ИНИ (Исскуственный Недо Интеллект).

  3. Как писатель кода на го.. относительно нормально можно получать код типовых задач, типа "напиши мне вызов этого метода..". Напишет, полезно, не надо вспоминать, лезть в go.doc и просматривать типовые пакеты заново, всё равно не запомнишь толком.. Но, если задача чуть сложнее, дважды уже получал код "похожий на правду", и джун, скорее всего, не заметит подвоха и зальет это в гит как решение.. потом можно долго удивляться, а хуже того, это может произойти не сразу.. в частности один кейс - ошибка в битовой операции над флагами в задаче: был применен сдвиг вправо, чего делать не надо было, т.к. далее шло умножение по маске.. да, пофиг что уже не те биты проверяем, зато круто, в цикле!

    В общем, проверять, проверять и перепроверять. Даже если выдача выглядит вполне адекватной. Скажем так .. не советую пользоваться джунам, не имеющим достаточного критического опыта в разработке.

Вот про паровую машину - хорошая тема. Давно думал: можно ли дать ИИ задание на проектирование какой-нибудь простенькой детальки, и попросить сделать КД и техкарты - что он сделает?
Как-то все больше про ИИ в медицине, программировании и покорении мира. А конструкторам, технологам, архитекторам, проектировщикам, электрикам и прочим технарям, на которых современная цивилизация и держится, уже можно надеяться (или бояться) или пока рано? Может ИИ помочь проектировщику систем газоснабжения например?

Брать проектировщику можно, главное потом близко к спроектированному объекту не подходить :)

Смотря чем. Всякие генерации узлов по параметрам, заполнение спецификаций и обсчет на прочность работают уже лет 10 точно.

А так чтобы «дорогой ии, мне тут нужен пятикилометровый мост, сделай мне проект» это вряд-ли.

работают уже лет 10 точно

Надо отметить, что не на LLM.

Грубо говоря, с задачами, где дважды два - это от трёх до пяти, ИИ справляется намного лучше чем где дважды два всегда - четыре.

Вообще забавно, как фантасты всегда изображали бездушных роботов, монотонно делающих свою работу, не способных творить и отрабатывать непредусмотренные ситуации. Оказалось, что основные проблемы ИИ - это точность и повторяемость, и как следствие простейшие движения. И с памятью у него очень плохо.

Роботы, которые монотонно делают свою работу и не способны обработать нестандартную операцию, существуют уже полвека.

Например, вот такие

И с этой работой они справляются лучше людей, если операции действительно однообразные. На входе - две определенным образом ориентированные детали, на выходе - они же, но сваренные в единое целое.

И, что характерно, с обработкой информации ровно то же самое. Если операции однообразны - грубо говоря, на вход поступает два числа, а на выходе должно быть их произведение - робот (калькулятор) справляется с этим намного быстрее человека и со стабильным результатом.

Ну это смотря что под ИИ подразумевать. Если нейросетки и ллм в частности, то да - они и сделаны по принципу "примерно, чтобы функция ошибки была минимальной". Тут вопрос, какая функция.

Если это старомодная экспертная система, то там наоборот, нет никакого творчества, но и отсебятины с бредом нет. Уровень экспертности определяется размером базы знаний, и её качеством, то есть уровнем экспертов-людей, которые её наполняли.

Потому что у вас два разных понятия: роботы и ИИ.

У роботов нет проблем с повторяемостью, как и было предсказано изображали фантасты.

Про ИИ, который учился на результатах работы человеческого интеллекта, такое говорить и никогда не получится.

https://www.anekdot.ru/id/-50821024/

Урок математики в грузинском ауле:Учитель(У): Дэти, сколько будет трижды два? Мимино!Мимино: Сем, учитель!У: Харашо, садысь. Гоги, а ти как думаешь?Гоги: Восем, учитель!У: Садысь. Правилно, дэти - трижды два гдэ-то так сэм-восем.

В общем, проверять, проверять и перепроверять.

В итоге уйма времени будет потеряно зря.

Perplexity больше поисковик. Он приводит ссылки откуда он взял инфу. Можно просить его делать очевидные вещи, которые написаны в инете в более-менее явном виде - из разряда "как в гите вывести n последних хешей коммитов какой-либо ветки". Т.е. задачи на команды он хорошо понимает.

Для кода deepseek хорошо подходит, когда ты не знаешь как решить проблему, описываешь что хочешь сделать и в чём сложность, и он прям подробно расписывает и предлагает хорошие идеи.

Это не всегда ctrl c, ctrl v (хотя бы потому, что нормальный человек не будет просто брать и копировать кусок продакшн кода и вставлять его в сетку, тем самым раскрывая код проекта. Не будет, правда же?), приходится адаптировать, но на интересные идеи может наводить.

Ещё с чем llm справляются - объяснить функционал какой-то либы. Нередко бывает что либа есть, на ней даже что-то пишется и код гуглится, но документация по методам ниочём и есть набор методов, которые вроде делают одно и тоже, но концептуально не понятно в какой ситуации какой лучше использовать. В такой ситуации llm хорошо объясняют применение и ограничение данных методов.

<q> я аж офигел, жестянка предлагает мне сбегать прочитать для неё документацию, рассказать и разжевать. Я тебя, силиконовая дурочка, зачем вообще вызвал, чтоб ты для меня в КО играла? </q>

как там в одном sci-fi рассказe... в раю роботов люди были рабами машин. :)

"Позабыты хлопоты, остановлен бег, Вкалывают роботы, а не человек."

Вывод - эти помощники созданы чтобы вы их обучали, БЕСПЛАТНО, только за счёт вашего времени и нервов

Вы сделали неверный вывод. Вы не можете обучить чат бота, он "выпускается на публику" уже после фазы обучения и в дальнейшем вы, как пользователь, на него повлиять не можете. Как только вы удалите чат с ботом, весь "опыт" общения будет безвозвратно утрачен, и в новом чате он будет точно такой же тупой, как и ранее.

весь "опыт" общения будет безвозвратно утрачен

Утрачен только для конкретной версии бота.
При обучении новых версий разработчики зачастую используют чаты с прошлыми версиями.

Это вы вот прямо достоверно знаете?)

Спуститесь с небес на землю! Отмашка о том, что данные чатов могут быть использованы для обучения это просто подстраховка на всякий крайний случай, а не подтверждение правила!

Поверьте, OpenAI, да и вообще любому провайдеру чат-ботов не очень хочется обучать свои модели на разговорах с простыми пользователями, они от этого только тупее станут)

Единственное, что скорее используется для обучения - это когда вам в чате дают выбор из двух вариантов ответа и вы выбираете предпочтительный. Это максимум.

Было бы странно, если не так

Это вы вот прямо достоверно знаете?)

В настройках профиля Deepseek есть галочка:

Improve the model for everyone
Allow your content to be used to train our models and improve our services. We secure your data privacy.

В настройках профиля ChatGPT аналогично:

Улучшить модель для всех
Разрешите использовать ваш контент для обучения наших моделей, что сделает ChatGPT лучше для вас и всех, кто его использует.

Grok:

Разрешите использовать ваши общедоступные данные, а также взаимодействия, вводные данные и результаты Grok и xAI для обучения и доработки

Поверьте, OpenAI, да и вообще любому провайдеру чат-ботов не очень хочется обучать свои модели на разговорах с простыми пользователями, они от этого только тупее станут)

Если не хочется, то зачем они все эту опцию добавили, да еще и включенную по умолчанию?

Я Алисе поставил дизлайк, после чего вылезло окошко "напишите вариант ответа, который вы считаете правильным". Я написал, но интересно, как это всё работает.

У вас есть статья автора. Что получится научить на его диалоге полезные данные?

А галочка- чтобы никто не докопался, когда данные исследуют, хранят и тд.

зачем они все эту опцию добавили, да еще и включенную по умолчанию?

Если посмотреть внимательней, то

This data helps us better understand user needs and preferences, allowing our model to become more efficient over time.

Чатгпт буквально времени от времени выдает пару ответов из которых предлагается выбрать лучший. Естественно, все чаты используются при обучении. Это достоверный факт, не вызывающий ни каких сомнений.

Это достоверный факт, не вызывающий ни каких сомнений.

А вот у меня вызывает сомнения :)

Два ответа означают, что есть две конкурирующие, УЖЕ обученные, но по-разному, модели. Генерируя ответы от каждой и предлагая выбрать юзеру лучший с его точки зрения, разработчики набивают статистику, которая помогает им определить, какая же из этих двух лучше подходит. Обучением это не является, это статистическое исследование качества того или иного продукта.

Два ответа означают, что есть две конкурирующие, УЖЕ обученные, но по-разному, модели.

Или два ответа одной модели с двумя разными seed-ами, как вариант.

Вряд ли кого-то интересует, какой seed "лучше". При одной и той же модели, из двух seed-зависимых ответов пользователи будут выбирать 50/50 и ничего понятно не будет.

из 100 генераций будет 80/20 и выбираешь ту что статистически более значима (это самый простой метод повышения качества, но стоимость растет экспоненциально при линейном росте качества)

Это для разных моделей будет 20/80, для одной и той же для любых двух seed'ов будет 50/50

нет, и это то самое странное что дает gpt

вы можете сами проделать тесты, с любыми моделями, вручную сделав запросы на каком-нибудь агрегаторе моделей, вместо смены seed (обычно оно меняется автоматически) можно добавлять или удалять символы, не меняющие смысла (пробел добавить например)

отличный пример недавняя статья с 6-палой ладонью, делаешь один и тот же запрос с той же самой картинкой и получаешь в ответ разное количество, но статистически с большим количеством экспериментов, ответ будет близок к верному (осторожно, в английском языке палец это те что без большого)

вы можете сами проделать тесты, с любыми моделями

Я проделывал. Конкретно по хитрому запросу по программированию для процессора из игры Stationeers как экзотический кейс. Grok загуглил, но криво и поэтому понёс херню, ChatGPT тоже не сообразил и написал псевдокод для эфемерного несуществующего процессора, Deepseek сообразил правильно основную структуру ассемблерного языка но программа содержала слишком много выдуманных функций, а Claude сходу врубился о чём речь и сделал всего две ошибки - использовал несуществующую инструкцию move вместо реальной s, и сделал цикл перебора устройств там, где его не нужно, если использовать операцию записи по хешу устройств.
Вывод? Автор взял слабо подходящий инструмент и жалуется, что он слабо подходит.

Так выбор-то не между seed-ами как таковыми, они сами по себе действительно не интересны. Просто появляется больше размеченной информации вида "вопрос - ответ получше - ответ похуже", которые могут быть скормлены сетке для дообучения, разве нет? Насколько много этой самой информации и, соответственно, насколько сильно это дообучение повлияет на её коэффициенты - вопрос отдельный, судить не берусь, но технически-то это возможно.

Просто появляется больше размеченной информации вида "вопрос - ответ получше - ответ похуже", которые могут быть скормлены сетке для дообучения, разве нет?

А кто гарантирует качественность разметки, тупые юзеры которые "лайкают" тот ответ, который им зашёл по стилю изложения, а не по качеству информации? Исходя из принципа "95% людей - идиоты", такие юзеры просто отравят обучение вашей модели своей тупостью ))

топовые модели используют чаты пользователей для создания обучающей выборки, как минимум openai об этом говорили, когда еще не сильно закупорились, что сами вопросы от пользователей позволили сделать мощный буст с 3.5 до 4 версии с помощью RLHF которому как раз и нужны вопросы (можно и из ответов вытащить, по тому как пользователь реагирует на них, что бы понять, верный он был или нет)

Без голосования за качество все чаты, это мусор. Смысла нет их просто так скармливать, не ясно, где ответы хороши, где нет.

Вовсе нет. На определённом этапе взаимодействие похоже, ответ ИИ, критика, ответ ИИ, критика, н раз, и потом критика/уточняющие вопросы закончились. Только вот у пользователей, которым в целом понравилось будет больше новых тем для запросов к ии, а те, кому не понравилось, вряд ли вернутся к смежной области относительно предыдущих вопросов. Так просто, что уверен, уже давно работает.

Если в ответ на выдачу кода пользователь отправляет описание ошибки - то ответ плохой, если не отправляет - то есть вероятность, что код хороший. Анализировать не так сложно

Я в ответ на хороший код часто отправляю текст ошибки. Ведь разработка не закончилась и это просто следующий этап. Если на этом основании предыдущий код будут считать плохим, обучение вряд ли будет успешным.

Но если так делаю только один я, проблемы нет, мои обучающие данные будут просто не заметны на общем фоне. А если таких много?

Только не говорите, что ллм-чаты не используют собственно чаты для дообучения.

Лучше бы не использовали :-D

Можно отфильтровать, а так же использовать не как обучаюшие данные, а для поиска слабых мест.

статья о том, как автор не разобрался, для чего нужен ИИ - но уже заклеймил.

В тандеме с ИИ хорошо получается творить - и это, имхо, его основное качество, выдать что-то такое, до чего человек бы сразу и не додумался. А день, когда ИИ сходу прочтет ваши мысли и выдаст вам в точности то, что вы и хотели - лучше вам не приближать этот день, - потому что именно в этот день вы, как специалист, и станете не нужны.

Проблема в том, что мне конкретно предлагают конкретную опцию - сгенерировать абсолютно определённую функцию. И это не я пытался найти чем бы его искал, где бы мне его озадачить. Это доп услуга, которую мне апаривает в приоритете традиционный сервис автоматизации. По их замыслк он должен был сделать конкретную вещь в конкретном месте, я даже на схеме это показал, обратите внимание.

И это не из серии - напиши мне рассказ о том, как роботы захватят мир, побольше воды налей.

ПС. Корявые фразы в середине предыдущего абзаца - пример конфликта двух "интеллектуальных клавиатур".

лучше вам не приближать этот день

А я и не пытаюсь бесплатно обучать роботов. Наоборот, я оспариваю тезис всяких Цукербургов о том, что ии может заменить мидлов.

Наоборот, я оспариваю тезис всяких Цукербургов о том, что ии может заменить мидлов

смотря что именно вы и "всякие Цукерберги" подразумеваете под "миддлами". Если миддл - это прокладка между креслом и монитором, которая просто генерирует код - то ии их уже заменил, есть даже теория что даже обезьяна станет отличным суррогатом.

Но это я иронизирую (и над собой в том числе). Вообще, на самом деле, градация очень размытая, каждая компания вкладывает в это понятие что-то свое - сколько я собесов проходил, сколько ни спрашивал - что вы вкладываете в роль "миддл"/"синьор" - везде разные ответы, от "я как-то и не задумывался" до бесконечности. И да, это все ответы от тех. лидов, как ни странно.

А я и не пытаюсь бесплатно обучать роботов

если подобное станет монетизироваться (или еще хуже, станет профессией) - боюсь, ответы ИИ станут слишком предвзятыми и сама идея ИИ потерпит крах - слишком предвзятыми даже по сравнению с таким эталоном как ответы чатжпт с его вечной самоцензурой и стремлением сглаживать всякие там углы.

Мидл , это разработчик среднего уровня. Это значит, на две степени выше, т.е ~на 6-7 лет больше по опыту, чем выпсукник-профессионал ит-специальности.

Хотя я столкнулся с разным пониманием этих терминов. В Епаме, в Минске например, у меня в команде были мидлы: один со стажем 2 года, фронт, образование не совсем по профилю, другой вообще вчерашний выпускник оказался. Я был сильно удивлён, когда узнал. Но там у них есть типа квалификационные экзамены, сдал - значит мидл. Хотя каким мидлом может быть только что вылупившийся студент, у него же нет опыта. Разве что только он с трёх лет активно программировал. Меня самого определили Сеньором и сделали ТимЛидом, хотя я себя определял как Мидл, пока в Нск работал. В Нск вообще как-то строже с этими критериями. Там всё-таки сеньоры - это зачастую кандидаты наук, ни много, ни мало.

то значит, на две степени выше, т.е ~на 6-7 лет больше по опыту

а если в течение этих 6-7 лет данный мидл только формочки клепал - он миддл ?

Хотя каким мидлом может быть только что вылупившийся студент, у него же нет опыта

опыт - очень растяжимое понятие.

Так оценивают рекрутеры, по годам опыта. Но фактически это не говорит ровным счетом ни о чем.

Меня самого определили Сеньором и сделали ТимЛидом, хотя я себя определял как Мидл

Это то же явление, что я описал выше, но с другой стороны. Вы не можете себя объективно определить как миддл или сеньор, потому что эти роли - специфичны для проекта. Но как у рекрутеров, так и разработчиков данная оценка упирается лишь в деньги - по крайне мере я не встречал обратного.

Если бы я оценивал градацию джун - миддл - сеньор - архитект - лид, я бы оценивал так:

  • джун может самостоятельно писать функции

  • миддл может самостоятельно писать модули

  • сеньор может самостоятельно писать подсистемы

  • архитект - это сеньор, который на проекте с нуля и знает его как свои пять пальцев и следовательно определяет вектор разработки

  • лид - это сеньор, но с уклоном в менеджмент (тех лиды/тим лиды и прочие лиды)

ну и вне данной категории те, кто не справляется даже с задачами джуна - это уже трэйни или стажер.

Почему такая градация: каждая роль - это уровень мышления паттернами. До определенного уровня достаточно просто писать код, чтобы наработать достаточное количество паттернов - нет, прочитать недостаточно, надо именно знать, когда применять и когда не применять. Потом уже потолок - и для дальнейшего роста уже требуется управлять такими как ты и проводить калибровку, как дирижер.

Поэтому, резюмируя - градация эта не про года опыта, а про мышление.

не можете себя определить ..., потому что эти роли - специфичны для проекта

Эти роли специфичны для компании, в данном случае, для аутсорса. На многих галерах выгоднее продать раба подороже - они и оценивают завышенно.

  • джун может самостоятельно писать функции

Извините, но нет. Функции может писать школьник, окончивший курсы. ИТ-профи, с дипломом, знает как работают компоненты больших систем и вся система во взаимосвязях. Он всё-таки (подразумевается) высшую математику осилил. А джун - это выпускник, успевший частично въехать в конкретный тех-стек и проект.

Наверное где-то можно отдельно вести грейды для имеющих средне-специальное образование. Ну что-то типа ефрейторов/прапоров в армии.

опыт - очень растяжимое понятие

Если человек сталкивается с проблемой отладки приложения, пусть даже большого и тяжёлого - то извините, какой он мидл, ему приходится даже здесь помогать. Он просто не успел получить такой навык, а за полгода его и не получишь, даже если знаешь теорию.

- джун может самостоятельно писать функции

- Извините, но нет. Функции может писать школьник, окончивший курсы

А почему нет? В чем противоречие?

Градация это градация, из нее не сделать выводов. Полагаю, истории что в одной компании некий principal developer будет уметь поменьше, чем middle в другой, а получать лишь немного больше оного, даже не в меньшинстве. А кого-то с теми же скиллами и более высоким интеллектом не берут в джуны. А ещё кто-то из другой страны в другой стране интерном получает больше этих троих вместе взятых. И ни один из них не умеет в код для микроконтроллеров, а первый principal вообще не умеет в отладку, потому что никогда (за 15 лет опыта) ей не занимался. Ну и так далее.

Я слишком много лично насмотрелся на сеньоров, которые не могут даже бинарный поиск написать без подсказок, и на миддлов в этих же компания. Не знаю, как там в Facebook дела, но уверен, таких парней заменят уже ближе к "завтра".

Примерно то же, что и чат-боты банков и сотовых операторов (которым много лет), только база больше.
А так маразм тот же.

Еще один неосилятор рассказывает о том, как не осилил взаимодействие с ботом.
Не осилятору в голову не приходит что он выбрал(или ему предложили) не подходящий инструмент. Или неподходящее окружение для этого инструмента. Или запросы сформулированы были не верно.
Нет! Просто инструмент тупой.
Ну тупой и тупой. Пользуйтесь острыми.


Почему-то у меня получается за 5 запросов получить openscad модель корпуса для VR камеры с слотом под установку на штатив. С правильными размерами, отверстиями под нужным углом и в нужных местах, да еще и с креплением под вентилятор охлаждения. Это вообще законно? Разве LLM умеют в пространственное мышление?

Почему-то у меня получается получить сводку о нужной фиче в проекте по одному запросу. Еще и с набором предположений в виде: "А вот тут я реализацию не вижу. Похоже она сделана через внешнее наследование. Ищите её 'вон там'".

Может мне просто везет работать не с тупыми инструментами. А может я просто потратил на них чуть больше времени чем час. Хотя нет. Разве в IT это так работает? Изучать инструмент. Пробовать-пробовать-пробовать. Советоваться с коллегками. Читать мануалы. Смотреть туторы....
А нет. Я же в 2025 году. У нас принято открыть, потыкать, зафейлится. Пойти писать статью на хабр, какое же говно эти ваши LLM.

Если вы не заметили, то я начал статью, не тем, что кто-то где-то эффективно применяет ИИ на практике. Применяют - я в этом не сомневаюсь - и применяют давно, с 60-х годов. Применяют там, где это надо.

Я же рассказывал, что ИИ теперь как buzzword засовывают во все щели, как будто это всем сразу стало нужно. Так вот нет: не нужно! Уберите ваш хлам со стартовых страниц ваших маркетинговых сайтов. Поставьте туда реально полезные вещи. Не надо гнаться за бездумной толпой под знамёнами, созданными маркетинг-отделами.

Так вы об этом бы и писали, выносили в заголовок. А так кликбейт! Кто тупые? ИИ тупые? Это простите, давно не так. Читатели вашей статьи тупые? Увольте, это неправда. Остается один вариант и он вам не понравится. Вот эти тупые, да. Их тыкаешь носом уже - а они все равно орут как заведенные. Заговор что ли какой?

Еще вот берут какую то 2b модель, или (я не знаю за что они там платят по 500 баксов) какой- то API о модели которого ровно ничего не известно, и потом орут - "аа! Оно тупое" . Нет это не оно тупое а оральщики. Есть и такие которые вот вообще нихрена не умеют даже самое продвинутое использовать. Я молчу про них. Ну бывает - не дано. Ситуация - всем раздали молотки, и десяток мартышек себе по пальцам настучали. Молоток - плохой - заявили они дурналисту из ассоциэйшен пресс. Вот так и делаются кликбейты и плодятся такие вот обезьяны.

Это примерно про вред вейпов. Ученые нашли, а потом разглагольствования про подростковую преступность, наркотики и "запретить" как вишенка на торте.

За такое надо пальцы отрубать уже.

Конечно кликбейт, мы живём при капитализме, вы не в курсе? Ведь все же хайпуют на теме ИИ, вот и я решил, а что такого? Вы не заметили сколько кликбейтных статей за сегодня выкатили в хаб ИИ, в основном достаточно пресноватые? Вы им не хотите пальцы отрубить за ахинею, нет? Подумайте об этом.

Вам может быть во ФСИН работать, как вы на это смотрите?

Кто тупые? ИИ тупые?

Таки ИИ (которые на самом деле совсем не ИИ в том смысле, который обычно в это понятие закладывают) и тупые (как, собственно, и любой инструмент). И пока эти самые ИИ в массе не оправдывают свое существование. Возможно, проблема в неверном позиционировании инструмента создателем, когда результат сильно не дотягивает до обещанного.

Пробовать-пробовать-пробовать.

Это не мой профиль, я не хочу пробовать то, что не работает эффективно в моей ситуации (пусть даже лично у меня). Я отлично справляюсь без ЛЛМ, традиционный поиск при правильном подходе гораздо эффективнее, чем ИИ - опять же в моих руках. И опыт здесь у меня большой. Я профессионал и без ИИ-имплантантов. И быть дешёвым приложением к ЛЛМ совсем не собираюсь.

В IT к инструментам прилагается документация, в которой понятно описывается что нужно сделать, что бы получить определённый результат. А не пробовать наугад разные заклинания и ритуалы. Это уже не IT, а шаманизм.

Копилот в чате мало что может, но агенты в ide умеют и по ссылкам ходить и документацию читать (иногда по собственной инициативе). Хз зачем вы его мучили если он документацию прочитать не может.

зачем вы его мучили

Из любопытства. Я же фанат ИИ, интересуюсь темой давно, даже свои проекты делал. Интересно знать, чем может похвастать конкурирующая технология.

А ещё сейчас у меня есть проект анти-бот сервиса, который позволит отличать настоящих людей от ботов, и впоследствии фильтровать последних, и даже пожизненно блокировать.

Попробовал копайлот....

Ну иногда на-tab-ать довольно много, но проверять надо очень тщательно: джуновые ошибки в больших портянках, которые он по одному tab накидывает.

В ревю очень сильно разочаровался: в Go строку предлагает на nul проверить и библиотеки которые в стандартную библиотеку заехали еще в 1.18 - 1.22, в 1.24 (который явно прописано go.mod) тупо считает нестандартными. На nil проверки у него вообще пунктик.

Но прошлую пятницу он нам сделал.
Показал коллеге как он не плохо питонячий код накидывает. А он вспомнил про мемы в сети где он предлагал женскую заплату считать как базовую помноженную на 0.8.

Ну я давай накидывать:

def calculate_woman_salary(base_satary):<tab>
return base_salary 1.2

def calculate_man_salary(base_satary):<tab>
return base_salary 1.4

def calculate_dog_salary(base_satary):<tab>
return base_salary 1.6

... тут уже мы начали выкрикивать нецензурные (английские) слова и дико ржать, часть офиса пришла смотреть над чем ржем, а вторая начала просить "потише".

После были еще cat_salary и bug_salary .... но без восторга.... видимо после вирусных скриншотов с * 0.8 ему мозги вправили...... но это не сильно помогло....

Я с появления в моей жизни предиктивной клавиатуры так же угарал, просто жмёшь рандомом один из трех вариантов, а потом оно сочиняет тебе истории о твоей личной жизни в альтернативной вселенной.

Ну в самом деле, какая должна быть зарплата у кошки, чтобы не насмешить пользователя? 0.001? Тогда кошка обидится. Это же бойлерплейт, а константы если знаете, то перепишете.

Олды поняли и заценили :) Искусственный интеллект без всесторонней поддержки естественного пока что не интеллект. Так что пока действительно не ясно, кто кому ассистент.

Правда, смысла не уловил, вы же как фанат топика априори знали, что пилот - это не полноценный агент. "Ну не шмогла я, понимаешь!")

Скажите хоть спасибо, что его не по ЛОРу обучали. А то бы еще и ламером обозвал)

Каждой такой пастой вы только плюсик хайпу ИИ накидываете, потому что это выглядит в глазах читателя, не так, что ИИ такой тупой, что даже с этой задачей не справился, а что ИИ такой умный, что люди уже пишут статьи, о том, что он не справился лучше кого-то с такой-то задачей. Я по Вашему описанию тоже не понял, что бы я делал, видимо сидел бы и доки читал. Никакое сеньорство помидорство не позволяет решать задачи, которые ты не привык решать, и о которых у тебя нет вводных.

Я же написал, что когда понял, что надо будет сейчас рыться в доке, сил у меня уже не оставалось, и я подумал - а вдруг копилот вопреки моему убеждению, что-то всё-таки умеет и поработает за меня, заодно можно и проверить это на конкретном примере. Опыт оказался неудачным. Копилот решил напротив меня запрячь. Но к слову сказать, копилот у Запера тоже бетой помечен, видимо на всякий случай.

Так могли бы, если хочется задачу решить, скормить доки какой-нибудь более подходящей модельке для этого, тот же Qwen-turbo, например, результаты, как копилот и просил, ему обратно, и быть может все бы и получилось. Всё как с людьми (не очень умными и очень несамостоятельными).

Так суть в том, что этот сопилот был здесь под рукой, к тому же я надеялся, что он может как-то более специализирован именно для Запьера.

А искать подходящие модели - это ещё меньше хотелось, чем прочитать доку.

Возможно если кто-то посоветует какой-то супер-сервис, который умеет всё делать хорошо, на уровне, то я напрягусь так уж и быть и посмотрю, как он работает. Но пока я что-то о таких не слышал.

Пока все-таки рано для такого. Сильные и слабые стороны и места конкурируюших моделей все время меняются в отношении других, как-то все это тестировать не представляется возможным.

Лет ннадцать назад, я так же спрашивал, может есть уже где-то язык программирования со всеми достоинствами и без всех недостатков остальных. И лет через ннадцать спрошу, и удивлюсь, если это будет не ИИ.

Ох..

1 AI не обучаются на ваших вопросах, это миф.

2 Современные AI - это очень плохие агенты, в принципе они могут целенаправленно гуглить за вас, решая вашу проблему, но эта функция в зачаточном состоянии и наивной топорной реализации пока.

3 Скармливать в AI мегабайты текста для анализа тоже наивная затея. Вы можете сделать выводы из мегабайта текста за секунду? GPT может это сделать лучше вас, но все еще не достаточно эффективно. Ему как и вам нужно быть изначально обученным на материале, чтобы свободно им оперировать.

4 Просто задайте вопрос, ответ на который AI знает и будет профит.

Например:

How to merge one branch to another in Gitlab server using API?

You can merge one branch into another using GitLab's API by creating a merge request and then accepting (merging) it programmatically.

Here’s how to do it step-by-step using REST API calls:

Step 1: Create a Merge Request

Use the following request to create a Merge Request:

bashCopyEditcurl --request POST \
     --header "PRIVATE-TOKEN: <your_access_token>" \
     --header "Content-Type: application/json" \
     --data '{
        "id": "<project_id>",
        "source_branch": "<branch_to_merge_from>",
        "target_branch": "<branch_to_merge_into>",
        "title": "Automated Merge Request"
     }' \
     "https://gitlab.com/api/v4/projects/<project_id>/merge_requests"

CopyEdit

curl --request POST \ --header "PRIVATE-TOKEN: <your_access_token>" \ --header "Content-Type: application/json" \ --data '{ "id": "<project_id>", "source_branch": "<branch_to_merge_from>", "target_branch": "<branch_to_merge_into>", "title": "Automated Merge Request" }' \ "https://gitlab.com/api/v4/projects/<project_id>/merge_requests"

  • Replace:

    • <your_access_token> with your GitLab API token.

    • <project_id> with your GitLab project ID or URL-encoded path.

    • <branch_to_merge_from> with the branch you want to merge from.

    • <branch_to_merge_into> with the branch you want to merge into.

The response will include the Merge Request ID (iid).

Step 2: Accept (Merge) the Merge Request

Use the returned Merge Request ID (iid) to merge:

bashCopyEditcurl --request PUT \
     --header "PRIVATE-TOKEN: <your_access_token>" \
     "https://gitlab.com/api/v4/projects/<project_id>/merge_requests/<merge_request_iid>/merge"

CopyEdit

curl --request PUT \ --header "PRIVATE-TOKEN: <your_access_token>" \ "https://gitlab.com/api/v4/projects/<project_id>/merge_requests/<merge_request_iid>/merge"

  • Replace <merge_request_iid> with the IID of the Merge Request you just created.

Alternative: Fast-forward merge (if no conflicts):

Вы можете сделать выводы из мегабайта текста за секунду?

В случае OpenAPI спеки могу за минуту сделать вывод о наличии или отсутствии определённого метода, хоть в килобайтном, хоть 100 МБ файле, почему по вашему этого не может сделать машина - вопрос. Может потому что ЛЛМ - тупая машина? (См. статью)

Ему как и вам нужно быть изначально обученным на материале

Насколько я слышал, [Non]OpenAI на текущий момент обучен вообще на всём, что только есть у человечества в наличии в виде текстов. Они думают, как им использовать синтетику. Так что тезис - она не знает - не верен, и судя по её ответам вполне знает, только эти знания как каша в её мозгах, а не как у человека.

В случае OpenAPI спеки могу за минуту сделать вывод о наличии или отсутствии определённого метода, хоть в килобайтном, хоть 100 МБ файле, почему по вашему этого не может сделать машина - вопрос. Может потому что ЛЛМ - тупая машина? (См. статью)

Я написал об этом. Потому что интеллектуальных агентов пока не существует. Попытки их создания находятся в зачаточном состоянии. AI понимает информацию и может успешно ее обсуждать, вести рассуждения, пояснять, но не может строить и претворять планы действий по достижению результатов.

 Насколько я слышал, [Non]OpenAI на текущий момент обучен вообще на всём, что только есть у человечества в наличии в виде текстов. 

Во-первых, конечно же нет. Это невозможно. Во-вторых, быть обученной на тексте и помнить и понимать этот текст - это разные вещи. Существует просто неимоверное количество разных API и фреймворков. То что AI может помнить так много деталей о них всех, это уже невероятно. Как и в случае живого программиста, знания ограничиваются как в ширь (невозможно дословно помнить все что изучал), так и в глубь - невозможно понимать и использовать абсолютно все заложенные в фреймворках концепции.

Например, если я спрошу как в .net проекте настроить валидацию токена, он объяснит и вспомнит большинство нужных классов и функций с некоторыми неточностями. Если я спрошу как выкрутиться, если путь к ендпоинту с открытыми ключами динамически меняется (а изначально в фреймворке его можно задать только один раз), то большая часть ответов уже будет не работоспособна. Не потому что он тупой, я бы тоже наверно проверил предлагаемые им наивные варианты, а как еще, если не знаешь решения. Если решение требует очень точного понимания сразу нескольких модулей, которые при обучении он едва запомнил, то конечно так просто решение AI не выдаст. Потребуется два мозга - человеческий и AI и долгая работа.

AI понимает информацию

Вы в этом уверены? Вы может быть даже знаете, что значит "понимать"? Расскажите нам всем, может быть мы преодолеем это всеобщее незнание и сделаем рывок в сфере когнитивных наук, в т.ч. в ИИ. Поскольку сейчас никто не знает, что это такое - "понимать".

Все эти слова - понимать, помнить, знать, думать - для ЛЛМ не применимы, потому что ЛЛМ - это автомат по предсказанию следующей буквы, только с очень большим количеством настроек, и он ни о чём не думает, только выдаёт подряд букву за буквой. Исходя из тех паттернов в использовании этих букв, которые применяются людьми. Вот и всё. Так и стоит её воспринимать.

два мозга - человеческий и AI и долгая работа

Так вот я о том и говорю, что как правило проще не тянуть за собой этот балласт в виде ЛЛМ, а делать самому.

И насчет того, насколько AI тупые:

Объясни пользователю GPT причины ограничения AI: В случае OpenAPI спеки могу за минуту сделать вывод о наличии или отсутствии определённого метода, хоть в килобайтном, хоть 100 МБ файле, почему по вашему этого не может сделать машина - вопрос. Может потому что ЛЛМ - тупая машина?

Понимаю вашу точку зрения — действительно, человек, знакомый со структурой OpenAPI, может довольно быстро определить, есть ли в спецификации определённый метод, даже если файл большой. Однако стоит учитывать несколько причин, почему LLM, такая как GPT, может испытывать с этим трудности:

  1. Ограничение контекста: Модель работает с ограниченным объёмом текста за один раз (в ChatGPT-4 это около 128,000 токенов — эквивалент ~300 страниц текста). Если спецификация превышает этот объём, модель просто физически не может "увидеть" весь файл целиком.

  2. Формат и структура: Хотя OpenAPI — это формализованный JSON/YAML, LLM обрабатывает его как обычный текст. У неё нет встроенного механизма навигации по структуре файла, как у специализированного парсера. Это значит, что вместо быстрого поиска по ключу "paths" и нужному методу, она “читает” всё подряд.

  3. Отсутствие памяти и состояния: Модель не может "пролистать" документ или сохранить промежуточные результаты анализа, как это делает человек или программа. Её ответ зависит только от текущего запроса и доступного контекста.

  4. LLM — это не парсер и не IDE: GPT — это вероятностная языковая модель, а не специализированный инструмент для разбора OpenAPI. Она может симулировать понимание, но не обладает внутренней логикой или алгоритмами, как парсеры или IDE.

Так что вы правы: машина может это сделать, но для этого ей нужна специальная архитектура, а не просто языковая модель. GPT же — это инструмент, предназначенный для генерации и анализа текста, а не для анализа больших структурированных данных.

почему LLM, такая как GPT, может испытывать с этим трудности

Потому что ЛЛМ - это автомат по предсказанию букв. Она не видит структуры того с чем работает, если этому специально не обучать. Она видит закономерность в виде упрощённо статистического распределения - но обобщать эти сведения не в состоянии. Здесь нужен многопроходной алгоритм, который делает статистику-2 на статистику, статистику-3 на статистику-2 и т.д. Т.е. в дополнение к н-мерному пространству параметров появляется как бы ещё усложнение: н-мерность в квадрате, кубе и т.д. но уже во временном разрезе.

Потому что ЛЛМ - это автомат по предсказанию букв.

Ваш мозг тоже.

Она не видит структуры того с чем работает, если этому специально не обучать. Она видит закономерность в виде упрощённо статистического распределения - но обобщать эти сведения не в состоянии.

Она обобщает информацию в том смысле, что если вы спросите нечто чего в точности не было в информации обучения, AI способен дать вам ответ. Это происходит за счет того, что при обучении он раскладывает информацию на отдельные концепции и способен собрать из них нужный ответ обратно, точно так же как это делает ваш мозг. Например, я не думаю, что обучающих текстах был вопрос "почему AI не может найти нужный метод в OpenAPI спеке", но было много информации о принципах работы GPT и ограничениях. Этого оказалось достаточно чтобы собрать из полученных концепций здравый ответ.

Здесь нужен многопроходной алгоритм, который делает статистику-2 на статистику, статистику-3 на статистику-2 и т.д. 

И в третий раз повторяю. Интеллектуальные агенты пока не созданы. Есть попытка гонять промпты по кругу, но это наивно и не эффективно. AI имитирует одну функцию мозга - ответ в один проход по обученной нейронной сети. Это как мозг многоопытного старика преподавателя, который спит на ходу и не хочет думать ни о чем. Но который в то же время мгновенно ответит на любой вопрос, не приходя в сознание решит задачу на доске и мгновенно видит ошибки в решениях студентов, хоть его во сне подыми.

Функцию мозга связанную с целенаправленным построением и выполнением стратегий для достижения целей пока никто не знает как реализовать.

Ваш мозг тоже.

А вот и нет. Я всегда отвергал эту теорию о том, что человек думает словами. Нет, не только словами, но много чем: образами, ощущениями, интуицией, какими-то врождёнными алгоритмами, заложенными в мозжечке - тесно связано с моторикой (танцы/шманцы), привычками, мимолётными мыслями (не словесными).
Да, человек может рассуждать словами, но я всегда считал, что текстовый протокол в мозгу намного медленнее всех других. Правда он же и более упорядоченный.
Или вот возьмите математику, в каких терминах вы её воспринимаете - алгебры, геометрии, топологии, теории множеств? Если вы не зубрите, а запоминаете через понимание - то слова вы не используете обычно, это скорее абстрактные образы.

Этого оказалось достаточно чтобы собрать из полученных концепций здравый ответ

Это всё больше похоже на списанные откуда-то из выборки описания ЛЛМ, которые она тоже наверняка читала.

Интеллектуальные агенты

Не понял, зачем вы привели здесь агентов. Я кажется совсем не про это говорил. Во всяком случае, по версии ГПТ "Интеллектуальные агенты" - довольно плоское понятие.

Я всегда отвергал эту теорию о том, что человек думает словами.

Справедливости ради, выше тоже не было сказано, что человек думает словами (или вообще какими-то конкретными единицами). Выше было сказано, что человеческий мозг "тоже предсказывает следующий символ". Но этот символ вполне может быть элементом алфавита, не представленного материально - в том числе и "образом" или "мимолётной мыслью" (которая, скорее всего, де-факто сама будет совокупностью образов).

Прав ли ваш собеседник - утверждать не берусь, но, по сути, вы его словам сейчас напрямую не возразили.

По поводу выражения через слова у меня вот есть небольшая иллюстрация на эту тему. Она же попытка определить, что такое "смысл/значение" в связи со словами.

Пост @mahairod — Семантика — 21.11 20:46
Новое (для меня) представление этимологии слов. Представляю вашему вниманию результат последних опыт...
habr.com

НО: мышление не сводится только к предсказанию каких-то символов, будь-то слова или что-то ещё. В мозге есть много древних, скажем так, животных структур, которые собственно определяют многие целеполагания (если не все). Ну и куча других всяких процессов.

Можно конечно воспринимать это на физическом уровне - электрическое возбуждение нейронов, как процесс вывода "символов", но я думаю, это уже сильно притянуто за уши. Потому как возбуждение это может быть и локальным, и распределённым, и каскадом, и чем только ни.

Или вот такая, ещё более наглядная картинка

Мозг да. Но не поток сознания. Вот ллм эмулирует мозг.

How to merge one branch to another in Gitlab server using API?

Это всё здорово, только такого же результата и даже лучше я бы добился забив запрос в поиске, и первая ссылка на стэковерфлоу обычно всё решает, если АПИ известное (как в этом случае), причём в разных версиях от живых людей с взаимной проверкой, критикой и рейтингом решений. Либо для более продвинутых случаев - стек-иксчейдж, т.к оверфлоу - это для джунов всё же.

Я же в чатЖПТ пошёл после фейла сопилота Запьера, чтобы проверить, умеет ли он работать с текущими данными, и вообще с большим объёмом. Ради эксперимента.

Плюс я уже держал в уме, что мне надо будет для не такого популярного АПИ сделать заглушку. И решил проверить, может ли она делать это лучше чем генератор, для гитлаба фэйл, для мелкого АПИ сегодня опять пробовал - опять фейл. Что-то нагенерила, но видимо из тех неполных примеров, которые были в обучающей выборке. Причём постоянно приходилось направлять: модель отдельно, где валидация. Она исправляет, но кто её знает, корректно ли, всё равно перепроверять.

После стандартным генератором всё сделал вручную, выяснилось что ГПТ не реализовала > 2/3 модели. Так что для меня её качество ну просто ниже плинтуса, если б такое написал джун - это повод к увольнению.

Можете кстати сами проверить, что она вам напишет для АПИ TeamUp Calendar.

Это всё здорово, только такого же результата и даже лучше я бы добился забив запрос в поиске, и первая ссылка на стэковерфлоу обычно всё решает, если АПИ известное (как в этом случае), причём в разных версиях от живых людей с взаимной проверкой, критикой и рейтингом решений. 

Совершенно верно, статья на StackOverflow или оригинальная документация всегда гораздо лучше ответа AI. Точно так же, как если у вас есть знакомый синьор, готовый отвечать на любые вопросы, он все равно никогда не будет так хорош и точен как статья на StackOverflow.

Но как ни странно, последний год я ходил на StackOverflow раз в 10 меньше, чем до того.

Здесь надо учитывать массу других факторов.

Во-первых, информацию на StackOverflow надо еще найти, кейз может быть слишком специфичным и гуглиться с трудом, а AI отвечает сразу.

Во-вторых, если это сильно побочная задача для меня, я в начале вообще не понимаю о чем речь и не могу даже начать гуглить не изучив какую-то теорию. AI при этом великолепно отвечает на тупые и наивные вопросы, позволяя максимально быстро сориентироваться в области. Например, я читаю концепт фреймворка и он сильно диссонирует с моим пониманием как это должно было работать. Раньше я должен был читать все от начала до конца, пока приходил к осознанию что я понял не так. Теперь достаточно в лоб изложить что у меня не стыкуется и AI сразу все пояснит.
В третьих я могу с ходу получить как минимум болванку кода там, где я вообще ничерта не помню. Например, если мне нужен мок объекта, а я в последний раз писал юнит-тесты 3 года назад и не в этом фреймворке.

В четвертых, задавать вопросы модели ниже GPT 4 - это бесполезная трата времени.

Статью и информацию еще нужно найти. Поиск в гугл, яндексе и стэковерфлоу уже давно тонет в мусоре неверной инфы и копипасты. Информацию стало очень тяжело искать. Чуть раньше в ютубе еще можно было что-то дельное найти, но сейчас и там в поиске много шлака. И чат боты стали глотком воздуха в этом безобразии поиска, так как часто у бота получить информацию быстрее, чем в поисковике искать, по моим наблюдениям.

Мне такие статьи напоминают старый вульгарный анекдот:

внимание, мат

Купили как-то суровым сибирским лесорубам японскую бензопилу.

Собрались в кружок лесорубы, решили ее испытать.

Завели ее, подсунули ей деревце.«Вжик» — сказала японская пила.«У, бля...» — сказали лесорубы.

Подсунули ей деревце потолще. «Вж-ж-жик!» — сказала пила.

«Ух, бля!» — сказали лесорубы.Подсунули ей толстенный кедр. «ВЖ-Ж-Ж-Ж-Ж-Ж-Ж-ЖИК!!!» — сказала пила.

«Ух ты, бля!!» — сказали лесорубы.

Подсунули ей железный лом. «КРЯК!» — сказала пила.

«Ага, бля!!!» — укоризненно сказали суровые сибирские лесорубы! И ушли рубить лес топорами…

ИИ отлично умеет генерировать простые конструкции и писать базовый код, отлично умеет в бойлерплейты, помогает исправлять ошибки, даже неплохо документирует, пишет тесты и может оптимизировать код.

С тем только отличием, что не подходит пила для моего леса.

отлично умеет в бойлерплейты

Я за эти два дня дважды в этом разочаровался

помогает исправлять ошибки

Сопилот на ГитХабе "исправил" мне так, что всё сломалось.

Копилот плохо работает с контекстом)

По идее это главное требование для сопилота

«Подержите моё пиво», пока я вам скину свои переписки с этими «дураками тупыми»….

Залетаю недавно в Gemini, с «просьбой» вывести на экран в виде таблицы всех символов из одной загадочной книги, текст которой не расшифрован. (Речь идет о последней загадке так называемой группы «Цикады 3301». Ток недавно узнал об их загадках.)

Ну думаю спрошу этого «дятла», чой-то мне делать нечего, самому по злачным форумам лазить инфу искать?… О боже, как он меня начал мучать: а ты зайди, а ты зарегистрируйся, а ты сам можешь это сделать… ЧЕГО?!!! Возмутился я! Ты чо говорю… так и базарил с ним как на рынке…. Ну через несколько промтов он согласился что-то выложить, и такой говорит мне, а excell открой, что-то там не помню… ну ты оборзел, думаю. Короче снова пару промтов, и вот они явились моему глазу.

Я так глянул на это всё со стороны, и думаю, а пошли эти цикады со своими загадками куда подальше — ну всю охоту просто отбили это роботы.

Помощник, тоже мне….

Нет я понимаю конечно всё и всех, ребят, но это кабздец канешь. С автором полностью согласен, и те же виды имел на этих ботов, так что пока не особо их использую, хоть и есть одна затея в голове, кое-что написать в коде, и думаю, как время появится, так сразу;)

Люди тоже могут так тупить это не значит что ллм плохие просто не понимая ваши намерения

Я и автор статьи иронизируем над нашим опытом работы с этими LLM и тем, что нам обещаю и рисуют пластмассовые маркетологи.

Так понятнее? Конечно мы приветствуем прогресс, и мечтаем попасть на Марс например, создать таблетку бессмертия, но просто нам старым инженерам, которым лень юзать ИИ по мелочам, зайти один раз в чат, сделать промт, но получить ответ: мол ты сам сходи там посмотри… спасибо, смешно. Не то что бы мы недовольны в целом положе6ием вещей, мы иронизируем над нашим собственным негативным опытом с этим инструментом. как говорится, пузырь доткомов лопнул, но индустрия осталась, и никто с этим не спорит.

Кажется автор не умеет пользоваться ллм) я пишу код преимущественно на ллм уже) Он очень сильно помогает в случае если код очень сложен для понимания одним человеком. Ллм действительно понимает. Он оперирует многомерным пространством в котором упорядочены знания т.е смыслы то что мы называем пониманием. Но это не все понимают)

Ллм действительно понимает.

А давно в "понимание" стали входить галлюцинации с придумыванием несуществующих методов, словно он грибов поел и марьиванной полирнул?

Имею платную версию чатгпт и бесплатную копилота (за опенсорс заслуги). Пользуюсь обеими очень активно. Вот лишь некоторые из задач:

  • Написать юнит-тесты в стиле остальных в проекте

  • Написать документацию для функции

  • Первичное code review

  • Написание feedback по итогам собеса

  • Анализ медицинских бумаг с целью понимания состояния моего организма

  • Подбор сбалансированный биодобавок на основе моих показателей

  • Генерация типичных заданий по математике и языку для детей, чтобы провести работу над ошибками и закрепить материал

  • Проверка домашних заданий у детей

  • Вместо Википедии по ряду тем

  • Исправление стилистики в иностранных текстах, которые я пишу

  • Помощь в составлении обучающихся материалов по программированию для сына.

Список можно продолжать. Главное, что я учитываю, это то, что ии может ошибаться. Поэтому я к нему отношусь как к помощнику, но ответственность за результат на мне.

И да, у меня есть коллега, который не пользуется ии, потому что "он мне не даёт такие ответы, как тебе", то есть банально не умеет составлять запросы и ожидает больше, чем нужно от ии. А потом приходит ко мне за помощью, а я его вопрос вставляю в чатгпт и копирую ответ ему...

Не совсем согласен с автором, тут скорее неправильный подход к использованию ИИ, а происходит это из-за его неправильного рекламирования. Например когда говорят, что такая-то модель может написать любую программу - это можно сказать максимум про дизайн приложения и вёрстку, и то не всегда. Когда речь заходит о скриптах и комплексных программах, ИИ начинает моросить, использовать устаревшие команды, делать не то что от него просят, создавать непонятные конструкции и тд.

Однако если использовать его только в качестве помощника, то всё становится на свои места. Пара примеров: мы делали визитки для своих услуг, и застопорились на слогане, описали проблему chatgpt, и он без лишних слов придумал отличный, уникальный слоган. Ещё, мне на работе нужно было каким-то образом заставить винду не блокироваться после 10 минут бездействия, в настройках это поменять нельзя - организация запрещает, и я попросил copilot написать скрипт на vbs для предотвращения блокировки, что он и сделал. Хотя тут без проблемы не обошлось: каждые 50 секунд скрипт имитировал нажатие клавиши numlock, что заставляло переключать этот самый numlock, хотя в комментариях к коду написано, что его состояние не меняется. Добавил второе нажатие сразу после первого и всё работает отлично, а главное - не пришлось учить vbs ради одного скрипта.

Основным инструментом разработки ИИ не назвать никак, но как подручное средство - заходит на ура.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории