Тем что это противоречит документации Google. Пользователи должны работать через авторизацию для пользователей, а сервисный аккаунт это условно аналог рута в ОС, почему пользователи в ОС работают в пользовательском пространстве? Ведь это их компьютер могут и от рута все запускать и вообще заходить в систему из под рута, верно? (ну могли бы в старых версия линукса, сейчас вроде нельзя зайти из под рута, отключили), по этой же причине отключили su, теперь только sudo. Потому что это нарушение правил безопасности, дает слишком много полномочий и плохо поддается контролю и вообще система не рассчитана на работу пользователей из под сервисного аккаунта, само название как бы намекает о его предназначение.
Пользователь не должен заходить в консоль, ему там делать нечего. И уж тем более он не должен брать оттуда ключи и отдавать их куда-то.
Это не совсем правильный путь. Клиентам не нужно создавать сервисный аккаунт. С точки зрения пользователя авторизация выглядит вот так.
1) пользователю ваша программа дает URL - это специальная ссылка которая формируется по определенным правилам. Пользователь должен ее скопировать и вставить в браузер. После чего ему будет показано окно где будет видно какое приложение, какой компании запрашивает доступ к его аккаунту. Как альтернатива это окно можно открывать из вашей программе, а потом доставать ключ автоматически.
2) После авторизации пользователя ему выдает ключ, этот ключ он должен отдать вашей программе.
3) Ваша программа используя ключ от пользователя (не сервисный аккаунт). Может получать доступ через Гугл АПИ к данным в аккаунте пользователя.
При таком подходе пользователь может в любой момент смотреть каким приложениям он дал доступ и отозвать его, а так же при авторизации выбирать аккаунт.
Вы уверены что это то что должно работать у клиентов? Через сервисный аккаунт? Я делал иначе, создается приложение в гугл консоли, после чего для авторизации пользователю дается ссылка открыв которую в браузере он должен получить ключ(по-моему это называется рефреш токен). Этот токен он отдает вашему приложению и вы его должны сохранить. Но по нему нельзя работать с АПИ, его нужно поменять на другой токен и вот с ним обращаться к АПИ. Могу более подробно кодом показать как это делается.
Что бы конкретный пользователь мог работать с конкретной таблицей должны совпасть две вещи 1) идентификация пользователя (что бы проверить что у него есть доступ к таблице), 2) идентификация приложения (гугл заставляет ваш код представляться каждый раз когда вы хотите вызвать его АПИ)
Это безусловно полезно и скорее всего мне пригодиться вот прям скоро. Обычно нет необходимости так делать, в своих рабочих проектах такого избегал, потому что зачем добавлять сложность в проект, если можно без этого, лучший код которого нет, но вот прям сейчас в рамках домашнего проекта задумал сделать библиотеку которая выключает стандартные рамки окна(не знаю как правильно называется) и использует свой декоратор, свои кнопки закрытия, сворачивание и прочее. Это достаточно изолированная часть и надоело таскать из проекта в проект код, проще действительно сделать либу(плагин) и вот это все, что вы описали и положить в отдельный репозиторий. Последний раз плагины делал на Qt 3.7 ))) лет 20 назад, с тех пор конечно много поменялось.
Мне доводилось видеть проект где вместо обычных статических либ было разбиение проекта именно на qt плагины, причем обоснования не было, просто вот так захотелось кому-то в команде на ранних стадиях разработки, сложность сразу выросла, как по сборке, так и по разработке. Не драматично, но постоянно что-то из-за этого мешалось, конкретных деталей уже не вспомню, давно было, помню общие ощущения от работы.
Qt дает много фичей, некоторые из них надо применять очень редко и очень в особых случаях, они могут быть хороши для самой библиотеки, но для приложения вредить, вот в чем моя мысль.
Не понимаю что вы имеете ввиду? Вы берете и наследуетесь от QQuickItem, это будет обычный С++ класс(с поправкой на мок, QObject и прочее), но в итоге это соберется в обычный объектный файл. Останется только регистрацию в самом приложение сделать(qmlRegisterType).
stream=False #если True - делит ответ на куски для постепенного отображения
Это как раз самое сложное, особенно, если использовать R1 апи, оно просто в поток шлет все подряд, может обрывать json в теле на половине, вообще рвет как угодно, поэтому нужно накапливать выхлоп из потока, разбивать на отдельные пакеты, и брать те которые уже сформировались, выкусывать из буффера и обрабатывать. Апи там в целом похожее на ChatGPT, апи у всех сеток в общем похожее, есть маленькие различия, которые не всегда описаны в документации и как использовать АПИ иногда проще узнать у самого бота, или посмотреть внимательно на то что приходит в body ответа. По ценам примерно в 10 или 100 раз дешевле Grok. Но контекст всего 32 тысячи токенов, у Грока 128к, но еще две недели назад через апи была доступна только вторая версия, а третья - "каминг сун".
У автора в статье график - самое быстрое это манипулировать QSGNode. Так что не гарантия, кривые руки могут испортить все, но это способ получить самую быструю отрисовку.
если существует возможность
Ну примерно о этом и сказал, если нужен виджет который показывает примерно одинаковые списки, просто делайте свою qml'ку на основе listview и не парьтесь. Свой виджет нужен когда надо рисовать что-то очень замороченное, например флеймграф колстека(это то для чего мне приходилось делать) или карту игры. В любой программе на QML которая сложнее лабораторки студента так или иначе появляется своя библиотека виджетов, обычно это обвязка над стандартными каких-то специфичных для программы функций.
Не знаю как в шестом, но в 5-ом был один очень неприятный для меня момент, который если честно непонятно зачем был сделан. Если вы делаете свой виджет на основе QQuickItem то вам дорога делать кастомные QSGNode или использовать стандартные и вот в стандартных нет нода для отрисовки текста(!!!), он в приватном АПИ qt. У меня от этого факта реально конкретно подгорело в свое время. Типа в смысле? Выводить текст это прям то что нужно буквально сразу как делаешь кастомный виджет, почти всегда. Какого хрена? До сих пор не могу понять зачем они его сделали внутри приватного апи, откуда его не так просто достать, и делать этого явно не стоит.
Поэтому если вы планируете рисовать текст вам дорога в QQuickPaintedItem или делайте свою отрисовку текста, что вообще не тривиальная задача. Как вариант рендерить в текстуру и рисовать текстурки, но то же такое. А если хочется текст правильно рисовать... короче обычный программист это не сделает с первого раза, когда строится текстурный атлас шрифта, и потом начинается долго и упорно побеждать хинтинг шрифтов и uft8.
Как по мне так единственное что стоит использовать - это наследование от QQuickPaintedItem и QQuickItem. В таком случае можно обойтись обычной статической библиотекой и непонятно зачем городить огород с плагином(модулем).
Новые виджеты хочешь - не хочешь, а создаешь всегда, в этом концепция QML. Любой qml файл это уже новый виджет. Я бы назвал статью - разные способы рисования в QML.
Если нужно что-то сложное рисовать, то вероятно вам захочется делать это быстро или очень быстро, и тут добро пожаловать в С++.
Более интересна DGX Station, особенно цена, понятно что дешево не будет, но интересно насколько оно "недешево".
И конечно как написали выше хотелось бы понять предел этой штуки, получится ли запустить полную версию DeepSeek R1(а ведь скоро R2 выйдет). Как работает кластер из двух таких штук, насколько часто будет обновляться ОС. Можно ли поставить чистую убунту и драйвера отдельно. Сама по себе железка выглядит круто и достаточно дешево. Фактически это цена топового ноутбука или стартовой комплектации мак-студио. А по характеристикам просто монстр(хотя опять же вопрос, может мак-студио и быстрее будет, сравнивать бумажные цифры у меня получается плохо)
Никто не говорит что раньше было хорошо, говорят что сейчас стало еще хуже, проблема стала больше. Вчера вас били один раз палкой по рукам в день, сегодня пять раз в день. Вот о этом статья.
В целом это все в том или ином виде происходит все время, уверен что 40 лет назад были статьи(если был бы интернет) на тему вот вышли эти ваши языки высокого уровня, типа Си, раньше люди думали какие они инструкции отправляют в процессор, а сейчас могут бездумно вызвать алгоритмы квадратичной сложности одной строкой. А потом про RAD среды программирования, что мол вот раньше надо было думать какое WinAPI ты вызываешь и какие параметры передаешь, а сейчас перетянул виджет на форму и довольный сидишь.
В общем это замкнутый круг, с одной стороны мы создаем новые технологии что бы ускорить разработку и сделать сложные процессы легкими, с другой это открывает путь неофитам и "глупым" специалистам в профессию. И после каждого этапа у нас появляются инструменты что бы после улучшать код. Появились языки высокого уровня - появились профилировщики, анализаторы и прочее. Вероятно и сейчас чуть позже появятся инструменты на основе ИИ которые будут показывать проблемные места в коде, объяснять наглядно непонятный код и давать возможность его упростить или улучшить более сильному специалисту. После чего все снова станет на свои места и кто-то будет говнокодить что бы работало, а кто-то потом ходить подметать после первых.
Без лучей примерно 9070 примерно на 10-20% быстрее 5070(зависит от проекта, где-то медленнее), с лучами 2-3% 9070 медленнее чем 5070. Вы когда спорите тесты перед этим смотрите? Просто я смотрю. https://www.youtube.com/watch?v=6_C_22Wujc0
По ценам, рекомендованных цен нет ни на ту не на другую, есть реальные 99тр в ДНС на 9070XT и 77тр на RTX 5070, дальше выбирайте сами, на мой взгляд сейчас не стоит покупать ни ту ни другую и вообще видяху покупать не стоит, подождите несколько месяцев цены упадут ближе к 60-70 тр. (если доллар не уйдет в космос).
Мне лично не нужна ни та ни другая, если говорить о том что реально нужно так это RTX Pro 6000 c 96Гб на борту, что бы нейронки вертеть, но боюсь как увижу цены на это чудо инженерной мысли сразу пойму что и API в облаке в обще-то не дорогое.
RX 9700 XT плюс минус как RTX 5070, без лучей чуть быстрее, с лучами чуть медленнее, НО она дешевле, в этом суть. Другой вопрос что делать, если хочется быстрее чем 5070? Ничего, идти на поклон к НВидиа и готовить много много денег. Хорошо это или плохо? Конкуренция всегда хорошо, сбивает цены, с другой стороны сильно большой разницы в цене не будет, печатаются все на одинаковом техпроцессе на одной и той же фабрике, и сами продукты будут примерно одинаковые за примерно одинаковые деньги, разница будет в плюшках сверху, кто-то предложит более лучший апскейлер и хорошее программное АПИ, кто-то скидку в 20%, вот и все я конкуренция.
По той же причине более быстрая видеокарта будет стоить ощутимо дороже, потому что мощность достигается большим количеством кремния, а значит больше чип - дороже производство. Если техпроцесс не меняется, то лучше видеокарту можно сделать только, если сделать чип физически больше и получить больше процент брака. Аналогов чиплетной компоновки для видеокарт никто не сделал (возможно это не так легко или вообще бессмысленно). Поэтому сидим и ждем улучшение техпроцесса, но не в этом году точно. Может быть в следующем. Вот такой скучный мир наступает когда упираешься в размеры когда теряются полупроводниковые свойства у вещества. Сейчас все выглядит так что +10-15% прироста перфа раз в три года это новая реальность в которой надо жить.
Очень странный обзор, про теслу расписано очень подробно, а про яндекс "Особенности: Интеграция с экосистемой Яндекса (поиск, карты, такси).". А вас не смущает что у Яндекса вот прям сейчас ездят дроны доставки и автономные такси? Да такси с человеком за рулем(который должен вмешиваться только в критической ситуации) и в тестовом режиме и не везде, но все же.
Плюс между москвой и СПБ прям сейчас ездят беспилотные грузовики.
По беспилотным технологиям яндекс реально сейчас топ или близко в топе.
В целом ГИГА чат и яндекс гпт не сильно проигрывают. ДипСик выложил файл весов, никто не мешает его локально запустить. Гугл и остальные то же периодически модели показывают. Я могу ошибаться, но самые закрытые модели у самой открытой по названию компании OpenAI.
Примерно так же как и к тому факту что компьютер лучше меня играет в шахматы и го.
Почитайте сколько раз с изобретения компьютера к нам приходила эра ИИ и сколько раз она потому куда-то уходила.
Безусловно каждый приход эры ИИ оставлял после себя много всего, и уже понятно что БЯМ или как говорит автор ГИИ останутся, как остались поисковики, облака, экспертные системы(предыдущий приход ИИ).
Вы сами программировали вместе с ИИ? или только слышали?
Вот хорошо, завтра выходит ПикМик, пишет код в среднем лучше чем человек, а если не пишет? Вот раз и все программа глючит, задача не сделана дальше что? Пойдете в спортлото жаловаться? Или звать обратно только что уволенного Васю программиста. А значит останутся только лучшие, а 90% пойдут подметать улицы, ну хорошо, значит задача попасть в 10% лучших, меня это устраивает, я давно говорю что в профессии очень много лишних людей.
В крайнем случае у меня есть 50 соток земли и 3д принтер, распечатаю сгенеренного ИИ робота, залью туда созданную ИИ прошивку и будет он мне картошку и хрен растить на всю страну, а я буду сериалы смотреть и в игрушки рубиться, можно даже с ии, вообще отличный вариант. Впаду в гедонизм ))
Что бы попробовать писать код с ИИ нужно сначала уметь писать код в принципе. Это новый тренд что ли рассуждать о том как будет когда смутно понимаешь предмет рассуждения. Сейчас самые умные на мой взгляд это ДипСик и Грок3, но даже они начинаю писать полный бред через две три итерации. Использовать их как справочную систему - это круто, использовать как источник примеров - это круто, попросить сделать очень изолированный алгоритм - да, скорее всего сделают, но код может быть странным, мягко сказать. Последние пару месяцев пишу весь код вместе с ИИ, но это скорее как очень крутая справка и автокоррекция. Чет такое. Мне это, признаюсь, доставляет удовольствие и даже по своему развлекает, давно не испытывал такого при программирование, чем-то похоже на парное программирование, но без второго человека, сложно описать. Однозначно, если у меня забрать теперь эту игрушку мне станет скучнее. Но это не замена, это тула которая ускоряет специалиста. Это все равно что сказать что Visual Assist заменит программиста. ИИ дает примерно тот же эффект, что если бы я писал проект и подглядывал в похожие. Еще достаточно удобно когда например надо в игре сделать что-то похожее на реальный мир, например варку пива, вместо хаотичного чтения разных википедий и книжек, адресно спрашиваю у ИИ он мне в общих чертах объясняет. Потом уже уточняю в справочной литературе, если нужно. Опять же считай справка на стероидах про мир.
Возможно у меня старая материнская плата с PCI 3.0 и это замедляет процесс. Надо перекинуть материнку с сервера там 4.0 посмотреть что будет. Мне то же показалось что QwQ32B как-то подозрительно медленно работает.
Но опять же, DeepSeek, Grok3 и Claude 3.7 доступны и все равно лучше. Работают быстро, какой смысл в локальном запуске? Сделают платными? Введут лимиты? Пока выглядит так что ИИ-поезд едет вперед и набирает скорость и скорее остальные станут бесплатными.
В этом случае - да. Возможно я агенду не прочитал внимательно. Я думал что вы сделали приложение для пользователей.
Тем что это противоречит документации Google. Пользователи должны работать через авторизацию для пользователей, а сервисный аккаунт это условно аналог рута в ОС, почему пользователи в ОС работают в пользовательском пространстве? Ведь это их компьютер могут и от рута все запускать и вообще заходить в систему из под рута, верно? (ну могли бы в старых версия линукса, сейчас вроде нельзя зайти из под рута, отключили), по этой же причине отключили su, теперь только sudo. Потому что это нарушение правил безопасности, дает слишком много полномочий и плохо поддается контролю и вообще система не рассчитана на работу пользователей из под сервисного аккаунта, само название как бы намекает о его предназначение.
Пользователь не должен заходить в консоль, ему там делать нечего. И уж тем более он не должен брать оттуда ключи и отдавать их куда-то.
Это не совсем правильный путь. Клиентам не нужно создавать сервисный аккаунт. С точки зрения пользователя авторизация выглядит вот так.
1) пользователю ваша программа дает URL - это специальная ссылка которая формируется по определенным правилам. Пользователь должен ее скопировать и вставить в браузер. После чего ему будет показано окно где будет видно какое приложение, какой компании запрашивает доступ к его аккаунту. Как альтернатива это окно можно открывать из вашей программе, а потом доставать ключ автоматически.
2) После авторизации пользователя ему выдает ключ, этот ключ он должен отдать вашей программе.
3) Ваша программа используя ключ от пользователя (не сервисный аккаунт). Может получать доступ через Гугл АПИ к данным в аккаунте пользователя.
При таком подходе пользователь может в любой момент смотреть каким приложениям он дал доступ и отозвать его, а так же при авторизации выбирать аккаунт.
Вы уверены что это то что должно работать у клиентов? Через сервисный аккаунт? Я делал иначе, создается приложение в гугл консоли, после чего для авторизации пользователю дается ссылка открыв которую в браузере он должен получить ключ(по-моему это называется рефреш токен). Этот токен он отдает вашему приложению и вы его должны сохранить. Но по нему нельзя работать с АПИ, его нужно поменять на другой токен и вот с ним обращаться к АПИ. Могу более подробно кодом показать как это делается.
Что бы конкретный пользователь мог работать с конкретной таблицей должны совпасть две вещи 1) идентификация пользователя (что бы проверить что у него есть доступ к таблице), 2) идентификация приложения (гугл заставляет ваш код представляться каждый раз когда вы хотите вызвать его АПИ)
Это безусловно полезно и скорее всего мне пригодиться вот прям скоро. Обычно нет необходимости так делать, в своих рабочих проектах такого избегал, потому что зачем добавлять сложность в проект, если можно без этого, лучший код которого нет, но вот прям сейчас в рамках домашнего проекта задумал сделать библиотеку которая выключает стандартные рамки окна(не знаю как правильно называется) и использует свой декоратор, свои кнопки закрытия, сворачивание и прочее. Это достаточно изолированная часть и надоело таскать из проекта в проект код, проще действительно сделать либу(плагин) и вот это все, что вы описали и положить в отдельный репозиторий. Последний раз плагины делал на Qt 3.7 ))) лет 20 назад, с тех пор конечно много поменялось.
Мне доводилось видеть проект где вместо обычных статических либ было разбиение проекта именно на qt плагины, причем обоснования не было, просто вот так захотелось кому-то в команде на ранних стадиях разработки, сложность сразу выросла, как по сборке, так и по разработке. Не драматично, но постоянно что-то из-за этого мешалось, конкретных деталей уже не вспомню, давно было, помню общие ощущения от работы.
Qt дает много фичей, некоторые из них надо применять очень редко и очень в особых случаях, они могут быть хороши для самой библиотеки, но для приложения вредить, вот в чем моя мысль.
Не понимаю что вы имеете ввиду? Вы берете и наследуетесь от QQuickItem, это будет обычный С++ класс(с поправкой на мок, QObject и прочее), но в итоге это соберется в обычный объектный файл. Останется только регистрацию в самом приложение сделать(qmlRegisterType).
Это как раз самое сложное, особенно, если использовать R1 апи, оно просто в поток шлет все подряд, может обрывать json в теле на половине, вообще рвет как угодно, поэтому нужно накапливать выхлоп из потока, разбивать на отдельные пакеты, и брать те которые уже сформировались, выкусывать из буффера и обрабатывать. Апи там в целом похожее на ChatGPT, апи у всех сеток в общем похожее, есть маленькие различия, которые не всегда описаны в документации и как использовать АПИ иногда проще узнать у самого бота, или посмотреть внимательно на то что приходит в body ответа. По ценам примерно в 10 или 100 раз дешевле Grok. Но контекст всего 32 тысячи токенов, у Грока 128к, но еще две недели назад через апи была доступна только вторая версия, а третья - "каминг сун".
У автора в статье график - самое быстрое это манипулировать QSGNode. Так что не гарантия, кривые руки могут испортить все, но это способ получить самую быструю отрисовку.
Ну примерно о этом и сказал, если нужен виджет который показывает примерно одинаковые списки, просто делайте свою qml'ку на основе listview и не парьтесь. Свой виджет нужен когда надо рисовать что-то очень замороченное, например флеймграф колстека(это то для чего мне приходилось делать) или карту игры. В любой программе на QML которая сложнее лабораторки студента так или иначе появляется своя библиотека виджетов, обычно это обвязка над стандартными каких-то специфичных для программы функций.
Не знаю как в шестом, но в 5-ом был один очень неприятный для меня момент, который если честно непонятно зачем был сделан. Если вы делаете свой виджет на основе QQuickItem то вам дорога делать кастомные QSGNode или использовать стандартные и вот в стандартных нет нода для отрисовки текста(!!!), он в приватном АПИ qt. У меня от этого факта реально конкретно подгорело в свое время. Типа в смысле? Выводить текст это прям то что нужно буквально сразу как делаешь кастомный виджет, почти всегда. Какого хрена? До сих пор не могу понять зачем они его сделали внутри приватного апи, откуда его не так просто достать, и делать этого явно не стоит.
Поэтому если вы планируете рисовать текст вам дорога в QQuickPaintedItem или делайте свою отрисовку текста, что вообще не тривиальная задача. Как вариант рендерить в текстуру и рисовать текстурки, но то же такое. А если хочется текст правильно рисовать... короче обычный программист это не сделает с первого раза, когда строится текстурный атлас шрифта, и потом начинается долго и упорно побеждать хинтинг шрифтов и uft8.
Как по мне так единственное что стоит использовать - это наследование от QQuickPaintedItem и QQuickItem. В таком случае можно обойтись обычной статической библиотекой и непонятно зачем городить огород с плагином(модулем).
Новые виджеты хочешь - не хочешь, а создаешь всегда, в этом концепция QML. Любой qml файл это уже новый виджет. Я бы назвал статью - разные способы рисования в QML.
Если нужно что-то сложное рисовать, то вероятно вам захочется делать это быстро или очень быстро, и тут добро пожаловать в С++.
Это обязательно! )))
Более интересна DGX Station, особенно цена, понятно что дешево не будет, но интересно насколько оно "недешево".
И конечно как написали выше хотелось бы понять предел этой штуки, получится ли запустить полную версию DeepSeek R1(а ведь скоро R2 выйдет). Как работает кластер из двух таких штук, насколько часто будет обновляться ОС. Можно ли поставить чистую убунту и драйвера отдельно.
Сама по себе железка выглядит круто и достаточно дешево. Фактически это цена топового ноутбука или стартовой комплектации мак-студио. А по характеристикам просто монстр(хотя опять же вопрос, может мак-студио и быстрее будет, сравнивать бумажные цифры у меня получается плохо)
Никто не говорит что раньше было хорошо, говорят что сейчас стало еще хуже, проблема стала больше. Вчера вас били один раз палкой по рукам в день, сегодня пять раз в день. Вот о этом статья.
В целом это все в том или ином виде происходит все время, уверен что 40 лет назад были статьи(если был бы интернет) на тему вот вышли эти ваши языки высокого уровня, типа Си, раньше люди думали какие они инструкции отправляют в процессор, а сейчас могут бездумно вызвать алгоритмы квадратичной сложности одной строкой. А потом про RAD среды программирования, что мол вот раньше надо было думать какое WinAPI ты вызываешь и какие параметры передаешь, а сейчас перетянул виджет на форму и довольный сидишь.
В общем это замкнутый круг, с одной стороны мы создаем новые технологии что бы ускорить разработку и сделать сложные процессы легкими, с другой это открывает путь неофитам и "глупым" специалистам в профессию. И после каждого этапа у нас появляются инструменты что бы после улучшать код. Появились языки высокого уровня - появились профилировщики, анализаторы и прочее. Вероятно и сейчас чуть позже появятся инструменты на основе ИИ которые будут показывать проблемные места в коде, объяснять наглядно непонятный код и давать возможность его упростить или улучшить более сильному специалисту. После чего все снова станет на свои места и кто-то будет говнокодить что бы работало, а кто-то потом ходить подметать после первых.
GTA 5, 4K, RT: RTX 5070 - 62 FPS, RX 9070XT - 64 FPS
Cyberpunk, QHD, RT: RTX 5070 - 26 FPS, RX 9070XT - 24 FPS
FHD: RTX 5070 - 43 FPS, RX 9070XT - 40 FPS
Silent Hill 2, 4k RT: 5070 - 39 FPS, RX 9070XT - 38 FPS
Без лучей примерно 9070 примерно на 10-20% быстрее 5070(зависит от проекта, где-то медленнее), с лучами 2-3% 9070 медленнее чем 5070. Вы когда спорите тесты перед этим смотрите? Просто я смотрю. https://www.youtube.com/watch?v=6_C_22Wujc0
По ценам, рекомендованных цен нет ни на ту не на другую, есть реальные 99тр в ДНС на 9070XT и 77тр на RTX 5070, дальше выбирайте сами, на мой взгляд сейчас не стоит покупать ни ту ни другую и вообще видяху покупать не стоит, подождите несколько месяцев цены упадут ближе к 60-70 тр. (если доллар не уйдет в космос).
Мне лично не нужна ни та ни другая, если говорить о том что реально нужно так это RTX Pro 6000 c 96Гб на борту, что бы нейронки вертеть, но боюсь как увижу цены на это чудо инженерной мысли сразу пойму что и API в облаке в обще-то не дорогое.
RX 9700 XT плюс минус как RTX 5070, без лучей чуть быстрее, с лучами чуть медленнее, НО она дешевле, в этом суть. Другой вопрос что делать, если хочется быстрее чем 5070? Ничего, идти на поклон к НВидиа и готовить много много денег. Хорошо это или плохо? Конкуренция всегда хорошо, сбивает цены, с другой стороны сильно большой разницы в цене не будет, печатаются все на одинаковом техпроцессе на одной и той же фабрике, и сами продукты будут примерно одинаковые за примерно одинаковые деньги, разница будет в плюшках сверху, кто-то предложит более лучший апскейлер и хорошее программное АПИ, кто-то скидку в 20%, вот и все я конкуренция.
По той же причине более быстрая видеокарта будет стоить ощутимо дороже, потому что мощность достигается большим количеством кремния, а значит больше чип - дороже производство. Если техпроцесс не меняется, то лучше видеокарту можно сделать только, если сделать чип физически больше и получить больше процент брака. Аналогов чиплетной компоновки для видеокарт никто не сделал (возможно это не так легко или вообще бессмысленно). Поэтому сидим и ждем улучшение техпроцесса, но не в этом году точно. Может быть в следующем. Вот такой скучный мир наступает когда упираешься в размеры когда теряются полупроводниковые свойства у вещества. Сейчас все выглядит так что +10-15% прироста перфа раз в три года это новая реальность в которой надо жить.
Очень странный обзор, про теслу расписано очень подробно, а про яндекс "Особенности: Интеграция с экосистемой Яндекса (поиск, карты, такси).". А вас не смущает что у Яндекса вот прям сейчас ездят дроны доставки и автономные такси? Да такси с человеком за рулем(который должен вмешиваться только в критической ситуации) и в тестовом режиме и не везде, но все же.
Плюс между москвой и СПБ прям сейчас ездят беспилотные грузовики.
По беспилотным технологиям яндекс реально сейчас топ или близко в топе.
В целом ГИГА чат и яндекс гпт не сильно проигрывают. ДипСик выложил файл весов, никто не мешает его локально запустить. Гугл и остальные то же периодически модели показывают. Я могу ошибаться, но самые закрытые модели у самой открытой по названию компании OpenAI.
Примерно так же как и к тому факту что компьютер лучше меня играет в шахматы и го.
Почитайте сколько раз с изобретения компьютера к нам приходила эра ИИ и сколько раз она потому куда-то уходила.
Безусловно каждый приход эры ИИ оставлял после себя много всего, и уже понятно что БЯМ или как говорит автор ГИИ останутся, как остались поисковики, облака, экспертные системы(предыдущий приход ИИ).
Вы сами программировали вместе с ИИ? или только слышали?
Вот хорошо, завтра выходит ПикМик, пишет код в среднем лучше чем человек, а если не пишет? Вот раз и все программа глючит, задача не сделана дальше что? Пойдете в спортлото жаловаться? Или звать обратно только что уволенного Васю программиста. А значит останутся только лучшие, а 90% пойдут подметать улицы, ну хорошо, значит задача попасть в 10% лучших, меня это устраивает, я давно говорю что в профессии очень много лишних людей.
В крайнем случае у меня есть 50 соток земли и 3д принтер, распечатаю сгенеренного ИИ робота, залью туда созданную ИИ прошивку и будет он мне картошку и хрен растить на всю страну, а я буду сериалы смотреть и в игрушки рубиться, можно даже с ии, вообще отличный вариант. Впаду в гедонизм ))
Что бы попробовать писать код с ИИ нужно сначала уметь писать код в принципе. Это новый тренд что ли рассуждать о том как будет когда смутно понимаешь предмет рассуждения. Сейчас самые умные на мой взгляд это ДипСик и Грок3, но даже они начинаю писать полный бред через две три итерации. Использовать их как справочную систему - это круто, использовать как источник примеров - это круто, попросить сделать очень изолированный алгоритм - да, скорее всего сделают, но код может быть странным, мягко сказать. Последние пару месяцев пишу весь код вместе с ИИ, но это скорее как очень крутая справка и автокоррекция. Чет такое. Мне это, признаюсь, доставляет удовольствие и даже по своему развлекает, давно не испытывал такого при программирование, чем-то похоже на парное программирование, но без второго человека, сложно описать. Однозначно, если у меня забрать теперь эту игрушку мне станет скучнее. Но это не замена, это тула которая ускоряет специалиста. Это все равно что сказать что Visual Assist заменит программиста. ИИ дает примерно тот же эффект, что если бы я писал проект и подглядывал в похожие. Еще достаточно удобно когда например надо в игре сделать что-то похожее на реальный мир, например варку пива, вместо хаотичного чтения разных википедий и книжек, адресно спрашиваю у ИИ он мне в общих чертах объясняет. Потом уже уточняю в справочной литературе, если нужно. Опять же считай справка на стероидах про мир.
И да, галлюцинации это беда.
Шесть часов назад пулреквест в olama приняли с фиксом бага на запуск Gemma, так что думаю до LMStudio скоро то же доедет. Ждем обновления.
https://github.com/ggml-org/llama.cpp/pull/12343
Возможно у меня старая материнская плата с PCI 3.0 и это замедляет процесс. Надо перекинуть материнку с сервера там 4.0 посмотреть что будет. Мне то же показалось что QwQ32B как-то подозрительно медленно работает.
Но опять же, DeepSeek, Grok3 и Claude 3.7 доступны и все равно лучше. Работают быстро, какой смысл в локальном запуске? Сделают платными? Введут лимиты? Пока выглядит так что ИИ-поезд едет вперед и набирает скорость и скорее остальные станут бесплатными.