С Новым 2026 годом! Желаю всем всего!

Сводная таблица из 900+ AI проектов с открытым исходным кодом

Каким будет GTA 7

В 2026 году обещают выход игры GTA6, которая сейчас поражает всех уровнем детализации. При этом разрабатывалась она по старинке, достойного качества нейросетевой генерации графики еще не было. без

Как повлияет ИИ на выход GTA 7? (не 6, а следующей). Думаю, что более глубокий уровень детализации будет проще выдумывать нейронкой, а не прорабатывать ручным трудом. Нейросети лучше всего умеют уточнять и повторять. Будет ИИ пост обработка графики: поверх шейдеров будет рилтайм обработка нейросетью. И будет нейросетевая генерация второстепенного контента.

Как я представляю возможное улучшение:
1. Основные модели выполнены по существующим технологиям, но с упрощением рутинных шагов типа ретопологии нейросетью и создание текстур с нейросетью. Этот процесс не изменится радикально, поскольку тут требуется как новаторская художественность так и оптимизация при сохранении узнаваемости — это решения человека-технаря-художника.

2. Сверх детализация текстурами. В самом игровом процессе при близком рассмотрении будет происходить ИИ детализация материалов: рефлексы, трещины, поры, нитки ткани будут появляться на клиенте, в саму игру захардкожены не будут.

3. Временное моделирование. Будут создаваться на лету мелкие объекты окружения, которые не надо хранить и строго одинаково отображать. Типа дорисовывать мусор, птиц, листопад. Может быть временно помнить: предметы, например много посуды на кухне, такое что к следующему посещению локации может быть совсем другим.

4. 3D ИИ моделирование окружения по требованию. Когда расположение важно но требует сохранения, а общий вид предметов практически любой в рамках референсов. Окружение третьестепенных локаций будет создаваться и храниться на клиенте, в них для игры принципиален только хитбокс, который однозначным будет только как лоуполи. Например, чтобы не расставлять бесчисленное число мебели во всех комнатах небоскребов, камни в горах и морях, деревья в лесу. Просто автор описывает содержимое, а ИИ генерит на клиенте и делает кэш.

5. Без сомнения все диалоги со второстепенными NPC будут создаваться нейросетью на лету, это уже сегодня возможно. Пока подходишь к персонажу можно успеть сгенерить и текст и голос. Уверен в будущих сэндбоксах, даже проще GTA7, это будет мастхэв.

6. Нейросетевая постобработка изображения. Позволит выровнять мелкие нюансы графики: типа пересечений плоскостей, мелкие ошибки. Будет поддерживать синхронизацию атмосферы с сюжетом и музыкой. Тюнинг тонких нюансов добавляющий художественности и кинематографичности.

Как я делаю картинки с помощью нейросети

Друг-математик попросил меня сегодня сделать ему дидактический материал, чтобы объяснять на пальцах восьмеричную систему исчисления. Вот что получилось.

octal system 0 8

Сырьё за 15 минут получил у Дейла ChatGPT: удачный визуал, но с обрезанным 0, без четырёхпалой 2 и без 4.

Еле уговорил создать что-то похожее на 2 так, чтобы большой палец касался одного мизинца — не может Дейл сделать из 4 пальцев знак V, только из пяти пальцев. Легко сгенерил отдельно 4.

И 40 мин фотошопил c clone fill и puppet wrap.

Шрифт Ubuntu для цифр — давно считаю его подходящим для детей, у шрифта очень круглый и чёткий характер.

Исходники и перчатки в PNG на прозрачном фоне доступны у меня на Patreon

hands2

Локальные LLM, Что происходит, когда вы запускаете LLM?

¶ Копипаста. Не я автор этого текста.

Источник: https://x.com/softwarevlogger/status/1974774200612093992

Что происходит, когда вы запускаете LLM?

Работа модели по другому называется inference (вывод) или использование весов модели. Вывод — по сути предсказание следующего токена на основе вашего ввода и всех токенов сгенерированных на предыдущих шагах. Все это образует последовательность.

Токены — это не слова. Токены это кусочки обозначающие текст, который видит модель. В модели они представлены целыми числами или ID токенов. Токенизация — разбиение текста на токены. Распространенные алгоритмы: BPE (byte pair encoding), SentencePiece. Конкретные токены отличаются в разных моделях. Вот иллюстративный пример: “hello” — может быть 1-3 токена, “internationalization” 5-8 токенов.

Контекстное окно — максимальное количество токенов, которые может увидеть модель за раз. Чем больше context тем больше VRAM для KV кеша потребуется и тем медленнее будет декодировка.

В процессе вывода модель предсказывает следующий токен перемножая свои веса. Веса модели — это миллиарды выученных параметров. Параметры модели — миллиарды чисел или весов, которые модель усваивает в процессе обучения. Эти веса кодируют все что модель знает: шаблоны, язык, факты, “мышление”. Когда вы используете модель, она использует эти параметры, чтобы предугадать следующий наиболее вероятный токен. Один токен за раз. Шаг за шагом.

Читать далее…