3D-модель в нейросетях - Это революция! Blender + Hunyuan
ИИ для 3D больше не миф - нейросети уже умеют собирать 3д-модели! Blender + Hunyuan Бесплатный мини-курс по Blender - https://cloudlessons.ru/mc/blender-mini-v5/?camp_id=26902 Полезные ссылки к видео: https://3d.hunyuanglobal.com/ https://extensions.blender.org/add-ons/polyquilt-fork/ В этом видео мы покажем, как выглядит 3D-моделирование в нейросетях на практике: мы возьмём картинку-концепт, закинем её в Hunyuan 3.0, получим готовую 3D-модель, сделаем ретопологию в нейросети и вручную в Blender, запечём текстуры и доведём все до идеала в Substance Painter. Сначала мы создаём концепт: берём хайповый эмодзи истукана, находим референс и дорабатываем через ChatGPT. Такой подход показывает, как связать разные нейросети в одном пайплайне: одна генерирует 2D-картинку, другая — полноценную 3D-модель. После этого мы переходим на сайт Hunyuan, используем режим image to 3D, настраиваем параметры (геометрия + текстура, до 1,5 млн треугольников) и получаем детализированную хайпольную модель. Оцениваем качество сетки и симметрию. Это отличный пример того, как ИИ для 3D уже сегодня экономит часы ручной работы. Но магия нейросетей — это только половина пути. Сетка получается тяжёлой, поэтому нам нужна ретопология. Сначала мы пробуем автоматическую ретопологию прямо в Hunyuan через 3D Smart Topology. Дальше начинается классика - ручная ретопология в Blender. Мы импортируем модель, создаём лоупольный контейнер, настраиваем привязки, отключаем выделение хайпольки и подключаем аддон polyquilt. Когда low-poly модель готова, мы делаем UV-развёртку, настраиваем модификатор Mirror, выравниваем вершины по оси и получаем аккуратную симметричную модель. После этого переходим к самому вкусному — запеканию текстур. В Blender я показываю, как настроить рендер Cycles, выбрать режим Bake, запечь diffuse и normal с хайпольной нейросеточной модели на нашу оптимизированную болванку. Разбираем важные нюансы: extrusion-дистанция, порядок выбора объектов (сначала хай, потом лоу), работа с контейнерами Image Texture, корректные color space для карт нормалей и подключение через ноду Normal Map. Затем мы переносим результат в Substance Painter: импортируем лоупольку, загружаем карты, назначаем их через fill-слой и настраиваем цветовое пространство. Я показываю, как находить и править артефакты, работать со штампом (projection), переключаться между 2D и 3D-видами, дорисовывать детали и маскировать проблемные швы. Это важный шаг, чтобы связка «нейросети + Blender» давала не сырую заготовку, а реально готовый ассет для игры или анимации. В итоге вы получаете понятный, цельный пайплайн: от идеи и нейросети до оптимизированной модели с картами diffuse и normal, готовой к использованию в проекте. Такое 3D-моделирование в нейросетях отлично подойдёт как 3D-художникам, так и игровым разработчикам, которые хотят ускорить производство контента, не теряя контроля над качеством. #blender #ai #3d
ИИ для 3D больше не миф - нейросети уже умеют собирать 3д-модели! Blender + Hunyuan Бесплатный мини-курс по Blender - https://cloudlessons.ru/mc/blender-mini-v5/?camp_id=26902 Полезные ссылки к видео: https://3d.hunyuanglobal.com/ https://extensions.blender.org/add-ons/polyquilt-fork/ В этом видео мы покажем, как выглядит 3D-моделирование в нейросетях на практике: мы возьмём картинку-концепт, закинем её в Hunyuan 3.0, получим готовую 3D-модель, сделаем ретопологию в нейросети и вручную в Blender, запечём текстуры и доведём все до идеала в Substance Painter. Сначала мы создаём концепт: берём хайповый эмодзи истукана, находим референс и дорабатываем через ChatGPT. Такой подход показывает, как связать разные нейросети в одном пайплайне: одна генерирует 2D-картинку, другая — полноценную 3D-модель. После этого мы переходим на сайт Hunyuan, используем режим image to 3D, настраиваем параметры (геометрия + текстура, до 1,5 млн треугольников) и получаем детализированную хайпольную модель. Оцениваем качество сетки и симметрию. Это отличный пример того, как ИИ для 3D уже сегодня экономит часы ручной работы. Но магия нейросетей — это только половина пути. Сетка получается тяжёлой, поэтому нам нужна ретопология. Сначала мы пробуем автоматическую ретопологию прямо в Hunyuan через 3D Smart Topology. Дальше начинается классика - ручная ретопология в Blender. Мы импортируем модель, создаём лоупольный контейнер, настраиваем привязки, отключаем выделение хайпольки и подключаем аддон polyquilt. Когда low-poly модель готова, мы делаем UV-развёртку, настраиваем модификатор Mirror, выравниваем вершины по оси и получаем аккуратную симметричную модель. После этого переходим к самому вкусному — запеканию текстур. В Blender я показываю, как настроить рендер Cycles, выбрать режим Bake, запечь diffuse и normal с хайпольной нейросеточной модели на нашу оптимизированную болванку. Разбираем важные нюансы: extrusion-дистанция, порядок выбора объектов (сначала хай, потом лоу), работа с контейнерами Image Texture, корректные color space для карт нормалей и подключение через ноду Normal Map. Затем мы переносим результат в Substance Painter: импортируем лоупольку, загружаем карты, назначаем их через fill-слой и настраиваем цветовое пространство. Я показываю, как находить и править артефакты, работать со штампом (projection), переключаться между 2D и 3D-видами, дорисовывать детали и маскировать проблемные швы. Это важный шаг, чтобы связка «нейросети + Blender» давала не сырую заготовку, а реально готовый ассет для игры или анимации. В итоге вы получаете понятный, цельный пайплайн: от идеи и нейросети до оптимизированной модели с картами diffuse и normal, готовой к использованию в проекте. Такое 3D-моделирование в нейросетях отлично подойдёт как 3D-художникам, так и игровым разработчикам, которые хотят ускорить производство контента, не теряя контроля над качеством. #blender #ai #3d
