https://www.reddit.com/r/StableDiffusion/
Отзыв художницы
Полностью портабельная сборка, достаточно скачать и запустить в три клика, интернет не нужен. Поддерживаются только NVIDIA GPU.
Скачать здесь(обновлено) : https://cloud.mail.ru/public/MTv5/S8mz382KZ
Основана на:
https://github.com/CompVis/stable-diffusion
https://github.com/basujindal/stable-diffusion
https://github.com/hlky/stable-diffusion-webui
https://github.com/oskaritimperi/portablepython/
Требования по видео памяти:
Для webui:
8GB VRAM: output 512x512 (default width/height)
12GB VRAM: output 704x704, 512x1024 (max width/height)
Для vram_optimized:
4GB VRAM: output 384x384 (max width/height)
6GB VRAM: output 512x512 (default width/height)
12GB VRAM: output 768x768, 512x1024, 640x1024 (max width/height)
webui примерно в три раза быстрее.
PS: если ссылка поломается, сообщите, перевыложу
Респект, сильно поможет людям. Я бегал по репозиториям и анакондам собирал, тот ещё квест.
arte_de_mort
Может подскажешь, куда еще можно закинуть? может какие-то сайты художников? я то сам программист )
Не знаю, я тоже не особо варюсь в творческих кругах :) Вероятно геймдев и артовые дискорды, телеграмы и паблики вконтакте.
webui падает
vram_optimized выдает только чёрные картинки
Вот тебе и stable diffusion
Андрей5000
> webui падает
> vram_optimized выдает только чёрные картинки
> Вот тебе и stable diffusion
А сколько у тебя памяти на видеокарте?
thevlad
Спасибо, человек! Как же я задолбался по частям ее собирать, анаконду ставь, питон ставь. Твоя сборка заработала из под коробки.
Есть какие нибудь хорошие параметры, сколько там итераций доложно быть, сколько ddim_steps для нормального результата?
HolyDel
> Есть какие нибудь хорошие параметры, сколько там итераций доложно быть, сколько
> ddim_steps для нормального результата?
По моим тестам, steps=50, scale=7.5 самый норм параметр для начала, но потом их надо менять в зависимости от того, что ты делаешь и чего добиваешься. Но самое важное это правильный промпт задизайнить - в этом вся наука :)
Кто-нибудь может мне объяснить как это работает ? Я посмотрел некоторые ролики и мне приблизительно понятен основной принцип работы нейросетей, но не очень понял то, как они именно рисуют. Вот волосы на переднем плане светлее а на заднем темнее, и как нейросеть это идентифицирует ? Или она уже взяла готовый кусок арта из гугл картинок и сделала коллаж ?
Немного уточню вопрос.
Меня не её художественная задумка интересует, а то как она распознаёт объёмы, направление света и перспективу.
Если бы она делала это в 3D, то вопрос отпал, но не очень понятно то, как это реализовываться в 2D.
711
На мой дилетантский взгляд оно анализирует массу картинок с волосами и находит закономерность, что "волосы на переднем плане светлее а на заднем темнее", и пытается эту закономерность повторить.
Да. С той лишь разницей, что она толком не знает, что такое волосы и освещение. Т.е. если бы НСку обучали на миллионе анимешных картинок с зелёными/синими волосами - она всем бы такие и генерила.
Т.е. на самом деле она может ошибаться во многих деталях - нарисовать "неправильные" ногу/руку (левую/правую), направление взгляда может быть "не туда", украшения могут быть неподходящие (или просто некорректно отрисованные как на картинке выше) и т.д. Не говоря уже об освещении (когда тени и блики будут несоответствовать), направлении ветра и т.д.
Все эти мелочи художники должны замечать и исправлять сами.
arte_de_mort
Да, у меня тоже первая мысль была именно такая и возможно она правильная.
Но как я понял, что бы нейросеть чему то научилась, её нужно поправлять вручную. После того как нейросеть приняла “решение”, то человек или программа (с правильным ответом) должны проверить и вынести свой вердикт и только благодаря этому она учится. И тут возникает вопрос - существует миллионы предметов, и неужели её обучили всем признакам этих предметов и тем более тому как они должны взаимодействовать ? Например (на картинке выше) волосы облегают плечи. Получается нейросеть обучили тому, насколько плечо выступает вперёд относительно головы на которой растут волосы ? …ну не знаю, возможно это я отстал от жизни )
На картинке из первого поста видно у персонажа отчётливую и относительно правильную форму ключицы и её направление. Неужели кто то обучал нейросеть отличать ключицу от других загогулин ? (я конечно понимаю что есть соседние ориентиры, например в виде головы, но всё же...)
GDR
Исправить не проблема. Вопрос больше о пригодности данного софта в будущем. Насколько он контролируем ? Насколько он последователен ?
Есть интересный сервер и интерес его не в том, что он что то там отгадывает а в том что после теста можно посмотреть информацию о том как она пыталась это делать.
https://quickdraw.withgoogle.com/?locale=ru
Мне кажется маловероятным, что нейросеть прямо сидели и учили, что правильно, а что нет - это убивает весь смысл. Да и слишком большая работа - предусмотреть все кейсы.