Войти
АртФорумОбщее

Переносимая сборка Stable-Diffusion, достаточно распаковать и запустить (аналог DALLE-2, Midjourney)

Страницы: 1 2 3 4 5 6 Следующая »
#0
(Правка: 3 сен 2022, 16:37) 20:55, 2 сен 2022

https://www.reddit.com/r/StableDiffusion/
Отзыв художницы


Полностью портабельная сборка, достаточно скачать и запустить в три клика, интернет не нужен. Поддерживаются только NVIDIA GPU.

Скачать здесь(обновлено) : https://cloud.mail.ru/public/MTv5/S8mz382KZ


Основана на:

https://github.com/CompVis/stable-diffusion

https://github.com/basujindal/stable-diffusion

https://github.com/hlky/stable-diffusion-webui

https://github.com/oskaritimperi/portablepython/


Требования по видео памяти:

Для webui:

8GB VRAM: output 512x512 (default width/height)

12GB VRAM: output 704x704, 512x1024 (max width/height)


Для vram_optimized:

4GB VRAM: output 384x384 (max width/height)

6GB VRAM: output 512x512 (default width/height)

12GB VRAM: output 768x768, 512x1024, 640x1024 (max width/height)


webui примерно в три раза быстрее.


PS: если ссылка поломается, сообщите, перевыложу

#1
(Правка: 21:50) 21:47, 2 сен 2022

Респект, сильно поможет людям. Я бегал по репозиториям и анакондам собирал, тот ещё квест.

Даёшь народу нейросети!
000001-211193115

#2
16:44, 3 сен 2022

arte_de_mort
Может подскажешь, куда еще можно закинуть? может какие-то сайты художников? я то сам программист )

#3
16:53, 3 сен 2022

Не знаю, я тоже не особо варюсь в творческих кругах :) Вероятно геймдев и артовые дискорды, телеграмы и паблики вконтакте.

#4
21:25, 6 сен 2022

webui падает
vram_optimized выдает только чёрные картинки
Вот тебе и stable diffusion

#5
3:39, 7 сен 2022

Андрей5000
> webui падает
> vram_optimized выдает только чёрные картинки
> Вот тебе и stable diffusion
А сколько у тебя памяти на видеокарте?

#6
10:39, 7 сен 2022

thevlad
Спасибо, человек! Как же я задолбался по частям ее собирать, анаконду ставь, питон ставь. Твоя сборка заработала из под коробки.
Есть какие нибудь хорошие параметры, сколько там итераций доложно быть, сколько ddim_steps для нормального результата?

#7
10:54, 7 сен 2022

HolyDel
> Есть какие нибудь хорошие параметры, сколько там итераций доложно быть, сколько
> ddim_steps для нормального результата?
По моим тестам, steps=50, scale=7.5 самый норм параметр для начала, но потом их надо менять в зависимости от того, что ты делаешь и чего добиваешься. Но самое важное это правильный промпт задизайнить - в этом вся наука :)

000001-4199280768

#8
11:09, 7 сен 2022

Кто-нибудь может мне объяснить как это работает ? Я посмотрел некоторые ролики и мне приблизительно понятен основной принцип работы нейросетей, но не очень понял то, как они именно рисуют. Вот волосы на переднем плане светлее а на заднем темнее, и как нейросеть это идентифицирует ? Или она уже взяла готовый кусок арта из гугл картинок и сделала коллаж ?

#9
11:24, 7 сен 2022

Немного уточню вопрос.
Меня не её художественная задумка  интересует, а то как она распознаёт объёмы, направление света и перспективу.
  Если бы она делала это в 3D, то вопрос отпал, но не очень понятно то, как это реализовываться в 2D.

#10
11:25, 7 сен 2022

711
На мой дилетантский взгляд оно анализирует массу картинок с волосами и находит закономерность, что "волосы на переднем плане светлее а на заднем темнее", и пытается эту закономерность повторить.

#11
11:35, 7 сен 2022

Да. С той лишь разницей, что она толком не знает, что такое волосы и освещение. Т.е. если бы НСку обучали на миллионе анимешных картинок с зелёными/синими волосами - она всем бы такие и генерила.

#12
11:42, 7 сен 2022

Т.е. на самом деле она может ошибаться во многих деталях - нарисовать "неправильные" ногу/руку (левую/правую), направление взгляда может быть "не туда", украшения могут быть неподходящие (или просто некорректно отрисованные как на картинке выше) и т.д. Не говоря уже об освещении (когда тени и блики будут несоответствовать), направлении ветра и т.д.

Все эти мелочи художники должны замечать и исправлять сами.

#13
11:57, 7 сен 2022

arte_de_mort
Да, у меня тоже первая мысль была именно такая и возможно она правильная.

Но как я понял, что бы нейросеть чему то научилась, её нужно поправлять вручную. После того как нейросеть приняла “решение”, то человек или программа (с правильным ответом) должны проверить и вынести свой вердикт и только благодаря этому она учится. И тут возникает вопрос - существует миллионы предметов, и неужели её обучили всем признакам этих предметов и тем более тому как они должны взаимодействовать ? Например (на картинке выше) волосы облегают плечи. Получается нейросеть обучили тому, насколько плечо выступает вперёд относительно головы на которой растут волосы ? …ну не знаю, возможно это я отстал от жизни )

На картинке из первого поста видно у персонажа отчётливую и относительно правильную форму ключицы и её направление. Неужели кто то обучал нейросеть отличать ключицу от других загогулин ? (я конечно понимаю что есть соседние ориентиры, например в виде головы, но всё же...)

GDR
Исправить не проблема. Вопрос больше о пригодности данного софта в будущем. Насколько он контролируем ? Насколько он последователен ?

Есть интересный сервер и интерес его не в том, что он что то там отгадывает а в том что после теста можно посмотреть информацию о том как она пыталась это делать.
https://quickdraw.withgoogle.com/?locale=ru

#14
12:25, 7 сен 2022

Мне кажется маловероятным, что нейросеть прямо сидели и учили, что правильно, а что нет - это убивает весь смысл. Да и слишком большая работа - предусмотреть все кейсы.

Страницы: 1 2 3 4 5 6 Следующая »
АртФорумОбщее