Войти
ПрограммированиеФорумГрафика

Path tracer (6 стр)

Страницы: 15 6 7 8 9 Следующая »
#75
16:51, 15 мая 2019

IBets
Да вот думаю использовать Path Tracer для расчета лайтмап, но что-то так лень вникать во все это xD


#76
17:01, 15 мая 2019

oxotnik
Читай. Сможешь за день разобраться что к чему
Ray Tracing in one weekend.
https://habr.com/ru/post/355018/
https://habr.com/ru/post/412685/
https://habr.com/ru/post/326852/
https://habr.com/ru/post/426123/
https://habr.com/ru/post/424453/
https://habr.com/ru/post/426987/
https://habr.com/ru/post/429744/
https://schuttejoe.github.io/post/
И вот самый простой, и максимально читаемый код
https://github.com/rorydriscoll/RayTracer

#77
17:08, 15 мая 2019

IBets
спасибо за подбор ссылочек

#78
23:26, 22 июля 2019

Добавил denoiser, который работает через G-Buffer, но как-то он не очень
https://www.youtube.com/watch?v=5qUaVBTpKEc

#79
2:44, 23 июля 2019

IBets
bilateral filter или что-то другое? у ютупа слишком отстойное качество, чтоб денойзер оценить.

#80
10:23, 23 июля 2019

Suslik
https://jo.dreggn.org/home/2010_atrous.pdf

#81
10:44, 23 июля 2019

IBets
как ты собрался этим методом фильтровать полупрозрачные поверхности?

#82
11:01, 23 июля 2019

Suslik
Ну здесь можешь посмотреть, в более хорошем качестве. Не так все плохо с полупрозрачными.
https://drive.google.com/open?id=1533e00NcBNX5idEgrgL_0Cx01n9DHGGS
Только скачай видео, а то YouTube режет

#83
22:47, 2 авг. 2019

Исходный код, если кому интересно
https://github.com/MikhailGorobets/VolumeRender

#84
3:27, 9 янв. 2020

Suslik
Посмотрел последние итерации Cinematic Render. Они добились качества как при path tracer-е, при этом без шума.  Как они это сделали?

Запустить видео по клику - Как делать игрыЗапустить видео по клику - Как делать игры


Вот моя последняя итерация
Запустить видео по клику - Как делать игрыЗапустить видео по клику - Как делать игры

#85
3:28, 9 янв. 2020

IBets
> Посмотрел последние итерации Cinematic Render. Они добились качества как при path tracer-е, при этом без шума https://www.youtube.com/watch?v=cATx1gcdu9Q. Как они это сделали?
на видео только диффузное освещение. его можно полностью запечь. возможно, они постепенно запекают диффуз и считают чисто зеркальные отражения, которые можно считать без шума.

#86
3:29, 9 янв. 2020

Suslik
Я тупой. Можно подробнее? То есть они не смогут менять плотность real-time?

#87
3:31, 9 янв. 2020

IBets
диффузное освещение не зависит от угла обзора. поэтому если сделать отдельную текстуру, в которой хранить аккумулированный диффузный свет для каждого текселя, то эту текстуру можно считать за всё время рендера, а не за время одного кадра.

>То есть они не смогут менять плотность real-time?
они в любом случае обязаны чем-то пожертвовать. я считаю, что да, они, вероятно, пожертвовали реалтайм апдейтом.


но ты лучше их публикации поищи, может, они рассказывают что-то.

#88
3:35, 9 янв. 2020

Suslik
То есть просто для каждого вокселя объёма рассчитывают диффузную компоненту уравнения рендеринга?

#89
3:35, 9 янв. 2020

я предполагаю, что да

Страницы: 15 6 7 8 9 Следующая »
ПрограммированиеФорумГрафика

Тема в архиве.