Misanthrope
>ссыль?
Ищи видосы снизу.
samrrr
>И будут баги интерполяции как в 5 анреале, уже видел дилему радиатора?
Я предлагаю мухлевать другим путём. Интерполятор пусть рисует освещение заново, учитывая поправки на типы материалов. Сделать хорошие отретушированные фотографии освещений системы из кубиков, шариков, кривых поверхностей, а потом на них учить алгоритм, чтобы составить массивы констант, как в видеокодеках. А после ещё и постабработку багов врубить, чтобы не было некрасивых. А красивые - пусть будут, если игроделу и игрокам понравятся. Если не понравятся, использовать запасные алгоритмы, чтобы заменить одни баги на другие.
>А ещё световые лучи немного отклоняются от разных эффектов.
>Посмотри на мир вокруг, ты не увидишь подобного. Потому что этот эффект есть только от призм, которые разлагают свет на радугу.
Ты просто плохо смотрел. Плоскоземельщики постоянно их наблюдают, когда видят объект за горизонтом, интерпретируют увиденное по учебникам и на основании этого высчитывают что Земля якобы плоская.
>А разницу в 1-2 процента на обычном окружении ты никак заметить не сможешь.
Да постоянно замечаю, потому что мне положены очки, но я ими пользуюсь редко, когда глаза устанут, или надо читать вдали. Мозг тренируется складывать картинки из шумов на грани восприятия чтобы разглядеть объект чуть дальше. Не со всеми объектами прокатывает, но со многими, очень даже. А если из под ладони, то чуть её ниже можно поймать область, в которой видно чётче. Если тебе очки не прописаны, та на такие детали внимания не обращаешь, а если этими процентами добираешь картинку до нормальной, то очень даже да. Особенно, если занимаешься пиксельдрочеством при рисовании, когда нужно часто определять сколько процентов прозрачности выставить слою, которого и не видно даже. Там приходится ориентироваться по ощущениям: тут получше, а если ползунок на пару процентов вправо, то уже отстой. В чём разница картинки между норм и отстой, реально там баги всем заметные, или только лицам пикселей пережравшим - а хз, это как-то в комплексе высчитывается, но если можно установить значения в лучшее положение, то надо поставить, запас не повредит.
Tonal
>что это за математика у тебя кастрированая?
Какой учили, с той и работаю... Может и есть другая, но где-то спрятанная и запертая в сундук.
Skvoznjak
> Какой учили, с той и работаю
я тоже немного кринжанул с твоего сравнения математики с программированием, но это оффтоп поэтому не писал...
Проиграммирование в том контексте о котором ты говорил - это линейное представление математики, развертка всех формул до линейного вида, и "реализация" что там циклы/рекурсия или готу... это всеголишь реализация используя доступные технические возможности...
ну и вообще такое сравнение очень странно в 2021, в 2021 когда Машинное обучение генерализирует любую формулу/решение, и в контексте GI какразтаки генерализация это ключ к успеху... тоесть ты сравнил "рисуем фотоны на компьютере" когда везде более общие высокоуровневые решения которые становятся еще более общими...
GI сейчас это "берем несколько простых ML моделей объединяем и смотрим что получится"
melvy
Модели будут работать или вообще никогда не сойдутся?
lookid
> Модели будут работать или вообще никогда не сойдутся?
что?
они всегда работают, как сказал
Skvoznjak
> Демка унигине и последняя показывают разные виды поганого изображения. Кому-то
> с лужёными глазами это может и нормально, а я вижу на видео освещение лазерами
> и самыми противными светодиодными лампами, которые от лазеров недалеко убежали.
UE4 с блюмом и смазыванием что только в темном стиле окружения выглядело нормально...
UE5 где пропатчили блюм но сделали Люмен прибитый гвоздями к одному стилю.
комбинация разных ML моделей для освещения позволилаб делать "разное плохое освещение" а не один неон лазеры и замыленость (Нвидия помоему делает GI через ML но я не помню релизили это или только в видео я видел)
Misanthrope
AgainstAllAutority
я вижу, ты не используешь мипы для удалённых семплов. в таком подходе гораздо эффективнее работает подход на основе line sweeping (как в LSAO). одна из ключевых идей подхода, описанного в статье — использовать мипы глубины и цвета, где размер одного текселя равен расстоянию между соседними семплами, а расстояние между семплами увеличивается пропорционально расстоянию от освещаемого пикселя (чтобы соседние семплы образовывали как можно более регулярную/квадратную сетку). мипы не только помогают усреднять информацию между далеко расположенными семплами, они ещё существенно ускоряют алгоритм, так как улучшается локальность чтения данных из памяти (удалённые на экране пиксели высоких мипов лежат близко в памяти).
Suslik
да, с мип уровнями для render target есть проблема, я не разобрался, как включить их генерацию в инструменте, на котором прототипирую этот шейдер shadered
к сожалению я сам не программист, одно дело развернуть интеграл в цикл и аналитическая геометрия - другое фичи и свойства современных api
Если можешь подсказать что-то удобное для подобного эксперимента - буду признателен.
ps мне уже добрые люди подсказали с "приближениями" для рассчета тригонометрии на gpu - быстрый atan, acos, inverseSqrt - скорость работы шеддера сразу выросла где-то на 15%
Тема в архиве.