Войти
ПрограммированиеФорумГрафика

Ну вот почему? Когда разрабатывать под GPU/CPU будет легко? (3 стр)

Страницы: 1 2 3 4 5 Следующая »
#30
10:47, 15 апр. 2016

kalorifer3000
> это правда что в GPU нету SIMD инструкций?
Да, SIMD инструкций нету, но устроен он по принципу SIMT (single instruction multiple threads), то бишь векторизация автоматическая и неявная сразу нескольких потоков одних и тех же скалярных вычислений над разными данными (похоже на автоматический луп анролинг для скалярного кода в SSE, который делает компилятор).
> когда будет SSE 5 версии?
https://ru.wikipedia.org/wiki/AVX
с разморозкой.


#31
10:50, 15 апр. 2016

nonamezerox
Зачем ты открыл ему страшную тайну !
Теперь он придумает еще более крутой вариант супер-мега-реалестичного-рендера с витамином це :)

+ Показать
#32
11:28, 15 апр. 2016

Почему эта тема не во флейме до сих пор? :) Автор же несет какую-то отборную дичь

#33
11:28, 15 апр. 2016
март 2008
Улучшения:
- Неразрушающие операции. Набор AVX-инструкций использует трёхоперандный синтаксис.

Да неужели.
#34
12:35, 15 апр. 2016

Delfigamer
Дык ты с богами межделмашем крестьянский штеуд не сравнивай - у них и виртуализация в 70-каких то бородатых годах появилась (аппаратно -в конце 80х-начале  90х), и облачные технологии тоже в 90-каких то годах. Когда нибудь в интеле и про Parallel Sysplex вспомнят и облака наконец из хипстерского ада с историями про "всем спасибо, мы всё пролюбили, бекапов нет, деньги не вернем, идите в пешее эротическое" превратятся в нормальный инструмент для продакшена.

Да что там говорить, ман по инструкциям System Z CPU можно в 2016 году без крови из глаз в отличии от интелевского читать, а архитектура (System 360 она же ЕС-ЭВМ в СССР), на секундочку, ровесник начала лунной программы в США (1964 год) с практически полной обратной совместимостью

Напомню, до выхода у интела  первого интегрированного в одну микруху CPU 4004 оставалось 6 лет, до выхода 8086 - почти 15.

#35
13:10, 15 апр. 2016

А что про ARM известно?

#36
13:46, 15 апр. 2016

kalorifer3000
>А что про ARM известно?
ARM - это рука, по английски.

#37
14:43, 15 апр. 2016

ARM делали уже после печального опыта с x86, так что он изначально RISK.

#38
17:23, 16 апр. 2016

Я только щас начал понимать что железо практически глупое, не являющий из себя даже малейшие признаки реального интеллекта. По сути "аналоговая" машина. И даже языки программирования больше походят на "провести какую-то процедуру" по сути железо оно тупо калькулирует, ему просто продиктовали, а человек получает подсчитанные результат. А реальные задачи оно не решает. Оно только считает. Выходит наше железо глупое!

Возьмем пример: пересечь треугольники. Что мы делаем. В самом простом смысле мы тупо по циклу (длина порой миллион) проверяем каждый треугольник. И тут...
Первое разочарование: парадигма программирования. Мы задаем набор команд. Пора заменить на другую парадигму. А именно "взять и решить", т.е. задать цель, задачу железу. Итого мы даем "знания" железу в виде функции, и задаем задачу "найти самое ближайшее". Железо должно увидеть самое ближайшее, словно мозг человека, треугольники должны быть как на ладони т.е. железо должно все это запомнить. Второе разочарование: глупое железо. Оно физически не имеет даже малейшие признаки интеллекта. И не способно выполнять "задачи". Именно задачи, а не операции. Еще один пример мой любимый: провести прямой свет от диффуза до света, включая отраженный. Опять же у железа должно быть как на ладони, и должно решить задачу сначала подобрать соответствующее уравнение, затем найти решения этого уравнения.

Итого что мы имеем? А мы имеем не только операции но и задачи.

#39
17:35, 16 апр. 2016
Выходит наше железо глупое!

Ну может ваше железо и глупое :)
А так железки еще будут развиваться и развиваться. И меняться.

Я только щас начал понимать что железо практически глупое, не являющий из себя даже малейшие признаки реального интеллекта. По сути "аналоговая" машина. И даже языки программирования больше походят на "провести какую-то процедуру" по сути железо оно тупо калькулирует, ему просто продиктовали, а человек получает подсчитанные результат. А реальные задачи оно не решает. Оно только считает.

Лучше поздно, чем никогда !


Все что требуется от железа это скорость и беспрекословное выполнение команд, которые задает человек.
Больше и не надо.
Это человек ставит и решает задачи, а железка их только выполняет с большой скоростью.

#40
19:31, 16 апр. 2016

kalorifer3000
Наверно, для тебя это будет откровением, но "компьютер" с английского переводится как "машина для подсчёта".
> Железо должно увидеть самое ближайшее, словно мозг человека
Даже самые новые полупроводниковые процессоры по сырой производительности всё ещё далеко позади человеческого мозга.

#41
19:37, 16 апр. 2016

kalorifer3000
> Железо должно увидеть самое ближайшее, словно мозг человека
для твоих задач это не требуется

#42
19:57, 16 апр. 2016

А откуда ты знаешь, может я хочу создать GI для игр? Пока что безуспешно.

Кстати, насчет GI, они если и работают, так только с диффузами.
Хотя какая разница, если игры все равно не умеют отражения :D

#43
14:31, 17 апр. 2016

всё что нужно для щастья, это шареная между GPU и CPU память, и объединение конструктивно CPU и GPU в одном корпусе. Ну как на всяких плейстейшонах делают. Потому что вот эта прокачка через шину - объективно самое слабое место. И плюс еще копии в памяти создает.
А так бы сразу красота наступила, захотел и из шейдера обратился к любому участку оперативной памяти и оперативно чё-нибудь поменял.
И текстуры так же лежат и оперативно доступны для редактирования как со стороны GPU так и со стороны CPU. Вот это была бы тема.
Ну практически как в софтварном рендерере только с аппаратным ускорением.

#44
15:17, 17 апр. 2016

Delfigamer
> "компьютер" с английского переводится как "машина для подсчёта".
Вычислятор скорее

Страницы: 1 2 3 4 5 Следующая »
ПрограммированиеФорумГрафика

Тема в архиве.