Войти
ФлеймФорумОбщее

Deep learning на пальцах. (6 стр)

Страницы: 1 2 3 4 5 6
#75
1:36, 11 апр. 2019

emptiness_rain
Норм, спасибо, я не смог посмотреть онлайн.


#76
6:59, 11 апр. 2019

entryway
И чё кто выигрывает - стокфиш или лц ? :-)

#77
12:31, 11 апр. 2019

star123
Стокфиш победил из последних сил +10=81-9 (81 ничья, 10 побед, 9 поражений)

#78
12:51, 11 апр. 2019

entryway
Попахивает тем что в стокфиш ии добавили, или лц недообучился :-) т.к. альфа зеро вроде как одержала убедительную победу, хотя хз чё там ..

Скока времени на ход лц давалось ?

#79
12:56, 11 апр. 2019

star123
> или лц недообучился

судя по вики лц разгромил вхлам тот стокфиш что бился с альфазеро. победила лц уже апгрейженная версия.

#80
13:05, 11 апр. 2019

star123
Стокфиш с той версией себя с которой играл AZ сейчас примерно так же сыграет, на +100 ело.
http://tests.stockfishchess.org/tests/view/5ca81b9c0ebc5925cf00762f

star123
> Скока времени на ход лц давалось ?
В матче по ссылке с первой страницы? Каждому 120 минут на партию, плюс 15 секунд за ход.

Ну и тот матч был в феврале. Текущая сеть скорее всего посильнее играет.

Пока тут https://tcec.chessdom.com/ до суперфинала не дошло, можно здесь понаблюдать
https://www.chess.com/computer-chess-championship

Блиц, lc0 лидирует.

#81
19:12, 11 апр. 2019

star123
> Попахивает тем что в стокфиш ии добавили
Попахивает тем, что позволили СФ хоть какие-то равные условия.

> или лц недообучился :-) т.к. альфа зеро вроде как одержала убедительную победу
а) Убедительная победа это все же равные условия (не было) и разгром (не было, ибо у АЗ за белых 41.08%, а за черных 7.85%).
б) Возможно удивление по той причине, что воспевали АЗ выборочным материалом, а не демонстрировали официально на людях "как есть". Теперь вот что-то стали демонстрировать, вот и сомнения.

#82
(Правка: 19:21) 19:21, 11 апр. 2019

=A=L=X=
> победила лц уже апгрейженная версия.
Вначале выставили медведя против псины, но одели намордник на щенка без ведома хозяина.
На что в ответ решили воспитать щенка в матерого волкодава, "натаскивая" против нейронок:)

#83
(Правка: 8:54) 8:54, 17 апр. 2019

Deep Learning на пальцах 9 — Введение в NLP, word2vec

https://www.youtube.com/watch?v=MBQdMQUZMQM

#84
8:37, 24 апр. 2019

Лекция 10 — Recurrent Neural Networks

https://www.youtube.com/watch?v=tlj-CMibdMI

#85
9:21, 1 мая 2019

Лекция 11 — Аудио и Speech Recognition (Юрий Бабуров)

Вторая экспериментальная гостевая лекция курса.
Один из семинаристов курса, Юрий Бабуров, расскажет о распознавании речи и работе с аудио.

https://www.youtube.com/watch?v=JpS0LzEWr-4

#86
9:30, 16 мая 2019

Deep Learning на пальцах 12 - Attention

Deep Learning на пальцах 13 - Reinforcement Learning

#87
(Правка: 12:20) 12:15, 17 мая 2019

emptiness_rain
> Deep Learning на пальцах 12 - Attention
достаточно поверхностное объяснение, ну ок, специально выделили подсеть /с заданной разработчиком архитектурой/ для внимания .. было лишь мельком сказано, что оценочная функция внимания не задается разработчиком, а как и вся сеть обучается ... но как ни слова? хорошо бы взять пример и показать минимальный пример, что именно подается на вход, а что у сети есть на этапе обучения, чтобы понять что она справилась правильно .. т.е. не что она дала на выходе, а что давал разработчик на выходе /чтобы сеть на основании примеров обучения могла корректировать весса/ .. и главное, достаточно ли обучить одной фразе / или 100?/, чтобы в функции внимания появилась ассоциация дом-home /без разницы с какой достоверностью, лишь бы отличной от все со всеми/.. из сказанного, у сети на входе есть фраза на русском на выходе контрольная фраза на английском, но ни какого признака как слова в фразах соответствуют друг другу .. ни какого обучения вниманию тут не будет, очевидно, что что то не договаривается про то как происходит такое двухуровневое по сути обучение .. сеть т.е. на верхнем уровне запомнит через веса фраза=фраза, но не будет там ни какого нахождение слово =слово ... или же все таки и тут для обучения разработчик дает соответствия слово=слово?

#88
(Правка: 23:58) 14:23, 17 мая 2019

wat
> Лекция 3 - Нейронные сети
ух, как сложно можно объяснять простые вещи ... в этом всем подход машинного обучения, в отличии от того, как легко объясняется принцип нахождения весов у Розенблатта .. зачем столько математики?

Страницы: 1 2 3 4 5 6
ФлеймФорумОбщее