Войти
ФлеймФорумОбщее

Deep learning на пальцах. (6 стр)

Страницы: 1 2 3 4 5 6
#75
1:36, 11 апр. 2019

emptiness_rain
Норм, спасибо, я не смог посмотреть онлайн.


#76
6:59, 11 апр. 2019

entryway
И чё кто выигрывает - стокфиш или лц ? :-)

#77
12:31, 11 апр. 2019

star123
Стокфиш победил из последних сил +10=81-9 (81 ничья, 10 побед, 9 поражений)

#78
12:51, 11 апр. 2019

entryway
Попахивает тем что в стокфиш ии добавили, или лц недообучился :-) т.к. альфа зеро вроде как одержала убедительную победу, хотя хз чё там ..

Скока времени на ход лц давалось ?

#79
12:56, 11 апр. 2019

star123
> или лц недообучился

судя по вики лц разгромил вхлам тот стокфиш что бился с альфазеро. победила лц уже апгрейженная версия.

#80
19:12, 11 апр. 2019

star123
> Попахивает тем что в стокфиш ии добавили
Попахивает тем, что позволили СФ хоть какие-то равные условия.

> или лц недообучился :-) т.к. альфа зеро вроде как одержала убедительную победу
а) Убедительная победа это все же равные условия (не было) и разгром (не было, ибо у АЗ за белых 41.08%, а за черных 7.85%).
б) Возможно удивление по той причине, что воспевали АЗ выборочным материалом, а не демонстрировали официально на людях "как есть". Теперь вот что-то стали демонстрировать, вот и сомнения.

#81
19:21, 11 апр. 2019

=A=L=X=
> победила лц уже апгрейженная версия.
Вначале выставили медведя против псины, но одели намордник на щенка без ведома хозяина.
На что в ответ решили воспитать щенка в матерого волкодава, "натаскивая" против нейронок:)

#82
8:54, 17 апр. 2019

Deep Learning на пальцах 9 — Введение в NLP, word2vec

https://www.youtube.com/watch?v=MBQdMQUZMQM

Запустить видео по клику - Как делать игрыЗапустить видео по клику - Как делать игры
#83
8:37, 24 апр. 2019

Лекция 10 — Recurrent Neural Networks

https://www.youtube.com/watch?v=tlj-CMibdMI

Запустить видео по клику - Как делать игрыЗапустить видео по клику - Как делать игры
#84
9:21, 1 мая 2019

Лекция 11 — Аудио и Speech Recognition (Юрий Бабуров)

Вторая экспериментальная гостевая лекция курса.
Один из семинаристов курса, Юрий Бабуров, расскажет о распознавании речи и работе с аудио.

https://www.youtube.com/watch?v=JpS0LzEWr-4

Запустить видео по клику - Как делать игрыЗапустить видео по клику - Как делать игры
#85
9:30, 16 мая 2019

Deep Learning на пальцах 12 - Attention

Запустить видео по клику - Как делать игрыЗапустить видео по клику - Как делать игры

Deep Learning на пальцах 13 - Reinforcement Learning

Запустить видео по клику - Как делать игрыЗапустить видео по клику - Как делать игры

#86
12:15, 17 мая 2019

emptiness_rain
> Deep Learning на пальцах 12 - Attention
достаточно поверхностное объяснение, ну ок, специально выделили подсеть /с заданной разработчиком архитектурой/ для внимания .. было лишь мельком сказано, что оценочная функция внимания не задается разработчиком, а как и вся сеть обучается ... но как ни слова? хорошо бы взять пример и показать минимальный пример, что именно подается на вход, а что у сети есть на этапе обучения, чтобы понять что она справилась правильно .. т.е. не что она дала на выходе, а что давал разработчик на выходе /чтобы сеть на основании примеров обучения могла корректировать весса/ .. и главное, достаточно ли обучить одной фразе / или 100?/, чтобы в функции внимания появилась ассоциация дом-home /без разницы с какой достоверностью, лишь бы отличной от все со всеми/.. из сказанного, у сети на входе есть фраза на русском на выходе контрольная фраза на английском, но ни какого признака как слова в фразах соответствуют друг другу .. ни какого обучения вниманию тут не будет, очевидно, что что то не договаривается про то как происходит такое двухуровневое по сути обучение .. сеть т.е. на верхнем уровне запомнит через веса фраза=фраза, но не будет там ни какого нахождение слово =слово ... или же все таки и тут для обучения разработчик дает соответствия слово=слово?

#87
14:23, 17 мая 2019

wat
> Лекция 3 - Нейронные сети
ух, как сложно можно объяснять простые вещи ... в этом всем подход машинного обучения, в отличии от того, как легко объясняется принцип нахождения весов у Розенблатта .. зачем столько математики?

Прошло более 1 года
#88
(Правка: 3:46) 2:57, 13 окт. 2020

Не помню упоминалось ли на лекциях про Transfer learning, эта штука конкретно рулит.
Буквально самый простой и эффективный способ попробовать/пощупать/получить результат.

Берете готовую уже обученную на миллионах примеров(и сотнях часов нескольких топовых ГПУ) сеть, заменяете несколько последних слоев(предыдущие слои замораживаете), и за пару часов дообучаете сеть под свою задачу.

Я так за пару дней экспрессом и задачу практическую решил, и с разными сетками поближе познакомился, и опыта подбора гиперпараметров поднабрался.

Вобщем знакомый аннотатор взялся за разметку пары сотен тысяч обьектов на несколько тысяч классов недооценив трудоемкость задачи, пришлось выручать)
На базе 20% уже размеченных данных(которые заняли у него почти месяц работы)  методом Transfer learning обучил на своей GTX780 несколько легких сеток c точностью ~90-95%, слепил из них ансамбль соответственно в разы уменьшив кол-во оставшейся ручной работы), за неделю теперь должен управится)

#89
7:55, 13 окт. 2020

НСЯП упоминалось

Страницы: 1 2 3 4 5 6
ФлеймФорумОбщее