Войти
ФлеймФорумОбщее

Deep learning на пальцах. (4 стр)

Страницы: 1 2 3 4 5 6 Следующая »
#45
4:20, 9 мар. 2019

122
> Посмотрел минут 40 первого видоса, ничего не понял.

Вот когда Suslik в основном разделе форума создаёт тему - у меня такое же ощущение почти всегда.
А тут я всё понял. Первая лекция вообще ни о чём.


#46
7:35, 13 мар. 2019

Лекция 4 — PyTorch и подробности

Лекция снова по расписанию: 13-го марта в 8:40 Мск (12:40 Нск, 10:40 вечера 5-го по PST - время по Калифорнии изменилось из-за перехода на летнее время, не было печали).

После этой лекции можно решать первую часть уже второго задания, Neural Network:
https://github.com/sim0nsays/dlcourse_ai/tree/master/assignments/assignment2

https://www.youtube.com/watch?v=tnrbx7V9RbA

#47
7:50, 13 мар. 2019

Лучшие нейросети - основаны на математически непостижимых принципах. Сверточные и капсульные. Пытаться во что то там вникнуть - смешно, если вам за это зарплату не платят и лаборантов не дают. Всё что нужно - это применять опробованные архитектуры. 

#48
12:52, 13 мар. 2019

раб вакуумной лампы
> Пытаться во что то там вникнуть - смешно
глупости, смешно обезьянничать без понимания как оно работает

#49
16:39, 13 мар. 2019

Tonal
> смешно
ещё смешнее говорить слова "ты дай мне списать" а думать что выучился сам

#50
7:24, 20 мар. 2019

Лекция 5 — Нейросети на практике

20-го марта в 8:40 Мск (12:40 Нск, 10:40 вечера 19-го по PST).

После этой лекции можно решать вторую часть уже второго задания, PyTorch (и немного отдохнуть от вычисления градиентов):
https://github.com/sim0nsays/dlcourse_ai/tree/master/assignments/assignment2

https://youtu.be/2gIn9cVn9cA

#51
8:36, 27 мар. 2019

Лекция 6 — Convolutional Neural Networks

27-го марта в 8:40 Мск (12:40 Нск, 10:40 вечера 26-го по PST).

После этой лекции можно решать обе части третьего задания. Это, наверное, самое сложное задание на курсе, но после него вам уже будет все нипочем!

https://github.com/sim0nsays/dlcourse_ai/tree/master/assignments/assignment3

Если будет тяжело, заглядывайте в чаты с обсуждениями, там часто помогают и преподаватели курса, и товарищи по несчастью.

https://www.youtube.com/watch?v=P22-m2F8yDo

#52
13:43, 27 мар. 2019

=A=L=X=
> я всё понял
Не буду спорить, но я вообще совсем-совсем другого ожидал.
Раз нейросети это программа, то я ожидал каких-то основ по их алгоритмам. Циклы там, присваивание, сравнения больше-меньше, условные операторы.
Программы, понимаешь?

А вместо программирования человек непонятно что говорит.
Раз уж в названии сказано "на пальцах", я вправе был ожидать хоть простого но кода. Который смогу вбить и скомпилировать, например. А он о чём-то постороннем рассуждает, уж простите.

#53
16:25, 27 мар. 2019

122
Будешь сто лет писать свои циклы, а потом всё равно не обгонишь тензорфлоу, и будешь тысячу лет разворачивать свои циклы на ферме, чтобы что-то реальное посчитать. Примерно также бессмысленно как писать свой движок.
Там всё "программирование" сводится к подборке коэффициентов и массажированию данных. Сама нейронная сеть как правило роли не играет никакой.

#54
16:33, 27 мар. 2019

122
> Раз нейросети это программа, то я ожидал каких-то основ по их алгоритмам. Циклы
> там, присваивание, сравнения больше-меньше, условные операторы.
> Программы, понимаешь?
нафиг ненужно, все эти вещи давно уже реализованы в виде классов матриц/векторов  и операций над ними, а вот понимать математическую кухню очень даже нужно.

> А вместо программирования человек непонятно что говорит.
очень доступно и понятно все излагает.

#55
(Правка: 9:45) 9:45, 29 мар. 2019

Tonal
Кот Зловред
> Там всё "программирование" сводится к подборке коэффициентов и массажированию
> данных.
Чтобы подобрать коэффициенты - вначале надо написать код. Куда эти коэффициэнты вставлять.
Куда вы математическую кухню вставите если кода нет.
В блокнотик карандашом запишите?

#56
(Правка: 10:29) 10:21, 29 мар. 2019

122
> Куда вы математическую кухню вставите если кода нет.

Он подробно всё разжевал как мог, возможно у тебя путаница из-за наукоёмких терминов типа "матрицы" или "делящие плоскости".
Изначально рассматривается простой нейрон который решает довольно простую задачу подсчёта суммы линейных уравнений.
То есть каждый входящий сигнал xi умножается на вес - это базис линейного уравнения ki*xi и нам нужно подобрать все коэффициенты ki.
Вообще когда начинаем разговаривать про большую систему линейных уравнений мы сразу же оказываемся обеими ногами в векторах (так все входные сигналы удобно рассматривать как вектор X состоящий из собственно n сигналов xi) и матрицах.
Собственно это всё уже прямые инструкции что из себя будет dataset представлять и какой код будет это всё суммировать и перемножать.
Программистам 3D-графики в это тоже скорее всего будет легко въехать по понятным причинам. А вот когда уже задача оптимизации поднимается - там немного другое. У меня правда целый курс таким вещам был посвящён в институте, поэтому в принципе ничего сложного тоже не увидел. Когда у тебя есть некая функция от N параметров, то производные по частным параметрам образуют понятие вектора градиента - то есть направления в этом N-мерном пространстве в котором функция растёт с максимальной скоростью, то есть направление в сторону локального оптимума, хотя по мере путешествия в этом пространстве оно может начать меняться, но вот в данной точке оно такое - надо просто идти в его направлении решая задачу оптимизации.

Забавно, что такой вот одиночный нейрон по сути действительно оказывается довольно простой штукой - т.к. все входы это линейные функции, то сам с точки зрения аналитической геометрии он есть плоскость в этом N-мерном пространстве делящая его на две половины и функция суммы возвращает расстояние точки до этой плоскости в положительном направлении (то есть в отрицательном полупространстве расстояние будет отрицательной величиной) - вся задача тренировки такого "персептрона" или чего то типа того это по сути просто выбор ориентации этой плоскости таким образом чтобы целевое пространство входных параметров оказалось рассечено плоскостью наиболее удачным образом.

Очевидно, что такое не может решать сколь было сложных задач, поэтому далее начинаются накидывания слоёв нейронов и так далее - но как ни странно это линейность лежащая глубоко внутри позволяет тренировать это всё не полным перебором, а сравнительно просто.
Я лично удивился сильно что оно вообще способно работать столь впечатляющими образами как эта AlphaGo и сотоварищи.

#57
10:31, 29 мар. 2019

=A=L=X=
> возможно у тебя путаница из-за наукоёмких терминов типа
У меня нет путаницы. Ведь у этого ютубера нет даже простейшего кода.
Не в чем запутаться если кода нет.

> рассматривается простой нейрон
Не рассматривается.
Код простого нейрона в видео где? Нет его.
Ни кода инициализации, ни кода тренировки, ни кода получения результата.
Ничего нет.

Если ты не понимаешь ситуации, ещё раз: я нейросети не знаю вообще. Совсем ноль. Ткнул в видос с надписью "объясняем на пальцах". Не увидел ни-че-го. Ни даже простейшего кода этого нейрона.
Глубины математической кухни должны идти после основ.
После хотябы простого кода куда эти глубины математики вставлять.

Короче, это видео точно не на пальцах и точно не для начинающих.

#58
(Правка: 10:38) 10:37, 29 мар. 2019

122
> Ни даже простейшего кода этого нейрона.

Это просто сумма умножений входов на коэффициенты. sum += koef[ i ] * input[ i ] в цикле и всё. и он это не раз говорил.

#59
10:42, 29 мар. 2019

=A=L=X=
> Это просто сумма умножений входов на коэффициенты
Я по прежнему не вижу функции main, не вижу функции нейрона, не вижу функции приёма входящих данных, не вижу функции вывода результата.
Каких входов, куда умножение...

Не заморачивайся, я уже потерял интерес.

Страницы: 1 2 3 4 5 6 Следующая »
ФлеймФорумОбщее