Войти
ФлеймФорумНаука

Boston Dynamics (21 стр)

Страницы: 118 19 20 21 22 23 Следующая »
#300
22:50, 25 сен. 2019

=A=L=X=
> Скорее всего там поставлено так, что есть мат-модель (в физическом движке)
> робота и сперва какие то алгоритмы обкатывают на ней, а потом смотрят как оно
> работает в реальности и "правят под реальность". Ну грубо.

На это очень похоже. Если взглянуть на движения, скажем, бигдога, то видно, что пока в одном режиме походки (например, шаг), он всегда переставляет ноги в строго определенном порядке, что бы с ним ни происходило (падает, поскальзывается или еще что).


#301
3:28, 26 сен. 2019

}:+()___ [Smile]
> RAIC показывает, что даже для значительно более простых систем перебор рулит

Странная фраза - перебор и может рулить только для "значительно простых систем".
То же вот обучение нейронок по Deep AI публичные лекции по которому wat выкладывал оптимизирует методом градиентного спуска.

#302
4:25, 26 сен. 2019

=A=L=X=
> Странная фраза - перебор и может рулить только для "значительно простых систем".
Наоборот, когда система простая, то можно пытаться решать аналитически.
Любая оптимизация сложных систем — это перебор.

> То же вот обучение нейронок по Deep AI публичные лекции по которому wat выкладывал оптимизирует методом градиентного спуска.
Нейронки — это массивные, но простые системы, решаются аналитически.
Для реальной физической системы ты даже градиент не посчитаешь.

Можно, конечно, обучить нейронку и использовать ее выход напрямую (как мясные системы), но точность будет никакая. Плюс нейронка для редких входных данных может выдать бред и придется собирать робота из обломков.
Физическая симуляция в этом смысле гораздо надежнее.

#303
(Правка: 4:44) 4:43, 26 сен. 2019

}:+()___ [Smile]
> Любая оптимизация сложных систем — это перебор.

Перебор сколько нибудь сложной системы уходит за миллиард лет и много дальше на этапах когда система еще очень простая. Причём вообще простая о двух негнущихся лапах в сферическом ваккуме 2D. И тут уже всё - миллиард лет считай - не пересчитаешь.
То что применяется на практике для сложных систем - ни в коем случае не перебор.

#304
4:46, 26 сен. 2019

Или у нас терминологическая путаница между "поиском" и "полным перебором"?

#305
4:49, 26 сен. 2019

}:+()___ [Smile]
> простые системы, решаются аналитическ

Тут если по существу разобраться, то аналитически не решается даже синус угла - на практике его подсчёт это итерационный процесс по достижению достаточной точности почти никогда не дающий точного результата.
Поэтому аналитику переоценивают и на ней особо циклиться не надо. Главное чтобы за разумное время разумной мощностью.

#306
5:19, 26 сен. 2019

=A=L=X=
> Или у нас терминологическая путаница между "поиском" и "полным перебором"?
Полный перебор в физике, вообще, невозможен.

Я имею в виду, что есть некая функция F(x), которую мы пытаемся оптимизировать.
Если функция достаточно сложная, то мы можем только подставлять разные значения x и смотреть на результат.
Это и есть (интеллектуальный) перебор.

Если же функция достаточно простая и у нас есть ее производные или какие-нибудь ограничения, свойства и т. п., то мы можем с использованием этих свойств находить более оптимальные значения x эффективнее.
В общем, если мы используем какую-то дополнительную информацию о функции F(x) — то это уже не перебор, если же используем только ее просчитанные значения — то перебор.

#307
5:40, 26 сен. 2019

}:+()___ [Smile]

Ну в этом смысле я не против, что поиск - это такой "оптимальный перебор". Да. Все эти градиентные спуски, симплекс-методы, и так далее - они ищут путём выбора значений отличающихся в лучшую сторону и так далее. В каком то смысле "ограниченные штуки".
С другой стороны если будет аналитическая формула на 30 томов войны и мира всецело описывающая систему - это ничем не лучше.

#308
9:16, 26 сен. 2019

=A=L=X=
> Все эти градиентные спуски, симплекс-методы, и так далее - они ищут путём
> выбора значений отличающихся в лучшую сторону и так далее.

Нет. Речъ идет о том, что у какого-то градиентного спуска  будет на пути несколько локальных минимумов и максимумов, причем путь может быть не один.
Например бег, каким образом какой-либо оптимизации придти к этому состоянию являающемуся, в конечном счете, наиболее быстрым способом передвижения для данной конструкции.
Хотя не факт...

#309
(Правка: 9:39) 9:38, 26 сен. 2019

dave
> несколько локальных минимумов и максимумов, причем путь может быть не один.

Да, конечно, это проблема, известная - сразу и давно.
Собственно в теме про лекции по deep learning затрагивали эту тему - что раньше никто не верил что столь многомерную систему как сложная нейронка можно обучать тупым градиентным спуском не застряв в локальных оптимумах, но внезапно оказалось что результаты более чем впечатляют. И там высказывалась версия, что похоже как раз наращивание числа "измерений/нейронов" как бы "выпрямляет" ландшафт весовой функции и внезапно такие простые методы начинают давать отличные результаты. Ну не знаю, пересказал как сам понял.

Одно могу добавить - у процесса эволюции есть те же проблемы - он весь скользит только по локальным трассам не в силах преодолеть мощные возвышенности и как через мясорубку его вариации продавливает изменчивость внешней среды что даёт многообразие трасс. Поэтому, имхо, мы более чем можем рассчитывать на то, что добьёмся такими методами всего чего добилась природа - и много большего, т.к. разумом своим можем помещать стартовую точку сразу вдали от давно известных локальных оптимумов.

#310
(Правка: 8:01) 7:58, 27 сен. 2019

Все  ! Бостон Динамик начинает продавать своих роботов !
https://www.dailytechinfo.org/robots/10658-novosti-kompanii-bosto… ota-spot.html


Изображение
А робот Федор грустит в углу :(
#311
8:06, 27 сен. 2019

ronniko

https://www.bostondynamics.com/spot

Изображение

#312
(Правка: 8:14) 8:09, 27 сен. 2019

=A=L=X=
Вот ! А еще их можно программировать ! Что здорово и в тоже время опасно.

#313
8:18, 27 сен. 2019

А в комплекте идёт какой-нибудь отладочный виртуальный Spot? Не хотелось бы из-за ошибки в коде сломать эту дорогую игрушку.

#314
14:35, 27 сен. 2019

ronniko
> Что здорово и в тоже время опасно.
ошибешься, он тебя потом так отдебажит

Страницы: 118 19 20 21 22 23 Следующая »
ФлеймФорумНаука