ЗвукФорумОбщее

Права на голос. Крадут ли голос у актёров при его синтезе в своих прочих целях. (2 стр)

Страницы: 1 2 3 4 5 Следующая »
#15
19:38, 18 сен 2023

Kxarog
> благодаря таким изменениям, мы не сидим в пещерах и не кушаем мамонта, закутавшись в шкуры
Жизнь меняется, но кто-то перемен не ожидает, шокирован ими, злится или грустит. И говорит об этом. Что плохого в том, чтобы об этом говорить?
Бывали и такие перемены, в результате которых вымирало 20-30 процентов населения, ставшего вдруг ненужным.
Быть недовольным - нормально. Но это недовольство не вернет все назад, придется приспособиться.

#16
20:04, 18 сен 2023
Изображение
#17
20:05, 18 сен 2023

Скорее всего пойдут по пути протоптанному с нейросетями генерирующими изображения: все сгенерированное будет считаться общественным достоянием, запрет на использование голоса для обучения без согласия автора (на что будут забивать китайцы и физики) и как следствие крупные площадки (сторы, телевизор, киноозвучка) будут убирать все сделанное с использованием нейронок просто чтобы потом не заморачиваться с исками. Не будет роялти, максимум уберет Тиньков ее голос и наймет другую актрису с нужными договорами...

#18
20:47, 18 сен 2023

Shiv
> максимум уберет Тиньков ее голос и наймет другую актрису с нужными
> договорами...

Вот кстати реально чего я не понимаю, в чём прикол брать голоса знаменитостей? Зачем себе претензии множить? Людей миллиарды, ну найди ты простого человека(даже не диктора), у которого просто красивый голос, и которому пофиг на права, а интонацию пусть правят программисты - всё, делов то.

#19
21:36, 18 сен 2023

Laym
Левый какой то список. Такое ощущение, что его составитель имел весьма смутное представление о том, чем занимаются представители указанных им профессий.

#20
21:46, 18 сен 2023

Kxarog
>Вот кстати реально чего я не понимаю, в чём прикол брать голоса знаменитостей?

Без Киркора Филипова третьи бременские музыканты стали бы чуточку лучше - это недопустимо, нужно всё испортить, но впихнуть побольше "звёзд", даже если они липовые. Ну никак не тянет по исполнению Киркор до Магомаева, который вторую часть озвучивал, но благодаря перьям он звездистее.

#21
19:20, 19 сен 2023

Zab
> Левый какой то список. Такое ощущение, что его составитель имел весьма смутное
> представление о том, чем занимаются представители указанных им профессий.
+

#22
22:56, 19 сен 2023

Здесь в первую очередь причина в людях и конкретно тех кто из банка решил раздавать её голос всем желающим. Поэтому развитие технологий и их применение всегда зависит от тех кто этим будет пользоваться.

Shiv
> все сгенерированное будет считаться общественным достоянием
Доступ к полному использованию продвинутых нейронных сетей вообще закроют для открытого пользования. Оставят частичное использование по подписке, будет урезанный функционал, множество запретных тем.

Скорее всего уже сейчас идёт тестирование нейронных сетей по управлению людьми и отдельными государствами. Манипулированию общественным мнением через комментарии в Интернете, принятием решений которые спускаются политикам на исполнение. Есть прецедент использования поддельного голоса в избрании кандидата из другого штата в Индии, кандидат не говорил на местном языке и его заменили сгенерированным.

Если дальше пофантазировать как нейронные сети и ИИ будут использовать в военных целях, то ИИ сможет взламывать каналы связи и подделывать голоса командиров, отдавать приказы атаковать свои же войска. Находить по фотографиям и голосу людей в социальных сетях и делать дипфейки и подделывать их голос. Можно будет погрузить отдельно взятую страну в хаос дезинформации и развязать гражданскую войну. Всё будет ограничиваться моральным аспектами применения, ИИ сможет изобретать вирусы превращающие людей в зомби синтезируя в клетках людей наркотические вещества или может быть взрывчатые. Всё то что показано про ИИ в фантастических фильмах покажется детскими шалостями.

#23
23:58, 19 сен 2023

be_hip
> Доступ к полному использованию продвинутых нейронных сетей вообще закроют для
> открытого пользования.
Там фишка не в открытости ПО, а в мощностях для обучения этих нейронок.

#24
0:04, 20 сен 2023

be_hip
> Доступ к полному использованию продвинутых нейронных сетей вообще закроют для
> открытого пользования.
Так речь о простых сетях для генерации контента, которые уже давно валяются в открытом доступе.

#25
0:52, 20 сен 2023

endeavour_pr
> Там фишка не в открытости ПО, а в мощностях для обучения этих нейронок.

Shiv
> Так речь о простых сетях для генерации контента, которые уже давно валяются в
> открытом доступе.

Когда-то и это было недоступно для всех желающих. Как раз с развитием и распространением технологии, всё это начало появляться в открытом доступе и начали вылезать такие ситуации как с этой актрисой озвучки. Подобные ситуации давно предсказывали и всем было плевать. И сейчас плевать.

#26
1:15, 20 сен 2023

be_hip
Ну вот стиму уже не плевать, и площадкам торгующим контентом думаю будет далеко не наплевать, и студиям аоутсорсящим контент и их заказчикам.

Будет это удел ноунеймов которые раньше воровали иконки из вова и гуглили спрайты для своих ыгор, а теперь будут что-то там генерировать на сетях, обученных на ворованом контенте... Только легально продавать не получиться, а для души - на здоровье.

#27
2:23, 20 сен 2023

endeavour_pr
>Там фишка не в открытости ПО, а в мощностях для обучения этих нейронок.

Не только. При масштабировании нейронки накапливаются баги и она обучается тупить. Нужны надзиратели, которые будут наставлять её куда надо. Их тоже в расходы надо закладывать.

Летом гугльтранслит тупил при переводе с английского на русский. Хз, исправился сейчас или нет. Чат гпг тоже проседал по уму. Не так просто их обучить большим базам знаний.

Shiv
>теперь будут что-то там генерировать на сетях, обученных на ворованом контенте... Только легально продавать не получиться, а для души - на здоровье.

При желании - получится. Некоторые слишком хитрые работники кисти и ведра с краской разводят на слишком халявные условия работы, которые у программистов звучали бы как: я чужой код доделывать и переделывать не буду, советов и указаний не слушаю, ведь я профессионал а вы посредственности, пишу что хочу и за ваш счёт. А по факту, для кого-то будет легче  перерисовать ручками после нейронки, чем с нуля сделать. И закрашивать тоже проще - скопировал несколько цветов, чуть изменил и размазывай их по картине, промежуточные цвета сами появятся, и они будут не те, что в исходнике.

#28
10:27, 20 сен 2023

Shiv
> Ну вот стиму уже не плевать, и площадкам торгующим контентом думаю будет далеко
> не наплевать, и студиям аоутсорсящим контент и их заказчикам.
Это ещё пока что вроде "воровства контента", а у актрисы ситуация была гораздо хуже и закон такие вещи не очень регламентирует, они с напарником решили напирать на то, что банк использует их биометрические данные, что в законе уже оговорено на данный момент. Тинькофф удалил этот генератор со своего сайта из-за шумихи, а так как видели из её записей, они вообще в наглую заявляли что её голос ей не принадлежит.

Уже сейчас можно используя фотографии из соц сетей создать дипфейк человека и воспользоваться им по всякому. Народ приучили всю свою личную жизнь вываливать в Интернет и народ до сих пор не понимает чем им это может угрожать, как со стороны мошенников, так и со стороны "заботливого государства".

#29
11:57, 20 сен 2023

Skvoznjak
> разводят на слишком халявные условия работы
Ну это какой-то частный случай непрофессионализма

> которые у программистов звучали бы как: я чужой код доделывать и переделывать
> не буду, советов и указаний не слушаю, ведь я профессионал а вы
> посредственности, пишу что хочу и за ваш счёт.
Сам видел, как в браузерку пришел новый кодер из студии Лебедева с завышенным чсв и стал убеждать тамошних что "надо все переделать" в онлайн игре, которая уже много лет работала)
С другой стороны, вполне можно представить, что художник или гд сделал пол игры где миллион строк на if'ах, в одном классе и с неймингом типа abCaRaBrDa1, а кодер не хочет ее дописывать, мотивируя это тем что код написан непрофессионалом и он лучше знает, как надо)

> А по факту, для кого-то будет легче перерисовать ручками после нейронки, чем с
> нуля сделать. И закрашивать тоже проще - скопировал несколько цветов, чуть
> изменил и размазывай их по картине, промежуточные цвета сами появятся, и они
> будут не те, что в исходнике.
Да, при желании обмануть систему можно всегда. И раньше никто не запрещал нагуглить картинок и перерисовывать их внося достаточно изменений чтобы это не было прямым копированием. Можно еще просто их триангулировать по методу из соседней темы)
Но в большинстве случаев это будет не быстрей чем нарисовать с нуля (хотя может и кому-то проще), либо потеря качества до непотребного, либо будет выявляться как плагиат.
А как инструмент для референсов, подбора вариантов композиции и цветовой гаммы нейронки уже вовсю используются и это легально и удобно.

be_hip
Да, пока дырка в законах, но все таки Тиньков использовал легально полученные звукозаписи, а не насобирал по соцсетям, что было бы однозначным воровством. А мошенничество было и будет, тут ничего не поделаешь...

Страницы: 1 2 3 4 5 Следующая »
ЗвукФорумОбщее

Тема в архиве.