ФлеймФорумОбщее

ChatGPT (133 стр)

Страницы: 1132 133 134 135 136 Следующая »
#1980
21:56, 9 фев 2025

Я пока толком не пользовался этими всеми нейронками…
Но даже наблюдая за ними со стороны, поражает, как они резко возникли и бурно развиваются….

Это напоминает любой фазовый переход, начиная от Кембрийского взрыва… Промышленн революция, изобретение транзисторов, первых компьютеров, Появление интернета… и вот теперь ИИ…
Скачки всегда очень резкие, но потом идёт замедление.
Наверное и с ИИ примерно так же будет.

Но вообще, я честно говоря никогда не думал что доживу до какого-то более-менее нормального ИИ… это была чистая фантастика.
Но вот она уже незаметно проявляется в реальности.

#1981
(Правка: 20:12) 18:50, 17 фев 2025

Для веб проганья вроде как бот, не сильно пока попробовал, судя по всему отлаживать можно прям там.
https://bolt.new

Запустить видео по клику - Как делать игрыЗапустить видео по клику - Как делать игры

#1982
16:42, 18 фев 2025

Простая девушка смогла найти нужный мужу товар в гигантском строймагазине.
Помогал ей (по мнению комментаторов) сабж с новой (премиум?) фичей распознавания видеопотока.

Запустить видео по клику - Как делать игрыЗапустить видео по клику - Как делать игры

#1983
17:47, 18 фев 2025

Virtex
> смогла найти нужный мужу товар
Не факт, нейронка её к бурам на перфоратор привела, а есть сверла по бетону на обычную дрель.

#1984
11:56, 20 фев 2025

как дообучить chatgpt/аналоги чтобы отвечал на вопросы как погромина заданной тематики?

#1985
12:02, 20 фев 2025

zebro
Более точно задай вопрос.
Тебе нужно что бы он стал изображать из себя кого-то(пограмину)
Или тебе нужно что бы у него какая-то цензура уменьшилась.
Или прям новые данные в него вкачать, которых у него до этого не было.

#1986
12:03, 20 фев 2025

zebro
> как дообучить chatgpt/аналоги чтобы отвечал на вопросы как погромина заданной тематики?
Через fine-tuning
https://cookbook.openai.com/examples/how_to_finetune_chat_models

#1987
7:11, 21 фев 2025

RealVirtuality
> Но вообще, я честно говоря никогда не думал что доживу до какого-то более-менее нормального ИИ… это была чистая фантастика.
Согласен, у меня в детстве была книжка Почемучка, и там у героев была "Большая Умная Машина", к которой они иногда обращались за справкой

Изображение

И вот теперь у нас есть именно такая "Большая Умная Машина", которая всё знает, и разговаривает с тобой как человек - и я до сих пор не могу к этому привыкнуть.


Конечно, машина может нафантазировать, потому что задача её программы не выдать правильный ответ, а выдать текст, который выглядит как правильный ответ (что во многих ситуациях одно и тоже, но не всегда), но это уже просто понимать надо, как она работает - так-то в целом прогресс очень впечатляет.

#1988
13:16, 13 мар 2025

Китайские китайцы заменили RTX3090 на ускоритель с FPGA от AMD (вот  такой - https://servernews.ru/1105060) и добились  30%  ускорения и экономии энергии  в 4.5 раза  ссылка https://www.scmp.com/news/china/science/article/3301251/chinese-a… dustrial-chip

#1989
14:45, 13 мар 2025

0iStalker
заменили видеокарту на специализированный чип и получили экономию энергии и (небольшую) экономию денег? Невероятно.

#1990
7:26, 18 мар 2025

#1991
22:09, 18 мар 2025

попробовал ГПТ (4о) на задание: "сконвертииуй пз паскаля в шарп"
на функциях в 20 срок работает хорошо.
На функциях более длинных нужен глаз да глаз.
Причём код на паскале ее использует какие-то левые библиотеки, но просто много разных услови а математики.

ГПТ вполне бодро начинает портирование, но уже за середину может уверенно выкинуть оставшуюся половину функции.

При этом, по-умолчанию комментарии он не переносит. Попытка "перенести комментарии" привела к тому, что они написал сам с нуля.

Когда я ему сказал, что комментарии не те, он расшаркался и написал снова год, перенеся только первый комментарий. Остальные оставил как есть

На вопрос: "а ты абсолютно уверен"? он поклялся мамоц, что сейчас пересмотрит построчно.
В итоге выдал код, со своими комментариями, НО оформленвными, как первый комантарий в изначальном коде.

так себе болванка! тупой джун! и необучаемый

#1992
16:27, 19 мар 2025

я один замечаю что чатгпт тупеет с каждым новым сообщением? забывает буквально пару сообщений назад, отвечает одинаковыми ответами на рызные вопросы итд.. чем дольше беседа тем он тупорылей!

#1993
20:11, 19 мар 2025

sun2sun
> чем дольше беседа тем он тупорылей!
Это от конкретной модели зависит, у каждой свое ограничение в токенах на контекст в том числе истории.
У именно чатгпт сейчас несколько разных моделей, сам в прочем я давно им не пользовался, юзаю дипсик, грок или квен.

#1994
21:43, 19 мар 2025

sun2sun
> я один замечаю что чатгпт тупеет с каждым новым сообщением? забывает буквально пару сообщений назад, отвечает одинаковыми ответами на рызные вопросы итд.. чем дольше беседа тем он тупорылей!

Прямо как многие люди на форумах. Официально дееспособные, причем.

Страницы: 1132 133 134 135 136 Следующая »
ФлеймФорумОбщее