endeavour_pr
> Q3
Чем меньше квантование, тем хуже результат, больше ошибок. Лично я стараюсь качать Q8 модели для программирования. А для писания рассказов можно взять Q6, Q5, Q4 модели.
> эта студия чот крашится
Ну и выбросьте её. Есть же нормальный рабочий софт koboldcpp.
iw4nna.rock
а в него можно грузить safetensors или их надо как то конвертировать ?
А вот из этой студии можно тупа найти и выкачать нужную, ещё она вроде умеет safetensors грузить
Устал уже с этим возиться.
Скачал какую то типа той что выше, только больше весом на 10 гигов для кодинга, проверил как она мне шейдер переделает с glsl на йунити, вроде чото пишет и mod не меняет на fmod, но чот своё придумала а это уже надо разбираться.
Вывод: Chat GPT из всяких мутных сайтов и телеграм каналов самое простое и быстрое решение, а ещё он с мобилы доступен и можно повтыкать.
А из локальных студия лучше тем что легко выкачивать модели и есть поиск, там ещё вроде комьюнити их делает или допиливает/конвертирует хз, но в гугле я их не нашёл под koboldcpp.
А вот чем koboldcpp лучше студии я так и не понял
Интересно есть ли инструменты основанные на нейросетях для реверса кода из бинарников ?