@th3rdsergeevich прослойки неудобно использовать.
Использую gpt-3.5-turbo-16k.
Эта модель "тупая"(если сравнивать с gpt4), конечно, но дешевая.
Для чего-то такого простого – безальтернативно, практически.
До этого как-то использовал gpt-2,5 от сбера, даже дообучал её.
Сейчас имеет смысл на ламу смотреть, но ламу2 дома не дообучить. Лама1 хуже чем эта турбо, но можно на проце запустить
@th3rdsergeevich лама2 норм, кто-то какой-то сервис поднимал, я пробовал, мне понравилось.
Но она жирная и требовательным, там теслы нужны и не одна. Чисто для бизнеса, если пилишь свой продукт. Причём нужно четка знать, что делаешь. Она в использовании дороже чем api gpt4)))
Ламу1 вроде пилили под русский, но особо не вникал. Вроде даже кто-то стартапчик под это дело замутили
@th3rdsergeevich прослойки неудобно использовать.
Использую gpt-3.5-turbo-16k.
Эта модель "тупая"(если сравнивать с gpt4), конечно, но дешевая.
Для чего-то такого простого – безальтернативно, практически.
До этого как-то использовал gpt-2,5 от сбера, даже дообучал её.
Сейчас имеет смысл на ламу смотреть, но ламу2 дома не дообучить. Лама1 хуже чем эта турбо, но можно на проце запустить