5 comments
@Revertron Чуть похуже, но всё равно достойно. Тут зависит от модели: я выбрал WizardLM-7B-uncensored-GGML, т.к. только на него у меня хватает железных ресурсов в 16Гб оперативы и 16Гб видеокарты. Говорят, на 13B результаты ещё лучше. А модели на 30 миллионов токенов уже превосходят ChatGPT по качеству ответов, если судить по этой таблице: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard @toby3d Такое впечатление, что надо скидываться и покупать в складчину железо под это дело... @toby3d Эту красную поебень кстати можно адблоком обойти (нужно порезать запросы к moderation endpoint) |
@toby3d Неужели #llama даёт ответы такого же качества?