@Revertron Чуть похуже, но всё равно достойно. Тут зависит от модели: я выбрал WizardLM-7B-uncensored-GGML, т.к. только на него у меня хватает железных ресурсов в 16Гб оперативы и 16Гб видеокарты. Говорят, на 13B результаты ещё лучше. А модели на 30 миллионов токенов уже превосходят ChatGPT по качеству ответов, если судить по этой таблице: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard
@Revertron Чуть похуже, но всё равно достойно. Тут зависит от модели: я выбрал WizardLM-7B-uncensored-GGML, т.к. только на него у меня хватает железных ресурсов в 16Гб оперативы и 16Гб видеокарты. Говорят, на 13B результаты ещё лучше. А модели на 30 миллионов токенов уже превосходят ChatGPT по качеству ответов, если судить по этой таблице: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard