@BPOH на 30 у меня оператоса нет. Как я понял, во время генерации вся модель выгружается в оперативку, т.е. если 7B занимает 4,1, то все эти 4,1 резко оказываются в оперативке. Сейчас качаю 13B, по идее он должен быть получше. В целом наблюдаю, что на гуманитарные вопросы он отвечает несколько охотнее. Надо ещё поиграться с параметрами, возможно, для 7B top-k в 50 это маловато
@kantor вот эту штуку тестил она меньше озу ест её даже на телефоне и на малинке запускали, только в режиме чата не завелась https://github.com/ggerganov/llama.cpp