@Revertron Требований я не видел. Я знаю, что в 16G в среднем влезают максимум 13B модели.
Плюс, спасибо @rayslava, посмотрел статистику по методам квантизации и стараюсь брать Q4_K_M если есть - там обещается в среднем меньше путаницы.
Могу посмотреть по факту сколько ест просто.
@Revertron @rayslava
Ну вот llava-llama3:8b-v1.1-q4_0.