Email or username:

Password:

Forgot your password?
Alexey Skobkin

Чот я забыл сюда написать, что там вышла LLaMA 3.2.

Из нового:

✅ Теперь LLaMA умеет в мультимодальность (в данном случае - работа с изображениями) для чего появились версии 11B и 90B
✅ Кроме они выпустили две текстовые микромодели на 1B и 3B, которые предназначаются для мобильных устройств и прочего edge computing. Короче говоря, Meta решили не отдавать эту нишу целиком Microsoft и подобным с их Qwen и ко, а сделать свои state-of-the-art открытые инструменты.
✅ Теперь кроме модели они работают над своим стандартизированным SDK: "Llama Stack API". И публикуют его (в том числе - RFC).

📰 1B и 3B текстовые микромодели уже доступны в @ollama 11B и 90B - на подходе после окончания рефакторинга интерфейсов для работы с изображениями.

#LLM #ML #news #log #Meta #LLaMA #Ollama

Vision instruction-tuned benchmark compaired to Claude 3 and GPT-4o.
Lightweight instruction-tuned benchmarks compared with Gemma and Phi.
5 comments
[DATA EXPUNGED]
burbilog

@skobkin насколько я понял, 11b и 70b те же, что и в 3.1, но в них добавили мультимодальность, от чего, говорят, слегка пострадал reasoning

т. е. для текстов 3.1 лучше.

Alexey Skobkin

@burbilog
Я не знаю (в тексте напрямую не видел), но предположил так же.

Потом посмотрю и проверю.
LLAMA 3.1 в плане текста меня уже очень радует по сравнению что с 2 - что с 3.0 - наверное в основном за счёт размера контекста, но и рассуждение у неё тоже приличное.

burbilog

@skobkin в ollama к сожалению завезли только 1B и 3B варианты

Alexey Skobkin

@burbilog
Я ж в посте выше написал, что им надо сначала отрефакторить их визуальный пайплайн чтобы он мог работать и со всякими wizard-vicuna, и с новыми LLaMA. И они сейчас этим заняты в одном из пуллреквестов.

github.com/ollama/ollama/pull/

Я думаю, что в официальный каталог ollama эти версии модели заедут сразу же с тем релизом в который войдут изменения из PR.

Go Up