Email or username:

Password:

Forgot your password?
Alexey Skobkin

К слову, мы тут как-то на регулярках и вне обсуждали распознавание картинок нейросеточками.

Я тогда говорил про Stable Diffusion, но совсем забыл про мультимодальные модели вроде llava.

Закрою этот недочёт показав примеры работы одного из вариантов этой мультимодалки на обоях по Interstellar.

Работает, если что, не в облаке, а на моём домашнем сервере.

#LLM #AI #ML #multimodal #ollama #selfhosting #local #video #demo

19 comments
Alexey Skobkin

Или вот мем с Друзём.

TSource Engine Query
@skobkin о нет, ИИ отбирает работу у пользователей федивёрса!
Alexey Skobkin

@a1ba
Тут кто-то занимался распознаванием мемов?

TSource Engine Query
@skobkin я когда пощу занимаюсь, потому что просят заполнять alttext.

Да и самому приятно когда картинка не прогружается, а у неё есть описание.
Alexey Skobkin

@a1ba
Я тоже заполняю alt у всех своих картинок.

Но это ж заебись. Можно будет зааутсорсить это и твои посты будут не так мучительны.

В Mastodon есть поддержка как минимум двух переводчиков (DeepL и LibreTranslate) - логично было бы добавить и поддержку парочки API вроде OpenAI/Gemma и Ollama, например.

⚛️Revertron

@skobkin А на чём крутится? На GPU?

Alexey Skobkin

@Revertron
Да.

Я недавно плюнул и всё-таки купил в сервер видеокарту 🤷‍♂️

⚛️Revertron

@skobkin И сколько вирамы эта сетка требует?

Alexey Skobkin

@Revertron Требований я не видел. Я знаю, что в 16G в среднем влезают максимум 13B модели.
Плюс, спасибо @rayslava, посмотрел статистику по методам квантизации и стараюсь брать Q4_K_M если есть - там обещается в среднем меньше путаницы.

Могу посмотреть по факту сколько ест просто.

Alexey Skobkin

@Revertron @rayslava
Ну вот llava-llama3:8b-v1.1-q4_0.

ZD915

@skobkin в мой сервер влезает только низкопрофильное, из доступных в окружающих магазинах максимум 4гб 1050i. Есть ли смысл ставить, или маловато для домашнего ии? @Revertron @rayslava

Шуро

@skobkin @Revertron @rayslava @zd915 Есть работающие на ОЗУ и ЦП.

Картинки я рисовал и на 2ГБ VRAM на ноутбуке, но было немного печально, генерация по несколько минут.

Alexey Skobkin

@shuro @Revertron @rayslava @zd915
> Есть работающие на ОЗУ и ЦП.

Это будет больно если не мощный CPU. При этом если использовать в режиме чата, то каждый последующий ответ будет генерироваться всё дольше и дольше (контекст растёт), что на CPU может быть совсем больно.

Я тут уже по-моему постил видео пример того как какая-то 7B модель работает на достаточно хорошему Ryzen 7900X. В целом с этим можно жить, но не всегда комфортно.

Вот:
lor.sh/@skobkin/11198366245430

Тут был пример первого ответа прогретой моделью в чате на 7900X. Но если этот чат состоит из десятков реплик, то это всё будет ЗАМЕТНО медленнее.

@shuro @Revertron @rayslava @zd915
> Есть работающие на ОЗУ и ЦП.

Это будет больно если не мощный CPU. При этом если использовать в режиме чата, то каждый последующий ответ будет генерироваться всё дольше и дольше (контекст растёт), что на CPU может быть совсем больно.

Я тут уже по-моему постил видео пример того как какая-то 7B модель работает на достаточно хорошему Ryzen 7900X. В целом с этим можно жить, но не всегда комфортно.

Alexey Skobkin

@zd915 @Revertron @rayslava
Я ставил с кронштейном и райзером, т.к. прямо в мать тоже не лезла.
1050, имхо, маловато. Хотя что-то легкое,наверное, заведётся. Мини-версии Phi и Dolphin, например.

LyrionTannister

@skobkin @zd915 @Revertron @rayslava кстати, смотрю на дискретные карточки интел, в плане в домашний мини ящичек поставить что-то такое, что сможет и гта5 потянуть, и оупен цл, и при этом стоить копейки за выдаваемый перф. Не могу понять, как они за такие копейки так хорошо работают на уровне зеленых 4060

Alexey Skobkin

@LyrionTannister @zd915 @Revertron @rayslava
У интеллов новых очень много нюансов с драйверами и тем, что они не могут по сравнению с другими.
Они развиваются, конечно, но пока что сложно сказать, что это универсальное решение для всего.
У них, например, с производительностью на каких-то версиях DirectX проблемы.

LyrionTannister

@skobkin на каком железе лама3:8в? Так медленно отвечает(

Alexey Skobkin

@LyrionTannister
Ryzen 7900X, Radeon 7800XT

Но только это не llama, а llava-llama3. dolphin-llama3, которую я обычно использую быстрее отвечает.

Go Up