Email or username:

Password:

Forgot your password?
BPOH

Люди продолжают ковырять случайно, или не сильно случайно слитую в торрент обученную #LLaMa нейросеть, аналог ChatGPT...

Веб-интерфейс для общения с LLaMa через llama.cpp и alpaca.

▫️Полностью докеризованный, с простым в использовании API.
▫️Интерфейс SvelteKit
▫️MongoDB для хранения истории и параметров чата

В настоящее время поддерживаются только модели 7B, 13B и 30B alpaca. Есть скрипт загрузки для их загрузки внутри контейнера.

github.com/nsarrazin/serge

Там 4 строчки развёртывания этого контейнера на третьей строчке у меня такая хрень unknown shorthand flag: 'd' in -d докер ниразу не ставил да и гуглится плохо может подскажете? Ощущение такое что там файлов недосыпали на гит

43 comments
Kirill Zholnay

@BPOH А вот тут даже интереснее нашел btdig.com/e5322ab4676e24632a90
От этих же ребят, как я понял. GPT-4 интригует

BPOH

@kirill про альпаку и гпт4 не знаю, но ламу на дрыщекомпе запускал 7 и 13В там один колдун что-то натыкал и скриптик к модельке написал что её можно на телефоне и расберипай запускать) тоесть по производительности совершенно любой девайс подходит, про 4 гпт чёто както не особо верится

Kirill Zholnay

@BPOH За ночь закачается, к утру посмотрим )

BPOH

@kirill Напиши пожалуйста как это контейнер запустить, или ты както по другому будешь тестить?

Kirill Zholnay

@BPOH я надеюсь в режиме чата постестить habr.com/ru/post/724172/
Еще не успел попробовать. Качаю

BPOH

@kirill вот мне тоже в режиме чата интересно потестить так запускал github.com/ggerganov/llama.cpp но в режиме чата не получилось запустить, хотя пример запуска вроде какбы есть, в общем отпиши пожалуйста по экспериментам...

Kirill Zholnay

@BPOH Что-то запустилось на 7B, но на чат не похоже )

BPOH

@kirill Ну вот у меня подобная картина была текст нормально генерирует а чат так себе, вот по контейнеру попробуй настроить там вроде чат ок и крутилки всякие есть

Kirill Zholnay

@BPOH 30B получше, но далека от OpenAI даже GPT-3.5. Не знаю, чем она полезна может быть в таком виде.

BPOH

@kirill 😂 Это означает, что пользователь пытается, не печалься это только начало проникают в массы обученые модельки, уже начинают на слабом железе запускать, и даже юзабельно, просто начнут узко специализированно модельки выкладывать, для кодинга, или просто википедия... сейчас это все в исследовательском тестовом режиме... Просто уже чудо что на ноуте оно работает...

Kirill Zholnay replied to BPOH

@BPOH Вынужден признать, что ошибался. И GPT-3.5 хуже справилась, чем alpaca 30B, которая пыталась, но выдумала лишную пятерку. А GPT-4 прекрасно справилась. А у тебя прям неплохо диалог выглядит. Что поднял в итоге, на каком железе?

BPOH replied to Kirill

@kirill докер на 7В альпака нужно место чуток раскидать и попробовать пошире что-то закинуть, у меня 16гб озу проц i7-12700H, у тебя какое железо что ты 30ку гоняешь?

Kirill Zholnay replied to BPOH

@BPOH 64Гб ОЗУ, думаю удвою, раз такое дело. И тредриппер 5.0Ггц 32 потока.

BPOH replied to Kirill

@kirill а сколько у тебя озу отъедает? пропорционально модели или меньше?

def 🇬🇪 #nowar

@kirill @BPOH
я пробовал 13B тупая как пробка, никакое сравнение с чатжпт

kantor

@BPOH тебе компоуз нужен, батенька. Вообще, он должен быть интегрирован в docker нынче, но поищи в своей репе docker-compose

BPOH

@kantor Точно, есть такая штука, поставил, спасибо! Теперь на демона ругается он без systemd интересно запускается? Сейчас буду манул читать

kantor

@BPOH tldr — нужно добавить себя в группу docker и потом systemctl start docker (можно и энейблнуть по желанию)

BPOH

@kantor у меня нет systemctl systemd же нет, но в родных репах doker есть значит и запускатор может завезли, спасибо, теперь понятно куда копать)

kantor

@BPOH а, ну инит по выбору, конечно, главное, чтобы демон был запущен так или иначе

kantor

@BPOH а ещё я бегло просмотрел всё и мне не очень нравится как оно сделано — может на днях поковыряю и сделаю компоуз получше

BPOH

@kantor О это будет волшебно) выкатывай в свет будем к мастодонту прикручивать хD

kantor

@BPOH итак, зашевелилось. Таки жрёт 4,1 гиг оперативки постоянно с 7B моделью и работает достаточно медленно, сжирая 50% проца постоянно (i3-10100, тем не менее). Чуть подкрутил temperature, теперь он кажется мне гораздо веселее. Попробую заставить его написать код…

BPOH

@kantor у меня уже тоже качается, там что-то на пермишен ругался, от суперпользователя запускать плохая же идея?

kantor

@BPOH не особо, докер рассчитан на использование от рута. Сами команды в принципе должны запускаться от юзера, если он рут просит, то своего юзера надо добавить в группу docker (вообще должен создаваться автоматически, но я не знаю как там на безсистемдшных системах) и тогда с юзера можно будет запускать команды. Контейнеры по умолчанию от рута, это, опять же, норма

BPOH

@kantor лижбы он эти контейнеры не в рут папку куданибудь складывал и все эти скрипты туда не отрабатывал)

kantor

@BPOH докеровские вольюмы и имеджи сидят в /var, если я правильно помню, так что нет, не должен

Мя :sparkles_lesbian:

@kantor btw, с небольшими донастройками можно стартануть докер демона от имени юзера, aka rootless
Хз повышает ли это безопасность, мне просто нравится что не надо вводить sudo :ageblobcat:

@BPOH

BPOH

@mo @kantor да это не критично там всего раз и оно на локалхосте крутится... На постоянке он всёравно не нужен, хотя вроде засыпает и из ОЗУ выпрыгивает, но при запросу 4гб кушает

kantor

@BPOH
Пока 7B не впечатляет

BPOH

@kantor ну подождём когда 4гпт сольют :D ну а так чатилку поковырять можно но и 7В это даже не 30В попробуй 30-ку запустить)

kantor

@BPOH на 30 у меня оператоса нет. Как я понял, во время генерации вся модель выгружается в оперативку, т.е. если 7B занимает 4,1, то все эти 4,1 резко оказываются в оперативке. Сейчас качаю 13B, по идее он должен быть получше. В целом наблюдаю, что на гуманитарные вопросы он отвечает несколько охотнее. Надо ещё поиграться с параметрами, возможно, для 7B top-k в 50 это маловато

BPOH

@kantor вот эту штуку тестил она меньше озу ест её даже на телефоне и на малинке запускали, только в режиме чата не завелась github.com/ggerganov/llama.cpp

kantor

@BPOH контейнер из главного поста вокруг него и собран. То, что модель целиком выгружается в оперативку это нормально, да и на использование проца я не жалуюсь, лишь бы нормально работало. Надо будет ещё поискать на досуге, конечно, но фундаментально проблема решается докупкой оперативки, что я, наверное, сделаю

kantor

@BPOH о как. У меня пока такой диалог

BPOH

@kantor Блин ну прикольно, на пару дней побаловаться, пока не выкатят какие нибудь ещё штуки для калькуляторов, считаю что то что мы можем на своих компах подобное запускать это уже чудо, а там пытливые умы в массах уже годноты напилят!

kantor

@BPOH как мне кажется, я поковыряю параметры и буду на более-менее постоянной основе пользоваться этой штукой. Мне не нужен сильно продвинутый функционал, иногда бывает нужно быстро спросить что-то, что очень плохо поддаётся гуглингу — тогда эти модели и выручают. То, что оно есть в свободном доступе это, конечно, успех — надо на досуге ещё почитать и попробовать завести на cuda — так всяко быстрее будет.

BPOH

@kantor Буду от ждать поста с вердиктом, и экспериментами)

Мя :sparkles_lesbian:

@kantor если нужно _найти_ что-то, что ещё и не гуглится, спрашивать у языковой модели крайне плохая идея. Они обучены реалистично генерировать текст, без каких-либо гарантий или даже стремления к его корректности. Модель с покерфейсом выдаст тебе (крайне убедительно выглядящую!) чушь, и будешь потом разгребать последствия в том же гугле

@BPOH

Мя :sparkles_lesbian:

@kantor к чатжпт это к слову тоже относится. Выглядит убедительно, слог красивый но — ахинея полная
Шанс получить не ахинею увеличивается в зависимости от того, насколько популярную и тривиальную вещь ты спрашиваешь. Но тривиальные вещи расписаны вдоль и поперек на первой странице гугла

@BPOH

BPOH

@kantor ну и альпака это чьё творение?

Go Up