Email or username:

Password:

Forgot your password?
Alexey Skobkin

Кстати, потыкал тут недавно LLaMa 3.1 новую.

И пока что прямо заебись. Не в том смысле, что какой-то прорыв по уровню фактики - такого я от 8B модели не жду в принципе. Но вот контекст, кажется действительно стал сильно шире и это было прямо заметно на долгом диалоге, где модель не расколбашивало так быстро как раньше. По крайней мере у меня за диалог не получилось пронаблюдать как модель превращается в деда с Альцгеймером и падает в эпилептическом припадке, ЕВПОЧЯ.

А еще субъективно показалось, что её стало проще склонить поменять мнение/решение. К сожалению, ожидаемо, в обе стороны - то есть из правильного решения я заметно быстрее убедил её в том, что там косяк. Но и из упрямства на неправильном решении вывести сильно проще. Так что необходимость в фактчеке никуда не девается, но стало удобнее.

Жду теперь расцензуренную версию чтобы можно было обновить свои презеты вроде персонажей социопатов или бескомпромиссных критиков озвученной идеи.

Короче, мне нравится, хорошо сделоли.

P.S. Отдельный кек вызвал джейлбрейк для модели. Он делался под 400B+ версию, но с какого-то раза сработал и у меня.

#LLM #LLaMA #ML #log #thoughts #models #update

4 comments
[DATA EXPUNGED]
Alexey Skobkin

Блядь, как перестать орать? Я посмотрел как DeepL перевёл мой пост и увидел, что "косяк" (в рассуждениях) был переведён как "joint".

𝙹𝚘𝚑𝚊𝚗

@skobkin Отложи пока его — через пару минут и отпустит 😀

Kirill

@skobkin
Тоже долго смеялся, когда пытался на GitHub в issue на английском написать "безнадёжно испоганен", а никакого перевода кроме "hopelessly fucked up" не нашёл

Go Up