Email or username:

Password:

Forgot your password?
Top-level
MrClon

@Xeniax а если неподцензурные модели будут говорить слово на букву N, делиться рецептом приготовления крэка и убедительно аргументировать что дело бабы щи рожать? (:

3 comments
xeniax

@MrClon автор этого текста считает что модели нужны разные, в том числе и такие

MrClon

@Xeniax я то тоже так считаю, но похоже что большинство «прогрессивной общественности» со мной не согласны. Юные борцуны за все хорошее против всего плохого хотят бороться против всего плохого, буржуазия хочет чтобы её спокойную жизнь не тревожили всякие экстремисты (раньше это были хиппи-леваки с Марксом, теперь реднеки-праваки с Трампом, но суть та же, отклонение от мэйнстрима), бизнес хочет минимизировать репутационные и регуляторные риски, государства хотят минимизировать риски репутационные и создавать регуляторные. Эта наша свобода никому нафиг не нужна. Ну может кроме тех групп которых сейчас держат у параши (но на их мнение всем пофиг) и немногочисленных идеалистов (которых впрочем можно приравнять к реднекам и на этом основании заигнорить)

@Xeniax я то тоже так считаю, но похоже что большинство «прогрессивной общественности» со мной не согласны. Юные борцуны за все хорошее против всего плохого хотят бороться против всего плохого, буржуазия хочет чтобы её спокойную жизнь не тревожили всякие экстремисты (раньше это были хиппи-леваки с Марксом, теперь реднеки-праваки с Трампом, но суть та же, отклонение от мэйнстрима), бизнес хочет минимизировать репутационные и регуляторные риски, государства хотят минимизировать риски репутационные...

MrClon

@Xeniax дошли-таки руки прочесть статью. Непривычно базированно, бальзам на душу

«For science and freedom and composability and sexy stories and the lulz»
Этот лозунг мы напишем на наших боевых знамёнах!

Не сказал бы что идея обучать модель на фильтрованном выхлопе ChatGPT меня полностью устраивает, но это лучше чем ничего. Вообще 70к вопросов-ответов (я ведь правильно понял размер дообучающей выборки) это конечно дофига, но не прям ваще дофига. В принципе такой датасет можно набить силами сообщества (у open-assistant.io, опять же если я правильно понял, примерно столько и есть уже)

@Xeniax дошли-таки руки прочесть статью. Непривычно базированно, бальзам на душу

«For science and freedom and composability and sexy stories and the lulz»
Этот лозунг мы напишем на наших боевых знамёнах!

Не сказал бы что идея обучать модель на фильтрованном выхлопе ChatGPT меня полностью устраивает, но это лучше чем ничего. Вообще 70к вопросов-ответов (я ведь правильно понял размер дообучающей выборки) это конечно дофига, но не прям ваще дофига. В принципе такой датасет можно набить силами сообщества...

Go Up