Вчера в Nature появилась статья, в которой показано как инструменты искусственного интеллекта (ИИ) на основе больших языковых моделей (типа ChatGPT) быстро деградируют (в плане качества выдаваемых текстов), если обучение нейросети происходит на текстах, генерируемых самой этой нейросетью.
Девяти поколений применения такой процедуры достаточно, чтобы вместо осмысленного текста нейросеть начала выдавать полную «тарабарщину». Авторы остроумно сравнивают этот эффект с инбридингом (деградацией при близкородственном скрещивании).
Популярное описание результатов статьи на русском языке можно прочитать здесь.
@Chia имбридинг это закрепление наследственных черт, на минуточку. А "деградировавшего потомства" при этом методе получается стандартные 25%.
Так ещё старик Мендель рассказывал в законе имени себя