@mo нейросеть ищет закономерности между входом и выходом.
если дать ей как выход белый шум, то закономерность быстро найдётся, и выходом всегда будет белый шум
Top-level
14 comments
@jilotta и называется GAN. Но довольно сложная, потому что надо строго следить: @jilotta или не GAN... Но короче поставить две модели соревноваться это давно известный метод обучения @jilotta например так обучили мощнейший интеллект для игры в Го — AlphaGo. Он сыграл миллионы партий с самим собой, и в итоге развился так что разгромил лучшего игрока человека @mo@mastodon.ml ну как разгромил... Там история куда интереснее, АльфаГо даже проиграл 1 раз после представления модели, - Ли Се Долу - 9 дан. Но это была AlphaGo Lee. Потом они выпустили AlphaGo Zero, её вроде уже никто не побеждал (из людей). @mirsusarch вне контекста - попытался разобраться в этом вашем Го, выглядит интересно, но так и "не догоняю". @noth1ng01 без проблем, можно даже обучайку сыграть. @noth1ng01 так там вроде очень простые правила. Easy to learn, hard to master @mo@mastodon.ml @mirsusarch@shitpost.poridge.club так я не говорю, что ничего не понимаю. @jilotta а, в этом плане. Я скорее про случай, когда модель пытается распознать, текст написан человеком или чатжпт. Цель чатжпт — выдать такой текст, чтобы вторая модель не узнала. Цель второй модели — не пропустить тексты чатжпт, и не забраковать при этом человеческие. И они обе учатся синхронно |
@jilotta кто знает, кто знает... опять же, отсутствие датасета не равно отсутствию задачи. Мы можем проверять выход по какому-то параметру, и давать нейросети сигнал хорошо/плохо
Например, подать на вход состояние мира, и оценивать действия с точки зрения выживания
...при этом оценивать может вторая модель! И к чему они в этом процессе придут — очень интересно,