@jilotta ну во первых не обязательно, можно начать и с белого шума...)
или с небольшого датасета, который собран легально
Top-level
@jilotta ну во первых не обязательно, можно начать и с белого шума...) 16 comments
@jilotta кто знает, кто знает... опять же, отсутствие датасета не равно отсутствию задачи. Мы можем проверять выход по какому-то параметру, и давать нейросети сигнал хорошо/плохо ...при этом оценивать может вторая модель! И к чему они в этом процессе придут — очень интересно, @jilotta и называется GAN. Но довольно сложная, потому что надо строго следить: @jilotta или не GAN... Но короче поставить две модели соревноваться это давно известный метод обучения @jilotta например так обучили мощнейший интеллект для игры в Го — AlphaGo. Он сыграл миллионы партий с самим собой, и в итоге развился так что разгромил лучшего игрока человека @mo@mastodon.ml ну как разгромил... Там история куда интереснее, АльфаГо даже проиграл 1 раз после представления модели, - Ли Се Долу - 9 дан. Но это была AlphaGo Lee. Потом они выпустили AlphaGo Zero, её вроде уже никто не побеждал (из людей). @mirsusarch вне контекста - попытался разобраться в этом вашем Го, выглядит интересно, но так и "не догоняю". @noth1ng01 без проблем, можно даже обучайку сыграть. @noth1ng01 так там вроде очень простые правила. Easy to learn, hard to master @mo@mastodon.ml @mirsusarch@shitpost.poridge.club так я не говорю, что ничего не понимаю. @jilotta а, в этом плане. Я скорее про случай, когда модель пытается распознать, текст написан человеком или чатжпт. Цель чатжпт — выдать такой текст, чтобы вторая модель не узнала. Цель второй модели — не пропустить тексты чатжпт, и не забраковать при этом человеческие. И они обе учатся синхронно |
@jilotta а нейросеть это по сути перемножалка матриц. Очень больших матриц. Просто чтобы это перемножение выдавало нужные людям результаты, коэффициенты надо подбирать, учить модель на готовых примерах