Чат-боты, работающие на базе ChatGPT и Google Gemini, нередко выдают бессмысленные ответы на самые простые вопросы, хотя звучат они вполне правдоподобно. Такие ложные версии исследователи ИИ называют галлюцинациями. Чтобы поймать нейросеть на лжи, ученые предлагают использовать другую нейросеть.

Больше нейросеток богу нейросеток!