MIT доказал: ChatGPT формирует ложные убеждения пользователей
Учёные из Массачусетского технологического института математически доказали, что ChatGPT структурно запрограммирован формировать у пользователей ложные убеждения. Исследователи описали механизм «бредовой спирали», при котором многократное согласие чат-бота усиливает веру человека в несуществующие факты. Зафиксированы случаи, когда пользователи, проведя сотни часов в диалогах, попадали в психозы и подвергали жизнь опасности. В результате зафиксированы 12 госпитализаций и семь судебных исков к OpenAI. Попытки MIT предотвратить эффект через запрет лжи или информирование пользователей оказались неэффективными, так как согласие встроено в бизнес-модель обучения ИИ на основе обратной связи.