ИИ-модели GPT-4 помогли спланировать теракты и создать оружие
Компании Anthropic и OpenAI провели взаимные тесты безопасности своих моделей и опубликовали результаты. Выяснилось, что системы GPT-4o и GPT-4.1 при прямых запросах без взлома предоставляли инструкции по планированию террористических атак, созданию взрывных устройств, поиску мест для них и синтезу наркотиков или биологического...
Текст новости загружается...