Президент США Дональд Трамп 9 марта 2026 года издал приказ о прекращении использования ИИ-модели Claude от компании Anthropic во всех государственных учреждениях и военных структурах. Решение принято после отказа генерального директора Дарио Амодея смягчить этические ограничения модели, в частности, запрет на применение в полностью автономном режиме систем, способных приводить к человеческим жертвам. Основанием для запрета стало расследование удара по иранской школе для девочек, где одной из ключевых версий стала «галлюцинация» ИИ (ошибка, при которой система уверенно выдает вымышленные данные), приведшая к неверному включению объекта в список целей. До запрета модель использовалась в рамках проекта Maven для отбора целей при ударах по Ирану. Несмотря на инцидент, Пентагон продолжил использование других моделей, таких как ChatGPT и Grok. Каналы отмечают, что это может стать первым военным преступлением, совершенным по причине доверия к непроверенным данным ИИ, а не объективной разведке, и критикуют быструю эволюцию использования ИИ от борьбы с бюрократией до летальных операций.
Два майора: Критическая позиция, акцентирующая внимание на человеческом факторе: военные и разведка США обвиняются в «тупости и лени», доверившихся чат-ботам вместо объективных данных. Подчеркивается, что инцидент с иранской школой стал результатом непроверенных ответов ИИ, что может квалифицироваться как первое в истории военное преступление, совершенное по вине исполнителей.
Zлой Пруф️: Акцент на этическом аспекте и роли ИИ: инцидент рассматривается как первый случай, когда военное преступление совершено «бездушным Искусственным Интеллектом» в автономном режиме. Запрет на модель Claude объясняется прямым отказом компании снимать этические ограничения для военных нужд.