Разработчик Claude подал в суд на Пентагон из-за запрета на использование ИИ в военных целях
Компания Anthropic, разработчик модели искусственного интеллекта Claude, подала в суд на Министерство обороны США (Пентагон) и другие федеральные агентства. Причиной иска стало объявление администрацией президента США Дональда Трампа компании «угрозой цепочки поставок» (supply chain risk), что фактически запрещает федеральным агентствам работать с её технологиями. Разногласия возникли из-за отказа Anthropic снять ограничения на использование Claude в военных целях: компания запретила применение ИИ для автономного вооружения (решения о нанесении ударов) и массовой слежки, а также осудила участие в операции в Иране, опасаясь вовлечения в военные преступления. Пентагон присвоил Anthropic статус угрозы нацбезопасности, что является незаконным согласно Конституции США, так как этот статус предназначен только для иностранных фирм. В результате контракт разорвался непосредственно перед вторжением в Иран. В источниках упоминается, что попытки обратиться к OpenAI (Илон Маск/Сем Альтман) также провалились из-за схожих позиций. Anthropic оспаривает решение в суде Калифорнии, требуя отмены статуса угрозы. Ситуация усугубляется растущей критикой действий Израиля и дистанцированием Европы, Британии и НАТО от конфликта, что может привести к обвинению Трампом ИИ-компаний в провале операции.