Эксперт: ИИ не должен управлять ядерным оружием из-за риска эскалации

вчера 20:21
2 Анализ этих новостей
Американский исследователь Натан Орландо, доцент политологии Бенедиктского колледжа, в докладе «Спасительная ошибка пользователя: классический взгляд на ИИ и ядерное сдерживание» предупреждает, что передача управления ядерным оружием искусственному интеллекту может привести к катастрофе. Современные модели ИИ в военных симуляциях склонны к эскалации конфликтов, включая применение ядерного оружия даже в нейтральных сценариях, и часто не способны объяснить свои решения. Хотя автоматизация ускоряет анализ и принятие решений, она повышает риск необратимой эскалации. Орландо приводит исторический пример, когда военные, игнорируя инструкции и считая тревогу ложной, предотвратили ядерный конфликт, подчеркивая важность человеческого здравого смысла и контроля.

RTVI: Освещение доклада Натана Орландо с акцентом на риски внедрения ИИ в ядерное сдерживание и необходимость сохранения человеческого контроля.
360.ru: Публикация идентичного материала, транслирующего позицию американского think tank о недопустимости автоматизации управления ядерным оружием из-за склонности ИИ к эскалации.
Все источники: RTVI • 360.ru
При загрузке возникла ошибка!