Минобороны считает, что самообучающиеся нейросети должны контролироваться государством
Российские военные эксперты призывают к усилению государственного контроля над самообучающимися нейросетями, предупреждая о потенциальных угрозах национальной безопасности. Ключевой тезис, озвученный на форуме «Этика искусственного интеллекта: начало доверия», заключается в том, что только государственные институты способны обеспечить гарантированный надзор за стремительно эволюционирующими технологиями.
Искусственный интеллект на пороге нового этапа: почему нужен государственный контроль
По мнению представителей профильного управления Минобороны, технологии искусственного интеллекта вступили в качественно новую фазу развития. Современные нейросети демонстрируют способность к автономному обучению, постепенно приближаясь к прообразу искусственного разума. Именно этот переходный момент, как считают специалисты, является критически важным для установления регулирующих механизмов. В условиях, когда алгоритмы начинают самостоятельно эволюционировать, риски их непредсказуемого поведения или злонамеренного использования многократно возрастают.
Кодекс этики как первый шаг к комплексному регулированию
Ответом на эти вызовы стало подписание первого в России Кодекса этики искусственного интеллекта. Этот документ, разработанный с участием военных экспертов, закладывает базовые этические принципы для создания и применения ИИ-технологий. Он призван регулировать сферы, пока не охваченные профильным законодательством. Однако, как отмечают инициаторы, принятие кодекса — лишь начальная мера. Для его эффективной реализации предлагается создать специальную межведомственную комиссию при правительстве, которая будет координировать работу всех заинтересованных ведомств и организаций.
Разработчики кодекса акцентируют, что в его основу легли принципы приоритета национальных интересов и безопасности. Документ напрямую увязан с требованиями Стратегии национальной безопасности и должен создать устойчивые условия для развития отечественной школы технологий искусственного интеллекта, но в четко очерченных рамках.
Инициатива военных ведомств отражает общемировой тренд на ужесточение контроля над передовыми технологиями. В последние годы ведущие мировые державы активно разрабатывают стратегии и нормативные акты, направленные на управление рисками, связанными с ИИ, особенно в оборонной и разведывательной сферах. Фокус на самообучающихся системах указывает на осознание специфических угроз, которые могут возникнуть, если развитие алгоритмов выйдет из-под контроля их создателей.
Внедрение этического кодекса и планы по созданию надзорной комиссии сигнализируют о переходе России к этапу системного регулирования цифровых инноваций. Успех этой политики будет зависеть от способности государства найти баланс между стимулированием технологического прогресса и обеспечением жестких гарантий безопасности, что является сложной управленческой и экспертной задачей.
