Дмитрий Кутейников, глава практики AI Governance юридической фирмы DRCQ и один из лекторов CyberLaw School Qazaqstan нашего курса по искусственному интеллекту для юристов, анализирует тревожную тенденцию: применение ИИ в вооружениях перестало быть исключением и стало рутиной.
Сегодня национальные и международные акты фактически обходят сферу обороны стороной. Право не успевает за технологиями, а государства и корпорации активно внедряют ИИ в военную инфраструктуру.
Авторы статьи Military AI Needs Technically-Informed Regulation to Safeguard AI Research and its Applications, принятой к публикации на NeurIPS 2025, предлагают начать хотя бы с автономных систем вооружений с ИИ (AI-LAWS).
Их предполагается выделить в отдельную категорию и внедрить дополнительные меры по управлению рисками, особенно контроль и надзор со стороны человека.
Для определения круга таких систем авторы предлагают основываться на двух критериях:
• система создана на основе методов ИИ и создаёт специфические риски (ошибочная идентификация целей, непредсказуемая эскалация, дрейф модели после развёртывания и т.д.);
• системы ИИ задействованы в частично автономном или полностью автономном поиске целей и применении силы как с человеческим контролем, так и без него.
Помимо этого исследователи формулируют некоторые общие выводы для регуляторов:
▪️уточнение правового статуса гражданской ИИ-инфраструктуры по МГП. Согласно Дополнительному протоколу 1 к Женевским конвенциям, гражданские объекты становятся законными военными целями при внесении эффективного вклада в военные действия. Авторы указывают, что без чётких критериев легитимными целями могут стать коммерческие лаборатории, дата-центры и университетские исследовательские центры, а также иная инфраструктура;
▪️институциональные границы между гражданскими и военными ИИ-исследованиями. Так как многие компании постепенно без лишнего шума отказались от прежних обязательств по отказу от сотрудничества со сферой вооружений и госорганами (OpenAI удалила запрет на военное использование, Google отказалась от принципа неприменения ИИ для вооружений и слежки), то нужны прозрачные механизмы финансирования и обеспечения прозрачности участия частных компаний.
В итоге Дмитрий Кутейников фиксирует: право пока бессильно, но именно оно должно стать инструментом защиты. Без международных стандартов и запретов ИИ рискует превратиться в оружие, подрывающее саму веру в право и гуманизм.
Понимать, как работает право в эпоху стремительно развивающихся технологий, — критически важный навык для современного юриста.
Школа киберправа помогает разбираться в том, как работают алгоритмы, где проходят границы допустимого применения ИИ, а также какие риски и обязанности возникают при его внедрении. Узнайте подробнее по ссылкам:
Курс по ИИ для юристов — https://cyberlaw.kz/ai
Подробнее о CyberLaw School — https://cyberlaw.kz/
Написать нашему менеджеру +7 747 653 1397 (WhatsApp)
Сегодня национальные и международные акты фактически обходят сферу обороны стороной. Право не успевает за технологиями, а государства и корпорации активно внедряют ИИ в военную инфраструктуру.
Авторы статьи Military AI Needs Technically-Informed Regulation to Safeguard AI Research and its Applications, принятой к публикации на NeurIPS 2025, предлагают начать хотя бы с автономных систем вооружений с ИИ (AI-LAWS).
Их предполагается выделить в отдельную категорию и внедрить дополнительные меры по управлению рисками, особенно контроль и надзор со стороны человека.
Для определения круга таких систем авторы предлагают основываться на двух критериях:
• система создана на основе методов ИИ и создаёт специфические риски (ошибочная идентификация целей, непредсказуемая эскалация, дрейф модели после развёртывания и т.д.);
• системы ИИ задействованы в частично автономном или полностью автономном поиске целей и применении силы как с человеческим контролем, так и без него.
Помимо этого исследователи формулируют некоторые общие выводы для регуляторов:
▪️уточнение правового статуса гражданской ИИ-инфраструктуры по МГП. Согласно Дополнительному протоколу 1 к Женевским конвенциям, гражданские объекты становятся законными военными целями при внесении эффективного вклада в военные действия. Авторы указывают, что без чётких критериев легитимными целями могут стать коммерческие лаборатории, дата-центры и университетские исследовательские центры, а также иная инфраструктура;
▪️институциональные границы между гражданскими и военными ИИ-исследованиями. Так как многие компании постепенно без лишнего шума отказались от прежних обязательств по отказу от сотрудничества со сферой вооружений и госорганами (OpenAI удалила запрет на военное использование, Google отказалась от принципа неприменения ИИ для вооружений и слежки), то нужны прозрачные механизмы финансирования и обеспечения прозрачности участия частных компаний.
В итоге Дмитрий Кутейников фиксирует: право пока бессильно, но именно оно должно стать инструментом защиты. Без международных стандартов и запретов ИИ рискует превратиться в оружие, подрывающее саму веру в право и гуманизм.
Понимать, как работает право в эпоху стремительно развивающихся технологий, — критически важный навык для современного юриста.
Школа киберправа помогает разбираться в том, как работают алгоритмы, где проходят границы допустимого применения ИИ, а также какие риски и обязанности возникают при его внедрении. Узнайте подробнее по ссылкам:
Курс по ИИ для юристов — https://cyberlaw.kz/ai
Подробнее о CyberLaw School — https://cyberlaw.kz/
Написать нашему менеджеру +7 747 653 1397 (WhatsApp)
