В стране утверждены правила формирования перечней доверенных систем искусственного интеллекта высокой степени риска. Документ подписан заместителем премьер‑министра – министром искусственного интеллекта и цифрового развития Жасланом Мадиевым.
Перечни будут формироваться отраслевыми государственными органами для укрепления доверия и распространения лучших практик применения ИИ в разных сферах.
Списки подлежат постоянной публикации на официальных интернет‑ресурсах госорганов с возможностью просмотра и скачивания.
Для включения системы в перечень её владелец должен предоставить:
- заявление;
- документы, подтверждающие авторские права (свидетельство или договор);
- положительное аудиторское заключение.
Госорган рассматривает пакет документов в течение 10 рабочих дней, проверяя полноту сведений о системе, назначение, функционал и условия применения.
Если требования соблюдены, система включается в перечень, а сведения публикуются в течение пяти рабочих дней.
При выявлении несоответствий заявителю направляется уведомление. После устранения ошибок документы можно подать повторно, срок повторного рассмотрения — до пяти рабочих дней.
Актуализация перечней будет происходить регулярно, обновленные версии размещаются на интернет‑ресурсах госорганов.
Таким образом, создается механизм доверия к ИИ высокой степени риска, основанный на проверке и аудите.
Приказ вводится в действие с 26 апреля 2026 года.
Введение перечней доверенных систем ИИ усиливает требования к аудиту и прозрачности алгоритмов, что означает - управление рисками и соответствие нормам становятся ключевым фактором доверия к технологиям. DRCQ предлагает услуги в сфере AI Governance:
• анализ ИИ‑проектов на соответствие законодательству
• разработка AI Governance и AI Compliance frameworks
• проведение AI risk и impact assessments
• разработка внутренних политик ответственного использования ИИ
• аудит алгоритмов и автоматизированных решений
• обучение команд Responsible AI practices
• AI Strategy в рамках юрисдикции МФЦА
Ответственный подход к ИИ помогает снизить риски и обеспечить доверие к технологиям.
kz@drc.law
Перечни будут формироваться отраслевыми государственными органами для укрепления доверия и распространения лучших практик применения ИИ в разных сферах.
Списки подлежат постоянной публикации на официальных интернет‑ресурсах госорганов с возможностью просмотра и скачивания.
Для включения системы в перечень её владелец должен предоставить:
- заявление;
- документы, подтверждающие авторские права (свидетельство или договор);
- положительное аудиторское заключение.
Госорган рассматривает пакет документов в течение 10 рабочих дней, проверяя полноту сведений о системе, назначение, функционал и условия применения.
Если требования соблюдены, система включается в перечень, а сведения публикуются в течение пяти рабочих дней.
При выявлении несоответствий заявителю направляется уведомление. После устранения ошибок документы можно подать повторно, срок повторного рассмотрения — до пяти рабочих дней.
Актуализация перечней будет происходить регулярно, обновленные версии размещаются на интернет‑ресурсах госорганов.
Таким образом, создается механизм доверия к ИИ высокой степени риска, основанный на проверке и аудите.
Приказ вводится в действие с 26 апреля 2026 года.
Введение перечней доверенных систем ИИ усиливает требования к аудиту и прозрачности алгоритмов, что означает - управление рисками и соответствие нормам становятся ключевым фактором доверия к технологиям. DRCQ предлагает услуги в сфере AI Governance:
• анализ ИИ‑проектов на соответствие законодательству
• разработка AI Governance и AI Compliance frameworks
• проведение AI risk и impact assessments
• разработка внутренних политик ответственного использования ИИ
• аудит алгоритмов и автоматизированных решений
• обучение команд Responsible AI practices
• AI Strategy в рамках юрисдикции МФЦА
Ответственный подход к ИИ помогает снизить риски и обеспечить доверие к технологиям.
kz@drc.law
+7 (775) 007‑81‑99
