Казахстан работает над формированием перечня высокорискованных доверенных систем ИИ

Казахстан работает над формированием перечня высокорискованных доверенных систем ИИ
В стране утверждены правила формирования перечней доверенных систем искусственного интеллекта высокой степени риска. Документ подписан заместителем премьер‑министра – министром искусственного интеллекта и цифрового развития Жасланом Мадиевым.

Перечни будут формироваться отраслевыми государственными органами для укрепления доверия и распространения лучших практик применения ИИ в разных сферах.

Списки подлежат постоянной публикации на официальных интернет‑ресурсах госорганов с возможностью просмотра и скачивания.

Для включения системы в перечень её владелец должен предоставить:

- заявление;
- документы, подтверждающие авторские права (свидетельство или договор);
- положительное аудиторское заключение.

Госорган рассматривает пакет документов в течение 10 рабочих дней, проверяя полноту сведений о системе, назначение, функционал и условия применения.

Если требования соблюдены, система включается в перечень, а сведения публикуются в течение пяти рабочих дней.

При выявлении несоответствий заявителю направляется уведомление. После устранения ошибок документы можно подать повторно, срок повторного рассмотрения — до пяти рабочих дней.

Актуализация перечней будет происходить регулярно, обновленные версии размещаются на интернет‑ресурсах госорганов.

Таким образом, создается механизм доверия к ИИ высокой степени риска, основанный на проверке и аудите.

Приказ вводится в действие с 26 апреля 2026 года.

Введение перечней доверенных систем ИИ усиливает требования к аудиту и прозрачности алгоритмов, что означает - управление рисками и соответствие нормам становятся ключевым фактором доверия к технологиям. DRCQ предлагает услуги в сфере AI Governance:

• анализ ИИ‑проектов на соответствие законодательству
• разработка AI Governance и AI Compliance frameworks
• проведение AI risk и impact assessments
• разработка внутренних политик ответственного использования ИИ
• аудит алгоритмов и автоматизированных решений
• обучение команд Responsible AI practices
• AI Strategy в рамках юрисдикции МФЦА

Ответственный подход к ИИ помогает снизить риски и обеспечить доверие к технологиям.

kz@drc.law
+7 (775) 007‑81‑99