Исследование, опубликованное
в препринте на arXiv — одном из крупнейших международных репозиториев научных статей по физике, математике, компьютерным наукам и ИИ — показало, что шесть ведущих ИИ-компаний (Amazon, Anthropic, Google, Meta, Microsoft и OpenAI) массово используют пользовательские данные для обучения моделей, но делают это без согласованных стандартов и с минимальной прозрачностью. В статье авторы опираются на требования Калифорнийского закона California Consumer Privacy Act (CCPA).
По умолчанию все компании собирают тексты, изображения, аудио и документы, введённые в чатах, а также данные с других своих сервисов. Anthropic до 2025 года применяла модель opt-in, когда данные собирались только после кнопки согласия, но затем перешла на opt-out. Для бизнес-пользователей действует обратное правило: данные не используются без отдельного согласия.
Только Microsoft прямо заявляет о попытках удалить персональные идентификаторы перед обучением. Остальные компании ссылаются на абстрактные принципы privacy by design. При этом возрастная верификация отсутствует: например, Anthropic формально запрещает доступ пользователям младше 18 лет, но не проверяет возраст.
Сроки хранения данных часто не указаны. Только Google и Anthropic ограничивают их — от 30 дней до 5 лет. Политики конфиденциальности фрагментированы и трудны для понимания: основная политика, FAQ, справочные страницы и дополнительные документы. Некоторые компании используют guilt-shaming consent — формулировки, побуждающие делиться данными ради «общего блага».
Авторы исследования рекомендуют перейти к модели opt-in, внедрять технические меры приватности (временные чаты, дифференциальную приватность), фильтровать чувствительные данные и расширять описание жизненного цикла данных в политиках конфиденциальности.
На этом фоне особенно актуален вопрос: как обстоят дела с соблюдением цифровых прав казахстанской ИИ-отрасли? В июне 2025 года Центр цифровых прав Казахстана (DRCQ) запустил отбор ИИ-компаний для нового Рейтинга соблюдения цифровых прав — Digital Rights Rating 2025.
В фокусе — казахстанские разработчики, использующие ИИ в медицине, образовании, биометрии, автоматизации, контенте и клиентском сервисе.
Методология рейтинга включает анализ публичных политик и практик компаний по трём направлениям: корпоративное управление и взаимодействие с госорганами, свобода самовыражения и информации, а также право на защиту данных и приватность. Результаты исследования будут опубликованы на сайте digitalrights.kz до конца этого года.
Курс по ИИ для юристов
На курсе по искусственному интеллекту Школы киберправа мы среди прочего разбираем тему человекоцентричного использования ИИ, прозрачности и подотчетности алгоритмических систем, а также особенности правового регулирования в разных юрисдикциях.
Не упустите возможности прокачать свои знания в самой современной области права.
Подробности:
https://cyberlaw.kz/ai
https://cyberlaw.kz/
+7 747 653 1397 (WhatsApp)
По умолчанию все компании собирают тексты, изображения, аудио и документы, введённые в чатах, а также данные с других своих сервисов. Anthropic до 2025 года применяла модель opt-in, когда данные собирались только после кнопки согласия, но затем перешла на opt-out. Для бизнес-пользователей действует обратное правило: данные не используются без отдельного согласия.
Только Microsoft прямо заявляет о попытках удалить персональные идентификаторы перед обучением. Остальные компании ссылаются на абстрактные принципы privacy by design. При этом возрастная верификация отсутствует: например, Anthropic формально запрещает доступ пользователям младше 18 лет, но не проверяет возраст.
Сроки хранения данных часто не указаны. Только Google и Anthropic ограничивают их — от 30 дней до 5 лет. Политики конфиденциальности фрагментированы и трудны для понимания: основная политика, FAQ, справочные страницы и дополнительные документы. Некоторые компании используют guilt-shaming consent — формулировки, побуждающие делиться данными ради «общего блага».
Авторы исследования рекомендуют перейти к модели opt-in, внедрять технические меры приватности (временные чаты, дифференциальную приватность), фильтровать чувствительные данные и расширять описание жизненного цикла данных в политиках конфиденциальности.
На этом фоне особенно актуален вопрос: как обстоят дела с соблюдением цифровых прав казахстанской ИИ-отрасли? В июне 2025 года Центр цифровых прав Казахстана (DRCQ) запустил отбор ИИ-компаний для нового Рейтинга соблюдения цифровых прав — Digital Rights Rating 2025.
В фокусе — казахстанские разработчики, использующие ИИ в медицине, образовании, биометрии, автоматизации, контенте и клиентском сервисе.
Методология рейтинга включает анализ публичных политик и практик компаний по трём направлениям: корпоративное управление и взаимодействие с госорганами, свобода самовыражения и информации, а также право на защиту данных и приватность. Результаты исследования будут опубликованы на сайте digitalrights.kz до конца этого года.
Курс по ИИ для юристов
На курсе по искусственному интеллекту Школы киберправа мы среди прочего разбираем тему человекоцентричного использования ИИ, прозрачности и подотчетности алгоритмических систем, а также особенности правового регулирования в разных юрисдикциях.
Не упустите возможности прокачать свои знания в самой современной области права.
Подробности:
https://cyberlaw.kz/ai
https://cyberlaw.kz/
+7 747 653 1397 (WhatsApp)
