Anthropic продолжает работу над правилами безопасности ИИ, но сохраняет гуманистические принципы

Anthropic продолжает работу над правилами безопасности ИИ, но сохраняет гуманистические принципы
В августе прошлого года компания Anthropic объявила об изменениях политики конфиденциальности. Теперь пользователи Claude Free, Pro и Max должны были до 28 сентября решить, будут ли их данные храниться пять лет и использоваться для обучения моделей. Ранее информация удалялась через 30 дней.

Компания объяснила шаг стремлением повысить эффективность и безопасность систем. По её мнению, данные пользователей помогут улучшить возможности Claude в кодировании, анализе и рассуждении. Изменения не коснулись корпоративных клиентов.

Таким образом, Anthropic впервые закрепила долгосрочное использование пользовательских данных для развития ИИ. Это вызвало дискуссию о балансе между удобством и приватностью, но компания подчеркнула, что решение добровольное и зависит от выбора каждого.

В феврале этого года Anthropic пересмотрела свою ключевую политику безопасности. Она отказалась от обещания не выпускать новые модели без полного набора предохранителей. Вместо жёстких ограничений внедряется система отчётов и дорожных карт безопасности.

Обновлённая Responsible Scaling Policy (Политика ответственного масштабирования) больше не предусматривает автоматических пауз в развитии моделей. Теперь компания обещает публиковать Frontier Safety Roadmaps (Дорожные карты безопасности передовых моделей) и Risk Reports (Отчёты о рисках), чтобы информировать о рисках и возможностях.

Руководство объяснило изменения прагматическими соображениями: односторонние ограничения потеряли смысл в условиях стремительной эволюции технологий. Anthropic считает важным оставаться на переднем крае исследований, даже если это требует гибкости.

Несмотря на отказ от прежних гарантий, компания утверждает, что система защиты не исчезла. Она трансформировалась в более динамичную модель управления рисками, где прозрачность и публичные отчёты должны укрепить доверие пользователей.

В то же время Anthropic демонстрирует принципиальную позицию в отношении гуманистического применения ИИ. Компания отказалась участвовать в разработке систем, которые могут управлять оружием или использоваться для массовой слежки.

Компания заявила, что её фундаментальный принцип — гуманное использование ИИ — остаётся неизменным и определяет стратегию развития.

Подобный подход во многом перекликается с положениями Закона Республики Казахстан «Об искусственном интеллекте», который также делает акцент на управлении рисками, прозрачности и ответственности при разработке и использовании ИИ-систем.

В частности, закон закрепляет требования к обеспечению безопасности и надежности ИИ, недопущению вреда правам и интересам пользователей, а также вводит обязательства по информированию о применении ИИ в продуктах и сервисах.

В контексте решения Anthropic о длительном хранении пользовательских данных до пяти лет особое значение приобретает вопрос соразмерности и обоснованности таких сроков, а также соблюдения принципов защиты персональных данных.

Казахстанское регулирование в этой части требует, чтобы обработка данных, включая их хранение и использование для обучения ИИ, осуществлялась на законных основаниях, с соблюдением прав субъектов данных и прозрачностью целей обработки.

Дополнительно, последние изменения в законодательстве о персональных данных усиливают контроль пользователей: введена норма, обязывающая собственника и (или) оператора, а также третье лицо прекратить обработку персональных данных в течение пятнадцати рабочих дней со дня получения уведомления об отзыве согласия.