Компания Anthropic добавила в продукты Claude Cowork и Claude Code функцию computer use, позволяющую ИИ напрямую управлять компьютером пользователя.
Если у Claude нет доступа к нужным инструментам, он может сам указывать на объекты на экране, кликать по ним, открывать файлы, запускать браузер и IDE. Управление осуществляется через мышь, клавиатуру и экран, но всегда с предварительным запросом разрешения.
Новая функция позволяет ИИ выполнять задачи вместо пользователя: провести утренний брифинг, внести изменения в код, запустить тесты и даже отправить пул‑реквест.
Computer use пока находится на стадии тестирования и не всегда работает идеально, поэтому Anthropic рекомендует избегать использования её для работы с чувствительными данными.
Тем временем компания столкнулась с серьёзным инцидентом: произошла утечка исходного кода Claude. В обновлении для Claude Code по ошибке оказался отладочный файл с более чем 500 тысячами строк кода.
Разработчики быстро разместили его на GitHub, создали десятки форков и начали адаптировать под разные среды. Попытки закрыть репозитории через DMCA оказались частично безуспешными — процесс обратного контроля фактически невозможен. Персональные данные пользователей при этом не пострадали.
Но стоит заметить, что Anthropic продолжает придерживаться гуманистических принципов в развитии ИИ, что не может не вызывать уважения и признания стойкости её базовых ценностей.
Компания отказалась участвовать в проектах, связанных с оружием или массовой слежкой, и сохраняет акцент на прозрачности и управлении рисками.
Что это значит для юристов и бизнеса?
Функции вроде computer use у ИИ — это уже не просто технология, а новый уровень правовых рисков: доступ к устройствам пользователя обработка чувствительных данных ответственность за действия ИИ.
А кейс Anthropic с утечкой более 500 000 строк кода показывает:
∙ утечки в эпоху ИИ масштабируются мгновенно
∙ контроль над кодом и данными становится практически невозможным
∙ правовые инструменты не всегда успевают за технологией
В Школе киберправа мы разбираем: правовой режим ИИ; управление цифровыми рисками; ответственность разработчиков и пользователей.
Курс по ИИ для юристов — https://cyberlaw.kz/ai
Подробнее о CyberLaw School — https://cyberlaw.kz/
Написать нашему менеджеру +7 747 653 1397 (WhatsApp)
Если у Claude нет доступа к нужным инструментам, он может сам указывать на объекты на экране, кликать по ним, открывать файлы, запускать браузер и IDE. Управление осуществляется через мышь, клавиатуру и экран, но всегда с предварительным запросом разрешения.
Новая функция позволяет ИИ выполнять задачи вместо пользователя: провести утренний брифинг, внести изменения в код, запустить тесты и даже отправить пул‑реквест.
Computer use пока находится на стадии тестирования и не всегда работает идеально, поэтому Anthropic рекомендует избегать использования её для работы с чувствительными данными.
Тем временем компания столкнулась с серьёзным инцидентом: произошла утечка исходного кода Claude. В обновлении для Claude Code по ошибке оказался отладочный файл с более чем 500 тысячами строк кода.
Разработчики быстро разместили его на GitHub, создали десятки форков и начали адаптировать под разные среды. Попытки закрыть репозитории через DMCA оказались частично безуспешными — процесс обратного контроля фактически невозможен. Персональные данные пользователей при этом не пострадали.
Но стоит заметить, что Anthropic продолжает придерживаться гуманистических принципов в развитии ИИ, что не может не вызывать уважения и признания стойкости её базовых ценностей.
Компания отказалась участвовать в проектах, связанных с оружием или массовой слежкой, и сохраняет акцент на прозрачности и управлении рисками.
Что это значит для юристов и бизнеса?
Функции вроде computer use у ИИ — это уже не просто технология, а новый уровень правовых рисков: доступ к устройствам пользователя обработка чувствительных данных ответственность за действия ИИ.
А кейс Anthropic с утечкой более 500 000 строк кода показывает:
∙ утечки в эпоху ИИ масштабируются мгновенно
∙ контроль над кодом и данными становится практически невозможным
∙ правовые инструменты не всегда успевают за технологией
В Школе киберправа мы разбираем: правовой режим ИИ; управление цифровыми рисками; ответственность разработчиков и пользователей.
Курс по ИИ для юристов — https://cyberlaw.kz/ai
Подробнее о CyberLaw School — https://cyberlaw.kz/
Написать нашему менеджеру +7 747 653 1397 (WhatsApp)
