Пользователи Anthropic перед лицом нового выбора – отказаться от участия или поделиться своими данными для обучения ИИ.

Anthropic предлагает своим пользователям новый выбор — либо отказаться от использования их данных для обучения ИИ, либо согласиться на их использование в этой цели. Такой подход обусловлен обновлениями политики конфиденциальности компании, которые вступили в силу в декабре 2024 года. Теперь пользователи могут контролировать, будут ли их данные и взаимодействия с AI использоваться для дальнейшего обучения и совершенствования языковых моделей Claude.

Это нововведение отражает стремление Anthropic к прозрачности и уважению приватности пользователей. В уведомлении об обучении моделей компания подробно объясняет, как их большие языковые модели обучаются, а также какие данные могут быть затронуты, включая персональные данные, которые иногда обрабатываются в рамках сервисов, даже если лица не зарегистрированы как пользователи. Таким образом, пользователи получают больше информации и могут сделать осознанный выбор, позволяя или запрещая использование их данных для тренировки ИИ.

Такой подход необычен на рынке ИИ, поскольку многие компании используют пользовательские данные для тренировок без явного согласия. Anthropic акцентирует внимание на том, что пользователь сохраняет контроль над своими данными, что соответствует общему тренду в индустрии по усилению этических стандартов и соблюдению конфиденциальности.

Для пользователей это означает: при желании можно сохранить конфиденциальность и не обогащать модели своими данными, либо помочь развитию искусственного интеллекта, предоставив доступ к своим взаимодействиям. Это важное решение, которое каждый принимает для себя, учитывая баланс между удобством новых возможностей ИИ и защитой личной информации.

Автор bmlabs

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *