О чем не стоит рассказывать нейросетям
Кажется, что правила кибербезопасности известны всем, но как только дело доходит до общения с ИИ, здоровая подозрительность почему-то отключается. Многие с легкостью делятся с нейросетями своими персональными данными. А стоит ли?
Что может произойти с данными, которые мы передаем ИИ? Если коротко — они могут утечь в неизвестном направлении
— Некоторые модели продолжают обучаться на пользовательских данных — и могут случайно «выдать» их в ответ на чужой запрос.
— Мошенники могут найти уязвимости в алгоритме нейросети и получить доступ к данным пользователей.
— Постоянно появляются фейковые ИИ-сервисы, которые маскируются под популярные платформы. Через них преступники могут заразить компьютер или телефон вредным ПО и украсть личные данные.
Однако потенциальные риски вовсе не означают, что нужно полностью отказаться от новых технологий и делать все по старинке. Главное — быть аккуратным:
— Не передавайте информацию, которая в случае утечки может вам навредить: данные паспорта и карт, адреса и номера телефонов, медицинские заключения и коммерческие тайны. Также не загружайте фотографии своих документов.
— Прочитайте политику конфиденциальности сервиса, которым пользуетесь. В некоторых моделях можно запретить ИИ собирать вашу информацию и использовать ее для допобучения.
— Составляйте обезличенные запросы: меняйте имена и другую личную информацию на поддельную.
— Перед началом работы с новым сервисом или чат-ботом убедитесь, что перед вами не фишинговый ресурс — его название должно в точности совпадать с тем, которое вы ищите.
— И база: не забывайте регулярно менять пароли.
А вы пользуетесь нейросетями? Расскажите в комментариях, для каких задач вы обращаетесь к ИИ-ассистентам?
Кажется, что правила кибербезопасности известны всем, но как только дело доходит до общения с ИИ, здоровая подозрительность почему-то отключается. Многие с легкостью делятся с нейросетями своими персональными данными. А стоит ли?
Что может произойти с данными, которые мы передаем ИИ? Если коротко — они могут утечь в неизвестном направлении
— Некоторые модели продолжают обучаться на пользовательских данных — и могут случайно «выдать» их в ответ на чужой запрос.
— Мошенники могут найти уязвимости в алгоритме нейросети и получить доступ к данным пользователей.
— Постоянно появляются фейковые ИИ-сервисы, которые маскируются под популярные платформы. Через них преступники могут заразить компьютер или телефон вредным ПО и украсть личные данные.
Однако потенциальные риски вовсе не означают, что нужно полностью отказаться от новых технологий и делать все по старинке. Главное — быть аккуратным:
— Не передавайте информацию, которая в случае утечки может вам навредить: данные паспорта и карт, адреса и номера телефонов, медицинские заключения и коммерческие тайны. Также не загружайте фотографии своих документов.
— Прочитайте политику конфиденциальности сервиса, которым пользуетесь. В некоторых моделях можно запретить ИИ собирать вашу информацию и использовать ее для допобучения.
— Составляйте обезличенные запросы: меняйте имена и другую личную информацию на поддельную.
— Перед началом работы с новым сервисом или чат-ботом убедитесь, что перед вами не фишинговый ресурс — его название должно в точности совпадать с тем, которое вы ищите.
— И база: не забывайте регулярно менять пароли.
А вы пользуетесь нейросетями? Расскажите в комментариях, для каких задач вы обращаетесь к ИИ-ассистентам?
598