Рекламный баннер 990x90px ban-1
Курс: 85.66 99.74

О чем не стоит рассказывать нейросетям

О чем не стоит рассказывать нейросетям

Кажется, что правила кибербезопасности известны всем, но как только дело доходит до общения с ИИ, здоровая подозрительность почему-то отключается. Многие с легкостью делятся с нейросетями своими персональными данными. А стоит ли?

Что может произойти с данными, которые мы передаем ИИ? Если коротко — они могут утечь в неизвестном направлении

— Некоторые модели продолжают обучаться на пользовательских данных — и могут случайно «выдать» их в ответ на чужой запрос.
— Мошенники могут найти уязвимости в алгоритме нейросети и получить доступ к данным пользователей.
— Постоянно появляются фейковые ИИ-сервисы, которые маскируются под популярные платформы. Через них преступники могут заразить компьютер или телефон вредным ПО и украсть личные данные.

Однако потенциальные риски вовсе не означают, что нужно полностью отказаться от новых технологий и делать все по старинке. Главное — быть аккуратным:

— Не передавайте информацию, которая в случае утечки может вам навредить: данные паспорта и карт, адреса и номера телефонов, медицинские заключения и коммерческие тайны. Также не загружайте фотографии своих документов.

— Прочитайте политику конфиденциальности сервиса, которым пользуетесь. В некоторых моделях можно запретить ИИ собирать вашу информацию и использовать ее для допобучения.

— Составляйте обезличенные запросы: меняйте имена и другую личную информацию на поддельную.

— Перед началом работы с новым сервисом или чат-ботом убедитесь, что перед вами не фишинговый ресурс — его название должно в точности совпадать с тем, которое вы ищите.

— И база: не забывайте регулярно менять пароли.

А вы пользуетесь нейросетями? Расскажите в комментариях, для каких задач вы обращаетесь к ИИ-ассистентам?
598

Оставить сообщение: