„Многим ИИ помогает быстрее выполнять рабочие задачи или просто эффективнее искать информацию. В то же время ИИ является большим подспорьем для киберпреступников, которые могут использовать его для перевода фальшивых писем, создания сайтов, сбора информации о жертвах и кражи личных данных.

Однако редко обсуждается тот факт, что люди сами бывают склонны передавать ИИ слишком много личных данных“, - отметил руководитель отдела по борьбе с отмыванием денег банка Citadele Виктор Ткаченко. По мере развития технологий становится очень сложно контролировать, куда и к кому в итоге попадает наша информация.

Ткаченко пояснил, что многие ИИ-системы разработаны для обработки огромного объема данных, чтобы иметь возможность предлагать пользователю наилучшие ответы. Для того чтобы ИИ понял, о чем именно его спрашивают, он также может собирать и анализировать представленную пользователями информацию. „Даже если некоторые модели ИИ, такие как ChatGPT, работают на защищенных серверах OpenAI, пользователю не всегда понятно, где именно хранятся данные и как долго они там будут находиться. Возможно, данные хранятся в облаке, откуда со временем могут стать доступными злоумышленникам благодаря новым технологиям, программам или утечкам“, - добавил Ткаченко.

Можно ли будет использовать данные в будущем?

На данный момент оценка рисков использования ИИ затруднена, поскольку это крайне быстро развивающаяся и меняющаяся сфера, однако в будущем, по мере развития технологий, может стать проще получать и анализировать данные для различных целей. Это означает, что информация, которой мы делимся сегодня, через несколько лет может оказаться ценным источником данных, который, попав в чужие руки, может быть использован, например, с целью кражи личности. Данные, которые мы сегодня передаем ИИ, могут быть слишком личными с точки зрения кибербезопасности и в какой-то момент стать опасными. „На самом деле при использовании ИИ действуют те же правила, что и при обычном поведении и общении в интернете“, - сказал Ткаченко.

Вот некоторые рекомендации по обеспечению кибербезопасности при общении с ИИ.

Избегайте передачи личной информации. Не указывайте личные коды, полные имена, адреса, номера телефонов, финансовые и другие конфиденциальные данные.

Задавайте вопросы в обобщенной форме. Используйте более общие вопросы, не требующие для ответа точной информации о вашей личности. Например, спрашивайте у ИИ о финансовых или туристических рекомендациях в общем, а не о собственных банковских данных или советах по управлению финансами.

Предпочитайте анонимность. Убедитесь, что используемые ИИ-системы не связаны с другими личными аккаунтами, где могут собираться и храниться ваши личные данные. Дополнительную безопасность может обеспечить создание отдельного электронного адреса – исключительно для регистрации в ИИ-системах.

Ознакомьтесь со своими правами и политиками конкретной ИИ-платформы. Чтобы избежать неприятных сюрпризов в будущем важно знать свои права в том, что касается удаления и передачи данных.

Используйте только официальные системы. Мошенники пользуются популярностью ИИ, создавая собственные чат-боты, чтобы получить личные данные людей. Обращайтесь за советом только к тем системам и чат-ботам, в надежности владельцев и разработчиков которых вы уверены.

Citadele Group – латвийский финансовый концерн. Головной офис Citadele Group находится в Риге, а дочерние предприятия и филиалы действуют в Эстонии Латвии и Литве. Помимо повседневных банковских услуг, Citadele предлагает услуги, основанные на финансовых технологиях, включая современное мобильное приложение, а также бесконтактные и мгновенные платежи.

Читайте RusDelfi там, где вам удобно. Подписывайтесь на нас в Facebook, Telegram, Instagram или TikTok.

Какое чувство вызвала у вас эта статья?

Радость
Удивление
Интерес
Никакое
Грусть
Злость
Поделиться
Комментарии