Не так давно компания
«В частности, в одном из случаев инженер ввел в строку ChatGPT исходный код, связанный с полупроводниковым оборудованием. В другом случае еще один работник также решил поделиться секретным исходным кодом с чат-ботом – сотрудник Samsung хотел упростить его проверку, но в конце концов корпоративные данные были потеряны. Третья утечка произошла в тот момент, когда специалист компании при помощи ChatGPT решил создать протокол встречи. Во всех трех случаях скрытая информация от Samsung стала частью базы знаний искусственного интеллекта», – заявил источник.
Компания уже предупредила своих работников и также предприняла массу мер. Также поступила и итальянское управление по защите персональных данных, которое первым в мире ввело временные ограничения на использование чат-бота.
«Причиной этого стало нарушение законодательства о персональных данных. В управлении отметили, что сегодня нет правовой основы, которая оправдывала бы массовый сбор и хранение личной информации пользователей для обучения алгоритмов ChatGPT. Кроме того, чат-бот формально предназначен для лиц старше 13 лет, но на деле в нем нет никакого фильтра для проверки возраста пользователя», – сообщает источник.
Технический директор компании Swordfish Security Антон Башарин проанализировал ситуацию с Samsung и отметил, что вся проблема заключается в халатности сотрудников компании. Ведь сам ChatGPT не был взломан и никакого сбора информации не было.
«Эта информация используется для обучения и развития моделей чат-бота. Поэтому нет ничего удивительного в том, что какая-то ее доля «оседает» в моделях, в дальнейшем, по сути, становясь частью их знаний», – отметил Башарин.
По словам управляющего RTM Group Евгения Царева, бывают ситуации, когда чат-ботам специальной дают данные из баз, которые находятся в открытом доступе. Башарин же дополнил, что полученные материалы ChatGPT использует для создания анонимных профилей пользователей в соцсетях.
«В дальнейшем эти данные можно использовать для таргетированной рекламы, а можно и для хакерской атаки – все зависит от реальных владельцев бота или тех, кому они продадут свою базу знаний», – отметил директор компании.
Царев заявил, что все инциденты, связанные с ChatGPT не стоит считать утечкой данных. Он отметил, что это можно сравнить с «выкладыванием тех же данных в публичную таблицу от Google».
Для того, чтобы уберечь себя от утечки данных, необходимо знать свои пароли, внимательно следить за входящими звонками и письмами. На сегодняшний день есть масса спам-фильтров. Евгений Царев отметил, что не стоит забывать о сомнительных сайтах и разделения аккаунтов на рабочие и личные.
Ранее Readovka писала о том, что украинские «инвестиционные офисы»
Макар Белый
Читайте нас: