По секрету всему свету: сотрудники Samsung слили боту ChatGPT конфиденциальные корпоративные данные
Три инцидента с утечкой конфиденциальных данных, включая исходный код и производственные алгоритмы, заставили Samsung Electronics временно заблокировать доступ сотрудников к публичным нейросетям. Компания столкнулась с парадоксальной ситуацией, когда стремление разработчиков к оптимизации работы с помощью искусственного интеллекта обернулось прямыми корпоративными рисками.
Как стремление к эффективности обернулось уязвимостью
Внутреннее расследование в Samsung выявило тревожную тенденцию: инженеры и разработчики начали массово использовать публичные генеративные модели для решения рабочих задач, не задумываясь о последствиях. Первый инцидент касался передачи фрагмента проприетарного исходного кода для его оптимизации. Фактически, стратегически важная разработка оказалась на серверах сторонней компании, что лишило Samsung исключительных прав на этот программный продукт и сделало его уязвимым для анализа конкурентами.
От производственных секретов до стенограмм совещаний
Второй случай был ещё более чувствительным: сотрудник загрузил в нейросеть алгоритм выявления дефектов полупроводниковых чипов. Эта технология является ключевой для обеспечения качества продукции и составляет основу конкурентного преимущества Samsung на глобальном рынке микроэлектроники. Третий инцидент, хотя и кажется менее критичным, демонстрирует масштаб проблемы: для создания презентации в ChatGPT была загружена полная стенограмма внутреннего совещания, содержащая обсуждения проектов, оценок и потенциально — рыночных стратегий.
Ответ компании: от запретов к созданию собственных решений
Реакция руководства была незамедлительной и жёсткой. Доступ к ChatGPT и аналогичным публичным сервисам с корпоративных устройств был полностью заблокирован. Параллельно с этим все сотрудники прошли обязательные инструктажи о правилах работы с конфиденциальной информацией и рисках, связанных с использованием внешних AI-сервисов. Однако эти меры носят временный характер.
Долгосрочная стратегия Samsung, как стало известно, заключается в разработке собственной, полностью изолированной системы генеративного искусственного интеллекта. Такая внутренняя платформа позволит сотрудникам использовать преимущества нейросетей для оптимизации кода, анализа данных и подготовки документов, но без риска утечки коммерческой тайны за периметр компании.
Эта ситуация в Samsung стала ярким примером системной проблемы, с которой сталкиваются технологические корпорации по всему миру. Стремительное внедрение мощных и доступных AI-инструментов опередило выработку чётких корпоративных протоколов их использования. Ранее подобные случаи уже фиксировались в других компаниях, где сотрудники, пытаясь ускорить решение задач, непреднамеренно делились данными о клиентах или патентованными наработками. Инциденты в корейском гиганте демонстрируют, что риски носят не абстрактный, а вполне конкретный характер, угрожая самой основе бизнеса — интеллектуальной собственности.
Последствия выходят далеко за рамки внутренних расследований. Они заставляют пересматривать подходы к кибербезопасности, добавляя в список углот не только хакерские атаки, но и действия добросовестных, но неосторожных сотрудников. Ожидается, что волна корпоративных запретов на публичные нейросети будет расти, параллельно стимулируя рынок закрытых корпоративных AI-решений. Для индустрии в целом это означает неизбежное замедление темпов внедрения AI-инструментов в обмен на выстраивание безопасных и контролируемых процессов.
