Искусственный интеллект относится к тем критическим технологиям, которые развиваются стремительно быстро и их применение внедряется в самых различных сферах. Хотя есть случаи, когда эти инновации явно идут не на пользу, а используются, скорее, в деструктивных целях.
Первый пример связан с подменой реальности в Венесуэле. Поскольку за подстрекательство к протестам есть реальный шанс получить тюремный срок, оппозиционные стратеги для медийного манипулирования освоили новый трюк – создали виртуальных ведущих новостей, таких как Bestie и Buddy, чтобы публиковать в социальных сетях репортажи, критикующие правительство. Этот инновационный подход с виртуальными аватарами, являющийся частью проекта "Операция Ретвит", позволяет им говорить практически все что угодно, избегая ответственности. "Операция Ретвит", в свою очередь, является частью инициатив #VenezuelaVota и #LaHoradeVenezuela.
Впервые информация об этом появилась 16 августа
Эпизоды «Операции Ретвит» транслируются на различных цифровых платформах, включая X (ранее Twitter), YouTube, TikTok, Facebook и Instagram. На этих каналах аватары искусственного интеллекта делятся информацией по актуальным темам Венесуэлы. Первый эпизод,
Естественно, все это показано не с позиции верховенства права и суверенитета, а с точки зрения оппозиции и интересов главных зачинщиков текущего кризиса – США.
Вероятно, что и сам метод был подсказан спонсорами из Госдепартамента США.
Стратегия в целом довольно инновационная, в том числе в вопросах ухода от ответственности. Ведь если обычного ведущего можно привлечь за высказывания, которые явно противозаконны, то как поступать в отношении виртуального аватара? Нужно искать его создателя и редакторов, что явно затрудняет следственные действия.
Похожая ситуация, но с несколько иным измерением возникла в Южной Корее. Сейчас там зафиксирован целый бум видео дипфейков эротического и порнографического содержания.
В ходе одного из недавних правонарушений несколько учеников средней школы в Пусане создали порнографические фейки учеников и учителей в своей школе и разместили их в групповом чате на KakaoTalk. Подобные случаи произошли примерно в 150 средних и старших классах школ по всей стране. Это говорит о широко распространенной проблеме подделок, совершаемых подростками, привыкшими к цифровому контенту.
Согласно
Но правительство мало что может сделать, в связи с чем корейская группа по защите прав женщин Womenlink заявила, что женщины остаются «жить без государства», поскольку они больше не чувствуют, что их страна обеспечит им необходимую защиту.
Однако реальность сбоит не только из-за хулиганов, как в Южной Корее, или политически мотивированных активистов, как в Венесуэле.
В августе 2024 г. высокопоставленные чиновники из Мичигана, Миннесоты, Нью-Мексико, Пенсильвании и Вашингтона
Госсекретари попросили, чтобы чат-бот направлял пользователей, которые задают вопросы, связанные с выборами, на информационный веб-сайт для голосования.
Илон Маск пошел на встречу чиновникам. Интересно, что в недостоверной информации о сроках голосования также упоминались Алабама, Индиана, Огайо и Техас, хотя от руководства этих Штатов писем не приходило.
Всего ложные данные транслировались в течение десяти дней. Причина, по которой подавалась такая информация, неизвестна.
Если в приведённых случаях речь идет об искажении реальности и ее подмене, то есть и противоположный подход – это тщательный и глубокий анализ данных. Теоретически он может применяться в разных сферах, однако сейчас его активно эксплуатируют американские военные и разведка.
Директор по данным и цифровым инновациям Национального агентства геопространственной разведки США Марк Манселл сообщил на днях, что их агентство приступило к обучению алгоритмов искусственного интеллекта на основе своего уникального набора визуальных и текстовых данных. За десятилетия работы американская разведка накопила огромное количество данных, многие из которых были получены с помощью спутниковых снимков из космоса. Для их обработки нужно потратить очень много времени и задействовать большое количество персонала. Но теперь эти архивы пытаются объединить с отчетами тщательно отобранных людей о том, что они видят на этих изображениях.
Существуют языковые модели, которые работают исключительно с текстом: они тренируются на тексте, принимают вводимые данные и выводят ответы в виде текста. Другие формы генеративного искусственного интеллекта могут достаточно хорошо соотносить текст и изображения, чтобы превратить письменные запросы пользователей в картинки или даже видео.
И вот теперь военные и разведсообщество США заявляют о новом подходе, который переходит на следующий уровень, – это
Руководитель программы DARPA Уильям Корви, выступая на
Современные алгоритмы искусственного интеллекта ранее доказали способность работать с изображениями, видео и всеми видами сенсорных данных, а не только с текстом, поскольку они могут преобразовать любые из них в одни и те же математические представления.
Поэтому военные в США стараются использовать его для приведения различных данных к общему знаменателю и более чёткого целеуказания. И этот подход используется повсеместно.
ФБР также использует технологию с поддержкой искусственного интеллекта для оценки подсказок, чтобы гарантировать их точную идентификацию, приоритезацию и своевременную обработку. Подразделение ЦРУ по открытым источникам запустило внутренний инструмент искусственного интеллекта в стиле «Чат-GPT», позволяющий аналитикам иметь «лучший доступ к разведданным с открытым исходным кодом», а АНБ
Хотя для американских силовиков новые технологии, предположительно, дадут преимущество, нужно помнить и о другой стороне медали – все эти сведения будут использоваться против потенциальных противников, к которым в Вашингтоне относят и Китай, и Россию, и ряд других стран. И с их позиции такое применение искусственного интеллекта также носит деструктивный характер.
Фото: tenchat.ru
Читайте нас: