Сгенерированное нейросетью изображение Буданова
Прошедшая неделя украинского конфликта отмечена целым рядом фейковых пропагандистских вбросов особого рода, с участием (точнее, якобы участием) высокопоставленных лиц обеих сторон. 5 июня в приграничных регионах России через взломанные сети теле- и радиовещания распространялось
11 июня ГУР Украины опубликовало любопытное продолжение уже полюбившейся телезрителям серии роликов «Планы любят тишину», посвящённой «наступу всех наступов». На этот раз в кадре многозначительно молчал не какой-нибудь очередной безымянный фашист, а сам начальник абвера Буданов, который не появлялся на публике с начала июня... И в этот раз тоже не появился: сидящая за столом фигура с лицом главного украинского разведчика явно сгенерирована средствами ИИ. По-видимому, киевский режим этим коротким роликом хотел показать, что слухи о гибели Буданова в результате российского ракетного удара немного преувеличены, но результат вышел обратным: сомнения в его добром здравии лишь усилились.
Наконец, 12 июня в эфире одного из каналов украинского ТВ появился ролик по случаю Дня России, в котором
Хотя творчество нейросетей по мотивам портрета Буданова – самый слабый из этих трёх фейков, и по качеству, и по эффекту, оно всё же является вехой: это, пожалуй, первый в ходе СВО случай, когда одна из сторон использовала в пропаганде материал, почти целиком созданный ИИ (точнее, тем, что называет «искусственным интеллектом» обыватель). Поскольку художественные навыки нейросетей растут если не по часам, то по дням уж точно, в ближайшем будущем количество и, главное, качество подобного «контента» может увеличиться на два-три порядка.
(Не) учли хвалёные инженеры
Как известно, ещё Владимир Ильич Ленин заявил, что главная проблема цитат из Интернета в лёгкости, с которой люди верят в их подлинность. Не только возможная, но и доступная в наше время всякому желающему автоматизированная генерация практически любых статичных изображений уже возвела эту проблему в квадрат, а ведь в ближайшие месяцы можно ожидать появления нейросетей-генераторов качественного видео.
Нетрудно представить себе, какие фантастические возможности по манипуляции сознанием открывает эта сфера
Возвращаясь к украинскому конфликту, можно сходу назвать с десяток шаблонных сценариев для нейросетевых фейков. Это могут быть переможные кадры с подъёмом жёлто-синего флага в «отбитом» населённом пункте, рисование на ровном месте куч убитых русских солдат и горелой техники, опять же, выступления российских официальных лиц в поддержку Киева и т.д.
Само собой, профи могут создавать такого рода материалы и по старинке, «вручную», но производство большого объёма туфты классическими методами потребует соответствующих затрат времени и средств. С другой стороны, хотя качественная генерация нейросетями тоже требует от оператора специфических навыков, в теории использование ИИ набитой рукой позволяет выдавать буквально тонны «контента» очень быстро и практически бесплатно.
Недооценивать потенциал полностью виртуальной фабрики фейков не стоит.
Три закона ChatGPTехники
На сегодняшний день такие сценарии кажутся утрированными, но дальнейшее развитие технологии нейросетей позволит создавать с их помощью масштабные мистификации уже через пару-тройку лет. Этот потенциал виден уже сейчас, так что неудивительно, что после всеобщего всплеска интереса к нейросетям в начале этого года повсеместно стали появляться законодательные инициативы по регулировке использования ИИ.
Забавно, что
Следующий месяц оказался весьма нервным для разработчиков нейросетей. 11 апреля китайская Администрация киберпространства представила законопроект о регуляции использования нейросетей на территории страны: от разработчиков теперь требуется вводить технические ограничения на генерацию различного неприемлемого контента, а от конечных пользователей – авторизоваться по паспорту. В Евросоюзе с требованиями к ИИ определились к 28 апреля: там также будут требовать от нейросетей следования «генеральной линии партии», а также раскрытия всего перечня защищённых авторским правом материалов (текстов, изображений и т.д.), которые использовались для обучения алгоритмов.
Россия не осталась в стороне от общих тенденций. 13 апреля зампред комитета Госдумы по инфополитике Горелкин заявил, что ведётся работа над пакетом документов о регуляции использования нейросетей в тех же аспектах, что и в остальном мире: исключение создания с их помощью экстремистских материалов, защита личных данных пользователей и авторских прав.
Особняком стоят США и Великобритания, правительства которых рассчитывают использовать новые информационные технологии для контроля за собственным населением и «союзниками» по всему миру. В начале апреля Вашингтон заявил о планах создания специального фонда, на средства которого будет поддерживаться кибербезопасность в дружественных государствах. А 23 мая корпорация Microsoft объявила о запуске нового нейросетевого «детектора дезинформации» Azure AI Content Safety: по сути, это будет автоматизированный модератор вроде тех, что используются в YouTube и других соцсетях, но универсальный. Предполагается, что сторонние платформы будут подключать его и пользоваться услугами за плату, а вот проводить границу между правдой и ложью в настройках своего ИИ Microsoft будет сама (но по советам американских спецслужб, конечно же).
На осень запланировано проведение первого глобального саммита по безопасности ИИ, который будет проходить на территории и под эгидой британского правительства, с максимальным деятельным участием США. Принципиальная договорённость о проведении саммита была достигнута Байденом и Сунаком 7 июня, когда последний находился с визитом в Вашингтоне.
Штаты пока что являются мировыми лидерами в области коммерческих нейросетей, а Великобритания занимает третье место по объёму этого рынка (второе – у Китая). Вполне очевидно, что саммит будет не столько про безопасность, сколько про делёж рынка между американскими и британскими игроками, и навязывание прочим «союзникам» англо-американских отраслевых стандартов, как технических, так и законодательных.
Собственно, процесс уже идёт, хотя немного в ином, но типично американском ключе. В мае американский полупроводниковый гигант Intel активно выдавливал из немецкого правительства увеличение субсидий на строительство завода по производству чипов под Магдебургом: первоначальная договорённость была на 6,8 миллиарда евро, а затем аппетит подскочил до 10 миллиардов. Смена условий ещё не утверждена, но ряд немецких
Есть мнение, что на это демарш Intel с удорожанием строительства и направлен. А ведь намечавшиеся к выпуску передовые процессоры нужны как раз для создания мощных датацентров, в которых и обретаются алгоритмы Midjourney и прочих нейросетей – но зачем американским монополиям этой сферы конкуренты в Европе? Тем временем Microsoft 11 июня объявила о начале ликвидации своего исследовательского центра ИИ в Китае и вывозе персонала оттуда в Канаду. Словом, дистиллированная «рыночная конкуренция», как она есть.
Впрочем, это ещё вопрос, удастся ли американским производителям и разработчикам обскакать китайских, ведь в самих Штатах развернулась достаточно мощная кампания по ограничению коммерческого использования нейросетей. В частности, этого требуют многочисленные профсоюзы Голливуда, угрожая остановить кинопроизводство, и кое-каких результатов они уже добились: 3 июня в Конгресс был внесён законопроект о специальном знаке качества для произведений, созданных при помощи ИИ. Но вот в чём сомневаться не приходится, так это что американское правительство и информационные гиганты продолжат самое активное внедрение нейросетей для манипуляций общественным мнением.
Михаил Токмаков
Опубликовано: Мировое обозрение Источник
Читайте нас: