Смогут ли избиратели распознать подделки ИИ на президентских выборах 2024 года?

По мере того как Соединенные Штаты готовятся к президентским выборам 2024 года, способность выявлять сгенерированные искусственным интеллектом фальшивки становится критически важной для избирателей, которые хотят оставаться хорошо информированными и принимать точные решения. Появление общедоступных инструментов искусственного интеллекта (ИИ) привело к росту числа политических фальшивок, в результате чего избирателям необходимо развивать новые навыки, чтобы отличать реальную информацию от манипулируемого контента.
По словам Марка Уорнера, председателя Сената по вопросам разведки, Соединенные Штаты «менее подготовлены» к фальсификациям на выборах 2024 года по сравнению с предыдущими выборами 2020 года. Основная причина этого — экспоненциальный рост числа глубоких подделок, генерируемых ИИ, за последний год. Так, SumSub, сервис проверки личности, сообщил об ошеломляющем росте числа фальшивок на 1 740 % только в Северной Америке, а в 2023 году их обнаружение во всем мире увеличится в десять раз.
Один из заметных инцидентов произошел в Нью-Гэмпшире, где граждане получали робозвонки с голосом президента США Джо Байдена, инструктировавшего их не голосовать на праймериз. Этот инцидент побудил регулирующие органы запретить использование голосов, генерируемых искусственным интеллектом, в автоматических телефонных мошенничествах, сделав их незаконными в соответствии с американскими законами о телемаркетинге.

Выявление глубоких подделок ИИ

Павел Гольдман Калайдин, руководитель отдела искусственного интеллекта и машинного обучения компании SumSub, подчеркнул важность бдительности при тщательном изучении контента. Он выделил два типа глубоких подделок: те, которые создаются технически подкованными командами с использованием передовых технологий и оборудования, что делает их более сложными для обнаружения, и те, которые производятся мошенниками низшего уровня, использующими легкодоступные инструменты на потребительских компьютерах.
Калайдин предложил несколько признаков, на которые следует обращать внимание в глубоких подделках, включая неестественные движения рук или губ, искусственные фоны, неравномерное движение, изменения в освещении, различия в оттенках кожи, необычные моргания, плохую синхронизацию движений губ с речью и цифровые артефакты. Если присутствует хотя бы один из этих признаков, контент, скорее всего, создан искусственным интеллектом.
Однако Калайдин предупредил, что технологии глубоких подделок быстро развиваются, поэтому человеческому глазу все труднее обнаруживать глубокие подделки без специальных технологий обнаружения. Поэтому платформам социальных сетей крайне важно использовать технологии обнаружения подделок и визуального распознавания, чтобы обеспечить подлинность контента и защитить пользователей от дезинформации.

Проблемы создания и распространения фейков

Демократизация технологий искусственного интеллекта способствовала распространению фейкового контента. Доступность приложений для подмены лиц и возможность манипулировать контентом упростили создание и распространение ложной информации. Отсутствие четких правовых норм и политики в отношении фейков еще больше способствовало распространению такой дезинформации в сети.
Для решения этой проблемы Калайдин предложил ввести обязательные проверки на наличие искусственного интеллекта или глубоких подделок на платформах социальных сетей, чтобы информировать пользователей и гарантировать подлинность контента. Кроме того, он предложил внедрить системы верификации пользователей, в которых проверенные пользователи будут нести ответственность за подлинность визуального контента, а непроверенные пользователи будут четко обозначены, чтобы предостеречь других от доверия к контенту.
Правительства по всему миру также принимают меры. Индия, например, выпустила рекомендацию для местных технологических компаний, требующую одобрения перед выпуском «ненадежных» инструментов ИИ для общественного использования в преддверии выборов 2024 года. В Европе Европейская комиссия разработала руководство по дезинформации с помощью ИИ для платформ, работающих в этом регионе. Meta, материнская компания Facebook и Instagram, также разработала собственную стратегию по борьбе с неправомерным использованием генеративного ИИ в контенте на своих платформах.

Заключение

По мере приближения президентских выборов 2024 года угроза глубоких подделок, генерируемых искусственным интеллектом, становится все более реальной. Избиратели должны обладать необходимыми навыками для выявления и борьбы с этой формой дезинформации. Хотя в настоящее время существуют признаки, по которым можно распознать фальшивки, быстрое развитие технологий искусственного интеллекта создает новые проблемы. Платформам социальных сетей и правительствам крайне важно внедрять технологии обнаружения, обеспечивать соблюдение правил и повышать осведомленность пользователей, чтобы гарантировать честность выборов и защитить граждан от манипуляций с контентом.