Выбрать страницу

Несколько лет назад дипфейки казались новой технологией, требующей серьезных вычислительных мощностей. Сегодня они широко распространены и потенциально могут быть использованы для дезинформации, хакерских атак и тому подобного.

Intel Labs разработала технологию обнаружения дипфейков в режиме реального времени. Илке Демир, старший научный сотрудник Intel, рассказывает о технологии, лежащей в основе дипфейков, методах обнаружения, а также об этических аспектах, связанных с разработкой и внедрением таких инструментов.

Дипфейки — это видео, речь или изображения, в которых персонажи или действия ненастоящие, созданные искусственным интеллектом (ИИ). Дипфейки используют сложные архитектуры глубинного обучения, такие как генеративные состязательные сети, вариационные автокодеры и другие модели ИИ, для создания реалистичного и очень правдоподобного контента. Эти модели могут синтезировать образы, создавать видео с синхронизацией губ и даже преобразовывать текст в изображение, так что довольно сложно отличить реальный контент от поддельного. Термин «дипфейк» иногда применяется и к аутентичному контенту, подвергнутому изменениям.

Команда Демира изучает дипфейки, которые представляют собой синтетические формы контента, сгенерированные машинами. «Причина, по которой это называется «дипфейк» (deepfake), заключается в том, что при создании контента используется сложная архитектура глубинного обучения (deep-learning) в генеративном ИИ», — говорит он.

Злоумышленники часто используют технологию дипфейка для своих махинаций. Это может быть политическая дезинформация, контент для взрослых с участием знаменитостей или других людей без их согласия, рыночные манипуляции или выдача себя за другого человека с целью наживы. Увеличение количества подобного контента делает разработку эффективных методов обнаружения дипфейков как никогда актуальной.

Intel Labs создала одну из первых в мире платформ для обнаружения дипфейков в режиме реального времени. Вместо того, чтобы искать артефакты подделки, технология анализирует соответствие реальности, например, частоту сердцебиения. Используя метод фотоплетизмографии, — система анализирует изменение цвета вен из-за содержания кислорода — технология может определить, является ли персонаж реальным человеком или синтезированным.

«Мы пытаемся смотреть на то, что является реальным и подлинным. Частота сердцебиения — один из сигналов, — рассказывает Демир. Когда сердце сокращается и проталкивает кровь в вены, вены меняют цвет. Это не видно глазу; я не могу просто посмотреть видео и увидеть частоту сердцебиения. Но это изменение цвета можно зафиксировать с помощью вычислений».

Технология обнаружения дипфейков от Intel внедряется в различных сферах и на различных платформах, включая социальные сети, информационные агентства, теле- и радиовещательные компании, инструменты для создания контента, стартапы и некоммерческие организации. Интегрируя технологию в свои рабочие процессы, организации получают возможность выявлять и предотвращать распространение дипфейков и дезинформации.

Несмотря на потенциальную возможность использования мошенниками, технология дипфейк имеет законное применение. Одним из первых вариантов такого применения было создание аватаров для представления людей в цифровой среде. Демир ссылается на конкретный вариант использования под названием «MyFace, MyChoice» («Мое лицо, мой выбор»), который использует дипфейк для повышения уровня конфиденциальности на онлайн-платформах.

Проще говоря, люди могут контролировать свою внешность на онлайн-фотографиях, заменяя свое лицо «количественно непохожим дипфейком». Эти элементы управления обеспечивают повышенную конфиденциальность, так как противодействуют автоматическим алгоритмам распознавания лиц.

Большое значение имеют этические аспекты разработки и внедрения технологий искусственного интеллекта. Команда Intel Trusted Media сотрудничает с антропологами, социологами и исследователями пользовательского мнения для оценки технологии и ее дальнейшего совершенствования. В компании также есть Совет по ответственному ИИ (Responsible AI Council), который рассматривает системы ИИ на предмет соблюдения этических принципов и социальной ответственности, включая потенциальные предвзятости (AI bias), ограничения и возможные варианты незаконного использования. Такой междисциплинарный подход помогает более эффективно контролировать, чтобы технологии искусственного интеллекта служили на пользу людям, а не причиняли вред.

«У нас есть юристы, у нас есть социологи, у нас есть психологи, и все они собираются вместе, чтобы точно определить ограничения, выяснить, есть ли предвзятость — алгоритмическая предвзятость, системная предвзятость, предвзятость данных, любой тип предвзятости», — говорит Димер. Команда проверяет код с целью выявить «любые возможные варианты использования технологии, которые могут нанести вред людям».

Так как дипфейки становятся все более распространенными и изощренными, разработка и внедрение технологий их обнаружения для борьбы с дезинформацией и другими негативными последствиями приобретает все большее значение. Технология обнаружения дипфейков в режиме реального времени от Intel Labs предлагает масштабируемое и эффективное решение этой растущей проблемы.