Понедельник, 04 февраля 2019 11:33

Мир захлестнет волна поддельных видео с политиками, созданных DeepFake

  • Whatsapp: whatsapp +77084442694 +77084442694
Оцените материал
(1 Голосовать)

Технология редактирования видеороликов Deepfake, позволяющая минимальными усилиями подменять одно лицо другим, вызывает все больше беспокойства у политиков. Реалистичные цифровые подделки убедительных изображений людей, делающих или говорящих то, что они никогда не делали, могут быть использованы для шантажа и дезинформации. В худшем варианте — для призывов к войне.

Американский журналист выложил в Twitter видео с гибридом Стива Бушеми и Дженнифер Лоуренс. Скорее всего, он создал его сам, бесплатно используя доступную и на первый взгляд безобидную версию программы DeepFake.

Deepfake — это фальсификация, подделка (fake), а глубокий (deep), потому что корнями растет из термина “deep learning” — глубокое, а скорее, глубинное обучение искусственного интеллекта (ИИ).

В рамках этого процесса наборы алгоритмов, заложенные в ИИ (СМИ называют «нейросетями»), обучаются до такого уровня, когда могут делать логические выводы. И на их основании способны прослеживать существование неких правил и закономерностей, а также повторно воспроизводить комбинации, шаблоны и образы посредством просеивания больших массивов данных.

Google первым обучил нейросети для разработки алгоритмов классификации графических образов, которые затем подключил к своей системе поиска.

Дипфейки появляются в результате особого вида глубинного обучения нейросетей, в рамках которого два алгоритма «натравливаются» друг на друга. Процесс развивается в рамках «генеративно-состязательных сетей».

В такой сети первый алгоритм – генератор, который лепит контент, материал для него он находит в разных многочисленных источниках. Например, генерирует искусственные образы котят, на основании данных из доступных интернет-библиотек.

Второй алгоритм называется «дискриминатором», который должен найти искусственный контент — например, фейковые фото котят.

Опасные «игры»

В июне 2018 года американские ученые объявили о завершении разработки программы для выявления дипфейков, поскольку открывается безграничный простор для фальшивок и дезинформации и грубой лжи, изощренно разбавленной правдой

В странах, где давно ведутся войны, никто не будет разбираться, насколько достоверны подобные материалы.

Представьте, что будет, если в соцсетях кто-то выложит видео, где, к примеру, премьер-министр Израиля отдает команду убивать иранских ученых?

Или иранские лидеры отдают команды убивать лидеров суннитов в Ираке? Или американские солдаты в Афганистане сжигают Коран?

А если бы в процессе событий в Караганде кто-то создал дипфейк, используя фотографии или видео любого карагандинского чиновника, на котором он призывает казахов к погромам ресторанов, принадлежащих, допустим, русским или китайцам?

Подобрать физиономию, не сильно изувеченную интеллектом и болью за Родину, но любящую выкладывать каждый момент своей ничтожной жизни в сеть и раскачать образ казахстанского чиновничества, вынашивающего планы давить на не казахов, сегодня уже не составляет большого труда…

Скромнее надо быть

Подобные сети и алгоритмы могут жить бесконечно долго. И пока работает электричество, они будут непрерывно изобретать способы, чтобы обыграть друг друга. А поскольку заточены они на аудио- и видеоконтент, качество и реалистичность аудио- и видеофейков будет бесконечно долго улучшаться.

Программы уже имеют платные и бесплатные версии, и все они существуют официально. Значит, на черном рынке будут распространяться такие же программы, но со взломанной защитой от неправомерного использования. Следовательно, растет вероятность использования ИИ для производства подрывных материалов –было бы сырье для обработки…

Вывод глобальный. Подобные программы особенно опасны для стран и регионов, где население доведено до состояния, исключающего возможность беспристрастного и объективного анализа информации. Причем в категорию таких стран и регионов можно отнести и развитые, и развивающиеся, и распадающиеся.

Вывод частный. Учитывая рост числа людей, одержимых желанием выкладывать фото- и видеоотчеты из своей повседневной жизни в интернет, такого сырья киберпространство копит в неограниченных террабайтах.

А значит, скромнее надо быть, иначе DeepFake любого доведет до Deep Shit.

АККАЗ ДЕРБИСОВ

Заметили ошибку в тексте? Выделите ее и нажмите Ctrl+Enter
Прочитано 509 раз Последнее изменение Понедельник, 04 февраля 2019 12:00