03.09.2020 | Новая система от Microsoft поможет в борьбе с дипфейками |
Компания Microsoft рассказала о своей новой технологии, разработанной для борьбы с дипфейками, которые могут использоваться для распространения дезинформации. Инструмент под названием Microsoft Video Authenticator использует специальный алгоритм для определения подлинности какого-либо изображения или видеоролика. Технология была разработана командой Microsoft Research в сотрудничестве с Microsoft Responsible AI и Комитетом Microsoft по ИИ, этике и последствиям в разработке и исследованиях (Microsoft AI, Ethics and Effects in Engineering and Research, AETHER). Microsoft Video Authenticator способна осуществлять анализ фото- и видеоконтента, обработанного с помощью ИИ-алгоритмов. Дипфейки представляют собой изображения или видео, на которых после обработки демонстрируется то, чего не было на самом деле. Современные технологии позволяют создавать дипфейки, практически неотличимые от реальных видео. Подобные подделки могут использоваться злоумышленниками для распространения дезинформации, введения людей в заблуждение и манипуляций. Система может выявлять границу смешения дипфейка с тонкими пикселями выцветания или серого цвета, которые трудно заметить невооруженным взглядом. В ходе процесса обработки видео система также способна оценивать подлинность каждого отдельного кадра в режиме реального времени. Данная инициатива по борьбе с дезинформацией является частью программы Microsoft Defending Democracy Program, которая также включает такие технологии, как ElectionGuard для защиты голосования, а также AccountGuard для защиты политических кампаний. |
Проверить безопасность сайта