Будущее фейковых новостей: не верьте всему, что вы читаете, видите или слышите
Опубликованно 13.02.2018 03:20
Технология Будущее фейковых новостей: не верьте всему, что вы читаете, видите или слышите
Нового поколения видео-и аудиоредакторов для создания реалистичной новостей, как и печально известный фейк выступлении Обамы Оливия Солон в Сан-Франциско @oliviasolon Электронной почты Срд 26 июля 2017 06.00 БСТ Последнее изменение в субботу 25 ноября 2017 02.30 МСК Поделиться на Facebook Поделиться на Twitter Поделиться по электронной почте Посмотреть другие варианты обмена Поделиться на LinkedIn Поделиться в pinterest Поделиться на Google+ Поделиться на whatsapp Поделиться на Посланника Рядом Статья 6 мес. Facebook Твиттер Пинтерест Университет Вашингтона Синтезирующий проект Обама взял звук из одной из речей Обамы и использовать его, чтобы оживить свое лицо в совершенно разных видео
В век фотошопа, фильтры и социальных медиа, многие из нас привыкли видеть манипулируют картинки – предметы становятся тоньше и мягче или, в случае Снэпчат, превращаются в щенков.
Однако, появилась новая порода видео-и аудиоредакторов, стало возможным благодаря достижениям в области искусственного интеллекта и компьютерной графики, что позволит для создания реалистичной кадры из публичных фигур, изображенных сказать, ну, что-нибудь. Трамп, объявляя его склонность для занятий водными видами спорта. Хиллари Клинтон с описанием похищенных детей, которых она держит в своем винном погребе. Том Круз, наконец, признал, что мы подозревали с самого начала ..., что он брони.
Это будущее фейковых новостей. Мы уже давно сказали не верить всему, что мы читаем, но скоро нам придется вопрос все, что мы видим и слышим.
Сейчас существует несколько научных групп, работающих на сбор и обобщения различных визуальных и звуковых элементов человеческого поведения.
Программного обеспечения, разработанного в Стэнфордском университете, умеет манипулировать видеозапись общественных деятелей, чтобы привести второго человека, чтобы положить слова в рот – в режиме реального времени. Face2Face захватывает выражения лица второго человека, как они говорят в камеру, а потом морф эти движения непосредственно на лицо человека, которого в оригинальном видео. Исследовательская группа продемонстрировала свои технологии кукловодческом видео Джордж Буш, Владимир Путин и Дональд Трамп. Facebook Твиттер Пинтерест Face2Face позволяет кукловод знаменитостей и политиков, буквально поставив слова в их рты.
На свой собственный, Face2Face-это веселая игрушка для создания мемов и развлекательных вечерних ток-шоу. Однако, с добавлением синтезированный голос, он становится более убедительным – не только цифровой кукол выглядят как политик, но он также может звучать как политик.
Команда исследователей из Университета Алабамы в Бирмингеме работает на голос олицетворения. С 3-5 минут аудио голос жертвы – прямое или видео с YouTube или радио-шоу – злоумышленник может создать синтезированный голос, который может обмануть человека и голосовых биометрических систем безопасности, используемая некоторыми банками и смартфонов. Злоумышленник тогда можете говорить в микрофон и программа будет преобразовывать его так, что слова звучат так, будто они говорят жертвы – будь то по телефону или на радио-шоу.
Канадский стартап Лирохвост разработала аналогичные возможности, которые он говорит, могут быть использованы, чтобы превратить Текст В на месте аудиокниги “читать” знаменитые голоса или персонажей компьютерных игр.
Хотя их намерения могут быть благие намерения, голос-морфинг технология может быть в сочетании с лицом-морфинг технология, чтобы создать убедительные поддельные заявления общественных деятелей.
Вы только должны посмотреть на университете Вашингтона синтеза Обама проекта, где они взяли аудио от одного из Обамы речи и использовал его, чтобы оживить свое лицо в совершенно разных видео с невероятной точностью (благодаря обучение рекуррентной нейронной сети с часов отснятого материала), чтобы получить представление о том, как коварны эти фальсификации могут быть.
За фейковых новостей есть много других последствий, говорит Nitesh Саксена, доцент и директор по исследованиям Университета штата Алабама в Бирмингеме кафедры информатики. “Вы могли бы оставить подделка голосовых сообщений, выдавая себя за кого-то мама. Или оболгать кого-то и после образцы аудио онлайн”.
Эти морфинга технологии еще не совершенны. Мимика в видео может показаться немного искаженным и неестественным, и голоса могут звучать немного роботов.
Но по прошествии времени, они смогут точно воссоздать звук или внешний вид человека до точки, где это может быть очень трудно для людей, чтобы обнаружить мошенничество.
Учитывая подрыв доверия к СМИ и стремительного распространения слухов через социальные медиа, это становится еще более важным для новостных организаций, чтобы изучить контент, который выглядит и звучит как настоящий.
Явные признаки будут где видео или аудио был создан, кто еще был на мероприятии и будут ли погодные условия матч в записи в тот день.
Люди должны также быть глядя на освещение и тени в видео, то ли все элементы, входящие в рамки нужный размер, и будет ли аудио синхронизируется отлично, - сказала Мэнди Дженкинс, от социальных новостей компании Storyful, которая специализируется на проверке новостей.
Лечил содержание не может пройти проверку строгой редакции, а если отвечал, как зернистое видео в социальных сетях, это может быстро распространяться и вызывать общественные отношения, политическая или дипломатическая катастрофа. Представьте Трамп объявил войну Северной Корее, например.
“Если кто-то выглядит как козырь и говорит, как козырь, они будут думать, что это козырь”, - сказал Саксена.
“Мы уже видим, это даже не подделка аудио или видео, чтобы заставить людей поверить в то, что неправда”, - добавил Дженкинс. “Это имеет потенциал, чтобы сделать его хуже”.
14
Категория: Технологии