[image]

Как делаются или могут делаться фейки

о возможностях монтажа и доверии к видеороликам
 
1 2 3 4
+
-
edit
 
кщееш>> И какая-то лживая сволочь, взяла ролик Собра Гу и показала его как свой, надергав оттуда кусков .
VAS63> Не знаю, кто такая Собра Гу, :D но это, положим, с этим фильмом детские шалости. Так, общая нечистоплотность.


Проблема только в том что такая хня повсеместно. Сплошное очковтирательство. Мне конкретно надоело.


VAS63> А вот когда подстава идёт на уровне министра или президента, то это уже подрыв престижа страны и тяжкий должностной проступок. Тут уже не лишне и компетентным органам покопаться, по дурости ли это сделано или специальная диверсия по заказу "партнеров".

Я ставлю и на то и на то.
   53.0.2785.14653.0.2785.146
Это сообщение редактировалось 28.02.2018 в 23:32
+
-
edit
 

Balancer

администратор
★★★★★
Для связки тем:

Народное творчество [korneyy#27.01.15 15:25]

Хороший стеб Неопровержимые доказательства вторжения российских войск в Украину. // Украина, Крым, Новороссия
 
   55
LT Bredonosec #05.07.2020 16:00
+
-
edit
 

Первые дипфейки разрешением в мегапиксель (1024 на 1024), идем по пути к большому экрану.

Disney’s deepfakes are getting closer to a big-screen debut

С помощью нейсросетей уже не раз меняли местами лица известных личностей. Но если ранее эту технологию использовали в основном энтузиасты в развлекательных целях, то теперь ею заинтересовались крупные корпорации. Программисты Disney разработали собственную нейросеть для подмены лиц, которая в перспективе может использоваться при съёмке фильмов. Первые результаты весьма впечатляющие.

Технологии, применяемые в «народных» нейросетях DeepFake, фокусируются на плавной передаче лица, а не на качестве и детализации картинки. В связи с этим приложение с открытым кодом DeepFakeLab способно генерировать изображения с разрешением не более 256х256 пикселей. Созданная Disney программа уже сейчас впечатляет куда большим разрешением в 1024х1024 пикселя.

High Resolution Neural Face Swapping for Visual Effects
We propose an algorithm for fully automatic neural face swapping in images and videos. To the best of our knowledge, this is the first method capable of rendering photo-realistic and temporally coherent results at megapixel resolution. To this end, we introduce a progressively trained multi-way comb network and a light- and contrast-preserving blending method.

По словам представителей компании, только заменой внешности дело не ограничивается. Созданная программа способна имитировать мимику другого человека при наложении на то или иное видео. Между тем остаётся ряд нерешённых проблем. Так, более или менее сносно нейросеть справляется с хорошо освещёнными лицами людей, смотрящих прямо в камеру. Если же на лицо падает тень, качество результата падает. Также уточняется, что на обработку пока уходит слишком много времени.

Предполагается, что в перспективе подобные технологии будут активно использоваться в киноиндустрии. Например, это позволяет «наклеить» лицо актёра на дублёра или каскадёра или вовсе использовать внешность уже умершего человека.


Или создавать видео, где, к примеру, "нехороший лидер непослушного китая (белоруси, ирана, россии, сирии, или кто там будет актуален) творит какое-то непотребство"
В пору бури в стакане коммандо соло уже распространяло фотки с зажабленным саддамом в содомии, но тогда это не взлетело. А сейчас - очень даже вероятно, что использоваться будет более креативно.
   75.075.0
LT Bredonosec #05.07.2020 16:11
+
-
edit
 
о! Вот сюда надо было

Дополненная реальность [Bredonosec#05.07.20 15:39]

New system combines smartphone videos to create 4D visualizations Researchers at Carnegie Mellon University have demonstrated that they can combine iPhone videos shot 'in the wild' by separate cameras to create 4D visualizations that allow viewers to watch action from various angles, or even erase people or objects that temporarily block sight lines. //  eurekalert.org   Добавить или удалить объект на видео и посмотреть на происходящее под разными углами не составляет труда, если…// Компьютерный
 

впрочем,пусть и там тоже..
   75.075.0
LT Bredonosec #14.02.2021 15:20
+
-
edit
 
Программу для выявления дипфейков впервые удалось обмануть

В последнее время технологичные гиганты вроде Microsoft и Facebook занимались разработкой ПО, способного с высокой точностью определять поддельные видео, основанные на нейросети Deepfake. Как оказалось, подобные системы легко обмануть, что недавно доказали программисты из США.

Группа учёных из Калифорнийского университета в Сан-Диего представила результаты исследования на конференции по компьютерному зрению WACV 2021. По их словам, достаточно использовать так называемые «состязательные» примеры, представляющие собой изменённые входные данные в каждом отдельном кадре видеопотока. Выяснилось, что подобный метод работает даже после сжатия и постобработки.

Deepfake detectors can be defeated, computer scientists show for the first time
Systems designed to detect deepfakes --videos that manipulate real-life footage via artificial intelligence--can be deceived, computer scientists showed for the first time at the WACV 2021 conference which took place online Jan. 5 to 9, 2021. Researchers showed detectors can be defeated by inserting inputs called adversarial examples into every video frame.

Нейронные сети, умеющие выявлять поддельное видео, концентрируются на элементах, которые современные алгоритмы Deepfake пока не способны качественно обрабатывать. В первую очередь это мигание и некоторые другие сцены. Обнаружилось, что в данном случае злоумышленнику достаточно обладать знаниями об особенностях работы ПО, выявляющего поддельное видео.

Так, если авторы Deepfake имели полный доступ к модели детектора, то вероятность обмана системы доходила до 99%. В то же время, если злоумышленник имел лишь частичный доступ к ПО, то шансы создать видеоряд, проходящий проверку, снижались до 86%. Авторы методики отказались выкладывать её в открытый доступ.

4PDA .:. Всё в порядке, но...

в целях обеспечения безопасности ресурса нам необходимо убедиться, что вы человек. Пожалуйста введите защитный код, расположенный ниже и нажмите кнопку "Submit". Этот текст мало кто будет читать и мы можем написать здесь все, что угодно, например... Вы живете в неведении. Роботы уже вторглись в нашу жизнь и быстро захватывают мир, но мы встали на светлый путь и боремся за выживание человечества. А если серьезно, то... В целях обеспечения безопасности сайта от кибератак нам необходимо убедиться, что вы человек. //  Дальше — 4pda.ru
 



и ждет нас череда фейковых выступлений, которые будут признаны "истинными", потому как "программа не обнаружила подмены" (тм)
   84.084.0
Последние действия над темой
1 2 3 4

в начало страницы | новое
 
Поиск
Настройки
Твиттер сайта
Статистика
Рейтинг@Mail.ru