Социальные сети
Последние темы
» Homo sovieticus
автор WentFox Вчера в 22:47

» Свидетели "СВО"
автор WentFox Вчера в 22:22

» ЛДНР. Жертва не сделанного оборта
автор DoranPn Вчера в 17:14

» Нейросеть OpenCRISPR изменила ДНК человека
автор DoranPn Вчера в 00:51

» Опасность роботов и ИИ
автор DoranPn Вчера в 00:24

» Список профессий, где роботы подменят людей
автор DoranPn Вчера в 00:22

» Telegram. Доклад IDSC NEWWR
автор DoranPn Вчера в 00:17

» Че не на фронте пи@ор?
автор DoranPn Ср Апр 24 2024, 23:54

» Заочники
автор WentFox Ср Апр 24 2024, 23:35

» Лики тлена. Оппозиция в РФ
автор null Ср Апр 24 2024, 23:19

» Кража доходов от природных ресурсов России. Россия, Германия
автор #$%& Ср Апр 24 2024, 19:50

» Глубинный народ
автор DoranPn Ср Апр 24 2024, 12:54

» Плеяда идиотов!
автор DoranPn Ср Апр 24 2024, 12:51

» Йеменские хуситы
автор DoranPn Ср Апр 24 2024, 12:46

» Добрые христиане
автор DoranPn Ср Апр 24 2024, 12:42


Никому не верь в интернете. Даже своим глазам! DeepFake. США

Участников: 5

Перейти вниз

Никому не верь в интернете. Даже своим глазам! DeepFake. США Empty Никому не верь в интернете. Даже своим глазам! DeepFake. США

Сообщение автор Admin Пн Фев 03 2020, 20:03

[Вы должны быть зарегистрированы и подключены, чтобы видеть это изображение]

Не верь глазам своим

Фильм в сети наводит на размышления... Бывший президент Барак Обама говорит на камеру и вульгарно оспаривает нынешнего президента Трампа. Если бы не было известно, что это видео работа Джордана Пила и BuzzFeed, созданная для того, чтобы предупредить людей о появлении техники глубоких подделок, то многих можно было лекго ввести в заблуждение.

С другой стороны, мы были очарованы цифровой имитацией молодой Кэрри Фишер принцессы Леи, появляющейся в конце «Rogue One», одной из частей саги Звездных войн. Случай размещения лица Николаса Кейджа во фрагментах фильмов, в которых он не появлялся, в том числе в «Налетчиках потерянного ковчега», менее известен.

В последнем случае речь шла о невинных интернет-розыгрышах. Несмотря на положительные или нейтральные отзывы, метод «глубоких подделок» вызывает серьезные опасения, даже достигая ушей служб, которые заботятся о безопасности целых стран и наций. Или хотя бы о безопасности самых богатых людей планеты.

Опасное доверие к видео

Специализированная группа в Министерстве обороны США, связанная с правительственным оборонным агентством DARPA, инвестирует десятки миллионов долларов в разработку методов, конкурентоспособных против мошенников, тех, которые автоматически обнаруживают обработанные фильмы и фотографии, которые могут даже угрожать национальной безопасности. На данный момент на эту программу под название Media Forensics было израсходовано около 68 миллионов долларов США.

Мэтт Турек, менеджер проекта Media Forensics недавно заявил канадскому телеканалу CBC, что «теперь легче генерировать манипуляции, чем обнаруживать их». Он добавил, что «современные инструменты дают новые возможности для действий противникам правительства США», как «группам с ограниченными ресурсами», так и «более крупным и лучше организованным формированиям и представителям других стран». Он также отметил, что «некоторые страны хорошо известны манипулированием СМИ».

Хана Фарид, эксперт в области цифровой криминалистики, был профессором компьютерных наук в Дартмутском колледже в Нью-Гемпшире. Он говорил о серьезных опасениях по поводу того, как технология, которая манипулирует видео, может быть использована преступно. Мой кошмар когда появляется видео Трампа о том, что он только что приказал ударить ядерными ракетами по Северной Корее, а затем, прежде чем кто-либо поймет, что он имеет дело с поддельными материалами со взломанного или подделанного аккаунта, начинается глобальный ядерный конфликт, сказал он.

В офисах DARPA в Арлингтоне Мэтт Турек продемонстрировал несколько примеров такого видео, которое может быть признано подделкой благодаря технологии обнаружения, используемой агентством. На одном из них вы видите двух людей, сидящих рядом, которые никогда не встречались. Технология уловила несоответствия в освещении.

Другим примером было видео с мониторинга, который анализировал трафик, автоматически обнаруживая недостающую часть фильма. В какой-то момент рамка становится красной, сигнализируя об удалении серии кадров, что вызывает неестественность в записи движения, пояснил Турк.

Программа Media Forensics также призвана помочь военным США. В настоящее время аналитики должны проверять фильмы и изображения, что является «ручным» процессом. Media Forensics будет автоматизировать этот процесс, предоставляя специалистам инструменты для облегчения их работы. Как общество, мы очень доверяем изображению или видео, отметил Турек в CBC. Если мы что-то видим, мы верим, что это произошло. Поэтому переделанные визуальные материалы могут иметь большую разрушительную силу. Независимо от успеха разработки методов обнаружения, которые в DARPA будут длиться почти два года, необходимо четко сказать, что мошенники идут на шаг вперед дальше, чем реакция на их действия.

Конгрессмены Адам Шифф, Стефани Мерфи и Карлос Курбело также написали об этом в письме, направленном в сентябре прошлого года Даниэлу Коутсу, директору разведки США.

«Гиперреалистичная цифровой контрафакт, обычно называемый глубокими подделками основан на изощренных методах машинного обучения для создания убедительных образов людей, которые, кажется, делают или говорят то, что они никогда не говорили и не делали, полностью без их согласия или ведома», указано в нем. Размывая грань между фактом и вымыслом, глубокие подделки могут подорвать доверие общественности к изображениям и фильмам как объективным изображениям реальности». И тогда людям придется выйти на улицу, придется начать общаться с реальными людьми во всем мире, и тогда они узнают, что практически все, что нам показывают в традиционных зависимых СМИ (государственных или принадлежащих корпорациям) - ЧУДОВИЩНАЯ ЛОЖЬ!

Шифф, Мерфи и Курбело попросили главу разведки подготовить отчет, который он представит Конгрессу, какие шаги он запланировал для борьбы с распространением фальшивых клипов.

«Поддельные видео, изображения или звук могут быть использованы для шантажа или других не добрых целей», написали они. «Они могут также использоваться иностранными или местными организациями для распространения неверной информации».

Есть и поддельные аккаунты в социальных сетях

В киберпространстве методы глубокой подделки являются своего рода продолжением проблемы существования ложных профилей общественных деятелей в социальных сетях, известных годами. Есть миллионы оставленных аккаунтов известных актеров, музыкантов и политиков в Facebook, Instagram и Twitter. В последнее время проблема нарастала, потому что сети все чаще распространяют дезинформацию или используются для вымогательства денег и причинения вреда людям. Более того, мошенники продают специальные инструкции по созданию таких аккаунтов, где брать аудиторию и как получать от этих людей финансовую выгоду обманом.

В прошлом году Опра Уинфри предупредила своих поклонников в Twitter, что кто-то пытается обмануть их, используя ее имя и аватар для мошенничества. Харриет Сейтлер, директор по маркетингу Oprah Winfrey Network, добавила, что речь идет о мошенниках, которые, создавая фальшивые звездные аккаунты, пытаются продать билеты на вечеринки или требовать пожертвования.

Чтобы оценить масштаб проблемы, известный американский медиа ресурс заказал анализ числа профилей, олицетворяющих социальные медиа, для первой десятки лидеров по подписчикам в Instagram.

Опрос Social Impostor обнаружил почти 9 000 учетных записей в Facebook, Instagram и Twitter, притворяющиеся, что они дружат с известными лицами или общаются с ними. Больше всего беспокоил бразильский футболист Неймар - 1676 человек. Поп-звезда Селена Гомес была второй, с результатом 1389 человек. Бейонсе претендовала на 714 читеров, а Тейлор Свифт на 233, наименьшее количество среди проверенной группы.

В Twitter, Instagram и Facebook также много грешков, потому что эти платформы довольно мягко относятся к своим собственным правилам, запрещающим двойники. Представители Facebook и его подразделения Instagram, разумеется, заявили, что борются с фальшивыми аккаунтами.

Недавно они добавили, например, программное обеспечение, которое автоматически обнаруживает мошенников, что позволило им удалить более миллиона учетных записей, появившихся с марта 2018 года. Тем временем, однако, они признали увеличение подобных профилей. по крайней мере потенциально, на их портале (включая дубликаты учетных записей, поэтому необязательно для злонамеренных целей) примерно до 80 миллионов или около 4% от общего числа профилей.

Как определить глубокие подделки?

1. Лица
Во многих фальшивых аккаунтах лица выглядят странно. Переходы между лицом и шеей не всегда совпадают, или волосы не соответствуют оригиналу.

2. Отношение лица к телу
Большинство глубоких подделок это, в первую очередь, замена лица. Изменения в поведении остальной части тела гораздо сложнее создать. Именно на этом они и прокалываются..

3. Длина клипа
Хотя доступный метод прост в использовании, процессы машинного обучения для получения глубоких подделок все еще трудоемки. Вот почему большинство фальшивых видео в Интернете длятся всего несколько секунд.
Если запись очень короткая, мы можем рассматривать ее как предпосылку, что мы имеем дело с подделкой.

4. Источник записи. Исходник
Анализ исходника и его наличие/отсутствие может стать первым шагом к дальнейшим критической оценке наблюдаемого эффекта.

5. Звук
Программное обеспечение Deepface позволяет манипулировать только изображением. Поэтому, если звук отсутствует или не соответствует изображению (например, отсутствует синхронизация губ), мы можем подозревать, что это подделка.

6. Медленное воспроизведение
Манипулирование изображением и несовместимость основного изображения с фоном могут быть более отчетливо видны при воспроизведении видео в замедленном режиме.

7. Размытые контуры рта
Программное обеспечение для глубокой имитации теперь может перемещать лицо достаточно эффективно, но у него все еще есть проблемы с отображением таких деталей, как зубы, язык и рот.

8. Мигание
Здоровые взрослые мигают каждые 2–8 секунд, один миг продолжается от 1/10 до 1/4 секунды. Программное обеспечение deepfakes не в состоянии воспроизвести естественное мигание.

Технология от Google

Deepfake это - искусственный интеллект, включая технику машинного обучения, называемую «порождающая противоречивая сеть» (GAN), может использоваться для анализа и синтеза ложных изображений, а также для их создания.

В 2017 году в интернете появился ложные порнографические фильмы с лицами знаменитостей. Они были распространены специально на сайте Reddit. Niepornograficzne deepfakes может легко найти на популярных видео сайтах, таких как YouTube или Vimeo. Например, лицо президента Аргентины Маурика Макри заменено на них лицом Адольфа Гитлера, а лицо Ангелы Меркель изображением Трампа.

Чтобы получить подробную информацию, программе нужно много визуальных материалов о человеке, который должен стать «героем». Программное обеспечение использует платформу AI TensorFlow от Google.

Некоторые веб-сайты, такие как Twitter, объявили, что будут удалять фальшивый контент и блокировать его издателей. Ранее платформа чат "Раздор" заблокировал канал видео-чат с поддельными порнозвездами. Порнхаб также планирует следовать по этому пути, но, видимо, он еще не выполнил свое обещание.

Но техника не стоит на месте. Система также может преобразовывать черно-белые фильмы в цветные или манипулировать изображениями, чтобы, например, цветок гибискуса превращался в нарцисс. Поскольку этот новый инструмент может автоматически преобразовывать большие активы фильма, он также будет особенно полезен для этически нейтральных целей, например, для кинематографистов или дизайнеров игр, желающих создавать детализированные цифровые среды. Это инструмент для художников. Он предоставляет им исходную модель, которую затем можно улучшить, сказал в специальном заявлении аспирант Ааюш Бансал из CMU Института робототехники.

Тем не менее, команда, к которой принадлежит ученый CMU, полностью осознает, что созданная технология также может быть использована в создании глубоких подделок. Так Бансал и его коллеги представили один из своих методов на Европейской конференции по компьютерному зрению в Мюнхене.

Раскрывая детали своей концепции другим программистам и исследователям, они надеются облегчить выявление глубоких подделок, совершаемых со злонамеренными целями, и тем самым помочь в борьбе с ними.

В том же университете Карнеги-Меллона, проф. Алан Блэк специализируется на синтезе речи. Недавно он показал, как это работает на KDKA-TV. После того, как ведущий прочитал несколько строк перед камерой в разное время суток, у Блэка был образец голоса, который он ввел в синтезатор. Вскоре он произнес голосом ведущего слова, которые он никогда не говорил. Блэк называет это «Фотошоп для голоса».

Недавно на видео, опубликованном на YouTube британской компанией Synthesia (не путайте с программой синтезатором, которую показывают в поиске, ссылку специально оставили на ресурс из темы, да и официальный ролик с ютуба, зашитый ниже, имеет ту же ссылку. Вы еще не забыли тему доклада? Некому не верь! Все проверяйте, вот и сверяйтесь с разными источниками), была продемонстрирована еще одна система, имитирующая голос, и на многих языках.
- Я хотела бы показать, как благодаря технологии Synthesia я могу свободно говорить на 7100 языках, - заявляет улыбающаяся женщина. Затем мы видим, что она произносит одно и то же предложение на французском, китайском и португальском языках.


"Мы близки к миру, в котором тот факт, что мы увидели что-то на экране, не будет означать, что мы наблюдали реальное событие", сказал эксперт по данным Джон Гибсон на недавней конференции Huddle, организованной Mindshare. Он добавил, что эти технологии будут развиваться быстрее, чем кто-либо думает. С другой стороны, deepfakes могут работать в пользу проверенных информационных брендов, и люди станут охотнее им доверять. Они будут просто верить проверенному каналу, а не только самому сообщению. Тоже самое сейчас происходит с официальными "доверенными" СМИ, которые просто паразитируют на доверии не очень умных людей и просто показывают мир таким, как выгодно представить их хозяевам, а не какой он на самом деле. Так что еще раз. НИКОМУ НЕ ДОВЕРЯЙТЕ! Лучшее, что можно сейчас сделать, так это наводнить интернет поддельными видео с хэштегами ссылающимися на мировые СМИ и со словом обман, чтобы люди начали задумываться и проверять ЛЮБУЮ информацию. Проблема в том, а кто будет поставлять действительно проверенную инфу? Ведь зачастую, мы сами выбираем сторону и так однобоко и освещаем, хотя это не значит, что мы правы и справедливы по взглядам другого человека. В любом случае, интернет как оружие становится все лучше, технологичнее и понятнее для использования любым человеком. Это открывает широкие перспективы для отстаивания своих интересов без государственного финансирования и официальной армии.

По словам Гибсона, в ближайшие несколько лет использование средств для обнаружения поддельных видео может стать ежедневной частью профессиональной жизни журналиста. Хотя, кто как не сами "журналисты" зачастую и фабрикуют такие видеозаписи? Верьте только тем журналистам, которым вы и ваше общество платите деньги, ставите задачи и которые понимают на кого они работают. Остальные не являются источником проверенной информации и мы сомневаемся, что они могут иметь статус журналиста, пока они не докажут обратное.

Другие статьи по теме на сайте NEWWR:

1. DeepFake на этот раз с Джоном Траволтой, который сыграл Форреста Гампа
2. Алгоритм Диснея создает ужасно реалистичный DeepFake
3. DeepFake с Анджеем Дудой или Эмсе рассказывает о видео манипуляциях
4. Художник DeepFake. Искусственный интеллект оживляет картины известных художников
5. Ложная катастрофа миссии Apollo 11. DeepFake
6. Хотите быть хотите быть героем DeepFake и пищей для ИИ? Fawkes (Фоукс) защитит тебя
7. Microsoft создала отличный инструмент для обнаружения опасных DeepFakes
8. Детекторы DeepFake потерпели поражение. Угроза снова возросл
9. Нет, это не Том Круз, это DeepFake, но настолько реалистично, что пугает


Последний раз редактировалось: Admin (Пт Мар 05 2021, 13:11), всего редактировалось 3 раз(а)
Admin
Admin
Admin
Admin

Сообщения : 2820
Unit token : 4286
Reputation : 642
Дата регистрации : 2019-08-01

https://newwr.actieforum.com

null поставил(а) лайк

Вернуться к началу Перейти вниз

Никому не верь в интернете. Даже своим глазам! DeepFake. США Empty Re: Никому не верь в интернете. Даже своим глазам! DeepFake. США

Сообщение автор Argisht44 Вт Фев 04 2020, 00:33

О, круто, надо научиться такие видосики создавать. Можно приятелей разыгрывать.
Argisht44
Argisht44
Безумец
Безумец

Сообщения : 444
Unit token : 490
Reputation : 30
Дата регистрации : 2020-01-27
Возраст : 31
Откуда : Пермский край

Вернуться к началу Перейти вниз

Никому не верь в интернете. Даже своим глазам! DeepFake. США Empty Re: Никому не верь в интернете. Даже своим глазам! DeepFake. США

Сообщение автор #$%& Пт Апр 17 2020, 00:24

Если не забуду, завтра гайд скину и ресурс, где можно фотки на фейк проверять. Точнее, сегодня)))
#$%&
#$%&
Палач или Спаситель?
Палач или Спаситель?

Сообщения : 795
Unit token : 894
Reputation : 45
Дата регистрации : 2019-10-21
Возраст : 29
Откуда : Екатеринбург

Вернуться к началу Перейти вниз

Никому не верь в интернете. Даже своим глазам! DeepFake. США Empty Re: Никому не верь в интернете. Даже своим глазам! DeepFake. США

Сообщение автор Argisht44 Пт Апр 17 2020, 22:17

#$%& пишет:Если не забуду, завтра гайд скину и ресурс, где можно фотки на фейк проверять. Точнее, сегодня)))
Ааааа, ну спасибо! О.уенный гайд, всем форумом зачитываемся, я еще на работе показал, все в восторге! :@#$1:
Или ты ночью призентуешь?
Argisht44
Argisht44
Безумец
Безумец

Сообщения : 444
Unit token : 490
Reputation : 30
Дата регистрации : 2020-01-27
Возраст : 31
Откуда : Пермский край

Вернуться к началу Перейти вниз

Никому не верь в интернете. Даже своим глазам! DeepFake. США Empty Re: Никому не верь в интернете. Даже своим глазам! DeepFake. США

Сообщение автор Argisht44 Ср Май 06 2020, 22:12

#$%& пишет:Если не забуду, завтра гайд скину и ресурс, где можно фотки на фейк проверять. Точнее, сегодня)))
Ну как? Все пишешь?)))))))))))))))
Argisht44
Argisht44
Безумец
Безумец

Сообщения : 444
Unit token : 490
Reputation : 30
Дата регистрации : 2020-01-27
Возраст : 31
Откуда : Пермский край

Вернуться к началу Перейти вниз

Никому не верь в интернете. Даже своим глазам! DeepFake. США Empty Re: Никому не верь в интернете. Даже своим глазам! DeepFake. США

Сообщение автор Night Чт Июн 18 2020, 21:33

DeepFake на этот раз с Джоном Траволтой, который сыграл Форреста Гампа 

«Жизнь похожа на коробку конфет - никогда не знаешь, что с тобой случится», - сказал Форрест. Как всегда, он прав. На этот раз технология DeepFake также неожиданно изменила его мир кино с помощью Джона Траволты.

Все указывает на то, что мы являемся свидетелями появления новой, странной моды на создание все более реалистичных фильмов с манипуляциями и использованием технологии DeepFake. Иногда подмена лица одного актера другим может быть интересной, а в других случаях это очень плохая идея.


Когда лицо Тома Хэнкса меняется на Джона Траволту в фильме «Форрест Гамп», у многих возникают смешанные чувства. И что ты думаешь об этом? DeepFake - очень интересная технология, потому что она позволяет вам увидеть альтернативную реальность своими глазами.

Замена лица Тома Хэнкса на Джона Траволту в «Форрест Гамп» не случайна. Первоначально Траволта должен был играть роль Форреста Гампа, но затем у актера было так много предложений, что он в итоге отказался, и Хэнкс занял его место. И очень хорошо, потому что он отлично сыграл свою роль.

DeepFake уже способен радовать и в то же время пугать, а что будет через несколько лет, когда изменения в изображениях будут не только широко использоваться, но и их качество повысится. Тогда нам будет трудно отличить художественную литературу от реальности.
Night
Night
Творец
Творец

Сообщения : 1613
Unit token : 2838
Reputation : 420
Дата регистрации : 2019-08-15
Возраст : 25
Откуда : Украина

https://newwr.actieforum.com/u3

Вернуться к началу Перейти вниз

Никому не верь в интернете. Даже своим глазам! DeepFake. США Empty Re: Никому не верь в интернете. Даже своим глазам! DeepFake. США

Сообщение автор Night Вт Июл 14 2020, 19:20

Алгоритм Диснея создает ужасно реалистичный DeepFake

Технология DeepFake становится все более впечатляющей и в то же время ужасающей своими возможностями. 


Студия Дисней разместила в глобальной сети видео, демонстрирующее ее последний алгоритм DeepFake. С его помощью в будущем будут создаваться новые фильмы без участия актеров. Дисней собирается пойти еще дальше и создать вымышленных персонажей, которые будут выглядеть настолько реалистично, что мы не будем отличать их от реальных актеров. 


Это звучит фантастически, можно будет гораздо быстрее создавать еще более захватывающие фильмы с небольшим бюджетом, но в то же время эту технологию также можно использовать для управления реальностью. И здесь есть реальные проблемы.

Специалисты из Disney и ETH Zurich использовали прогрессивное обучение компьютерным алгоритмам, технологии стабилизации изображения и передовым световым эффектам, чтобы в конечном итоге достичь чрезвычайно реалистичных сцен DeepFake. Должен признать, что конечный результат впечатляет, хотя всегда есть что то, что можно улучшить. В любом случае, они идут в правильном направлении.

На данный момент у Disney есть алгоритмы, которые генерируют реалистичные изображения в HD. Недостаточно отобразить их на большом экране, но это скоро изменится. Недавно мы увидели мощь ИИ, который может генерировать реалистичные 3D-аватары в качестве 4K, основываясь только на одной фотографии. Но это еще не все, другие ИИ могут создавать человеческие лица из полностью пиксельных изображений. Только представьте, что будет завтра?
Night
Night
Творец
Творец

Сообщения : 1613
Unit token : 2838
Reputation : 420
Дата регистрации : 2019-08-15
Возраст : 25
Откуда : Украина

https://newwr.actieforum.com/u3

Вернуться к началу Перейти вниз

Никому не верь в интернете. Даже своим глазам! DeepFake. США Empty Re: Никому не верь в интернете. Даже своим глазам! DeepFake. США

Сообщение автор Night Ср Июл 15 2020, 09:17

DeepFake с Анджеем Дудой или Эмсе рассказывает о видео манипуляциях 

Популярный YouTuber Emce опубликовал еще одно видео, посвященное знакомству с новейшими технологиями, с которыми мы сталкиваемся каждый день, исследуя глубины глобальной сети. На этот раз мы говорим о DeepFake.

Это один из самых быстро развивающихся методов манипулирования изображениями нашего времени. Эксперты уверены, что DeepFake до неузнаваемости изменит рынок не только для онлайн-СМИ, но и для Голливуда. С помощью этой технологии вы можете создавать все более реалистичные фильмы, которые манипулируют изображениями разных людей.


В будущем DeepFake начнет заменять телеведущих и актеров. Каждый из нас сможет выбрать аватар, который предоставит нам самую свежую информацию или появится в фильме, который мы смотрим. Можете ли вы представить себе возможность выбрать актерский состав фильма, который вы смотрите? Это уже происходит.

Emce показывает удивительные возможности DeepFake на примере Анджея Дуда. Польский президент принял участие в Hot16Challenge2, и поэтому записал фильм, который был опубликован на канале «В президентском дворце». DeepFake может не впечатлить качеством, но по разным причинам он просто не был усовершенствован. Смотрите, что получилось.
Night
Night
Творец
Творец

Сообщения : 1613
Unit token : 2838
Reputation : 420
Дата регистрации : 2019-08-15
Возраст : 25
Откуда : Украина

https://newwr.actieforum.com/u3

Вернуться к началу Перейти вниз

Никому не верь в интернете. Даже своим глазам! DeepFake. США Empty Re: Никому не верь в интернете. Даже своим глазам! DeepFake. США

Сообщение автор Night Ср Июл 15 2020, 11:34

Художник DeepFake. Искусственный интеллект оживляет картины известных художников

Вероятно, большинство из вас не раз задавались вопросом, как на самом деле выглядели люди, увековеченные на картинах известных художников. Теперь мы можем видеть их даже в движении с помощью алгоритмов искусственного интеллекта.

Денис Ширяев решил воплотить изображения в жизнь с помощью нескольких новейших технологий DeepFake. Среди них были:

🔗 First Order Model – https://github.com/tg-bomze/Face-Image-Motion-Model (Я использовал его в автономном режиме, но для вас Google Colab будет более полезным);
🔗 StyleGAN 2 – https://github.com/tg-bomze/StyleGAN2-Face-Modificator (Я использовал его в автономном режиме, но для вас Google Colab будет более полезным);
🔗 DAIN – https://github.com/baowenbo/DAIN (Вы можете использовать Google для DAIN APP, если вы хотите работать с ним как с приложением, я не пробовал, но люди довольны)
🔗 ESRGAN – https://github.com/xinntao/ESRGAN
🔗 Additional faces generation tool – http://artbreeder.com/

Эффект от работы с ними очень удивителен. У вас, вероятно, будут смешанные чувства, но ожившие лица разжигают воображение. Ведь когда рисовали великие художники, мир был не черно-белым, а музы были живыми людьми, поэтому они двигались.

Видео с канала Denis Shiryaev

Ширяев возродил для нас такие работы, как: Мона Лиза, Рождение Венеры, Автопортрет с колючим ожерельем и колибри, Дама с горностаем, Девушка с жемчужиной, Ночной Дозор или Американская готика. Здесь стоит подчеркнуть, что перед искусственным интеллектом стояла не простая задача. Она должна была воспроизводить лица муз, основываясь на данных, полученных на самой картине, а не на фотографиях.



Специалисты по технологии DeepFake полагают, что с помощью ИИ в будущем мы сможем не только оживить старые фотографии и видео, придав им совершенно новое измерение, но и создать совершенно новые с нуля с людьми из наших семей и друзьями, которых больше нет с нами.
Night
Night
Творец
Творец

Сообщения : 1613
Unit token : 2838
Reputation : 420
Дата регистрации : 2019-08-15
Возраст : 25
Откуда : Украина

https://newwr.actieforum.com/u3

Вернуться к началу Перейти вниз

Никому не верь в интернете. Даже своим глазам! DeepFake. США Empty Re: Никому не верь в интернете. Даже своим глазам! DeepFake. США

Сообщение автор Night Ср Июл 22 2020, 17:20

Видео с канала MIT Open Learning

Ложная катастрофа миссии Apollo 11. DeepFake 


Проект In Event of Moon Disaster, разработанный инженерами MIT Никому не верь в интернете. Даже своим глазам! DeepFake. США 905842045 , показывает всему миру, как можно управлять реальностью и историей, используя новейшие технологии, основанные на искусственном интеллекте.

Эксперты из MIT работали над проектом в течение шести месяцев. Я должен признать, что эффекты потрясающие. Инженерам удалось создать чрезвычайно достоверные кадры, в которых президент США Ричард Никсон объявляет о катастрофе исторической миссии Аполлона-11 на Луну. Эти события произошли в 1969 году. Напоминаем, что именно во время этой миссии первые люди на самом деле оказались на поверхности Луны.

Однако проект «В случае лунной катастрофы» предполагал создание альтернативного хода событий. Для этой цели ученые использовали не только оригинальную запись с Никсоном, но и архивные материалы с тех событий. Позже искусственный интеллект позаботился о создании вымышленного видео. Этот DeepFake - настоящая жемчужина. Он удивляет и в то же время ужасает, насколько продвинуты алгоритмы DeepFake.

Инженеры из Массачусетского технологического института ясно дают понять, что проект призван предупредить, в каком направлении может развиваться эта технология и как невообразимый хаос она может нанести в онлайн-СМИ. Историков больше всего волнует ситуация, в которой фальшивые киноматериалы, касающиеся ключевых исторических или текущих событий, будут публиковаться, например, на YouTube, где они будут манипулировать общественным мнением, что впоследствии приведет к социальным волнениям. Такое ощущение, что сейчас то конечно этом мнением никто не манипулирует. На самом деле они опасаются, что теперь это смогут делать все, а не только правительства. 

Здесь стоит подчеркнуть, что проект In Event of Moon Disaster существует при финансовой поддержке Mozilla Creative Media Awards. Инициатива направлена ​​на создание алгоритмов искусственного интеллекта, которые будут эффективно выявлять и бороться с подделками, пока не стало слишком поздно.
Источник
Night
Night
Творец
Творец

Сообщения : 1613
Unit token : 2838
Reputation : 420
Дата регистрации : 2019-08-15
Возраст : 25
Откуда : Украина

https://newwr.actieforum.com/u3

Вернуться к началу Перейти вниз

Никому не верь в интернете. Даже своим глазам! DeepFake. США Empty Re: Никому не верь в интернете. Даже своим глазам! DeepFake. США

Сообщение автор null Чт Июл 23 2020, 17:04

Не парни, это совсем уже опасно. А сколько людей не знает? представляете какой простор для мошенников? Можно панику на ровном месте создавать. Это ТВ вышку не захватишь незаметно, а интернет каналы гораздо легче. Если телика не будет. то все
null
null
Адепт
Адепт

Сообщения : 183
Unit token : 197
Reputation : 12
Дата регистрации : 2020-02-19

Вернуться к началу Перейти вниз

Никому не верь в интернете. Даже своим глазам! DeepFake. США Empty Microsoft против DeepFakes

Сообщение автор Night Пт Сен 04 2020, 15:33

Видео с канала Jan Mentel

Microsoft Никому не верь в интернете. Даже своим глазам! DeepFake. США 905842045 создала отличный инструмент для обнаружения опасных DeepFakes

Технология изменения лица и манипулирования мимикой каждый день все больше и больше удивляет и ужасает нас своей правдоподобностью. К сожалению, его все чаще используют преступники. Однако у Microsoft уже есть ответ.

DeepFake производит настоящую революцию в мире. Она началась с изменением лица случайных девушек порно звезд, и теперь эта технология популяризируется благодаря интересному видео со звездами кино в главной роли, которые опубликованы на YouTube. Однако государственные органы обеспокоены угрозой, которую создает DeepFake.

Эта технология в конечном итоге может быть использована киберпреступниками для создания невероятно достоверных кадров, компрометирующих политиков или даже самого президента (их разве надо компрометировать? они и сами не плохо с этим справляются). Это чрезвычайно опасная ситуация не только для самого общества, но и для международной безопасности.

Можно быть уверенным, что скоро какой-нибудь реалистичный DeepFake наконец вызовет скандал глобального масштаба, и тогда наступит опасный момент, когда мир фантастики сольется с реальным миром. Microsoft решила отложить этот "прекрасный" момент на время с помощью мощного инструмента под названием Video Authenticator.

Система способна анализировать пленочный материал с большой точностью и определять, обработаны ли записи с помощью технологии DeepFake. Как это сделать? Алгоритмы в реальном времени анализируют каждый кадр фильма и каждый его пиксель. Они внимательно смотрят на края глаз, носа и рта, где чаще всего возникают несоответствия после применения DeepFake.

Гигант из Редмонда может похвастаться тем, что его Video Authenticator в настоящее время лидирует в мире среди таких систем. Алгоритмы характеризуются невероятным уровнем эффективности обнаружения подделок, поскольку они были изучены на основе Face Forensic ++ и протестированы на DeepFake Detection Challenge Dataset, то есть на ведущих моделях для обучения и тестирования алгоритмов DeepFake.

Интересно, что Microsoft намерена передать свою систему властям США. Система Video Authenticator будет использоваться ими для выявления фальсификаций, касающихся президента США, его окружения, а также кандидатов на этот пост. Военное агентство DARPA и многие организации из разных стран мира также участвуют в проекте.

Вот очередной пример частной американской инициативы, которая полезна всему человечеству, и вместе с тем, все это при поддержке правительства США. 
Источник
Night
Night
Творец
Творец

Сообщения : 1613
Unit token : 2838
Reputation : 420
Дата регистрации : 2019-08-15
Возраст : 25
Откуда : Украина

https://newwr.actieforum.com/u3

Вернуться к началу Перейти вниз

Никому не верь в интернете. Даже своим глазам! DeepFake. США Empty Re: Никому не верь в интернете. Даже своим глазам! DeepFake. США

Сообщение автор Night Вт Фев 16 2021, 04:41

Видео с канала JacobsSchoolNews

Детекторы DeepFake потерпели поражение. Угроза снова возросла

Некоторое время назад казалось, что одна из самых больших проблем современного Интернета была решена, благодаря специализированным детекторам, но это не так. DeepFake снова стал угрозой.

Напомним вкратце, что DeepFake - это технология, которая с помощью искусственного интеллекта позволяет чрезвычайно реалистично заменять людей, появляющихся в видеоматериалах, что, с одной стороны, очень увлекательно, а с другой - уже привело к многим нарушениям, таким как использование изображения известных людей в порно или кражи личных данных. В какой-то момент казалось, что мы смогли покончить с этим явлением благодаря специальным детекторам, но, похоже, мы ошибались. Ученые только что доказали, что детекторы DeepFake можно обойти, используя искусственный интеллект, так называемый счетчик образцов для каждой клетки.

Контр-образцы - это специальные материалы, которые заставляют ИИ, модели машинного обучения, совершать ошибки - более того, команда показала, что все это работает даже со сжатием видео. В DeepFake лицо человека модифицируется для создания наиболее реалистичного эффекта и событий, которых никогда не было. В результате детекторы фокусируются на лицах на видео, сначала отслеживая их, а затем отправляя данные в нейронную сеть, которая определяет, настоящие они или ложные. Например, в DeepFake плохо воспроизводится моргание, поэтому детекторы также фокусируются на движениях глаз как на одном из вариантов проверки.

Но оказывается, что если злоумышленник получит некоторые знания о системе обнаружения фейков, он сможет создать специальный контент, который будет подготовлен для маскировки слабых мест DeepFake и обхода детекторов. Короче говоря, достаточно создать изображения правильно измененного лица, а затем поместить их между видеокадрами - хотя сжатие или изменение размера удаляет их по умолчанию, вы можете объединить это с решением, позволяющим сохранить их. Ученые по понятным причинам отказались размещать свой код в сети, тем самым защищая многих людей, потому что многие киберпреступники наверняка захотят заполучить его.

Однако исследователи протестировали свою систему в двух разных сценариях, то есть когда злоумышленник имеет полный доступ к модели детектора и всем данным, и когда ему нужно полагаться только на оценки машинного обучения. В первом случае они могут похвастаться 99% успешностью для несжатого видео и 85% для сжатого видео, а во втором сценарии столь же впечатляющими 86% без сжатия и 78% со сжатием. Так что, похоже, нет никаких сомнений в том, что детекторы DeepFake можно обмануть, и мы должны быть к этому готовы, потому что, если исследователи уже могут это сделать, то со временем, и преступники также разработают необходимые инструменты.
Источник
Night
Night
Творец
Творец

Сообщения : 1613
Unit token : 2838
Reputation : 420
Дата регистрации : 2019-08-15
Возраст : 25
Откуда : Украина

https://newwr.actieforum.com/u3

Вернуться к началу Перейти вниз

Никому не верь в интернете. Даже своим глазам! DeepFake. США Empty Re: Никому не верь в интернете. Даже своим глазам! DeepFake. США

Сообщение автор Night Пт Мар 05 2021, 07:38

Видео с канала Ethio Tikfun

Нет, это не Том Круз, это DeepFake, но настолько реалистично, что пугает

Технология смены лиц с использованием искусственного интеллекта, или DeepFake, развивается такими беспрецедентными темпами, что трудно отличить вымысел от реальности. Посмотрите на виртуального Тома Круза в действии.

Актер в своих фильмах «Миссия невыполнима» носил маски, а теперь кто-то решил надеть его маску через DeepFake. Эффект ужасающий. На сайте TikTok появился профиль DeepTomCruise, на котором выложены три видеоролика с актером в главной роли. И в этом не было бы ничего экстраординарного, если бы не то, что это не он.

Это самый реалистичный DeepFake, который когда-либо появлялся в сети. Специалисты, ежедневно занимающиеся анализом подобных материалов, шокированы качеством этой подделки. Пока что у нас есть возможность смотреть фильмы DeepFake в низком разрешении. 

DeepFake Тома Круза в TikTok просто выводит эту технологию на недосягаемый уровень, который уже начинает вызывать беспокойство даже у специалистов по обнаружению такого типа материалов. Почему опубликованные видео такие реалистичные? Ведь актер, принявший в них участие, не только идеально имитирует движения Круза, что уже придает фильмам реалистичность, но и использует последние достижения технологии DeepFake, то есть практически идеальную замену лица. Но это еще не все, не забыли и про голос.

Эксперты по манипулированию в глобальной сети бьют тревогу, и уверяют, чтобы такие сайты, как YouTube, Facebook или TokTok, должны создавать аккаунты для знаменитостей, которые будут специально проверяться. Тогда пользователи будут знать, что они находятся в официальных профилях своих звезд, и когда появится такой DeepFake, сразу станет известно, что мы имеем дело с поддельной учетной записью, а видео - это подделка.
Источник
Night
Night
Творец
Творец

Сообщения : 1613
Unit token : 2838
Reputation : 420
Дата регистрации : 2019-08-15
Возраст : 25
Откуда : Украина

https://newwr.actieforum.com/u3

Вернуться к началу Перейти вниз

Вернуться к началу

- Похожие темы

 
Права доступа к этому форуму:
Вы не можете отвечать на сообщения