Социальные сети
Последние темы
» На кого работает Путин?автор The Pharmacist Вчера в 16:49
» Новости дебилов как признак смерти государства
автор yossiruba Вчера в 13:35
» Впервые оцифрован мозг мухи Princeton. США
автор yossiruba Ср Ноя 20 2024, 20:37
» Петиция с требованием отставки чиновника ООН Гуттериша
автор Профессор Бухлов Ср Ноя 20 2024, 13:32
» Свидетели "СВО"
автор arakazam Вт Ноя 19 2024, 21:29
» Реальные российские современные технологии
автор evergreen321 Пн Ноя 18 2024, 21:35
» Эмиграция в США
автор Shudyn Пн Ноя 18 2024, 13:09
» Лики тлена. Оппозиция в РФ
автор Shudyn Пн Ноя 18 2024, 12:55
» Неоднозначный Иран
автор WentFox Вс Ноя 17 2024, 14:33
» Санкции против России и ее резидентов
автор arakazam Вс Ноя 17 2024, 11:28
» Смерти состоятельных людей
автор arakazam Сб Ноя 16 2024, 19:01
» Армия Государства
автор Argisht44 Сб Ноя 16 2024, 17:54
» Человеческий вопрос
автор Argisht44 Сб Ноя 16 2024, 17:46
» Не рабы
автор Argisht44 Сб Ноя 16 2024, 17:24
» Российская Федерация. Доклад IDSC NEWWR
автор Argisht44 Сб Ноя 16 2024, 17:17
Никому не верь в интернете. Даже своим глазам! DeepFake. США
Участников: 5
Страница 1 из 1
Никому не верь в интернете. Даже своим глазам! DeepFake. США
Не верь глазам своим
Фильм в сети наводит на размышления... Бывший президент Барак Обама говорит на камеру и вульгарно оспаривает нынешнего президента Трампа. Если бы не было известно, что это видео работа Джордана Пила и BuzzFeed, созданная для того, чтобы предупредить людей о появлении техники глубоких подделок, то многих можно было лекго ввести в заблуждение.
С другой стороны, мы были очарованы цифровой имитацией молодой Кэрри Фишер принцессы Леи, появляющейся в конце «Rogue One», одной из частей саги Звездных войн. Случай размещения лица Николаса Кейджа во фрагментах фильмов, в которых он не появлялся, в том числе в «Налетчиках потерянного ковчега», менее известен.
В последнем случае речь шла о невинных интернет-розыгрышах. Несмотря на положительные или нейтральные отзывы, метод «глубоких подделок» вызывает серьезные опасения, даже достигая ушей служб, которые заботятся о безопасности целых стран и наций. Или хотя бы о безопасности самых богатых людей планеты.
Опасное доверие к видео
Специализированная группа в Министерстве обороны США, связанная с правительственным оборонным агентством DARPA, инвестирует десятки миллионов долларов в разработку методов, конкурентоспособных против мошенников, тех, которые автоматически обнаруживают обработанные фильмы и фотографии, которые могут даже угрожать национальной безопасности. На данный момент на эту программу под название Media Forensics было израсходовано около 68 миллионов долларов США.
Мэтт Турек, менеджер проекта Media Forensics недавно заявил канадскому телеканалу CBC, что «теперь легче генерировать манипуляции, чем обнаруживать их». Он добавил, что «современные инструменты дают новые возможности для действий противникам правительства США», как «группам с ограниченными ресурсами», так и «более крупным и лучше организованным формированиям и представителям других стран». Он также отметил, что «некоторые страны хорошо известны манипулированием СМИ».
Хана Фарид, эксперт в области цифровой криминалистики, был профессором компьютерных наук в Дартмутском колледже в Нью-Гемпшире. Он говорил о серьезных опасениях по поводу того, как технология, которая манипулирует видео, может быть использована преступно. Мой кошмар когда появляется видео Трампа о том, что он только что приказал ударить ядерными ракетами по Северной Корее, а затем, прежде чем кто-либо поймет, что он имеет дело с поддельными материалами со взломанного или подделанного аккаунта, начинается глобальный ядерный конфликт, сказал он.
В офисах DARPA в Арлингтоне Мэтт Турек продемонстрировал несколько примеров такого видео, которое может быть признано подделкой благодаря технологии обнаружения, используемой агентством. На одном из них вы видите двух людей, сидящих рядом, которые никогда не встречались. Технология уловила несоответствия в освещении.
Другим примером было видео с мониторинга, который анализировал трафик, автоматически обнаруживая недостающую часть фильма. В какой-то момент рамка становится красной, сигнализируя об удалении серии кадров, что вызывает неестественность в записи движения, пояснил Турк.
Программа Media Forensics также призвана помочь военным США. В настоящее время аналитики должны проверять фильмы и изображения, что является «ручным» процессом. Media Forensics будет автоматизировать этот процесс, предоставляя специалистам инструменты для облегчения их работы. Как общество, мы очень доверяем изображению или видео, отметил Турек в CBC. Если мы что-то видим, мы верим, что это произошло. Поэтому переделанные визуальные материалы могут иметь большую разрушительную силу. Независимо от успеха разработки методов обнаружения, которые в DARPA будут длиться почти два года, необходимо четко сказать, что мошенники идут на шаг вперед дальше, чем реакция на их действия.
Конгрессмены Адам Шифф, Стефани Мерфи и Карлос Курбело также написали об этом в письме, направленном в сентябре прошлого года Даниэлу Коутсу, директору разведки США.
«Гиперреалистичная цифровой контрафакт, обычно называемый глубокими подделками основан на изощренных методах машинного обучения для создания убедительных образов людей, которые, кажется, делают или говорят то, что они никогда не говорили и не делали, полностью без их согласия или ведома», указано в нем. Размывая грань между фактом и вымыслом, глубокие подделки могут подорвать доверие общественности к изображениям и фильмам как объективным изображениям реальности». И тогда людям придется выйти на улицу, придется начать общаться с реальными людьми во всем мире, и тогда они узнают, что практически все, что нам показывают в традиционных зависимых СМИ (государственных или принадлежащих корпорациям) - ЧУДОВИЩНАЯ ЛОЖЬ!
Шифф, Мерфи и Курбело попросили главу разведки подготовить отчет, который он представит Конгрессу, какие шаги он запланировал для борьбы с распространением фальшивых клипов.
«Поддельные видео, изображения или звук могут быть использованы для шантажа или других не добрых целей», написали они. «Они могут также использоваться иностранными или местными организациями для распространения неверной информации».
Есть и поддельные аккаунты в социальных сетях
В киберпространстве методы глубокой подделки являются своего рода продолжением проблемы существования ложных профилей общественных деятелей в социальных сетях, известных годами. Есть миллионы оставленных аккаунтов известных актеров, музыкантов и политиков в Facebook, Instagram и Twitter. В последнее время проблема нарастала, потому что сети все чаще распространяют дезинформацию или используются для вымогательства денег и причинения вреда людям. Более того, мошенники продают специальные инструкции по созданию таких аккаунтов, где брать аудиторию и как получать от этих людей финансовую выгоду обманом.
В прошлом году Опра Уинфри предупредила своих поклонников в Twitter, что кто-то пытается обмануть их, используя ее имя и аватар для мошенничества. Харриет Сейтлер, директор по маркетингу Oprah Winfrey Network, добавила, что речь идет о мошенниках, которые, создавая фальшивые звездные аккаунты, пытаются продать билеты на вечеринки или требовать пожертвования.
Чтобы оценить масштаб проблемы, известный американский медиа ресурс заказал анализ числа профилей, олицетворяющих социальные медиа, для первой десятки лидеров по подписчикам в Instagram.
Опрос Social Impostor обнаружил почти 9 000 учетных записей в Facebook, Instagram и Twitter, притворяющиеся, что они дружат с известными лицами или общаются с ними. Больше всего беспокоил бразильский футболист Неймар - 1676 человек. Поп-звезда Селена Гомес была второй, с результатом 1389 человек. Бейонсе претендовала на 714 читеров, а Тейлор Свифт на 233, наименьшее количество среди проверенной группы.
В Twitter, Instagram и Facebook также много грешков, потому что эти платформы довольно мягко относятся к своим собственным правилам, запрещающим двойники. Представители Facebook и его подразделения Instagram, разумеется, заявили, что борются с фальшивыми аккаунтами.
Недавно они добавили, например, программное обеспечение, которое автоматически обнаруживает мошенников, что позволило им удалить более миллиона учетных записей, появившихся с марта 2018 года. Тем временем, однако, они признали увеличение подобных профилей. по крайней мере потенциально, на их портале (включая дубликаты учетных записей, поэтому необязательно для злонамеренных целей) примерно до 80 миллионов или около 4% от общего числа профилей.
Как определить глубокие подделки?
1. Лица
Во многих фальшивых аккаунтах лица выглядят странно. Переходы между лицом и шеей не всегда совпадают, или волосы не соответствуют оригиналу.
2. Отношение лица к телу
Большинство глубоких подделок это, в первую очередь, замена лица. Изменения в поведении остальной части тела гораздо сложнее создать. Именно на этом они и прокалываются..
3. Длина клипа
Хотя доступный метод прост в использовании, процессы машинного обучения для получения глубоких подделок все еще трудоемки. Вот почему большинство фальшивых видео в Интернете длятся всего несколько секунд.
Если запись очень короткая, мы можем рассматривать ее как предпосылку, что мы имеем дело с подделкой.
4. Источник записи. Исходник
Анализ исходника и его наличие/отсутствие может стать первым шагом к дальнейшим критической оценке наблюдаемого эффекта.
5. Звук
Программное обеспечение Deepface позволяет манипулировать только изображением. Поэтому, если звук отсутствует или не соответствует изображению (например, отсутствует синхронизация губ), мы можем подозревать, что это подделка.
6. Медленное воспроизведение
Манипулирование изображением и несовместимость основного изображения с фоном могут быть более отчетливо видны при воспроизведении видео в замедленном режиме.
7. Размытые контуры рта
Программное обеспечение для глубокой имитации теперь может перемещать лицо достаточно эффективно, но у него все еще есть проблемы с отображением таких деталей, как зубы, язык и рот.
8. Мигание
Здоровые взрослые мигают каждые 2–8 секунд, один миг продолжается от 1/10 до 1/4 секунды. Программное обеспечение deepfakes не в состоянии воспроизвести естественное мигание.
Технология от Google
Deepfake это - искусственный интеллект, включая технику машинного обучения, называемую «порождающая противоречивая сеть» (GAN), может использоваться для анализа и синтеза ложных изображений, а также для их создания.
В 2017 году в интернете появился ложные порнографические фильмы с лицами знаменитостей. Они были распространены специально на сайте Reddit. Niepornograficzne deepfakes может легко найти на популярных видео сайтах, таких как YouTube или Vimeo. Например, лицо президента Аргентины Маурика Макри заменено на них лицом Адольфа Гитлера, а лицо Ангелы Меркель изображением Трампа.
Чтобы получить подробную информацию, программе нужно много визуальных материалов о человеке, который должен стать «героем». Программное обеспечение использует платформу AI TensorFlow от Google.
Некоторые веб-сайты, такие как Twitter, объявили, что будут удалять фальшивый контент и блокировать его издателей. Ранее платформа чат "Раздор" заблокировал канал видео-чат с поддельными порнозвездами. Порнхаб также планирует следовать по этому пути, но, видимо, он еще не выполнил свое обещание.
Но техника не стоит на месте. Система также может преобразовывать черно-белые фильмы в цветные или манипулировать изображениями, чтобы, например, цветок гибискуса превращался в нарцисс. Поскольку этот новый инструмент может автоматически преобразовывать большие активы фильма, он также будет особенно полезен для этически нейтральных целей, например, для кинематографистов или дизайнеров игр, желающих создавать детализированные цифровые среды. Это инструмент для художников. Он предоставляет им исходную модель, которую затем можно улучшить, сказал в специальном заявлении аспирант Ааюш Бансал из CMU Института робототехники.
Тем не менее, команда, к которой принадлежит ученый CMU, полностью осознает, что созданная технология также может быть использована в создании глубоких подделок. Так Бансал и его коллеги представили один из своих методов на Европейской конференции по компьютерному зрению в Мюнхене.
Раскрывая детали своей концепции другим программистам и исследователям, они надеются облегчить выявление глубоких подделок, совершаемых со злонамеренными целями, и тем самым помочь в борьбе с ними.
В том же университете Карнеги-Меллона, проф. Алан Блэк специализируется на синтезе речи. Недавно он показал, как это работает на KDKA-TV. После того, как ведущий прочитал несколько строк перед камерой в разное время суток, у Блэка был образец голоса, который он ввел в синтезатор. Вскоре он произнес голосом ведущего слова, которые он никогда не говорил. Блэк называет это «Фотошоп для голоса».
Недавно на видео, опубликованном на YouTube британской компанией Synthesia (не путайте с программой синтезатором, которую показывают в поиске, ссылку специально оставили на ресурс из темы, да и официальный ролик с ютуба, зашитый ниже, имеет ту же ссылку. Вы еще не забыли тему доклада? Некому не верь! Все проверяйте, вот и сверяйтесь с разными источниками), была продемонстрирована еще одна система, имитирующая голос, и на многих языках.
- Я хотела бы показать, как благодаря технологии Synthesia я могу свободно говорить на 7100 языках, - заявляет улыбающаяся женщина. Затем мы видим, что она произносит одно и то же предложение на французском, китайском и португальском языках.
"Мы близки к миру, в котором тот факт, что мы увидели что-то на экране, не будет означать, что мы наблюдали реальное событие", сказал эксперт по данным Джон Гибсон на недавней конференции Huddle, организованной Mindshare. Он добавил, что эти технологии будут развиваться быстрее, чем кто-либо думает. С другой стороны, deepfakes могут работать в пользу проверенных информационных брендов, и люди станут охотнее им доверять. Они будут просто верить проверенному каналу, а не только самому сообщению. Тоже самое сейчас происходит с официальными "доверенными" СМИ, которые просто паразитируют на доверии не очень умных людей и просто показывают мир таким, как выгодно представить их хозяевам, а не какой он на самом деле. Так что еще раз. НИКОМУ НЕ ДОВЕРЯЙТЕ! Лучшее, что можно сейчас сделать, так это наводнить интернет поддельными видео с хэштегами ссылающимися на мировые СМИ и со словом обман, чтобы люди начали задумываться и проверять ЛЮБУЮ информацию. Проблема в том, а кто будет поставлять действительно проверенную инфу? Ведь зачастую, мы сами выбираем сторону и так однобоко и освещаем, хотя это не значит, что мы правы и справедливы по взглядам другого человека. В любом случае, интернет как оружие становится все лучше, технологичнее и понятнее для использования любым человеком. Это открывает широкие перспективы для отстаивания своих интересов без государственного финансирования и официальной армии.
По словам Гибсона, в ближайшие несколько лет использование средств для обнаружения поддельных видео может стать ежедневной частью профессиональной жизни журналиста. Хотя, кто как не сами "журналисты" зачастую и фабрикуют такие видеозаписи? Верьте только тем журналистам, которым вы и ваше общество платите деньги, ставите задачи и которые понимают на кого они работают. Остальные не являются источником проверенной информации и мы сомневаемся, что они могут иметь статус журналиста, пока они не докажут обратное.
Другие статьи по теме на сайте NEWWR:
1. DeepFake на этот раз с Джоном Траволтой, который сыграл Форреста Гампа
2. Алгоритм Диснея создает ужасно реалистичный DeepFake
3. DeepFake с Анджеем Дудой или Эмсе рассказывает о видео манипуляциях
4. Художник DeepFake. Искусственный интеллект оживляет картины известных художников
5. Ложная катастрофа миссии Apollo 11. DeepFake
6. Хотите быть хотите быть героем DeepFake и пищей для ИИ? Fawkes (Фоукс) защитит тебя
7. Microsoft создала отличный инструмент для обнаружения опасных DeepFakes
8. Детекторы DeepFake потерпели поражение. Угроза снова возросл
9. Нет, это не Том Круз, это DeepFake, но настолько реалистично, что пугает
Последний раз редактировалось: Admin (Пт Мар 05 2021, 13:11), всего редактировалось 3 раз(а)
null поставил(а) лайк
Re: Никому не верь в интернете. Даже своим глазам! DeepFake. США
О, круто, надо научиться такие видосики создавать. Можно приятелей разыгрывать.
Argisht44- Палач или Спаситель?
- Сообщения : 585
Unit token : 644
Reputation : 37
Дата регистрации : 2020-01-27
Возраст : 32
Откуда : Cleveland
Re: Никому не верь в интернете. Даже своим глазам! DeepFake. США
Если не забуду, завтра гайд скину и ресурс, где можно фотки на фейк проверять. Точнее, сегодня)))
#$%&- Палач или Спаситель?
- Сообщения : 951
Unit token : 1069
Reputation : 48
Дата регистрации : 2019-10-21
Возраст : 30
Откуда : Екатеринбург
Re: Никому не верь в интернете. Даже своим глазам! DeepFake. США
Ааааа, ну спасибо! О.уенный гайд, всем форумом зачитываемся, я еще на работе показал, все в восторге! :@#$1:#$%& пишет:Если не забуду, завтра гайд скину и ресурс, где можно фотки на фейк проверять. Точнее, сегодня)))
Или ты ночью призентуешь?
Argisht44- Палач или Спаситель?
- Сообщения : 585
Unit token : 644
Reputation : 37
Дата регистрации : 2020-01-27
Возраст : 32
Откуда : Cleveland
Re: Никому не верь в интернете. Даже своим глазам! DeepFake. США
Ну как? Все пишешь?)))))))))))))))#$%& пишет:Если не забуду, завтра гайд скину и ресурс, где можно фотки на фейк проверять. Точнее, сегодня)))
Argisht44- Палач или Спаситель?
- Сообщения : 585
Unit token : 644
Reputation : 37
Дата регистрации : 2020-01-27
Возраст : 32
Откуда : Cleveland
Re: Никому не верь в интернете. Даже своим глазам! DeepFake. США
DeepFake на этот раз с Джоном Траволтой, который сыграл Форреста Гампа
«Жизнь похожа на коробку конфет - никогда не знаешь, что с тобой случится», - сказал Форрест. Как всегда, он прав. На этот раз технология DeepFake также неожиданно изменила его мир кино с помощью Джона Траволты.
Все указывает на то, что мы являемся свидетелями появления новой, странной моды на создание все более реалистичных фильмов с манипуляциями и использованием технологии DeepFake. Иногда подмена лица одного актера другим может быть интересной, а в других случаях это очень плохая идея.
Когда лицо Тома Хэнкса меняется на Джона Траволту в фильме «Форрест Гамп», у многих возникают смешанные чувства. И что ты думаешь об этом? DeepFake - очень интересная технология, потому что она позволяет вам увидеть альтернативную реальность своими глазами.
Замена лица Тома Хэнкса на Джона Траволту в «Форрест Гамп» не случайна. Первоначально Траволта должен был играть роль Форреста Гампа, но затем у актера было так много предложений, что он в итоге отказался, и Хэнкс занял его место. И очень хорошо, потому что он отлично сыграл свою роль.
DeepFake уже способен радовать и в то же время пугать, а что будет через несколько лет, когда изменения в изображениях будут не только широко использоваться, но и их качество повысится. Тогда нам будет трудно отличить художественную литературу от реальности.
«Жизнь похожа на коробку конфет - никогда не знаешь, что с тобой случится», - сказал Форрест. Как всегда, он прав. На этот раз технология DeepFake также неожиданно изменила его мир кино с помощью Джона Траволты.
Все указывает на то, что мы являемся свидетелями появления новой, странной моды на создание все более реалистичных фильмов с манипуляциями и использованием технологии DeepFake. Иногда подмена лица одного актера другим может быть интересной, а в других случаях это очень плохая идея.
Когда лицо Тома Хэнкса меняется на Джона Траволту в фильме «Форрест Гамп», у многих возникают смешанные чувства. И что ты думаешь об этом? DeepFake - очень интересная технология, потому что она позволяет вам увидеть альтернативную реальность своими глазами.
Замена лица Тома Хэнкса на Джона Траволту в «Форрест Гамп» не случайна. Первоначально Траволта должен был играть роль Форреста Гампа, но затем у актера было так много предложений, что он в итоге отказался, и Хэнкс занял его место. И очень хорошо, потому что он отлично сыграл свою роль.
DeepFake уже способен радовать и в то же время пугать, а что будет через несколько лет, когда изменения в изображениях будут не только широко использоваться, но и их качество повысится. Тогда нам будет трудно отличить художественную литературу от реальности.
Re: Никому не верь в интернете. Даже своим глазам! DeepFake. США
Алгоритм Диснея создает ужасно реалистичный DeepFake
Технология DeepFake становится все более впечатляющей и в то же время ужасающей своими возможностями.
Студия Дисней разместила в глобальной сети видео, демонстрирующее ее последний алгоритм DeepFake. С его помощью в будущем будут создаваться новые фильмы без участия актеров. Дисней собирается пойти еще дальше и создать вымышленных персонажей, которые будут выглядеть настолько реалистично, что мы не будем отличать их от реальных актеров.
Это звучит фантастически, можно будет гораздо быстрее создавать еще более захватывающие фильмы с небольшим бюджетом, но в то же время эту технологию также можно использовать для управления реальностью. И здесь есть реальные проблемы.
Специалисты из Disney и ETH Zurich использовали прогрессивное обучение компьютерным алгоритмам, технологии стабилизации изображения и передовым световым эффектам, чтобы в конечном итоге достичь чрезвычайно реалистичных сцен DeepFake. Должен признать, что конечный результат впечатляет, хотя всегда есть что то, что можно улучшить. В любом случае, они идут в правильном направлении.
На данный момент у Disney есть алгоритмы, которые генерируют реалистичные изображения в HD. Недостаточно отобразить их на большом экране, но это скоро изменится. Недавно мы увидели мощь ИИ, который может генерировать реалистичные 3D-аватары в качестве 4K, основываясь только на одной фотографии. Но это еще не все, другие ИИ могут создавать человеческие лица из полностью пиксельных изображений. Только представьте, что будет завтра?
Технология DeepFake становится все более впечатляющей и в то же время ужасающей своими возможностями.
Студия Дисней разместила в глобальной сети видео, демонстрирующее ее последний алгоритм DeepFake. С его помощью в будущем будут создаваться новые фильмы без участия актеров. Дисней собирается пойти еще дальше и создать вымышленных персонажей, которые будут выглядеть настолько реалистично, что мы не будем отличать их от реальных актеров.
Это звучит фантастически, можно будет гораздо быстрее создавать еще более захватывающие фильмы с небольшим бюджетом, но в то же время эту технологию также можно использовать для управления реальностью. И здесь есть реальные проблемы.
Специалисты из Disney и ETH Zurich использовали прогрессивное обучение компьютерным алгоритмам, технологии стабилизации изображения и передовым световым эффектам, чтобы в конечном итоге достичь чрезвычайно реалистичных сцен DeepFake. Должен признать, что конечный результат впечатляет, хотя всегда есть что то, что можно улучшить. В любом случае, они идут в правильном направлении.
На данный момент у Disney есть алгоритмы, которые генерируют реалистичные изображения в HD. Недостаточно отобразить их на большом экране, но это скоро изменится. Недавно мы увидели мощь ИИ, который может генерировать реалистичные 3D-аватары в качестве 4K, основываясь только на одной фотографии. Но это еще не все, другие ИИ могут создавать человеческие лица из полностью пиксельных изображений. Только представьте, что будет завтра?
Re: Никому не верь в интернете. Даже своим глазам! DeepFake. США
DeepFake с Анджеем Дудой или Эмсе рассказывает о видео манипуляциях
Популярный YouTuber Emce опубликовал еще одно видео, посвященное знакомству с новейшими технологиями, с которыми мы сталкиваемся каждый день, исследуя глубины глобальной сети. На этот раз мы говорим о DeepFake.
Это один из самых быстро развивающихся методов манипулирования изображениями нашего времени. Эксперты уверены, что DeepFake до неузнаваемости изменит рынок не только для онлайн-СМИ, но и для Голливуда. С помощью этой технологии вы можете создавать все более реалистичные фильмы, которые манипулируют изображениями разных людей.
В будущем DeepFake начнет заменять телеведущих и актеров. Каждый из нас сможет выбрать аватар, который предоставит нам самую свежую информацию или появится в фильме, который мы смотрим. Можете ли вы представить себе возможность выбрать актерский состав фильма, который вы смотрите? Это уже происходит.
Emce показывает удивительные возможности DeepFake на примере Анджея Дуда. Польский президент принял участие в Hot16Challenge2, и поэтому записал фильм, который был опубликован на канале «В президентском дворце». DeepFake может не впечатлить качеством, но по разным причинам он просто не был усовершенствован. Смотрите, что получилось.
Популярный YouTuber Emce опубликовал еще одно видео, посвященное знакомству с новейшими технологиями, с которыми мы сталкиваемся каждый день, исследуя глубины глобальной сети. На этот раз мы говорим о DeepFake.
Это один из самых быстро развивающихся методов манипулирования изображениями нашего времени. Эксперты уверены, что DeepFake до неузнаваемости изменит рынок не только для онлайн-СМИ, но и для Голливуда. С помощью этой технологии вы можете создавать все более реалистичные фильмы, которые манипулируют изображениями разных людей.
В будущем DeepFake начнет заменять телеведущих и актеров. Каждый из нас сможет выбрать аватар, который предоставит нам самую свежую информацию или появится в фильме, который мы смотрим. Можете ли вы представить себе возможность выбрать актерский состав фильма, который вы смотрите? Это уже происходит.
Emce показывает удивительные возможности DeepFake на примере Анджея Дуда. Польский президент принял участие в Hot16Challenge2, и поэтому записал фильм, который был опубликован на канале «В президентском дворце». DeepFake может не впечатлить качеством, но по разным причинам он просто не был усовершенствован. Смотрите, что получилось.
Re: Никому не верь в интернете. Даже своим глазам! DeepFake. США
Художник DeepFake. Искусственный интеллект оживляет картины известных художников
Вероятно, большинство из вас не раз задавались вопросом, как на самом деле выглядели люди, увековеченные на картинах известных художников. Теперь мы можем видеть их даже в движении с помощью алгоритмов искусственного интеллекта.
Денис Ширяев решил воплотить изображения в жизнь с помощью нескольких новейших технологий DeepFake. Среди них были:
First Order Model – https://github.com/tg-bomze/Face-Image-Motion-Model (Я использовал его в автономном режиме, но для вас Google Colab будет более полезным);
StyleGAN 2 – https://github.com/tg-bomze/StyleGAN2-Face-Modificator (Я использовал его в автономном режиме, но для вас Google Colab будет более полезным);
DAIN – https://github.com/baowenbo/DAIN (Вы можете использовать Google для DAIN APP, если вы хотите работать с ним как с приложением, я не пробовал, но люди довольны)
ESRGAN – https://github.com/xinntao/ESRGAN
Additional faces generation tool – http://artbreeder.com/
Эффект от работы с ними очень удивителен. У вас, вероятно, будут смешанные чувства, но ожившие лица разжигают воображение. Ведь когда рисовали великие художники, мир был не черно-белым, а музы были живыми людьми, поэтому они двигались.
Ширяев возродил для нас такие работы, как: Мона Лиза, Рождение Венеры, Автопортрет с колючим ожерельем и колибри, Дама с горностаем, Девушка с жемчужиной, Ночной Дозор или Американская готика. Здесь стоит подчеркнуть, что перед искусственным интеллектом стояла не простая задача. Она должна была воспроизводить лица муз, основываясь на данных, полученных на самой картине, а не на фотографиях.
Специалисты по технологии DeepFake полагают, что с помощью ИИ в будущем мы сможем не только оживить старые фотографии и видео, придав им совершенно новое измерение, но и создать совершенно новые с нуля с людьми из наших семей и друзьями, которых больше нет с нами.
Вероятно, большинство из вас не раз задавались вопросом, как на самом деле выглядели люди, увековеченные на картинах известных художников. Теперь мы можем видеть их даже в движении с помощью алгоритмов искусственного интеллекта.
Денис Ширяев решил воплотить изображения в жизнь с помощью нескольких новейших технологий DeepFake. Среди них были:
First Order Model – https://github.com/tg-bomze/Face-Image-Motion-Model (Я использовал его в автономном режиме, но для вас Google Colab будет более полезным);
StyleGAN 2 – https://github.com/tg-bomze/StyleGAN2-Face-Modificator (Я использовал его в автономном режиме, но для вас Google Colab будет более полезным);
DAIN – https://github.com/baowenbo/DAIN (Вы можете использовать Google для DAIN APP, если вы хотите работать с ним как с приложением, я не пробовал, но люди довольны)
ESRGAN – https://github.com/xinntao/ESRGAN
Additional faces generation tool – http://artbreeder.com/
Эффект от работы с ними очень удивителен. У вас, вероятно, будут смешанные чувства, но ожившие лица разжигают воображение. Ведь когда рисовали великие художники, мир был не черно-белым, а музы были живыми людьми, поэтому они двигались.
Видео с канала Denis Shiryaev
Ширяев возродил для нас такие работы, как: Мона Лиза, Рождение Венеры, Автопортрет с колючим ожерельем и колибри, Дама с горностаем, Девушка с жемчужиной, Ночной Дозор или Американская готика. Здесь стоит подчеркнуть, что перед искусственным интеллектом стояла не простая задача. Она должна была воспроизводить лица муз, основываясь на данных, полученных на самой картине, а не на фотографиях.
Специалисты по технологии DeepFake полагают, что с помощью ИИ в будущем мы сможем не только оживить старые фотографии и видео, придав им совершенно новое измерение, но и создать совершенно новые с нуля с людьми из наших семей и друзьями, которых больше нет с нами.
Re: Никому не верь в интернете. Даже своим глазам! DeepFake. США
Видео с канала MIT Open Learning
Ложная катастрофа миссии Apollo 11. DeepFake
Проект In Event of Moon Disaster, разработанный инженерами MIT , показывает всему миру, как можно управлять реальностью и историей, используя новейшие технологии, основанные на искусственном интеллекте.
Эксперты из MIT работали над проектом в течение шести месяцев. Я должен признать, что эффекты потрясающие. Инженерам удалось создать чрезвычайно достоверные кадры, в которых президент США Ричард Никсон объявляет о катастрофе исторической миссии Аполлона-11 на Луну. Эти события произошли в 1969 году. Напоминаем, что именно во время этой миссии первые люди на самом деле оказались на поверхности Луны.
Однако проект «В случае лунной катастрофы» предполагал создание альтернативного хода событий. Для этой цели ученые использовали не только оригинальную запись с Никсоном, но и архивные материалы с тех событий. Позже искусственный интеллект позаботился о создании вымышленного видео. Этот DeepFake - настоящая жемчужина. Он удивляет и в то же время ужасает, насколько продвинуты алгоритмы DeepFake.
Инженеры из Массачусетского технологического института ясно дают понять, что проект призван предупредить, в каком направлении может развиваться эта технология и как невообразимый хаос она может нанести в онлайн-СМИ. Историков больше всего волнует ситуация, в которой фальшивые киноматериалы, касающиеся ключевых исторических или текущих событий, будут публиковаться, например, на YouTube, где они будут манипулировать общественным мнением, что впоследствии приведет к социальным волнениям. Такое ощущение, что сейчас то конечно этом мнением никто не манипулирует. На самом деле они опасаются, что теперь это смогут делать все, а не только правительства.
Здесь стоит подчеркнуть, что проект In Event of Moon Disaster существует при финансовой поддержке Mozilla Creative Media Awards. Инициатива направлена на создание алгоритмов искусственного интеллекта, которые будут эффективно выявлять и бороться с подделками, пока не стало слишком поздно.
Источник
Re: Никому не верь в интернете. Даже своим глазам! DeepFake. США
Не парни, это совсем уже опасно. А сколько людей не знает? представляете какой простор для мошенников? Можно панику на ровном месте создавать. Это ТВ вышку не захватишь незаметно, а интернет каналы гораздо легче. Если телика не будет. то все
null- Сектант
- Сообщения : 206
Unit token : 225
Reputation : 13
Дата регистрации : 2020-02-19
Microsoft против DeepFakes
Видео с канала Jan Mentel
Microsoft создала отличный инструмент для обнаружения опасных DeepFakes
Технология изменения лица и манипулирования мимикой каждый день все больше и больше удивляет и ужасает нас своей правдоподобностью. К сожалению, его все чаще используют преступники. Однако у Microsoft уже есть ответ.
DeepFake производит настоящую революцию в мире. Она началась с изменением лица случайных девушек порно звезд, и теперь эта технология популяризируется благодаря интересному видео со звездами кино в главной роли, которые опубликованы на YouTube. Однако государственные органы обеспокоены угрозой, которую создает DeepFake.
Эта технология в конечном итоге может быть использована киберпреступниками для создания невероятно достоверных кадров, компрометирующих политиков или даже самого президента (их разве надо компрометировать? они и сами не плохо с этим справляются). Это чрезвычайно опасная ситуация не только для самого общества, но и для международной безопасности.
Можно быть уверенным, что скоро какой-нибудь реалистичный DeepFake наконец вызовет скандал глобального масштаба, и тогда наступит опасный момент, когда мир фантастики сольется с реальным миром. Microsoft решила отложить этот "прекрасный" момент на время с помощью мощного инструмента под названием Video Authenticator.
Система способна анализировать пленочный материал с большой точностью и определять, обработаны ли записи с помощью технологии DeepFake. Как это сделать? Алгоритмы в реальном времени анализируют каждый кадр фильма и каждый его пиксель. Они внимательно смотрят на края глаз, носа и рта, где чаще всего возникают несоответствия после применения DeepFake.
Гигант из Редмонда может похвастаться тем, что его Video Authenticator в настоящее время лидирует в мире среди таких систем. Алгоритмы характеризуются невероятным уровнем эффективности обнаружения подделок, поскольку они были изучены на основе Face Forensic ++ и протестированы на DeepFake Detection Challenge Dataset, то есть на ведущих моделях для обучения и тестирования алгоритмов DeepFake.
Интересно, что Microsoft намерена передать свою систему властям США. Система Video Authenticator будет использоваться ими для выявления фальсификаций, касающихся президента США, его окружения, а также кандидатов на этот пост. Военное агентство DARPA и многие организации из разных стран мира также участвуют в проекте.
Вот очередной пример частной американской инициативы, которая полезна всему человечеству, и вместе с тем, все это при поддержке правительства США.
Источник
Re: Никому не верь в интернете. Даже своим глазам! DeepFake. США
Видео с канала JacobsSchoolNews
Детекторы DeepFake потерпели поражение. Угроза снова возросла
Некоторое время назад казалось, что одна из самых больших проблем современного Интернета была решена, благодаря специализированным детекторам, но это не так. DeepFake снова стал угрозой.
Напомним вкратце, что DeepFake - это технология, которая с помощью искусственного интеллекта позволяет чрезвычайно реалистично заменять людей, появляющихся в видеоматериалах, что, с одной стороны, очень увлекательно, а с другой - уже привело к многим нарушениям, таким как использование изображения известных людей в порно или кражи личных данных. В какой-то момент казалось, что мы смогли покончить с этим явлением благодаря специальным детекторам, но, похоже, мы ошибались. Ученые только что доказали, что детекторы DeepFake можно обойти, используя искусственный интеллект, так называемый счетчик образцов для каждой клетки.
Контр-образцы - это специальные материалы, которые заставляют ИИ, модели машинного обучения, совершать ошибки - более того, команда показала, что все это работает даже со сжатием видео. В DeepFake лицо человека модифицируется для создания наиболее реалистичного эффекта и событий, которых никогда не было. В результате детекторы фокусируются на лицах на видео, сначала отслеживая их, а затем отправляя данные в нейронную сеть, которая определяет, настоящие они или ложные. Например, в DeepFake плохо воспроизводится моргание, поэтому детекторы также фокусируются на движениях глаз как на одном из вариантов проверки.
Но оказывается, что если злоумышленник получит некоторые знания о системе обнаружения фейков, он сможет создать специальный контент, который будет подготовлен для маскировки слабых мест DeepFake и обхода детекторов. Короче говоря, достаточно создать изображения правильно измененного лица, а затем поместить их между видеокадрами - хотя сжатие или изменение размера удаляет их по умолчанию, вы можете объединить это с решением, позволяющим сохранить их. Ученые по понятным причинам отказались размещать свой код в сети, тем самым защищая многих людей, потому что многие киберпреступники наверняка захотят заполучить его.
Однако исследователи протестировали свою систему в двух разных сценариях, то есть когда злоумышленник имеет полный доступ к модели детектора и всем данным, и когда ему нужно полагаться только на оценки машинного обучения. В первом случае они могут похвастаться 99% успешностью для несжатого видео и 85% для сжатого видео, а во втором сценарии столь же впечатляющими 86% без сжатия и 78% со сжатием. Так что, похоже, нет никаких сомнений в том, что детекторы DeepFake можно обмануть, и мы должны быть к этому готовы, потому что, если исследователи уже могут это сделать, то со временем, и преступники также разработают необходимые инструменты.
Источник
Re: Никому не верь в интернете. Даже своим глазам! DeepFake. США
Видео с канала Ethio Tikfun
Нет, это не Том Круз, это DeepFake, но настолько реалистично, что пугает
Технология смены лиц с использованием искусственного интеллекта, или DeepFake, развивается такими беспрецедентными темпами, что трудно отличить вымысел от реальности. Посмотрите на виртуального Тома Круза в действии.
Актер в своих фильмах «Миссия невыполнима» носил маски, а теперь кто-то решил надеть его маску через DeepFake. Эффект ужасающий. На сайте TikTok появился профиль DeepTomCruise, на котором выложены три видеоролика с актером в главной роли. И в этом не было бы ничего экстраординарного, если бы не то, что это не он.
Это самый реалистичный DeepFake, который когда-либо появлялся в сети. Специалисты, ежедневно занимающиеся анализом подобных материалов, шокированы качеством этой подделки. Пока что у нас есть возможность смотреть фильмы DeepFake в низком разрешении.
DeepFake Тома Круза в TikTok просто выводит эту технологию на недосягаемый уровень, который уже начинает вызывать беспокойство даже у специалистов по обнаружению такого типа материалов. Почему опубликованные видео такие реалистичные? Ведь актер, принявший в них участие, не только идеально имитирует движения Круза, что уже придает фильмам реалистичность, но и использует последние достижения технологии DeepFake, то есть практически идеальную замену лица. Но это еще не все, не забыли и про голос.
Эксперты по манипулированию в глобальной сети бьют тревогу, и уверяют, чтобы такие сайты, как YouTube, Facebook или TokTok, должны создавать аккаунты для знаменитостей, которые будут специально проверяться. Тогда пользователи будут знать, что они находятся в официальных профилях своих звезд, и когда появится такой DeepFake, сразу станет известно, что мы имеем дело с поддельной учетной записью, а видео - это подделка.
Источник
Похожие темы
» Глубинный народ
» Эмиграция в США
» ИИ. Надежда VS Погибель
» Российская Федерация. Доклад IDSC NEWWR
» Заработок в интернете
» Эмиграция в США
» ИИ. Надежда VS Погибель
» Российская Федерация. Доклад IDSC NEWWR
» Заработок в интернете
Страница 1 из 1
Права доступа к этому форуму:
Вы не можете отвечать на сообщения