AI поддельные видео учат тебя финансовой свободе? Японская компания представила новейшую технологию для распознавания поддельной анимации, созданной с помощью AI.

Лао Гао создал экспериментальный канал на Youtube под названием Mr Tabby Tales, доказав, что пока вы можете использовать искусственный интеллект, вы можете создавать поддельные короткие видеоролики для достижения финансовой свободы?! Он использовал генеративный искусственный интеллект для создания серии видеороликов в кошки-мышки, которые привлекли 380 000 подписчиков, загрузив всего 12 видеороликов, которые также выявили проблему, онлайн-СМИ полны фейковой новостной информации и поддельных видео, эти короткометражные фильмы становятся все более и более сложными, как судить о подлинности? Японские СМИ взяли интервью у стартап-компании, чтобы опубликовать новейшую технологию искусственного интеллекта для обнаружения и анализа возможности мошенничества в видео, которое, можно сказать, содержит ИИ с искусственным интеллектом, чтобы сгенерированный ИИ не попал в руки гангстеров и не стал инструментом мошенничества.

Создание AI ускоряет процесс производства коротких видео, видео трудно отличить от настоящего.

Генеративный ИИ (Generative AI) стремительно развивается, и ранее сложное создание видео и аудио стало быстрым и простым. Ютубер 老高 с шестью миллионами подписчиков недавно создал серию коротких видео о кошках, ловящих мышей, используя генеративный ИИ. Он демонстрирует, что при правильном использовании можно легко создавать высокоэффективные видео для привлечения зрителей, и даже возможно в краткосрочной перспективе достичь финансовой независимости!

Однако такие короткие видео слишком легко распространяются в сети, и степень их изысканности затрудняет зрителям различение подлинности. Если их использовать для мошенничества или распространения слухов, они могут быть приняты за правду, что приведет к убыткам.

Инновационные технологии японской компании NABLAS балансируют ИИ с помощью ИИ

В связи с проблемой, что генеративный ИИ может способствовать массовой фальсификации, японская компания NABLAS разрабатывает передовую технологию ИИ, специально предназначенную для идентификации и обнаружения поддельных видео, созданных ИИ. Система NABLAS анализирует детали в видео, проверяя возможные неестественные движения и несоответствия, которые могли возникнуть в процессе генерации.

Принцип работы заключается в том, что сначала с помощью ИИ видео разбивается на ряд изображений, затем каждое изображение цифровизируется и проходит поэтапный анализ, после чего система проверяет изображения на наличие неестественных движений, то есть на мелкие смещения узлов, которые обычно являются неизбежными дефектами в процессе создания генеративным ИИ.

Директор NABLAS Сузуки Минамио отметил, что при генерации каждого сцены искусственным интеллектом изображение оказывается смещенным, что приводит к возникновению неестественных узлов. Эти тонкие неестественные моменты являются ключом к распознаванию поддельных видео.

Более важно то, что эта технология также будет проверять людей на видео, особенно их лица, на предмет обработки ИИ. Генеративный ИИ часто непреднамеренно оставляет следы ручных модификаций, которые могут быть обнаружены специально разработанными системами ИИ.

В процессе эксплуатации система NABLAS может производить детальную проверку видео. В одном из AI-сгенерированных видео ИИ разбивает изображение и проверяет начало видео, результаты показывают, что это видео было отредактировано генеративным ИИ, вероятность подделки составляет до 94 %.

Судзуки Мияо заявил, что NABLAS планирует официально запустить эту технологию в конце этого месяца. Внедрение этой технологии поможет повысить осведомленность общественности о поддельных видео и эффективно сдерживать распространение ложной информации.

Применение ИИ уже проникло в повседневную жизнь, генеративный ИИ является фокусом современных технологий, и необходимо не только научиться использовать инструменты ИИ для поддержки творчества и повседневной жизни, но также иметь соответствующие технологии для обеспечения достоверности информации.

Судзуки Мияо подчеркнул, что первоначальная цель разработки этой технологии заключается в обеспечении рационального использования ИИ, указав, что генерация ИИ и поддельная информация могут появляться в различных случаях, и обществу необходимо серьезно заняться проблемой видеомошенничества, NABLAS стремится применить эту технологию в большем количестве областей, помочь пользователям идентифицировать поддельные видео и способствовать правильному использованию технологии ИИ.

Эта статья о том, как AI поддельные видео учат вас финансовой свободе? Японская компания представила новую технологию для выявления фальшивой анимации, AI впервые появился в Chain News ABMedia.

Посмотреть Оригинал
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить