Нейросеть Google Gemini научилась распознавать сгенерированные ИИ видеоролики

Google рассказала о новой полезной возможности своей ИИ-модели Gemini 1.5. В ходе тестирования фирменная нейросеть смогла не только «поймать» конкурента на создании ненастоящего видеоряда, но и объяснить доступным языком, в чём именно он «прокололся».

Google Gemini 1.5

В ходе тестирования Gemini 1.5 попросили проанализировать видео, которое создала нейросеть Sora от OpenAI. Хотя видеоролики последней и отличаются высокой реалистичностью, для другого ИИ не составило труда найти в них ряд серьёзных несоответствий, которые сложно заметить человеку.

Исследованию подверглось видео, демонстрирующее улицу в Японии. Прежде всего Gemini 1.5 обнаружила несоответствие времени года и демонстрации сакуры: в реальности она цветёт только весной в тёплую погоду, когда на улицах уже нет снега. Кроме того, несмотря на сильный снегопад, показанные в ролике люди слишком легко одеты.

По заключению Gemini 1.5, видеоряд выглядит привлекательно, однако указанные несоответствия указывают на его искусственное происхождение. Подобные результаты ИИ выдал относительно и других похожих образцов. Например, анализируя видео с кошкой, ИИ отметил, что у животного необычно увеличенные глаза и «слишком безупречная» текстура шерсти. В перспективе такой инструмент может оказаться полезен для распознавания дипфейков.

Источник

Поделиться ссылкой:

Total Views: 82 ,
 

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *