Гигантские сугробы, полностью поглотившие автомобили, и снежные бури, парализовавшие целые поселки Камчатки, в начале 2026 года стали вирусной сенсацией в сети. Пока российские и зарубежные СМИ спорят, было ли это реальным стихийным бедствием или мастерской работой нейросети, обычные пользователи ломают голову: как вообще отличить реальное видео от сгенерированного ИИ? Ученый Пермского Политеха раскрывает главные визуальные и физические «улики», по которым можно вычислить подделку.

По слова эксперта, современные нейросети, создающие изображения, оперируют не моделированием физических законов, а воспроизведением визуальных «паттернов». Так называемый «искусственный интеллект» часто допускает ошибки при передаче гравитации и физического взаимодействия объектов, особенно с водой и сыпучими средами, что проявляется, например, в явном несоответствии силы ветра: спокойная форма сугроба может указывать на штиль, в то время как движение снежинок или развевающийся флаг свидетельствуют о сильном порывистом ветре.

«Люди часто верят фейковым видео о ЧП, даже замечая в них нестыковки, потому что такие ролики создаются по шаблону, вызывающему мгновенную эмоциональную реакцию. С точки зрения антропологии и эволюции, сильные эмоции исторически блокировали рациональное мышление — это помогало быстро реагировать на опасность, например нападение леопарда. Сегодня важно осознанно переключаться с автоматической эмоциональной реакции на критическую оценку контента», — объясняет Даниил Курушин, доцент кафедры «Информационные технологии и автоматизированные системы» ПНИПУ, кандидат технических наук.

Если говорить именно про видео с Камчатки, важно анализировать взаимодействие снега с окружающим миром — то, как он ложится у объектов, как ведут себя снежинки возле человека — обтекают ли они фигуру или проходят сквозь нее, присутствуют ли завихрения. Ключевым моментом является проверка следов: представляют ли они собой наложенную текстуру или демонстрируют физическое изменение рельефа.

«Нужно обращать внимание на кинематографические признаки: преувеличенное действие, выстроенная как в фильме композиция картинки и неестественно идеальная работа „оператора“ могут указывать на постановочность. Ключевой признак — естественность работы камеры. В реальной любительской съемке неизбежны дрожание, случайные наклоны и повороты. Напротив, ИИ-генерация может создавать неестественно стабильные кадры: например, „камера“ может идеально парить в условиях метели на Камчатке или безупречно следовать за объектом на нереальной скорости без единого рывка», — рассказывает доцент кафедры ПНИПУ.

Ученый Пермского Политеха дополняет, что визуальные несоответствия в отражении света способны указывать на компьютерную графику. Могут не соответствовать направления теней и бликов реальным условиям освещения, определить это, впрочем, может только внимательный и тренированный взгляд. Например, в некоторых видео с Камчатки можно заметить, что тени от домов падают в одну сторону, а блики на снегу или льду — в противоположную, что создает неестественное ощущение «двух солнц». Иногда присутствуют блики на снегу от несуществующих источников света или отсутствуют рефлексы от снега на других объектах.

«Помимо физических законов, на подлинность указывают и логистические детали. В отличие от людей, которые могут действовать иррационально, ИИ следует строгой логике и данным, на которых обучен. Однако именно эта неспособность отступить от шаблона, дополненная обучением преимущественно на западных данных, приводит к системным ошибкам. Результатом становится „неправильное“ и неуместное изображение. Например, нейросеть может поместить снегоуборочную технику на улицу, заставленную машинами. В реальности, особенно в специфических условиях Камчатки с ее сложным рельефом, узкими улицами и ветровой нагрузкой, операторы такой техники стараются беречь автомобили, ограждения и другую инфраструктуру, действуя только на заранее освобожденной от машин территории», — объясняет доцент Пермского Политеха.

По словам эксперта ПНИПУ, для проверки достоверности подобных видео с Камчаткой, как и любого другого спорного контента, необходим перекрестный анализ по нескольким независимым источникам. Наиболее высокий уровень достоверности при чрезвычайных ситуациях имеют официальные сводки местного МЧС, репортажи региональных СМИ и фотоотчеты местных жителей в социальных сетях.

«Основная задача при верификации видео — найти несоответствия между ним и реальностью. Сначала нужно идентифицировать объект или локацию, попытаться установить точные координаты, а затем сравнить кадры с архивными съемками этого места, например, с помощью картографических сервисов с панорамами улиц. Именно такое сравнение позволяет обнаружить признаки фейка: несуществующие в реальности объекты, „дорисованные“ элементы или нарушения физических границ и масштаба, которые часто возникают при нейрогенерации или анимации фотографий. Также важно обращать внимание на марки автомобилей и другой техники. ИИ может „плохо знать“ отечественный автопром и генерировать лишь „обобщенный тип“ транспортного средства, например не трактор К-700, а свою „собирательную модель“», — объясняет ученый Пермского Политеха Даниил Курушин.

При всем этом важно учитывать контекст: если видео служит для развлечения, его подлинность может не иметь значения, но для принятия решений, например, о поездке, надежнее полагаться на специализированные прогнозы. Отсутствие геолокации или подозрительный аккаунт сами по себе не являются однозначными признаками фейка, так как метаданные можно подделать, а профиль — создать. Наиболее эффективный подход — проверка по совокупности факторов. Например, если на видео показаны экстремальные заносы или погодные условия как на многочисленных видео с Камчатки, стоит свериться с сервисами вроде Яндекс.Карт или с windy.com, где отображаются текущие уровни осадков и глубина снежного покрова. Несовпадение данных указывает на возможную фальсификацию.

Ученый Пермского Политеха Даниил Курушин рассказывает, что для первоначальной проверки материалов на возможную нейрогенерацию существуют общедоступные инструменты, но их надежность ограничена. Некоторые видео могут содержать специальные маркеры контента по стандарту C2PA — «цифровые водяные знаки», встроенные в файл или его метаданные, показывают историю создания и изменения контента.

«Примерами сервисов для проверки могут выступать: онлайн-платформа AI or Not — aiornot.com, которая анализирует изображения и видео. Sensity AI предлагает обнаруживать дипфейки на базе ИИ. Hive Moderation предоставляет API — интерфейс для программ, который позволяет другим сервисам и разработчикам автоматически проверять контент на признаки искусственной генерации. Однако эти инструменты не дают стопроцентной гарантии. Злоумышленники могут применять технологию обучения с подкреплением: генерировать видео, проверять его через детекторы и дообучать нейросеть. Также они могут просто выбрать наиболее „правдоподобный“ с точки зрения этих программ», — подчеркивает ученый ПНИПУ.

В качестве дополнительного метода, по словам эксперта Пермского Политеха, можно попробовать обратный поиск по кадрам — загрузить стоп-кадр в поисковик по изображениям. Если найдутся очень похожие картинки, вероятно, они использовались для генерации. Однако и этот способ тоже ненадежен — не все картинки попадают в базы поисковых систем.

«Однозначного пошагового чек-листа, который помог бы всем без технического образования отличить сгенерированное видео от реального, не существует — им могли бы воспользоваться и сами злоумышленники, чтобы обойти проверку. Поэтому важнее научиться работать с информацией, научиться управлять эмоциональными реакциями, развивать критическое мышление.Самая эффективная стратегия, по словам эксперта ПНИПУ, комбинация методов. Сначала стоит задать вопросы: „Кто и зачем выложил это видео?“, „Где первоисточник?“, „Каков контекст?“. Далее необходимо провести „эмоциональную проверку“: если видео вызывает очень сильные эмоции — гнев, восторг — это может быть признаком манипуляции. Не рекомендуется делиться видео без предварительной проверки. Следует вырезать ключевой кадр и выполнить обратный поиск по нему в поисковике изображений», — напоминает ученый Пермского Политеха.

Как заключает доцент кафедры ПНИПУ Даниил Курушин, видео или его часть рекомендуется загрузить в онлайн-детектор, учитывая присущие таким инструментам ограничения. Также необходимо внимательно просмотреть видео на малой скорости, фокусируясь на лицах, регулярных структурах, а также мелких, но важных деталях: согласованности теней и освещения, физической корректности движения объектов (например, проводов, мачт, падающих предметов), наличия пара изо рта на морозе, реалистичности взаимодействия с ветром. Фон следует проверить на предмет «плывущих» искажений и размытия. Все эти методы помогут понять — реальное или сгенерированное ИИ видео перед человеком.

Источник: ПНИПУ