Как распознать сгенерированные фото, видео и тексты
Генеративный искусственный интеллект (ИИ) теперь легко справляется с созданием текстов, видео и изображений. В отличие от традиционного ИИ, который автоматизирует рутинные задачи, генеративный создает новый контент на основе обучающих данных. Такие материалы всё сложнее отличить от созданных человеком, что может вводить в заблуждение. Например, ИИ-видео могут выдаваться за документальные, а авторство текстов — приписываться человеку, который их не писал.
### Как распознать ИИ-текст
Отличительные черты ИИ-текста — чёткая структура (вступление, списки, абзацы, заключение), но при внимательном чтении заметна нарушенная логика и вымышленные факты. Главные выводы часто дублируются без новой информации.
Современные большие языковые модели (LLM) обучаются имитировать эмоции, но ИИ не может отстаивать свою позицию, даже если тема это предполагает. У него нет жизненного опыта и воображения, поэтому в текстах встречаются стандартные метафоры, редки цитаты и личные примеры.
Проверить авторство помогут ИИ-детекторы, но ни один не даёт 100% гарантии. Также можно спросить у нейросетей, кто автор текста — ИИ или человек, и попросить аргументировать ответ.
Обратите внимание на контекст публикации:
— время размещения (аномальная активность, например, ночью);
— отсутствие материалов на ту же тему на проверенных ресурсах;
— анонимный канал в мессенджере;
— рассылка с незнакомого адреса.
Для окончательного вывода учитывайте совокупность признаков и проверяйте источник.
### Как определить ИИ-фотографию
Генеративный ИИ значительно продвинулся в создании изображений, включая людей. На первый взгляд их трудно отличить от реальных снимков.
Эксперты проекта «Перезвони сам» выделяют признаки ИИ-фото:
— неестественный взгляд человека;
— искажённая анатомия (форма ушей, количество пальцев);
— неестественные детали одежды и волос (странные складки, пряди);
— неправильные тени (отражение от источников света);
— нарушенные пропорции и логика объектов (парящие предметы);
— необычные надписи, эмблемы, логотипы (ошибки в словах);
— отсутствие метаданных (нет информации о камере, дате, местоположении).
Для проверки используйте ИИ-детекторы или спросите нейросети, создано ли изображение ИИ. Ответ не даёт 100% точности, но в сочетании с другими факторами поможет сделать вывод.
### Как отличить ИИ-видео от реального
Сегодня десятки ИИ-сервисов генерируют видео, поэтому пользователи сталкиваются с ними всё чаще.
На ИИ-происхождение указывают признаки, особенно в совокупности:
— несовпадение движения губ с произносимыми словами;
— неестественная мимика (неподвижные глаза, отсутствие движений век);
— отсутствие реакции зрачков на свет и фокусировки;
— эмоции, не соответствующие обстановке;
— слишком медленные или хаотичные движения рук, неестественная длина пальцев;
— артефакты изображения (исчезающие объекты, нереалистичные автомобили);
— идеальное лицо (отсутствие пор, морщин, родинок, асимметрии);
— несоответствие теней источнику света;
— нарушения перспективы и пропорций.
Особенно внимательно изучайте видео с известными людьми (например, политиками) или знакомыми, просящими о помощи. Не принимайте поспешных решений.
Проверить подлинность поможет сравнение с ранними выступлениями человека — даже лучшие сервисы не идеально копируют манеру речи, интонации и мимику. Обратите внимание на место публикации: не доверяйте каналам в соцсетях или рассылкам с неизвестных адресов.
Один из распространённых способов мошенничества — дипфейк-видеозвонки, аудио и изображения. О защите от них можно узнать в материале и памятке проекта «Перезвони сам».
Проверить аудиосообщение на синтезированную речь и признаки мошенничества поможет бесплатный телеграм-бот «Стопфейк». Сервис с ИИ анализирует тексты, скриншоты и аудиофайлы, определяя вероятность мошеннических схем.