🎯 Бесплатно: первая проверка AI-видимости за 5 минут, затем обновление раз в 7 днейПопробовать →

9 мин чтения

Как удалить ложную информацию о бренде в ChatGPT, Claude, Perplexity и других AI

Reporting OpenAI/Anthropic/Perplexity, технические методы, PR-работа, обновление источников и мониторинг повторов. Полный практический гайд для PR и репутационных команд.

Владислав Пучков
Владислав Пучков
Основатель GEO Scout, эксперт по GEO-оптимизации

GEO Scout ежедневно сканирует 10 AI-провайдеров на упоминания бренда и автоматически выделяет негативную и потенциально ложную тональность — это позволяет поймать проблему до того, как её увидит клиент. Когда AI-галлюцинация живёт в ChatGPT или Perplexity неделями, она тиражируется в тысячах разговоров: пользователи получают неверные данные о ценах, продуктах, репутации и принимают решения на их основе. Эта статья — практический план действий для PR, бренд-менеджеров и репутационных команд.

Типы ошибок AI о брендах

Прежде чем жаловаться, нужно понять природу ошибки — от этого зависит стратегия исправления.

Тип ошибкиОписаниеТипичная причина
ГаллюцинацияAI генерирует несуществующий факт: выдуманный продукт, неверную цену, несуществующий офисНеточность в обучающих данных; модель «додумывает» пробел
Устаревшие данные (stale data)AI называет старое название, закрытый продукт, уволенного CEOОбучающие данные не обновились; нет свежих источников
Чужое мнение как фактНегативный отзыв или критическая статья подаётся как объективный факт о компанииAI не различает экспертный консенсус и единичное мнение
Смешение брендовAI путает вашу компанию с конкурентом или однофамильцемНедостаточно чётких уникальных идентификаторов бренда

Каждый тип требует разного подхода. Галлюцинацию нужно репортить и одновременно закрывать источниками. Stale data исправляется быстрее через обновление страниц. Смешение брендов решается усилением уникальных дескрипторов.


Шаг первый: зафиксировать ошибку правильно

Без доказательств жалоба слабее. Зафиксируйте ошибку до любых других действий.

Что нужно сохранить:

  • Полный скриншот с датой и временем (не вырезайте интерфейс — нужен заголовок браузера)
  • Точный промпт, который вы использовали
  • Название модели и версия (GPT-4o, Claude Opus 4, Perplexity Pro и т.д.)
  • Share link — большинство провайдеров позволяют поделиться конкретным чатом
  • Timestamp в UTC — для последующего сравнения при мониторинге повторов

Храните эти данные в папке с датой: это понадобится при подаче жалобы и при проверке, исчезла ли проблема после работы по источникам.


Каналы жалоб по каждому провайдеру

Разные компании выстроили разные процессы. Используйте правильный канал — иначе жалоба затеряется.

ПровайдерКанал жалобыEmail / формаОжидаемый срок
ChatGPT (OpenAI)Thumbs down в интерфейсе + «Report» → формаhttps://openai.com/form/report-content5–15 рабочих дней
Claude (Anthropic)Trust & Safety форма на сайтеusagepolicy@anthropic.com7–14 рабочих дней
PerplexityКнопка «Report» в ответе; письмоsupport@perplexity.ai3–10 рабочих дней
Google AI OverviewsКнопка Feedback в сниппете; Search Consolehttps://support.google.com/websearch/troubleshooter10–20 рабочих дней
Gemini«Check response» → «Report legal issue» или «Report factually incorrect»https://support.google.com/gemini/contact10–20 рабочих дней
Яндекс АлисаКнопка «Это неправильный ответ» внутри АлисыЯндекс Поиск для Бизнеса → форма обратной связи14–30 рабочих дней
Grok (xAI)Кнопка дизлайка в интерфейсе; supportsupport@x.ai10–21 рабочих дней
DeepSeekФорма обратной связи в приложенииsupport@deepseek.com14–30 рабочих дней

OpenAI: как репортить эффективно

Простой thumbs down в ChatGPT фиксирует сигнал, но не гарантирует разбора. Для репутационных случаев используйте полную форму: https://openai.com/form/report-content. В форме выберите категорию «Factual inaccuracies» и подробно опишите:

  • Что именно сказала модель (цитата)
  • Почему это неверно (со ссылкой на первоисточник)
  • Какой корректный факт должен быть

Если у вас есть API-аккаунт, технические вопросы можно эскалировать через тикет-систему на platform.openai.com/help.

Anthropic (Claude): Trust & Safety

Anthropic особенно серьёзно относится к ответственному раскрытию проблем. Напишите на usagepolicy@anthropic.com с темой «Factual error about brand [Название компании]». Приложите скриншот, промпт, версию модели и корректную информацию со ссылкой на авторитетный источник.

Perplexity: самый быстрый цикл

Perplexity работает с реальным поиском, поэтому ошибки здесь часто исправляются быстрее — достаточно обновить источник, на который ссылается ответ. Кнопка «Report» в ответе открывает форму прямо в интерфейсе. Параллельно напишите на support@perplexity.ai с заголовком и ссылкой на чат.

Google AI Overviews и Gemini

Google обрабатывает feedback через стандартные форматы Search Console и пользовательских репортов. Если ошибка в AI Overview на конкретном запросе, используйте кнопку «Feedback» прямо в сниппете — она открывает форму с контекстом запроса. Для Gemini — «Check response» в нижней части ответа.


Технические методы: ограничение доступа ботов

Технические решения действуют медленно, но системно. Их стоит внедрять параллельно с жалобами.

robots.txt для AI-ботов

# Запрет GPTBot (OpenAI)
User-agent: GPTBot
Disallow: /

# Запрет ClaudeBot (Anthropic)
User-agent: ClaudeBot
Disallow: /

# Запрет PerplexityBot
User-agent: PerplexityBot
Disallow: /

Важно: это остановит будущие сканирования, но не изменит то, что модель уже усвоила. Эффект появится только после следующего переобучения или обновления индекса. Подробнее о том, как GPTBot и другие AI-боты работают с robots.txt.

Мета-теги noai и ai.txt

<!-- Запрет использования контента для обучения AI -->
<meta name="robots" content="noai, noimageai">

Файл ai.txt (аналог robots.txt, специфично для AI) позволяет задать правила для провайдеров, которые его поддерживают. Размещается в корне домена: https://yourdomain.com/ai.txt.

# ai.txt
User-agent: *
Disallow: /

User-agent: GPTBot
Disallow: /outdated-page/

Работа с источниками: главный инструмент исправления

Технические блокировки и жалобы — это тактика. Стратегия — изменить то, что читают нейросети.

1. Обновите собственные страницы

AI-модели с доступом к реальному поиску (Perplexity, Google AI, Grok) переиндексируют ваш сайт регулярно. Исправьте страницы, которые могли стать источником ошибки:

  • About / О компании: убедитесь, что данные актуальны
  • Pricing: если цены изменились — обновите и добавьте дату обновления
  • Product pages: уберите устаревшие продукты или пометьте их как «архивные»
  • FAQ: добавьте прямые ответы на вопросы, по которым AI ошибается

Командный центр GEO Scout анализирует, какие страницы AI чаще всего цитирует при упоминании вашего бренда — это позволяет точно определить, что обновлять в первую очередь, а не действовать вслепую.

2. PR-опровержение

Если ошибка тиражируется в медиа или обзорах, опровержение нужно разместить там, где его прочитают нейросети:

  • Напишите в редакцию медиа с просьбой о корректуре или добавлении clarification-ноты
  • Опубликуйте официальный пресс-релиз «Разъяснение по поводу...» на вашем сайте
  • Разместите комментарий в ключевых отраслевых изданиях со ссылкой на корректные данные
  • Обновите раздел «Пресс-центр» с актуальной информацией

3. Wikipedia: коррекция с источником

Если ошибка пришла из Wikipedia — её нужно исправить там. AI-модели активно используют Wikipedia как базовый источник.

Порядок действий:

  • Перейдите на страницу → «Редактировать» (Edit)
  • Следуйте принципу WP:BLP (Biographies of Living Persons) для персон или стандартным требованиям к корпоративным статьям
  • Любое исправление должно сопровождаться авторитетным источником (ссылка на официальный сайт, СМИ, пресс-релиз)
  • Не удаляйте критику без источника — такие правки откатываются; добавьте контекст и корректную формулировку
  • Если у вас конфликт интересов (вы представляете компанию), используйте Talk page для предложения правки — это прозрачнее и устойчивее

Таблица: тип ошибки → приоритетное действие

Тип ошибкиПервый шагПараллельноПроверить через
Галлюцинация (выдуманный факт)Жалоба через форму провайдераСоздать страницу с корректным фактом и источниками4–8 недель
Устаревшие данныеОбновить страницы сайтаОбновить профили в каталогах1–3 недели (у Perplexity)
Чужое мнение как фактПодать жалобу + опубликовать PR-опровержениеУсилить позитивные источники4–12 недель
Смешение с другим брендомЖалоба + усиление уникальных идентификаторовРазграничительный контент с чёткими отличиями6–12 недель

Мониторинг повторов: почему галлюцинации возвращаются

Галлюцинация, которую вы «исправили», может вернуться. Причины:

  • Модель обновилась, но источник ошибки остался в индексе
  • Новые статьи с неверными данными появились в интернете и попали в обучение
  • Разные версии одной модели (GPT-4o vs GPT-4o mini) по-разному обрабатывают информацию о бренде

Разовая проверка не защищает. Нужен постоянный мониторинг.

GEO Scout ежедневно отправляет промпты по вашему бренду в 10 AI-провайдеров и анализирует тональность каждого ответа. Если детектор выявляет потенциально ложную или негативную формулировку — она фиксируется с датой, моделью и точным текстом. Вы видите проблему раньше, чем её увидит клиент, и можете немедленно начать работу по описанному выше алгоритму.


Чек-лист «30 минут после обнаружения»

Используйте этот список сразу после того, как обнаружили ошибку в AI-ответе.

  • Сделать скриншот полного интерфейса с датой и временем
  • Скопировать точный промпт и зафиксировать модель/версию
  • Получить share link на разговор (если доступен)
  • Определить тип ошибки по таблице выше
  • Подать жалобу через официальный канал провайдера с цитатой и корректным фактом
  • Проверить, какой источник мог породить ошибку (устаревшая страница? статья в СМИ?)
  • Поставить задачу на обновление источника
  • Добавить промпт в мониторинг для отслеживания повторов

Что не работает: распространённые заблуждения

«Достаточно один раз пожаловаться — OpenAI всё исправит.» Нет. Провайдеры принимают жалобы, но не гарантируют быстрого исправления. Циклы переобучения занимают месяцы.

«Если закрыть сайт от ботов, AI перестанет говорить о нас плохо.» Закрытие от ботов уберёт вас из будущих ответов, а не исправит текущие. Если у модели уже есть ошибочные данные, запрет сканирования их не сотрёт.

«Нужно опубликовать один большой текст с опровержением.» Один текст работает слабее, чем несколько согласованных источников. Нужен консенсус: сайт, PR, каталоги, медиа — все говорят одно и то же.

«Это разовая проблема, мониторинг не нужен.» Галлюцинации цикличны. Без систематической проверки вы не узнаете о рецидиве вовремя.


Итог: рабочий порядок действий

Правда об AI-репутации неудобна: нет кнопки «удалить», нет гарантированного срока, нет единого решения. Но есть система:

  1. Детектировать — ежедневный мониторинг через GEO Scout по всем провайдерам
  2. Зафиксировать — скриншот, промпт, модель, timestamp
  3. Репортить — жалоба в официальный канал провайдера с корректными фактами
  4. Исправить источники — сайт, СМИ, Wikipedia, каталоги
  5. Технически ограничить — robots.txt и noai для устаревших страниц
  6. Контролировать повторы — мониторинг возврата галлюцинации

Если тема репутации в AI для вас новая, начните с бесплатного тарифа на geoscout.pro — 3 промпта в 3 нейросетях без привязки карты. Этого достаточно, чтобы проверить, что именно сейчас говорят AI о вашем бренде.

Смежные материалы для углублённой работы:

Частые вопросы

Можно ли удалить ложную информацию о бренде из ChatGPT напрямую?
Прямого механизма удаления нет — ChatGPT не работает как база данных с кнопкой "удалить". Однако OpenAI принимает жалобы через форму report-content. Параллельно нужно работать с источниками: исправить страницы, публикации в СМИ и Wikipeida, чтобы при следующем обновлении модели новые данные вытеснили ошибочные.
Что такое галлюцинация AI применительно к бренду?
Это ситуация, когда нейросеть генерирует фактически неверную информацию о вашем бренде: несуществующие продукты, неверные цены, выдуманные кейсы, перепутанные персоны. Галлюцинация — следствие неточности в обучающих данных или их устаревания, а не целенаправленная атака.
Как быстро OpenAI реагирует на жалобы о некорректной информации?
OpenAI не даёт публичных SLA по content report. Типичный ответ — 5-15 рабочих дней для подтверждения получения. Фактическое исправление зависит от цикла обновления модели, который может занять несколько месяцев. Именно поэтому параллельная работа с первоисточниками критична.
Помогает ли robots.txt запретить AI-ботам сканировать сайт?
Частично и с задержкой. Директива User-agent: GPTBot disallow: / остановит новые сканирования, но не изменит то, что модель уже выучила. Эффект проявится только после переобучения. Более быстрый результат даёт исправление источников, которые AI реально цитирует.
Что делать, если AI путает наш бренд с другой компанией?
Это один из самых сложных случаев. Нужно подать жалобу через официальные каналы, усилить отличительные характеристики бренда на сайте (уникальный дескриптор, юрлицо, год основания, отрасль), и создать серию материалов, чётко разграничивающих компании.
Работает ли тег noai для исправления уже существующих ошибок в AI?
Нет. Мета-тег <meta name="robots" content="noai"> и директивы в ai.txt предотвращают будущее сканирование, но не исправляют знания, которые модель уже усвоила. Их стоит использовать в связке с активной работой по источникам.
Как понять, что галлюцинация о бренде вернулась после исправления?
Только через систематический мониторинг. GEO Scout ежедневно запрашивает ответы от 10 AI-провайдеров по вашим промптам, анализирует тональность и выделяет потенциально негативные или фактически неверные формулировки. Когда галлюцинация возвращается, система фиксирует её раньше, чем её увидит клиент.