AI crawler logs в Vercel: как отладить GEO-доступ
Как использовать Vercel logs и headers для проверки GPTBot, ClaudeBot, PerplexityBot, Googlebot, Bingbot, robots.txt, redirects, rendering и AI crawler readiness.
AI crawler readiness нельзя считать завершённой, пока логи не подтвердят, что боты получают полезные страницы. Sitemap может быть валидным, robots.txt может выглядеть правильно, но если GPTBot или ClaudeBot получает 403, 404, redirect loop или thin HTML, GEO-основа слабая.
Используйте Vercel logs как технический truth layer, а GEO Scout - как слой измерения видимости.
User agents
Начните с:
GPTBot
ClaudeBot
PerplexityBot
Googlebot
Bingbot
Google-Extended
ApplebotЧасть AI-ответов опирается на search indexes, поэтому классические search bots тоже важны.
Что смотреть
Для каждого crawler request фиксируйте:
- timestamp;
- user agent;
- path;
- status code;
- response size;
- redirect target;
- cache status;
- country или edge region;
- middleware decision;
- final canonical URL.
Главный вопрос не "приходил ли бот", а "получил ли бот те же публичные знания, что и покупатель".
Middleware logging
Для короткого debugging window можно логировать выбранных ботов:
import { NextResponse, type NextRequest } from 'next/server'
const BOT_PATTERN = /(GPTBot|ClaudeBot|PerplexityBot|Googlebot|Bingbot)/i
export function middleware(request: NextRequest) {
const ua = request.headers.get('user-agent') ?? ''
if (BOT_PATTERN.test(ua)) {
console.log(
JSON.stringify({
type: 'ai-crawler',
ua,
path: request.nextUrl.pathname,
url: request.nextUrl.href,
ts: new Date().toISOString(),
})
)
}
return NextResponse.next()
}Не логируйте sensitive data, cookies, authorization headers или private user content.
Status code triage
| Status | Значение | GEO action |
|---|---|---|
| 200 | Page accessible | Проверить HTML и schema |
| 301/308 | Redirect | Один hop до canonical |
| 401/403 | Blocked | Проверить auth, WAF, bot rules, middleware |
| 404 | Missing | Исправить sitemap, slug или redirects |
| 429 | Rate limited | Настроить bot protection |
| 5xx | Server issue | Исправить rendering, timeouts или edge errors |
Проверка robots.txt и llms.txt
curl -A "GPTBot/1.0" -i https://example.com/robots.txt
curl -A "GPTBot/1.0" -i https://example.com/llms.txt
curl -A "GPTBot/1.0" -i https://example.com/sitemap.xmlЗатем money page:
curl -A "GPTBot/1.0" -s https://example.com/features/reporting | head -80Если ответ состоит в основном из scripts и empty root, сначала чините rendering.
Vercel pitfalls
- Middleware блокирует bots как unknown user agents.
- Preview deployments случайно попадают в sitemap.
x-robots-tag: noindexнаследуется от route group.- Static pages кешируются, но dynamic pages timeout для crawlers.
- Rewrites создают разные URL для humans и bots.
- Bot protection блокирует AI crawlers, которых вы хотели разрешить.
- Canonical URL ведут на old domains или staging.
Связь логов с GEO metrics
Логи отвечают:
- могут ли crawlers дойти до страницы;
- какие pages они запрашивают;
- есть ли blocks;
- получают ли useful HTML.
GEO Scout отвечает:
- появляется ли бренд в AI-ответах;
- какие конкуренты появляются вместо него;
- какие sources цитируются;
- изменились ли mentions после технического fix.
Используйте geoscout.pro после исправления логов, чтобы отслеживать prompt-level movement. Technical access - база, но AI visibility - business metric.
Debugging checklist
/robots.txt,/llms.txtи/sitemap.xmlвозвращают 200.- Логи фильтруются по AI и search user agents.
- Проверены status codes и redirect chains.
- Raw HTML сравнен для bot и normal user agent.
- JSON-LD есть в initial response.
- Accidental blocks удалены из middleware или WAF.
- AI mentions и citations отслеживаются после recrawl.
Если crawler не может чисто получить страницу, он не сможет надёжно использовать её как evidence.
Частые вопросы
Можно ли увидеть AI crawler traffic в Vercel?
Какие user agents проверять?
Какая самая частая GEO-проблема в Vercel?
Как GEO Scout дополняет логи?
Похожие статьи
Checklist AI Crawler Readiness: готов ли сайт к GPTBot, OAI-SearchBot и другим ботам
Технический чек-лист готовности сайта к AI-краулерам: robots.txt, sitemap, SSR, коды ответа, логи, CDN, rate limits, structured data и контент без блокировок.
IndexNow для Next.js: ускорение discovery для AI Search и Bing Copilot
Как внедрить IndexNow в Next.js для новых и обновлённых страниц: API routes, keys, sitemap, canonical URL и измерение GEO.
llms.txt для Next.js: технический чеклист AI crawler readiness
Как добавить llms.txt, robots.txt, sitemap, canonical, структурированные данные и серверный рендеринг в Next.js для AI-краулеров.