llms.txt для Nuxt: AI crawler readiness для Vue и Nitro
Практический гайд по Nuxt: llms.txt, robots.txt, sitemap, canonical, структурированные данные, SSR, prerendering и логи AI-краулеров.
Nuxt даёт несколько crawler-friendly режимов: SSR, static generation, prerendering, Nitro routes и hybrid rendering. Риск не во фреймворке, а в том, что публичные страницы становятся содержательными только после client-side JavaScript.
Для GEO AI-краулерам нужен понятный путь: discovery, доступ, content, schema и canonical. Затем GEO Scout помогает проверить, меняется ли видимость в ChatGPT, Perplexity, Claude, Gemini и других системах.
Добавьте llms.txt
Статический вариант:
public/llms.txtДинамический вариант через server route:
export default defineEventHandler(event => {
setHeader(event, 'content-type', 'text/plain; charset=utf-8')
return `# Example Nuxt Site
> Публичные product, docs и case-study ресурсы.
## Core pages
- https://example.com/
- https://example.com/features
- https://example.com/pricing
## Docs
- https://example.com/docs
- https://example.com/docs/api
`
})Проверка:
curl -i https://example.com/llms.txtrobots.txt
User-agent: GPTBot
Allow: /
User-agent: ClaudeBot
Allow: /
User-agent: PerplexityBot
Allow: /
User-agent: *
Disallow: /dashboard/
Disallow: /account/
Disallow: /api/
Sitemap: https://example.com/sitemap.xmlЕсли страница помогает покупателю понять продукт, её обычно не нужно блокировать.
Sitemap
Включите:
- homepage;
- feature и use-case pages;
- pricing;
- docs;
- blog posts;
- comparison pages;
- case studies;
- security, privacy и compliance pages.
Не включайте internal search, faceted duplicates, logged-in screens и test URLs.
SSR и prerendering
Практичная архитектура:
/ -> prerender или SSR
/features -> prerender
/pricing -> prerender
/blog/[slug] -> prerender
/docs/[slug] -> prerender
/customers/[slug] -> prerender или SSR
/app/* -> client app behind authПример route rules:
export default defineNuxtConfig({
routeRules: {
'/': { prerender: true },
'/features/**': { prerender: true },
'/blog/**': { prerender: true },
'/docs/**': { prerender: true },
'/app/**': { ssr: false },
},
})Canonical и metadata
useSeoMeta({
title: 'Feature page title',
description: 'Конкретное описание для покупателей и краулеров.',
ogTitle: 'Feature page title',
})
useHead({
link: [{ rel: 'canonical', href: 'https://example.com/features/reporting' }],
})Canonical-путаница вредна для AI search, потому что похожие URL разделяют доказательства.
Structured Data
JSON-LD должен быть в серверном HTML:
useHead({
script: [
{
type: 'application/ld+json',
innerHTML: JSON.stringify({
'@context': 'https://schema.org',
'@type': 'SoftwareApplication',
name: 'Example SaaS',
applicationCategory: 'BusinessApplication',
url: 'https://example.com',
}),
},
],
})Добавляйте FAQPage, Article, BreadcrumbList и Organization там, где они соответствуют видимому контенту.
Проверка логов
После релиза смотрите:
- user agent;
- requested path;
- status code;
- response size;
- cache status;
- redirects;
- blocked routes.
Если краулеры получают маленький shell, Nuxt-сайт ещё не готов. Если они получают 200 и полный HTML на docs, blog и features, база сильнее.
Чеклист
- Опубликовать
/llms.txt. - Разрешить нужных AI-краулеров в
robots.txt. - Сгенерировать XML sitemaps.
- Prerender стабильные публичные страницы.
- Рендерить schema и FAQ в initial HTML.
- Настроить canonical URL.
- Проверить логи и raw HTML.
- Измерять изменения в GEO Scout на geoscout.pro.
Nuxt может быть хорошо crawlable. Главное - сделать публичные знания о продукте явными, стабильными и измеримыми.
Частые вопросы
Как добавить llms.txt в Nuxt?
Достаточно ли Nuxt SSR для AI-краулеров?
Стоит ли prerenderить docs и blog в Nuxt?
Как GEO Scout помогает после внедрения?
Похожие статьи
Checklist AI Crawler Readiness: готов ли сайт к GPTBot, OAI-SearchBot и другим ботам
Технический чек-лист готовности сайта к AI-краулерам: robots.txt, sitemap, SSR, коды ответа, логи, CDN, rate limits, structured data и контент без блокировок.
GEO для Headless CMS: технический чеклист AI-ready content model
Как настроить headless CMS для AI search: structured fields, canonical URL, sitemap, schema, SSR или static rendering и безопасный publishing workflow.
Schema для SaaS features page: structured data для AI-ответов
Технический чеклист schema для SaaS feature pages: SoftwareApplication, FAQPage, BreadcrumbList, Organization, Product-сигналы, canonical URL и server rendering.