🎯 Бесплатно: первая проверка AI-видимости за 5 минут, затем обновление раз в 7 днейПопробовать →

Блог
3 мин чтения

llms.txt для Nuxt: AI crawler readiness для Vue и Nitro

Практический гайд по Nuxt: llms.txt, robots.txt, sitemap, canonical, структурированные данные, SSR, prerendering и логи AI-краулеров.

llms.txtNuxtVueAI-краулеры
Владислав Пучков
Владислав Пучков
Основатель GEO Scout, эксперт по GEO-оптимизации

Nuxt даёт несколько crawler-friendly режимов: SSR, static generation, prerendering, Nitro routes и hybrid rendering. Риск не во фреймворке, а в том, что публичные страницы становятся содержательными только после client-side JavaScript.

Для GEO AI-краулерам нужен понятный путь: discovery, доступ, content, schema и canonical. Затем GEO Scout помогает проверить, меняется ли видимость в ChatGPT, Perplexity, Claude, Gemini и других системах.

Добавьте llms.txt

Статический вариант:

public/llms.txt

Динамический вариант через server route:

export default defineEventHandler(event => {
  setHeader(event, 'content-type', 'text/plain; charset=utf-8')
 
  return `# Example Nuxt Site
 
> Публичные product, docs и case-study ресурсы.
 
## Core pages
- https://example.com/
- https://example.com/features
- https://example.com/pricing
 
## Docs
- https://example.com/docs
- https://example.com/docs/api
`
})

Проверка:

curl -i https://example.com/llms.txt

robots.txt

User-agent: GPTBot
Allow: /
 
User-agent: ClaudeBot
Allow: /
 
User-agent: PerplexityBot
Allow: /
 
User-agent: *
Disallow: /dashboard/
Disallow: /account/
Disallow: /api/
 
Sitemap: https://example.com/sitemap.xml

Если страница помогает покупателю понять продукт, её обычно не нужно блокировать.

Sitemap

Включите:

  • homepage;
  • feature и use-case pages;
  • pricing;
  • docs;
  • blog posts;
  • comparison pages;
  • case studies;
  • security, privacy и compliance pages.

Не включайте internal search, faceted duplicates, logged-in screens и test URLs.

SSR и prerendering

Практичная архитектура:

/                 -> prerender или SSR
/features         -> prerender
/pricing          -> prerender
/blog/[slug]      -> prerender
/docs/[slug]      -> prerender
/customers/[slug] -> prerender или SSR
/app/*            -> client app behind auth

Пример route rules:

export default defineNuxtConfig({
  routeRules: {
    '/': { prerender: true },
    '/features/**': { prerender: true },
    '/blog/**': { prerender: true },
    '/docs/**': { prerender: true },
    '/app/**': { ssr: false },
  },
})

Canonical и metadata

useSeoMeta({
  title: 'Feature page title',
  description: 'Конкретное описание для покупателей и краулеров.',
  ogTitle: 'Feature page title',
})
 
useHead({
  link: [{ rel: 'canonical', href: 'https://example.com/features/reporting' }],
})

Canonical-путаница вредна для AI search, потому что похожие URL разделяют доказательства.

Structured Data

JSON-LD должен быть в серверном HTML:

useHead({
  script: [
    {
      type: 'application/ld+json',
      innerHTML: JSON.stringify({
        '@context': 'https://schema.org',
        '@type': 'SoftwareApplication',
        name: 'Example SaaS',
        applicationCategory: 'BusinessApplication',
        url: 'https://example.com',
      }),
    },
  ],
})

Добавляйте FAQPage, Article, BreadcrumbList и Organization там, где они соответствуют видимому контенту.

Проверка логов

После релиза смотрите:

  • user agent;
  • requested path;
  • status code;
  • response size;
  • cache status;
  • redirects;
  • blocked routes.

Если краулеры получают маленький shell, Nuxt-сайт ещё не готов. Если они получают 200 и полный HTML на docs, blog и features, база сильнее.

Чеклист

  1. Опубликовать /llms.txt.
  2. Разрешить нужных AI-краулеров в robots.txt.
  3. Сгенерировать XML sitemaps.
  4. Prerender стабильные публичные страницы.
  5. Рендерить schema и FAQ в initial HTML.
  6. Настроить canonical URL.
  7. Проверить логи и raw HTML.
  8. Измерять изменения в GEO Scout на geoscout.pro.

Nuxt может быть хорошо crawlable. Главное - сделать публичные знания о продукте явными, стабильными и измеримыми.

Частые вопросы

Как добавить llms.txt в Nuxt?
Для статического файла положите llms.txt в public. Для динамической версии создайте Nitro server route, который отдаёт text/plain по адресу /llms.txt.
Достаточно ли Nuxt SSR для AI-краулеров?
SSR помогает, но нужны crawlable routes, canonical URL, полезный HTML, structured data, robots.txt и sitemap.
Стоит ли prerenderить docs и blog в Nuxt?
Обычно да. Публичные docs, blog, feature pages, pricing и case studies хорошо подходят для prerendering или аналогичной регенерации через платформу деплоя.
Как GEO Scout помогает после внедрения?
GEO Scout на geoscout.pro отслеживает, начали ли AI-системы упоминать бренд и цитировать Nuxt-страницы, которые стали crawler-ready.