Файл llms.txt — это относительно новый стандарт, разработанный как аналог robots.txt, но предназначенный специально для регулирования доступа моделей ИИ (LLMs — Large Language Models) к содержимому сайтов. Он создаётся владельцами сайтов и размещается в корневом каталоге (например, example.com/llms.txt) с целью указать нейросетям, какие страницы можно или нельзя использовать для обучения, индексации или генерации ответов.
Файл llms.txt служит этическим и техническим инструментом, позволяющим авторам контента контролировать, как их материалы используются ИИ-системами, особенно такими, как ChatGPT, Claude, Gemini и другими. Принцип работы такой же, как у robots.txt: ИИ-модели, соблюдающие стандарты, прочитают этот файл перед доступом к сайту и выполнят указанные ограничения.
В WordPress уже появились плагины, которые генерируют файл llms.txt Можете посмотреть пример
Таким образом, llms.txt становится важным элементом информационной гигиены и авторского контроля в эпоху ИИ.
Я работаю в интернете с 2010 года. Первая специализация — SEO, продвинул и оптимизировал более 200 проектов. С 2017 года увлечен программированием.