Для упрощения и ускорения разработки сайта существует множество онлайн-сервисов по генерации файла robots.txt. С их помощью можно быстро создать файл роботс с базовой настройкой правил для поисковых краулеров. Можем рекомендовать к использованию следующие сервисы:
https://pr-cy.ru/robots/
https://tools.seo-auditor.com.ru/robots/
Положительные стороны использования сгенерированных robots.txt:
- Простота. Выставил необходимые параметры, нажал "сгенерировать", получил готовый файл, который тут же можно заливать в корневую директорию на веб-сервере.
- Нет необходимости настраивать кодировку. Скачанный файл будет гарантированно сохранен в UTF-8.
- Исключена возможность ошибки в названии.
- Возможность проверки срабатывания директив файла robots перед скачиванием.
Однако онлайн генерация предполагает лишь первичную настройку и обязательное ручное расширение основываясь на особенностях структуры и движка проекта. Онлайн генератор роботс не сможет провести анализ и дать оценку целесообразности закрытия страниц от поисковых роботов, в этом и заключается ключевой недостаток.