Если вы только что запустили сайт, и не хотите ждать пока сайт закешируется естественным образом:
- С посещениями страниц сайта
- С обходом поисковых роботов
А хотите сразу же ускорить сайт, просто обойдя все страницы. Можно воспользоваться таким способом:
Запускаем виртуальную машину, на любом unix дистрибутиве (как вариант, если сайт и так на сервере, можно прямо на этом же)
и в терминале выполняем команду:
wget -r --spider test.site http://адрес.ru
Таким образом, вы по сути, обойдете весь сайт и битрикс создаст кеши посещенных страниц.
Злоупотреблять конечно же не стоит, но иногда нужно и такое )
Вариация с использованием UserAgent
wget -r -k -l 7 -p -E -nc --user-agent="Mozilla/5.0 (Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/5З7.З6 (KHTML, like Gecko) Chrome/55.0.288З.75 Safari/5З7.З6" http://ВАШСАЙТ.ru
КЛЮЧИ
--spider - Не сохранять сайт в файлы
-r — указывает на то, что нужно рекурсивно переходить по ссылкам на сайте, чтобы скачивать страницы.
-k — используется для того, чтобы wget преобразовал все ссылки в скаченных файлах таким образом, чтобы по ним можно было переходить на локальном компьютере (в автономном режиме).
-p — указывает на то, что нужно загрузить все файлы, которые требуются для отображения страниц (изображения, css и т.д.).
-l — определяет максимальную глубину вложенности страниц, которые wget должен скачать (по умолчанию значение равно 5, в примере мы установили 7). В большинстве случаев сайты имеют страницы с большой степенью вложенности и wget может просто «закопаться», скачивая новые страницы. Чтобы этого не произошло можно использовать параметр -l.
-E — добавлять к загруженным файлам расширение .html.
-nc — при использовании данного параметра существующие файлы не будут перезаписаны. Это удобно, когда нужно продолжить загрузку сайта, прерванную в предыдущий раз.