Нужно заменить на сайте стандартную сортировку на таковую при которой не будут создаваться страницы ,а сортировка будет происходить на уже открытой странице.
Сейчас в стандартном варианте для страниц сортировки создаются страницы типа:
https://site.com/shop/category1/sort3.html + если есть пагинация к тому же страницы типа
https://site.com/shop/category1/sort3/page2.html
Нужно, чтобы сортировка НЕ создавала отдельных урлов, а пагинация так и формировалась как сейчас через добавление page2.html, page3.html и т.д.
То есть в коде страниц не должно быть урлов сортировки.
Устроит вариант динамических урлов для сортировки (то есть как сейчас стандартный фильтр формирует страницы отфильтрованного товара)
У меня тут родилась идея как можно реализовать сортировку без урлов в коде.
(Вариант не идеальный, но свою функцию, думаю, сможет выполнить, а функция - это не показывать в коде урлы сортировки для Гугла, учитівая что скрипт гугл не должен читать)
Сортировка выводится дивом <div class="sort-by by-rate">
Что если сделать вывод урлов в этом диве изначально НЕ через <a href=" а через какой-то <Span> , а потом когда страница загружена поключать скрипт который преобразует для пользователей всё что в <span> в урлі через <a href="
то же самое на при мере одной строчки Выводится
<span class="url-sortirovki">/shop/kategory1/sort1/page2.html">Цена</span> скриптом преобразуется в
<a href="https://site.com.ua/shop/kategory1/sort1/page2.html">Цена</a>
Не подходит.
1) роботс это только рекомендация. гугл не всегда ее придерживается
2) страницы и так закрыты через <meta name="robots" content="noindex, nofollow"> в индекс соотвественно не должны попасть, НО так как по ним гугл может ходить, єто тратит краулинговій бюджет в пустую
Вообще урлов сортировке В идеале в коде страниц сайта НЕ должно быть.
А вот Вам подтверждение того, что был впустую потрачен краулинговый бюджет - http://prntscr.com/kx123t
Гугл ходил по каждому урлу сортировки , соответственно тратил время.
Да с гуглом и ссылками вида site.ru/?2022 /cart?1202 /wishlist?345923 - это больная история. В диафане не хотят проблему сброса кэша решать как-то по другому. Закрывай, не закрывай все это дело в robots.txt - поисковикам абсолютно насрать, но остались еще люди, которые верят в священность robots для поисковых машин.
Прилагаю скрин на что гугл тратит выделенные ресурсы для сайта, а именно на /?40303
В новой сборке совершили революцию в структурировании кастомизированной информации в шаблонах, добавили авторегистрацию пользователей, усовершенствовали защиту от спама, актуализировали накопительную скидку, а также улучшили производительность и стабильность работы системы.
После выхода сборки 7.1 мы выпустили уже три патча, в каждом из которых улучшаем административную часть сайта. Сборка DIAFAN.CMS 7.1.3 уже доступна к установке.