phpbb 3.3. Создание файлов robot и sitemap для чайников

Здесь обсуждается форумный движок phpBB различных версий. В дальнейшем, если понадобится, форум будет вынесен в отдельный подраздел и разбит на категории.
Ответить
Timur_N
Интересующийся
Сообщения: 21
meble kuchenne PL this is the official website
Зарегистрирован: 25 май 2020, 22:08

phpbb 3.3. Создание файлов robot и sitemap для чайников

Сообщение Timur_N »

Добрый день!
Скажите, пожалуйста, как правильно создать файлы robot и sitemap дя моего форума?
Не силен в этом. Буду Вам благодарен, если напишите полный текст файла robot и подскажите как правильно сгенерировать sitemap.
Насколько понимаю их нужно выложить в корневую директорию форума на хостинге?

Аватара пользователя
DesignerMix
Администратор
Администратор
Сообщения: 6815
Зарегистрирован: 25 апр 2014, 10:51
Откуда: Белгород
Контактная информация:

phpbb 3.3. Создание файлов robot и sitemap для чайников

Сообщение DesignerMix »

Timur_N писал(а):
21 июн 2020, 18:04
Буду Вам благодарен, если напишите полный текст файла robot
Меня например устраивает мой файл robotx.txt, можете у меня скопировать, или же посмотреть на аналогичных форумах.
Timur_N писал(а):
21 июн 2020, 18:04
как правильно сгенерировать sitemap.
Я когда-то пользовался расширением sitemap generator, но оно сейчас не поддерживает новую версию движка вроде как, так что пока что без карт сайта обхожусь.
Timur_N писал(а):
21 июн 2020, 18:04
Насколько понимаю их нужно выложить в корневую директорию форума на хостинге?
Robots.txt да, sitemap тоже вроде как да, но то расширение использовало переадресацию и физически карта сайта лежала не в корне.

Timur_N
Интересующийся
Сообщения: 21
Зарегистрирован: 25 май 2020, 22:08

phpbb 3.3. Создание файлов robot и sitemap для чайников

Сообщение Timur_N »

Добрый день!

Скажите, пожалуйста, как скопировать Ваш файл robot.txt ? Не силен в этом. Спасибо заранее!
Можете приложить как вложение?

Аватара пользователя
DesignerMix
Администратор
Администратор
Сообщения: 6815
Зарегистрирован: 25 апр 2014, 10:51
Откуда: Белгород
Контактная информация:

phpbb 3.3. Создание файлов robot и sitemap для чайников

Сообщение DesignerMix »

https://dmyt.ru/robots.txt

Открываете ссылку, копируете текст, создаете текстовый документ с именем robots.txt и вставляете текст в него.

Аватара пользователя
Tag095
Новичок
Сообщения: 18
Зарегистрирован: 13 янв 2020, 21:22

phpbb 3.3. Создание файлов robot и sitemap для чайников

Сообщение Tag095 »

Можно и без карты сайта (или сделать ее статичной, в простом блокноте :D ), подключаете метрику (тут в закрепе есть) и делаете через яндекс-вебмастер обход по счетчикам. Так страницы будут быстрее залетать в поиск)

Green
Новичок
Сообщения: 1
Зарегистрирован: 27 июн 2021, 23:02

phpbb 3.3. Создание файлов robot и sitemap для чайников

Сообщение Green »

DesignerMix писал(а):
05 авг 2020, 08:39
https://dmyt.ru/robots.txt

Открываете ссылку, копируете текст, создаете текстовый документ с именем robots.txt и вставляете текст в него.
Здравствуйте! Извиняюсь за вопрос,а ваш robots.txt подходит для всех форумов?
Что в нем конкретно нужно редактировать?

Дело в том,что у меня есть sitemap, а robots.txt нет.И в последнее время я наблюдаю дубли страниц в яндексе и плохое индексирование.
Я совершенно недавно начала осваивать работу с форумами,и надеюсь на вашу помощь.Заранее спасибо.

Аватара пользователя
DesignerMix
Администратор
Администратор
Сообщения: 6815
Зарегистрирован: 25 апр 2014, 10:51
Откуда: Белгород
Контактная информация:

phpbb 3.3. Создание файлов robot и sitemap для чайников

Сообщение DesignerMix »

Нет, для всех не подходит. У яндекса есть отличный гайд по robots.txt, начните с него

Аватара пользователя
DesignerMix
Администратор
Администратор
Сообщения: 6815
Зарегистрирован: 25 апр 2014, 10:51
Откуда: Белгород
Контактная информация:

phpbb 3.3. Создание файлов robot и sitemap для чайников

Сообщение DesignerMix »

Green, в общем буквально после вашего вопроса получил в "яндекс вебмастере" уведомление о дублях страниц на сайте, например у страниц:
https://dmyt.ru/forum/viewtopic.php?f=51&p=23278
https://dmyt.ru/forum/viewtopic.php?p=23278
одинаковый контент (ведут в одно и то же место), в связи с этим пришлось заняться этим вопросом и вот что сделал:

Код: Выделить всё

User-agent: Yandex
Disallow:
Clean-param: style&ver /forum/
Clean-param: view forum/app.php/dlext/details
Clean-param: f forum/viewtopic.php
Clean-param: sid /forum/index.php
Clean-param: sid /forum/viewforum.php
Clean-param: sid /forum/viewtopic.php

Host: dmyt.ru

Sitemap: https://dmyt.ru/forum/sitemap.xml
Директива clean-param убирает для робота яндекса параметры адресной строки указанные за двоеточием. То, что я сформировал будет и для вас работать, но например у вас наверное нет расширения файлового архива, поэтому эту строку можете убрать.

Да, остальные директивы я закомментировал так как вроде как они уже не актуальны. Что касается дублей страниц в google - там можно зайти в google webmaster -> прежние инструменты и отчеты -> Параметры URL и задать там аналогичные параметры. Надеюсь это вам было полезно.

Ответить

Вернуться в «Движок phpBB»