Почему в карте сайта мало ссылок?

Енот
Новичек
Регистрация
14 Янв 2018
Сообщения
109
#1
И ещё вот такая проблема. После перехода на https яндекс перестаёт видеть robots.txt
https://prnt.sc/i03716
А google просканировал sitemap и вышло всего около 40 тысяч страниц, но у меня как мне кажется больше должно же быть. 135.000 фильмов и всего 40 тысяч страниц?
https://prnt.sc/i0378p
Потом посмотрите
Вот мои настройки которые я сделал только что посмотрев в интернете
https://prnt.sc/i038h8
А вот что показывает гугл. Он хочет чтобы я внём эти настройки, но там же блокируетчся доступ к жанрах, актёрам и т.д. Это разве правильно?
https://prnt.sc/i038om
https://prnt.sc/i038rx
 
Думает, что помогает
Регистрация
15 Дек 2017
Сообщения
1,756
#2
И ещё вот такая проблема. После перехода на https яндекс перестаёт видеть robots.txt
https://prnt.sc/i03716
А google просканировал sitemap и вышло всего около 40 тысяч страниц, но у меня как мне кажется больше должно же быть. 135.000 фильмов и всего 40 тысяч страниц?
https://prnt.sc/i0378p
Потом посмотрите
Вот мои настройки которые я сделал только что посмотрев в интернете
https://prnt.sc/i038h8
А вот что показывает гугл. Он хочет чтобы я внём эти настройки, но там же блокируетчся доступ к жанрах, актёрам и т.д. Это разве правильно?
https://prnt.sc/i038om
https://prnt.sc/i038rx
1. Сайт добавлять в вебмастер с https;
2. Опубликовано 40к, просканировано 40к;
3. https://cinemapress.org/admin/codes.html#robots
4. Изучайте - https://support.google.com/webmasters/answer/6062608?hl=ru
 
Енот
Новичек
Регистрация
14 Янв 2018
Сообщения
109
#3
Пишет о наличие 3 ошибок http://prntscr.com/i0fv9z
Вот ещё пример. У меня на сайте 135.000 фильмов и соответственно должно быть столько же страниц, но гугл просканировал всего 40.000 стр. и роиндексировал всего 43 страницы. Разве не стр. должны индексироваться? https://prnt.sc/i0fvh7
Вы так и не ответили на последний вопрос. Запретить стоит на жанрах,. актёрах и т.д. Это разве не запрещает гуглу туда заходить? Не должно быть Allow?
 
Енот
Новичек
Регистрация
14 Янв 2018
Сообщения
109
#4
И почему google видит в sitemap только страницы с годами? Он же все страниы должен видеть с каждвм фильмом и т.д.
http://prntscr.com/i0ge93
 
Думает, что помогает
Регистрация
15 Дек 2017
Сообщения
1,756
#6
Фильмы были опубликованы и проиндексированы, потом Вы внесли изменения в разделе Публикация, фильмы убрались из публикации, следовательно 404 ошибка.
Вот ещё пример. У меня на сайте 135.000 фильмов и соответственно должно быть столько же страниц, но гугл просканировал всего 40.000 стр. и роиндексировал всего 43 страницы. Разве не стр. должны индексироваться? https://prnt.sc/i0fvh7
Да.
Вы так и не ответили на последний вопрос. Запретить стоит на жанрах,. актёрах и т.д. Это разве не запрещает гуглу туда заходить? Не должно быть Allow?
Нет. По ссылке выше написано, как правильно открывать индексирование в robots.txt
И почему google видит в sitemap только страницы с годами? Он же все страниы должен видеть с каждвм фильмом и т.д.
http://prntscr.com/i0ge93
Изучайте, что такое Несколько индексов SItemap.
В яндексе вообще 56 страниц sitemap обнаружил. Это правильно если у меня куча страниц?
http://prntscr.com/i0h7lz
Да.