SEO Snippets od Google – wideo poradniki dla webmasterów i seowców

(aktualizacja 10.09.2019) / SEO
seo snippets

Google po raz kolejny edukuje webmasterów. Na kanale YouTube pojawiły się wideo poradniki dotyczące optymalizacji stron internetowych. Każdy z filmików z serii SEO Snippets będzie trwał kilka minut i udzielał odpowiedzi na konkretne pytanie zadane przez użytkowników na oficjalnym forum – Webmaster Central Help Forum.

Szukasz informacji o Rich Snippets? Przeczytaj również:

Tematy poradników SEO Snippets

Wideo poradniki zostaną poświęcone tematom, które najczęściej przewijają się na forum dla webmasterów. Google obiecuje, że wyjaśnione zostaną takie kwestie jak: strony błędu 404, proces indeksowania stron internetowych, struktura adresów URL, duplikacja treści (duplicate content). Głównym prezenterem SEO Snippets został John Mueller, ale możemy spodziewać się, że zobaczymy także pozostałych googlarzy.

Aktualnie seria SEO Snippets obejmuje 5 wideo poradników.

Crawl-delay rule – czy można opóźnić indeksowanie strony?

Mueller tłumaczy, że crawl-delay rule to zamierzchły pomysł innych wyszukiwarek. Celem tej komendy było odciążenie pracy serwera i zapewnienie dostępności strony internetowej. Obecnie nie ma zastosowania, ponieważ serwery pracują znacznie sprawniej niż kilkadziesiąt lat temu, a Google „obserwując” ich wydajność, wybiera najlepszy moment na indeksowanie serwisu. W pliku robots.txt warto natomiast wskazać podstrony, które w ogóle nie powinny znaleźć się w indeksie wyszukiwarki.

Subdomena czy katalog – co jest lepsze pod SEO?

John po raz kolejny stwierdził, że dla Google nie ma większego znaczenia, czy np. blog firmowy postawimy na subdomenie, czy w katalogu. Aby zapewnić dobre efekty SEO, każdą subdomenę należy zweryfikować w Search Console oraz indywidualnie badać ruch, stosując odrębne kody śledzenia Google Analytics. Dzięki temu Google nauczy się, aby indeksować każdą subdomenę osobno.

Czy nagłówek H1 może wystąpić kilka razy na danej podstronie?

Nagłówek H1 tradycyjnie wykorzystywany był do wskazania głównego tematu podstrony. Jednak HTML5 umożliwia kilkukrotne stosowanie znacznika H1 w obrębie strony, np. do oznaczenia jej poszczególnych sekcji. Dla Google obecność wielu H1, o ile jest to uzasadnione strukturą podstrony, nie stanowi większego problemu.

Jak odzyskać dostęp do Search Console?

Konto w Search Console założy nie tylko właściciel strony internetowej – jeśli powierzymy informatykowi lub agencji SEO dostępy do serwisu, będą mogli poprawnie przeprowadzić weryfikację usługi. Z biegiem czasu może zdarzyć się tak, że zapomnimy login i hasło do narzędzia. Jak je odzyskać? Mueller radzi, aby założyć nowe konto i je zweryfikować. W ten sposób uzyskamy dostęp do danych o stronie, sprawdzimy, kto ma uprawnienia do zarządzania usługą i usuniemy niepożądanych użytkowników.

Jak Google reaguje na serwisy, które wyszły z filtra ręcznego lub algorytmicznego?

W przypadku gdy zespół ds. spamu wykryje na naszej stronie praktyki niezgodne ze wskazówkami dla webmasterów, nałoży karę na serwis. W Search Console pojawi się stosowny komunikat, a pozycje witryny w wynikach wyszukiwania najprawdopodobniej ulegną pogorszeniu. Jeśli zareagujemy na filtr, rozwiążemy przyczynę problemu i zgłosimy prośbę o ponowne rozpatrzenie sprawy, pracownicy Google po przeanalizowaniu strony wyłączą filtr ręczny.

Jednak powrót na uprzednio zajmowane miejsce w wyszukiwarce może trochę zająć. Nie będzie to wina algorytmów Google, ale np. konkurencyjnych witryn, które w czasie trwania naszej „kary” aktywnie działały i umacniały swoją pozycję w wynikach wyszukiwania. Widoczność firmy w internecie zmienia się cały czas, dlatego należy być aktywnym i rozwijać stronę internetową.

Jak często strony internetowe są ponownie indeksowane przez wyszukiwarkę Google?

Zmiany wprowadzane na stronach internetowych nie są od razu indeksowane przez Google. Roboty wyszukiwarki każdego dnia analizują ściśle określoną liczbę witryn internetowych, ponieważ wyszukiwarka ma ograniczone możliwości. Narzucone limity indeksowania powodują konieczność nadawania priorytetów stronom, które zostaną przeskanowane przez Googleboty. W pierwszej kolejności crawlowane są najważniejsze witryny, by użytkownik miał dostęp do najnowszych informacji.

Z kolei w obrębie witryny pierwszeństwo w indeksowaniu otrzymuje strona główna oraz najważniejsze kategorie serwisu. Zdaniem Muellera to właśnie tam Googleboty mogą znaleźć linki wewnętrzne prowadzące do najnowszych treści.

Zapamiętaj: najczęściej crawlowana przez Googleboty jest strona główna. Jeśli umieścisz na niej odnośniki do najnowszych artykułów, ułatwisz robotom wyszukiwarki indeksowanie świeżego contentu.

Dlaczego liczba stron indeksowanych w Search Console różni się od liczby wyświetlanej w Google.com?

Internauci byli ciekawi, dlaczego liczba zaindeksowanych stron dostępna w Search Console różni się od wartości wskazywanej przez wyszukiwarkę Google podczas wyszukiwania za pomocą komendy site. Mueller zwrócił uwagę, że nasza strona może generować praktycznie nieskończoną liczbę adresów URL – zawartość podstrony może być taka sama, ale użycie określonych filtrów spowoduje pojawienie się parametrów w adresie. A że wyszukiwarka takie URL-e jak domena.pl i domena.pl/ traktuje jako różne, więc tego rodzaju kombinacje zwiększają site strony w wyszukiwarce.

Aby sprawdzić wiarygodne dane dotyczące zaindeksowanych stron przez wyszukiwarkę Google, należy skorzystać z:

  • Raportu Stan indeksowania w Search Cosnole,
  • Statystyk zaindeksowanych podstron w zakładce Mapy witryn.

Informacje dostępne w powyższych zestawieniach mogą się od siebie różnić. Rozbieżności mogą wynikać z tego, że Google znajdzie dodatkowe adresy URL, których nie zgłosiliśmy w sitemapie.

Co zrobić ze stronami błędu 404?

Nieistniejące adresy URL pojawiają się w Search Console jako błędy indeksowania. Jeśli generują znaczny ruch lub prowadzi do nich dużo odnośników z innych serwisów, warto je przekierować na inne podstrony serwisu internetowego. Jednak samo występowanie stron błędu 404 (page not found) nie szkodzi witrynie, ponieważ spełniają rolę informacyjną i wskazują brak określonej treści w serwisie.

Czy można stosować polskie znaki w adresach URL?

Przyjęło się, że tworząc przyjazne adresy URL, lepiej unikać stosowania polskich znaków. Jednak jeśli zadbamy o odpowiednie kodowanie, np. UTF-8, Google poradzi sobie z poprawnym zaindeksowaniem adresu URL. Mueller doradza, aby:

  • Nie stosować spacji,
  • Nie umieszczać przecinków,
  • A poszczególne wyrazy oddzielać myślnikiem a nie podkreślnikiem.

W przypadku gdy w serwisie jest kilka wersji językowych i chcemy korzystać z liter charakterystycznych dla danego języka, pamiętajmy, aby przygotować odpowiednie i poprawne adresy URL.

Czy usunięcie .html z adresu URL pomoże w pozycjonowaniu strony?

Adresy URL są istotne dla wyszukiwarek, ponieważ pozwalają zidentyfikować content, który znajduje się na poszczególnych podstronach. Roboty indeksujące nie zwracają jednak uwagę na samą zawartość linku, a tym bardziej na jego „zakończenie”. Dla Google nie ma znaczenia, czy URL kończy się wyrażeniem .html, .php czy .index.

Jeśli jednak zdecydujesz się na zmianę adresacji, pamiętaj o wdrożeniu przekierowań i wskazaniu robotom, gdzie znajduje się dana treść. Przeideksowanie całego serwisu zajmie trochę czasu, więc nie modyfikuj URL-i zbyt często – radzi Mueller.

Jak dodać sitemapę zawierającą więcej niż 50 tys. adresów URL?

Sitemapa to plik zawierający adresy URL przesyłane do indeksacji. Google ogranicza liczbę linków, które można zgłosić, do 50 tys. rekordów. Jeśli jednak strona jest rozbudowana, nie ma problemu, aby za pomocą Google Search Console zgłosić kilka sitemap albo zbiorczą sitemapę dla wszystkich sitemap (tzw. sitemap index file).

Chcesz wiedzieć więcej  o tym, jakie techniki SEO są na czasie, a jakie przeszły już do historii? Posłuchaj naszego webinaru o mitach SEO.

Najnowsze artykuły na blogu:
Gallery Ads to najnowszy typ reklam w Google Ads. Czy reklamy z galerią są już dostępne na Twoim...
Chciałbyś dowiedzieć się, jak poprawić użyteczność strony internetowej? Wypróbuj nagrywanie sesji...
Zewnętrzna duplikacja treści zagraża pozycjom serwisu w wynikach wyszukiwania. Specjalnie dla...
Skorzystaj z naszej instrukcji zakładania konta w Menedżerze Reklam, by rozpocząć płatną promocję...
Google ciągle jest najpopularniejszą wyszukiwarką na świecie. Prawie 98% użytkowników korzysta z...