Zmiany w algorytmach wyszukiwarki Google – luty/marzec 2017

/ SEO
strategia seo

W ostatnich dwóch miesiącach mieliśmy wiele zamieszania w wynikach wyszukiwania. Część domen zaliczyło duże wzrosty i spadki, a powodem gwałtownych wahań miała być cała zgraja algorytmów Google: Phantom, Świstak oraz tajemniczy Fred. Prześledźmy, co działo się w lutym i marcu w wyszukiwarce.

 

1 luty – Świstak budzi się z zimowego snu

algorytm świstak31 stycznia został przyznany kolejny patent dla Google. Nie byłoby w tym nic podejrzanego, gdyby dzień później nie nastąpiły na świecie gwałtowne zmiany w pozycjach. Zbieżność dat od razu została wyłapana przez amerykańskich internautów, którzy spekulowali o nowym algorytmie nazwanym świstak (groundhoug). Jak kolejny zwierzak miałby wpływać na pozycje?

Z opisu patentu dowiadujemy się, że Google planuje dogłębnie analizować profil linków prowadzących do domeny. Nowy algorytm pozwalałby na:

  • Określenie jakości linków przychodzących,
  • Zmniejszenie przekazywanej przez nie mocy,
  • Ignorowanie linków przy ustalaniu pozycji serwisu w SERP.

Czym różni się świstak od pingwina, który także piętnuje niskiej jakości odnośniki? Nowy algorytm w nieco inny sposób oceniałby linki. Znaczenie miałby ruch, który został pozyskany dla strony docelowej dzięki linkom przychodzącym. Jeśli wygenerowany ruch byłby zbyt mały w stosunku do ilości odnośników, wtedy świstak obniżałby pozycję domeny w wynikach wyszukiwania. W opisie patentu pojawia się także dwell time, czyli czas spędzony na stronie. Ten parametr również byłby analizowany przez Google podczas ustalania rankingu.

Wahania w wynikach wyszukiwania

Narzędzia analizujące wahania w pozycjach wyszukiwania wskazują gwałtowne zmiany w globalbym rankingu w okresach, w których miał zostać wdrożony Świstak, Phantom V oraz Fred.

Jeśli świstak rzeczywiście istnieje (Google oficjalnie nie potwierdziło wdrożenia nowego algorytmu), to jest groźniejszy niż Pingwin, bo zwraca uwagę na interakcje i zachowania użytkowników, klikających w linki do stron i przechodzących do stron docelowych.

7-8 luty – sieć opanowuje Phantom

PhantomW sieci jeszcze trwały głośne dyskusje o świstaku, kiedy pojawiło się kolejne załamanie w pozycjach. Tym razem sprawcą zamieszania został okrzyknięty tajemniczy Phantom, zwany również Quality Update. Byłaby to już piąta odsłona aktualizacji tego algorytmu. Phantom po raz pierwszy pojawił się w maju 2013 r., następnie dał o sobie znać na przełomie maja i czerwca 2015 roku, niepokoił seowców jeszcze w listopadzie tego samego roku, a rok temu na przełomie czerwca i lipca branża zetknęła się z jego czwartym obliczem.

Phantom jest trudny do zidentyfikowania – eksperci z branży do tej pory nie byli w stanie ustalić schematu, na podstawie którego algorytm rankinguje witryny w wynikach wyszukiwania. Jednak udało się wyodrębnić kilka wspólnych cech zawirowań w pozycjach, które wskazują na Phantoma:

  • Powoduje spadki lub wzrosty konkretnych katalogów, podstron, ale nie wpływa na całą domenę,
  • Spadki w pozycjach zaliczają serwisy pozycjonowane na brandowe i krótkie frazy,
  • Zmiany w pozycjach obserwowane są przez kilka tygodni – algorytm nie jest wdrożony z dnia na dzień,
  • Znaczenie mają czynniki związane z zaangażowaniem użytkowników na stronie,
  • Premiowane są serwisy z treścią wysokiej jakości.

Czy możemy więc mówić o nowym Phantomie? Wiele na to wskazuje. Serwis Searchmetrics przeanalizował pozycje portali, których pozycje przy poprzednich aktualizacjach tego algorytmu uległy gwałtownym zmianom. 7 lutego te witryny odnotowały kolejne duże spadki lub wzrosty w wynikach wyszukiwania.

algorytm Phantom

Źródło: http://blog.searchmetrics.com/us/2017/02/15/google-phantom-5-update/

Google oficjalnie nie potwierdziło Phantoma V, ale Gary Illyes kilka dni po burzy w wyszukiwarce przypomniał użytkownikom o wskazówkach jakościowych, którymi kierują się pracownicy Quality Team podczas oceny stron. Przypadek? Być może, ale większość internautów nie wierzy w takie zbiegi okoliczności.

 

 

9 marca – tajemniczy Fred pojawia się w SERP

W drugim tygodniu marca znów zaobserwowaliśmy ponadprzeciętne wahania w pozycjach. Ucierpiały przede wszystkim portale nasycone treściami o niskiej jakości. Seowcy spekulowali na temat kolejnej aktualizacji, zaczepiając na Twitterze pracowników Google w nadziei na otrzymanie oficjalnej informacji. Mueller i Illyes potwierdzili jedynie, że zmiany w wyszukiwarce są wprowadzane codziennie. Gary zażartował, że każdą kolejną aktualizację użytkownicy mogą określać jako „Fred”.

 

 

Seowcy podchwycili nazwę i już po chwili w sieci pojawiły się wpisy o nowym algorytmie – Fredzie. Wokół rzekomego update’u urosło już wiele teorii, nierzadko rozbieżnych i niejasnych. Fred miałby przede wszystkim piętnować:

  • Słabe zaplecza,
  • Private Blog Networks – zamknięte sieci blogów,
  • Serwisy z treścią o niskiej wartości zarabiające na udostępnianiu treści reklamowej.

Pojawiły się opinie, że algorytm nastawiony jest przede wszystkim na analizowanie jakości serwisów. Oznaczałoby to, że z wysokich wyników wyszukiwania wypadną portale, które publikują artykuły zawierające nie wartościowe, a nawet nieprawdziwe informacje. Treści pełnią tutaj rolę „wypełniacza”, a prawdziwym celem strony jest zamieszczenie reklam i skłonienie użytkowników do kliknięcia w baner lub link.

Zmiany w SERP

Senuto nie wskazuje na duże zmiany w poskich wynikach wyszukiwaniach w okresie 31.01-01.02., kiedy to miał zostać wdrożony algorytm Świstak.

Fred byłby więc połączeniem kilku algorytmów – Pandy, Pingwina, a nawet RankBrain. Użyteczność serwisu dla użytkownika stałaby się wyznacznikiem wysokiej pozycji w rankingu Google.

Zmiany w wyszukiwarce luty/marzec 2017– co wiemy na pewno?

GoogleGoogle nie potwierdziło wdrożenia żadnego z powyższych algorytmów. Przyczyny wahań w pozycjach pozostają nadal obszarem spekulacji seowców. Musimy jednak pamiętać, że podczas ostatniej aktualizacji Pingwina Gary Illyes wspomniał, że zmiany w wyszukiwarce nie będą już oficjalnie komunikowane.

Jakie jest nasze zdanie na wahania w pozycjach w lutym i w marcu? Zauważyliśmy, że:

  • Wysokie pozycje osiągają strony, które są systematycznie rozbudowywane – dodawane są nowe treści, podstrony,
  • Przewagę zyskują serwisy wyczerpujące temat – zawierające dużo artykułów, wpisów, aktualności z danego zakresu tematycznego,
  • Ważna jest specjalizacja witryny – publikowanie treści ściśle powiązanych z daną działalnością, stosowanie wyrażeń związanych z prowadzonym biznesem,
  • Liczy się adekwatność treści do zapytania użytkownika – coraz większe znaczenie zyskują frazy z długiego ogona, czego dowodem jest pojawienie się boksów direct answer,
  • Wartość dodaną stanowi też bogata oferta serwisu,
  • Niezmiennie ważna jest przemyślana i bieżąca optymalizacja zawartości serwisu (treści, metatagi Title, media, linkowanie wewnętrzne).

Bez względu na to, czy w ubiegłych miesiącach zetknęliśmy się z aktualizacją algorytmów, należy zwrócić uwagę na pewien trend. Wysokiej jakości treści, które zaspokajają potrzeby informacyjne użytkowników, to jeden z najważniejszych elementów analizowanych przez Google podczas rankingowania serwisów. Pisz ciekawe, wyczerpujące i absorbujące teksty, a z pewnością algorytmy wyszukiwarki to docenią.

Najnowsze artykuły na blogu:
Uczestniczyliśmy w konferencji Google Marketing Live 2019 r. Oto kilka naszych słów o nowościach,...
Lead scoring (kwalifikacja leadów) pomaga zoptymalizować pracę działu handlowego. Dowiedź się, jak...
Zastanawiasz się, jak poprawić skuteczność i współczynnik konwersji na kolejnych etapach ścieżki...
Google przoduje na rynku wyszukiwarek. Czy Chrome może pochwalić się tak samo wysoką pozycją wśród...
Chcesz zaistnieć na Instagramie? Sprawdź nasze sposoby na zdobycie nowych followersów i...