Zmiany w algorytmach wyszukiwarki Google – luty/marzec 2017

| czas czytania: 5 min | SEO
strategia seo

W ostatnich dwóch miesiącach mieliśmy wiele zamieszania w wynikach wyszukiwania. Część domen zaliczyło duże wzrosty i spadki, a powodem gwałtownych wahań miała być cała zgraja algorytmów Google: Phantom, Świstak oraz tajemniczy Fred. Prześledźmy, co działo się w lutym i marcu w wyszukiwarce.

 

1 luty – Świstak budzi się z zimowego snu

algorytm świstak31 stycznia został przyznany kolejny patent dla Google. Nie byłoby w tym nic podejrzanego, gdyby dzień później nie nastąpiły na świecie gwałtowne zmiany w pozycjach. Zbieżność dat od razu została wyłapana przez amerykańskich internautów, którzy spekulowali o nowym algorytmie nazwanym świstak (groundhoug). Jak kolejny zwierzak miałby wpływać na pozycje?

Z opisu patentu dowiadujemy się, że Google planuje dogłębnie analizować profil linków prowadzących do domeny. Nowy algorytm pozwalałby na:

  • Określenie jakości linków przychodzących,
  • Zmniejszenie przekazywanej przez nie mocy,
  • Ignorowanie linków przy ustalaniu pozycji serwisu w SERP.

Czym różni się świstak od pingwina, który także piętnuje niskiej jakości odnośniki? Nowy algorytm w nieco inny sposób oceniałby linki. Znaczenie miałby ruch, który został pozyskany dla strony docelowej dzięki linkom przychodzącym. Jeśli wygenerowany ruch byłby zbyt mały w stosunku do ilości odnośników, wtedy świstak obniżałby pozycję domeny w wynikach wyszukiwania. W opisie patentu pojawia się także dwell time, czyli czas spędzony na stronie. Ten parametr również byłby analizowany przez Google podczas ustalania rankingu.

Wahania w wynikach wyszukiwania

Narzędzia analizujące wahania w pozycjach wyszukiwania wskazują gwałtowne zmiany w globalbym rankingu w okresach, w których miał zostać wdrożony Świstak, Phantom V oraz Fred.

Jeśli świstak rzeczywiście istnieje (Google oficjalnie nie potwierdziło wdrożenia nowego algorytmu), to jest groźniejszy niż Pingwin, bo zwraca uwagę na interakcje i zachowania użytkowników, klikających w linki do stron i przechodzących do stron docelowych.

7-8 luty – sieć opanowuje Phantom

PhantomW sieci jeszcze trwały głośne dyskusje o świstaku, kiedy pojawiło się kolejne załamanie w pozycjach. Tym razem sprawcą zamieszania został okrzyknięty tajemniczy Phantom, zwany również Quality Update. Byłaby to już piąta odsłona aktualizacji tego algorytmu. Phantom po raz pierwszy pojawił się w maju 2013 r., następnie dał o sobie znać na przełomie maja i czerwca 2015 roku, niepokoił seowców jeszcze w listopadzie tego samego roku, a rok temu na przełomie czerwca i lipca branża zetknęła się z jego czwartym obliczem.

Phantom jest trudny do zidentyfikowania – eksperci z branży do tej pory nie byli w stanie ustalić schematu, na podstawie którego algorytm rankinguje witryny w wynikach wyszukiwania. Jednak udało się wyodrębnić kilka wspólnych cech zawirowań w pozycjach, które wskazują na Phantoma:

  • Powoduje spadki lub wzrosty konkretnych katalogów, podstron, ale nie wpływa na całą domenę,
  • Spadki w pozycjach zaliczają serwisy pozycjonowane na brandowe i krótkie frazy,
  • Zmiany w pozycjach obserwowane są przez kilka tygodni – algorytm nie jest wdrożony z dnia na dzień,
  • Znaczenie mają czynniki związane z zaangażowaniem użytkowników na stronie,
  • Premiowane są serwisy z treścią wysokiej jakości.

Czy możemy więc mówić o nowym Phantomie? Wiele na to wskazuje. Serwis Searchmetrics przeanalizował pozycje portali, których pozycje przy poprzednich aktualizacjach tego algorytmu uległy gwałtownym zmianom. 7 lutego te witryny odnotowały kolejne duże spadki lub wzrosty w wynikach wyszukiwania.

algorytm Phantom

Źródło: http://blog.searchmetrics.com/us/2017/02/15/google-phantom-5-update/

Google oficjalnie nie potwierdziło Phantoma V, ale Gary Illyes kilka dni po burzy w wyszukiwarce przypomniał użytkownikom o wskazówkach jakościowych, którymi kierują się pracownicy Quality Team podczas oceny stron. Przypadek? Być może, ale większość internautów nie wierzy w takie zbiegi okoliczności.

 

 

9 marca – tajemniczy Fred pojawia się w SERP

W drugim tygodniu marca znów zaobserwowaliśmy ponadprzeciętne wahania w pozycjach. Ucierpiały przede wszystkim portale nasycone treściami o niskiej jakości. Seowcy spekulowali na temat kolejnej aktualizacji, zaczepiając na Twitterze pracowników Google w nadziei na otrzymanie oficjalnej informacji. Mueller i Illyes potwierdzili jedynie, że zmiany w wyszukiwarce są wprowadzane codziennie. Gary zażartował, że każdą kolejną aktualizację użytkownicy mogą określać jako „Fred”.

 

 

Seowcy podchwycili nazwę i już po chwili w sieci pojawiły się wpisy o nowym algorytmie – Fredzie. Wokół rzekomego update’u urosło już wiele teorii, nierzadko rozbieżnych i niejasnych. Fred miałby przede wszystkim piętnować:

  • Słabe zaplecza,
  • Private Blog Networks – zamknięte sieci blogów,
  • Serwisy z treścią o niskiej wartości zarabiające na udostępnianiu treści reklamowej.

Pojawiły się opinie, że algorytm nastawiony jest przede wszystkim na analizowanie jakości serwisów. Oznaczałoby to, że z wysokich wyników wyszukiwania wypadną portale, które publikują artykuły zawierające nie wartościowe, a nawet nieprawdziwe informacje. Treści pełnią tutaj rolę „wypełniacza”, a prawdziwym celem strony jest zamieszczenie reklam i skłonienie użytkowników do kliknięcia w baner lub link.

Zmiany w SERP

Senuto nie wskazuje na duże zmiany w poskich wynikach wyszukiwaniach w okresie 31.01-01.02., kiedy to miał zostać wdrożony algorytm Świstak.

Fred byłby więc połączeniem kilku algorytmów – Pandy, Pingwina, a nawet RankBrain. Użyteczność serwisu dla użytkownika stałaby się wyznacznikiem wysokiej pozycji w rankingu Google.

Zmiany w wyszukiwarce luty/marzec 2017– co wiemy na pewno?

GoogleGoogle nie potwierdziło wdrożenia żadnego z powyższych algorytmów. Przyczyny wahań w pozycjach pozostają nadal obszarem spekulacji seowców. Musimy jednak pamiętać, że podczas ostatniej aktualizacji Pingwina Gary Illyes wspomniał, że zmiany w wyszukiwarce nie będą już oficjalnie komunikowane.

Jakie jest nasze zdanie na wahania w pozycjach w lutym i w marcu? Zauważyliśmy, że:

  • Wysokie pozycje osiągają strony, które są systematycznie rozbudowywane – dodawane są nowe treści, podstrony,
  • Przewagę zyskują serwisy wyczerpujące temat – zawierające dużo artykułów, wpisów, aktualności z danego zakresu tematycznego,
  • Ważna jest specjalizacja witryny – publikowanie treści ściśle powiązanych z daną działalnością, stosowanie wyrażeń związanych z prowadzonym biznesem,
  • Liczy się adekwatność treści do zapytania użytkownika – coraz większe znaczenie zyskują frazy z długiego ogona, czego dowodem jest pojawienie się boksów direct answer,
  • Wartość dodaną stanowi też bogata oferta serwisu,
  • Niezmiennie ważna jest przemyślana i bieżąca optymalizacja zawartości serwisu (treści, metatagi Title, media, linkowanie wewnętrzne).

Bez względu na to, czy w ubiegłych miesiącach zetknęliśmy się z aktualizacją algorytmów, należy zwrócić uwagę na pewien trend. Wysokiej jakości treści, które zaspokajają potrzeby informacyjne użytkowników, to jeden z najważniejszych elementów analizowanych przez Google podczas rankingowania serwisów. Pisz ciekawe, wyczerpujące i absorbujące teksty, a z pewnością algorytmy wyszukiwarki to docenią.

Ostatnie artykuły