W ostatnich dwóch miesiącach mieliśmy wiele zamieszania w wynikach wyszukiwania. Część domen zaliczyło duże wzrosty i spadki, a powodem gwałtownych wahań miała być cała zgraja algorytmów Google: Phantom, Świstak oraz tajemniczy Fred. Prześledźmy, co działo się w lutym i marcu w wyszukiwarce.
1 luty – Świstak budzi się z zimowego snu
31 stycznia został przyznany kolejny patent dla Google. Nie byłoby w tym nic podejrzanego, gdyby dzień później nie nastąpiły na świecie gwałtowne zmiany w pozycjach. Zbieżność dat od razu została wyłapana przez amerykańskich internautów, którzy spekulowali o nowym algorytmie nazwanym świstak (groundhoug). Jak kolejny zwierzak miałby wpływać na pozycje?
Z opisu patentu dowiadujemy się, że Google planuje dogłębnie analizować profil linków prowadzących do domeny. Nowy algorytm pozwalałby na:
- Określenie jakości linków przychodzących,
- Zmniejszenie przekazywanej przez nie mocy,
- Ignorowanie linków przy ustalaniu pozycji serwisu w SERP.
Czym różni się świstak od pingwina, który także piętnuje niskiej jakości odnośniki? Nowy algorytm w nieco inny sposób oceniałby linki. Znaczenie miałby ruch, który został pozyskany dla strony docelowej dzięki linkom przychodzącym. Jeśli wygenerowany ruch byłby zbyt mały w stosunku do ilości odnośników, wtedy świstak obniżałby pozycję domeny w wynikach wyszukiwania. W opisie patentu pojawia się także dwell time, czyli czas spędzony na stronie. Ten parametr również byłby analizowany przez Google podczas ustalania rankingu.
Narzędzia analizujące wahania w pozycjach wyszukiwania wskazują gwałtowne zmiany w globalbym rankingu w okresach, w których miał zostać wdrożony Świstak, Phantom V oraz Fred.
Jeśli świstak rzeczywiście istnieje (Google oficjalnie nie potwierdziło wdrożenia nowego algorytmu), to jest groźniejszy niż Pingwin, bo zwraca uwagę na interakcje i zachowania użytkowników, klikających w linki do stron i przechodzących do stron docelowych.
7-8 luty – sieć opanowuje Phantom
W sieci jeszcze trwały głośne dyskusje o świstaku, kiedy pojawiło się kolejne załamanie w pozycjach. Tym razem sprawcą zamieszania został okrzyknięty tajemniczy Phantom, zwany również Quality Update. Byłaby to już piąta odsłona aktualizacji tego algorytmu. Phantom po raz pierwszy pojawił się w maju 2013 r., następnie dał o sobie znać na przełomie maja i czerwca 2015 roku, niepokoił seowców jeszcze w listopadzie tego samego roku, a rok temu na przełomie czerwca i lipca branża zetknęła się z jego czwartym obliczem.
Phantom jest trudny do zidentyfikowania – eksperci z branży do tej pory nie byli w stanie ustalić schematu, na podstawie którego algorytm rankinguje witryny w wynikach wyszukiwania. Jednak udało się wyodrębnić kilka wspólnych cech zawirowań w pozycjach, które wskazują na Phantoma:
- Powoduje spadki lub wzrosty konkretnych katalogów, podstron, ale nie wpływa na całą domenę,
- Spadki w pozycjach zaliczają serwisy pozycjonowane na brandowe i krótkie frazy,
- Zmiany w pozycjach obserwowane są przez kilka tygodni – algorytm nie jest wdrożony z dnia na dzień,
- Znaczenie mają czynniki związane z zaangażowaniem użytkowników na stronie,
- Premiowane są serwisy z treścią wysokiej jakości.
Czy możemy więc mówić o nowym Phantomie? Wiele na to wskazuje. Serwis Searchmetrics przeanalizował pozycje portali, których pozycje przy poprzednich aktualizacjach tego algorytmu uległy gwałtownym zmianom. 7 lutego te witryny odnotowały kolejne duże spadki lub wzrosty w wynikach wyszukiwania.
Źródło: http://blog.searchmetrics.com/us/2017/02/15/google-phantom-5-update/
Google oficjalnie nie potwierdziło Phantoma V, ale Gary Illyes kilka dni po burzy w wyszukiwarce przypomniał użytkownikom o wskazówkach jakościowych, którymi kierują się pracownicy Quality Team podczas oceny stron. Przypadek? Być może, ale większość internautów nie wierzy w takie zbiegi okoliczności.
DYK we released an updated version of our Search Quality Raters Guidelines. Bored this Sunday? Here’s the link:https://t.co/6MdO1i5P7k
— Gary Illyes ᕕ( ᐛ )ᕗ (@methode) 12 lutego 2017
9 marca – tajemniczy Fred pojawia się w SERP
W drugim tygodniu marca znów zaobserwowaliśmy ponadprzeciętne wahania w pozycjach. Ucierpiały przede wszystkim portale nasycone treściami o niskiej jakości. Seowcy spekulowali na temat kolejnej aktualizacji, zaczepiając na Twitterze pracowników Google w nadziei na otrzymanie oficjalnej informacji. Mueller i Illyes potwierdzili jedynie, że zmiany w wyszukiwarce są wprowadzane codziennie. Gary zażartował, że każdą kolejną aktualizację użytkownicy mogą określać jako „Fred”.
@rustybrick @i_praveensharma @JohnMu sure! From now on every update, unless otherwise stated, shall be called Fred
— Gary Illyes ᕕ( ᐛ )ᕗ (@methode) 9 marca 2017
Seowcy podchwycili nazwę i już po chwili w sieci pojawiły się wpisy o nowym algorytmie – Fredzie. Wokół rzekomego update’u urosło już wiele teorii, nierzadko rozbieżnych i niejasnych. Fred miałby przede wszystkim piętnować:
- Słabe zaplecza,
- Private Blog Networks – zamknięte sieci blogów,
- Serwisy z treścią o niskiej wartości zarabiające na udostępnianiu treści reklamowej.
Pojawiły się opinie, że algorytm nastawiony jest przede wszystkim na analizowanie jakości serwisów. Oznaczałoby to, że z wysokich wyników wyszukiwania wypadną portale, które publikują artykuły zawierające nie wartościowe, a nawet nieprawdziwe informacje. Treści pełnią tutaj rolę „wypełniacza”, a prawdziwym celem strony jest zamieszczenie reklam i skłonienie użytkowników do kliknięcia w baner lub link.
Senuto nie wskazuje na duże zmiany w poskich wynikach wyszukiwaniach w okresie 31.01-01.02., kiedy to miał zostać wdrożony algorytm Świstak.
Fred byłby więc połączeniem kilku algorytmów – Pandy, Pingwina, a nawet RankBrain. Użyteczność serwisu dla użytkownika stałaby się wyznacznikiem wysokiej pozycji w rankingu Google.
Zmiany w wyszukiwarce luty/marzec 2017– co wiemy na pewno?
Google nie potwierdziło wdrożenia żadnego z powyższych algorytmów. Przyczyny wahań w pozycjach pozostają nadal obszarem spekulacji seowców. Musimy jednak pamiętać, że podczas ostatniej aktualizacji Pingwina Gary Illyes wspomniał, że zmiany w wyszukiwarce nie będą już oficjalnie komunikowane.
Jakie jest nasze zdanie na wahania w pozycjach w lutym i w marcu? Zauważyliśmy, że:
- Wysokie pozycje osiągają strony, które są systematycznie rozbudowywane – dodawane są nowe treści, podstrony,
- Przewagę zyskują serwisy wyczerpujące temat – zawierające dużo artykułów, wpisów, aktualności z danego zakresu tematycznego,
- Ważna jest specjalizacja witryny – publikowanie treści ściśle powiązanych z daną działalnością, stosowanie wyrażeń związanych z prowadzonym biznesem,
- Liczy się adekwatność treści do zapytania użytkownika – coraz większe znaczenie zyskują frazy z długiego ogona, czego dowodem jest pojawienie się boksów direct answer,
- Wartość dodaną stanowi też bogata oferta serwisu,
- Niezmiennie ważna jest przemyślana i bieżąca optymalizacja zawartości serwisu (treści, metatagi Title, media, linkowanie wewnętrzne).
Bez względu na to, czy w ubiegłych miesiącach zetknęliśmy się z aktualizacją algorytmów, należy zwrócić uwagę na pewien trend. Wysokiej jakości treści, które zaspokajają potrzeby informacyjne użytkowników, to jeden z najważniejszych elementów analizowanych przez Google podczas rankingowania serwisów. Pisz ciekawe, wyczerpujące i absorbujące teksty, a z pewnością algorytmy wyszukiwarki to docenią.