Google Mnie nie kocha – i to tak od stycznia 2020 roku 😉 Tymi słowami niemalże każda seowczyni i niemalże każdy seowiec powita „czerwony” poranek, gdy w monitoringu widzi spadki pozycji dla słów kluczowych, które pozycjonuje u klienta. W tym momencie włącza się tryb „bez kawy” i zaczyna się proces szukania informacji po forach oraz analizowania przyczyn spadku a tym samym chęć jak najszybszego rozwiązania problemu i powrotu na wysokie pozycje.

Tylko problem polega na tym, że SEO działa wolno a spadki mogą być nagłe i pomimo szczerych chęci „szybko” nie da się wykonać.

Zacznijmy od tego, że w wytycznych Google dla Webmasterów nie ma słowa o pozycjonowaniu. Google stoi na stanowisku, że treści oraz strona powinna być przyjazna dla użytkownika, treści angażujące i merytoryczne, budujące zaufanie. Google niczego nie zabrania tylko dostarcza wskazówki.

Co powinni właściciele serwisów wiedzieć o aktualizacjach typu „core” jest opisane na stronie Google: https://developers.google.com/search/blog/2019/08/core-updates

W 2020 i 2021 praktycznie większość aktualizacji dotyczyła właśnie „core” stąd warto, moim zdaniem, śledzić Twittera: https://twitter.com/googlesearchc/status/1460970568128385031

Ważne daty tego typu aktualizacji:

Aktualizacje Core Update – na co zwrócić uwagę?

Najprościej zacząć od analizy widoczności oraz sprawdzenia korelacji pomiędzy datami aktualizacji oraz spadkami widoczności. Wzrosty widoczności też mile widziane, ale jak rośnie to jest radość a my będziemy rozmawiać o spadkach.

Przykład 1:

Na rysunku powyżej (narzędzie: senuto.com) serwis podlega spadkowi 4 maja 2020 a powrót nastąpił 4 grudnia 2020.

W tym konkretnym przypadku założyliśmy po krótkiej analizie, że:

  • treści nie są problemem
  • linkbuilding – wykluczyliśmy to po analizie – aczkolwiek mógłbym się do paru kwestii przyczepić
  • analizujemy aspekty techniczne związane z tym co widać w GSC oraz architekturę informacji a także linkowanie wewnętrzne

Zdiagnozowane problemy:

  • nagromadzenie starych podstron, które generowały treści osierocone a te z kolei trafiały do sandboxa
  • niewłaściwie wykonane przekierowania w tym przekierowania w menu nawigacyjnym
  • usunięto linki wychodzące
  • błędnie wykonane linki wewnętrzne w tym wiele podstron z tylko jednym linkiem wewnętrznym dochodzącym do danej podstrony
  • błędnie zaimplementowany canonical – niektóre wskazywały podstrony z założonym „noindex”
  • mixed content

Naprawa tych wszystkich rzeczy nie przyniosła spodziewanego powrotu do zdrowia – trzeba było czekać aż do nowej aktualizacji, aby część widoczności powróciła. Takim „magic baguette” jest crawl budget oraz dogłębna analiza danych z GSC plus audyt techniczny narzędziami seo.

Przykład 2:

Na rysunku powyżej (narzędzie: ahrefs.com) pokazany jest mocny spadek 4 grudnia 2020 – tego dnia miała miejsce aktualizacja w Google. I jak widać utrata widoczności mocno postępuje.

W takim przypadku analizujemy:

  • linkowanie wewnętrzne a właściwie jego brak oraz niewłaściwe wykonanie
  • nagromadzenie „thin content” w serwisie
  • kanibalizacje na słowa kluczowe
  • możliwe przebudowy serwisu
  • niewłaściwa architektura serwisu co skutkuje powstawaniem osieroconych treści

Ten serwis ma bardzo dużo za uszami i pracy na wiele tygodni.

Przykład 3: (dodany 27.03.2022)

Klienta martwił sukcesywny powolny spadek widoczności skorelowany z powolnym spadkiem pozycji dla poszczególnych fraz kluczowych, w tym fraz typu money keyword.

Weryfikacja profilu linków pod kątem SPAM CORE UPDATE wskazuje jednoznacznie na odnośniki na forach (tak – dużo for z naciskiem na fchuj dużo):

  • gdzie w profilu użytkownika jest podstrona serwisu – w większości przypadków są to gołe URL (naked url) ale zdarzały się też frazy typu money keyword
  • w stopce na forach – czyli w podpisie
  • w treści sporadycznie takżr typu money kwyord

Wiele z for było zapuszczonych, bez certyfikatu SSL, zaspamowanych linkami. Odnośniki wykonane w latach 2019-2021. Rekomendacją jest usunięcie jak największej liczby takich linków.

Drugi problem z odnośnikami to komentarze wykonane w niestandardowy.

W tym przypadku problemem jest podstawienie pod imię adresu URL, który dowolną podstroną w serwisie. Pomimo parametru UCG (nofollow) rekomendacja to używanie brand name (nazwy firmy lub nazwy domeny) i wstawianie zawsze adresu do strony głównej.

Przykład 4: (dodany 27.03.2022):

Serwis został niemalże całkowicie „wycięty”.

Niestety nie mogę wkleić za wiele ale wystąpiły dwa głównej problemy:

  • zaplecze starego typu z lat „ubiegłego wieku” – czyli bardzo krótkie artykuły z anchorami
  • program partnerski, który więcej zaszkodził niż pomógł

Dlaczego kanibalizacja słów kluczowych jest ważna w kontekście Core Update?

Ano dlatego. Rysunek poniżej pokazuje efekt pojawienia się kanibalizacji na słowa kluczowe już 4 czerwca 2021

Tutaj bardzo ważna rzecz – do 4 czerwca 2021 kanibalizacje były bardzo sporadyczne, można rzec nawet iż nie przeszkadzały. Od tego dnia miało to już ogromne znaczenie jednak wychwycenie tego było dość trudne. Dopiero listopadowy core update pokazał jak bardzo kanibalizacja przeszkadzała. W tym przypadku aż kilka stron jest zoptymalizowanych pod te konkretna frazę – więc do wykonania jest deoptymalizacja połączona z przebudową podstron i treści.

Reszta rzeczy schodzi na dalszy plan jako mało priorytetowe zagadnienia.

Przykład drugiego serwisu, obserwowanego przez Nas, gdzie kanibalizacja pojawiła się i mocno pokiereszowała serwis:

W sumie wklejam dwa zrzuty z webpozycja.pl – jak widać aktualizacja listopadowa bardzo mocno odcisnęła się na serwisie. Wiele podstron zostało wyrzuconych niemalże z top100, część wróciła na te same lub lekko niższe pozycje.

Co się wydarzyło:

  • Google z niewiadomych przyczyn zaczął lepiej traktować podstrony paginacji a nie stronę pierwszą (uwaga: tekst jest tylko na pierwszej stronie paginacji, canonical prawidłowy, self canonical na każdej podstronie – wszystko zgodnie z wytycznymi)
  • Kanibalizacja pojawiła się na podstronach, na których nie było słowa kluczowego w treści – ale jest w kodzie ze względu na menu. To zjawisko, że jakaś podstrona kanibalizuje na frazę, która jest w kodzie, ale nie mam jej w treści obserwuję od maja 2020 roku

Jak widać pozycje same wróciły, jak skończyło się wdrożenie aktualizacji algorytmu, niemniej jednak na miejscu właściciela byłbym lekko zdenerwowany.

I trzeci przykład – serwis od 2 lat nie ruszany palcem, stoi jak stał. Rankował. Wszystko dopięte na tip top. I kupa….

Spójrzcie na liczbę żółtych kropek – co chwila pojawia się kanibalizacja.

Od wielu lat Google nie nakłada kar za linkbuidling. Wartość linków jest zerowana (podobno) w locie i tym samym nie ma wpływu na serwis pozycjonowany, a jeśli już dotyczy to pojedynczych podstron.

W tym przypadku bez monitorowania słów kluczowych w jakimś narzędziu trudno będzie o bieżącą weryfikację. Chyba, że jest to fraza sprzedażowa

Google stoi na stanowisku, że analizuje cały serwis, ale również pojedyncze podstrony (hmm…. Był kiedyś taki algorytm o nazwie Phantom, który potrafił karać pojedyncze podstrony).

Niemniej jednak czy można przegrzać serwis linkami? Tak, a widać to m.in. po:

  • Liczba linków do podstrony lub dosłownie kilku podstron serwisu jest większa niż do strony głównej. W tym przypadku trzeba po prostu usuwać linki do podstron. Efektem jest spadek wszystkich fraz powiązanych ze stroną główną oraz podstronami
  • Niewłaściwy rozkład anchorów lub tez nietrafiony ich dobór – najczęściej linkujemy na money keywords w połączeniu z ogromną liczba adresów URL (po co?)
  • Linki z syfiastych podstron – nie będę określał toksyczności czy pokazywał „syfu” niemniej jednak jeśli obsuwa się grupa fraz powiązanych tylko z jedną podstroną to trzeba działać. Pomaga zmiana strategii: lepszej jakości odnośniki do podstrony połączone ze zmianą anchorów historycznie pozyskanych.

Dodatkowo dla tak spadających fraz warto wstecznie zweryfikować miejscówki pod kątem utraty certyfikatu SSL. Zdarzyło się, że usuwaliśmy linki z tych serwisów, które miały problemy z certyfikatem.

Poza zmianami anchorów na frazy kilkuwyrazowe, pytania, części zdania, kliknij/wejdź/zobacz warto tez wstecznie pousuwać odnośniki właśnie ze stron problematycznych.

Nie zawsze wygrywamy

Szczerze? Nie wszystkie analizy czy próby poprawienia serwisu kończą się sukcesem. Mam kilka rozgrzebanych rzeczy, dla których powyższe nie sprawdza się. Są to portale contentowe (stricte) i wstępnie podejrzewam, iż problemem jest sposób przygotowywania treści (muszę zagłębić się w webinar Blueranku o tutaj: https://www.youtube.com/watch?v=haiECclbmVI – może tam znajdę odpowiedź).

Patrząc tylko na powyższe zauważcie jak wielką wagę przykładam w analizach do aspektów technicznych, crawl budget, linków wewnętrznych oraz kanibalizacji.

Jeśli ktoś chce się podzielić swoimi uwagami w temacie tych aktualizacji – zapraszam do dyskusji

Paweł Gontarek

Paweł Gontarek

Paweł Gontarek - Zgred - pasjonat SEO, staram się zrozumieć czym jest i jak działa SEM oraz UX.

Komentarze

  1. „Niewłaściwy rozkład anchorów lub tez nietrafiony ich dobór – najczęściej linkujemy na money keywords w połączeniu z ogromną liczba adresów URL (po co?)”

    Jakiś przykład?

      • Nie wiem czy dobrze rozumiem. Czyli nie powinno się mieć linków typu „sprawdź tutaj”, „zobacz” itd Tylko należy je zastąpić innym tekstem? Co w przypadku serwisów, gdzie to niemożliwe albo trudne?

          • Paweł rozwiniesz tą myśl? Ja też żyję w przeświadczeniu że lepiej „dokładniej” na słowa dawać anchory, a mniej stosować – dalej, sprawdź… czy chodzi o to, że takie „ogólne cta” powinny być kotwicami do sekcji danej podstrony, a linki wewnętrzne już słowami na których nam zależy?

          • Anchory w linkowaniu WEWNĘTRZNYM – tak. Natomiast w ZEWNĘTRZNYM trzeba różnicować. Jeśli wszystko robisz na money keywords to, moim zdaniem, jest to zła strategia.

    • Osierocone strony to takie, do których prowadzi jeden lub zero linków wewnętrznych. Na wykresach np. z narzędzia sitebulb podstrony takie są pokazane jako te, do których trzeba wykonać 10 lub więcej kliknięć aby się do nich dostać.

  2. Co masz na myśli pisząc:

    „Niewłaściwy rozkład anchorów lub tez nietrafiony ich dobór – najczęściej linkujemy na money keywords w połączeniu z ogromną liczba adresów URL (po co?)”

    Chodzi o to że linkowanie jest tylko na money keywords lub url?

  3. Wydaje się, że logiczna struktura strony www ma teraz rzeczywiście znacznie. Jak zawsze chodzi o pokazanie stron przyjaznych użytkownikowi google. Piszesz o „nagromadzenie „thin content” w serwisie”. Google mówi o “low-quality or shallow pages on your site” czy masz jeszcze jakieś wytyczne, obserwacje jak unikać tego rodzaju podstron?

  4. Jeśli Google bierze pod uwagę kod strony i co się w nim znajduje, to czy w takim razie warto też uzupełniać meta description, który podobno nie jest brany pod uwagę?

    • Warto uzupełniać ale jak serwis ma tysiące produktów to nie ma sensu – nikt nie będzie klepać tysięcy meta, które za chwilę i tak znikną bo asortyment mocno rotuje. Lepiej wtedy zadbać o opisy produktów oraz opinie.

  5. Jak sobie radzisz z updateami, które dotyczą strony tylko z danej branży. Np. widzisz, że ty i 4 z 6 Twoich konkurentów spada lub rośnie w tym samym czasie. Zastanawiam się jaki mamy wpływ na tego typu fluktuacje.

    • Analizujemy – czasem bardzo dokładnie. Nie dalej jak kilka dni temu zakończyliśmy analizy linkbuildingu i będziemy wdrażać zmiany, które zaobserwowaliśmy iż coś nie działało jak należy. Ja tez dużo testuję od grudnia 2021 i też mam obserwacje, które wdrażać będziemy „na klientach” – takie testy same z siebie. Na jeden z testów „namówiło” mnie wystąpienie Szymona i Macieja w związku z budową PBNów 🙂

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.

Kategorie

Najnowsze komentarze

Popularne artykuły