Google Mnie nie kocha – i to tak od stycznia 2020 roku 😉 Tymi słowami niemalże każda seowczyni i niemalże każdy seowiec powita „czerwony” poranek, gdy w monitoringu widzi spadki pozycji dla słów kluczowych, które pozycjonuje u klienta. W tym momencie włącza się tryb „bez kawy” i zaczyna się proces szukania informacji po forach oraz analizowania przyczyn spadku a tym samym chęć jak najszybszego rozwiązania problemu i powrotu na wysokie pozycje.

Tylko problem polega na tym, że SEO działa wolno a spadki mogą być nagłe i pomimo szczerych chęci „szybko” nie da się wykonać.

Zacznijmy od tego, że w wytycznych Google dla Webmasterów nie ma słowa o pozycjonowaniu. Google stoi na stanowisku, że treści oraz strona powinna być przyjazna dla użytkownika, treści angażujące i merytoryczne, budujące zaufanie. Google niczego nie zabrania tylko dostarcza wskazówki.

Co powinni właściciele serwisów wiedzieć o aktualizacjach typu „core” jest opisane na stronie Google: https://developers.google.com/search/blog/2019/08/core-updates

W 2020 i 2021 praktycznie większość aktualizacji dotyczyła właśnie „core” stąd warto, moim zdaniem, śledzić Twittera: https://twitter.com/googlesearchc/status/1460970568128385031

Ważne daty tego typu aktualizacji:

Aktualizacje Core Update – na co zwrócić uwagę?

Najprościej zacząć od analizy widoczności oraz sprawdzenia korelacji pomiędzy datami aktualizacji oraz spadkami widoczności. Wzrosty widoczności też mile widziane, ale jak rośnie to jest radość a my będziemy rozmawiać o spadkach.

Przykład 1:

Na rysunku powyżej (narzędzie: senuto.com) serwis podlega spadkowi 4 maja 2020 a powrót nastąpił 4 grudnia 2020.

W tym konkretnym przypadku założyliśmy po krótkiej analizie, że:

  • treści nie są problemem
  • linkbuilding – wykluczyliśmy to po analizie – aczkolwiek mógłbym się do paru kwestii przyczepić
  • analizujemy aspekty techniczne związane z tym co widać w GSC oraz architekturę informacji a także linkowanie wewnętrzne

Zdiagnozowane problemy:

  • nagromadzenie starych podstron, które generowały treści osierocone a te z kolei trafiały do sandboxa
  • niewłaściwie wykonane przekierowania w tym przekierowania w menu nawigacyjnym
  • usunięto linki wychodzące
  • błędnie wykonane linki wewnętrzne w tym wiele podstron z tylko jednym linkiem wewnętrznym dochodzącym do danej podstrony
  • błędnie zaimplementowany canonical – niektóre wskazywały podstrony z założonym „noindex”
  • mixed content

Naprawa tych wszystkich rzeczy nie przyniosła spodziewanego powrotu do zdrowia – trzeba było czekać aż do nowej aktualizacji, aby część widoczności powróciła. Takim „magic baguette” jest crawl budget oraz dogłębna analiza danych z GSC plus audyt techniczny narzędziami seo.

Przykład 2:

Na rysunku powyżej (narzędzie: ahrefs.com) pokazany jest mocny spadek 4 grudnia 2020 – tego dnia miała miejsce aktualizacja w Google. I jak widać utrata widoczności mocno postępuje.

W takim przypadku analizujemy:

  • linkowanie wewnętrzne a właściwie jego brak oraz niewłaściwe wykonanie
  • nagromadzenie „thin content” w serwisie
  • kanibalizacje na słowa kluczowe
  • możliwe przebudowy serwisu
  • niewłaściwa architektura serwisu co skutkuje powstawaniem osieroconych treści

Ten serwis ma bardzo dużo za uszami i pracy na wiele tygodni.

Dlaczego kanibalizacja słów kluczowych jest ważna w kontekście Core Update?

Ano dlatego. Rysunek poniżej pokazuje efekt pojawienia się kanibalizacji na słowa kluczowe już 4 czerwca 2021

Tutaj bardzo ważna rzecz – do 4 czerwca 2021 kanibalizacje były bardzo sporadyczne, można rzec nawet iż nie przeszkadzały. Od tego dnia miało to już ogromne znaczenie jednak wychwycenie tego było dość trudne. Dopiero listopadowy core update pokazał jak bardzo kanibalizacja przeszkadzała. W tym przypadku aż kilka stron jest zoptymalizowanych pod te konkretna frazę – więc do wykonania jest deoptymalizacja połączona z przebudową podstron i treści.

Reszta rzeczy schodzi na dalszy plan jako mało priorytetowe zagadnienia.

Przykład drugiego serwisu, obserwowanego przez Nas, gdzie kanibalizacja pojawiła się i mocno pokiereszowała serwis:

W sumie wklejam dwa zrzuty z webpozycja.pl – jak widać aktualizacja listopadowa bardzo mocno odcisnęła się na serwisie. Wiele podstron zostało wyrzuconych niemalże z top100, część wróciła na te same lub lekko niższe pozycje.

Co się wydarzyło:

  • Google z niewiadomych przyczyn zaczął lepiej traktować podstrony paginacji a nie stronę pierwszą (uwaga: tekst jest tylko na pierwszej stronie paginacji, canonical prawidłowy, self canonical na każdej podstronie – wszystko zgodnie z wytycznymi)
  • Kanibalizacja pojawiła się na podstronach, na których nie było słowa kluczowego w treści – ale jest w kodzie ze względu na menu. To zjawisko, że jakaś podstrona kanibalizuje na frazę, która jest w kodzie, ale nie mam jej w treści obserwuję od maja 2020 roku

Jak widać pozycje same wróciły, jak skończyło się wdrożenie aktualizacji algorytmu, niemniej jednak na miejscu właściciela byłbym lekko zdenerwowany.

I trzeci przykład – serwis od 2 lat nie ruszany palcem, stoi jak stał. Rankował. Wszystko dopięte na tip top. I kupa….

Spójrzcie na liczbę żółtych kropek – co chwila pojawia się kanibalizacja.

Od wielu lat Google nie nakłada kar za linkbuidling. Wartość linków jest zerowana (podobno) w locie i tym samym nie ma wpływu na serwis pozycjonowany, a jeśli już dotyczy to pojedynczych podstron.

W tym przypadku bez monitorowania słów kluczowych w jakimś narzędziu trudno będzie o bieżącą weryfikację. Chyba, że jest to fraza sprzedażowa

Google stoi na stanowisku, że analizuje cały serwis, ale również pojedyncze podstrony (hmm…. Był kiedyś taki algorytm o nazwie Phantom, który potrafił karać pojedyncze podstrony).

Niemniej jednak czy można przegrzać serwis linkami? Tak, a widać to m.in. po:

  • Liczba linków do podstrony lub dosłownie kilku podstron serwisu jest większa niż do strony głównej. W tym przypadku trzeba po prostu usuwać linki do podstron. Efektem jest spadek wszystkich fraz powiązanych ze stroną główną oraz podstronami
  • Niewłaściwy rozkład anchorów lub tez nietrafiony ich dobór – najczęściej linkujemy na money keywords w połączeniu z ogromną liczba adresów URL (po co?)
  • Linki z syfiastych podstron – nie będę określał toksyczności czy pokazywał „syfu” niemniej jednak jeśli obsuwa się grupa fraz powiązanych tylko z jedną podstroną to trzeba działać. Pomaga zmiana strategii: lepszej jakości odnośniki do podstrony połączone ze zmianą anchorów historycznie pozyskanych.

Dodatkowo dla tak spadających fraz warto wstecznie zweryfikować miejscówki pod kątem utraty certyfikatu SSL. Zdarzyło się, że usuwaliśmy linki z tych serwisów, które miały problemy z certyfikatem.

Poza zmianami anchorów na frazy kilkuwyrazowe, pytania, części zdania, kliknij/wejdź/zobacz warto tez wstecznie pousuwać odnośniki właśnie ze stron problematycznych.

Nie zawsze wygrywamy

Szczerze? Nie wszystkie analizy czy próby poprawienia serwisu kończą się sukcesem. Mam kilka rozgrzebanych rzeczy, dla których powyższe nie sprawdza się. Są to portale contentowe (stricte) i wstępnie podejrzewam, iż problemem jest sposób przygotowywania treści (muszę zagłębić się w webinar Blueranku o tutaj: https://www.youtube.com/watch?v=haiECclbmVI – może tam znajdę odpowiedź).

Patrząc tylko na powyższe zauważcie jak wielką wagę przykładam w analizach do aspektów technicznych, crawl budget, linków wewnętrznych oraz kanibalizacji.

Jeśli ktoś chce się podzielić swoimi uwagami w temacie tych aktualizacji – zapraszam do dyskusji

Paweł Gontarek

Paweł Gontarek

Paweł Gontarek - Zgred - pasjonat SEO, staram się zrozumieć czym jest i jak działa SEM oraz UX.

Komentarze

  1. „Niewłaściwy rozkład anchorów lub tez nietrafiony ich dobór – najczęściej linkujemy na money keywords w połączeniu z ogromną liczba adresów URL (po co?)”

    Jakiś przykład?

    • Osierocone strony to takie, do których prowadzi jeden lub zero linków wewnętrznych. Na wykresach np. z narzędzia sitebulb podstrony takie są pokazane jako te, do których trzeba wykonać 10 lub więcej kliknięć aby się do nich dostać.

  2. Co masz na myśli pisząc:

    „Niewłaściwy rozkład anchorów lub tez nietrafiony ich dobór – najczęściej linkujemy na money keywords w połączeniu z ogromną liczba adresów URL (po co?)”

    Chodzi o to że linkowanie jest tylko na money keywords lub url?

  3. Wydaje się, że logiczna struktura strony www ma teraz rzeczywiście znacznie. Jak zawsze chodzi o pokazanie stron przyjaznych użytkownikowi google. Piszesz o „nagromadzenie „thin content” w serwisie”. Google mówi o “low-quality or shallow pages on your site” czy masz jeszcze jakieś wytyczne, obserwacje jak unikać tego rodzaju podstron?

  4. Jeśli Google bierze pod uwagę kod strony i co się w nim znajduje, to czy w takim razie warto też uzupełniać meta description, który podobno nie jest brany pod uwagę?

    • Warto uzupełniać ale jak serwis ma tysiące produktów to nie ma sensu – nikt nie będzie klepać tysięcy meta, które za chwilę i tak znikną bo asortyment mocno rotuje. Lepiej wtedy zadbać o opisy produktów oraz opinie.

      • Ok, a czy jesteś zwolennikiem usunięcia podstron, które mimo zmiany treści – raz, że się nie chcą zaindeksować ( po zmianie contentu), jak i nie generują kliknięć w ciągu np. miesiąca?

        • Jestem zwolennikiem sprawdzenia czemu tak się dzieje i wyciagnięcia jak najwięcej się da. Tak więc nie usuwam podstron bo nic się nie dzieje tylko je optymalizuje i myślę, co zrobić aby przynosiły korzyści.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Kategorie

Najnowsze komentarze

Popularne artykuły