broken-linksTaaakkk… To zapewne jest drażliwy temat ale zapewne ulubiony dla niektórych z „loży szyderców”, którym niestraszne są linki i biali rycerze. Poniżej przedstawiam kilka powiadomień i wskazań, jakie daje Google powiadamiając o nienaturalnym linkowaniu. Google uznało, że takie techniki stosowane w pozycjonowaniu nie są mile widziane. Wskazane odnośniki pokazują jak nie robić. I tutaj od razu moje „3 grosze” – problemem nie jest witryna (choć można mówić o kiepskiej jakości ale to pojęcie względne) lecz problem leży w sposobie linkowania „do ofiary”.

Stopki na forach

Tutaj Google jednoznacznie wskazuje, że odnośniki z anchorem typu exact match są złe:

  • I tak zacznijmy od czegoś mocnego … na początek forum SEO (forum.optymalizacja.com):
.optymalizacja.com/topic/110083-problem-z-jquery-oraz-php/

Obecnie anchor skasowany – wystarczyło powiadomić właściciela stopki 🙂

  • Kolejny przykład ze stopki – jakieś dziwne forum:
  • Tutaj tez jest jakieś dziwne forum:
http://www.forumfryzjerskie.pl/phpBB3/viewtopic.php?p=6721%3Ca%20href=

Link z anchorem był – ale już go nie ma.

Zastosowane rozwiązanie: fizyczne usunięcie, bardzo rzadko forum trafia do disavow

Katalogi i precle

Jak zawsze na cenzurowanym – te dwa „twory” od zawsze solą w oku dla Google są. Więc przyjrzyjmy się:

Czemu Google nie lubi tych linków ?:

  • za anchory
  • za linki w treści na EMA (exact match anchor)
  • ogólnie za sztuczną manipulację i przepływ PageRanku 😉

Zastosowane rozwiązania:

  • Usunięcie linków w treści
  • Wstawienie NOFOLLOW do anchorów jeśli jest to możliwe
  • Jeśli brak kontaktu z właścicielem katalogu/precla – całość ląduje do Disavow Tool.

Wstawianie serwisów, szczególnie katalogów, do DT jest dla Mnie ostatecznością ale udaje się wypracować „kompromis” z właścicielami.

Systemy Wymiany Linków

Mamy dwa modele linków (te popularne): statyczny i dynamiczny. Każdy z nich ma swoje plusy i minusy. Nie będę podawał przykładów bo musiałbym załączyć plik i modelowo pokazać co i dlaczego zrobiłem.

Rozwiązań jest kilka:

  • dla modelu SWL statycznego – kasujemy wszystkie odnośniki, czekamy około tygodnia (ponieważ odnośniki nie znikną od razu) i piszemy RR – jeśli tylko ten typ SWLa był stososwany w 90% przypadków pierwsza odpowiedź z Google była pozytywna.
  • dla modelu SWL rotacyjnego – odpinamy serwis, czekamy 3-4 dni (chociaż Xann twierdzi, że może czasem warto dłużej i jestem skłonny na podstawie dwóch ostatnich zleceń mu przyznać rację) i też piszemy RR (reconsideration request) – powinna wrócić pozytywna odpowiedź.
  • dla modelu mieszanego – no tutaj niestety za pierwszym podejściem z reguły nie ma pozytywnej odpowiedzi zza firewall’a. Trzeba pomęczyć się 2-3 krotnie.

Automaty typu XR/SB i inne

Tutaj nie jest ani łatwo ani przyjemnie. Skoro „z Nami” nikt się nie pieścił to czemu pieścić się z linkami ? Wszystko wrzucać do pliku Disavow. Jesli nie starcza miejsca dla linków niestety trzeba wrzucać całe domeny poleceniem domain:domena.pl – inaczej po prostu się nie da.

pozycjonowanie-automat

Ja używam do tego celu ScrapeBoxa – importuję plik, przycinam wszystko do domen „root” i sprawdzam czy jest coś wartościowego czy nie.

Przenoszenie baz danych

Przed tym nie ma możliwości się obronić dlatego tak mocno naciskam właścicieli katalogów o usunięcie odnośnika do danej witryny. Jeśli baza zacznie być powielana w dużej liczbie mamy niekontrolowany przyrost linków. I znowu trzeba oczyszczać profil. Pewnym światełkiem w tunelu jest fakt, że powielone są również inne cechy charakterystyczne dla przenoszonej bazy i witryny stąd też Google od razu może „odciąć moc” takich odnośników lub całkowicie wyeliminować tak postawiony spamik.

Na koniec:

  • warto za każdym razem zbierać wszelkie raporty związany z link building’iem
  • należy przeglądać chociaż raz w miesiącu profil linków w panelu GWT
  • w przypadku uzyskania maksymalnej próbki linków w panelu GWT (100 tys) wskazuje to na używany SWL rotacyjny (najczęściej), tylko raz zdarzyło mi się, że było to linkme.
  •  jeżeli pozycjonowanie jest tanie to znaczy, że nic dobrego z tego nie wyniknie
  • na chwilę obecną jeżeli czas na osiągnięcie pozycji jest mierzony w tygodniach lub mniejszy niż 4-5 miesięcy – to też źle wróży
  • jednym z elementów obronnych przy odfiltrowaniu jest skierowanie linków przychodzących na nieistniejącą stronę (wskazać stronę z błędem 404)

Nie ma jednej, jednoznacznej metody na odfiltrowanie serwisu. Odfiltrowania proste trwają ok 1 miesiąca, skomplikowane kilka miesięcy.

Zainteresował Cię ten temat ? Podyskutuj w komentarza – zapraszam 🙂

Paweł Gontarek

Paweł Gontarek

Paweł Gontarek - Zgred - pasjonat SEO, staram się zrozumieć czym jest i jak działa SEM oraz UX.

Statystyki indeksowania w Google Search Console

Jeśli analizujesz widoczność strony w Google, to nie pomijaj danych z Google Search Console. W GSC Sprawdzisz, jakie...

WIĘCEJ

Konferencje SEO w Polsce w 2022 roku

Nadchodzące konferencje SEO w Polsce w 2022 roku będą świetną okazją do spotkania się z innymi seowczyniami i...

WIĘCEJ

Ile kosztuje pozycjonowanie, a ile kosztuje SEO?

O tym, jak ważne jest pozycjonowanie, wie dziś niemal każdy właściciel serwisu i sklepu internetowego. Bez pozycjonowania, strona...

WIĘCEJ

Komentarze

  1. „problemem nie jest witryna lecz problem leży w sposobie linkowania ?do ofiary? – NIC DODAĆ, NIC UJĄĆ.

    „na chwilę obecną jeżeli czas na osiągnięcie pozycji jest mierzony w tygodniach lub mniejszy niż 4-5 miesięcy ? to też źle wróży” – Ostatnio już się obawiałem, że tylko ja tak sądzę.

    Z kolei czego się obawiam, a co pewnie wkrótce stanie się koniecznością to… wspomniane, musowe badanie (zapobiegawczo) profilu linków. Niby robiło się to zawsze, ale aktualnie sumienniej i skrupulatniej.

  2. Kilka fajnych porad dzięki.
    Ostatnio ze zgłoszeniami jest spory problem czekam już kilka dobrych tygodniu i na razie zero odzewu.

  3. „jednym z elementów obronnych przy odfiltrowaniu jest skierowanie linków przychodzących na nieistniejącą stronę (wskazać stronę z błędem 404)” – tak o ile nie jest to strona główna, tylko podstrona. Na index jest chyba tylko usunięcie lub disavow, bo 5 stroną które czyściłem dodałem w statlinku rel=”nofollow”: 2 przeszły, 3 nie.

  4. „Jesli nie starcza miejsca dla linków niestety trzeba wrzucać całe domeny”

    W ogóle to jest jakieś ograniczenie w rozmiarze (liczbie zgłoszonych linków) pliku disavow?

  5. Jak dla mnie na razie brak sygnałów, że „Disavow tool” działa jak należy, co powoduje, że samo narzędzie jest mało wiarygodne by tracić czas na monitorowanie sytuacji z linkami i zgłaszanie „niepożądanych”.
    Może kiedyś będzie warto z niego korzystać np. jak Google to dopracuje i przestaną przychodzić takie kwiatki jak przykłady nienaturalnych linków, które wcześniej już były zgłoszone do disavow tool…

  6. Niby oczywiste to o czym piszesz, ale i tak fajnie się czyta 🙂 A może jakiś artykulik o wychodzeniu z filtra algorytmicznego po updacie z początku października? 😉

    • Z filtra algorytmicznego nawet przed październikiem było ciężko wyjść ponieważ trzeba zdiagnozować czego ten filtr dotyczy. Ale pomysł na arta dobry – zastanowię się i może zrobię resume z tego co jest na forum Google.

  7. Może właśnie artykulik o tym jak zdiagnozować czego dotyczy filtr algorytmiczny 🙂 np. czy jeśli zdjęliśmy wszystkie linki z dopasowanym anchor textem (nie zdobywając nowych linków) i strona nadal kręci się w okolicach top200 to znaczy, że filtr jest za coś innego?:)

  8. Linki z anchorem w stopce są złe – ale wszyscy je naturalnie stosujemy… także nie ma co generalizować. Po prostu nie można przesadzać 🙂

  9. Fajny artykuł i trafne wnioski dotyczące obecnego pozycjonowania. Narzędzie disavow wymaga jeszcze dopracowania, bo też przy pisaniu RR dostawałem w przykładzie linki naturalne, umieszczone przez internautów a nie seo-speców.

    Linki z anchorami niby są złe – ale nadal można osiągać topy linkując 100% jeden anchor i to w kilka dni 🙂 Wiem że do czasu, ale przez ten czas można zarabiać $….

  10. a moze po prostu przestać w sposób sztuczny linkować i zacząć kampanię reklamową opartą na zdrowych zasadach marketingowych ? te wszystkie sztuczki , o których piszecie działają na kilka m-cy potem znowu kolejne czary. Po prostu wujek Gugl nie chce żeby w pierwszej 10 wyników były marne i cienkie strony z towarami, czy usługami wątpliwej jakości, a były rzeczy wartościowe dla użytkownika…ile to już stron obejrzałem, które nie maja żadnej wartości za to mają „pozycjonerów”….

  11. Czyli link do produktu gdzie w sklepie są przyjazne linki to też jest EMA?
    Jeśli tak to jak inaczej wykorzystać stopki dofollow z for??

    • NIe – linkowanie wewnętrzne jest bezpieczne jeśli jest poprawnie i zgodnie z wytycznymi wykonane. Jeśli natomiast specjalnie ukłądasz zdanie aby wyszło EMA no to polecisz za tak zwaną jakościówkę

          • No właśnie tak czuję, tylko idąc dalej tą myślą to produkty nie, anchory nie.
            Jedyne co przychodzi do głowy to główna strona tudzież główna zaplecza.
            Albo muszę się jeszcze dużo nauczyć ;]

          • A to na pewno, tylko mam kilka for gdzie jest trochę postów i nie chcąc puścić tego w zapomnienie szukam sposobu na wykorzystanie.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Klikając przycisk “Opublikuj komentarz” potwierdzasz, że zapoznałeś się z Regulaminem i akceptujesz jego postanowienia. Będziemy przetwarzać Twoje dane podane w formularzu w celu publikacji komentarza w serwisie. Administratorem Twoich danych osobowych jest SEMGENCE Sp. z o.o. Szczegółowe informacje znajdziesz w naszej Polityce prywatności.

Kategorie

Najnowsze komentarze

Popularne artykuły