broken-linksTaaakkk… To zapewne jest drażliwy temat ale zapewne ulubiony dla niektórych z „loży szyderców”, którym niestraszne są linki i biali rycerze. Poniżej przedstawiam kilka powiadomień i wskazań, jakie daje Google powiadamiając o nienaturalnym linkowaniu. Google uznało, że takie techniki stosowane w pozycjonowaniu nie są mile widziane. Wskazane odnośniki pokazują jak nie robić. I tutaj od razu moje „3 grosze” – problemem nie jest witryna (choć można mówić o kiepskiej jakości ale to pojęcie względne) lecz problem leży w sposobie linkowania „do ofiary”.

Stopki na forach

Tutaj Google jednoznacznie wskazuje, że odnośniki z anchorem typu exact match są złe:

  • I tak zacznijmy od czegoś mocnego … na początek PiO:
.optymalizacja.com/topic/110083-problem-z-jquery-oraz-php/

Obecnie anchor skasowany – wystarczyło powiadomić właściciela stopki 🙂

  • Kolejny przykład ze stopki – jakieś dziwne forum:
  • Tutaj tez jest jakieś dziwne forum:
http://www.forumfryzjerskie.pl/phpBB3/viewtopic.php?p=6721%3Ca%20href=

Link z anchorem był – ale już go nie ma.

Zastosowane rozwiązanie: fizyczne usunięcie, bardzo rzadko forum trafia do disavow

Katalogi i precle

Jak zawsze na cenzurowanym – te dwa „twory” od zawsze solą w oku dla Google są. Więc przyjrzyjmy się:

Czemu Google nie lubi tych linków ?:

  • za anchory
  • za linki w treści na EMA (exact match anchor)
  • ogólnie za sztuczną manipulację i przepływ PageRanku 😉

Zastosowane rozwiązania:

  • Usunięcie linków w treści
  • Wstawienie NOFOLLOW do anchorów jeśli jest to możliwe
  • Jeśli brak kontaktu z właścicielem katalogu/precla – całość ląduje do Disavow Tool.

Wstawianie serwisów, szczególnie katalogów, do DT jest dla Mnie ostatecznością ale udaje się wypracować „kompromis” z właścicielami.

Systemy Wymiany Linków

Mamy dwa modele linków (te popularne): statyczny i dynamiczny. Każdy z nich ma swoje plusy i minusy. Nie będę podawał przykładów bo musiałbym załączyć plik i modelowo pokazać co i dlaczego zrobiłem.

Rozwiązań jest kilka:

  • dla modelu SWL statycznego – kasujemy wszystkie odnośniki, czekamy około tygodnia (ponieważ odnośniki nie znikną od razu) i piszemy RR – jeśli tylko ten typ SWLa był stososwany w 90% przypadków pierwsza odpowiedź z Google była pozytywna.
  • dla modelu SWL rotacyjnego – odpinamy serwis, czekamy 3-4 dni (chociaż Xann twierdzi, że może czasem warto dłużej i jestem skłonny na podstawie dwóch ostatnich zleceń mu przyznać rację) i też piszemy RR (reconsideration request) – powinna wrócić pozytywna odpowiedź.
  • dla modelu mieszanego – no tutaj niestety za pierwszym podejściem z reguły nie ma pozytywnej odpowiedzi zza firewall’a. Trzeba pomęczyć się 2-3 krotnie.

Automaty typu XR/SB i inne

Tutaj nie jest ani łatwo ani przyjemnie. Skoro „z Nami” nikt się nie pieścił to czemu pieścić się z linkami ? Wszystko wrzucać do pliku Disavow. Jesli nie starcza miejsca dla linków niestety trzeba wrzucać całe domeny poleceniem domain:domena.pl – inaczej po prostu się nie da.

pozycjonowanie-automat

Ja używam do tego celu ScrapeBoxa – importuję plik, przycinam wszystko do domen „root” i sprawdzam czy jest coś wartościowego czy nie.

Przenoszenie baz danych

Przed tym nie ma możliwości się obronić dlatego tak mocno naciskam właścicieli katalogów o usunięcie odnośnika do danej witryny. Jeśli baza zacznie być powielana w dużej liczbie mamy niekontrolowany przyrost linków. I znowu trzeba oczyszczać profil. Pewnym światełkiem w tunelu jest fakt, że powielone są również inne cechy charakterystyczne dla przenoszonej bazy i witryny stąd też Google od razu może „odciąć moc” takich odnośników lub całkowicie wyeliminować tak postawiony spamik.

Na koniec:

  • warto za każdym razem zbierać wszelkie raporty związany z link building’iem
  • należy przeglądać chociaż raz w miesiącu profil linków w panelu GWT
  • w przypadku uzyskania maksymalnej próbki linków w panelu GWT (100 tys) wskazuje to na używany SWL rotacyjny (najczęściej), tylko raz zdarzyło mi się, że było to linkme.
  •  jeżeli pozycjonowanie jest tanie to znaczy, że nic dobrego z tego nie wyniknie
  • na chwilę obecną jeżeli czas na osiągnięcie pozycji jest mierzony w tygodniach lub mniejszy niż 4-5 miesięcy – to też źle wróży
  • jednym z elementów obronnych przy odfiltrowaniu jest skierowanie linków przychodzących na nieistniejącą stronę (wskazać stronę z błędem 404)

Nie ma jednej, jednoznacznej metody na odfiltrowanie serwisu. Odfiltrowania proste trwają ok 1 miesiąca, skomplikowane kilka miesięcy.

Zainteresował Cię ten temat ? Podyskutuj w komentarza – zapraszam 🙂

1 gwiazdka2 gwiazdki3 gwiazdki4 gwiazdki5 gwiazdek (14 głosów, średnia: 3,79 z 5)

Paweł Gontarek

Paweł Gontarek

Paweł Gontarek - Zgred - pasjonat SEO, staram się zrozumieć czym jest i jak działa SEM oraz UX.

Komentarze

  1. „problemem nie jest witryna lecz problem leży w sposobie linkowania ?do ofiary? – NIC DODAĆ, NIC UJĄĆ.

    „na chwilę obecną jeżeli czas na osiągnięcie pozycji jest mierzony w tygodniach lub mniejszy niż 4-5 miesięcy ? to też źle wróży” – Ostatnio już się obawiałem, że tylko ja tak sądzę.

    Z kolei czego się obawiam, a co pewnie wkrótce stanie się koniecznością to… wspomniane, musowe badanie (zapobiegawczo) profilu linków. Niby robiło się to zawsze, ale aktualnie sumienniej i skrupulatniej.

  2. „jednym z elementów obronnych przy odfiltrowaniu jest skierowanie linków przychodzących na nieistniejącą stronę (wskazać stronę z błędem 404)” – tak o ile nie jest to strona główna, tylko podstrona. Na index jest chyba tylko usunięcie lub disavow, bo 5 stroną które czyściłem dodałem w statlinku rel=”nofollow”: 2 przeszły, 3 nie.

  3. „Jesli nie starcza miejsca dla linków niestety trzeba wrzucać całe domeny”

    W ogóle to jest jakieś ograniczenie w rozmiarze (liczbie zgłoszonych linków) pliku disavow?

  4. Jak dla mnie na razie brak sygnałów, że „Disavow tool” działa jak należy, co powoduje, że samo narzędzie jest mało wiarygodne by tracić czas na monitorowanie sytuacji z linkami i zgłaszanie „niepożądanych”.
    Może kiedyś będzie warto z niego korzystać np. jak Google to dopracuje i przestaną przychodzić takie kwiatki jak przykłady nienaturalnych linków, które wcześniej już były zgłoszone do disavow tool…

  5. Niby oczywiste to o czym piszesz, ale i tak fajnie się czyta 🙂 A może jakiś artykulik o wychodzeniu z filtra algorytmicznego po updacie z początku października? 😉

    • Z filtra algorytmicznego nawet przed październikiem było ciężko wyjść ponieważ trzeba zdiagnozować czego ten filtr dotyczy. Ale pomysł na arta dobry – zastanowię się i może zrobię resume z tego co jest na forum Google.

  6. Może właśnie artykulik o tym jak zdiagnozować czego dotyczy filtr algorytmiczny 🙂 np. czy jeśli zdjęliśmy wszystkie linki z dopasowanym anchor textem (nie zdobywając nowych linków) i strona nadal kręci się w okolicach top200 to znaczy, że filtr jest za coś innego?:)

  7. Fajny artykuł i trafne wnioski dotyczące obecnego pozycjonowania. Narzędzie disavow wymaga jeszcze dopracowania, bo też przy pisaniu RR dostawałem w przykładzie linki naturalne, umieszczone przez internautów a nie seo-speców.

    Linki z anchorami niby są złe – ale nadal można osiągać topy linkując 100% jeden anchor i to w kilka dni 🙂 Wiem że do czasu, ale przez ten czas można zarabiać $….

  8. a moze po prostu przestać w sposób sztuczny linkować i zacząć kampanię reklamową opartą na zdrowych zasadach marketingowych ? te wszystkie sztuczki , o których piszecie działają na kilka m-cy potem znowu kolejne czary. Po prostu wujek Gugl nie chce żeby w pierwszej 10 wyników były marne i cienkie strony z towarami, czy usługami wątpliwej jakości, a były rzeczy wartościowe dla użytkownika…ile to już stron obejrzałem, które nie maja żadnej wartości za to mają „pozycjonerów”….

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

Kategorie

Najnowsze komentarze

Popularne artykuły