Kilka rzeczy, których powinno się uniknąć aby nie dostać się w łapki algorytmu Google o nazwie “Panda”

  1. Usunąć strony o niskiej jakości
    • zablokować strony o kiepskiej jakości z mizernym ruchem
    • usunąć strony, które mogą zaburzać całkowity “dobry rating” dla strony np podstrona z linkami
    • poszerzyć obecną zawartość strony o nową – po prostu rozbudować content o kilka/kilkanaście zdań (jeśli było za krótko)
  2. Usunąć strony z nagromadzeniem reklam np niektorzy wstawiają maksymalną liczbę reklam Adsense i rozstawiają tak, że w nic innego de facto kliknąć nie można
  3. Poszukać i usunąć zduplikowaną treść zarówno w obrębie własnej witryny oraz na zewnątrz (kopie strony) – walka z wiatrakami ale może się da usunąć kopie własnych artykułów
    • zaraportować “złodziei” do Google
    • wykorzystywać wtyczki do przeglądarek np ? blocklist w Chrome
  4. Przyłożyć się do linkowania do wewnątrz serwisu – tak aby w oczach Google wzmocnić zachowanie się użytkownika na stronie
    • włączyć postowanie przez gości – wiem wiem w dobie SB i innych ciężko to wykonać
    • wykorzystywać kanały social media
    • wykorzystywać linki i fora gdzie jest dyskusja o Twojej stronie/blogu
  5. Wykorzystać do marketingu portale społecznościowe
  6. Obniżyć CTR – dokonać ponownej optymalizacji strony pod kątem tytułów, znacnzików meta etc…
  7. Nie przesadzać z liczbą linków wewnętrznych – na katalogach stron jest o to ciężko – ponoć Panda jest czuła na dużą liczbę linków wewnętrznych

 

Aktualizacja: tak przyszło mi na myśl, że dobrze jest zadbać o breadcrumbs w przypadku pkt. 4.

1 gwiazdka2 gwiazdki3 gwiazdki4 gwiazdki5 gwiazdek (2 głosów, średnia: 5,00 z 5)

Paweł Gontarek

Paweł Gontarek

Paweł Gontarek - Zgred - pasjonat SEO, staram się zrozumieć czym jest i jak działa SEM oraz UX.

Komentarze

  1. “obnizyc ctr”? – Myślałem, że im CTR wyższy tym lepszy. Czyli optymalizacja meta tagów aby zwiększyć CTR z SERPów a nie obniżać go? To pomyłka czy myślisz o czymś innym niż ja?

    Ciekawi mnie jak Google zareaguje na strony, z których pobierane i przemielane są kanały RSS. Czy ukarze rssówki czy serwis matkę też? Jak będą traktowane precle gdzie 98% to duplikaty i jak to się odbije na spamosferze : )

  2. Czy będą “wyindexowywane” przez google wpisy powielające się np we wpisach w katalogach, preclach itp ? Kiedy panda rusza w polsce ?

  3. od dawna mówię, że przyszłość SEO to jakość – a kto tego nie zrozumie, ten będzie “płakać”.
    Jeszcze do niedawna śmiano się z takich stwierdzeń, jeszcze jak padały na Forum Google – widzę, że jednak miałem rację 🙂

  4. @bobson: Panda/Famer już powoluśku wkracza do Polski … kwestia czasu kiedy tak naprawde “przeleci się” po witrynach robiąc “potop” ???

  5. Z tym obnizaniem CTR Zgred to chyba przesadzasz. Oczywiscie pod warunkiem, ze nie generujesz ruchu sztucznie. Zmniejszanie organicznego CTR jest wbrew logice.

  6. Właśnie optymalizuję na wszystkich płaszczyznach swój Katalogujemy.net, więc dziękuję za kilka dobrych sugestii.

    Bardzo jestem ciekaw co po tym zapowiadanym tornadzie zostanie z polskich SEOKatalogów, niestety struktura podstron jest we wszystkich niemal identyczna, dlatego cały czas zastanawiam się jak najskuteczniej wyróżnić swoje katalogi.

  7. Co do numeru 7 to chyba się nie zgodzę:) Wystarczy popatrzeć na wikipedie.
    Jeśli treść jest ok to google nie powinno się czepiać.

  8. Co do pkt 7 – odpowiednia równowaga między dobrą treścią i linkami prowadzącymi do domeny a dużą ilością linków wewnętrznych powinna zapewnić nam bezpieczeństwo.

  9. ad.3. zduplikowana treść… niby takie proste.. a co w przypadku kiedy zamówisz artykuły od (jak się później okazuje) pseudo-copywriter’s z którymi nawet nie masz umowy ?!?. W dodatku nawet po reklamacji twierdzą że teksty są pisane tylko przez nich i zawsze unikalne…
    Sam sobie odpowiem – pytanie retoryczne…

  10. ..i jeszcze jedno – zanim opublikujesz artykuł sprawdź czy nie ma go już przypadkiem w necie. A póki co nie korzystaj ze strony narzedziapozycjonera.pl ( a przynajmniej nie do pisania precli).

  11. Panda patrzy na stronę całościowo i także na umiejscowienie elementów na stronie. Od jakiegoś czasu Google bardzo trafnie jest w stanie określić położenie i sklasyfikować elementy na stronie oraz to jaką mają wartość dla faktycznej zawartości, co widać doskonale na podglądzie strony generowanym przy wynikach wyszukiwania, dlatego tzw. tagi. zbite w kupę w jednym miejscu strony mogą tylko zaszkodzić tak jak i bloki tego samego tekstu powielonego na stronach.

  12. Zasada jest prosta i wszystkim znana,
    róbcie strony dla ludzi, to nie dostaniecie bana…

    Proste. Stare i prawdziwe, i nawet się zrymowało 🙂

    Ale…zastanówcie się. Przykład popularnych ostatnio seokatalogów. Czy seokatalogi są dla ludzi/potrzebne/wartościowe/coś wnoszą nowego?
    Czy oprócz spisu firm z całej polski x 10000 (nie wiem ile jest seokatalogów) użytkownik znajdzie coś ciekawego?
    Raczej wątpię. Po co komuś kolejna strona, na której są prawie identyczne opisy, jeśli nie identyczne (tak tak…bo jak niby sprawdzicie czy ten sam opis nie jest na 1000 innych katalogów, skoro przed chwilą go napisałem i puściłem w eter. Po prostu nikt go jeszcze nie zaakceptował i nie jesteście tego w stanie sprawdzić – chyba że macie 5 katalogów i ten sam opis się już u was pojawił, ale ilu z was ma więcej niż 2 katalogi?:).

    Myślicie, że jak dodacie na stronie captche, to google się nad wami zlituje, bo walczycie ze spamem, moderujecie i takie tam bzdety i głupie usprawiedliwianie się?:) Czym seokatalog różni się od qlweba?
    Oprócz tego, że jest inaczej napisany i bardziej skomplikowany, ma captche (którą można dodać wszędzie), jest “moderowany” (qlweby też na początku były). I co z tego? To nadal farma linków z miernej jakości tekstem, który nic nie wnosi.

    Na razie google wam wybaczy, na razie, bo jak będzie więcej seokatów to będzie bum i kasa z płatnych wpisów pójdzie się tego…

    Pewnie ktoś pomyśli…ale przecież seokatalog jest super. Można zmienić szablon i google się nie pozna. G… prawda. Nauczyliście się jak zbierać kataologi scrapeboxem/hreferem, to i google się nauczy.

    I przestańcie myśleć, że jak dodacie breadcrumbsy to będzie cool i w ogóle.
    Możecie sobie dodać co chcecie a to i tak będzie g… warte, jak na stronie będzie się pojawiać codziennie 500 artykułów na 1500 kompletnie różnych tematów i z każdej podstrony będą wychodziły jakieś linki, do tego jakieś przypadkowe linki w stopce i myślicie, że pokazaliście google palec:)

    No ale dosyć tego moralniaka.
    Idźcie robić wartościowe strony, do których nie będziecie się wstydzić zalinkować w komentarzu na poczytnym blogu, to może za rok spotkamy się w niezmienionym gronie.

    Pozdrawiam
    M

  13. To nie tylko seoki. Zobaczcie precle.
    Ile z nich przetrwało. Na ilu wpis indeksuje się jeszcze sam. Na ilu wpis po porządnym przywaleniu linkami nawet nie wejdzie do indeksu mimo fajnego artykułu. Ile zachowało site a ile precli ma 10000 artykułów i kilka stron w indeksie.
    To wszystko ma jakiś wspólny mianownik.
    Może jest to nienaturalny przyrost site dla zwykłej strony?
    Może wielotematyczność takiego tworu?
    Nie oszukujmy się, kto z nas jest w stanie pisać na każdy temat?
    Zaraz ktoś powie…blip sobie nieźle radzi. Ma site o wiele większy na godzinę niż nie jeden precel na miesiąc, a tematyczność jest tak samo różnorodna.
    Ale to jest blip a nie stronka pana Kazia opony-i-porcelana.dzikieweze.waw.pl o wszystkim i o niczym (bo przecież sami nie będziemy tworzyć strony, lepiej jak ktoś nastuka artykułów za nas), utworzona tylko po to, żeby wrzucić linka do pozycjonowanej strony (super zaplecze jakich wiele w sieci) o oponach lub innej porcelanie, podlinkowane komentarzami ze scrapeboxa na blogach, które mają już kilka tyś. komentarzy, a cała strona zajmuje >1mb.
    Nie zdziwił bym się gdyby Google zaczęło karać za umieszczenie linka na takim blogu, bo ktoś kto ma trochę w głowie i zależy mu na swojej stronie, na pewno by nie wrzucił linka w takie g…..no.

    Takie rzeczy łatwo może wychwycić algorytm.

    M

  14. Zrobię stronę dla ludzi i co? Sama się wypromuje dzięki FSB i optymalizacji? Nie wierzę. Linki trzeba zdobywać. I czy to precle, katalogi, SB czy XR prędzej czy później będą to linki śmieciowe bez względu na bazę jaką posiadasz.
    Dziś baza jest super jutro trafia na jakieś miejsce kolejny, później kolejny i aż do zrobienia śmietnika albo zabrania się do roboty moderatora.

  15. Drogi wojtku,
    jeśli uważasz, że dopalanie zaplecza (a tym bardziej strony docelowej) przez komentarze w poście, który ma > 1000 linków wychodzących jest jeszcze całkiem dobrym pomysłem, to pozwolę sobie zostawić cię 5 lat z tyłu branży seo i nie wchodzić w zbędną dyskusję.

    M

  16. Bez urazy ale to co napisałeś równie dobrze sprawdzi się przy następnych 6 aktualizacjach algo. Są to po prostu mega ogólnikowe porady i przy każdym update się sprawdzą . A co do Pandy/Farmera nie sądzę że tak dobrze już przebadałeś zmianę algo że jesteś w stanie wyciągnąć jakiekolwiek wnioski.
    Ja zauważyłem że na kilku stronach nagle w zawiązku z aktualizacją puściły stare filtry, wiele stron podskoczyło i prawie żadne nie spadły.
    Chętnie pogadam o tym na szkoleniu.

  17. Marnowanie czasu. Przejrzałem już kilkaset serwisów, które zostały przemielone tym algorytmem i mogę jasno stwierdzić: te porady nijak się nie mają do zmian.

  18. Po cholere takie kity żenisz ludziom. Pamietaj że ten kicz wroci do Ciebie po stokroć. Zapewniam Cie. Robert

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

Kategorie

Partner

Whitepress

Linkhouse

Najnowsze komentarze

Popularne artykuły