Agencja SEO - Pozycjonowanie stron www, audyty SEO

Filtr algorytmiczny w Google – jak go rozpoznać, usunąć, co zrobić ?

Filtr algorytmiczny w Google to temat rzeka – niestety. Głównym problemem związanym z tego typu karą jest fakt, że jest ciężko postawić prawidłową diagnozę i znaleźć rozwiązanie. Według niektórych źródeł fitlr algorytmiczny to nie jest filtr i nie jest też kara tylko rekalkulacja wyników – ahc jakie to piękne stwierdzenie ;).

kara-od-google

Wiadomo, że dla filtr algorytmiczny nie jest ujawniany w panelu GWT (Google Webmaster Tools) w sekcji „Kara ręczna”. Filtr algorytmiczny to filtr nakładany automatycznie przez wyszukiwarki. Nie otrzymujemy żadnych powiadomień o takich działaniach. Możemy dostrzec jego skutki w statystykach strony i ogólnych odwiedzinach użytkowników. Poszukiwanie jest dość czasochłonne (przez nieustanne testy co jest źle, poprawianie różnych elementów mniej lub bardziej istotnych itede itepe…)

1. Linkowanie – odnośniki do serwisu na kilka fraz EM

Najczęstszą przyczyną filtra w Google jest linkowanie do serwisu – czyli nie jest to jeszcze kara ręczna ale witryna zaczyna się „ślizgać” z ruchem i pozycjamiw wyszukiwarce. Mariusz opisał na swojej stronie kilka objawów w tej kwestii: http://techformator.pl/google-jak-rozpoznac-filtr-algorytmiczny-reczny/ – a ja dodam kilka od siebie:

  • wszystkie frazy pozycjonowane otrzymuja karę
  • witryna otrzymuje „przycinkę”, która objawia się spdakiem ruchu

Zaobserowałem jeszcze taką możliwość, że mamy warianty mieszane czyli:

  • częściowy spadek pozycji fraz
  • częsciowy spadek ruchu
  • lub wszystko razem – spadek częściowy na frazy i ruch

Rysunek poniżej obrazuje frazę „lampy”. Serwis dostał kilka strzałów na kilka fraz (jakies drobne 4 sztuki) – ruch specjalnie nie zmalał. Podziękowania należą się automatom linkujących z różnych for RU na exact match 😉

algorytmiczny-lampy

Dla tego serwisu stwierdzono spadek ruchu rzędu kilku procent, konwersja sprzedażowa też troszkę (ale nie są to pojedyncze procenty).

Obecnie wykonano:

  • optymalizację tekstów (w trakcie przygotowania następne)
  • rozbudowa starych tekstów/opisów
  • dodanie nowych opisów do produktów według analizy BCG (matryca)
  • kilka dodatkowych sklepów (satelitarnych)
  • disavow dla wykrytych w GWT, MajesticSEO nowych linków -tutaj równiez uwzględniono dane znalezione przez CognitiveSEO
  • linki z tak zwanych „dobrych źródeł” 😉

Oczywistą oczywistością jest, że za linkowanie skupione wokół kilku fraz (słów kluczowych) filtr w Google będzie trzymał dopóki dopóty nie zostanie zmieniony profil linków – IMHO jednocześnie należy edytować stare linki zmieniając frazy na „jakieś inne” oraz zdobywac nowe linki w postaci adresów URL -głównie dzięki użytkownikom (WHS) lub samemu (nonWHS 😉 )

algorytmiczny-rozklad-anchorow

 

2. Linkowanie – odnośniki ze słabych jakościowo serwisów

Punkt 1 należy uzupełnić o przypadek kiedy pomimo różnych anchorów praktycznie większość linków (z doświadczenia z reguły ca 90% i więcej) była ze stron o niskiej lub bardzo niskiej jakości (z naciskiem na bardzo bardzo). Wtedy niewiele można zrobić ale trzeba się narobić i to w dośc długim okresie czasu. Zmiana profilu linków zajmie kilka miesięcy. Stąd tez czasem można zaporponowac klientowi zbudowanie drugiego serwisu ale do tego trzeba podejsc rozsądnie – nikt nie zbuduje kopii księgarni z 50 tysiącami pozycji w miesiąc 😉

Zdarzyło mi się dwa razy kiedy tego typu witryny poddały się (wzrost ruchu) gdy:

  • pozyskano linki z zaufanych źródeł
  • odcięto SWLe (szczególnie te rotacyjne)
  • wykonano disavow (niestety)
  • usunięto odnośniki ze słanych witryn (np precle)

Czyli praktycznie postępuje się jak przy filtrze ręcznym ale efekt jest widoczny po kilkunastu tygodniach 🙁

3. Kopie opisów w sklepie

To jest nagminny problem. Jest to także jeden z podstawowych problemów jakie napotyka się w sklepach typu: odżywki, suplementy, apteki i tak dalej – czyli wszędzie tam, gdzie nie wolno zmieniać opisów z uwagi na prawo (szczególnie widać to właśnie przy aptekach). Wszelkie audyty seo powinny zawierać również wskazanie o tym fakcie oraz sposób przynajmniej częściowego rozwiązania problemu:

  • przebudowa kategorii sklepu do takiej postaci aby można było wykonac optmalizację i „wsadzić tam” dobry i rozbudowany opis wraz ze zoptymalizowanymi słowami kluczowymi
  • optymalizacja kart produktowych plus jak najsilnieszje linkowanie wewnętrzne
  • budowa serwisów satelitarnych z opisem np biegania wyczynowego i jakich odżywek używać – budowa contentu
  • moga być tez ordynarne zaplecza „szybkiego sorty i krótkiego żywota” – ale to tylko dla „sezonowców” dobre rozwiazanie

Ostatnimi czasy nagminne staje się kopiowanie opisów ze stron klientów będących w top20 do opisów katalogów, precli, czy tez nawet na strony własnych klientów (kilku ubiłem poprzez DMCA, kilku skasowało opisy wskazane jako kopie).

4. Błędy skryptu – długi czas odpowiedzi

Rzadko spotykany ale dość łatwy do wychwycenia – błędy skryptu powodujące powstawanie błędów 50x, które odpowiadają za cza s odpowiedzi od serwera. Tutaj różnie mówią ale jeśli czas przekracza 2 sekundy zacząłbym siępoważnie zastanawiać. Mój blog czasami ma „przywieszki” spowodowane dość starym serwerem – zainstalowałem cache – pomogło.

Możliwe jest też złe ustawienie serwera ale to sporadyczne przypadki i z reguły zdarzają się tym dużym 😉 hostingom.

5. „Dziurawy” skrypt

Ten element jest trudny do wychwycenia ponieważ jest dużo rzeczy do sprawdzenia. Jednakże nalezy się spodziewać, że w przypadku dziury będizmey mieli ostrzeżenie o szkodliwej witrynie bo istnieje wstrzyknięty trojan, wirus czy iframe… Więc reakcja jest dość prosta.

Warto też sprawdzać wszelki epliki javascript, kóre są popdinane pod np skórki do WordPressów, zakodowane stopki etc…

6. Programy stowarzyszeniowe – partnerskie

Filtr algorytmiczny można dostać jeszcze za uczestnictwo w programi partnerskim. W większości jest nakładany filtr ręczny z powiadomieniem o niskiej jakości natomiast nie zawsze. Na forum Google dla Webmasterów zdarzają się pytania i przypadki, kiedy ewidentnie filtr jest za program partnerski a nie ma „ręcznego”. Można to zaoberwować zarówno jako spadek na pozycjach dla pozycjonowanych fraz jaki i w ruchu. Algorytmiczny dotyka całej witryny (z resztą rzadko kiedy jest ona rozbudowana)

7. Upychanie słów kluczowych

Filtr można też otrzymać za upychanie słów kluczowych. Jeśli się „przegnie” przychodzi ręczne powiadomienie o naruszeniu wskazówek jakościowych na stronie. Uprzedzam, że nie ma jednoznacznego czynnika ile słów kluczowych może być na stronie i kiedy otrzyma się filtr czy też powiadomienie. Tekst i słowa należy dobierać rozsądnie. Z testów (kiedyś) stron finansowych 120 razy słowo kredyty dało filtra na jednej stronie, ale 50 razy też to samo jeszcze nie. Kwestia zapewne była długości artykułu oraz znacnzików Hx oraz boldowania.

 

 

Na koniec drobne podsumowanie o filtrze algorytmicznym:

  • związany jest z ruchem i/lub spadkiem fraz
  • nie ma komunikatu w panelu GWT
  • może istnieć kilka jego przyczyn jednocześnie
  • trudny do wychwycenia
  • długotrwały ze względu na reakcję algorytmu Google na wprowadzane zmiany

 

Zapraszam do dyskusji i rozwinięcia tematu 🙂

 

Uzupełnienie 22-04-2014 🙂

Jak to zwykle bywa coś się przypomni po fakcie. Punkt 6 i 7 dodany.

 

potrzebujesz pomocy z filtrem ? Napisz do Nas

 

 

1 gwiazdka2 gwiazdki3 gwiazdki4 gwiazdki5 gwiazdek (14 głosów, średnia: 4,36 z 5)

Paweł Gontarek

Paweł Gontarek - Zgred - pasjonat SEO, staram się zrozumieć czym jest i jak działa SEM oraz UX.

Komentarzy (55)

  1. Damian
    Kwiecień 21, 2014

    Jeśli znajdziemy już przyczynę takiego filtru i dotyczą one zawartości serwisu, usuniemy wszystkie problemy, to ile czasu mija, nim filtr zostanie zdjęty? Jest jakaś reguła, czy totalna losowość?

    • Paweł Gontarek
      Kwiecień 21, 2014

      Nie ma reguły – widać to albo po wzrosci epozycji na frazy, albo po wzroście na ruchu, albo obie rzeczy jednocześnie. Czasem mija kilka dni i jest reakcja, czasem kilka tygodni i trzeba szukac dalej bo nie ma reakcji. Problematyczne są linki bo jeśli w nich się grzebie to bez zmiany sposobu i jakości linkowania może być ciężko zrobić cokolwiek 🙁

      • Damian
        Kwiecień 21, 2014

        Dziękuje za odpowiedź 😉

        Mam nadzieję, że moje zmiany zadziałają niedługo – od wprowadzenia minęło już prawie 2 tygodnie.

        Dodałbym jeszcze, że filtra można dostać, gdy ktoś za spamuje nam serwis (np. komentarzami) linkami do niepewnych stron, a są one dofollow.

  2. Foxen
    Kwiecień 21, 2014

    Chore jest dla mnie to, że nie ma komunikatu o filtrze. Dlaczego?
    A tak to człowiek musi analizowac, szukac itp żeby sprawdzić czy spadek ruchu to skutek filtru…

    • Miłosz
      Kwiecień 21, 2014

      A po co ma być skoro Google ani nie jest etyczne, ani nie dba o właścicieli witryn. Ta wyleci to będą inne…

  3. Kamil
    Kwiecień 21, 2014

    Jak strona nie reaguje na optymalizację i dobre linkowanie wzrostem pozycji to po miesiącu starań spokojnie można zakładać, że ma algorytmiczny filtr. Najlepsze rozwiązanie to ciągle poprawianie i rozbudowa on-site SEO, zdobywanie linków z najlepszych źródeł oraz co ważne usuwanie spamu do strony, gdyż w przeciwnym razie zdjęcie filtra może trwać wieczność. Co ważne zdjęcie filtra algorytmicznego jest prostsze jak strona ma go już od roku lub dłużej, wtedy spam do strony „obumarł” na tyle, że filtr może puścić samodzielnie, bez pomocy pozycjonera.

  4. Marek
    Kwiecień 21, 2014

    Reklama internetowa dynamicznie rozwija się wraz z rozwojem internetu i coraz większe miliardy firmy tu kierują. Google doskonale to widzi i podejmuje wiele działań aby te środki trafiały do ich kasy a nie do kas innych firm. Mamy więc coraz więcej reklam w różnej postaci pod szyldem Googla. Aby firmy szybciej po nie sięgnęły są zniechęcane do finansowania w działania seo. Jednym z tych działań jest również filtr algorytmiczny a za chwile pojawi się kolejna odmiana pingwina.

  5. Igor
    Kwiecień 21, 2014

    Mam jedną tak zafiltrowaną stronę od lat i po walkach o odfiltrowanie stwierdzam, że nie warto się męczyć. Najlepiej postawić stronę pod nową domeną.

    • Paweł Gontarek
      Kwiecień 21, 2014

      No włąsnie jeszcze jednej rzeczy nie opisałem 🙂 Dzięki, że napisałeś komentarz 🙂

    • Krzysztof Furtak
      Kwiecień 21, 2014

      I co dalej? Linkować po staremu i za jakiś czas kolejna zmiana? Jak się nie dba o markę i nie zależy na domenie to jest dobre i tanie wyjście.

  6. Jacek
    Kwiecień 21, 2014

    Znajomy zmieniał domeny 3 razy. Tak działały firmy z portalu aukcyjnego!

    • Paweł Gontarek
      Kwiecień 21, 2014

      Nie bierze się ofert z portalu aukcyjnego. Tanio NIGDY nie znaczy nawet DOSTATECZNIE.

    • napierwszym.pl
      Kwiecień 21, 2014

      Filtr nawet jak odpuści to strona i tak ma obniżony ranking. Zmiana domeny to najlepsze wyjście.

  7. Przemek
    Kwiecień 21, 2014

    Wychodzenie z filtrów to dobry zarobek, bo najczęściej zależy na tym mocnym graczom rynku. Wiadomo, że nagminne karanie ma na celu przejście na ppc.

  8. Gajo
    Kwiecień 21, 2014

    Na chwilę obecna sporo tych zastrzeżeń a pewnie lista będzie się rozwijać w miarę jak pojawią się nowe niechciane przez google „kwiatki” prawda?

  9. Gejda
    Kwiecień 21, 2014

    Posiadam taki filtr od paru miesięcy na jedną frazę jednego dnia jest na 12 miejscu drugiego nie ma jej wcale, profil linków zmieniony, cos można jeszcze robić?

    • Paweł Gontarek
      Kwiecień 21, 2014

      Przede wszystkim nie spamowac mi komentarzy 😉

      1. Przestać ją linkować
      2. Zoptymalizowac stronę pod tę frazę
      3. Możliwe, ze trzeba zmienić sposób zdobywania linków.

  10. Rafal
    Kwiecień 21, 2014

    Takie gadanie, co to znaczy slaby jakosciowo link ze slabej jakosciowo strony? Mam prosbe wskaz mi o to palcem ktory to jest slaby a ktory jest dobry hehe oprocz strony glownej onetu?:)

  11. mateusz
    Kwiecień 21, 2014

    Czy przy algorytmicznym w przypadku zgłaszania śmieciowych linków należy listę udostępnić pracownikowi G. (w Google docs) czy wystarczy samo przesłanie listy?

    • Paweł Gontarek
      Kwiecień 21, 2014

      W przypadku filtra algorytmicznego nie masz możliwości wysłania żądania ponownego rozpatrzenia. Więc tylko dla Siebie tworzysz taki dokument i wgrywasz go jako DISAVOW – jeśli uważasz, że te linki są śmieciowe i nie możesz ich usunąć.

  12. Krzysztof Furtak
    Kwiecień 21, 2014

    Największy problem w sklepach to kopiowana treść od hurtownika. A wystarczy ją tylko przeredagować by już mieć lepsze wyniki nawet bez pozycjonowania. I tak jak mówisz oferty z aukcji to niemal pewna kara. Jaka cena takie efekty (przynajmniej te super oferty za 10zł).

  13. Haliśka
    Kwiecień 21, 2014

    Mam stronę od 4 lat i raczej wszystko było stabilnie, powoli się pięła ku górze. Z rok temu jedna fraza którą obserwowałem zaczęła tańce jakieś pozycje 11-4-out-40-7-out i tak z miesiąc trwało w końcu wyleciała >100

    A dzisiaj rano na trzech stronach które obserwuję totalna masakra, po ok. 10 fraz na każdej poleciało w dół, a niektóre >100 kilka o 10-30 miejsc.

    O ile w przypadku pierwszym mógł by to być filtr, chociaż nie wiem czemu, bo właściwie w ogóle nie walczyłem o tę frazę, to przypadek dzisiejszy to chyba jakieś zawirowania Google, bo filtry jednego dnia na 3 stronach nie związanych ze sobą (budowlanka, zespół muzyczny i motoryzacja) to chyba był by straszny zbieg okoliczności

    • Paweł Gontarek
      Kwiecień 21, 2014

      Odczekałbym kilka dni bo może jakaś rekalkulacja wyników jest. Trzeba też mieć na względzie, że G nie gwarantuje wyników, jak również są inne przyczyny np konkurencja, źle wykonan aoptymalizacja, błędy na stronie i w skrypcie etc… Stąd fluktuacje.

  14. Przem
    Kwiecień 21, 2014

    Mam stronę która od jakiegoś ma filtr na daną frazę jednego dnia jest na pierwszej stronie drugiego nie ma jej wcale i tak codziennie linki śmieciowe usunięte. Co robić podlinkować ja czy zostawić na jakiś czas?

  15. Haliśka
    Kwiecień 21, 2014

    Coś się dzieje w G, o 9:00 część fraz wróciła na swoje miejsce, a nawet awansowały (22–>8, 38–>4), a o 12:00 część znowu poleciała.

  16. Haliśka
    Kwiecień 21, 2014

    Niedobrze, oj niedobrze. Od tygodnia 2 frazy poleciały .>100 niestety. Wcale mi się to nie podoba. Nie wiem czy już zacząć grzebać w linkach w GWT ?

  17. eupe
    Kwiecień 21, 2014

    Witam serdecznie, mam pytanie. Znajomy prowadził sklep na dwóch adresach (oczywiście kopia 1:1 ). Jeden ze sklepów pozycjonowany ten drugi nie. Miesiąc temu wyłączył „duplikat” . Jednak dalej siedzi w indeksie(ponad 5 tys stron.)
    Dzisiaj najprawdopodobniej złapał filtr algorytmiczny (brak info o ręcznych działaniach, duże spadki (30+ miejsc w dół).

    Czy może to być wynikiem duplikacji serwisów ?

    • Paweł Gontarek
      Kwiecień 21, 2014

      Jeżeli wyłączył kopię miesiąc temu to może coś źle wyłączył ??? Jednakże jesli to aż po miesiącu podjerzewałnym proces pozycjonowania jako niewłaściwie przeprowadzony niż karę za kopię.

      • eupe
        Kwiecień 21, 2014

        Strona odziedziczona pół roku temu po „dużej” firmie z Krakowa. W spadku zostawili spam w seokatalogach. Od pół roku wysyłaliśmy prośby u usuwanie wpisów i strona była dodawana do katalogów typu onet, wp, interia (z listy VIP). Pozycje szły w górę, linkowana praktycznie na frazy brandowe.

        Serwis ma problem z linkami wewnętrznymi. Skrypt generuje kilkaset linków ze strony głównej, z czego spora część jest na taki sam anchor(np. 70x baterie) i ten link prowadzi do wygenerowanych na podstawie menu nagłówków h1- też zduplikowanych. Doprowadza to również, do przesycenia tym słowem kluczowym na każdej podstronie (7-8%).

        Jeśli wina nie leży po stronie zduplikowanych serwisów, to zostaje kwestia kiepskiej optymalizacji, pozostałości po starej firmie SEO sprzed pół roku lub niedawne dodanie do katalogu gooru.pl (lub wszystko naraz)

        • Paweł Gontarek
          Kwiecień 21, 2014

          Jesli jest jak piszesz to usiadłbym do optymalizacji bezwzględnie. Potem i tak poczyscił troszkeprofil linków (jeśli seoki to napewno jes to grupa lub własciciel esą do namierzenia – problemem mogą być tylko seoki wielokrotnie przenoszone co własnie przerabiam).

          Jak chcesz mogę rzucić oczkiem 😉

          • eupe
            Kwiecień 21, 2014

            Dziękuję, poszła PW na info@zgred.pl

          • Paweł Gontarek
            Kwiecień 21, 2014

            IAi – nie mam pytań 😀 Ogólnie optymalizacja na pewno oraz trochę rzeczy przy linkowaniu. Z uwagi że to IAi optymalizacja może być awykonalna.

  18. Haliśka
    Kwiecień 21, 2014

    Powinien ją wyindeksować w GWT, bo jeżeli siedzi dalej w indeksie to G.może ją nadal jakby widzi, pomimo, że jest „wyłączona”

  19. Dziękuję za dużą porcję praktycznej wiedzy odnośnie zdejmowania filtra z witryny – niestety właśnie to przerabiam i sprawdzę w praktyce powyższe zalecenia. Zastanawiam się czy czekać na informację z Narzędzi Google o zdjęciu filtra czy działać już w temacie pozyskiwania „wartościowych” odnośników – nie zmarnuje się taka praca? Dużo linków poleciało w związku z czyszczeniem profilu BL ;S

  20. Tomasz
    Kwiecień 21, 2014

    Z tego co ostatni się dowiedziałem, podobne objawy jak filtr algorytmiczny, czyli znaczny spadek pozycji, może wystąpić również przy niestabilnym serwerze na którym mamy stronę.

  21. Marcin
    Kwiecień 21, 2014

    Zgłosił się do mnie klient, do strony prowadzi ok 8-9k linków i prawdopodobnie dostała filtr algorytmiczny. Po przepuszczeniu przez odkurzacz połowa odpadła (domeny z banem, errory stron, brak linka), łącznie zostało 3500 linków. Po dalszej weryfikacji wyszło, że ok 100 można warunkowo przepuścić (linki z profili na forach, niestety nawet nie powiązanych z tematyką strony), reszta to meeega słabe precelki itp. Najsłabsze rejony internetu z najsłabszych. I zastanawiam się, czy warto bawić się w wyciąganie strony z filtra (tak przypuszczam, bo stronka poleciała w dół dość mocno) czy zasugerować przeniesienie na nową domenę? Swoją drogą dla klienta byłaby to już kolejna przeprowadzka, po firma po której stronę przejąłem już przenosiła z powodu filtra…. i sama ją do niego wprowadziła 🙂 Do strony nie prowadzą tak naprawdę żadne sensowne linki…. Usunięcie linków nie powinno być problemem – zakładam, że większość to zaplecze poprzedniej firmy. Tylko czy stronka wróci do normy, jeżeli na start dostanie:
    – oczyszczenie ze słabych linków
    – konkretną optymalizację
    – linkowanie na najmocniejsze katalogi
    – trochę szeptanki na forach tematycznych?

    To działania na start, ale pewien budżet pochłoną i nie wiem, czy nie będą to pieniądze wywalone w błoto….

    • Paweł Gontarek
      Kwiecień 21, 2014

      Wróci … ale naj..sz się sporo i czasu stracisz. Sądzę, że efekty będzie można zoabczyć po kilku miesiącach do roku czasu. Wcześniej się nie uda bo raz że zrobisz to delikatnie a dwa skoro delikatnie to szybko nie nalezy 🙂

      • Marcin
        Kwiecień 21, 2014

        Czyli co, bawić się, a ruch na stronie uzupełnić AdWordsem oraz wspomnianymi wcześniej linkowaniami i cierpliwie czekać, czy przenieść wszystko na nową domenę, która od początku będzie miała WHS robione. Bo naprawdę mam dylemat. Jedyną zaleta w tym linkowaniu jest to, że było ono robione na polskich stronach, prawdopodobnie w zapleczu, więc ok. połowę da się spokojnie usunąć i to dość szybko (przynajmniej taką mam nadzieję)

        • Paweł Gontarek
          Kwiecień 21, 2014

          NO ja nad swoim blogiem pracowąłem 1,5 roku zanim wylazł na powierzchnię aczkolwiek na frazę pozycjonowanie jakoś go nie ma 😉 A wiele linków nadal wisi …

          • Zdzich
            Kwiecień 21, 2014

            Pocieszające .. 1,5 roku. Gdzie można sprawdzić jakość linków, nie rujnując się?
            PS. (Strona już bez muzyki.)

          • Paweł Gontarek
            Kwiecień 21, 2014

            NIe ma czegoś takiego jak „jakość linków” – po prostu nie ma.

  22. Maćko
    Kwiecień 21, 2014

    Jak zawsze dobry artykuł i bardzo cenne i trafne uwagi w komentarzach. Oby tak dalej – czyli nie obniżać lotów 😉

  23. zebol
    Kwiecień 21, 2014

    Filtr ręczny i prośba o ponowne rozpatrzenie to wielka ściema pracowników nieomylnego G.
    Uzasadnienie proste:

    Test 50 domen w ręcznym:
    25 – DNS przekierowany na rejestratora domeny
    10 – DNS przekierowany na domenę w filtrze ręcznym!
    10 – bez zmian / dodatkowo disavow link
    5 – nie aktywnych – no live

    Teraz tak – zero tłumaczenia i próśb o wyjście – tekst typu „poprawiono”
    W ciągu 7 dni rozpatrzono 34 domen.
    W tym 31 pozytywnie, 2 negatywnie, 1 negatywna ale z uzasadnieniem.
    I tu nasuwają się proste wnioski jak rozpatrywana jest domena.
    Gdzie algorytm a gdzie faktycznie human
    Domeny zawieszone powyżej 2m „wyszły” pierwsze

  24. Mariusz
    Kwiecień 21, 2014

    Na bank właśnie mam taki filtr ale chyba tylko na kilka fraz . webmaster tools pokazuje mi w analityce wyszukiwania dla strony frazę gogolin i miejsce 7,9 a w wynikach nie ma nawet w pierwszej setce . Inne frazy pasują miejsca do wyników.

  25. Adi
    Kwiecień 21, 2014

    Artykuł świetny nawet po latach wciąż aktualny. Ja mam taki przypadek, że strona nie może wbić się nawet do top 100 na jedną frazę. Pod frazę z filtrem zoptymalizowana jest jedna podstrona. Wszystkie inne frazy pięknie siedzą w top 10. Frazy poboczne od frazy z filtrem też w top 10… A ta jedna wywalona w kosmos. Czy stworzenie nowej podstrony i pozycjonowanie jej wraz z usunięciem starej podstrony coś da?

    • Paweł Gontarek
      Kwiecień 21, 2014

      Sprawdź. Powinno pomóc 🙂

      • Adi
        Kwiecień 21, 2014

        Dziękuję, za szybką odpowiedź. Pochwalę się wynikami za jakiś czas dla potomnych 🙂 Miałbym jeszcze jedno pytanie: czy warto ze starej podstrony zrobić przekierowanie 301 na nową podstronę?

Zostaw komentarz

Twój adres e-mail nie będzie udostępniony. Wymagane pola są oznaczone *