Filtr algorytmiczny w Google to temat rzeka – niestety. Głównym problemem związanym z tego typu karą jest fakt, że jest ciężko postawić prawidłową diagnozę i znaleźć rozwiązanie. Według niektórych źródeł fitlr algorytmiczny to nie jest filtr i nie jest też kara tylko rekalkulacja wyników – ahc jakie to piękne stwierdzenie ;).

 

Wiadomo, że dla filtr algorytmiczny nie jest ujawniany w panelu GWT (Google Webmaster Tools) w sekcji „Kara ręczna”. Filtr algorytmiczny to filtr nakładany automatycznie przez wyszukiwarki. Nie otrzymujemy żadnych powiadomień o takich działaniach. Możemy dostrzec jego skutki w statystykach strony i ogólnych odwiedzinach użytkowników. Poszukiwanie jest dość czasochłonne (przez nieustanne testy co jest źle, poprawianie różnych elementów mniej lub bardziej istotnych itede itepe…)

1. Linkowanie – odnośniki do serwisu na kilka fraz EM

Najczęstszą przyczyną filtra w Google jest linkowanie do serwisu – czyli nie jest to jeszcze kara ręczna ale witryna zaczyna się „ślizgać” z ruchem i pozycjamiw wyszukiwarce. Mariusz opisał na swojej stronie kilka objawów w tej kwestii: http://techformator.pl/google-jak-rozpoznac-filtr-algorytmiczny-reczny/ – a ja dodam kilka od siebie:

  • wszystkie frazy pozycjonowane otrzymuja karę
  • witryna otrzymuje „przycinkę”, która objawia się spdakiem ruchu

Zaobserowałem jeszcze taką możliwość, że mamy warianty mieszane czyli:

  • częściowy spadek pozycji fraz
  • częsciowy spadek ruchu
  • lub wszystko razem – spadek częściowy na frazy i ruch

Rysunek poniżej obrazuje frazę „lampy”. Serwis dostał kilka strzałów na kilka fraz (jakies drobne 4 sztuki) – ruch specjalnie nie zmalał. Podziękowania należą się automatom linkujących z różnych for RU na exact match 😉

algorytmiczny-lampy

Dla tego serwisu stwierdzono spadek ruchu rzędu kilku procent, konwersja sprzedażowa też troszkę (ale nie są to pojedyncze procenty).

Obecnie wykonano:

  • optymalizację tekstów (w trakcie przygotowania następne)
  • rozbudowa starych tekstów/opisów
  • dodanie nowych opisów do produktów według analizy BCG (matryca)
  • kilka dodatkowych sklepów (satelitarnych)
  • disavow dla wykrytych w GWT, MajesticSEO nowych linków -tutaj równiez uwzględniono dane znalezione przez CognitiveSEO
  • linki z tak zwanych „dobrych źródeł” 😉

Oczywistą oczywistością jest, że za linkowanie skupione wokół kilku fraz (słów kluczowych) filtr w Google będzie trzymał dopóki dopóty nie zostanie zmieniony profil linków – IMHO jednocześnie należy edytować stare linki zmieniając frazy na „jakieś inne” oraz zdobywac nowe linki w postaci adresów URL -głównie dzięki użytkownikom (WHS) lub samemu (nonWHS 😉 )

algorytmiczny-rozklad-anchorow

 

2. Linkowanie – odnośniki ze słabych jakościowo serwisów

Punkt 1 należy uzupełnić o przypadek kiedy pomimo różnych anchorów praktycznie większość linków (z doświadczenia z reguły ca 90% i więcej) była ze stron o niskiej lub bardzo niskiej jakości (z naciskiem na bardzo bardzo). Wtedy niewiele można zrobić ale trzeba się narobić i to w dośc długim okresie czasu. Zmiana profilu linków zajmie kilka miesięcy. Stąd tez czasem można zaporponowac klientowi zbudowanie drugiego serwisu ale do tego trzeba podejsc rozsądnie – nikt nie zbuduje kopii księgarni z 50 tysiącami pozycji w miesiąc 😉

Zdarzyło mi się dwa razy kiedy tego typu witryny poddały się (wzrost ruchu) gdy:

  • pozyskano linki z zaufanych źródeł
  • odcięto SWLe (szczególnie te rotacyjne)
  • wykonano disavow (niestety)
  • usunięto odnośniki ze słanych witryn (np precle)

Czyli praktycznie postępuje się jak przy filtrze ręcznym ale efekt jest widoczny po kilkunastu tygodniach 🙁

3. Kopie opisów w sklepie

To jest nagminny problem. Jest to także jeden z podstawowych problemów jakie napotyka się w sklepach typu: odżywki, suplementy, apteki i tak dalej – czyli wszędzie tam, gdzie nie wolno zmieniać opisów z uwagi na prawo (szczególnie widać to właśnie przy aptekach). Wszelkie audyty seo powinny zawierać również wskazanie o tym fakcie oraz sposób przynajmniej częściowego rozwiązania problemu:

  • przebudowa kategorii sklepu do takiej postaci aby można było wykonac optmalizację i „wsadzić tam” dobry i rozbudowany opis wraz ze zoptymalizowanymi słowami kluczowymi
  • optymalizacja kart produktowych plus jak najsilnieszje linkowanie wewnętrzne
  • budowa serwisów satelitarnych z opisem np biegania wyczynowego i jakich odżywek używać – budowa contentu
  • moga być tez ordynarne zaplecza „szybkiego sorty i krótkiego żywota” – ale to tylko dla „sezonowców” dobre rozwiazanie

Ostatnimi czasy nagminne staje się kopiowanie opisów ze stron klientów będących w top20 do opisów katalogów, precli, czy tez nawet na strony własnych klientów (kilku ubiłem poprzez DMCA, kilku skasowało opisy wskazane jako kopie).

4. Błędy skryptu – długi czas odpowiedzi

Rzadko spotykany ale dość łatwy do wychwycenia – błędy skryptu powodujące powstawanie błędów 50x, które odpowiadają za cza s odpowiedzi od serwera. Tutaj różnie mówią ale jeśli czas przekracza 2 sekundy zacząłbym siępoważnie zastanawiać. Mój blog czasami ma „przywieszki” spowodowane dość starym serwerem – zainstalowałem cache – pomogło.

Możliwe jest też złe ustawienie serwera ale to sporadyczne przypadki i z reguły zdarzają się tym dużym 😉 hostingom.

5. „Dziurawy” skrypt

Ten element jest trudny do wychwycenia ponieważ jest dużo rzeczy do sprawdzenia. Jednakże nalezy się spodziewać, że w przypadku dziury będizmey mieli ostrzeżenie o szkodliwej witrynie bo istnieje wstrzyknięty trojan, wirus czy iframe… Więc reakcja jest dość prosta.

Warto też sprawdzać wszelki epliki javascript, kóre są popdinane pod np skórki do WordPressów, zakodowane stopki etc…

6. Programy stowarzyszeniowe – partnerskie

Filtr algorytmiczny można dostać jeszcze za uczestnictwo w programi partnerskim. W większości jest nakładany filtr ręczny z powiadomieniem o niskiej jakości natomiast nie zawsze. Na forum Google dla Webmasterów zdarzają się pytania i przypadki, kiedy ewidentnie filtr jest za program partnerski a nie ma „ręcznego”. Można to zaoberwować zarówno jako spadek na pozycjach dla pozycjonowanych fraz jaki i w ruchu. Algorytmiczny dotyka całej witryny (z resztą rzadko kiedy jest ona rozbudowana)

7. Upychanie słów kluczowych

Filtr można też otrzymać za upychanie słów kluczowych. Jeśli się „przegnie” przychodzi ręczne powiadomienie o naruszeniu wskazówek jakościowych na stronie. Uprzedzam, że nie ma jednoznacznego czynnika ile słów kluczowych może być na stronie i kiedy otrzyma się filtr czy też powiadomienie. Tekst i słowa należy dobierać rozsądnie. Z testów (kiedyś) stron finansowych 120 razy słowo kredyty dało filtra na jednej stronie, ale 50 razy też to samo jeszcze nie. Kwestia zapewne była długości artykułu oraz znacnzików Hx oraz boldowania.

 

 

Na koniec drobne podsumowanie o filtrze algorytmicznym:

  • związany jest z ruchem i/lub spadkiem fraz
  • nie ma komunikatu w panelu GWT
  • może istnieć kilka jego przyczyn jednocześnie
  • trudny do wychwycenia
  • długotrwały ze względu na reakcję algorytmu Google na wprowadzane zmiany

 

Zapraszam do dyskusji i rozwinięcia tematu 🙂

 

Uzupełnienie 22-04-2014 🙂

Jak to zwykle bywa coś się przypomni po fakcie. Punkt 6 i 7 dodany.

 

[symple_button color=”red” url=”/kontakt/” title=”Wyjście z filtra Google – Artykuł” target=”parent” border_radius=””]potrzebujesz pomocy z filtrem ? Napisz do Nas[/symple_button]

 

 

1 gwiazdka2 gwiazdki3 gwiazdki4 gwiazdki5 gwiazdek (14 głosów, średnia: 4,36 z 5)

Paweł Gontarek

Paweł Gontarek

Paweł Gontarek - Zgred - pasjonat SEO, staram się zrozumieć czym jest i jak działa SEM oraz UX.

Komentarze

  1. Jeśli znajdziemy już przyczynę takiego filtru i dotyczą one zawartości serwisu, usuniemy wszystkie problemy, to ile czasu mija, nim filtr zostanie zdjęty? Jest jakaś reguła, czy totalna losowość?

    • Nie ma reguły – widać to albo po wzrosci epozycji na frazy, albo po wzroście na ruchu, albo obie rzeczy jednocześnie. Czasem mija kilka dni i jest reakcja, czasem kilka tygodni i trzeba szukac dalej bo nie ma reakcji. Problematyczne są linki bo jeśli w nich się grzebie to bez zmiany sposobu i jakości linkowania może być ciężko zrobić cokolwiek 🙁

      • Dziękuje za odpowiedź 😉

        Mam nadzieję, że moje zmiany zadziałają niedługo – od wprowadzenia minęło już prawie 2 tygodnie.

        Dodałbym jeszcze, że filtra można dostać, gdy ktoś za spamuje nam serwis (np. komentarzami) linkami do niepewnych stron, a są one dofollow.

  2. Chore jest dla mnie to, że nie ma komunikatu o filtrze. Dlaczego?
    A tak to człowiek musi analizowac, szukac itp żeby sprawdzić czy spadek ruchu to skutek filtru…

  3. Jak strona nie reaguje na optymalizację i dobre linkowanie wzrostem pozycji to po miesiącu starań spokojnie można zakładać, że ma algorytmiczny filtr. Najlepsze rozwiązanie to ciągle poprawianie i rozbudowa on-site SEO, zdobywanie linków z najlepszych źródeł oraz co ważne usuwanie spamu do strony, gdyż w przeciwnym razie zdjęcie filtra może trwać wieczność. Co ważne zdjęcie filtra algorytmicznego jest prostsze jak strona ma go już od roku lub dłużej, wtedy spam do strony „obumarł” na tyle, że filtr może puścić samodzielnie, bez pomocy pozycjonera.

  4. Reklama internetowa dynamicznie rozwija się wraz z rozwojem internetu i coraz większe miliardy firmy tu kierują. Google doskonale to widzi i podejmuje wiele działań aby te środki trafiały do ich kasy a nie do kas innych firm. Mamy więc coraz więcej reklam w różnej postaci pod szyldem Googla. Aby firmy szybciej po nie sięgnęły są zniechęcane do finansowania w działania seo. Jednym z tych działań jest również filtr algorytmiczny a za chwile pojawi się kolejna odmiana pingwina.

  5. Mam jedną tak zafiltrowaną stronę od lat i po walkach o odfiltrowanie stwierdzam, że nie warto się męczyć. Najlepiej postawić stronę pod nową domeną.

  6. Wychodzenie z filtrów to dobry zarobek, bo najczęściej zależy na tym mocnym graczom rynku. Wiadomo, że nagminne karanie ma na celu przejście na ppc.

  7. Na chwilę obecna sporo tych zastrzeżeń a pewnie lista będzie się rozwijać w miarę jak pojawią się nowe niechciane przez google „kwiatki” prawda?

  8. Posiadam taki filtr od paru miesięcy na jedną frazę jednego dnia jest na 12 miejscu drugiego nie ma jej wcale, profil linków zmieniony, cos można jeszcze robić?

    • Przede wszystkim nie spamowac mi komentarzy 😉

      1. Przestać ją linkować
      2. Zoptymalizowac stronę pod tę frazę
      3. Możliwe, ze trzeba zmienić sposób zdobywania linków.

  9. Takie gadanie, co to znaczy slaby jakosciowo link ze slabej jakosciowo strony? Mam prosbe wskaz mi o to palcem ktory to jest slaby a ktory jest dobry hehe oprocz strony glownej onetu?:)

  10. Czy przy algorytmicznym w przypadku zgłaszania śmieciowych linków należy listę udostępnić pracownikowi G. (w Google docs) czy wystarczy samo przesłanie listy?

    • W przypadku filtra algorytmicznego nie masz możliwości wysłania żądania ponownego rozpatrzenia. Więc tylko dla Siebie tworzysz taki dokument i wgrywasz go jako DISAVOW – jeśli uważasz, że te linki są śmieciowe i nie możesz ich usunąć.

  11. Największy problem w sklepach to kopiowana treść od hurtownika. A wystarczy ją tylko przeredagować by już mieć lepsze wyniki nawet bez pozycjonowania. I tak jak mówisz oferty z aukcji to niemal pewna kara. Jaka cena takie efekty (przynajmniej te super oferty za 10zł).

  12. Mam stronę od 4 lat i raczej wszystko było stabilnie, powoli się pięła ku górze. Z rok temu jedna fraza którą obserwowałem zaczęła tańce jakieś pozycje 11-4-out-40-7-out i tak z miesiąc trwało w końcu wyleciała >100

    A dzisiaj rano na trzech stronach które obserwuję totalna masakra, po ok. 10 fraz na każdej poleciało w dół, a niektóre >100 kilka o 10-30 miejsc.

    O ile w przypadku pierwszym mógł by to być filtr, chociaż nie wiem czemu, bo właściwie w ogóle nie walczyłem o tę frazę, to przypadek dzisiejszy to chyba jakieś zawirowania Google, bo filtry jednego dnia na 3 stronach nie związanych ze sobą (budowlanka, zespół muzyczny i motoryzacja) to chyba był by straszny zbieg okoliczności

    • Odczekałbym kilka dni bo może jakaś rekalkulacja wyników jest. Trzeba też mieć na względzie, że G nie gwarantuje wyników, jak również są inne przyczyny np konkurencja, źle wykonan aoptymalizacja, błędy na stronie i w skrypcie etc… Stąd fluktuacje.

  13. Mam stronę która od jakiegoś ma filtr na daną frazę jednego dnia jest na pierwszej stronie drugiego nie ma jej wcale i tak codziennie linki śmieciowe usunięte. Co robić podlinkować ja czy zostawić na jakiś czas?

  14. Coś się dzieje w G, o 9:00 część fraz wróciła na swoje miejsce, a nawet awansowały (22–>8, 38–>4), a o 12:00 część znowu poleciała.

  15. Witam serdecznie, mam pytanie. Znajomy prowadził sklep na dwóch adresach (oczywiście kopia 1:1 ). Jeden ze sklepów pozycjonowany ten drugi nie. Miesiąc temu wyłączył „duplikat” . Jednak dalej siedzi w indeksie(ponad 5 tys stron.)
    Dzisiaj najprawdopodobniej złapał filtr algorytmiczny (brak info o ręcznych działaniach, duże spadki (30+ miejsc w dół).

    Czy może to być wynikiem duplikacji serwisów ?

    • Jeżeli wyłączył kopię miesiąc temu to może coś źle wyłączył ??? Jednakże jesli to aż po miesiącu podjerzewałnym proces pozycjonowania jako niewłaściwie przeprowadzony niż karę za kopię.

      • Strona odziedziczona pół roku temu po „dużej” firmie z Krakowa. W spadku zostawili spam w seokatalogach. Od pół roku wysyłaliśmy prośby u usuwanie wpisów i strona była dodawana do katalogów typu onet, wp, interia (z listy VIP). Pozycje szły w górę, linkowana praktycznie na frazy brandowe.

        Serwis ma problem z linkami wewnętrznymi. Skrypt generuje kilkaset linków ze strony głównej, z czego spora część jest na taki sam anchor(np. 70x baterie) i ten link prowadzi do wygenerowanych na podstawie menu nagłówków h1- też zduplikowanych. Doprowadza to również, do przesycenia tym słowem kluczowym na każdej podstronie (7-8%).

        Jeśli wina nie leży po stronie zduplikowanych serwisów, to zostaje kwestia kiepskiej optymalizacji, pozostałości po starej firmie SEO sprzed pół roku lub niedawne dodanie do katalogu gooru.pl (lub wszystko naraz)

        • Jesli jest jak piszesz to usiadłbym do optymalizacji bezwzględnie. Potem i tak poczyscił troszkeprofil linków (jeśli seoki to napewno jes to grupa lub własciciel esą do namierzenia – problemem mogą być tylko seoki wielokrotnie przenoszone co własnie przerabiam).

          Jak chcesz mogę rzucić oczkiem 😉

  16. Dziękuję za dużą porcję praktycznej wiedzy odnośnie zdejmowania filtra z witryny – niestety właśnie to przerabiam i sprawdzę w praktyce powyższe zalecenia. Zastanawiam się czy czekać na informację z Narzędzi Google o zdjęciu filtra czy działać już w temacie pozyskiwania „wartościowych” odnośników – nie zmarnuje się taka praca? Dużo linków poleciało w związku z czyszczeniem profilu BL ;S

  17. Z tego co ostatni się dowiedziałem, podobne objawy jak filtr algorytmiczny, czyli znaczny spadek pozycji, może wystąpić również przy niestabilnym serwerze na którym mamy stronę.

  18. Zgłosił się do mnie klient, do strony prowadzi ok 8-9k linków i prawdopodobnie dostała filtr algorytmiczny. Po przepuszczeniu przez odkurzacz połowa odpadła (domeny z banem, errory stron, brak linka), łącznie zostało 3500 linków. Po dalszej weryfikacji wyszło, że ok 100 można warunkowo przepuścić (linki z profili na forach, niestety nawet nie powiązanych z tematyką strony), reszta to meeega słabe precelki itp. Najsłabsze rejony internetu z najsłabszych. I zastanawiam się, czy warto bawić się w wyciąganie strony z filtra (tak przypuszczam, bo stronka poleciała w dół dość mocno) czy zasugerować przeniesienie na nową domenę? Swoją drogą dla klienta byłaby to już kolejna przeprowadzka, po firma po której stronę przejąłem już przenosiła z powodu filtra…. i sama ją do niego wprowadziła 🙂 Do strony nie prowadzą tak naprawdę żadne sensowne linki…. Usunięcie linków nie powinno być problemem – zakładam, że większość to zaplecze poprzedniej firmy. Tylko czy stronka wróci do normy, jeżeli na start dostanie:
    – oczyszczenie ze słabych linków
    – konkretną optymalizację
    – linkowanie na najmocniejsze katalogi
    – trochę szeptanki na forach tematycznych?

    To działania na start, ale pewien budżet pochłoną i nie wiem, czy nie będą to pieniądze wywalone w błoto….

    • Wróci … ale naj..sz się sporo i czasu stracisz. Sądzę, że efekty będzie można zoabczyć po kilku miesiącach do roku czasu. Wcześniej się nie uda bo raz że zrobisz to delikatnie a dwa skoro delikatnie to szybko nie nalezy 🙂

      • Czyli co, bawić się, a ruch na stronie uzupełnić AdWordsem oraz wspomnianymi wcześniej linkowaniami i cierpliwie czekać, czy przenieść wszystko na nową domenę, która od początku będzie miała WHS robione. Bo naprawdę mam dylemat. Jedyną zaleta w tym linkowaniu jest to, że było ono robione na polskich stronach, prawdopodobnie w zapleczu, więc ok. połowę da się spokojnie usunąć i to dość szybko (przynajmniej taką mam nadzieję)

  19. Filtr ręczny i prośba o ponowne rozpatrzenie to wielka ściema pracowników nieomylnego G.
    Uzasadnienie proste:

    Test 50 domen w ręcznym:
    25 ? DNS przekierowany na rejestratora domeny
    10 ? DNS przekierowany na domenę w filtrze ręcznym!
    10 – bez zmian / dodatkowo disavow link
    5 ? nie aktywnych – no live

    Teraz tak ? zero tłumaczenia i próśb o wyjście – tekst typu „poprawiono”
    W ciągu 7 dni rozpatrzono 34 domen.
    W tym 31 pozytywnie, 2 negatywnie, 1 negatywna ale z uzasadnieniem.
    I tu nasuwają się proste wnioski jak rozpatrywana jest domena.
    Gdzie algorytm a gdzie faktycznie human
    Domeny zawieszone powyżej 2m „wyszły” pierwsze

  20. Na bank właśnie mam taki filtr ale chyba tylko na kilka fraz . webmaster tools pokazuje mi w analityce wyszukiwania dla strony frazę gogolin i miejsce 7,9 a w wynikach nie ma nawet w pierwszej setce . Inne frazy pasują miejsca do wyników.

  21. Artykuł świetny nawet po latach wciąż aktualny. Ja mam taki przypadek, że strona nie może wbić się nawet do top 100 na jedną frazę. Pod frazę z filtrem zoptymalizowana jest jedna podstrona. Wszystkie inne frazy pięknie siedzą w top 10. Frazy poboczne od frazy z filtrem też w top 10… A ta jedna wywalona w kosmos. Czy stworzenie nowej podstrony i pozycjonowanie jej wraz z usunięciem starej podstrony coś da?

  22. Jak rozpoznać, że strona ma filtra np. tnijurl.com/5ff20d93ecd5 ma linkowanie skupione wokół kilku fraz kluczowych, ale jak sprawdzić czy np. na frazę często będąca w linkach „architekt wnętrz gdańsk” może mieć filtr skoro podstrony wyświetlają się na tą frazę, a na frazę wykończenie mieszkania gdańsk jest w top 30, ale na tą frazę akurat nie ma linków. Spadków widoczności też nie widać. Czy możliwe jest że strona ma filtry tylko na frazy na które jest linkowana?

    • Nie nazwałbym tego filtrem a rekalkulacją wyników. Może się tak zdarzyć, że na 1-2-3 frazy serwis nie będzie widoczny bo … i tutaj trzeba przeanalizować czy problemem jest np linkowanie wewnętrzne (jego brak), słabe nasycenie słowami kluczowymi na stronie docelowej (onsite) czy nieprawidłowo wykonane linkowanie zewnętrzne.

      • Czy w tym przypadku powodem może być słaba optymalizacja m.in. upychanie fraz w tytule itp. bo strona główna jest mocna – ponad 100 RD ma? Gdyby była dobrze zoptymalizowana na architekt wnętrz gdańsk to zjadłaby podstronę /aran379acja.html?

          • Jak byś ocenił moc tej strony głównej. Niektóre parametry np. wg. MOZ page authority ma 38 a wg. innych jest nisko oceniona np. wg. DS ubersuggest wynosi 1.

          • A co mówi Google? Dla Mnie te paramerty są bezwartościowe. Czasem można coś na ich podstawie wyczytać ale należy pamiętać, że są to parametry nieguglowske i przynależą do danej firmy. Wiele tych parametrów da się zmanipulować.

          • Co mówi google? Nie wiem. Strona słabo zoptymalizowana, na niskich pozycjach itp.
            To jak w taki razie odczytać „siłę” strony. Tylko po linkach np. ta strona ma ponad 100 RD, linki niesłabe i teoretycznie (bo bez optymalizacji ciężko stwierdzić) powinna być mocna?

          • Ale czym Ty się przejmujesz? Jakimiś siłami, współczynnikami? Zacznij tworzyć treści dla ludzi, linkować wewnętrznie, pozyskiwać linki zewnętrzne. Zadajesz mnóstwo pytań – ale co robisz, żeby pójść dalej? Przestań myślec o Google a zacznij o użytkownikach. Poza tym pytania bez podania domeny to dla Mnie jest trudno coś odpowiedzieć.

          • Ale ja z ciekawości się pytam. To nie moja domena. Czasami natrafiam na takie, sprawdzam z ciekawości parametry i się zastanawiam skąd takie rozbieżności (uczę się), któremu parametrowi bardziej ufać, że strona ma tyle linków i wg. Moz page authority 38/100 a według innych parametrów jest jeszcze gorsza. Kiedyś było Page Rank i nie było problemu. I teraz pytanie jak Ty byś ocenił offsite np. strony głównej czy np. na usługi budowlane gdańsk przy odp. optymalizacji starczyłoby bo są tam wg. parametrów gorsze domeny, mające mniej RD?

          • Ale to gdybanie i wróżenie. Analizuje sie konkretny przypadek bo diagnozy mogą być bardzo różne. Odpuść sobie jakiekolwiek wskaźniki. Nie odpowiem na żadne pytanie bez konkretnej domeny. Nie umiem teoretyzować.

      • Ta domena to flize-gres.pl czy np. na usługi budowlane gdańsk,usługi remontowe gdańsk strona główna dałaby radę wejść do top 10 po odpowiedniej optymalizacji bo według niektórych parametrów jest ona lepsza od paru stron znajdujących się w top 10?

        • Pozycjonowanie lokalne – potrzebne sa NAPy, porządnie prowadzony blog, usługi opisane z wykorzystaniem miast i dzielnic, dobrze opisane wykonane prace i gdzie były robione. Wjedzie ale nieprędko – Mnie zajmuje około roku wprowadzenie na stałe do mapek. Parametry? Nie wiem o jakich piszesz ale nie patrzę na parametry.

          • Nie chodziło mi o mapki. Czy po samej optymalizacji wejdzie do top 10 bez dodatkowych działań bo ma przewagę offsite?
            To jak oceniasz siłę domeny nie posługując się parametrami, czy patrzysz się na jej wiek, linki – ich ilość, jakość (ile linków ma domena linkująca, ich położenie w strukturze – strona główna, czy podstrona)?

          • Wiek domeny to jedyny parametr, który sprawdzam. Nie – po samej optymalizacji nie musi wejść do mapek. Zależnie od konkurencji będzie trzeba czekać i robić swoje. Za dużo analizujesz, za mało robisz – takie odnoszę wrażenie po tej dyskusji. Pamiętaj, że im więcej zaczniesz analizować tym więcej czasu stracisz. Zrób test – zobacz czy wjedzie. Jak nie – testujesz następne. Myślę, ze chcesz znaleźć złoty środek na wejście i stąd takie analizy – no to Cię rozczaruję – to tak nie działa. Gdybym ja przy ponad . setce projektów analizował tyle zmiennych to by mnie kostucha skosiła. Robię testy kilku rozwiązań – jak coś wchodzi to przenoszę te strategię na inne serwisy.

          • Czyli rozumiem, że jak porównujesz się do konkurencji to sprawdzasz m.in. parametr wiek domeny, a co z pozostałymi np. Referring Domains, one też chyba mają duże znaczenie i gdy jest przewaga nad konkurencją tych dwóch to znaczy że domena teoretycznie jest silniejsza?

          • RD nie jest potrzebne do szczęścia bo nie pokazuje wszystkich danych – wiele serwisów ma mniej RD . a jest wyżej. Kwestia jakości odnośników. W przypadku odnośników analizuje się je po kolei link po linku. Nie patrzę na RD bo to bez sensu.

          • Jak jakość odnośników sprawdzasz? Czy patrzysz się m.in. na: tematyczność tekstu z linkiem, położenie linka na stronie, ilość innych linków na stronie?

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

Kategorie

Najnowsze komentarze

Popularne artykuły