fbpx
Agencja SEO Zgred - Pozycjonowanie stron www

Pingwin … ponowne podejście do zagadnienia

Na podstawie dwóch ostatnich artykułów związanych z algorytmem Pingiwna, mając dostęp do konta basic w serwisie Ahrefs.com poczyniłem pewne obserwacje zgodnie z treścia wspomnianych artykułów:

Bazując w szczególności na artykułach z Ahrefs dokonałem obserwacji na kilku serwisach. Zakładam (pewnie powiecie, że błędnie ale z reguły SEOfcy stosują te same strategie), że strategie SEO są do siebie zbliżone. Nie analizowałem jakości linkowania ! Serwisy w większości zoptymalizowane.

1. Dwa serwisy pozycjonowane na niezbyt szeroki long-tail (ok 30-40% fraz) + strona główna + rownomiernie rozłożone frazy – całość zanotowała duże wzrosty

 

 

2. Serwis pozycjonowany na wąski long-tail + bardzo mocno strona główna + nierownomiernie rozłożone frazy – całość zanotowała duże spadki – można by rzec, ze odcięte na amen a serwis był „topowy”

3. Serwis pozycjonowany na szeroki long-tail + strona główna + rownomiernie rozłożone frazy – całość pozostała na wysokich pozycjach – serwis był „topowy”

4. Serwis pozycjonowany na niezbyt szeroki long-tail + strona główna + równomiernie rozlożone frazy – całość się buja od update’u algorytmu w zakresie +/- 50-80 pozycji – serwis był „topowy”

 

W chwili obecnej mocniej usiadłem do pozycjonowania typu long-tail … czyli od zera zaprojektowanie linkowania, opracowanie „jako takiej” strategii. Efekty zapewne będą widoczne dopiero za kilka/kilkanaście tygodni 🙁

Aktualizacja: 8.05.2012 – mała aktualizacja – dodaję  rozkład anchorów na ministronkę (8 podstron) z ofertą kont bankowych. Strona stara, pozycjonowana, wystrzelona za STOgórogrodzie 😉 90% anchorów na stronę główną.

 

1 gwiazdka2 gwiazdki3 gwiazdki4 gwiazdki5 gwiazdek (7 głosów, średnia: 4,86 z 5)

Paweł Gontarek

Paweł Gontarek - Zgred - pasjonat SEO, staram się zrozumieć czym jest i jak działa SEM oraz UX.

Komentarzy (27)

  1. Grażyna
    Maj 7, 2012

    Po przeczytaniu tego rozumiem, że lepiej przy tym update wyszli ci, którzy nie wbijali się na jakąś konkretną frazę i to głównie ze strony głównej, tylko tacy trochę przypadkowo wbici, gdzie linkowane było co popadnie (różne URLe) na mnóstwo różnych fraz? Dobrze rozumiem?

    • zgred
      Maj 7, 2012

      źle. tacy co porządnie zadbali o long-taila 🙂 i nie słuchali sie do końca klientów … ehh …

      • Grażyna
        Maj 7, 2012

        Czyli dla przykładu jak ktoś pozycjonował dla strony załóżmy jubilerskiej (nie mam takiej, dlatego to wybrałam), to jeśli pozycjonował ją na biżuteria i ciągle linkował do głównej to wyszedł na tym znacznie gorzej niż ktoś, kto robił oprócz „biżuteria” dla głównej, także sporo na „biżuteria srebrna”, „biżuteria ślubna” itd. oraz linkował do podstron… tak, czy jeszcze inaczej trzeba to rozumieć?

        • zgred
          Maj 7, 2012

          Dokładnie 🙂

          • Grażyna
            Maj 7, 2012

            Aha 😉 dzięki za wyjaśnienie 😉 pytałam, bo jak się tylko tak z doskoku czyta a nie zajmuje SEO zawodowo, to ciężko czasami zrozumieć (albo być pewnym, że się dobrze rozumie) takie analizy.

            Co do słuchania Klientów… no cóż – zwykle trzeba się uprzeć albo odesłać z kwitkiem, bo później się to tak kończy (i to nie tylko w SEO). Ech…

  2. sitesbook
    Maj 7, 2012

    Mogę częściowo potwierdzić Twoje wnioski. Mam 5 stron, w których linkowałem różne podstrony i lekko stronę główną. Wszystkie po update zanotowały spore wzrosty.

  3. SEO Profi
    Maj 7, 2012

    Fajny wpis Zgred, oparty na faktach. Kolejny dowód na to, że SEO będzie niedługo droższe niż obecnie. „Niestety” małe firmy – i SEO, i Klienci – nie dadzą rady. Tak ja to wstępnie widzę.

  4. gdaq
    Maj 7, 2012

    no to Pawel bedzie co robic

  5. SEO Profi
    Maj 7, 2012

    Tylko jedna rzecz mnie ciekawi – przy białym SEO, przy nie uzywaniu SWLi, xRumerów czy publicznych precli przyznam, że nie zaobserwowałem wymienoionych sytuacji – co skłania mnie do stwierdzenia, że przy większej różnorodności fraz łatwiej jest ukryć linki z precli, katalogów, xRumerów itp. Powtarzam – ja nie zanotowałem spadków – w każdym z opisanych przez Ciebie przypadków…. hm …

    • Grażyna
      Maj 7, 2012

      Hm… z tym, że SEO będzie droższe – no cóż, jest kilka rzeczy, które trzeba wziąć pod uwagę w kalkulacji:
      – CPC w AdWords też z roku na rok znacząco rośnie,
      – dobre SEO (nie w wykonaniu łebków linkujących jak i gdzie popadnie) i tak musiało dotąd kosztować, bo to dużo pracy i inwestycji,
      – inne formy reklamy w sieci też się dość mocno cenią,
      – reklama poza Internetem (ulotki, banery itp.) też zawsze kosztowała, a jakoś firmy się reklamowały (małe też).
      Więc może jednak jakiegoś strasznego załamania nie będzie tylko w końcu do ludzi dotrze, że dobry specjalista od SEO to ktoś z dużą wiedzą i że pozycjonowanie to ciężka praca. Na razie ciężko cokolwiek wieszczyć. Choć przyznam, że w kuluarach różnych szkoleń słychać narzekania, iż obecnie czasami lepiej opłaci się nic nie robić niż inwestować w AdWords czy banery, bo więcej kosztują niż generują przychodu.

      Co do spadków – u mnie ich nie było, ale też stron nikt na żadne trudne frazy nie pozycjonował (było tylko proste dodanie do kilku katalogów plus taka z grubsza optymalizacja robiona pomiędzy kodowaniem aplikacji webowych /robots=”noindex,nofollow,noarchive” lub googlebot=none” – to bardziej moja działka/). Na szczęście dla serwisów, które mam pod opieką akurat długi ogon jest bardziej naturalny niż jakakolwiek konkretna fraza… oczywiście od niejednej „wielkiej” firmy pozycjonerskiej przychodziły oferty na wbicie do top 5 lub top 10 na frazy, gdzie strona sama wchodzi, a liczyli sobie za to jak za frazę z gatunku „kredyty” /o jednej firmie z Poznania już było… też umeiraliśmy ze śmiechu czytając ich ofertę pełną bzdur po ich darmowej „analizie SWOT”/. Tak więc mnie pingwin nie dotknął, a raczej nawet lekko skoczyło w górę na co ważniejsze frazy… pytanie na jak długo 😐 bo przyznam, że każdego dnia sprawdzając czy strona nadal w top 3 zastanawiam się, czy zobaczę ją w top 10 czy poza setką… raz już mi jedną stronę wywaliło na dwa tygodnie w niebyt (bez żadnego update algorytmu), ale sama wróciła.

      • zgred
        Maj 7, 2012

        Grażynko – twoje posty zaczynają trafiac do spamu 😀 Aksimet się poznał 😛

        • Grażyna
          Maj 7, 2012

          No widzisz 😀 to je eksmituj ;-P a tak serio, to czasami między specjalistami głos laika bywa pożyteczny, bo przez idiotyczne pytania nieświadomie coś podpowie 🙂 nie wiem jak jest w Waszej pracy, ale mnie już nieraz olśniło w taki sposób.

          Koniec dygresji – już nie przeszkadzam 😉

  6. Rozumiem, że na osi X znajdują się kolejne podstrony? Dobre zestawienie, pokazuje co nie co. Przydałaby się jeszcze informacja ile podstron mają te serwisy (jaki % podstron był linkowany)

  7. Mariusz
    Maj 7, 2012

    Kolejne podstrony czy kolejne frazy?

  8. Mariusz
    Maj 7, 2012

    Chodzi o upewnienie się co przedstawiają osie X wykresów 🙂

  9. zgred
    Maj 7, 2012

    oś Y – wiadomo – liczba poszczególnych elementów, oś X – po prostu iteracja wystąpienia od 1 do …. iluś tam.

  10. Łukasz
    Maj 7, 2012

    A jak wytłumaczyć spadki o 2-8 pozycji na wszystkie linkowane frazy? Chodzi o sklep, linkowana główna i wszystkie podstrony kategorii. Podstrony produktów linkowane sporadycznie, dużo wchodziło samo ciągnąć sok z kategorii.
    Co prawda nie są to odpukać 🙂 spadki na 30 stronę ale zawsze trochę boli.

  11. gszesiek
    Maj 8, 2012

    A co zrobić z klientem zajmującym się „pompowaniem kół w Poznaniu”?
    Robi jedną konkretną usługę.

    • zgred
      Maj 8, 2012

      uważałbym aby nie spalić domeny. Mam kilku takich klientów i jak na razie jest OK.

  12. Mariusz
    Maj 8, 2012

    Ja mam domenę z podobnym rozkładem fraz jak zamieściłeś w aktualizacji. Główna pozycjonowana fraza spadła o 3 pozycje, dwie następne o kilkanaście, reszta w kosmos. Z tym, że tematyka dużo łatwiejsza.

  13. Sprawdzimy.eu
    Maj 8, 2012

    Ja także poczytałem trochę i opisałem na potwierdzić zatem mogę stwierdzenie zgreda „wąski long-tail + bardzo mocno strona główna + nierownomiernie rozłożone frazy ? całość zanotowała duże spadki”

  14. artur
    Maj 11, 2012

    A jak myślicie, czy teraz pozycjonowanie na kilkanaście anchorów przyniesie wymierne korzyści dla strony która poleciala? Teraz pozycjonowałem ją na 2-3 a dodałbym jeszcze z 5 anchorów.

  15. Embossed
    Maj 11, 2012

    Potwierdzam te teorie. Stronka moja pozycjonowana na stronę główna, słabo na podstrony, tylko na parę głównych fraz. Przed wprowadzeniem pingwina, na 2 miejscu w Google.uk. Po wprowadzeniu nowego algo 70 pozycja :(. Ale ponoć Google walczy ze spamem, a jak się to ma do tego, ze teraz będziemy walić linkami ostro po podstronach?
    Już widzę ten śmietnik 🙂

  16. milok
    Maj 11, 2012

    Żeby nie było tak klarownie to zamieszam 🙂
    Dwie strony, obie pozycjonowane podobnie: praktycznie tylko strona główna, z głównym naciskiem na jedną frazę.

    Jedna strona jest bez zmian top1 na „swoją” frazę, druga przeprowadziła się na 35 stronę.

    Jedyna różnica jaka mi przychodzi do głowy to wiek domen; ta pokrzywdzona jest dużo starsza.

  17. Test bardzo dobry !

    – tutaj zauważyłem jeszcze różne wyniki przy różnym linkowaniu wewnętrznym oraz ilości podstron.

    Proste serwisy – 10 podstron na HTML dostały po głowie na maxa

    Serwisy na WP z mocnym wewnętrznym linkowaniem oraz ilością podstron 20+ dostały lekko a w zasadzie się tylko zahuśtały …

  18. hicarian/pio
    Maj 15, 2012

    Walenie w główną nie jest wskazówką. Kilka moich stron 99% na główną poszło w górę 2 w niebyt. Przejrzałem i przeanalizowałem co mają za linki strony, które wyskoczyły na updacie algo. Wniosek – więcej stron .pl a mniej anglo bazujacych na expression czy na konkurencji wordpressa, większe zróżnicowanie anchorów – to fakt. Ale z tym nasyceniem na stronę główną to się nie zgadzam.

Zostaw komentarz

Twój adres e-mail nie będzie udostępniony. Wymagane pola są oznaczone *