Przewidywane zmiany w algorytmie Google

Od jakiegoś czasu zawodowi pozycjonerzy zaczynają przeczuwać kolejne przełomowe zmiany w algorytmie Google. Miałyby one polegać na mierzeniu przez G klikalności linków i na tej podstawie nadawaniu tymże linkom mocy. Poczytajcie te teksty wraz z komentarzami:

http://www.web-marketing.pl/kolejne-wazne-zmiany-w-algorytmie-google/

http://www.sprawnymarketing.pl/artykuly/czy-ruch-na-stronie-ma-wplyw-na-pozycjonowanie/

Jak widać sprawa wygląda dość poważnie, ale jest też wiele wątpliwości chociażby to w jaki sposób google chce zdobyć dane odnośnie klikalności na naszych stronach. Po pierwsze google toolbar i firefox – nie bez powodu płacą za instalacje tego :). Po drugie google analytics. Ktoś tam w jednym z komentarzy stwierdził, że do tego każda jedna strona musiałaby mieć zainstalowane googlowe statystyki i w teorii google nie jest w stanie nas do tego zmusić. A ja uważam, że prosta zmiana w algorytmie polegająca na +50% respect dla strony za zainstalowane staty, wystarczy aby nas przekonać – po kilku tygodniach wszyscy zaczną z nich korzystać :).

Według mnie taka zmiana algorytmu to bardzo dobre posunięcie ze strony googla. Ceny linków zaczną osiągać normalne ceny, link będzie się kupowało na stronie tematycznej i w widocznym miejscu tak, aby dał nam jak najwięcej ruchu, który też przecież będzie konwertował. Pozycja w googlu będzie więc wynikiem naturalnej promocji strony na dziesiątki innych sposobów.  Informacje prasowe, artykuły sponsorowane, linki w widocznych miejscach i inne takie, przyniosą nie tylko własny ruch, ale też ruch z Googla.  Istnieje jednak ryzyko sztucznego zwiększenia ruchu w sieci. Firmy pozycjonerskie albo będą pisały skuteczne boty (przed tym jeszcze google się obroni), albo zatrudnią tysiące chińczyków, którzy będą cały dzień klikali klik… klik… klik… ;). A wy co o tym wszystkim myślicie?

19 komentarzy do “Przewidywane zmiany w algorytmie Google”

  1. Więc jeśli to prawda to większość systemów wymiany linków będzie gówno warta, ale po za tym ok. Jednak czuję że wówczas metodą na SEO będą sieci botnetów, zacznie się era botów… Nie sądzę żeby google zdołał w ciągu najbliższych lat opracować skuteczne rozwiązanie problemów związanych z tym sposobem.

    Odpowiedz
  2. Oj tam odyseusz :P. Nie ma co do tego w ten sposób podchodzić. Ja nie mówię, że pewnego pięknego dnia wszystko sie rozsypie :). Po prostu docierają do mnie pewne sygnały i chce je skomentować. Być może obecnie to są bujdy, ale nie powiesz mi chyba, że wierzysz w to, że za 30 lat google (czy jakakolwiek inna szukajka, która będzie wtedy dominowała) będzie oceniała strony na podstawie analizy linków przychodzących :).

    Odpowiedz
  3. Odnośnie botnetów to w momencie gdy Google niejako połączy/wdroży narzędzia identyfikujące Click Fraud w AdWords do wyników organicznych to i ta metoda pozycjonowania nie na wiele się zda. Wprowadzenie IPV6 i przydzielenie go każdemu unikalnemu userowi w sieci też nie ułatwi sprawy sztucznego ruchu.

    Dla niedowiarków raport jak Google rozpracował ClickBot.a:
    http://googleblog.blogspot.com/2006/07/findings-on-invalid-clicks.html

    oraz raport na temat identyfikacji Click Fraud przez Google: http://googleblog.blogspot.com/pdf/Tuzhilin_Report.pdf

    Odpowiedz
  4. Większys bzdur danwo nie czytałem – brakuje wnich nie tylko merytoryki, ale opierają się na myśleniu pozbawionym podstawowej LOGIKI. „Kilkalność” to algorytm bez sensu (parę lat temy WP coś takiego wymyślło i szybciutko zwinęło). To wąż zajdający własny ogon. „Strony które są wyżej mają więcej kliknięć bo są wyżej” – to powoduje ból w głowie u istoty myślącej. Po za tym klikalnośc w żaden sposób nie określa jakości strony a tylko jakość SERPÓW.

    Odpowiedz
  5. hmm jakiś czas temu rozmawiałem na ten temat z Toyem
    znaczy nad szybką łatwą i przyjemną weryfikacją spamu i tworzenia filtrów antyspamowych, i wszytsko pięknie ładnie, ale jak Toy słusznie zauważył Google potrzebowałoby ogromnej mocy obliczeniowej, na którą ich obecnie nie stać, a stron nie ubywa 🙂 wręcz przeciwnie

    Odpowiedz
  6. Zachodni spmaerzy od dawna kupuja linki na prawdziwych stronach (np. TLA).

    Szczerze mowiac, dla G najlepiej jest miec srednio-dobre (nie mowie „zle” ani „idealne”. Srednio-dobre.) wyniki organiczne, aby miec idealne wyniki sponsorowane.

    Wtedy chetniej bedziemy klikac w adwords.

    Odpowiedz
  7. Niezłe bajki, oczywiście od czasu do czasu google sprawdza klikalność na linki na podstawie odpowiednich przekierowań, lecz w żaden sposób nie manipuluje przy pomocy Google Toolbar, bo ten moduł służył tylko i wyłącznie przyzwyczajenia internauty do Google, a wiadomo im więcej odwiedzin tym większe zyski ze sponsorowanych wyników.
    Artykuł krzykliwy, raczej traktowałbym go tym czym jest dla przeciętnej gosposi „Samo Życie”.

    Odpowiedz
  8. Zgadzam sie z tym, że G raczej nie będzie mierzyć wartości strony przez ilość kliknięć ;] jak na mojej to bardzo szybko ktoś znajdzie sposób jak to obejść bez stosowania botnetów itp ;] tak czy siak G 'kreci’ sie z tym swoim alg. po ostatnich przeliczeniach 2 stronki poleciały mi w dół 🙁

    Odpowiedz
  9. Trafiłem dziś na tego posta… i jak sobie teraz patrze z naszego doświadczenia to powiem tak 🙂 Stało się ponieważ Google bierze pod uwagę dane z GA oraz statystyki kliknięć, linków oraz czas spędzony na stronie! Ktoś się nie zgodzi?

    Odpowiedz

Dodaj komentarz