SEO w dużych ilościach może okazać się szkodliwe.

Zmiany w algorytmie GoogleMatt Cutts z Google na ostatniej konferencji SXSW, podczas panelu dyskusyjnego "Dear Google & Bing: Help Me Rank Better!" oznajmił, że nadszedł koniec dla stron, które przesadzają z optymalizacją – w najbliższych dniach szykuje się duży spadek dla stron, które zostały przygotowane bardziej dla robotów niż dla ludzi.


Matt Cutts na co dzień zajmuje się optymalizacją wyszukiwarki Google. Jak to zwykle bywa w przypadku Google – obwieszczają oni zmiany w momencie ich wprowadzania. Tym razem jednak postąpiono inaczej, aby ostrzec posiadaczy stron i wszystkich, którzy planują takowe w najbliższym czasie założyć. Unikalna treść i zadbany serwis już w ciągu najbliższych miesięcy będzie o wiele więcej wart dla Google niż małe strony o znikomej treści, a najbardziej te zaniedbane przez właścicieli.

Cytując słowa Matta Cuttsa:

What about the people optimizing really hard and doing a lot of SEO. We don’t normally pre-announce changes but there is something we are working in the last few months and hope to release it in the next months or few weeks. We are trying to level the playing field a bit. All those people doing, for lack of a better word, over optimization or overly SEO – versus those making great content and great site. We are trying to make GoogleBot smarter, make our relevance better, and we are also looking for those who abuse it, like too many keywords on a page, or exchange way too many links or go well beyond what you normally expect. We have several engineers on my team working on this right now.

Matt Cutts

Często powtarzamy naszym klientom, że bogata treść ich witryn zawsze ma i będzie miała duży wpływ na ich wysokie pozycje i samo to może znacząco wpłynąć na poprawę pozycji strony w wyszukiwarce. Google wiele razy poprawiało już swój algorytm wyszukiwania stron i nie spocznie dopóki wyniki wyszukiwania dostarczane nam na co dzień nie będą najwyższej jakości. A nienaturalnie stworzone strony o nadmiernej liczbie słów kluczowych, a także linkach dziwnego pochodzenia zostaną ukarane. 


Firma z Mountain View dopiero teraz przyznała się oficjalnie, że już od dawna nakładała kary na strony o zbyt wysokim współczynniku zoptymalizowania lub linkach niewiadomego pochodzenia. Kary te nazywane w środowisku „+30” lub „+50” były niczym innym niż obniżeniem pozycji za metody BlackSEO w indeksie wyszukiwarki Google, choć jeszcze w 2009 roku Matt zaprzeczał jakoby podobne systemy istniały.

Czego więc się wystrzegać?

  • upychania nadmiernej ilości słów kluczowych na stronie, 
  • zdobywania nienaturalnie dużej ilości linków lub linków podejrzanego pochodzenia, 
  • tworzenia stron wbrew wytycznym Google tzn. z myślą o robotach internetowych zamiast o ludziach.