2980% wzrostu ruchu organicznego w pół roku - Case Study

Kilka miesięcy temu podjąłem decyzję o przetestowaniu możliwości Surfera w dłuższej perspektywie. Moim celem było, aby sprawdzić, czy zmiany pozycji, które zazwyczaj są widoczne kilka dni po wdrożeniu optymalizacji, utrzymają się oraz na ile realnych kliknięć się to przełoży.

Test polegał na wykorzystaniu Surfera zarówno do optymalizacji onsite, jak i odnalezieniu najbardziej atrakcyjnych miejsc pod linkbuilding.

Wykorzystałem mój serwis poświęcony tematyce finansów i edukacji - progresywni.eu. Serwis w pierwszej iteracji był landing pagem mojego stowarzyszenia, które zajmowało się organizacją wydarzeń skierowanych do młodych ludzi. Nie zajmowaliśmy się SEO,  nasze wpisy były kierowane do odbiorców w mediach społecznościowych. W trakcie realizacji zadań statutowych powstało kilkanaście wpisów, które mimo wysokiej zawartości merytorycznej, generowały znikomy ruch organiczny.

Jak został przeprowadzony eksperyment?

1) Korekty techniczne

Po pierwsze: wprowadziłem kilka technicznych zmian na stronie takich jak:

  1. kompresja zdjęć,
  2. linkowanie wewnętrzne między artykułami,
  3. zainstalowanie  wtyczki optymalizującej prędkość ładowania strony.

Pod koniec grudnia zmieniłem również hosting na dedykowany Wordpressowi, przez co kilka dni serwis nie działał, co lekko zaniżyło końcowy wynik. Korzystając z okazji polecam linuxpl.com :)

W serwisie była zainstalowana wtyczka Yoast SEO, dzięki której zredukowałem tzw. thin content czyli np. podstrony tagów, które w przypadku tego serwisu nie wnosiły żadnej wartości, a jedynie zużywały crawl budget robota wyszukiwarki.

Co ważne: zmiany* zostały wprowadzone kilka miesięcy przed rozpoczęciem działań optymalizacyjnych, aby wyeliminować szansę na przypisywanie wyników tylko zmianom technicznym.

*część linków wewnętrznych naturalnie uzupełniałem w momencie optymalizacji artykułów :)

2) Wybór artykułów

Spośród wszystkich dostępnych artykułów wybrałem kilka, które miały potencjał rankować na frazy ze sporym wolumenem. Ponadto w trakcie trwania eksperymentu zleciłem napisanie kilku dodatkowych artykułów, które również zoptymalizowałem.

Frazy, które wybrałem:

  1. Jak się uczyć?
  2. Jak się rozwijać?
  3. Jak się skupić?
  4. Jak działa wpłatomat?
  5. Gdzie wymienić uszkodzony banknot?
  6. Jak się zrelaksować?
  7. Gdzie kupić paysafecard?
  8. Kiedy dojdzie przelew?
  9. Jak obliczyć zysk z lokaty?
  10. Jak zaplanować dzień?
  11. Jak mieć więcej energii?
  12. Jak oszczędzać pieniądze?
  13. SEPA czy SWIFT?
  14. Identyfikacja banku po numerze konta

Artykuły zostały zoptymalizowane w oparciu o wytyczne Surfera, które sprowadzały się głównie do redukcji lub dodania słów, edycji nagłówków, dodania słów kluczowych w dopasowaniu przybliżonym oraz - co najważniejsze - wyeliminowania zjawiska content gap poprzez uzupełnienie treści o wspólne segmenty tematyczne. Szerzej o metodyce piszę niżej.


Jeśli chcesz dowiedzieć się więcej o zjawisku content gap obejrzyj ten filmik.

Czynniki zewnętrzne

Podczas trwania eksperymentu świadomie pozyskałem jeden link dofollow ze strony SurferSEO.com oraz dwa linki nofollow. Warto jednak zaznaczyć, że kilka domen związanych z edukacją podlinkowało organicznie stronę progresywni.eu.

Przykłady domen, które linkują do progresywni.eu:

  1. wykop.pl
  2. evenea.pl
  3. szkolnastrona.pl
  4. wpodrozy24.pl
  5. surferseo.com
  6. dyskusje24.pl
  7. kulturalnie.waw.pl
  8. edukacja.org.pl
  9. e-mlodzi.com
  10. cheops4.org.pl
  11. forumnauka.pl
  12. sppniewy.szkolnastrona.pl
  13. zpo2.mlawa.pl
  14. 45minut.pl

Jak przebiegała optymalizacja wybranego artykułu?

W skrócie (dla tych, którym się spieszy do pierwszych działań):

  1. Decyzja o wyborze głównej frazy, na którą chciałem się pozycjonować.
  2. Analiza konkurencji w Surferze.
  3. Odszukanie największych problemów mojej podstrony.
  4. Wprowadzenie optymalizacji.
  5. Zgłoszenie strony do indeksu Google.
  6. Ewentualne pozyskanie linków (zdarzyło się dla jednego wpisu).
  7. Ewentualna korekta (np. dodanie większej ilości elementów wspólnych do treści przy zachowaniu wysokiej merytoryki - zdarzyło się trzy razy).
  8. Analiza ruchu i widoczności.

Proces wyboru frazy głównej

Wybierając najlepszą frazę kierowałem się wolumenem i konkurencyjnością. Przez konkurencyjność mam na myśli jakość podstron w top10 oraz ilość linków jakie posiadają. Stosując te dwie metryki możesz świadomie określić priorytety.

Analiza konkurencji w Surferze

W drugim kroku wybraną frazę analizowałem w Surferze. Pokażę Ci jak to zrobiłem na przykładzie wpisu, który dopiero zyskuje widoczność w sieci.

Pierwotnie, optymalizowane podstrony nie występowały w top50 dla wybranych fraz dlatego korzystałem z funkcji Custom URL, która umożliwia analizę porównawczą z najlepszymi konkurentami. Jeżeli Twoja strona znajduje się w top50 możesz użyć funkcji “Filter by URL”.

Zaczynamy od szybkiego Audytu

Audyt zawiera uproszczone wskazówki optymalizacyjne wraz z przeglądem elementów wspólnych, które nie zostały jeszcze uwzględnione w treści. To bardzo ważne ponieważ dzięki temu za każdym razem otrzymujemy informacje jedynie o tych słowach lub frazach, które pominęliśmy (kolor czarny).

Jak widzisz, na zrzucie ekranu analizowana podstrona nie posiada żadnych errorów, ponieważ zostały wyeliminowane w procesie optymalizacji.

Sprawdź jak wygląda przykładowy audyt z błędami do poprawy tutaj.

Audyt jest generowany na podstawie pierwszych pięciu widocznych adresów URL w danym SERPie. Możemy go dostosowywać do  naszych potrzeb np. eliminując niechciane URL z SERPA.

Zdarza się, że w top5 występują strony niebędące konkurentami i zaburzające wartości czynników. Takimi stronami najczęściej są portale agregujące np. ogłoszenia (olx, allegro), czy też mocne domeny (wikipedia, gazeta wyborcza). Aby dostosować audyt do własnych preferencji możesz wykluczyć wszystkie witryny z analizy, a następnie zaznaczysz symbol "Oka" przy wybranych podstronach.

Jeśli wdrożenie optymalizacji z audytu przełożyło się na satysfakcjonujący wzrost pozycji, nie wykonywałem dodatkowych korekt. W innych wypadkach (np. w artykule o relaksowaniu się) należało przeprowadzić szczegółową analizę SERPa.


Zdarzało się, że optymalizacja jednego czynnika (np. ilości występowania poszczególnego słowa z frazy kluczowej) miało wpływ na wzrost pozycji. O tym jak przeprowadzić szczegółową analizę opowiadał Michał Suski podczas jednego z webinarów - tutaj szczegóły.

Diagnoza problemów i optymalizacja

Gdy miałem już przygotowaną listę rzeczy do poprawy, zabierałem się za implementację. Dodawałem wybrane słowa, redukowałem zagęszczenie frazy kluczowej czy dodawałem więcej grafik. Dla każdego artykuły był to zupełnie odmienny zestaw elementów, każdy SERP (strona z wynikami) różni się od siebie, podobnie optymalne wartości czynników w obrębie każdej frazy mogą być różne. To  dlatego warto wykonywać odrębną analizę dla każdej frazy, na którą chcemy się pozycjonować.

Zwróć uwagę, że optymalne zagęszczenie słów kluczowych w dopasowaniu przybliżonym dla czterech SERPów w jednej niszy może być zupełnie różne.

Indeksowanie strony

Ostatnią czynnością, którą wykonywałem tuż po opublikowaniu nowych wersji artykułów było zgłoszenie prośby w Google Search Console o ponowne zindeksowanie podstrony.

Ewentualne linkowanie

Tak jak wspominałem wcześniej, dla jednego z artykułów pozyskałem dwa linki nofollow z serwisów, które rankowały w tym samym SERPie.

Plan był jasny: odszukam te strony, z których wychodzi bardzo dużo linków zewnętrznych. Założyłem, że skoro innym się udało, ja również będę w stanie pozyskać odnośnik.

W przypadku frazy “kiedy dojdzie przelew” takie linki mogłem zdobyć na forum finansowym oraz pod artykułem umieszczonym na jednym z lokalnych portali - w komentarzu i z optymalnych anchorem.

Znalezienie takich miejsc w Surferze jest banalne. Wystarczy, że wejdziesz w zakładkę “Links”, a następnie zaznaczysz “External” lub “External Nofollow”.

Zlecanie nowego tekstu

W trakcie trwania eksperymentu zależało mi na tym, aby publikować wcześniej zoptymalizowany content. Przed złożeniem zamówienia na tekst przygotowałem listę założeń w formie draftu, który dotyczył długości treści, zalecanej tematyki, słów kluczowych, itd.

Publikowałem treść, a za pomocą wtyczki YoastSEO wyłączałem możliwość indeksowania danego wpisu przez wyszukiwarki, aby jeszcze przed zgłoszeniem w Google Search Console dokonać ostatecznych korekt treści i ponownie odblokować możliwość indeksacji.

Jeśli zastanawiasz się jak przygotować bardziej rozbudowany draft dla copywritera, tak abyś nie musiał poświęcać dużo czasu na optymalizację, zachęcam Cię do przeczytania artykułu Sławka Czajkowskiego.

Jaki jest rezultat eksperymentu?

(46 500 x 100%) / 1560 = 2980 %

Jak widać, blog, który generował znikomą ilość kliknięć, od maja 2018 zaczął generować coraz większy ruch organiczny.

Koszty eksperymentu

Trudno oszacować wartość poświęconego czasu. Optymalizacja pojedynczego artykułu nie zajmowała więcej niż godzinę. Dodając do tego wybór fraz kluczowych, doraźny link building oraz zlecenie tekstów copywriterom, sumarycznie było to około 20 godzin pracy.

Jeśli chodzi o środki finansowe to poza obsługą serwera, za który płacę 79 zł rocznie zainwestowałem 1040 zł w copywriting. Reszta wpisów, które zoptymalizowałem była wcześniej dostępna na serwisie i jako, że była pisania przez członków stowarzyszenia nonprofit to nie jestem w stanie określić ich kosztów.

Refleksje oraz plany

Wynik który udało się osiągnąć jest całkiem satysfakcjonujący szczególnie, gdy zestawimy go z nakładem finansowym i czasowym. W głowie rodzi się już pomysł na kolejne testy i case study na anglojęzycznym rynku.

Jestem ciekaw Twojej opinii! Mam nadzieję, że czas poświęcony na przeczytanie artykułu udało się zrekompensować przez przekazaną wiedzę.

Pod koniec grudnia serwis był przez kilka dni martwy ze względu na przenosiny na inny hosting.

Autor: Tomasz Niezgoda

Kontakt: [email protected]
(Mogę Cię skierować do osób, które potrafią wykręcić takie i lepsze wyniki)

Tomasz Niezgoda

Doświadczony marketer, kawosz i twórca internetowy. Od lat aktywnie uczestniczy w życiu branży oraz stale zdobywa doświadczenie, którym chętnie dzieli się na blogu oraz kanale YouTube. Fan innowacyjnych rozwiązań, ekstrawertyk i współtwórca Surfera.

(4.3/5), głosów: 3
Ocena strony:
Komentarze
1 komentarz
Ania W.
Niestety content marketing to nie SEO, bo SEO to pozycjonowanie na konkretne frazy w obleganych branżach. Content marketing to wyskakiwanie na frazy dające ruch ale nie do końca leady (konwersje)