Czym był parametr num=100 i dlaczego był ważny?
Jeśli kiedykolwiek ręcznie sprawdzałeś pozycję swojej strony w Google, to pewnie wiesz, jak uciążliwe może być przeklikiwanie się przez kolejne strony wyników. Domyślnie wyszukiwarka pokazuje tylko 10 linków na stronę. Ale istniał sprytny trik – dodając do adresu URL wyszukiwania num=100, można było wymusić wyświetlenie aż 100 rekordów na jednej stronie. Proste? Bardzo. Skuteczne? Jeszcze bardziej.
Dla „zwykłego” użytkownika była to może tylko ciekawostka, ale w świecie SEO ten parametr był czymś w rodzaju tajnej broni. Pozwalał jednym zapytaniem pobrać pełne Top 100 wyników wyszukiwania dla danego słowa kluczowego. Bez ciągłego odświeżania, bez dziesiątek dodatkowych kliknięć.
Właśnie dlatego num=100 był szeroko wykorzystywany przez narzędzia monitorujące pozycje (rank trackery), platformy do analizy widoczności czy oprogramowanie do audytów SEO. W praktyce:
- toole SEO mogły jednym zapytaniem sprawdzić, czy Twoja strona znajduje się w Top 100 na konkretne słowo kluczowe,
- dane zbierane były szybciej i wydajniej, co pozwalało na dokładniejszą analizę konkurencji SEO,
- audyty SEO były bardziej kompleksowe, ponieważ uwzględniały wyniki nawet z końcówki listy, a nie tylko pierwszą stronę.
W skrócie: num=100 dawał kontrolę, wygodę i oszczędność. Pozwalał spojrzeć szerzej, zobaczyć więcej i działać mądrzej, a jego usunięcie z dnia na dzień zmieniło zasady gry.
Usunięcie parametru num=100 Google – co się wydarzyło?
Wrzesień 2025 zapisał się w kalendarzu specjalistów SEO grubą, czerwoną kreską. Użytkownicy różnych narzędzi zauważyli, że próby wyświetlenia 100 wyników na jednej stronie w wyszukiwarce Google przestały działać, a efekty były niestabilne – raz parametr był respektowany, innym razem zupełnie ignorowany. W kolejnych dniach funkcjonalność całkowicie zanikła, niezależnie od konta, lokalizacji czy przeglądarki.
W ślad za tym pojawiły się problemy z danymi w oprogramowaniach SEO. Niektóre rank trackery zaczęły zgłaszać błędy lub braki w wynikach, a monitoring pozycji słów kluczowych przestał dostarczać pełne zestawy danych. W raportach Google Search Console wiele osób zaobserwowało nagłe spadki liczby wyświetleń i zapytań, którym towarzyszył wzrost średniej pozycji.
Brak komunikatu ze strony Google tylko pogłębił niepewność. Przez pierwsze dni część specjalistów zakładała, że może to być test lub tymczasowe ograniczenie. Jednak obserwacje z wielu kont i lokalizacji, a także informacje od dostawców narzędzi SEO, zaczęły wskazywać na coś innego – trwałą zmianę w sposobie prezentowania wyników wyszukiwania i ograniczenie możliwości technicznych ich zbierania.
Z punktu widzenia narzędzi, które wcześniej mogły jednym zapytaniem pobierać do 100 rekordów, usunięcie parametru num=100 oznacza konieczność wykonywania dziesięciu oddzielnych żądań, co przekłada się na:
- większe obciążenie infrastruktury,
- wzrost kosztów,
- większe ryzyko trafienia na zabezpieczenia antybotowe.
Branża SEO musi się teraz zmierzyć z nową rzeczywistością, w której pozyskiwanie danych będzie trudniejsze, a raporty – mniej szczegółowe, ale potencjalnie bardziej zbliżone do faktycznego doświadczenia użytkownika.
Usunięcie parametru num=100 – jakie są skutki dla narzędzi SEO i rank trackerów?
Wprowadzone przez Google ograniczenie uderzyło bezpośrednio w fundamenty, na których opierają się najpopularniejsze narzędzia SEO. Zmiana nie była kosmetyczna – to głęboka ingerencja w sposób, w jaki systemy analizujące widoczność stron gromadzą dane.
W efekcie wiele platform musiało zrewidować swoje algorytmy, a użytkownicy zaczęli zauważać nagłe rozbieżności w raportach i brak ciągłości danych historycznych. To wszystko sprawiło, że dokładność narzędzi SEO po zmianach Google stała się tematem numer jeden w branżowych dyskusjach. Przyjrzyjmy się najważniejszym konsekwencjom.
10 razy więcej zapytań = 10 razy wyższe koszty
Usunięcie parametru num=100 oznacza poważne konsekwencje techniczne dla narzędzi SEO. Dotychczas wystarczało jedno zapytanie HTTP, aby pobrać pełną setkę wyników. Teraz, aby uzyskać tę samą liczbę wskaźników, każde oprogramowanie musi wykonać dziesięć osobnych żądań. To dziesięciokrotny wzrost:
- ruchu,
- obciążenia serwerów,
- zużycia przepustowości.
Dla twórców narzędzi to konkretne koszty: więcej zapytań do API, więcej używanych adresów IP, wyższe rachunki za infrastrukturę serwerową i proxy. Szczególnie dotkliwe może to być dla firm oferujących masowy monitoring na dużą skalę, np. w agencjach SEO obsługujących dziesiątki klientów. To także wyzwanie dla efektywności – procesy, które wcześniej były szybkie i tanie, teraz mogą okazać się czasochłonne oraz droższe.
Problemy z danymi i „dziury” w raportach
Efekt uboczny zmian to także przerwy i nieścisłości w danych prezentowanych przez popularne platformy. Użytkownicy Semrush, Accuranker czy Keyword Insights zaczęli zgłaszać błędy w raportach pozycji SEO.
W niektórych przypadkach rank trackery przestały prezentować wskaźniki spoza Top10 lub Top20. Pojawiły się również rozbieżności między tym, co widzimy w raportach, a rzeczywistym stanem w wyszukiwarce. Narzędzia, które kiedyś uwzględniały wszystkie wyniki do 100. miejsca, nagle pokazują „puste” obszary, czyli sytuacje, w których wcześniej widniały słowa kluczowe z dalszych pozycji, a dziś ich po prostu nie ma.
Ryzyko większej liczby CAPTCHA i ograniczeń
Wraz z usunięciem num=100 Google najwyraźniej zintensyfikowało działania antybotowe. Narzędzia scraperowe – zarówno wewnętrzne, jak i zewnętrzne – zaczęły notować zwiększoną liczbę prób CAPTCHA oraz blokad na poziomie adresów IP. Dotyczy to zwłaszcza sytuacji, w których system próbuje pobrać dużą liczbę wyników w krótkim czasie.
W praktyce oznacza to, że próby obejścia ograniczeń (np. przy użyciu headless browserów, takich jak Puppeteer lub Selenium) są coraz trudniejsze. Google skutecznie wykrywa nienaturalne zachowania i reaguje mechanizmami utrudniającymi scrapowanie danych. Dla SEO to kolejny cios – oprócz kosztów dochodzi ryzyko niestabilności i przestojów.
Problemy narzędzi do monitorowania pozycji nie kończą się na kosztach czy ograniczeniach – dotyczą też dokładności i kompletności raportów. Aby utrzymać jakość danych, wiele platform musi w krótkim czasie całkowicie przeprojektować sposób, w jaki pozyskuje informacje z SERP. A to już nie tylko kwestia technologii, ale też zaufania użytkowników do prezentowanych wyników.
Co zmiana oznacza dla Twoich raportów SEO i strategii?
Wrześniowa zmiana wymusiła na branży SEO nie tylko korektę narzędzi, ale też sposobu myślenia o raportowaniu efektywności działań. Dane, na których przez lata opierały się strategie i ocena wyników, uległy gwałtownej transformacji. Aby nie wyciągać błędnych wniosków i nie podejmować decyzji na podstawie nieaktualnych standardów, konieczne jest przeformułowanie wskaźników sukcesu, redefinicja punktów odniesienia i większy nacisk na edukację osób decyzyjnych. Oto trzy konkretne działania, które warto podjąć już teraz.
Uwaga na KPI – porównuj dane „po nowemu”
W raportach widzisz nagły spadek liczby wyświetleń lub liczby słów kluczowych? Nie wpadaj w panikę – to nie musi oznaczać pogorszenia pozycji strony. Zmieniła się baza danych, na której opierają się metryki. Od września 2025 zaczynamy liczyć „na nowo” – porównywanie obecnych wskaźników z wynikami sprzed zmiany może prowadzić do mylnych interpretacji. Nowa baza oznacza nowe trendy i nowe „normy”, które muszą być rozpoznane i zrozumiane od zera.
Jeśli dotąd analizowałeś np. 12-miesięczny wykres widoczności w GSC, teraz musisz odciąć dane sprzed września i zacząć budować obraz sytuacji na nowym fundamencie. W przeciwnym razie różnice w wynikach wyszukiwania Google mogą wypaczyć Twoje wskaźniki i doprowadzić do błędnych decyzji optymalizacyjnych.
Zapewnij ciągłość strategiczną swojej firmie!
Edukuj klientów i interesariuszy
To idealny moment, aby poświęcić trochę czasu na edukację klientów, menedżerów, zarządów i innych osób, które korzystają z raportów SEO, ale nie są specjalistami technicznymi. Nagłe zmiany w wynikach mogą łatwo zostać odebrane jako spadek efektywności kampanii, podczas gdy w rzeczywistości to tylko efekt korekty mechanizmów zbierania danych.
Wyjaśnij:
- skąd biorą się „znikające” słowa kluczowe,
- dlaczego średnie pozycje się poprawiły.
Podkreśl, że raporty nie straciły na wartości – po prostu teraz pokazują rzeczywistość bliższą temu, co faktycznie widzi użytkownik. Uświadomienie zespołowi, jak działa monitorowanie pozycji Google po wprowadzeniu zmian, pomoże uniknąć nieporozumień i pozwoli kontynuować działania strategiczne na podstawie lepszych danych.
Postaw na kliknięcia i konwersje, nie tylko impressions
Choć wyświetlenia (impressions) i liczba rankingowych słów kluczowych były dotąd standardowym punktem odniesienia w raportach, teraz warto zwrócić uwagę na inne, bardziej jakościowe metryki. Kliknięcia, współczynnik CTR, liczba sesji, a przede wszystkim konwersje – to wskaźniki, które nie tylko pozostały stabilne po wrześniowych zmianach, ale też lepiej odzwierciedlają realny wpływ SEO na biznes.
W praktyce oznacza to, że warto przesunąć ciężar analizy z „gdzie jesteśmy widoczni” na „co ta widoczność oznacza”. Skoro raporty są teraz uboższe w dane z dalszych pozycji, tym większe znaczenie ma jakość wyników z czołówki – to one generują kliknięcia i ruch.
Problemy narzędzi do monitorowania pozycji – czy da się obejść ograniczenia?
Choć Google oficjalnie nie zostawiło „furtki” po wyłączeniu num=100, wielu specjalistów SEO i twórców narzędzi zaczęło intensywnie szukać rozwiązań zastępczych. Nie chodzi o obchodzenie zasad w sposób niezgodny z polityką Google, ale raczej o znalezienie sposobów na dostosowanie się do nowego stanu rzeczy i odzyskanie przynajmniej części dawnej funkcjonalności. Niestety – łatwego zamiennika nie ma, a każda „obejściowa” metoda ma swoje ograniczenia i koszty.
Alternatywne podejścia do zbierania danych
Najprostszym, choć mniej wydajnym rozwiązaniem, jest klasyczna paginacja, czyli pobieranie wyników z kolejnych stron wyszukiwania po 10 pozycji na raz. Taka metoda pozwala technicznie uzyskać do 100 rekordów, ale wiąże się z koniecznością wykonania aż dziesięciu zapytań zamiast jednego.
Inną metodą jest symulowanie przewijania (tzw. continuous scroll), szczególnie w wersji desktopowej, gdzie Google częściowo wprowadziło ładowanie kolejnych wyników „w tle”. Jednak takie podejście:
- wymaga zaawansowanej emulacji działania przeglądarki,
- nie daje gwarancji, że wszystkie informacje zostaną załadowane lub policzone poprawnie.
Niektóre narzędzia zaczęły testować również integrację z zewnętrznymi API, które udostępniają rekordy z SERP na podstawie własnych zasobów. Ale i tutaj pojawiają się ograniczenia – zarówno kosztowe, jak i jakościowe. Część dostawców rozważa tworzenie własnych „mirrorów” danych SERP z innych lokalizacji czy metod, jednak to wymaga ogromnych nakładów i nadal nie zapewnia pełnej zgodności z aktualnym modelem działania wyszukiwarki.
Mówiąc krótko: alternatywy dla num=100 istnieją, ale żadna z nich nie jest tak szybka, tania i prosta jak poprzednie rozwiązanie.
Ręczne wyszukiwanie też jest trudniejsze
Z perspektywy użytkownika, który samodzielnie sprawdza pozycje swojej strony w Google, sytuacja również się zmieniła. Kiedyś wystarczyło wpisać frazę, dodać num=100 do URL i przeszukać całą setkę wyników na jednej stronie, często za pomocą prostego skrótu Ctrl+F. Dziś już tak się nie da.
W nowej rzeczywistości trzeba przeklikiwać się przez kolejne strony lub scrollować w dół w nadziei, że Google załaduje kolejną partię. To nie tylko mniej wygodne, ale też bardziej czasochłonne. Manualna analiza Top 100 jest znacznie bardziej uciążliwa – zwłaszcza jeśli robisz to regularnie, dla wielu fraz i domen.
Jak sprawdzać pozycje w Google po zmianach? Najrozsądniejszym podejściem jest skupienie się na pierwszych 10–20 pozycjach, które realnie generują ruch. Dalsze wyniki – choć nadal istotne w audytach technicznych czy analizie konkurencji – są trudniejsze do przeanalizowania ręcznie i mniej wartościowe z punktu widzenia użytkownika. W efekcie nawet działania wykonywane „na piechotę” wymagają większej cierpliwości i selektywności niż wcześniej.
Problemy narzędzi do monitorowania pozycji – kilka słów na koniec
Zmiany wprowadzone przez Google we wrześniu 2025 zmusiły branżę SEO do szybkiej adaptacji. Tradycyjne metody śledzenia pozycji przestały być wystarczające, a raporty wymagają nowej interpretacji i aktualizacji punktów odniesienia. To moment, w którym precyzja analizy, właściwe rozumienie metryk i elastyczne podejście mają większe znaczenie niż kiedykolwiek wcześniej.
Zauważyłeś spadki w widoczności? Masz wątpliwości, jak raportować dane po zmianach? A może po prostu chcesz dostosować strategię SEO do nowej sytuacji? Skontaktuj się z nami. Eksperci Harbingers zadbają o właściwe podejście do analityki i zaproponują skuteczne działania dopasowane do aktualnych warunków.
Nie zostawiaj interpretacji danych przypadkowi – porozmawiaj z nami i odzyskaj kontrolę nad swoimi wynikami!