Pomiar widoczności sklepu w AI to dyscyplina, która w 2026 jest jeszcze młoda, ale kluczowa. Google Search Console pokazuje pozycje w SERP, ale nie mówi, ile razy ChatGPT zacytował twój sklep. Merchant Center daje impressions, ale nie wie, czy produkt pojawił się w odpowiedzi Perplexity. Potrzebny jest osobny, dedykowany pomiar – mieszanka manualnych audytów, skryptów i narzędzi zewnętrznych.
Ten przewodnik opisuje pełną metodykę: co mierzyć, jak mierzyć, jakich narzędzi używać, jak interpretować wyniki. Wpisuje się w architekturę sklepu zebraną w przewodniku SEO dla e-commerce.
W skrócie
- Pomiar widoczności w AI wymaga mieszanki manualnego audytu i narzędzi – nie ma jednego dashboardu pokrywającego wszystko.
- Podstawowe metryki: citation rate, position in response, context quality, share of voice.
- Cztery kanały do pomiaru: ChatGPT Search, Perplexity, Gemini, Google AI Overviews.
- Protokół audytu: 50-100 zapytań tygodniowo, 4 osoby na różnych kontach i lokalizacjach.
- Koszt własnego systemu pomiaru: 2-5 tys zł/miesięcznie (narzędzia + czas audytora).
Co w ogóle mierzyć – cztery metryki
Pomiar widoczności w AI dzieli się na cztery kluczowe metryki. Każda odpowiada na inne pytanie biznesowe.
1. Citation rate – czy sklep jest w ogóle wymieniany
Najbardziej podstawowa metryka. Dla zestawu X zapytań typu „polec mi [kategoria]”, w ilu procentach odpowiedzi sklep jest wymieniony (z nazwy, URL lub cytowania źródła). Jednostka: procent.
Cel dla dojrzałego sklepu pod AI: 30-60% citation rate dla zapytań branżowych. Sklepy, które dopiero startują: 2-10%. Wzrost z 5% do 35% w 6 miesięcy jest realny dla dobrze zoptymalizowanych sklepów.
2. Position in response – na której pozycji sklep się pojawia
Gdy sklep jest cytowany, na której pozycji? Pozycja 1 (pierwszy wymieniony) ma 10-20x większy CTR niż pozycja 5. Jednostka: średnia pozycja, median pozycja.
3. Context quality – jak sklep jest opisywany
Jakościowa metryka – czy zdanie cytujące sklep jest pozytywne, neutralne czy zawiera krytykę. Podział: „flagship recommendation”, „alternative”, „niche option”, „caveat mentioned”. Ocena ręczna lub przez sentiment analysis na zdaniu cytującym.
4. Share of voice – udział sklepu vs konkurencji
Dla top 10 konkurentów w branży, ile procent cytowań AI zdobywa każdy sklep. Jednostka: % citation share. Benchmark – dominujący gracz w kategorii zdobywa 25-40% share of voice, top 5 łącznie 60-80%.
Protokół audytu tygodniowego
Pomiar musi być systematyczny, żeby wykrywać trendy. Tygodniowy protokół:
- Lista zapytań – 50-100 zapytań podzielonych na 5 kategorii: szerokie („polec kawiarkę”), średnie („kawiarka ciśnieniowa do 1000 zł”), wąskie („kawiarka dla studenta w akademiku”), porównawcze („Bialetti vs Delonghi”), informacyjne („jak wybrać kawiarkę”).
- Lokalizacja i konto – 3-4 różne VPN (Warszawa, Kraków, Wrocław, Gdańsk), 2-3 różne konta Google (unikają historii spersonalizowanej).
- Wykonanie zapytań – ręczne w 4 kanałach: ChatGPT Search, Perplexity, Gemini, Google AI Overview. 50-100 zapytań x 4 kanały = 200-400 wykonań.
- Zapis wyników – arkusz: zapytanie, kanał, data, czy sklep wymieniony, pozycja, kontekst (screenshot + fragment tekstu).
- Analiza – trendy per kanał, per kategoria zapytań; zmiany tygodniowe.
Czasochłonność: 4-8 godzin tygodniowo dla jednej osoby. Automatyzacja obniża to do 1-2 godzin (patrz niżej).
Lista zapytań – jak ją zbudować
Jakość pomiaru zależy od listy zapytań. Złą listę można opisać dwoma cechami: za mało różnorodna i nie odpowiada rzeczywistym zapytaniom klientów. Dobra lista:
- 50-100 zapytań z różnych kategorii produktowych.
- 3-5 wariantów każdej kategorii (szerokie, średnie, wąskie).
- Mix intencji – rekomendacyjne, porównawcze, informacyjne.
- Language variants – klienta mówią różnie („najlepsza”, „polecana”, „dobra”).
- Długość 5-12 słów – takie zapytania są typowe dla LLM (nie 2-słowne jak w klasycznym SEO).
Źródło inspiracji: Google Search Console (top queries), Answer the Public, AlsoAsked, feedback z działu obsługi klienta (jakie pytania zadają klienci mailem). Regularne odświeżanie listy co 3-4 miesiące – zapytania trendujące zmieniają się.
Narzędzia do pomiaru
Rynek narzędzi LLM analytics jest młody. W 2026 dostępne:
| Narzędzie | Co robi | Koszt |
|---|---|---|
| Surfer AI Citations | Tracking cytowań w ChatGPT, Perplexity, Gemini | 149-299 USD/mies. |
| Otterly.AI | Monitoring cytowań z raportami tygodniowymi | 49-199 USD/mies. |
| Peec.ai | Mapa widoczności w LLM + competitive analysis | 99-499 USD/mies. |
| AlsoAsked AI | Zapytania zakupowe w AI + trends | 29-99 USD/mies. |
| Własny skrypt + API | Dedykowane metryki, elastyczność | 100-500 zł/mies. API + deweloper |
Żadne narzędzie nie pokrywa 100% potrzeb – typowa konfiguracja to 1-2 narzędzia komercyjne + własny skrypt dla specyficznych zapytań branżowych.
Własny skrypt
Dla sklepów z zespołem technicznym: skrypt Python lub Node.js, który wywołuje API LLM (ChatGPT, Perplexity, Gemini) z predefiniowaną listą zapytań i zapisuje wyniki do bazy. 200-400 linii kodu, 2-4 dni developmentu. Koszt operacyjny: 50-200 USD/mies. za API calls.
Narzędzia branżowe dla specyficznych potrzeb
Poza ogólnymi narzędziami istnieją narzędzia branżowe specjalizujące się w pomiarze AI. Warto je rozważyć dla sklepów z niszową specyfiką. Dla e-commerce relevant: BrightEdge AI Catalyst (enterprise, 2000+ USD/mies.), Conductor Pulse (średnie, 800-1500 USD/mies.), Lumar AI (audyt techniczny, pośrednio pomiar). Żadne z nich nie zastępuje dedykowanego audytu, ale uzupełniają obraz.
ChatGPT Search – pomiar krok po kroku
OpenAI udostępnił ChatGPT Search jako osobny produkt. Interface: chat z wbudowaną wyszukiwarką. Pomiar:
- Użyj ChatGPT Plus lub API GPT-4o z włączonym web browsing.
- Dla każdego zapytania z listy, zadaj pytanie i zapisz pełną odpowiedź.
- Ekstraktuj linki z odpowiedzi (sekcja „Sources”).
- Sprawdź, czy twoja domena jest w sources.
- Sprawdź, czy nazwa sklepu jest w tekście odpowiedzi.
Automatyzacja: OpenAI API z tool use (web_search) pozwala na programatyczne wykonanie zapytań. Koszt: 0,02-0,05 USD per zapytanie. 100 zapytań tygodniowo = 10-25 USD/mies.
Perplexity – najbardziej transparentny
Perplexity jest najłatwiejsze do pomiaru – każda odpowiedź ma wyraźną listę źródeł z URL. API Perplexity (pplx-api) akceptuje zapytania i zwraca odpowiedź + citations jako ustrukturyzowany JSON.
- Endpoint:
pplx-api.perplexity.ai. - Model:
sonar-large-online(z web search włączonym). - Response: text + citations array z URL.
- Koszt: 0,001-0,005 USD per zapytanie.
Dla 100 zapytań tygodniowo: 0,5-2 USD/mies. Skrypt Python z tą integracją to 50-80 linii kodu.
Gemini – przez Vertex AI lub Google AI Studio
Gemini 2.0 Pro jest dostępny przez Vertex AI (Google Cloud) lub Google AI Studio. Pomiar podobny do ChatGPT, ale specyfika Gemini:
- Grounding z Google Search – każda odpowiedź może być z włączonym lub wyłączonym search.
- Gdy włączony – response zawiera
grounding_chunksz URL źródeł. - Koszt: 0,005-0,02 USD per zapytanie.
Ważne: Gemini w web UI (gemini.google.com) zachowuje się inaczej niż przez API – może wyświetlać AI Overview-like odpowiedzi. Dla pełnego pomiaru warto wykonać zapytania w obu trybach.
Google AI Overviews – tylko manual
AI Overviews nie ma API – Google nie pozwala na programatyczne sprawdzenie, czy AI Overview pojawia się dla zapytania. Pomiar wyłącznie manualny:
- Otwórz Google Search w trybie incognito (lub różne konta).
- Wpisz zapytanie.
- Sprawdź, czy na górze SERP jest AI Overview.
- Sprawdź, czy twój sklep jest w liście sources AI Overview.
- Sprawdź, czy produkt twój sklepu jest w carousel produktowej (dla zapytań zakupowych).
Automatyzacja przez Playwright/Puppeteer z IP rotation – możliwa, ale szara strefa (Google TOS). Lepiej zatrudnić osoby-audytorów z różnych lokalizacji.
Pomiar a sezonowość rynku
W okresach sezonowych (Black Friday, Święta) wzrasta ogólny wolumen zapytań AI o produkty. Jednocześnie konkurenci agresywnie inwestują w content. Typowo widoczność indywidualnego sklepu spada o 10-20% w szczycie sezonu – nie dlatego że wypadł, ale dlatego że udział w rosnącym rynku się rozcienia.
Normalizacja pomiaru na sezon: porównuj rok do roku, nie miesiąc do miesiąca. Wzrost vs listopad ubiegłego roku jest bardziej informacyjny niż wzrost vs październik bieżącego. Dashboardy powinny mieć opcję „YoY comparison” jako domyślną.
Dashboard widoczności – jak skonfigurować
Surowe dane (excel tygodniowych audytów) nie wystarczą dla zarządu. Potrzebny dashboard. Minimum 6 widoków:
- Overall citation rate – % zapytań, w których sklep się pojawia (trend tygodniowy).
- Citation rate per kanał – ChatGPT vs Perplexity vs Gemini vs AI Overview.
- Share of voice vs top 5 konkurentów – stacked bar chart.
- Position in response – median pozycja per kanał, per kategoria zapytań.
- Context quality – % pozytywnych/neutralnych/negatywnych wzmianek.
- Dry queries – zapytania, gdzie sklep nie jest cytowany przez 4+ tygodnie (priorytet do optymalizacji).
Narzędzie: Looker Studio nad BigQuery lub Metabase nad Postgres. Konfiguracja: 2-3 dni developmentu, utrzymanie minimalne.
Walidacja metodyki pomiaru
Pomiar sam w sobie musi być walidowany. Dwa pytania:
- Czy nasza lista zapytań pokrywa realne zapytania klientów? Test: 20 zapytań z Search Console top queries vs 20 z naszej listy – jeśli pokrycie <70%, zaktualizuj listę.
- Czy nasze wskaźniki korelują z przychodem? Test: korelacja Pearson citation rate vs organic revenue. Wartość >0,5 = metodyka jest poprawna. Wartość <0,3 = coś nie gra (może mierzymy złe zapytania).
Walidacja raz na kwartał – oszczędza od miesięcy mierzenia rzeczy, które nie korelują z biznesem. Dodatkowa metryka kontrolna: sprawdzaj cytowania dla zapytania, dla którego wiesz że sklep powinien być widoczny (np. branded query), aby wychwycić błąd w parserze wyników. Raz w miesiącu porównuj ręczny audyt 20 zapytań z automatycznym i oceniaj zgodność – jeżeli spada poniżej 90%, parser wymaga poprawy. Dobra praktyka: log każdego wyniku z timestamp i wersją parsera, co pozwala na historyczne analizy dryftu.
Interpretacja wyników
Surowa liczba cytowań nic nie mówi – ważne są trendy i kontekst. Kluczowe pytania przy analizie:
Czy citation rate rośnie?
Trend tygodniowy ważniejszy niż wartość absolutna. Wzrost z 5% do 15% w 3 miesiące = skuteczna strategia. Płaski 15% przez 6 miesięcy = stagnacja, trzeba przemyśleć content lub feed.
Które kanały rosną a które stagnują?
Nierównomierny wzrost między kanałami jest normalny. Perplexity typowo reaguje najszybciej (2-6 tygodni), ChatGPT wolniej (8-16 tygodni), Gemini pośrodku (4-10 tygodni). AI Overview najbardziej kapryśne – może się pojawiać i znikać.
Które zapytania generują cytowania?
Segmentacja per typ zapytania. Często widoczność jest nierównomierna – sklep dominuje w „polec mi [kategoria]”, ale jest pomijany w „porównaj [A] vs [B]”. To pokazuje lukę w content (brak porównań).
Jak zmienia się udział vs konkurencja?
Share of voice benchmark – czy zdobywasz udział kosztem konkurentów czy tylko rosną wszyscy równo (rynek rośnie)? Analiza per konkurent pokazuje, kogo „wypychasz” i kogo nie.
Rola audytora w zespole
Pomiar widoczności to etat lub pół etatu. Audytor – osoba odpowiedzialna za systematyczny pomiar i interpretację. Profil:
- Rozumie biznes sklepu i kategorie produktowe.
- Umie wykonać 100 zapytań dziennie bez utraty koncentracji.
- Zna podstawy excela/Google Sheets, elementarnej analityki.
- Potrafi komunikować wnioski do zespołu content.
Dla sklepu średniej wielkości (3000-5000 SKU) wystarczy 0,3-0,5 etatu audytora. Dla dużych (10 000+ SKU) – pełen etat. Audytor często łączy się z rolą specjalisty SEO/content – nie musi być odrębna osoba.
Korelacja widoczności AI z przychodem
Kluczowe pytanie dla zarządu: czy widoczność w AI przekłada się na sprzedaż? Analiza wymaga kilku warstw:
- Ruch organiczny na sklep z Search Console – rośnie czy stoi.
- Ruch z nowych źródeł (Perplexity, ChatGPT) – Analytics 4 referrer report.
- Konwersja z tych źródeł – typowo 2-5x wyższa niż organic Google (user przychodzi z precyzyjną intencją).
- Brand searches w Search Console – trend wzrostowy wskazuje, że AI zwiększa świadomość marki.
Typowy profil: sklep po 6 miesiącach optymalizacji pod AI ma +15-30% ruchu organicznego, +5-15% ruchu z referrals AI (Perplexity, ChatGPT), +25-60% brand searches. Łączny impact na przychód: +10-25% typowo, +40-70% dla sklepów w niszowych kategoriach gdzie AI dominuje.
Segmentacja zapytań wedle intencji
Nie wszystkie zapytania są równe. Klasyfikacja według intencji pomaga priorytetować:
- Informacyjne („czym jest X”) – niski koszyk zakupowy, ale wysoka widoczność buduje autorytet.
- Porównawcze („A vs B”) – średnia intencja, kluczowe dla konwersji późniejszej.
- Rekomendacyjne („polec mi X dla Y”) – wysoka intencja, bezpośredni wpływ na sprzedaż.
- Transakcyjne („gdzie kupić X”) – najwyższa intencja, ale Google i Merchant Center dominują nad LLM.
- Nawigacyjne („sklep X Kraków”) – branded, pomijamy w pomiarze widoczności ogólnej.
Priorytet dla e-commerce: rekomendacyjne > porównawcze > informacyjne > transakcyjne. 60% zapytań monitoringu to rekomendacyjne, 20% porównawcze, 15% informacyjne, 5% transakcyjne.
Benchmarki branżowe
| Branża | Citation rate startujący | Citation rate dojrzały |
|---|---|---|
| Moda / streetwear | 2-5% | 20-35% |
| Elektronika użytkowa | 3-8% | 25-40% |
| AGD | 3-8% | 20-35% |
| Kosmetyki | 4-10% | 25-45% |
| Sport i outdoor | 2-6% | 20-30% |
| Zabawki / dzieci | 3-7% | 25-40% |
| Dom i ogród | 2-5% | 15-30% |
| Narzędzia | 4-10% | 30-50% |
Te benchmarki są orientacyjne – różnią się per subkategoria i per kraj. Polski rynek ma niższe liczby niż UK czy Niemcy o 20-30%, bo polskie zapytania generują mniej globalnych cytowań.
Narzędzia wspierające – ale nie zastępujące manual
Similarweb Digital Intelligence
Daje ruch z LLM traffic sources (referrals od perplexity.ai, chat.openai.com). Koszt: 6000-12 000 USD/rok. Dla sklepów z przychodem 3+ mln zł – uzasadnione.
Semrush AI Toolkit
Od 2025 Semrush ma moduł „AI Visibility” – szacuje, jak często domena pojawia się w LLM. Jakość 70-85% vs manual audyt, ale to dobry punkt wyjścia. Koszt: w pakiecie Semrush Business (400-500 USD/mies.).
Ahrefs Brand Monitoring
Monitoruje wzmianki marki w internecie, w tym na stronach, które LLM-y indeksują. Pośrednia miara, ale przydatna do śledzenia, czy artykuły o sklepie pojawiają się w mediach.
Pomiar widoczności feed vs strony
Feed Merchant Center i strona produktu to dwa źródła cytowania. Dla AI Overviews zakupowych feed dominuje (70-80%), dla Perplexity i ChatGPT strona produktu (60-70%). Dlatego pomiar musi odróżniać:
- Kiedy sklep cytowany z URL domeny (seotrade.pl/produkt/xyz) – strona produktu triumfuje.
- Kiedy sklep cytowany z Merchant Center karty produktowej – feed triumfuje.
- Kiedy sklep cytowany bez linku (tylko nazwa) – brand authority.
Ta segmentacja pokazuje, na którą warstwę inwestować więcej. Sklep z silnym feed ale słabą stroną produktu ma asymetryczny profil widoczności. Szczegóły optymalizacji feed w artykule o feed Shopping pod AI Overviews.
Częste błędy w pomiarze
- Pomiar z jednej lokalizacji – wyniki spersonalizowane, nieobiektywne. Zawsze 3-4 lokalizacje.
- Brak zapytań kontrolnych – bez porównania z konkurentami sukces jest iluzoryczny.
- Mieszanie zapytań branded i unbranded – branded („sklep X”) zawsze cytują sklep, to nie sukces.
- Pomiar tylko ChatGPT – Perplexity ma najwyższą wagę dla e-commerce, pomijać to błąd.
- Brak zapisu kontekstu – wiesz że sklep wymieniony, ale nie wiesz w jakim kontekście (pozytywny / krytyczny).
- Rzadki pomiar (raz na kwartał) – trendy umykają, nie reagujesz na spadki.
- Dashboard bez action – surowe dane bez rekomendacji to odpad – każdy raport kończy się listą konkretnych akcji.
- Brak baseline – bez pomiaru przed wdrożeniem nie wiesz o ile wzrosłaś.
Kiedy widzieć wynik a kiedy czekać
Pomiar ma różne horyzonty czasowe per kanał. Zmiana w feed Merchant Center widoczna w AI Overviews po 2-4 tygodniach. Nowy opis kategorii widoczny w Perplexity po 1-2 tygodniach, w ChatGPT po 4-8. Dodanie blog postu – pełen efekt w LLM po 6-12 tygodniach.
Typowy błąd: panika po 2 tygodniach braku wzrostu. Większość zmian content wymaga 4-8 tygodni, żeby model zacytował nowy fragment. Protokół: każda zmiana content ma kartę „change log” z datą, miejscem, opisem – i harmonogram re-pomiaru za 4, 8, 12 tygodni.
Automatyzacja audytu – skrypt w 200 liniach
Dla sklepu z zespołem technicznym warto zbudować własny skrypt zamiast płacić za narzędzie. Architektura prostego audytora:
- Lista zapytań w CSV lub bazie, 100-200 pozycji z kategorią i intencją.
- Worker wywołujący Perplexity API, ChatGPT API, Gemini API sekwencyjnie per zapytanie.
- Parser wyciągający nazwę sklepu (regex lub fuzzy match) z odpowiedzi.
- Zapis do Postgres – zapytanie, kanał, data, czy trafiony, kontekst, pełna odpowiedź.
- Eksport do BigQuery raz dziennie dla dashboard.
Skrypt działa raz dziennie przez cron, 100 zapytań x 3 kanały = 300 wywołań API = ok. 15 minut. Koszt per uruchomienie: 1-3 zł. Tygodniowy koszt: 7-20 zł. Kolumny w Postgres pozwalają dowolne agregacje.
Parser nazwy sklepu
Najtrudniejszy element to wykrycie, czy sklep jest cytowany. Zwykłe regex na nazwę domeny nie wystarcza – LLM może wspomnieć sklep bez URL. Trzy warstwy detekcji:
- Regex na URL domeny (100% precyzja).
- Regex na nazwę sklepu (warianty pisowni).
- LLM prompt z pytaniem „czy to zdanie wymienia sklep X” (98% precyzja, 0,005 zł per check).
Pomiar przez emerging AI channels
Rynek AI rozwija się szybko – w 2026 pojawiły się nowe kanały, które warto uwzględnić w pomiarze. Lista:
| Kanał | Udział rynku PL | Pomiar |
|---|---|---|
| ChatGPT | 35-45% | API + manual |
| Perplexity | 20-30% | API (najłatwiej) |
| Gemini / AI Overview | 20-25% | API + manual |
| Claude | 5-10% | Manual (brak web search API publicly) |
| Bing Copilot | 5-8% | Manual z IP w różnych kontach MS |
| You.com | 1-3% | Manual |
| Poe / others | 1-2% | Opcjonalnie |
Minimum zalecane: ChatGPT, Perplexity, Gemini, AI Overview – pokrywają 85-90% rynku. Dodanie Claude i Bing Copilot to 10-15% incremental coverage. You.com i Poe – opcjonalnie dla sklepów premium z globalnym zasięgiem.
Jak optymalizować po odkryciu luki
Pomiar wskazuje lukę: „polec mi [kategoria] dla [persona]” cytuje konkurentów a nie nas. Co robić?
- Analiza konkurenta – dlaczego oni? Sprawdzenie content na ich stronie dla tej kategorii. Zapewne mają lepszy opis, FAQ, porównanie.
- Gap analysis – co w twoim content brakuje. Często brak persony w opisie, brak FAQ, brak tabeli porównawczej.
- Content sprint – 2-3 tygodnie na napisanie brakującego content. 5-10 blog postów per kategoria luki + rozbudowanie opisów produktów.
- Re-test za 4-6 tygodni – Perplexity aktualizuje indeks szybko, Google wolniej.
Cykl luka –> content –> re-pomiar zazwyczaj trwa 6-10 tygodni. Po kilku takich cyklach sklep pokrywa 80%+ branży.
Integracja pomiaru z procesem AI content
Pomiar musi zasilać pipeline AI content. Jeśli zapytania typu „najlepszy X pod 500 zł” cytują konkurentów a nie was, to sygnał do optymalizacji kategorii lub produktów z tym zakresem cenowym. Proces:
- Tygodniowy raport pomiaru.
- Identyfikacja „dry queries” – zapytań bez cytowań.
- Analiza, dlaczego (brak content, słaba struktura, słabe schema).
- Fix w pipeline AI content – pełna lub częściowa regeneracja opisów, tytułów, FAQ.
- Re-pomiar za 4-8 tygodni.
Ten cykl feedback-loop jest kluczowy. Szczegóły implementacji stałego pipeline w artykule o AI product updates workflow.
Monitoring brand mentions poza LLM
LLM-y czerpią dane z internetu – fora, Reddit, YouTube, blogi branżowe. Sklep, którego nie wspominają te źródła, będzie mniej cytowany w LLM. Osobna dyscyplina pomiaru:
- Mentions na Reddit – Reddit API, monitoring subredditów branżowych (r/Polska, r/espresso, r/Electronics_pl).
- Mentions na forach – forum4.pl, fora specjalistyczne, grupy Facebook.
- YouTube reviews – wzmianki w opisach filmów, komentarzach, transkryptach.
- Blogi branżowe – Google Alerts + podobne narzędzia.
Narzędzia: Brand24 (popularny w Polsce), Mention.com, YouScan. Koszt: 300-1500 zł/mies. Korelacja brand mentions z citation rate w LLM: 0,7-0,85 (silna). Inwestycja w PR i community marketing jest drugim silnikiem widoczności AI. Więcej o budowaniu autorytetu marki w przewodniku po link buildingu i autorytecie.
Case: sklep z kawą rzemieślniczą
Sklep z kawą rzemieślniczą (400 SKU) uruchomił pomiar widoczności w styczniu 2026. Baseline po pierwszym tygodniu: citation rate 3% (cytowany w 3 z 100 zapytań), wszystkie w kontekście „one of many”.
Strategia: optymalizacja content pod zapytania „jaka kawa do [metoda parzenia]” – cold brew, espresso, V60, chemex. 15 blog postów, 8 opisów kategorii, rozszerzone opisy 30 top produktów.
Po 16 tygodniach: citation rate 28%, w tym 45% w kontekście „recommended” (pozytywny). Share of voice vs 5 top konkurentów wzrósł z 2% do 12%. Ruch organiczny +48%, konwersja z ruchu organicznego +31%. Koszt pomiaru: 1200 zł/mies. przez 4 miesiące = 4800 zł.
Raportowanie do zespołu i zarządu
Dashboard to narzędzie dla osób operujących pipeline. Zarząd dostaje raport miesięczny z konkretną narracją: co mierzymy, jak się zmienia, co robimy, jaki to daje efekt finansowy.
Struktura raportu miesięcznego
- Executive summary – 3-5 zdań z kluczowymi liczbami.
- Trend citation rate i share of voice – jeden wykres, 6 miesięcy.
- Top 3 wzrosty vs top 3 spadki – konkretne zapytania i kategorie.
- Korelacja z przychodem – ruch i konwersja z AI sources.
- Rekomendacje i plan na następny miesiąc – max 3 akcje.
Długość raportu: 1 strona PDF plus załączniki. Czas przygotowania: 3-4 godziny przez analityka. Prezentacja zarządowi: 15-20 minut z Q&A.
Koszt pełnego pomiaru
| Pozycja | Koszt/mies. |
|---|---|
| API LLM (100 zapytań x 3 kanały tygodniowo) | 100-400 zł |
| Narzędzia (Surfer, Otterly, lub Peec) | 200-1500 zł |
| Manual audit – 4 audytorów x 2 h/tydzień | 1600-3200 zł |
| Dashboard developer setup | 3-8 tys zł jednorazowo |
| Analityk raportów (0,1 etatu) | 1500-2500 zł |
| Razem stały | 3400-7600 zł/mies. |
Dla sklepu z przychodem 500 tys zł/mies. to 0,7-1,5% budżetu. Inwestycja zwraca się, jeśli pomiar prowadzi do chociaż 2-3% wzrostu przychodu (co typowo następuje).
FAQ – najczęstsze pytania
Czy wystarczy śledzić tylko ChatGPT?
Nie. ChatGPT ma największy udział rynku w LLM globalnie (60%+), ale dla e-commerce Perplexity jest często ważniejszy – aż 30-50% zapytań zakupowych idzie przez Perplexity. Gemini rośnie szybko w 2026. Minimum 3 kanały + AI Overview.
Jak obiektywnie ocenić kontekst cytowania?
Sentiment analysis modelem LLM na zdaniu cytującym – bierzesz zdanie „Sklep X oferuje…” i oceniasz przez Claude lub GPT-4o jako positive/neutral/critical. 95%+ zgodności z manual oceną. Koszt: 0,01 zł per zdanie.
Jak często mierzyć?
Tygodniowo dla standardowego sklepu, codziennie dla kampanii intensywnej (np. Black Friday). Rzadziej niż tygodniowo tracisz istotność trendu – po 4 tygodniach zapominasz co zmieniłeś.
Czy pomiar jest zgodny z TOS LLM?
Tak, jeśli używasz oficjalnego API. Perplexity i OpenAI mają dedykowane endpointy dla web search – używanie ich to nie scraping. Scrapowanie UI (ChatGPT web, AI Overview) jest szarą strefą – preferuj API.
Ile zapytań potrzebuję dla istotności statystycznej?
50-100 zapytań tygodniowo daje istotność ~5-10% zmiany citation rate. Do 200-300 zapytań daje istotność 2-3%. Dla małej niszy wystarczą 30 zapytań; dla szerokich kategorii 100+ potrzebne do solidnych trendów.
Co z IP rotation?
Dla ChatGPT i Perplexity przez API – nie potrzebne (API nie personalizuje per IP). Dla Google AI Overview i Gemini web – kluczowe, użyj 3-4 VPN z różnych miast Polski. Alternatywa: zatrudnij audytorów w różnych lokalizacjach.
Czy Similarweb daje dobre dane?
Dla dużych sklepów (1+ mln odwiedzin/mies.) – tak, Similarweb pokazuje ruch z perplexity.ai i chat.openai.com. Dla małych sklepów próg danych jest za niski, trzeba pomiaru własnego.
Jak prezentować wyniki zarządowi?
Jeden slide z 4 wykresami: citation rate trend, share of voice, referrers traffic growth, revenue attribution. Max 3-5 zdań interpretacji. Unikaj tablic z liczbami – management woli wizualizacje z jasną konkluzją.
Co dalej
Po ustawieniu pomiaru, zamknij pętlę przez stały pipeline AI content i dashboard sprzedaży z AI. Metryki wpadają w pełną strategię e-commerce. OpenAI udostępnia dokumentację tool use dla web search (więcej w dokumentacji OpenAI).










