Rekomendacje lokalne LLM to trzyetapowy proces: detekcja intencji, retrieval kandydatów z wyszukiwarki lub wewnętrznego indeksu, ranking i generacja streszczenia. Każdy etap ma własne kryteria wyboru, własne wagi i własne punkty awarii. Zrozumienie tej mechaniki pozwala precyzyjnie wybrać, gdzie zainwestować wysiłek marketingowy.
W skrócie
- LLM nie pamięta większości firm lokalnych – pobiera kandydatów z wyszukiwarki w czasie odpowiedzi.
- Retrieval wybiera 10-30 wyników, ranking zawęża do 3-5 firm do zacytowania.
- Kluczowe sygnały rankingu to zgodność encji, spójność NAP, waga opinii, świeżość źródła.
- Generacja odpowiedzi streszcza opinie, opis GBP i nagłówki ze strony firmowej.
- Model odrzuca źródła z niską pewnością – firma niezgodna między GBP a stroną traci miejsce.
Etap 1: detekcja intencji lokalnej
Model klasyfikuje każde zapytanie według schematu intencji w ciągu pierwszego przejścia. Klasa „lokalna” włącza się, gdy prompt zawiera nazwę geograficzną, przyimki przestrzeni, implicytnie lokalną branżę lub sesję z wcześniejszym kontekstem lokalnym. Detekcja błędna oznacza zupełnie inną ścieżkę generacji – model wyszuka artykuły encyklopedyczne zamiast firm.
Intencja lokalna aktywuje specyficzny system pobierania. ChatGPT uruchamia Bing z filtrem lokalnym. Gemini – Google Maps API. Perplexity – własny silnik Sonar z agregatorami (Yelp, TripAdvisor, pkt.pl). Każdy z tych systemów ma inne źródła pierwszeństwa, co tłumaczy rozbieżności między modelami.
Szczegóły różnic między modelami przy lokalnych pytaniach rozpisujemy w analizie lokalnych zapytań AI.
Subklasy intencji lokalnej
Model rozpoznaje pięć subklas: eksploracja (przeglądanie opcji), porównanie (wybór najlepszej), transakcja (zakup/rezerwacja), nagła potrzeba (24h, awaryjne), specjalistyczne zapytanie (rzadka usługa). Każda subklasa ma inną wagę sygnałów w rankingu.
Dla eksploracji model faworyzuje różnorodność (5 firm różnych kategorii). Dla porównania – autorytet opinii. Dla transakcji – dostępność i cenę. Dla awaryjnego – godziny 24h i lokalizację. Dla specjalistycznego – głębokość opisu usługi na stronie.
Etap 2: retrieval kandydatów
Retrieval to pobranie 10-30 firm-kandydatów z zewnętrznego systemu. Model wysyła zapytanie (sam prompt lub jego przeredagowaną wersję) do wyszukiwarki i odbiera listę wyników z metadanymi: URL, tytuł, snippet, liczba opinii, ocena, adres. Retrieval to punkt, w którym „wchodzisz” lub „nie wchodzisz” do puli.
Pozycja w retrievalu wynika z klasycznych sygnałów SEO wyszukiwarki źródłowej. Dla ChatGPT to ranking Bing, dla Gemini – Google, dla Perplexity – mieszanka własnego crawla i feedów z agregatorów. Firma nieobecna w top 30 Bing dla frazy lokalnej nie trafi do pierwszej fazy u ChatGPT.
Podstawy rankingowe Google i Bing opisujemy w przewodniku po SEO 2026.
Rola Knowledge Graph
Jeśli firma istnieje jako encja w Knowledge Graph Google (pełny panel boczny z mapą, opisem, zdjęciami), ma automatyczne pierwszeństwo w retrievalu Gemini i częściowo ChatGPT. Encja w KG oznacza, że model traktuje firmę jako „zweryfikowaną” – czyli o niższym ryzyku halucynacji.
Wejście do Knowledge Graph wymaga: spójnego NAP w 15+ źródłach, cytowania na Wikipedii lub w bazach jak Wikidata, rozbudowanego profilu GBP z unikalną nazwą, dodatkowego schematu Organization lub LocalBusiness na stronie WWW. Dla małej firmy to realna praca na 6-12 miesięcy.
Etap 3: ranking kandydatów
Z puli retrievalu model wybiera 3-5 firm do zacytowania. Kryteria rankingu łączą sygnały z wyszukiwarki, ocenę pewności encji i dopasowanie do subklasy intencji. Formalnie jest to ważenie kilkunastu cech, zaimplementowane jako dodatkowy model lub reguła heurystyczna.
| Sygnał | Waga relatywna | Sposób mierzenia |
|---|---|---|
| Pozycja w retrievalu | 30% | Ranking Bing/Google |
| Ocena i liczba opinii | 20% | GBP, agregatory |
| Spójność encji | 15% | Zgodność NAP w źródłach |
| Świeżość wpisu | 10% | Data ostatniej aktualizacji |
| Dopasowanie do subklasy | 15% | Słowa kluczowe w opisie |
| Autorytet domeny | 10% | DR, wzmianki w mediach |
Wagi to przybliżenie na podstawie obserwacji wyników i publikacji firm trzecich – nie ma oficjalnego API. Rzeczywisty algorytm każdego modelu różni się, ale kierunki wag potwierdzają się w setkach eksperymentów.
Spójność encji jako filtr
Model sprawdza, czy dane w GBP zgadzają się z danymi na stronie firmowej i w katalogach. Różnica NAP (inny adres w pkt.pl niż w GBP) obniża pewność encji o 20-30%. Dla ChatGPT i Gemini to często wystarcza, żeby firma wypadła z top 5.
Drugim filtrem jest zgodność kategorii. Firma zarejestrowana w GBP jako „sklep spożywczy”, a na stronie opisana jako „gastronomia” – model nie wie, która klasyfikacja jest prawdziwa, więc poniża pozycję. Konsekwencja taksonomii w GBP, katalogach i stronie jest tak samo ważna jak NAP.
Etap 4: generacja streszczenia
Po wyborze 3-5 firm model generuje opis każdej z nich. Źródła streszczenia to: opis GBP (główny materiał), fragmenty opinii (parafrazowane, rzadko cytowane wprost), pierwsze zdanie strony About, nagłówek H1 strony głównej, snippet z wyniku wyszukiwarki.
Długość opisu to zwykle 40-120 słów per firma. Format to najczęściej: pierwsze zdanie z identyfikacją (rodzaj + miasto), drugie zdanie z kluczowymi usługami, trzecie ze znakiem jakości (liczba lat, opinie). Kolejność dostosowywana do subklasy intencji.
Jak zaprojektować treść pod cytowanie – w tekście o contentzie pod AI i SEO.
Preferowane formaty do cytowania
Model najchętniej cytuje: nagłówki w formie pytań („Ile kosztuje przegląd kotła”), tabele porównawcze, listy numerowane procedur, fragmenty z opinii zawierające nazwy miast i kwoty, zdania z liczbami („15 lat doświadczenia”, „300 klientów rocznie”). Unika: bloków marketingowych, sloganów, reklam.
Szczegóły formatowania pod chunkowanie i cytowanie rozpisujemy w przewodniku po zaawansowanym SEO.
Sygnały, które podbijają pozycję
Poza retrievalem i opiniami model honoruje dodatkowe sygnały. Najsilniejsze z nich to: cytowanie w Wikipedii lub Wikidata (autorytet encji), artykuł w medium ogólnopolskim (tvn24, gazeta.pl, rp.pl) z imienną wzmianką, wpis w wyróżniającym rankingu branżowym, link ze strony samorządu lub izby handlowej.
Dla firm usługowych ważne są jeszcze: certyfikaty branżowe opisane na stronie, lista klientów (jeśli B2B), case studies z nazwiskami i datami, publikacje naukowe lub branżowe autora.
Drugą warstwą sygnałów dla firm lokalnych są opinie. Model bierze średnią ocenę, ale też dystrybucję gwiazdek, długość opinii, różnorodność języka, tempo napływu. Opinia dłuższa, konkretna, z nazwiskiem usługi i miasta ma 3-5x wyższą wagę od ogólnego „polecam”.
Dogłębnie wpływ opinii na rekomendacje AI opisujemy w artykule o opiniach Google w SEO i AI.
Co model odrzuca
Model filtruje źródła z sygnałami niskiej wiarygodności. Są to: strony z niespójnym NAP, profile GBP bez zdjęć i opisów, katalogi-farmy (setki firm na jednej stronie, bez weryfikacji), opinie sztuczne (nagły przyrost, powtarzalne zwroty, konta bez historii), treści wygenerowane (detekcja AI w Bing i Google działa w 2026 z dokładnością 65-80%).
Druga kategoria odrzutów to firmy nieaktywne. Model sprawdza: ostatni post w GBP (jeśli starszy niż 6 miesięcy – penalty), ostatnią aktualizację godzin (brak aktualizacji świąt – penalty), ostatnią odpowiedź na opinię (brak odpowiedzi przez rok – penalty).
Lista bezpieczeństwa
Modele komercyjne mają wewnętrzne listy firm „problematycznych” – oszustwa, spam, treści niebezpieczne. Raz trafiona firma na taką listę nie pojawia się w rekomendacjach przez miesiące, nawet po rozwiązaniu problemu. Drobny błąd w obsłudze klienta może nie mieć skutków, ale afera medialna lub flaga w Trustpilot potrafi wyłączyć firmę z AI na długo.
Monitoring reputacji jest więc nie tylko marketingowy, ale wprost wpływa na widoczność w AI. Setup alertów Google (nazwa firmy, kluczowi pracownicy) i cotygodniowe przeglądanie opinii z wszystkich platform to higiena minimum.
Wpływ uprawnień Google Business
Model uznaje zweryfikowanie właściciela GBP za kluczowy sygnał zaufania. Firma niezweryfikowana (GBP utworzony, ale bez potwierdzenia przez Google) ma 30-40% niższe szanse pojawienia się w rekomendacjach. Zweryfikowanie zajmuje 5-14 dni (kod pocztowy, SMS lub rozmowa telefoniczna).
Szczególnie krytyczne jest to dla firm nowych (do 12 miesięcy od utworzenia GBP). Model traktuje brak weryfikacji jako ryzyko – firma może nie istnieć, lub może być manipulacją. Zweryfikowanie + aktywne prowadzenie (posty, odpowiedzi) w ciągu 30 dni od utworzenia GBP skraca okres budowania pewności.
Różnice między modelami
ChatGPT opiera się mocno na treści tekstowej – cytuje wprost z opisów firm i dłuższych artykułów. Gemini preferuje dane strukturalne (schema LocalBusiness) i integrację z Maps. Perplexity stawia na agregatory branżowe i transparentność cytowań.
Dla ChatGPT kluczowa jest rozbudowana strona firmowa z wieloma podstronami usług. Dla Gemini – doskonały GBP z aktualnymi postami i godzinami. Dla Perplexity – obecność w 5-8 agregatorach branżowych. Strategia kompleksowa pokrywa wszystkie trzy – to optymalizacja „trójstronna”, którą opisujemy w strategiach SEO i AIO.
Case: kawiarnia w Krakowie
Kawiarnia z Podgórza z 180 opiniami (4.8), spójnym NAP w 18 źródłach i blogiem o 30 wpisach o lokalnych kawach – w październiku 2025 pojawiała się w 85% odpowiedzi Gemini na „kawiarnie Kraków Podgórze”, w 70% ChatGPT i w 60% Perplexity. Druga kawiarnia z tej samej okolicy, z 250 opiniami (4.9), ale bez strony WWW i bez obecności w pkt.pl – w 90% Gemini, w 30% ChatGPT, w 15% Perplexity.
Różnica pokazuje, że sama liczba opinii nie wystarczy – rozkład na modele zależy od dywersyfikacji źródeł. Gemini „wystarczy” GBP, ale dwa pozostałe modele wymagają treści i agregatorów.
Filtry bezpieczeństwa w retrievalu
Modele komercyjne stosują filtry bezpieczeństwa na etapie retrievalu. Wykluczane są: strony z podejrzeniem o oszustwa (wzmianki w bazach UOKiK, zgłoszenia w raportach BIG), firmy z świeżymi negatywnymi newsami (afery medialne w ostatnich 6 miesiącach), domeny z historią malware lub spam (flagi Google Safe Browsing), treści generyczne AI (detekcja mocno rozwinięta w 2026, dokładność 75-85%).
Filtry są konserwatywne – model wolą pominąć firmę w wątpliwości niż zaryzykować szkodliwą rekomendację. Konsekwencja: jedna aferka w mediach obniża widoczność o 40-60% na 6-12 miesięcy. Monitoring reputacji to nie tylko marketing, ale wprost sygnał rankingowy.
Przywracanie widoczności po negatywnym sygnale
Po filtrowaniu (np. po artykule krytycznym w medium) strategia odzysku: szybka publiczna reakcja (5-7 dni), aktualizacja strony z faktami (rozwinięcie sytuacji, publikowane działania naprawcze), nowe pozytywne cytowania (min. 5 w 2 miesiące), wzrost opinii pozytywnych, ewentualne wystąpienie eksperckie w medium branżowym.
Pełne odzyskanie pozycji zajmuje zwykle 3-6 miesięcy, a w poważnych przypadkach do 12-18 miesięcy. Ważne jest, że modele AI mają krótszą pamięć niż Google – to, co zostanie usunięte z Bing i Google News, znika z retrievalu w 2-4 tygodnie.
Tokenizacja i budżet chunków
Model generujący odpowiedź ma budżet tokenów na odpowiedź – zwykle 500-2000 tokenów dla lokalnych rekomendacji. Z tego budżetu: wstęp (100-200 tokenów), opis każdej firmy (100-200 tokenów per firma), podsumowanie i CTA (100-200 tokenów). Firma, która wymaga długiego opisu do zrozumienia oferty, konsumuje budżet szybciej – model może wybrać firmę z prostszym opisem, żeby zmieścić więcej firm w odpowiedzi.
Implikacja dla strategii: pisz opisy zwięźle, ale konkretnie. „Gabinet stomatologiczny Kraków Nowa Huta. Implantologia, protetyka, ortodoncja. 12 lat, 280 opinii 4.8, ceny od 300 zł” to 25 słów dostarczających modelowi 6 faktów. Długi marketingowy opis bez liczby konkretów zjada budżet i wypada w selekcji.
Warstwa generatywna: jak model układa odpowiedź
Po wyborze firm model buduje odpowiedź w 3 podetapach: wybór szablonu (lista, ranking, porównanie), pobór fragmentów treści z każdego źródła, kompozycja końcowej odpowiedzi z cytowaniami. Każdy podetap może faworyzować jedną firmę nad drugą zależnie od bogactwa dostępnego materiału.
Szablon listy (5-10 firm) używany jest dla pytań eksploracyjnych. Ranking top 3 z opisem – dla porównawczych. Szczegółowy profil jednej firmy – dla nagłych potrzeb. Szablon jest wybierany w pierwszej fazie generacji na podstawie wyrażonej intencji pytania.
Fragmenty treści i chunking
Model dzieli źródła na chunki – fragmenty 100-500 tokenów o zwartym znaczeniu. Dobre chunki to: nagłówek H2 z krótkim akapitem odpowiedzi, tabela z cenami, opinia w całości (jeśli jest krótka i zwarta), lista punktowana z pozycjami. Słabe chunki: długie akapity bez nagłówków, marketingowe wstępy, zakończenia bez treści.
Strony z dobrym chunking dostają premium w generacji – model może pobrać konkretny fragment, a nie całą podstronę. Firma z 15 dobrymi chunkami na stronie usługi ma 3-5x wyższą szansę trafienia do cytatu niż firma z 3 długimi, nieustrukturyzowanymi akapitami.
Kontekst rozmowy i personalizacja
Modele pamiętają kontekst sesji (conversation history). Pytanie „najlepsze restauracje w Krakowie” po wcześniejszym „szukam wegetariańskich miejsc” zostanie odfiltrowane pod wegetariańskie opcje. Firma z wyraźnym profilem (ściśle wegetariańska, w pełni zweryfikowana w GBP) wygrywa w takich sesjach.
Personalizacja na poziomie konta (jeśli użytkownik udostępnił preferencje) dodatkowo wpływa na ranking. Model wie, że użytkownik wcześniej pytał o zabiegi u dermatologa – kolejne pytania o kosmetykę są automatycznie ważone pod kątem ekspertyzy medycznej, nie tylko estetyki.
Implikacja dla strategii lokalnej
Firmy z wąskim profilem wygrywają w konwersacjach – model ma jasny sygnał „ta firma robi dokładnie X”. Firmy ogólne („oferujemy wszystko”) mają niższą pewność klasyfikacji. Strategia: dedykowane podstrony dla każdej niszy, jasne opisy usług w GBP, schema z konkretnym typem biznesu (nie ogólnym LocalBusiness).
Model ensemble i różnice w ważeniu
OpenAI, Google, Anthropic używają ensemble kilku modeli do generowania odpowiedzi. Pierwszy model klasyfikuje pytanie, drugi retrievaluje źródła, trzeci rankuje, czwarty pisze. Każdy model ma własne wagi, więc firma o profilu X może wygrywać w ChatGPT, a przegrywać w Claude (mimo tego samego pytania).
Porównanie przykładowe dla pytania „dobry mechanik Kraków”: ChatGPT (Bing) poleca firmy z wysoką pozycją w Bing Maps, Gemini (Google) z Local Pack, Perplexity ze serwisów branżowych (autocentrum.pl, oponeo). Firma widoczna w jednym kanale nie zawsze jest widoczna w trzech.
Jak podnieść pozycję krok po kroku
Pierwsza iteracja (miesiąc 1): audyt NAP w 20 źródłach, ujednolicenie, aktualizacja GBP do 100% wypełnienia, dodanie schematu LocalBusiness na stronie. Druga iteracja (miesiąc 2-3): 15-20 opinii poproszonych mailowo, odpowiedzi na wszystkie starsze opinie, 5 wpisów blogowych lokalnych. Trzecia iteracja (miesiąc 4-6): obecność w 5 agregatorach branżowych, 2-3 artykuły w mediach lokalnych, posty w GBP co 7 dni.
Po pełnym cyklu widoczność firmy powinna wzrosnąć z 20-30% baseline do 60-80% w odpowiedziach modeli na zapytania top 10 lokalnych. Dalszy wzrost wymaga treści eksperckich, udziału w branżowych wydarzeniach i zdobywania linków z silnych domen.
Pomiar postępu i frameworki cotygodniowego śledzenia to materiał z przewodnika o widoczności w AI.
Najczęstsze błędy w mechanice rekomendacji
Pierwszy błąd to inwestowanie w jeden sygnał kosztem innych. Firma z 500 opiniami i niespójnym NAP straci na spójności encji to, co zdobyła liczbą opinii. Model waży sygnały multiplikatywnie – słaby wynik w jednym kryterium tłumi dobre wyniki w innych.
Drugi błąd to nieaktualizowanie profilu GBP. Profil z godzinami świątecznymi sprzed 2 lat sygnalizuje nieaktywność. Firmy aktualizujące GBP co 7-14 dni (post, zdjęcie, aktualizacja godzin) dostają bonus świeżości, który może zrównoważyć mniejszą liczbę opinii.
Trzeci błąd to ignorowanie opinii negatywnych. Model karze zarówno „za dużo” negatywów (oczywiste), jak i „brak odpowiedzi” pod negatywami (sygnał słabej obsługi). Odpowiadaj na wszystkie opinie, szczególnie złe – to kluczowy sygnał aktywności.
FAQ – najczęstsze pytania
Czy model zapamiętuje moje aktualizacje?
Nie – modele komercyjne nie uczą się w czasie rzeczywistym z pojedynczych zmian. Widoczność wynika z retrievalu, który pobiera aktualne dane z wyszukiwarek. Zmiana w GBP jest widoczna dla modelu natychmiast, bo Bing i Google Maps aktualizują się w godzinach. Trening modelu odbywa się raz na 3-12 miesięcy i wpływa na wiedzę „bez Search”, ale retrieval korzysta z bieżących danych.
Czy warto płacić za wyższy ranking w agregatorach?
Płatne wyróżnienia (promowane wpisy) mają ograniczoną wartość dla AI – model filtruje sygnały reklamowe, jeśli je rozpoznaje. Lepiej zainwestować w jakość wpisu (800+ znaków opisu, 10+ zdjęć, pełna lista usług) niż w promowanie niskiej jakości wpisu. Wyjątek: agregatory typu znanylekarz, gdzie pakiet premium faktycznie zwiększa ekspozycję profilu, co przekłada się na opinie i liczbę cytowań.
Jak model traktuje nowe firmy bez historii?
Nowa firma (GBP starszy niż 3 miesiące) ma penalty świeżości w rankingu – model preferuje firmy z dłuższą historią, bo są statystycznie bardziej stabilne. Pierwsze 6 miesięcy to okres akumulacji sygnałów: 30+ opinii, 15 wpisów w katalogach, 5-10 treści na stronie. Po tym czasie firma traktowana jest „normalnie” i może rywalizować z ustalonymi konkurentami.
Co jeśli konkurent kupuje fałszywe opinie?
Zgłoś do Google (opcja „Zgłoś nieodpowiednią opinię”) i monitoruj przez 4-8 tygodni. Algorytm Google wykrywa sztuczne opinie z coraz wyższą dokładnością – seria 5* od kont bez historii, w jednym dniu, z podobnymi frazami zostanie usunięta. Modele AI niezależnie filtrują podejrzane wzorce opinii, więc w dłuższym horyzoncie konkurent nie zyskuje tyle, ile wygląda na pierwszy rzut oka.
Ile źródeł potrzebuję, żeby model mnie cytował?
Minimum to 5 spójnych źródeł: GBP, 2-3 katalogi (pkt.pl, panoramafirm, branżowy), strona WWW, jedna wzmianka w mediach. Próg komfortu – 15 źródeł z zachowaniem NAP. Próg dominacji – 25+ źródeł plus 100+ opinii plus wzmianki w mediach ogólnopolskich. Każda dodatkowa spójna wzmianka dodaje kilka procent pewności encji dla modelu.
Czy schema LocalBusiness wystarcza, czy potrzebuję Organization?
LocalBusiness to podtyp Organization. Dla jednej lokalizacji wystarcza LocalBusiness (wiecej w dokumentacji schema.org). Dla firm z wieloma oddziałami użyj Organization na stronie głównej plus LocalBusiness na każdej podstronie oddziału. Dla szczególnych branż dostępne są podtypy (Restaurant, MedicalBusiness, AutoRepair) – użycie ich zwiększa specyficzność encji i pomaga modelom w klasyfikacji.
Dlaczego moja firma pojawia się w ChatGPT, a nie w Gemini?
Różnica w silnikach retrievalu. ChatGPT używa Bing, gdzie Twoja firma może mieć dobrą pozycję. Gemini używa Google, gdzie konkurencja jest inna. Zbadaj pozycje w obu wyszukiwarkach dla 10 fraz lokalnych – często okazuje się, że firma jest top 3 w Bing, ale top 15 w Google. Rozwiązanie: klasyczne SEO pod Google Maps (optymalizacja GBP, linki lokalne) podniesie pozycję i w Google, i w Gemini.
Jak modele reagują na duplikaty firmy?
Duplikat GBP (2 profile tej samej firmy) dzieli sygnały na dwie encje – model widzi dwie osobne firmy, obie słabsze od sumy. Konieczna konsolidacja: wybierz jeden profil jako główny, zgłoś drugi do usunięcia (Google ma formularz). Proces trwa 2-6 tygodni. Duplikaty są najczęstszą przyczyną „zamrożenia” widoczności – usunięcie daje szybki skok. Po konsolidacji monitoruj NAP w innych źródłach – tam często zostaje stara wersja.
Budżet retrievalu i jego ograniczenia
Każdy model ma ograniczenie liczby źródeł, które pobiera w jednym zapytaniu. ChatGPT Search typowo 8-15 stron, Gemini 10-20, Perplexity 10-25. Jeśli Twoja firma nie znajdzie się w pierwszych 15-20 wynikach Bing/Google dla zapytania, nie trafia do retrievalu, więc nie ma szans na ranking.
Implikacja: klasyczna pozycja w SERP jest wciąż kluczowa. Firma w top 3 Google ma prawie gwarantowane wejście do retrievalu AI. Firma w top 10 – ok. 80% szans. Firma poza top 15 – praktycznie zero. Dlatego SEO i AIO są nadal komplementarne, nie substytuty.
Co robić, gdy firma jest w top 10, ale nie w top 5 retrievalu
Celuj w top 3. W retrievalu wyższa pozycja = wyższa waga w dalszym rankingu. Pozycja 8 vs pozycja 3 w Bing to różnica 30-40% pewności rekomendacji. Drogi do wzrostu: więcej linków wewnętrznych (podstrony usługowe), optymalizacja tytułów i meta (CTR), poprawa technicznego SEO (szybkość, mobile, Core Web Vitals).
Spójność multi-kanałowa jako fundament
Model sprawdza spójność informacji między kanałami. Firma deklarująca „usługi premium” w GBP, ale „tanie usługi” na stronie, otrzymuje obniżoną pewność encji. Model nie wie, która wersja jest prawdziwa, więc asekuruje się niższym rankingiem.
Spójność obejmuje: kategorię biznesu (Dentist wszędzie, nie raz Dentist, raz MedicalSpa), zakres usług (te same usługi w GBP, na stronie, w katalogach branżowych), USP („24h” konsekwentnie lub wcale), zdjęcia (te same zdjęcia w GBP i na stronie wzmacniają encję), godziny (zgodność otwarcia we wszystkich źródłach).
Audyt spójności – checklista
Sprawdź: (1) nazwa firmy identyczna w GBP, stronie, pkt.pl, Facebook, Google Maps. (2) Adres dokładnie ten sam (w tym format „ul.” vs „ulica”). (3) Telefon bez wariantów (12 345 67 89 czy +48 12 345 67 89 – wybierz jedno). (4) Godziny otwarcia zsynchronizowane z aktualizacjami świąt. (5) Kategorie biznesu 1:1 między GBP a schema LocalBusiness. (6) Usługi wymienione identycznie w 3+ źródłach.
Porównanie z klasycznym Local Pack
Mechanika rekomendacji w AI różni się od Local Pack Google w kluczowych punktach. Local Pack waży proximity (odległość) jako główny sygnał – firma 500m od zapytania prawie zawsze wygrywa z firmą 3 km dalej. AI waży odległość jako drugorzędny czynnik – encja i treść mogą przebić bliskość o 2-3 pozycje.
Local Pack używa 3 czynników (proximity, relevance, prominence). AI używa 6-8 (dodaje encję, świeżość, multimodalność, autorytet źródła). To znaczy, że firma z niskim proximity, ale wysokimi pozostałymi sygnałami, może wygrać w AI, mimo że w Local Pack będzie na dalszej pozycji.
Implikacje strategiczne
Firma w centrum miasta (wysoka konkurencja) w Local Pack musi walczyć o każdą opinię i cytowanie. Firma na obrzeżach (niska konkurencja bezpośrednia) w Local Pack łatwo wchodzi do top 3 proximity-based, ale w AI – wciąż musi inwestować w jakość encji i treści, bo model ignoruje geograficzny dystans jako decydujący.
Dla większości firm dobrą strategią jest dążenie do top 3 w Local Pack ORAZ widoczności w AI. Nie da się już „wybrać jednego kanału” – użytkownik może używać Google Maps, ChatGPT z funkcją Search, Gemini lub Perplexity w zależności od urządzenia i preferencji.
Rola metadanych HTML
Model czyta metadane HTML strony – tytuł, meta description, Open Graph tags, Twitter Cards. Firma z zoptymalizowanymi metadanymi (pełny title zawierający nazwę + miasto + branżę, meta description w 150-160 znakach, Open Graph image) dostaje premium w rankingu AI.
Typowe błędy: puste meta description (model nie ma z czego streszczać), title zbyt ogólny („Strona główna”), brak Open Graph image (model nie może załączyć miniatury w odpowiedzi). Naprawa tych błędów to zwykle 1-2 godziny deweloperskie, a wpływ na widoczność jest mierzalny (+10-15%).
Scenariusz: pierwszy kwartał intensywnego wdrożenia
Realne plany kwartalne dla firmy chcącej szybko wejść do widoczności AI:
- Tydzień 1-2: audyt NAP (20 źródeł), mapa konkurencji, baseline widoczności w 3 modelach AI (20 zapytań).
- Tydzień 3-4: ujednolicenie NAP, rozbudowa GBP do 100%, wdrożenie schema LocalBusiness.
- Tydzień 5-6: start procesu zbierania opinii, odpowiedzi na 100% historycznych opinii, 2 nowe wpisy blogowe.
- Tydzień 7-8: pogłębienie schematu (dodanie typów branżowych), obecność w 3 nowych agregatorach, 2 kolejne wpisy.
- Tydzień 9-10: pierwsze publikacje medialne (2-3 artykuły w mediach regionalnych), intensyfikacja postów GBP.
- Tydzień 11-12: analiza efektów, raport kwartalny, plan na kolejny kwartał.
Po 12 tygodniach spodziewaj się: 30-50% wzrostu widoczności w ChatGPT, 40-60% w Gemini, 20-35% w Perplexity. Perplexity wolniej reaguje na zmiany, bo często bazuje na wolniej odświeżanych agregatorach branżowych.
Co dalej
Zrób audyt każdego z czterech etapów w swojej firmie: czy model rozpoznaje intencję lokalną dla Twoich usług, czy jesteś w top 30 retrievalu, czy masz sygnały rankingowe, czy dostarczasz materiał do generacji. Priorytetyzuj etap, który leży najsłabiej. Całościowy plan poprowadź zgodnie z przewodnikiem SEO lokalnego pod AI, a taktykę sygnałów lokalnych uporządkuj wg analizy sygnałów lokalnych w odpowiedziach AI.










