lokalne zapytania ai

Lokalne zapytania: jak AI odpowiada i jak zająć miejsce

Lokalne zapytania AI to wszystkie pytania z kontekstem geograficznym – bezpośrednim („dentysta Kraków”) lub pośrednim („gdzie zjeść koło mnie”). Modele odpowiadają na nie inaczej niż na pytania ogólne – łączą wyszukiwanie w Google Maps, katalogach branżowych i świeżych artykułach z własną wiedzą. To tworzy specyficzny format odpowiedzi, który musisz znać, żeby się w nim zmieścić.

W skrócie

  • Modele wykrywają intencję lokalną po 40+ sygnałach – nazwa miasta, przyimki („w”, „koło”, „w pobliżu”), kontekst IP, historia rozmowy.
  • Typowy format odpowiedzi lokalnej to 3-5 firm z krótkim opisem (60-120 słów) i źródłem.
  • ChatGPT, Gemini i Perplexity używają różnych silników wyszukiwania – Bing, własny Google, Sonar.
  • Najczęstsze typy zapytań to „najlepszy”, „tani”, „24h”, „blisko mnie” – każdy ma inny wzorzec odpowiedzi.
  • Firma widoczna w jednym modelu nie zawsze jest widoczna w innym – optymalizuj pod wszystkie trzy.

Jak modele rozpoznają zapytanie lokalne

Model klasyfikuje zapytanie jako lokalne w ciągu pierwszego przejścia przez prompt. Detekcja opiera się o słowa kluczowe geograficzne (miasto, dzielnica, kod pocztowy), wyrażenia relacji („koło mnie”, „w okolicy”, „najbliższy”), kontekst sesji (poprzednie pytania o lokalizację), i dane z interfejsu (w aplikacji mobilnej – lokalizacja urządzenia).

Gdy model rozpozna intencję lokalną, aktywuje inne wyszukiwanie niż dla pytań ogólnych. ChatGPT w trybie Search uruchamia Bing z filtrem lokalnym. Gemini korzysta z infrastruktury Google Maps. Perplexity używa własnego silnika Sonar z agregatorami typu Yelp, TripAdvisor, Foursquare.

Podstawy tego mechanizmu w kontekście rekomendacji są w tekście o mechanice rekomendacji lokalnych w LLM – warto przeczytać obie analizy razem, żeby zobaczyć pełny ciąg od detekcji po ranking.

Sygnały intencji lokalnej

Eksplicytne sygnały to nazwa miejscowości (Kraków, Poznań, Gdynia), dzielnicy (Mokotów, Śródmieście), kodu pocztowego, punktu orientacyjnego (koło dworca, przy Galerii Krakowskiej). Implicytne to zaimki („moje miasto”, „u nas”), przyimki przestrzeni („blisko”, „w pobliżu”), frazy branżowe z domyślną lokalnością („odbiór osobisty”).

Niektóre branże są automatycznie klasyfikowane jako lokalne, nawet bez nazwy miasta. Stomatolog, fryzjer, mechanik samochodowy, adwokat, kosmetyczka, warsztat samochodowy – model zakłada potrzebę wyniku geograficznego, chyba że prompt jawnie wskazuje inaczej („najlepsze kliniki stomatologiczne w Polsce”).

Typy zapytań lokalnych i ich format odpowiedzi

Modele rozpoznają sześć głównych wzorców intencji lokalnej. Każdy ma inny format odpowiedzi, inne źródła pierwszeństwa i inne kryteria wyboru firm do cytowania.

Typ zapytania Przykład Format odpowiedzi Główne źródło
Eksplorator „restauracje w Krakowie” Lista 5-10 firm Google Maps, opinie
Porównawczy „najlepszy hydraulik Warszawa” Top 3 z uzasadnieniem Opinie + rankingi
Transakcyjny „zamów pizzę Wrocław” 2-3 firmy z linkiem Pyszne.pl, GBP
Awaryjny „24h ślusarz Poznań” 1-2 firmy, numer telefonu GBP, katalogi
Budżetowy „tani dentysta Lublin” 3-5 z ceną z opinii Opinie, cenniki
Specjalistyczny „implant zęba Katowice” 2-4 z opisem oferty Strony firmowe

Każdy typ wymaga innej taktyki optymalizacji. Do zapytań budżetowych potrzebujesz widocznych cen w opiniach i na stronie. Do awaryjnych – wyróżnienia „24h” w kategorii GBP i w opinii. Do specjalistycznych – rozbudowanej strony usług z terminologią zawodową.

Jak ChatGPT odpowiada na lokalne zapytania

ChatGPT w trybie Search pobiera 5-10 wyników z Bing, filtruje pod kątem adresu w podanym mieście i buduje listę w formacie: nazwa firmy (pogrubiona), adres, krótki opis 2-3 zdania, link źródłowy. Dla zapytań porównawczych dodaje uzasadnienie – najczęściej fragment z opinii lub strony About.

Bez trybu Search ChatGPT korzysta z wiedzy z treningu (cutoff styczeń 2026 w naszym przypadku) i podaje firmy, które były w nim dobrze reprezentowane. To zwykle marki sieciowe z dużą liczbą cytowań w mediach ogólnopolskich. Lokalne firmy rzadko trafiają do tej warstwy – stąd znaczenie trybu Search.

Pełny poradnik dostania się do rekomendacji ChatGPT jest w przewodniku o poleceniach firm lokalnych w ChatGPT.

Ograniczenia ChatGPT w zapytaniach lokalnych

Model nie ma dostępu do lokalizacji użytkownika, chyba że ta zostanie podana w prompcie lub w ustawieniach konta. Zapytanie „dentysta blisko mnie” bez wskazania miasta powoduje prośbę o doprecyzowanie albo odpowiedź z domyślnym miastem (często Warszawa lub Kraków).

Drugie ograniczenie to filtrowanie małych firm. ChatGPT preferuje źródła z wysokim autorytetem domeny. Firma lokalna widoczna tylko w GBP i pkt.pl może nie trafić do odpowiedzi, jeśli nie ma przynajmniej 3-4 niezależnych cytowań.

Jak Gemini obsługuje lokalne zapytania

Gemini ma przewagę infrastrukturalną – bezpośredni dostęp do Google Maps, Google Business Profile i Knowledge Graph. Dla zapytań lokalnych korzysta z tych samych danych co SGE i AI Overviews. Format odpowiedzi jest najbardziej przypominający klasyczny Local Pack – 3 firmy z mapą, godzinami otwarcia, liczbą opinii.

Firma widoczna w Google Maps na pozycji 1-10 dla frazy lokalnej ma realną szansę na cytowanie przez Gemini. Model używa tych samych sygnałów co Local Pack: proximity (odległość), prominence (autorytet), relevance (trafność), więc optymalizacja GBP pod klasyczne SEO lokalne działa wprost pod Gemini.

Techniczne detale pozyskiwania opinii, które wpływają zarówno na Google Maps, jak i Gemini, opisujemy w artykule o wpływie opinii Google na SEO i AI.

Format odpowiedzi Gemini

Gemini prezentuje wyniki lokalne w formie kart – nazwa, ocena, dystans, godziny pracy, kategoria, przycisk „trasa” i „zadzwoń”. W odpowiedzi tekstowej streszcza w formacie: „W Twojej okolicy znajdziesz: [Firma A] (4.8, 24 opinie), [Firma B] (4.9, 120 opinii), [Firma C] (4.7, 56 opinii)”. Rzadziej cytuje opisy firm – częściej pokazuje tylko liczby.

Oznacza to, że pod Gemini musisz optymalizować przede wszystkim liczbę opinii, wysoką ocenę, kompletność profilu GBP. Treść na stronie ma mniejsze znaczenie dla tego modelu niż dla ChatGPT czy Perplexity.

Jak Perplexity podchodzi do lokalnych pytań

Perplexity używa własnego silnika Sonar i agregatorów typu Yelp, TripAdvisor, Foursquare, a w Polsce dodatkowo pkt.pl, panoramafirm, znanylekarz. Format odpowiedzi to lista numerowana z inline-cytatami w formie linków do źródeł. Każda firma ma numer cytowania [1], [2], który otwiera panel boczny z oryginałem.

Przewagą Perplexity jest transparentność źródeł – użytkownik widzi wprost, skąd pochodzi informacja. Firma cytowana w Perplexity ma większą szansę na kliknięcie niż w ChatGPT, bo link jest widoczny obok nazwy.

Mechanika trafiania do cytowań w różnych modelach AI, w tym Perplexity, jest rozpisana w przewodniku o widoczności w AI.

Preferencje źródłowe Perplexity

Perplexity faworyzuje serwisy agregatorowe (TripAdvisor, Yelp, pkt.pl) nad pojedynczymi stronami firmowymi. Dla firmy lokalnej oznacza to, że priorytetem jest obecność w tych serwisach – nawet za cenę mniejszego ruchu bezpośredniego. Kompletny wpis w pkt.pl z opisem 500+ znaków i 5+ opiniami daje większą widoczność niż idealna strona firmowa.

Drugi priorytet to polskie serwisy branżowe. Dla stomatologa – znanylekarz.pl. Dla fryzjera – booksy.com. Dla mechanika – autocentrum.pl. Model rozpoznaje branżowe źródła i waży je wyżej niż ogólne katalogi.

Jak różnice między modelami zmieniają strategię

Jeden sklep zoptymalizowany pod ChatGPT nie zawsze dobrze wypada w Perplexity. Optymalizacja pod wszystkie modele wymaga pokrycia trzech osi: jakość profilu GBP (głównie pod Gemini), obecność w agregatorach branżowych (pod Perplexity), długie artykuły na stronie firmowej (pod ChatGPT).

Macierz priorytetów dla firmy lokalnej w 2026 wygląda tak: 40% budżetu na GBP i opinie, 30% na obecność w katalogach i agregatorach, 20% na treści na stronie, 10% na wzmianki w mediach. Każdy z modeli dostanie swoje źródło.

Kompletna strategia łącząca SEO z optymalizacją pod LLM jest w przewodniku o strategiach SEO i AIO.

Lokalne słowa kluczowe pod każdy model

ChatGPT reaguje dobrze na frazy informacyjne („jak znaleźć”, „ile kosztuje”), Gemini na transakcyjne („zamów”, „zapisz”, „kup”), Perplexity na porównawcze („najlepszy”, „ranking”). Planuj content firmowy z uwzględnieniem tych wzorców – różne wpisy na blogu uderzają w różne modele.

Metody badawcze i narzędzia do lokalnych słów kluczowych rozpisujemy w poradniku o researchu słów lokalnych w 2026.

Najczęstsze błędy widoczności lokalnej w AI

Pierwszy błąd to brak spójności między źródłami. Nazwa firmy „Ala-Dent Klinika Stomatologiczna” w GBP, „Ala Dent” w pkt.pl, „AlaDent sp. z o.o.” na stronie – dla modelu to trzy różne encje, każda z częścią autorytetu.

Drugi błąd to przeinwestowanie w jedną platformę. Firma z 500 opiniami w GBP i zerem w znanylekarz nie trafi do rekomendacji Perplexity. Rozłóż wysiłek w proporcji do udziału źródła w modelu – 40/30/20/10.

Trzeci błąd to ignorowanie wzmianek bez linku. Artykuł w gazeta.pl o nagrodzie Twojej firmy bez linku nadal liczy się dla modeli – wystarczy, że w tekście jest pełna nazwa i miasto. Modelom nie są potrzebne backlinki, aby zbudować encję firmy.

Czwarty błąd to sztuczne opinie. Model wykrywa nietypowe wzorce (seria opinii 5* w jednym tygodniu, powtarzalne zwroty, konta bez historii) i filtruje je z uśredniania. Realne 30 opinii pokonuje kupione 150.

Jak monitorować pozycję w odpowiedziach lokalnych

Pomiar wymaga regularnego zadawania zapytań kontrolnych w każdym z modeli. Zbuduj listę 20-30 fraz z trzech kategorii: eksplorator („[kategoria] [miasto]”), porównawczy („najlepszy [kategoria] [miasto]”), specjalistyczny („[konkretna usługa] [miasto]”). Zadawaj je raz w tygodniu przez 3 miesiące.

Dla każdego zapytania zapisuj: czy Twoja firma wystąpiła (tak/nie), na której pozycji, jaki opis model zacytował, z jakiego źródła. Po 12 tygodniach masz macierz widoczności, z której wyciągasz wnioski – które frazy przebijają się, które wymagają większej pracy.

Narzędzia komercyjne do automatyzacji takich pomiarów to Profound, AthenaHQ, Otterly.ai. Dla małej firmy wystarczy arkusz Google i 20 minut tygodniowo. Model jako recenzent samego siebie – można zapytać go wprost: „dlaczego nie wymieniłeś firmy X w odpowiedzi?” i dostać listę braków.

Kalibracja wobec zmian modeli

OpenAI, Google i Perplexity aktualizują algorytmy co 3-6 miesięcy. Firma, która była dobrze widoczna w ChatGPT w styczniu, może stracić pozycję w kwietniu po zmianie wag źródeł. Stały monitoring to zabezpieczenie przed takimi zmianami – szybciej reagujesz, niż konkurencja.

Śledzenie zmian w algorytmach modelu warto łączyć z lekturą aktualności SEO i AI 2026 – najbardziej istotne updaty zwykle pojawiają się tam w pierwszym tygodniu po ogłoszeniu.

Zapytania zero-click i ich znaczenie

Coraz więcej lokalnych zapytań kończy się „zero-click” – użytkownik dostaje odpowiedź w AI Overview albo bezpośrednio w czatbocie, bez klikania w stronę firmową. Szacunki dla Polski w 2026 to 35-45% lokalnych wyszukiwań w Google Maps jako zero-click, 60-75% dla zapytań w ChatGPT i Gemini.

To zmienia logikę inwestycji. Firma z świetną stroną ale słabym GBP straci klienta, który nigdy nie dotrze na stronę – cała komunikacja odbędzie się w AI Overview. Priorytet: być zacytowanym, nawet jeśli klient nie kliknie. Cytat w AI buduje świadomość marki i daje szansę na powrót z zapytaniem nawigacyjnym.

Strategia pod zero-click

Fokus na profil GBP (bo to tam user zobaczy Twoją firmę), opinie (bo model sparafrazuje je do opisu), jakość pierwszego zdania opisu (bo to jest cytowane dosłownie), zdjęcia (bo AI Overview pokazuje je bezpośrednio). Strona firmowa staje się „drugim pancerzem” – dociera do niej 30-40% osób, których zainteresuje cytat w AI.

Mierzenie skuteczności pod zero-click wymaga metryk pośrednich: wzrost bezpośrednich wejść (nazwa firmy w wyszukiwarce), wzrost telefonów do firmy, wzrost odwiedzin GBP. Google Business Profile pokazuje w statystykach liczbę wyświetleń profilu – to jest twoja widoczność w zero-click.

Multimodalność zapytań

Gemini i ChatGPT w 2026 obsługują zapytania łączące tekst i obraz. Użytkownik robi zdjęcie uszkodzonego kranu i pyta „gdzie znajdę hydraulika w Krakowie, który to naprawi”. Model analizuje obraz (rodzaj usterki), klasyfikuje intencję (usługa hydrauliczna) i szuka firm lokalnych specjalizujących się w tej usterce.

Optymalizacja pod multimodalność: zdjęcia w GBP ze szczegółowym alt text opisującym usługę („naprawa kranu z mieszaczem termostatycznym”), tagowanie zdjęć produktów/usług konkretnie (nie generycznie), nazwy plików opisowe („naprawa-kranu-kraków-przed-po.webp”).

Rola zdjęć w GBP dla AI

Modele AI coraz silniej wykorzystują zdjęcia z GBP. Firma z 50+ zdjęciami oznaczonymi tagami kategorii (menu, wnętrze, przed/po, zespół) ma wyższą widoczność w zapytaniach wizualnych. Standard: 30-50 zdjęć, regularne dodawanie nowych (1-3 tygodniowo), geotagowane, o rozdzielczości min. 720p.

Głos i mobilne lokalne zapytania

Zapytania głosowe mają specyficzną strukturę – są dłuższe, pełniejsze, często w formie pytania. „Jaka jest najbliższa otwarta teraz kawiarnia z WiFi?” to pięć słów więcej niż w wyszukiwaniu tekstowym. Modele AI (szczególnie Gemini na urządzeniach Android i ChatGPT z funkcją voice) coraz częściej obsługują takie zapytania.

Optymalizacja pod voice: pisz treści w formacie pytanie-odpowiedź (H2 jako pełne pytanie), używaj naturalnego języka (nie samych fraz), dodawaj kontekst czasowy („otwarte w niedzielę wieczorem”). Zapytania mobilne dają dodatkowo sygnał lokalizacji urządzenia – tutaj bliskość geograficzna dominuje nad autorytetem.

Voice vs tekst – różnice w odpowiedzi

W odpowiedzi tekstowej model pokazuje 3-5 firm. W odpowiedzi głosowej zwykle tylko 1-2 (czytanie listy 5 miejsc brzmi sztucznie). Oznacza to, że bycie „numer 1” w voice daje proporcjonalnie większy ruch niż bycie w top 5 w tekście. Konkurencja o pierwszą pozycję w voice jest ostrzejsza.

Praktyczne: dla firmy silnie zależnej od voice (gastronomia, taksówki, usługi awaryjne) priorytet to być „pierwszą odpowiedzią” – wymaga to najwyższej średniej opinii, kompletu danych GBP, perfekcyjnej świeżości profilu. Dla firm bez tej zależności (B2B, specjalistyczne usługi) voice ma niższą wagę.

Analityka lokalnych zapytań AI

Trzy warstwy pomiaru widoczności: manualne testy (zestaw 20-30 fraz, cotygodniowe zadawanie w 3 modelach), narzędzia komercyjne (Profound, AthenaHQ, Otterly.ai – od 200 do 800 zł/mies), analiza ruchu referralnego (GA4 z filtrem na chat.openai.com, gemini.google.com, perplexity.ai).

Dla małej firmy manualne testy wystarczają – 30 minut tygodniowo daje stabilny obraz pozycji. Dla średniej warto dodać jedno z narzędzi komercyjnych, bo ręczne testy w 3 modelach dla 50+ fraz zaczynają pochłaniać 3-4 godziny tygodniowo. Dla dużej firmy z wielooddziałowością niezbędna jest pełna automatyzacja.

Co zbierać w arkuszu pomiaru

Kolumny: data pomiaru, zapytanie, model (ChatGPT/Gemini/Perplexity), pozycja firmy (1-5 lub „brak”), długość opisu, źródło cytowania, link kliknięty, notatki. Tabela z danymi cotygodniowymi daje wykres trendów – pokazuje, które frazy rosną, które stagnują, które spadają. To fundament decyzji, gdzie zwiększyć inwestycje.

Czego modele unikają w lokalnych odpowiedziach

Pierwsze – firmy bez weryfikacji w GBP. Model nie ryzykuje podania nieistniejącej firmy, więc brak weryfikacji Google obniża szanse o 60-70%. Drugie – firmy z wysokim odsetkiem negatywnych opinii (powyżej 15% ocen 1-2*). Model traktuje je jako reputacyjne ryzyko. Trzecie – firmy z niespójną kategorią biznesową między GBP a stroną.

Czwarte – firmy promowane agresywnie przez schematyczne treści SEO („najlepszy dentysta w Polsce”, „numer 1 w Krakowie” – nawet bez podstawy). Modele filtrują takie sformułowania i obniżają wagę całej domeny. Piąte – firmy w branżach YMYL (Your Money or Your Life) bez pełnej dokumentacji kwalifikacji autora (lekarze, prawnicy, doradcy finansowi).

Typowe formaty cytowań w różnych modelach

Każdy model ma charakterystyczny styl pokazywania firm lokalnych. ChatGPT cytuje nazwy firm pogrubione i używa listy punktowanej z 2-3 zdaniami opisu. Gemini pokazuje kafelki z mapą, nazwą, oceną, dystansem. Perplexity używa listy numerowanej z numerami cytowań w nawiasach kwadratowych.

Optymalizacja pod format: dla ChatGPT dbaj o krótkie, faktograficzne opisy firmy (zmieszczą się w 2-3 zdaniach). Dla Gemini – kompletny GBP z mapą, zdjęciami, dystansem. Dla Perplexity – obecność w źródłach, które model cytuje często (agregatory, media branżowe).

Intencja awaryjna i jej specyfika

Zapytania awaryjne („hydraulik 24h Warszawa”, „ślusarz awaryjny Kraków noc”) mają specyficzną dynamikę. Model faworyzuje firmy z jawnie zadeklarowaną dostępnością 24/7 w GBP (godziny 0:00-23:59), numerem telefonu widocznym w pierwszym zdaniu opisu, opiniami potwierdzającymi szybki czas reakcji („przyjechał w 30 minut”).

Dla branż awaryjnych strategia: kategoria główna w GBP z frazą „24h” lub „awaryjny”, opis firmy zaczynający się od dostępności, SMS i telefon jako główne kanały kontaktu (nie email), co najmniej 20 opinii wspominających o czasie reakcji. Takie firmy pojawiają się w 80-90% odpowiedzi ChatGPT dla zapytań nocnych.

Wpływ lokalnego SEO na widoczność w AI

Klasyczne SEO lokalne (GBP, opinie, cytowania NAP, linki z portali miejskich) bezpośrednio wpływa na widoczność w AI – szczególnie w Gemini i ChatGPT z trybem Search. Firma w top 3 Google Maps dla frazy „dentysta Kraków Kazimierz” pojawia się w 80% odpowiedzi Gemini na to pytanie i w 50-60% odpowiedzi ChatGPT.

SEO lokalne jest warunkiem koniecznym, ale niewystarczającym. Firma z top 3 w Maps, ale bez opisów usług na stronie, nie trafi do odpowiedzi Perplexity (brak materiału do cytowania) ani do odpowiedzi ChatGPT w trybie Search dla specjalistycznych pytań („implant all-on-4 Kraków”).

Dodatkową warstwę strategii AIO dla firm lokalnych opisujemy w przewodniku o AIO, a pełną taktykę lokalną – w filarze o SEO lokalnym pod AI.

FAQ – najczęstsze pytania

Czy modele AI rozumieją polską geografię lokalną?

Rozumieją warszawskie dzielnice, krakowskie i poznańskie, gorzej radzą sobie z mniejszymi miastami i wsiami. Dla Warszawy model rozpozna Mokotów, Wolę, Pragę. Dla Stalowej Woli może uznać dzielnicę za osobne miasto. Bezpiecznie podawać pełne „Warszawa Mokotów” niż samą nazwę dzielnicy. Kody pocztowe są rozpoznawane poprawnie w każdym modelu, ale rzadko używane w pytaniach użytkowników.

Dlaczego Gemini pokazuje 3 firmy, a ChatGPT 5?

Gemini korzysta z logiki Google Local Pack, który domyślnie zwraca 3 wyniki plus „Zobacz więcej”. ChatGPT buduje listę z 5-10 najlepszych wyników Bing, ponieważ nie ma ograniczenia UI map. Format Perplexity zwykle ma 5 pozycji w liście numerowanej. Wszystkie trzy modele dopasowują długość listy do długości zapytania – krótsze pytanie = krótsza lista.

Czy warto mieć opisy firmy w wielu językach?

Dla firmy obsługującej klientów tylko z Polski – nie ma potrzeby. Dla turystycznej gastronomii, hoteli, biur tłumaczeń warto dodać angielski opis w GBP i w kluczowych podstronach. Modele dobrze obsługują zapytania mieszane („best restaurant Krakow”) i cytują polskie źródła z automatyczną translacją, ale wzmianki po angielsku mają wyższą wagę dla zapytań anglojęzycznych.

Ile zapytań lokalnych trafia do AI zamiast Google?

W 2026 roku szacunki mówią o 12-18% zapytań lokalnych zadawanych wprost w ChatGPT, Gemini lub Perplexity. Kolejne 30-40% klasycznych wyszukiwań Google wyświetla AI Overview z lokalną sekcją. Łącznie około 50% lokalnej intencji ma wpływ silnika AI. Udział rośnie o 2-3 pp kwartalnie. Oznacza to, że ignorowanie AI w strategii lokalnej kosztuje połowę rynku.

Czy firma bez strony WWW może być widoczna w AI?

Teoretycznie tak (jeśli ma mocny GBP i 100+ opinii), ale praktycznie szansa jest niska. Bez strony firma pojawi się w ChatGPT tylko przy prostych zapytaniach eksploracyjnych – z pominięciem pytań specjalistycznych i porównawczych. Koszt podstawowej strony w 2026 to 800-2 500 zł, co zwraca się w ciągu 3-6 miesięcy dodatkowymi klientami z AI. Strona to minimum higieny cyfrowej.

Jak AI radzi sobie z małymi wsiami i miasteczkami?

Dla miejscowości poniżej 20 tys. mieszkańców modele często rozszerzają obszar wyszukiwania do powiatu lub najbliższego dużego miasta. Firma w Łęcznej może pojawić się w odpowiedzi na zapytanie „dentysta Łęczna”, jeśli jest dobrze reprezentowana w GBP, ale częściej AI pokaże firmy z Lublina (15 km). Dla firm w małych miejscowościach kluczowy jest silny GBP plus widoczność w regionalnych katalogach (np. portale miejskie powiatu).

Czy AI uwzględnia godziny otwarcia?

Tak. Gemini pokazuje godziny wprost z GBP. ChatGPT w trybie Search sprawdza, czy firma jest obecnie otwarta (jeśli ma dostęp do danych w czasie rzeczywistym z Bing). Perplexity rzadziej – często pokazuje „sprawdź godziny”. Dla zapytań awaryjnych („24h”) model filtruje wyniki do firm jawnie zadeklarowanych jako całodobowe – warto mieć to w GBP, nie tylko w opisie.

Czy link zewnętrzny z Wikipedii pomoże firmie lokalnej?

Dla dużej sieci lub lokalnej instytucji (muzeum, uczelnia) link z Wikipedii ma dużą wagę – (zobacz definicję Knowledge Graph na Wikipedii). Dla małej firmy usługowej Wikipedia jest niedostępna – artykuł zostanie skasowany jako „nieencyklopedyczny”. Zamiast tego celuj w portale miejskie (wroclaw.pl), branżowe (rp.pl) i regionalne media. Wzmianka w takich źródłach ma wystarczającą wagę dla modeli AI.

Case study: restauracja w Warszawie

Restauracja włoska na Mokotowie miała we wrześniu 2025 100 opinii Google (4.6), pełen profil GBP, stronę z menu i 5 wpisów blogowych. Test pokazał widoczność w lokalnych zapytaniach: ChatGPT 3/20, Gemini 12/20 (silny GBP), Perplexity 2/20 (brak w TripAdvisor). Audyt wykazał lukę: brak profilu TripAdvisor i Bookatable, brak cytowań w mediach.

Plan 6-miesięczny: założenie profilu TripAdvisor z 500-znakowym opisem i 30 zdjęciami (miesiąc 1), integracja z Bookatable.pl do rezerwacji online (miesiąc 1), start zbierania opinii na TripAdvisor przez email po wizycie (miesiąc 2+), 2 artykuły sponsorowane w wyborcza.pl/warszawa i gazeta.pl/warszawa o wyjątkach kulinarnych (miesiące 3-4), rozbudowa bloga o 12 wpisów o kuchni włoskiej i okolicach Mokotowa (miesiące 2-6).

Wyniki po 6 miesiącach: widoczność ChatGPT 11/20, Gemini 17/20, Perplexity 13/20. Rezerwacje online wzrosły 2.5x. Liczba opinii TripAdvisor: 54 nowe. Średni koszt pozyskania klienta spadł z 15 zł (Meta Ads) do 4 zł (organic + AI).

Optymalizacja pod filtry AI

Modele AI filtrują kandydatów na kilku poziomach: przed retrievalem (blacklist, kraje, kategorie zabronione), podczas rankingu (reputacja, spójność), podczas generacji (budżet tokenów, różnorodność). Każdy filtr może wyeliminować firmę z odpowiedzi.

Najczęstsze powody filtrowania: (1) kategoria biznesu w GBP niespójna ze stroną, (2) brak weryfikacji właściciela GBP, (3) odsetek negatywów powyżej 20%, (4) treść marketingowa bez faktów w opisie firmy, (5) dublowanie opinii między kontami (Google widzi IP).

Jak sprawdzić, czy firma jest filtrowana

Test: zapytaj model wprost „dlaczego nie polecasz firmy [nazwa] dla [usługa] w [miasto]”. Model odpowie albo „nie mam informacji o tej firmie” (nie trafia do retrievalu), albo „ta firma ma niską ocenę” (przechodzi retrieval, odpada na rankingu), albo „nie mogę rekomendować” (filtr bezpieczeństwa). Każda odpowiedź daje Ci punkt do poprawy.

Wpływ języka zapytania

Polskie zapytania w modelach AI mają specyfikę – modele używają polskich źródeł, ale internally częściowo tłumaczą na angielski do rankingu. Oznacza to, że czasami firma widoczna w wersji angielskiej zapytania nie pojawia się w polskiej i odwrotnie.

Praktyczna wskazówka: dla firm obsługujących klientów międzynarodowych (turystyka, hotele, międzynarodowe firmy B2B) testuj widoczność w obu językach. Dla firm lokalnych testuj tylko po polsku – angielska wersja nie ma znaczenia dla Twojej bazy klientów.

Śledzenie konkurencji w AI

Co miesiąc sprawdzaj, które firmy pojawiają się w top 5 odpowiedzi dla Twoich 20 kontrolnych zapytań. Zapisz: nazwę firmy, model (ChatGPT/Gemini/Perplexity), pozycję, długość opisu, cytowany fragment. Po 3 miesiącach masz mapę konkurencji – kto gdzie jest widoczny.

Analiza konkurenta wymaga: audytu jego GBP (liczba opinii, kompletność), liczby cytowań w katalogach (ręczne zliczenie), treści na stronie (głębokość, struktura), schematu (narzędzie Rich Results Test), aktywności na social media. Wyniki porównaj z sobą i zidentyfikuj obszary, gdzie konkurent ma przewagę.

Benchmark sukcesu dla różnych branż

Nie każda branża osiąga taką samą skalę widoczności. Benchmarki na 6 miesięcy po wdrożeniu strategii AI:

Branża ChatGPT Gemini Perplexity
Medycyna prywatna 60-80% 70-90% 50-70%
Gastronomia 50-70% 80-95% 60-80%
Usługi prawne 40-60% 50-70% 40-60%
Usługi domowe 55-75% 75-90% 35-55%
B2B doradztwo 30-50% 40-60% 50-70%
E-commerce lokalny 40-60% 60-80% 45-65%

Wartości to % zapytań testowych, w których firma pojawia się w top 5 odpowiedzi. Powyżej 60% dla wszystkich trzech modeli to pozycja lidera – rzadko osiągana bez pełnej strategii 12-miesięcznej.

Co dalej

Zmapuj 30 najczęstszych lokalnych zapytań w swojej branży i sprawdź ręcznie, jak odpowiadają na nie ChatGPT, Gemini i Perplexity. Zapisz pierwsze 5 firm w każdej odpowiedzi – zobaczysz własną pozycję startową. Dalszą optymalizację poprowadź według głównego przewodnika SEO lokalnego pod AI, który porządkuje pracę w 6-miesięczny plan.