1. 7. 2025
„Jakou AI tady vlastně používáte?“
„Je to jen ChatGPT, nebo něco víc?“
„A můžeme se na ty výstupy opravdu spolehnout?“
Tato otázka se opakuje napříč sektory – v bankách, telku, automotive i energetice. A není divu. S tím, jak se AI nástroje stávají běžnou součástí výzkumného workflow, roste nejen poptávka, ale i zmatek.
Ne každá AI odpovídá stejně.
Ne každý „syntetický respondent“ je skutečný model chování.
A ne každé rozhodnutí, které vypadá lidsky, má i lidskou logiku.
Co je syntetický respondent?
Syntetický respondent je digitální model člověka, který napodobuje rozhodování, chování nebo preference reálného spotřebitele. Takový model může sloužit jako náhrada nebo doplněk tradičních lidských panelistů, zejména v situacích, kdy:
je výzkum drahý nebo pomalý,
cílová skupina je těžko dostupná,
je potřeba opakovat experimenty se 100% kontrolou nad vstupy,
nebo jde o rychlou validaci hypotéz v rámci designu, UX nebo komunikace.
Ale pozor: ne každý AI respondent je stejný.
Čtyři druhy „AI respondentů“. Jen jeden z nich simuluje chování.
1. Skriptované systémy
Něco jako automat. Přijde otázka, odpověď je připravená. Nezmění se podle kontextu, nereaguje na nuance. Ale má své místo, když potřebujete rychle otestovat 10 variant headline.
2. GPT a generativní AI
Tady už AI skládá texty. Vypadají dobře. Odpovědi znějí uvěřitelně. Ale pozor: jde o jazykový model, ne o behaviorální simulaci. Tvoří to, co zní pravděpodobně, ne to, co by reálný člověk udělal. Lidi si to pletou, protože výstup „zní lidsky“. Jenže není lidský.
3. RAG: GPT s přístupem k datům
Tady se AI ptá své databáze a pak generuje odpověď. Výsledek může být přesnější než čistý LLM. Ale pořád je to textová syntéza, ne chování. RAG vám může říct, že zákazníci často volí levnější variantu ale neřekne vám, jestli by ji tenhle konkrétní typ člověka opravdu zvolil v daném kontextu.
4. Agentní simulace
Tohle je úplně jiná liga. Každý respondent je autonomní jednotka, má svou historii, cíle, omezení, a mezi možnostmi volí podle situace. Stejně jako člověk.
Tihle agenti nejsou jen „chytří textaři“. Rozhodují se. Pamatují si. Dělají chyby. Mění názor. Pokud do nabídky přidáte důvěryhodnou značku, zlevníte o 10 % a upravíte claim, uvidíte, jestli to na ně zabere. A proč.
Proč je neuro-symbolická AI správný základ pro multi-agentní simulace?
Velké jazykové modely jsou výkonné, ale pro výzkumné účely často nedostačující. Text, který zní jako výstup z focus group, ještě neznamená, že by ho reálný spotřebitel opravdu řekl – nebo že by se podle něj rozhodl.
Lakmoos využívá neuro-symbolickou AI. To znamená, že naši syntetičtí respondenti nejsou založení pouze na textové predikci, ale na kombinaci logiky, paměti, pravidel a učení. Každý respondent má definovanou demografii, zkušenost, priority a rozhodovací strukturu.
Na rozdíl od LLM vám tedy neřekne jen co si myslí, ale i proč se rozhodl tak, jak se rozhodl. To je zásadní pro segmentaci, predikci a tvorbu nabídek.
Kde se AI respondenti využívají?
Syntetické respondenty využívají firmy napříč sektory – od energetiky přes banky až po automobilky – zejména v těchto situacích:
Když potřebují validovat sdělení nebo nabídku před kampaní. Když chtějí otestovat, jak bude cílová skupina reagovat na změnu ceny, podmínek nebo kanálu. Když pracují s těžko dosažitelnými cílovkami. Když chtějí zrychlit iteraci během designu nebo vývoje produktu.
A také když prostě není čas, rozpočet nebo dostupný vzorek k tomu, aby udělali klasický výzkum.
Kdy AI panel funguje skvěle? Když by jinak nebylo nic.
Tohle je pointa celého přístupu: AI nenahrazuje lidi. Nahrazuje ticho.
Většina firem nedělá výzkum proto, že nechce. Nedělají ho, protože je drahý, pomalý, nebo nepraktický. A tak se spolehne na intuici. Nebo vůbec.
Syntetický panel je odpověď mezi tím. Neříkáme: „Už nikdy nepotřebujete reálné lidi.“ Říkáme:
„Co kdyby vám AI pomohla dřív, než se zeptáte?“
„Co kdybyste si otestovali hypotézu ještě dneska?“
„Co kdyby žádný insight nebyl nedostupný jen proto, že je to těžké?“
Slovníček, který by měl znát každý, kdo kupuje AI výzkum
Syntetický respondent – digitální model člověka pro výzkum.
Agent – autonomní jednotka s chováním, ne jen textem.
LLM – model jako GPT, který generuje text, ale nesimuluje rozhodování.
RAG – AI, která vyhledá data a pak o nich mluví.
Neuro-symbolická AI – chytrá kombinace pravidel, logiky a učení.
Chatbot – nástroj na konverzaci. Ne výzkumný nástroj.
Simulace – digitální model reálného trhu, ne jen odpověď na otázku.
Když mluvíte s někým, kdo nabízí AI v průzkumech trhu, zeptejte se:
„Na čem je to postavené?“
„Odpovídá to, nebo se rozhoduje?“
„Kdybych změnil zadání, změní se i odpověď?“
Pokud je hlavním článkem ChatGPT nebo jiný jazykový model, kupujete drahé prompty na pěkný text. Ne respondenty.
V Lakmoosu věříme, že technologie bez důvěry nemá smysl. A protože se snažíme o maximální transparenci, připravili jsme také podrobné odpovědi na všech 20 otázek pro AI providery, které stanovila organizace ESOMAR pro AI ve výzkumu.