Ključna beseda je bila do sedaj osnova za iskalnike in SEO optimizacije. Ker si uporabniki vedno bolj pomagajo pri iskanju izdelkov in storitev z AI-jem, se ne smemo več zanašati samo na ključne besede, ampak na to, da postanemo za AI zaupanja vreden vir. Zato je potrebno za AI-je veliko več narediti na vsebini. Obvezno je potrebno vključiti še vsebino, ki odgovarja na vprašanja - (AI citira “najbolj uporaben odgovor”, ne “najboljšo trgovino”) : Če nekdo vpraša: “Kateri X je najboljši za Y?”, bo AI raje citiral stran, ki ima:- jasen odgovor (1–2 stavka),- primerjavo (kriteriji, komu je namenjeno, prednosti/slabosti),- FAQ (“kako izbrati”, “kateri odmerek/velikost”, “kompatibilnost”, “dostava/garancija”),- konkretne podatke/specifikacije. Zato se pogosto splača imeti poleg produktnih strani še kategorijske vodiče (npr. “Kako izbrati …”), ki interno linkajo na produkte. Torej za AI - je še zelo važna vsebina. Kljub temu je potrebno tudi pravilno tehnično nastaviti spletno stran, da jo AI crawlerji (boti) sploh lahko berejo. 1. Kako pravilno pripraviti spletno stran za AI indeksacijo (ChatGPT, Gemini, Copilot, Perplexity, Claude) Generativni “AI iskalniki” niso klasičen Google-SEO 1:1. V praksi gre za to, da tvoja stran:- je dostopna botom (crawl),- je smiselno indeksirana (index),- je strojno razumljiva (schema/feed),- najbolje odgovori na konkretno vprašanje (answer-first),- ima signale zaupanja (trust),- in da to lahko meriš (measurement). Če katerikoli člen manjka, AI pogosto citira nekoga drugega — tudi če imaš boljšo ponudbo. 2. Različni sistemi do virov pridejo na različne načine: - Google (Gemini v Search / AI Overviews / AI Mode): v veliki meri temelji na Google Search indeksu in site-owner smernicah za “AI features”. - ChatGPT (OpenAI): a prikaz v ChatGPT search je ključen njihov crawler OAI-SearchBot; OpenAI izrecno pravi, da za “summaries/snippets” ne smeš blokirati OAI-SearchBot in po potrebi posodobiti robots.txt. - Perplexity: imajo svoj crawler (PerplexityBot) in dokumentirajo robots.txt tag-e ter časovno zakasnitev sprememb (do ~24h). - Claude (Anthropic): razlikujejo med user-initiated fetch (Claude-User) in search crawling (Claude-SearchBot) ter opozarjajo, da blokada Claude-User lahko zmanjša vidnost pri user-directed web search. Ključna poanta: ne obstaja en sam “AI index”. Obstaja več ekosistemov, zato potrebuješ “univerzalen” tehnični temelj + vsebino, ki je citabilna. Če želiš, da te AI omenja pri vprašanjih z nakupnim namenom, ne potrebuješ “hacka”. Potrebuješ urejen tehnični temelj + strojno razumljive produkte + answer-first vsebino. Najboljši začetek: izberi top 5–10 strani, ki že prinašajo denar, in jih uredi po tem zaporedju: crawl → index → schema/feed → answer-first → trust → merjenje. Tukaj je 12 najpogostejših napak (primer za WooCommerce)- Filtri ustvarjajo tisoče URL-jev (crawl budget gre v nič).- Canonical kaže narobe (kategorije/produkti se “kanibalizirajo”).- Product schema ne vsebuje Offer (cena/zaloga manjka). - Merchant feed nima GTIN/brand ali se cena/zaloga ne ujemata → disapprovals. - Robots blokira /product/ ali pomembne kategorije (po nesreči).- CDN/WAF blokira bote (403/429).- Vsebina je preveč “generična” (ni kriterijev izbire + ni FAQ).- Stran nima zaupanja (ni dostave/vračil/kontakta).- Preveč tanek opis izdelka (AI nima “zakaj”).- Ni notranjih linkov vodič→produkt (AI/iskalniki težje povežejo intent).- Preveč podobnih kategorij/tagov (duplikati).- Nimaš rutine posodabljanja (zaloga/cene/FAQ zastarajo). Tukaj je tvoj AI Index Checklist (PDF) – 30-min diagnostika:
Da bi zagotovili najboljše izkušnje, uporabljamo tehnologije, kot so piškotki, za shranjevanje in/ali dostop do informacij o napravi. Privolitev v te tehnologije nam bo omogočila obdelavo podatkov, kot so vedenje pri brskanju ali edinstveni ID-ji na tem spletnem mestu. Neprivolitev ali umik privolitve lahko negativno vpliva na nekatere lastnosti in funkcije.