
Ottimizzare il sito per essere intercettati e citati dalle AI
Chi l’avrebbe mai detto? Un tempo ci preoccupavamo di ottenere backlink da siti autorevoli; oggi dobbiamo domandarci se un’Intelligenza Artificiale ci citerà come fonte (con tanto di link) nelle sue risposte. Sembra quasi una barzelletta SEO: “Un chatbot, un generatore di immagini e un assistente vocale entrano in un bar…”
…peccato che a ridere siano solo loro, mentre noi cerchiamo di capire come trasformare le loro risposte in traffico reale verso il nostro sito. Nell’era del 2025, tra ChatGPT che sforna testi, DALL·E che dipinge gattini surreali e Siri che ci aggiorna sul meteo, le regole del gioco delle citazioni stanno cambiando.
Dopo questa breve introduzione semi-sarcastica (perché ridere è concesso, ma solo un attimo!), entriamo in modalità divulgativo-tecnica. Esploreremo in dettaglio come le principali AI citano le fonti (o evitano di farlo), come le richieste vocali possono portare (o non portare) utenti sui siti web, e casi di studio recenti che mostrano traffico referral dalle AI verso siti – in particolare ecommerce e testate news. Vedremo anche come ottimizzare i siti per farsi “scegliere” e citare dalle AI, con focus su Schema Markup aggiornati per news ed ecommerce, esempi di codice strutturato, e strategie SEO avanzate (E-E-A-T, performance, struttura dei contenuti) per convertire una citazione da parte di un’AI in visite e clienti reali.
Pronti a tuffarvi nel futuro (abbastanza presente) della SEO? Andiamo con ordine.
Differenze nelle citazioni delle fonti: AI testuali, visive e vocali a confronto

Non tutte le AI sono uguali quando si tratta di citare le fonti di ciò che dicono o generano. Alcune sono loquaci nel dare crediti (o almeno ci provano), altre sono mute come pesci sul tema. Vediamo le differenze categoria per categoria.
AI testuali (ChatGPT, Google Bard/Gemini, Claude, Copilot)
ChatGPT (OpenAI): nella sua versione base tende a non mostrare alcuna fonte o link nelle risposte. È addestrato su vasti dataset e produce risposte “originali”, ma senza indicare da dove provengono le informazioni. A meno che l’utente non lo spinga esplicitamente a fornire riferimenti, ChatGPT non offre specifici URL o citazioni. Questo approccio “black box” crea un problema di verificabilità: l’utente deve fidarsi oppure fare da sé il fact-checking. In modalità avanzata (ad esempio con browsing web attivato, plugin o integrazioni tipo Bing), ChatGPT può fornire link a fonti esterne, ma non è il comportamento predefinito. In sintesi, poca trasparenza nelle fonti – il che, lato SEO, significa che anche se la risposta contiene informazioni dal tuo sito, difficilmente l’utente lo saprà a meno che ChatGPT non glielo riveli.
Google Bard / Gemini: l’AI conversazionale di Google – indicata qui come “Gemini” per riferirsi alla nuova generazione di modelli Google – ha un approccio diverso, più vicino a quello di un motore di ricerca. Bard può attingere al web in tempo reale e, se opportunamente interrogato, fornisce indicazioni sulle fonti. Ad esempio, Bard può elencare link a pagine web da cui ha tratto certe informazioni (un po’ come fa Bing Chat), o almeno indicare “Secondo [Nome Sito]…” nelle sue risposte. In effetti, Google ha implementato una funzione per verificare le risposte di Bard tramite ricerca Google, e se Bard cita espressamente un testo preso da una pagina, in genere include un riferimento a quella fonte. Questo rende Bard (o Gemini) più incline di ChatGPT a svelare le proprie fonti – un vantaggio in termini di trasparenza. Come utenti SEO, ciò significa che se il nostro sito è ritenuto affidabile da Google e finisce nei risultati che l’AI consulta, abbiamo buone probabilità di comparire con un link nelle risposte generative di Bard/Gemini.
Anthropic Claude: Claude è un altro chatbot AI testuale, focalizzato su assistenza e conversazioni. Il suo comportamento riguardo alle fonti è simile a ChatGPT: non fornisce citazioni di default. Claude punta molto a riassumere e analizzare contenuti, mantenendo uno stile neutro e responsabile (riducendo il rischio di risposte tossiche), ma se gli chiedete “Claude, da dove hai preso questa informazione?”, difficilmente vi risponderà con un URL preciso. Insomma, niente fonti visibili spontaneamente. La differenza rispetto a ChatGPT è minima sul piano citazioni: entrambe le AI sono addestrate a fornire risposte “originali” amalgamando fonti, senza attribuzione immediata. Per gli editori, questo si traduce in poca esposizione diretta: se Claude usa contenuti del tuo sito, l’utente finale non lo scopre a meno di richiederlo esplicitamente (funzionalità non nativa al momento).
GitHub Copilot (e altri LLM “assistenti di codice”): Copilot merita un discorso a parte. È un’AI integrata in ambienti di sviluppo che suggerisce codice. Come “cita” le fonti, in questo caso? Inizialmente non le citava affatto. Copilot è addestrato su enormi quantità di codice (molto open source preso da GitHub) e genera snippet su richiesta. Il problema è che talvolta ripropone porzioni di codice identiche a quelle di repository pubblici, senza menzionare gli autori originali, infrangendo di fatto le licenze open source. Ciò ha sollevato controversie legali sul copyright, perché gli sviluppatori si sono visti “restituire” da Copilot parti di codice sotto GPL/MIT senza credits né rispetto delle condizioni di licenza. Microsoft/GitHub hanno successivamente lavorato a un sistema di “code referencing” (ancora in sviluppo) per far sì che Copilot indichi i repository da cui un blocco di codice potrebbe provenire. Ma al momento, sul fronte citazioni, Copilot resta opaco: suggerisce soluzioni ma non dice chi le ha scritte originariamente. Per un’azienda questo significa che, se anche la documentazione o snippets dal proprio sito finissero nell’addestramento, l’AI li servirà agli utenti sviluppatori senza rimandare al vostro dominio. Un bello smacco in termini di traffico referral!
In breve: le AI testuali tradizionali non brillano per attribuzione delle fonti, con l’eccezione delle soluzioni orientate alla ricerca (ad esempio Bard/Google Gemini, o Bing Chat) che stanno integrando sempre più i link alle pagine web nelle risposte. È un campo in evoluzione: l’Answer Engine Optimization (o Generative Engine Optimization) è già realtà, ossia l’arte di ottimizzare i contenuti affinché vengano inclusi con link nelle risposte delle AI generative. Ne riparleremo nelle sezioni successive.
AI visive (DALL·E, Midjourney & co.): citazioni assenti (e il dibattito che ne consegue)
Quando parliamo di AI generative di immagini, la questione “fonti” diventa ancora più complessa. Modelli come DALL·E 2, Midjourney, Stable Diffusion generano figure a partire da prompt testuali, avendo “imparato” osservando milioni (anzi, miliardi) di immagini di training prese dal web. Ecco il punto cruciale: nessuna di queste AI cita mai le immagini di origine usate per addestrarle. Se chiedo a DALL·E “disegnami un gatto nello stile di Picasso”, otterrò un nuovo dipinto di gatto picassiano, ma DALL·E non mi dirà certo “Ecco, ho mescolato 120 dipinti trovati online, tra cui uno di Picasso vero e tre foto di gatti su Flickr”.
Le AI visive non forniscono attributi né crediti agli autori delle immagini originali del dataset. Questo è oggetto di dibattito etico e legale: artisti e fotografi lamentano la mancanza di riconoscimento e l’uso non autorizzato delle proprie opere nel training. Dal lato pratico, per noi SEO/marketer, significa che un’immagine generata dall’AI non porterà mai traffico diretto ad alcun sito sorgente – perché appunto quel sorgente non è dichiarato. Non c’è un “link di provenienza” da cliccare. Ad esempio, Midjourney crea illustrazioni stupende, ma non sapremo mai quali quadri ha “guardato” per imparare quello stile, né tantomeno i fruitori dell’immagine potranno risalire a ispirazioni o fonti originarie.
L’unica “fonte” menzionata a volte è il modello stesso (es. filigrana di DALL·E o nome dell’AI). Ma ciò non aiuta i creatori originali dei contenuti visivi di training, e non aiuta chi spera di avere visibilità: se anche la tua foto fosse stata usata per addestrare Stable Diffusion, l’AI non lo dichiarerà nell’output. Niente referral, zero riconoscimento.
Una parziale eccezione riguarda alcune soluzioni di reverse search per immagini AI: ad esempio ci sono strumenti sperimentali per cercare di individuare quali immagini abbiano influenzato una generazione (analizzando pixel e confrontando con dataset noti), ma siamo lontani da una “citazione automatica”.
In sintesi: le AI visive oggi come oggi sono un buco nero di attribuzione. Dal punto di vista SEO questo vuol dire che non possiamo contare su Midjourney o DALL·E per ottenere traffico: se un’immagine generata ruba concept dai nostri visual, pazienza, non verremo menzionati; se siamo noi a usarle per creare contenuti, ricordiamoci che non generano link in uscita a terzi (ottimo per non disperdere PageRank, meno buono per la trasparenza).
(Nota: questo scenario potrebbe evolvere in futuro con possibili richieste legali di attribuzione o con watermarking delle dataset images. Ma al 2025, nulla di tutto ciò è implementato di default.)
AI vocali (assistenti vocali Siri, Alexa, Google Assistant): citazioni “a metà” e dipendenza dal search tradizionale
Passiamo ora agli assistenti vocali – quelle AI che rispondono a voce alle nostre domande: Siri (Apple), Alexa (Amazon) e Google Assistant (Google). Come si comportano rispetto alle fonti? La situazione qui è sfumata:
- Google Assistant in molti casi attinge al Knowledge Graph di Google o ai Featured Snippet del motore di ricerca. Quando gli chiediamo, ad esempio, “Chi ha vinto i Mondiali del 2006?”, Google Assistant potrebbe rispondere a voce “L’Italia ha vinto i Mondiali 2006, battendo la Francia ai rigori, secondo Wikipedia.” Spesso infatti l’assistente premette frasi come “Secondo Wikipedia…” oppure “Ecco cosa ho trovato sul web riguardo a…”. Questo indica che Google Assistant almeno menziona la fonte (soprattutto se è molto nota, come Wikipedia). Su dispositivi con schermo (smartphone Android, Nest Hub), l’assistente vocale mostra anche un rich snippet con il titolo della pagina web da cui è tratta l’informazione, e talvolta un pulsante per aprire il sito. Ad esempio, se chiedo “Qual è il capitale sociale di Amazon?” potrei sentirmi rispondere: “Secondo investopedia.com, il capitale sociale di Amazon è XYZ…”. Dunque Google Assistant può generare traffico referral, ma indirettamente: l’utente deve essere incuriosito abbastanza da toccare il link mostrato sullo schermo o chiedere “mostrami di più”. Su uno smart speaker senza schermo, invece, l’assistente potrebbe leggere un estratto (grazie al markup Speakable di cui diremo) e concludere citando la fonte (“Da Il Sole 24 Ore, …”). Non sempre però avviene: se la risposta è breve e definitiva (tipo una definizione o un dato breve), l’assistente potrebbe omettere di citare la fonte, restando sul generico.
- Apple Siri storicamente si appoggia a fonti come WolframAlpha per dati strutturati e a Bing (fino al 2023) o Google (dal 2023 in poi, a quanto pare) per ricerche sul web. Quando Siri risponde a domande complesse che richiedono un risultato web, spesso dice qualcosa tipo “Ecco cosa ho trovato su Internet” e mostra sullo schermo dell’iPhone una lista di risultati (search results) che l’utente può cliccare. Siri raramente enuncia a voce il nome del sito fonte; di solito invita l’utente a leggere i risultati. In qualche caso, se attinge a Wikipedia per una risposta diretta, può introdurre con “Secondo Wikipedia…”. Ma rispetto a Google Assistant, Siri è meno incline a leggere lunghi estratti e a creditare verbalmente la fonte. In termini di traffico, Siri dirotta verso la SERP: in pratica genera una ricerca e sta all’utente cliccare un link. In Analytics, questo traffico apparirà come proveniente da Google/Bing organic (non c’è un “referral Siri” univoco), a meno che Apple non inserisca parametri speciali (in passato alcuni hanno notato user agent come
Safari (SiriSuggestions)nei log, per le “Siri suggestions” che appaiono in Spotlight). Ad ogni modo, Siri è un canale indiretto: ti mostra la strada, ma non ti porta per mano sul sito. - Amazon Alexa è particolare: il suo ecosistema è chiuso e mirato a mantenere l’utente dentro i servizi Amazon. Alexa risponde a molte domande factual attingendo a un proprio knowledge graph o a Wikipedia. In risposte tipiche, Alexa spesso menziona Wikipedia (“Secondo Wikipedia, …”) quando fornisce definizioni o informazioni enciclopediche. Per altre curiosità, Alexa potrebbe utilizzare le “Alexa Answers” (risposte fornite dalla community) senza citare un sito. Quando però si fanno domande complesse, Alexa tende a dire “Hm, non lo so” oppure a proporre una ricerca sul web inviata all’app Alexa del telefono. A differenza di Google, Amazon non ha interesse a mandare l’utente su siti esterni, a meno che non sia per completare un’azione commerciale (es: “Alexa, trova le batterie stilo più economiche” – aprirà l’app Amazon con una lista di prodotti). In generale Alexa non genera molto traffico referral verso siti editoriali o e-commerce terzi; piuttosto cerca di rispondere a voce o di venderti qualcosa su Amazon stesso. Per le news, Alexa offre bollettini da fonti preimpostate (es. ANSA, SkyTG24, ecc.), ma quello è uno scenario a parte (stile podcast/flash briefing, non un referral classico al sito – l’utente ascolta e basta).
Riassumendo, gli assistenti vocali citano le fonti solo parzialmente e in maniera non sempre utile al referral. Google Assistant è il più web-friendly in quanto a crediti (il che può portare un utente interessato ad aprire il link mostrato, generando traffico). Siri e Alexa sono più chiusi: o non citano affatto (Siri rimanda a una lista di risultati; Alexa spesso evita il web esterno).
Dal punto di vista SEO, questo significa che ottimizzare per la voice search è soprattutto ottimizzare per la posizione zero/featured snippet: se il tuo sito è quello da cui Assistant legge la risposta, il nome del tuo brand verrà pronunciato o mostrato, aumentando la brand awareness e la possibilità che l’utente riconosca la fonte. Tuttavia, il traffico effettivo derivante dalle query vocali è ancora limitato. Molte ricerche vocali finiscono in uno zero-click: l’utente ottiene la risposta direttamente dalla voce dell’assistente e non ha bisogno di cliccare altrove. Per esempio, già qualche anno fa Google affermava che una quota crescente di ricerche (specialmente su mobile e voce) non produceva alcun clic. Il trend continua: gli assistenti vocali puntano a soddisfare l’utente subito, non a generare traffico ai siti (a meno che l’utente chieda espressamente di aprire il link).
Un dato interessante: circa 1 persona su 5 al mondo utilizza la ricerca vocale, pari a circa un miliardo di utenti a settimana che fanno domande agli assistenti. Negli Stati Uniti, quasi 150 milioni di persone usano assistenti vocali regolarmente (stima per 2025). Numeri enormi, che fanno gola. Ecco perché esiste tutta una disciplina di Voice Search SEO. Ma va chiarito: grande uso non equivale necessariamente a grande traffico per i siti. Spesso l’assistente vocale non conduce l’utente fuori dall’ecosistema (basti pensare che il 75% delle famiglie USA avrà uno smart speaker nel 2025 – useranno Alexa/Assistant come destinazione finale dell’informazione, non come mezzo per navigare il web in modo tradizionale).
In conclusione su questa sezione: le AI testuali e vocali stanno introducendo nuovi paradigmi di citazione (o mancanza di citazione) delle fonti, obbligando chi fa SEO a ripensare le strategie. Non basta più essere primo su Google; potrebbe servire anche essere la fonte preferita da un’AI nelle sue risposte conversazionali o visive. Nei paragrafi seguenti, vedremo se e come queste citazioni (quando ci sono) possano tradursi in traffico, con esempi concreti e suggerimenti pratici per ottimizzare i siti web.
Richieste vocali e traffico referral: mito o opportunità?

Abbiamo accennato che la voice search spesso si traduce in zero clic. Ma allora, le richieste vocali possono davvero generare traffico referral verso siti web? La risposta è: sì, in alcuni casi sì, ma con delle riserve significative. Vediamo di approfondire, concentrandoci soprattutto su due ambiti dove il traffico è vitale: ecommerce e news.
Il percorso dell’utente nelle query vocali
Quando un utente fa una domanda tramite voce, il flusso tipico è questo:
- L’assistente elabora la query e cerca una risposta. Se è qualcosa come “Che tempo farà domani?”, l’assistente risponde direttamente con dati dal suo provider meteo (nessun referral). Se è una domanda info (“Come si fa la carbonara?”), può:
- Attingere a una knowledge base (es. ricetta da un database interno) e leggerla,
- Oppure effettuare una ricerca sul web dietro le quinte e presentare un snippet.
- Se viene usato uno snippet dal web, l’assistente potrebbe citare la fonte (es. “Ecco una risposta da Cookist.it…”).
- Sul dispositivo, se ha schermo, appare spesso un link cliccabile o una scheda con il sito fonte.
- L’utente a questo punto decide: è soddisfatto della risposta vocale (e si ferma lì) oppure vuole approfondire e allora clicca/approfondisce sul sito.
Perciò, il traffico verso il sito si genera solo se l’utente compie un’azione ulteriore. Da un lato, è più passivo rispetto a digitare su Google e scegliere un risultato (con la ricerca vocale l’AI cerca di risparmiargli quella fatica). Dall’altro lato, proprio perché l’input vocale è spesso lungo e articolato (“Alexa, come si cambia la ruota di una bicicletta?”), la risposta fornita potrebbe non coprire tutti i dettagli, invogliando l’utente ad approfondire sul sito. Questo è particolarmente vero per:
- Notizie: se chiedi “Alexa, cosa succede oggi nel mondo?”, ti darà un riassunto (magari dal tuo sommario quotidiano impostato). Ma se fai una domanda specifica su una news (“Hey Google, aggiornami sull’ultimo keynote di Apple”), l’assistente potrebbe leggere parte di un articolo. A fine lettura, su Google Assistant, c’è la possibilità di dire “Leggi l’articolo completo” (sugli smartphone Android moderni, Assistant può scorrere e leggere l’intera pagina web aperta, oppure aprirla nel browser se preferisci). Su dispositivi solo audio, Google Assistant consente il comando “inviala al mio telefono” per ricevere un link della pagina citata. Alexa invece, se le hai chiesto una cosa al di fuori delle sue “flash news”, in genere risponde “Per approfondire, guarda la app Alexa” dove in effetti trovi risultati di Bing/Google che puoi toccare.
- Ecommerce: l’uso vocale tipico è “Alexa, ordina X su Amazon” (tutto contenuto nell’ecosistema, nessun traffico per siti terzi). Ma c’è anche il caso “Google, qual è il miglior smartphone sotto i 300€?”. Google Assistant potrebbe rispondere con un risultato di ricerca generativo (ad es. dall’AI Snapshot di Google se abilitato, o da un featured snippet standard che elenca 3-4 smartphone con prezzi). Quella risposta di solito cita le fonti, ad esempio “Ecco alcuni smartphone consigliati… secondo androidworld.it: … [elenco]” con link. L’utente sente i modelli citati, magari uno lo incuriosisce e tocca il link per vedere la recensione completa, o per andare sul sito e leggere i dettagli. In questo modo, la query vocale ha generato un clic verso un sito (referral identificabile come traffico proveniente da Google Assistant su Android, che appare spesso come traffico organic o con parametri
utm_source=googleeutm_medium=organicma su dispositivi mobile/voice).
Tuttavia, è bene sottolineare: la maggior parte delle query vocali, specie su smart speaker, finisce senza un clic. Le statistiche effettive di traffico referral purtroppo confermano che, sebbene l’uso degli assistenti aumenti, il loro contributo diretto al traffico web resta basso. Ad esempio, analisi di settore hanno trovato che il traffico proveniente da “assistenti” è spesso inferiore allo 0,2% del totale di un sito. Molti utenti si accontentano della risposta a voce e non visitano il sito.
Esempi e casi concreti
News: Google ha lanciato già dal 2018 il markup Speakable (ne parleremo dopo) per far sì che i siti di news possano identificare parti di articolo adatte alla lettura vocale. Diversi editori l’hanno adottato, e Google Assistant (in USA e in inglese soprattutto) lo utilizza per leggere news su richiesta. Cosa succede dopo la lettura? L’assistente chiude con “Da [Nome Fonte]”. Ad esempio: “… ed è così che XYZ ha presentato il nuovo prodotto, da Il Sole 24 Ore”. Questo non porta immediatamente traffico, ma è un brand mention notevole (l’utente ora sa che Il Sole 24 Ore ha quell’informazione). Se l’utente vuole saperne di più, può prendere il telefono e cercare l’articolo, oppure se è su smartphone può scrollare per leggere l’articolo completo. Alcuni editori anglofoni hanno segnalato incrementi di reach grazie a queste letture, ma difficilmente lo vedono come “referral traffic” misurabile; lo vedono più come canale di fruizione diretta (un po’ come la TV: sai che il TG1 l’ha detto, ma non è che clicchi su TG1, ascolti e basta). Nel complesso, per le news gli assistenti vocali sono vetrine, utili per branding e per entrare nelle abitudini quotidiane degli utenti (es: briefing mattutino), ma in termini di visite web non spostano grandi volumi, a meno di casi in cui l’utente decide di approfondire.
Ecommerce: qui c’è da distinguere tra traffico di ricerca informativa e acquisto vocale diretto. L’acquisto vocale diretto su Amazon Alexa porta ovviamente conversioni dentro Amazon (non sul tuo ecommerce se non vendi via Amazon). Su Google Assistant, la funzione “Shopping Actions” (in USA) permetteva di comprare prodotti di certi retailer direttamente tramite Assistant, ma era un modello specifico integrato con Google Shopping, non un referral verso il sito del merchant. Per i siti ecommerce indipendenti, la speranza di traffico sta in query informative dove il tuo sito appare come fonte consigliata. Ad esempio, un blog di ecommerce con consigli (“Guida alla scelta del miglior robot da cucina”) potrebbe essere letto dall’assistente a chi chiede consigli sui robot da cucina. In tal caso, il tuo sito viene citato e magari linkato nell’app, portando un potenziale cliente sul tuo dominio. Non è fantasia: rapporti recenti mostrano che gli LLM come ChatGPT e i motori conversazionali stanno iniziando a inviare utenti ai siti anche in ambito shopping. Ad esempio, Similarweb ha rilevato un aumento di traffico verso siti retail e consumer goods proveniente da chatbots AI nel 2024.
Un caso concreto: Bing Chat (il chatbot di Microsoft integrato nel motore di ricerca), quando usato a voce tramite l’app mobile o Windows Copilot, fornisce risposte con riferimenti. Se chiedi a Bing (a voce) “Troviami un laptop gaming sotto i 1000€”, ti fornirà un elenco a voce e anche visuale con schede prodotto, ciascuna delle quali linka al sito di vendita (es. Dell.com, Lenovo.com, o un retailer come BestBuy). Cliccando (o vocalmente dicendo “Apri il secondo risultato”) l’utente viene mandato al sito ecommerce. Questo è traffico referral diretto generato da un’interazione vocale con AI.
Un dato dai case studies: Search Engine Land ha riportato che, nel 2023, piattaforme di risposta AI come Perplexity AI (un motore di risposta conversazionale) e Google (SGE/Gemini) stanno guadagnando terreno proprio nelle query di ecommerce e salute, mentre ChatGPT resta il maggiore fonte di referral AI in generale. In particolare, Perplexity e l’AI Google hanno preso piede nel settore ecommerce come motori di risposta che poi portano utenti a cliccare sui link di approfondimento. Ciò significa che utenti iniziano a chiedere direttamente a queste AI consigli di acquisto o informazioni su prodotti, in alternativa alla classica ricerca Google, e da lì arrivano su siti specifici.
Traffico referral da AI: quanto conta davvero?
Dopo aver esplorato le dinamiche, vediamo qualche numero recente (dal 2023-2025) per capire quanto traffico arriva dai canali AI (inclusi quelli vocali):
- Uno studio di Ahrefs su 3.000 siti ha stimato che circa il 63% dei siti analizzati ha ricevuto almeno una visita da un chatbot AI (LLM). In pratica, 2 siti su 3 hanno visto spuntare nel loro analytics un referral tipo chat.openai.com o bing con user-agent di chat. Quindi non è più un fenomeno rarissimo.
- Tuttavia, il volume sul totale è ancora basso: mediamente solo lo 0,17% del traffico mensile di un sito nel 2023 proveniva da AI (LLM). Sembra pochissimo, ma attenzione: per siti piccoli (>1000 visite/mese) quella percentuale sale (una manciata di visite AI possono essere una fetta significativa del loro piccolo pubblico).
- Nel 2024 c’è stata una crescita esponenziale: secondo Similarweb e altre analisi, il traffico mensile da ChatGPT verso siti web globalmente è quasi raddoppiato tra inizio 2025 e metà 2025. A maggio 2025, ChatGPT ha generato circa 243,8 milioni di visite verso 250 siti news/media in un solo mese, +98% rispetto a gennaio. Ad aprile 2025, 83% di tutto il traffico da piattaforme OpenAI (ChatGPT) andava verso siti news e media (quindi soprattutto editori).
- Qualche testata vede numeri considerevoli: The Guardian e Reuters hanno ricevuto ~1,5 milioni di visite ciascuno da ChatGPT solo in aprile 2025. Un portavoce di Reuters ha confermato “incremento costante” di traffico da ChatGPT. Questo indica che ChatGPT (con browsing o tramite utenti che cliccano i link suggeriti) sta effettivamente portando utenti a leggere gli articoli originali.
- Nel settore ecommerce, le cose si muovono un po’ più lentamente ma comunque in crescita. Secondo uno studio di Previsible, negli ultimi 90 giorni analizzati (nel 2024) c’è stato un +400% di crescita del traffico da ChatGPT verso siti di ecommerce (e analogo per finanza). In generale, i dati mostrano che le pagine prodotto pure ricevono meno dello 0,5% del traffico LLM, il grosso (77%!) va a contenuti informativi come blog post. Questo suggerisce che per un ecommerce, l’AI manda visite soprattutto se hai contenuti editoriali (guide, confronti, post) che l’AI usa per rispondere, piuttosto che le pagine prodotto (che difficilmente vengono consigliate dall’AI a meno che l’utente non chieda esplicitamente quel prodotto).
- A conferma: il co-fondatore di Previsible nota che “le pagine prodotto non compaiono in modo prominente nei modelli linguistici” e suggerisce ai brand di investire in contenuti informativi e CRO, perché l’utente che arriva dall’AI spesso atterra su un articolo generico e va poi guidato verso la conversione.
- Tra le piattaforme AI che generano più traffico, attualmente ChatGPT e Perplexity AI comandano ~37% ciascuno del traffico LLM nel campione Previsible; seguono GitHub Copilot e Google/Bard (Gemini) con ~12-14% a testa. Claude di Anthropic e altri sono più indietro (<5%). Quindi ChatGPT è il leader come fonte (anche perché ha la base utenti più grande finora), ma le altre non sono da ignorare – soprattutto Bard/Gemini man mano che Google lo integra per tutti.
- E la voce? Non abbiamo percentuali chiare isolate per voce, perché come detto spesso il traffico voce appare come organico classico. Possiamo però considerare un altro dato: Gartner prevede che entro il 2026 le chatbot AI e agenti virtuali ridurranno del 25% il volume di ricerche tradizionali. Questo significa che una quota di utenti che avrebbero cercato e cliccato risultati, userà risposte vocali o conversazionali (zero-click). Non è esattamente traffico referral misurabile, ma è traffico perso dalla ricerca classica. Quindi, in un certo senso, se gli assistenti vocali non mandano traffico, stanno comunque sottraendo potenziali visitatori che un tempo sarebbero arrivati via Google Search.
In pratica: le richieste vocali da sole non sono ancora un grande driver di traffico verso i siti web, se paragonate ai motori di ricerca tradizionali. Ma nel contesto più ampio delle AI conversationali (che includono voice e chat testuali), stiamo iniziando a vedere una crescita importante di referral. Per i siti di news il fenomeno è già significativo (milioni di visite al mese da ChatGPT/Bing), per i siti ecommerce è agli inizi ma promette bene soprattutto se quei siti producono contenuti informativi utili nelle fasi iniziali del percorso di acquisto.
Nei prossimi paragrafi, vedremo come intercettare queste opportunità: in altre parole, come ottimizzare il nostro sito per essere “scelto” e citato dalle AI, e come massimizzare le chance che una citazione si converta in un clic effettivo. Prepariamoci a parlare di Schema.org, di markup Speakable, di dati strutturati prodotti e notizie, e di best practice SEO “classiche” reinterpretate per l’era AI.
Casi di studio recenti: AI come fonte di traffico referral (dal 2023 in poi)
Prima di passare alle tattiche SEO, diamo uno sguardo ad alcuni casi di studio concreti che dimostrano traffico referral da AI verso siti web, in particolare nel campo ecommerce. È una realtà emergente, quindi parleremo soprattutto di dati aggregati e tendenze, più che di singola azienda X che ha avuto Y visite (anche perché le aziende sono spesso restie a condividere pubblicamente certi dati). Tuttavia, alcune analisi pubbliche ci danno un’idea chiara.
- ChatGPT come referrer di traffico web: Similarweb (società di web analytics) ha cominciato a tracciare i referral da chat.openai.com. Hanno scoperto che ChatGPT nel 2023 ha iniziato a inviare volumi significativi di visite a siti, in particolare news, media, istruzione e tech. Ad esempio, a fine 2024 ChatGPT aveva già inviato click verso oltre 30.000 domini unici. Alcuni editori hanno visto crescite impressionanti: PressGazette riportava un +800% di referral da ChatGPT ai top publisher in sei mesi, pur restando questi numeri ancora piccoli rispetto al traffico Google. Un caso citato: i siti di notizie principali ottenevano meno dello 0,1% del loro traffico da ChatGPT a metà 2024. Poi però, come visto, a inizio 2025 c’è stata un’accelerazione (fino allo 0,25% medio nel settore più colpito, cioè finanza/media).
- E-commerce & AI referrals: la ricerca Previsible pubblicata su SearchEngineJournal fornisce insight interessanti per ecommerce. Si segnala che il 9% circa del traffico LLM finora va alle homepage, l’8% a contenuti news e solo lo 0,5% a pagine prodotto. Questo suggerisce che i siti ecommerce stavano ricevendo principalmente visite su articoli del blog o guide (nel dataset di 30 siti analizzati). Però la crescita trimestrale per ecommerce è stata > +400% come detto. In settori come eventi addirittura +900% (anche se partendo da numeri piccoli). Il settore finance dominava i referral AI con l’84% (grazie a varie integrazioni tipo plugin, es: ChatGPT Plugins di finanza), ma ecommerce e altri verticali stanno seguendo.
- SMB (piccoli-medi siti) e AI: un dato interessante è che mentre per i grandi brand il peso di AI referral è ancora marginale, per siti piccoli una manciata di visite in più conta molto. Ad esempio, una web agency (StanzaGo) ha testimoniato un caso di un loro cliente di nicchia (Divi Extended) che ha visto il 2,96% del suo traffico provenire da ChatGPT, con un incremento del +2093% rispetto a pochi mesi prima! Questo perché magari prima aveva 1 visita, ora ne ha 20, su un totale relativamente basso, ma in percentuale è un boom. Lo stesso autore ha controllato siti noti come The Verge, Investopedia, Lonely Planet e ha trovato tassi di variazione in crescita per traffico da ChatGPT/Perplexity dell’ordine del 20-40% (attenzione: qui “43,94% per Investopedia” sembra indicare che del loro referral traffic, il 43,94% ora proveniva da ChatGPT – un numero da prendere con le pinze, forse riferito a uno specifico periodo o metrica di crescita). In ogni caso, la tendenza è chiara: gli AI referrals sono passati da quasi zero a qualcosa di tangibile in molti settori.
- Voice referrals specifici: per il traffico voce puro, come detto è difficile separare. Però ci sono indizi: per esempio, alcune testate locali USA hanno notato un picco di visite mobile subito dopo essere state citate da un’assistente vocale in radio/news. Come scenario ipotetico: la radio locale usa Alexa for News e cita il titolo di un articolo, gli utenti dal telefono cercano quel titolo e cliccano (traffico indiretto, ma innescato dalla voce). In Italia, casi del genere non sono ben documentati, ma possiamo immaginare qualcosa di simile quando Google Assistant legge brevi news ANSA: l’utente poi vuole il dettaglio e apre l’app ANSA. Non appare come “Google Assistant” referral, appare come traffico diretto o organico, ma la causa originaria è l’assistente vocale. Dunque il fenomeno c’è ma è sottotraccia. Per ecommerce, Alexa ha alcune skill (ad esempio siti che avevano creato skill per far ordinare vocalmente dal loro catalogo) ma queste skill sono un canale a sé, difficile da tracciare in analytics standard.
In conclusione di questa carrellata di casi: dal 2023 ad oggi (2025) c’è la conferma che le AI – sia testuali che vocali – stanno inviando traffico verso siti web. Il grosso di questo traffico, finora, riguarda:
- Siti editoriali (news, blog, how-to) – trainati soprattutto da ChatGPT, Bing Chat, Bard che forniscono risposte e link.
- Settori specifici come finanza ed eventi – dove ci sono integrazioni e forte domanda di Q&A.
- Siti con contenuti informativi all’interno di settori commerce – es. blog di ecommerce tecnologici, comparatori prezzi, recensioni prodotti – che vengono citati dalle AI per supportare consigli di acquisto.
Il traffico voce “puro” è meno visibile, ma fa parte di questo trend di spostare la ricerca su modalità conversazionali.
Per un SEO specialist, questi casi di studio non fanno che sottolineare l’urgenza di preparare il sito web a essere “compatibile” con le AI e di monitorare questi nuovi canali (es. controllando in GA4 i referral da chatgpt, Bing, Bard, ecc. ).
E qui arriva la parte più pratica: come ottimizzare il tuo sito per essere intercettato e citato dalle AI, e come aumentare le chance che da citazione nasca un clic (e magari una conversione).
Ottimizzare il sito per essere intercettati e citati dalle AI (focus su Schema Markup per news ed ecommerce)
La SEO nell’era delle AI conversazionali si arricchisce di nuovi accorgimenti. Uno su tutti: dati strutturati e markup. Le AI (soprattutto quelle integrate nei motori di ricerca, come Google SGE/Bard) sfruttano moltissimo i markup per comprendere il contenuto e presentarlo. Inoltre, emergono nuove direttive meta pensate per regolare l’uso dei contenuti da parte delle AI (ad esempio la meta tag robots con noai o l’iniziativa Google-Extended per escludere contenuti dal training delle AI di Google – che però è l’opposto di ciò che vogliamo in questo contesto, dove invece vogliamo essere inclusi).
Concentrandoci su news ed ecommerce, vediamo le novità e best practice di Schema.org e affini fino al 2025, e come implementarle.
Markup per le news e contenuti editoriali (Speakable, Article, FAQ)
Per i siti di news (e in generale i produttori di contenuti testuali, come blog e riviste online), contare solo sull’indicizzazione standard non basta più. Google e altri motori offrono markup specifici per far sì che gli assistenti vocali e i sistemi AI identifichino subito le parti chiave da citare:
- Article markup (Schema.org/Article o più specifico NewsArticle/BlogPosting): non è nuovo, ma è sempre più importante. Assicurati di marcare ogni articolo con i dati strutturati di base: titolo, autore, data pubblicazione, immagine, ecc. Questo aiuta Google a comprendere l’articolo e a potenzialmente mostrarlo nei risultati avanzati (top stories, caroselli, ma ora anche AI overviews). Google ha ribadito nel 2023 che vuole contenuti di qualità con dati strutturati corretti per poterli utilizzare nelle risposte AI. Ad esempio, se Google SGE genera un riassunto di notizia, spesso mostra a fianco 2-3 articoli di riferimento con titolo e immagine: avere l’Article markup ottimale garantisce che il tuo articolo appaia con il titolo corretto, l’immagine e il nome della fonte ben visibili.
- FAQ e HowTo markup: fornire sezioni FAQ strutturate o guide passo-passo sul tuo sito non solo aiuta nei risultati organici (feature snippet, rich result FAQ), ma è utile anche per le AI. Infatti, Bard e Bing Chat adorano attingere a elenchi puntati, risposte concisie ed elementi strutturati. Se hai una pagina FAQ sul tuo ecommerce (“Spedizione, Resi, Pagamenti – Domande Frequenti”) marcata con
FAQPageschema, è possibile che Google Assistant risponda a domande tipo “Qual è la politica di reso di [nome sito]?” attingendo direttamente a quel markup (magari letto da voce su Android). Inoltre, la presenza di markup aiuta i motori a contestualizzare la tua autorità su un certo argomento, aumentandone la probabilità di citazione. - Speakable schema (per contenuti vocalmente leggibili): questo è specifico per news in Google Assistant (attualmente supportato in poche lingue, in beta – in inglese per USA). Consente di marcare parti dell’articolo che sono adatte ad essere lette a voce. Ad esempio, nel codice JSON-LD puoi indicare:
"speakable": { "@type": "SpeakableSpecification", "cssSelector": [ ".headline", ".summary" ] }Questo dice a Google: nella pagina, l’elemento con classe “headline” e quello con classe “summary” contengono il testo che puoi leggere all’utente. Così l’assistente eviterà di leggere l’intero articolo (che potrebbe essere lungo e poco adatto), concentrandosi su titolo e sommario. Perché è utile? Perché migliora la qualità della risposta vocale (evita testi confusi) e aumenta le chance che Google scelga proprio il tuo articolo per rispondere vocalmente a una query news, dato che gli stai facilitando il compito. In pratica è una forma di ottimizzazione specifica per voice assistants. In Italia questo schema è poco diffuso finora, ma implementarlo ora ti mette un passo avanti quando sarà esteso ad altre lingue. (Assicurati che le frasi speakable siano brevi e ben formattate, ~2-3 frasi, come raccomandato da Google).
- Dati strutturati di fact-check e claim-review: se produci contenuti di verifica fatti (es. debunking, fact-check), esiste lo schema
ClaimReviewche aiuta a evidenziare all’AI che stai confutando/affermando un certo fatto. Questo può far sì che assistenti come Google Assistant ti citino quando qualcuno chiede “È vero che…?” in contesti controversi. Non è rilevante per tutti, ma da considerare per testate giornalistiche.
Novità 2023-2024 per news: Google ha aggiornato alcune linee guida:
- Ottimizzazione E-E-A-T via markup: per esempio a novembre 2023 ha chiarito meglio come usare
Authormarkup,About, e il già citatoQAPageper fornire segnali di esperienza e autorevolezza. Hanno anche aggiunto strutture comeDiscussionForumPostingeProfilePagecon linee guida (questo impatta magari i siti che hanno community, utili per far capire all’AI dove c’è discussione degli utenti). In sostanza, c’è un trend: Google investe ancora su schema.org e anzi accelera – smentendo chi pensava che l’AI avrebbe reso inutili i dati strutturati. Infatti, a ottobre-novembre 2023 Google ha introdotto nuovi tipi (Vehicle, Course) e migliorato guideline di quelli esistenti. Questo perché le AI per generare risposte affidabili hanno bisogno di informazioni ben organizzate. - Ad esempio, il fatto che Google adesso spinga l’uso di structured data carousels (beta per combinare ItemList + altri tipi) significa che vogliono presentare nelle risposte AI elenchi di elementi (notizie correlate, prodotti correlati) estratti in modo affidabile dai dati strutturati.
Per un sito di news, quindi, seguire alla lettera le best practice di Google News/Discover (come avere sezioni chiare, pagine autore, info su fonti) rimane cruciale, ma in più conviene implementare Speakable e tenere d’occhio i nuovi sviluppi di Article markup. Ad esempio, se esce (ipotetico) un markup “AISynopsis” in futuro, essere primi ad usarlo potrebbe darti un vantaggio sugli assistenti.
Markup per prodotti e ecommerce (Product schema, varianti, offerte)
Passando agli ecommerce, qui i dati strutturati prodotti sono da anni fondamentali per i rich snippet (stelle recensioni, prezzo, disponibilità in SERP). Ma ora diventano ancora più strategici:
- Product Schema.org: Bisogna implementarlo in modo completo. Ciò include proprietà come nome, descrizione, SKU, brand, immagini, prezzo, disponibilità, identificatori (GTIN/EAN, MPN). Perché? Immagina le AI generative di ricerca (Google SGE) che rispondono a “qual è un buon [categoria di prodotto] economico?”. Google può scegliere di mostrare un mini-contenuto generato che elenca 2-3 prodotti con nome, prezzo, magari immagine. Se il tuo sito fornisce con markup tutti questi dettagli (nome prodotto preciso, prezzo aggiornato, recensioni), hai più chance che il tuo prodotto venga estratto e presentato nell’overview AI, con link al tuo sito. Google nel 2024 ha migliorato l’ingestione dei markup prodotto, segno di un interesse crescente. Ad esempio, ha iniziato a supportare meglio le varie tipologie di identificatori globali (GS1) e attributi specifici.
- Varianti di prodotto: una novità di schema.org v15 (Feb 2024) è l’ufficializzazione di supporto per le varianti prodotto. Hanno introdotto proprietà come
hasVariante migliorato l’uso diProductGroup. Google ha comunicato l’aggiunta del supporto per varianti prodotto nei dati strutturati. Cosa significa concretamente? Se vendi un prodotto in più versioni (taglie, colori), puoi marcare il prodotto principale e le varianti annidate. Questo aiuta Google (e altre AI) a capire che ad es. “Smartphone X – 64GB Nero” e “Smartphone X – 128GB Rosso” sono lo stesso modello base con differenze. In una risposta AI, se l’utente chiede “Smartphone X in rosso è disponibile?”, un sistema potrebbe usare queste info per rispondere “Sì, esiste in colore rosso e risulta Disponibile a €Y sul sito Z”. Esempio: se hai un markup così:{ "@context": "https://schema.org/", "@type": "Product", "name": "Esempio SuperScarpa 3000", "sku": "SS3000", "image": "https://www.example.com/images/superscarpa.jpg", "description": "Scarpa da running super leggera...", "brand": { "@type": "Brand", "name": "SuperScarpe Co." }, "gtin13": "1234567890123", "offers": { "@type": "Offer", "priceCurrency": "EUR", "price": "99.00", "availability": "https://schema.org/InStock" }, "hasVariant": [{ "@type": "Product", "name": "Esempio SuperScarpa 3000 - Blu", "sku": "SS3000-BLU", "color": "Blu", "offers": { "@type": "Offer", "priceCurrency": "EUR", "price": "99.00", "availability": "https://schema.org/InStock" } }, { "@type": "Product", "name": "Esempio SuperScarpa 3000 - Rosso", "sku": "SS3000-ROS", "color": "Rosso", "offers": { "@type": "Offer", "priceCurrency": "EUR", "price": "99.00", "availability": "https://schema.org/OutOfStock" } }] }Con un JSON-LD di questo tipo, stai fornendo all’AI informazioni granulari: due varianti con colori diversi e disponibilità (nel nostro esempio, Rosso è OutOfStock). Un assistente vocale potrebbe sfruttarlo se un utente chiedesse “La scarpa 3000 rossa è disponibile ora?” rispondendo correttamente (questo scenario è futuribile, ma tecnicamente possibile via integrazioni shopping). Intanto, Google Search classico potrà mostrare direttamente in SERP magari la disponibilità per colore.
- GS1 e standardizzazione: GS1 è l’ente degli standard di codifica prodotti (EAN/UPC). Nel 2024 Google ha stretto collaborazione maggiore con GS1. Significa che includere identificatori come GTIN nei dati strutturati è ancora più importante (Google può incrociare dati del suo “shopping graph”). Se il tuo prodotto ha GTIN, inseriscilo. Idem per brand e MPN.
- Review/Rating markup: sempre utile perché arricchisce il contenuto e le AI potrebbero menzionarlo (“questo prodotto ha 4 stelle su 5”). Nelle risposte generative, Google SGE spesso aggiunge “(X recensioni, Y stelle)” accanto ai prodotti citati, pescandolo dal markup Offer/AggregateRating.
- Markup offerte speciali (sconti): a gennaio 2024 Google ha lanciato i Discount rich results (in USA) per mostrare coupon e sconti direttamente in SERP. Questo è tangenziale alle AI, ma in futuro un’AI potrebbe dire “C’è un coupon del 10% su quel sito”. Se hai un ecommerce con offerte, considera il markup
OfferconpriceSpecificationeeligibleDiscount. Ad esempio, per segnalare “-10% con codice X”. - Local Business / Merchant data: se hai negozi fisici, aggiungi
areaServedoavailableAtOrFromnelle schede prodotto per dire dove è disponibile. Un assistente vocale può dire “disponibile vicino a te a [Negozio]”.
Direttive specifiche per AI: oltre ai dati strutturati, ci sono meta-tag emergenti:
<meta name="robots" content="noai">e similari: indicano ai crawler AI di non usare il contenuto per addestramento o risposta. Se il tuo obiettivo è essere citato, non usare queste direttive (sono come un “noindex” per AI). Al contrario, assicurati di non bloccare user-agent comeChatGPT-UseroBingbotche alimentano le AI.- Google-Extended: è un parametro opt-out che i siti possono impostare per escludersi dal training dei modelli Google generativi. Di nuovo, se vuoi traffico da AI, non fare opt-out, anzi accetta che il tuo contenuto venga usato e citato (magari valutando licenze tipo Creative Commons se sei publisher, per ottenere accordi come quello del Guardian con OpenAI – il Guardian infatti ha un deal di licensing e presumibilmente ottiene vantaggi in termini di presenza).
Riassumendo le ottimizzazioni Schema Markup:
- Implementa completamente i markup esistenti (Article, Product, FAQ, ecc.), curando dettagli come autore, date, prezzi, recensioni.
- Adotta i nuovi markup appena disponibili: speakable per news, varianti per prodotti, ecc.
- Segui le linee guida aggiornate: ad esempio Google Search Central e Schema.org blog, dove annunciano nuovi tipi (nel 2023 ne sono piovuti parecchi: Vehicle, Rental, ecc. – se operi in quei settori, approfittane).
- Non dimenticare i markup generici: ad esempio Breadcrumb, Sitelinks Searchbox, e Organization markup (quest’ultimo è fondamentale per E-E-A-T: indica chi è l’entità dietro il sito, aumentandone la “conoscenza” per i motori; un’AI potrebbe preferire un sito con un brand ben definito nel grafo della conoscenza).
- Valida il tuo markup con gli strumenti ufficiali (Google Rich Results Test, Schema.org validator) e correggi eventuali errori, per assicurarti che le AI possano leggerli senza intoppi.
Di seguito, ecco due esempi pratici di markup strutturato (in JSON-LD) utili per migliorare la visibilità nelle risposte generate dalle AI: uno per un articolo news (con speakable), e uno per un prodotto ecommerce (con varianti).
Esempio pratico 1: Markup JSON-LD per un articolo news con proprietà Speakable
Supponiamo di avere un articolo intitolato “Nuova Scoperta Scientifica rivoluziona l’Energia Solare”. Vogliamo assicurarci che Google Assistant possa leggerne un estratto a voce. Imposteremo un markup NewsArticle con speakable specificato. Il codice potrebbe essere:
<script type="application/ld+json">
{
"@context": "https://schema.org",
"@type": "NewsArticle",
"headline": "Nuova Scoperta Scientifica rivoluziona l’Energia Solare",
"description": "Un gruppo di ricercatori ha sviluppato una cella solare... bla bla",
"datePublished": "2025-05-10T08:00:00+02:00",
"dateModified": "2025-05-10T10:30:00+02:00",
"author": {
"@type": "Person",
"name": "Mario Rossi"
},
"publisher": {
"@type": "Organization",
"name": "Tech Daily",
"logo": {
"@type": "ImageObject",
"url": "https://www.techdaily.example/logo.png"
}
},
"image": "https://www.techdaily.example/images/scoperta-solare.jpg",
"speakable": {
"@type": "SpeakableSpecification",
"cssSelector": [ ".speakable-headline", ".speakable-summary" ]
}
}
</script>
Nel codice sopra, abbiamo:
- Definito il tipo
NewsArticlecon i soliti campi (headline, description, datePublished, autore, publisher, image). - Usato
speakableper indicare all’assistente vocale quali parti leggere. In questo caso usiamo due classi CSS fittizie.speakable-headlinee.speakable-summaryche nel HTML dell’articolo circonderanno rispettivamente il titolo e un breve paragrafo riassuntivo. Google Assistant, supportando Speakable, leggerà quelle parti all’utente. - Questo markup permette quindi a Google di sapere cosa dire a voce, assicurando una buona esperienza utente. La fonte (“Tech Daily”) verrà riconosciuta dal campo publisher e presumibilmente annunciata alla fine della lettura.
- Risultato: se un utente chiede a Google Assistant “Quali sono le ultime novità sull’energia solare?”, l’assistente potrebbe rispondere con l’excerpt marcato sopra, menzionando Tech Daily e, auspicabilmente, invogliando l’utente ad aprire l’articolo completo.
Esempio pratico 2: Markup JSON-LD per una pagina prodotto con varianti (Product + Offer)
Ora consideriamo una pagina di prodotto ecommerce. Vendiamo un orologio smart – modello AlphaX disponibile in due colorazioni (nero e silver) e due taglie. Implementiamo il markup Product con varianti e offerte:
<script type="application/ld+json">
{
"@context": "https://schema.org",
"@type": "Product",
"name": "Smartwatch AlphaX",
"image": [
"https://www.negozio.example/images/alphax-front.jpg",
"https://www.negozio.example/images/alphax-side.jpg"
],
"description": "Lo Smartwatch AlphaX offre monitoraggio avanzato della salute bla bla..",
"sku": "AX-1000",
"mpn": "AX1000-NE",
"brand": {
"@type": "Brand",
"name": "AlphaTech"
},
"gtin13": "1234567890123",
"review": {
"@type": "Review",
"reviewRating": {
"@type": "Rating",
"ratingValue": "4.5",
"bestRating": "5"
},
"author": { "@type": "Person", "name": "Giulia Bianchi" },
"datePublished": "2025-04-20",
"description": "Ottimo smartwatch, leggero e con tante funzioni utili bla bla..."
},
"aggregateRating": {
"@type": "AggregateRating",
"ratingValue": "4.4",
"reviewCount": "37"
},
"offers": {
"@type": "Offer",
"url": "https://www.negozio.example/prodotti/smartwatch-alphax",
"priceCurrency": "EUR",
"price": "199.99",
"priceValidUntil": "2025-12-31",
"availability": "https://schema.org/InStock",
"itemCondition": "https://schema.org/NewCondition"
},
"hasVariant": [{
"@type": "Product",
"name": "Smartwatch AlphaX - Nero (Taglia S)",
"sku": "AX-1000-NE-S",
"color": "Nero",
"size": "S",
"gtin13": "1234567890124",
"offers": {
"@type": "Offer",
"priceCurrency": "EUR",
"price": "199.99",
"availability": "https://schema.org/InStock"
}
},
{
"@type": "Product",
"name": "Smartwatch AlphaX - Nero (Taglia L)",
"sku": "AX-1000-NE-L",
"color": "Nero",
"size": "L",
"gtin13": "1234567890125",
"offers": {
"@type": "Offer",
"priceCurrency": "EUR",
"price": "199.99",
"availability": "https://schema.org/OutOfStock"
}
},
{
"@type": "Product",
"name": "Smartwatch AlphaX - Silver (Taglia S)",
"sku": "AX-1000-SI-S",
"color": "Silver",
"size": "S",
"gtin13": "1234567890126",
"offers": {
"@type": "Offer",
"priceCurrency": "EUR",
"price": "199.99",
"availability": "https://schema.org/InStock"
}
},
{
"@type": "Product",
"name": "Smartwatch AlphaX - Silver (Taglia L)",
"sku": "AX-1000-SI-L",
"color": "Silver",
"size": "L",
"gtin13": "1234567890127",
"offers": {
"@type": "Offer",
"priceCurrency": "EUR",
"price": "199.99",
"availability": "https://schema.org/InStock"
}
}
]
}
</script>
Cosa vediamo in questo esempio:
- Il prodotto principale
Smartwatch AlphaXha tutti i campi chiave: nome, immagini multiple, descrizione, SKU/MPN, brand, GTIN13, una recensione esempio e un aggregateRating (media 4.4 su 37 recensioni). - C’è un’offerta principale (199.99€ in stock).
- Poi, usando
hasVariant, elenchiamo 4 varianti: Nero S, Nero L, Silver S, Silver L, ciascuna con proprio SKU e GTIN diverso, e con stato disponibilità (notare che la Nero L è OutOfStock). - Così facendo, diamo a Google (e ad altre AI) informazioni dettagliate. Ad esempio, Google potrà mostrare il prodotto e dire “Disponibile in 2 colori, varie taglie” o anche fornire la disponibilità esatta di un certo variant se l’utente lo cerca. Inoltre, se l’utente chiede via voce “Questo orologio c’è in colore nero taglia L?”, un sistema dotato di questi dati potrebbe rispondere “Al momento la versione Nero L è esaurita (Out of stock)”.
- Abbiamo incluso rating e review: ciò arricchisce l’aspetto di trust. Un AI che paragona prodotti potrebbe dire “… con punteggio 4.4 su 5 basato su 37 recensioni” citando queste info.
- L’offerta ha
priceValidUntil– utile a Google per sapere se è un prezzo attuale. - Si potrebbe estendere aggiungendo
offers.deliveryDetailsper specificare tempi di spedizione stimati, se volessimo esagerare (schema.org permette di dettagliare molto).
Questo markup, oltre a migliorare i rich results in SERP tradizionale, aiuta le AI a utilizzare in modo preciso i dati del tuo ecommerce. Per esempio, la Search Generative Experience di Google (SGE, in test) per query shopping a volte presenta schede prodotto aggregate. Google preferirà attingere a siti con dati strutturati chiari e completi, per evitare errori. Se il tuo sito fornisce quei dati, potrebbe finire in quelle risposte generative con link diretto.
(Nota: I codici JSON-LD sopra sono da intendersi come snippet indicativi. In un contesto reale vanno integrati nella pagina e adattati alla sintassi esatta richiesta. Le classi CSS come .speakable-headline vanno aggiunte nel markup HTML attorno al testo corrispondente, etc.)
Strategie tecniche per trasformare le citazioni delle AI in traffico reale
A questo punto, supponiamo di aver ottenuto ciò che volevamo: la nostra pagina viene citata da un’AI. Magari Bard include un paragrafo dal nostro blog con il link, o Siri pronuncia il nome del nostro sito come fonte, o ChatGPT attraverso Bing consiglia il nostro articolo. Missione compiuta? Non esattamente. Ora viene la parte fondamentale: convertire quella citazione in un clic e poi in un utente soddisfatto (o cliente). In altre parole, come facciamo sì che le citazioni AI si traducano in traffico effettivo e di qualità? Ecco alcune strategie tecniche e di contenuto, che coinvolgono ottimizzazione on-site, segnali E-E-A-T, performance e struttura.
1. Cura l’on-site e l’esperienza utente (per accogliere il traffico AI)
Quando un utente arriva sul tuo sito tramite un referral da un’AI, spesso sta cercando una risposta specifica. Magari ha cliccato perché la risposta generativa era incompleta o perché vuole maggior dettaglio. È cruciale quindi che:
- La pagina di destinazione sia chiara, pertinente e vada dritta al punto. Se un utente arriva da un link in un contesto Q&A, non vuole cercare di nuovo la risposta in un mare di testo. Quindi, ottimizza la formattazione: usa titoletti (h2, h3) ben descrittivi, elenchi puntati, evidenzia la sezione che risponde alla domanda comune. In pratica, applica le stesse tattiche che servono per i Featured Snippet: dare subito l’informazione primaria e poi eventualmente approfondire.
- Riduci al minimo i pop-up, interstitial o frizioni. Immagina un utente che clicca da ChatGPT (che ha un suo browser interno) o da un Assistant su mobile: se trova un muro di cookie banner intrusivo o un modulo signup modale, probabilmente chiuderà tutto immediatamente. In più, se l’AI ha già parzialmente risposto, l’utente ha meno pazienza del normale. Quindi assicurati che il tuo sito carichi subito la risposta che promette.
- Mobile-first & Voce-friendly: Gran parte di questi referral avvengono su dispositivi mobili o addirittura dentro app di assistenti. Un layout responsive veloce non è opzionale, è obbligatorio. Inoltre, prepara i tuoi contenuti anche per una possibile lettura vocale completa: Google Assistant su Android ha la funzione di read aloud dell’intera pagina. Se la tua pagina è ben strutturata, l’assistente potrebbe proporre di leggerla; se è un casino (magari piena di annunci nel testo, ecc.), l’utente rinuncerà. Velocità, pulizia e accessibilità migliorano la probabilità che una visita da AI perduri e si trasformi in sessione utile.
2. Rafforza i segnali E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness)
Le AI, per decidere chi citare, si basano molto sui segnali di qualità percepiti, che spesso coincidono con quelli di Google. Ad esempio, nei Google AI Overviews (SGE), vengono privilegiati contenuti provenienti da siti con una certa autorità (spesso già in prima pagina organica). Anche ChatGPT plugin di ricerca, o Perplexity, tendono a preferire fonti riconosciute. Quindi:
- Metti in mostra la tua competenza e autorità. Come? In una pagina articolo, includi un box “About the author” con credenziali, link a profili professionali; citalo anche nei dati strutturati (
Authormarkup consameAslink a LinkedIn, per dire). Usa riferimenti a fonti e dati a supporto delle tue affermazioni (le AI notano anche la presenza di outbound link verso fonti affidabili). Tutto ciò rientra nei criteri E-E-A-T: dimostrare Experience ed Expertise sull’argomento. - Cura le pagine Chi Siamo, Contatti, Privacy. Siti poco trasparenti vengono ignorati sia da Google tradizionale che dalle AI. Se il tuo è un ecommerce, assicurati di avere ben visibili numero di telefono, indirizzo fisico, recensioni di clienti. La Trustworthiness (affidabilità) per un AI si riflette in segnali come recensioni utente positive, presenza su altri siti (backlink di qualità), ecc. Mentre non puoi controllare direttamente come l’AI valuta, puoi seguire le linee guida di qualità di Google (le Quality Rater Guidelines) che enfatizzano E-E-A-T – le AI in fondo sono addestrate su dati che includono quelle logiche di qualità. Un esempio: se hai un forum sul sito pieno di spam, puliscilo; una AI che incappa in quelle pagine potrebbe “macchiare” l’idea di qualità del tuo dominio.
- Aggiorna costantemente i contenuti. L’Esperienza (il primo “E”) riguarda anche la freschezza quando rilevante. Se vuoi essere citato per query news o prodotti tech, devi avere contenuti aggiornati al 2025, altrimenti un’AI non ti considererà up-to-date. Abbiamo visto come Google Bard/Gemini punta a fonti aggiornate e in real-time data. Quindi mantieni vivi gli articoli con revisioni se necessario, e per gli ecommerce aggiorna stock, prezzi e date (es. l’offerta con priceValidUntil come sopra, scaduta, potrebbe far scartare la citazione se la query è “migliori prezzi di oggi” e il tuo è vecchio).
3. Struttura dei contenuti pensata per AI (concisa, modulare, semantica)
Abbiamo già toccato questo punto ma vale la pena sistematizzarlo:
- Contenuti concisi e modulari: Una AI può prendere solo un pezzo del tuo contenuto. Se quell’unità di informazione (paragrafo, lista) è ben formata e autonoma, sarà utilizzabile. Se le tue pagine sono un wall of text senza capo né coda, difficilmente verranno scelte. Quindi utilizza paragrafi di 2-3 frasi in media, ognuno con un’idea chiave. Utilizza liste puntate o numerate per passi o elenchi (le AI adorano le liste, perché possono estrarre ad esempio “i 5 vantaggi di X” facilmente).
- Uso sapiente delle heading (H1, H2, H3): Ogni sezione dovrebbe avere un titolo significativo, che magari coincide con possibili query. Esempio: un H2 “Come scegliere la lavastoviglie giusta” è ottimo perché un’AI che risponde a “Come scelgo una lavastoviglie?” individuerà facilmente quella sezione come rilevante. Heading ben fatte migliorano anche i Vector search o passage ranking che le AI sfruttano.
- Markup semantico oltre Schema.org: per esempio, usare il tag
<q>o<blockquote>per citazioni,<table>per dati tabellari con<th>appropriati, ecc. Le AI hanno modelli che tengono conto della struttura HTML. Una tabella ben fatta potrebbe essere riportata così com’è (ci sono AI che forniscono risposte con tabelle ASCII se trovano dati tabulari). Un blocco<aside>con note può essere ignorato dall’AI se segnalato bene (utile per far leggere solo il corpo principale). - Contenuti multilingua separati e dichiarati: se il tuo sito è multilingue, usa hreflang e assicurati che l’AI acceda alla versione giusta. Non vuoi che Bard mostri uno snippet in italiano a un utente inglese e viceversa. Dati strutturati e meta tag aiutano a prevenire miscugli.
4. Performance e Technical SEO
Un aspetto spesso trascurato: le AI talvolta “act as a user” e possono interagire col tuo sito come farebbe un utente con un browser (soprattutto Bing Chat con la modalità che naviga le pagine). Se il tuo sito è lento o ha risorse bloccate, l’AI potrebbe non riuscire a estrarre la info in modo completo, o peggio saltare la citazione. E poi, ovviamente, l’utente umano che arriva non deve aspettare.
- Ottimizza la velocità (Core Web Vitals): un sito veloce è cruciale per mobile e quindi per utenti voice. Google ha confermato che Core Web Vitals restano un segnale (minore) di ranking, ma indirettamente influenzano soddisfazione. Un utente che clicca da un result generativo su Chrome e trova un LCP lento, potrebbe premere back prima ancora di vedere il contenuto – e magari l’AI generativa gli aveva offerto anche un’altra fonte come alternativa.
- Esegui test con user-agent alternativi: prova a vedere come appare il tuo sito se aperto in modalità semplificata. Ad esempio, ChatGPT browsing potrebbe vedere la versione mobile. O testalo con un reader mode. Assicurati che anche senza tutti gli script e orpelli il contenuto principale sia accessibile. Molti chatbot scrapers non eseguono Javascript pesante: avere contenuto lato server o almeno pre-rendering è utile. Se il tuo sito è una web-app JS only, considera di implementare SSR o usare servizi come prerender; diversamente l’AI potrebbe non vedere nulla (e non citarti).
- Log e monitoraggio: tieni d’occhio i log server per user-agent inusuali, potresti vedere pattern di GPTBot, Bingbot che fa richieste via Edge, ecc. Ci sono tecniche per marcare i link provenienti dalle AI per tracciarli meglio (ad esempio, alcuni aggiungono parametri UTM personalizzati nelle risposte – Bing Chat lo fa, include
ref=raidnei link). Usa GA4 o altri strumenti per identificare quelle visite e analizzare il loro comportamento (rimbalzo? che pagine vedono?). - Contenuti a prova di snippet: assicurati che ogni pagina abbia titoli univoci e meta description efficaci. Spesso, le AI mostrano come snippet proprio la meta description se pertinente. Inoltre, una meta description accattivante potrebbe essere letta dalla voce (Siri a volte prende la meta description di un risultato per darla come risposta breve). Quindi non trascurare le vecchie care meta tag! Allo stesso modo, usa le OpenGraph tag correttamente (così se un link al tuo sito viene condiviso in un’interfaccia AI con anteprima, apparirà con immagine e titolo giusti – vedi Bing Chat che mostra anteprime link).
5. Trasforma la citazione in conversione: call-to-action e funnel
Portare traffico è l’inizio. Bisogna poi convertire quell’utente. Le dinamiche AI suggeriscono che spesso l’utente è in modalità scoperta/ricerca iniziale (sennò avrebbe cliccato direttamente sul sito noto, o fatto query navigazionale). Quindi:
- Inserisci call-to-action pertinenti nel contenuto. Se l’utente viene da un’AI per leggere una guida sul tuo sito ecommerce, alla fine di quella guida proponi prodotti correlati (es. “Guarda la nostra Top 10 dei notebook economici”). Oppure, se viene a leggere una news sul tuo giornale, offrile l’iscrizione alla newsletter su quell’argomento. In generale, mantieni l’utente agganciato con un passo successivo chiaro.
- Link interni ben studiati: un utente da AI potrebbe atterrare direttamente a metà di un argomento senza conoscere il contesto. Usa link interni per fornire background (“Sei nuovo nel mondo del fotovoltaico? Leggi anche la nostra guida per principianti”). Questo non solo migliora la SEO tradizionale, ma prolunga la sessione portando l’utente in un percorso utile (che forse la risposta AI da cui proveniva non aveva coperto interamente).
- Tracciamento dedicato e analisi conversioni: definisci in GA4 segmenti o eventi per tracciare gli utenti provenienti da referral AI e monitorane il comportamento. Magari scopri che convertono meno degli utenti organici (dati SALT: i tassi di conversione da traffico LLM sono in media più bassi del traffico search organico tradizionale in molti settori). In effetti uno studio (SALT, inizio 2025) ha mostrato che in ambito e-commerce consumer solo il 17.6% delle visite da LLM portava a un’azione chiave (es. aggiungi a carrello o acquisto), contro il 24.1% delle visite da ricerca organica. Quindi c’è un delta. Sapere questo ti aiuta a prendere provvedimenti: forse gli utenti da AI sono più “freddi” e vanno scaldati di più con remarketing o nurturing.
- Adatta il contenuto se serve per colmare gap: se noti che l’AI cita il tuo articolo ma tralascia un pezzo importante (magari perché non c’era, o era troppo lungo), aggiorna l’articolo inserendo anche quell’informazione chiave in modo conciso. Così in futuro la citazione AI potrebbe includerla, rendendo la risposta più completa e l’utente più soddisfatto anche senza cliccare. Aspetta, questo va contro il traffico? In realtà no: un utente soddisfatto dalla citazione AI del tuo contenuto svilupperà fiducia nel tuo brand e potrebbe cercarti direttamente la prossima volta (branding effect). Mentre un utente insoddisfatto potrebbe ignorarti. Quindi, se la tua pagina viene citata, accertati che fornisca davvero la risposta corretta; l’obiettivo non è forzare il clic nascondendo info – quello è un gioco rischioso e anti-utente.
6. “Answer Engine Optimization”: pensa come l’AI (e l’utente che la usa)
In definitiva, conviene adottare una mentalità di Answer Engine Optimization (AEO), ovvero ottimizzare affinché le risposte fornite dalle AI in cui compariamo siano le migliori possibili. Questo include:
- Ricercare le query conversazionali: quali domande in linguaggio naturale fanno gli utenti sul mio settore? (Esempio: non solo “scarpe running migliori”, ma “che scarpe da running mi consigliate per maratona se ho piedi piatti?”). Struttura contenuti per rispondere proprio a quelle domande complesse. Le AI vengono usate spesso per le query lunghe e specifiche.
- Usare schema di domanda-risposta nei contenuti: includi sezioni Q&A nei tuoi articoli (“Domanda: …? Risposta: …”) – abbiamo detto di FAQ markup, ma anche nel testo normale, perché i modelli AI riconoscono il pattern domanda/risposta e lo sfruttano.
- Monitorare nuovi canali e features: ad esempio, tieni d’occhio Bing che ha introdotto in chat la citazione di prodotti con immagini (fai in modo che il tuo feed OpenGraph abbia immagini attraenti, così se Bing Chat mostra il tuo prodotto, l’anteprima invoglia al clic). Oppure segui gli sviluppi di Google Assistant “search generative”: se Google integrerà le risposte generative nell’assistente, aspettati che tutto quello che hai fatto per SGE valga doppio.
- Ottimizzare per Zero-Click ma Capitalizzare altrove: un concetto un po’ zen – accetta che una parte degli utenti si fermerà alla risposta AI. Concentrati su come lasciare un’impronta: il nome del tuo sito che suona affidabile, la tua brand voice magari percepibile. Ad esempio, se l’AI cita un tuo articolo e include una frase ben scritta e incisiva, l’utente potrebbe ricordare il tuo brand e cercarlo poi. Dunque, scrivi contenuti che abbiano uno stile riconoscibile e autorevole, così anche spezzoni decontestualizzati faranno una buona impressione. In poche parole, fai branding attraverso le risposte AI.
Morale della favola?
Siamo giunti alla fine di questo lungo (ma, si spera, esaustivo) viaggio tra AI e SEO, dove abbiamo esplorato:
- Come diverse AI (testuali, visive, vocali) gestiscono le citazioni delle fonti, con ChatGPT & co. spesso avare di crediti, le AI visive totalmente mute, e gli assistenti vocali in bilico tra citare Wikipedia e tenersi le risposte.
- Come le richieste vocali possano generare traffico, soprattutto se combinate con dispositivi con schermo e query giuste, ma come comunque la maggior parte delle voice search sia zero-click.
- Alcuni casi di studio dal 2023 in poi che dimostrano che il traffico dai chatbot AI verso i siti è realtà, in forte crescita (tra ChatGPT, Bard, Perplexity e altri), con i siti di news e i contenuti di qualità a far da apripista, e i settori ecommerce che iniziano a vedere segnali positivi (pur con conversioni più basse, almeno per ora).
- Le strategie per ottimizzare il proprio sito sia dal lato dati strutturati (implementando le ultime specifiche Schema.org per farsi “capire” dalle AI, dal Speakable per le news al Product markup dettagliato per gli shop), sia dal lato qualità dei contenuti e esperienza utente (E-E-A-T, performance, struttura, ecc.), in modo da massimizzare la possibilità di essere citati come fonte e di trasformare quelle citazioni in visite e poi in valore.
L’ecosistema della ricerca sta cambiando rapidamente: si parla ormai di Generative AI Search, di utenti che passeranno da digitare keywords a chiacchierare con un’AI per ottenere consigli. La sfida per chi fa SEO è duplice: farsi includere nelle conversazioni (e non restare invisibili) e continuare a portare utenti verso i propri touchpoint in un mondo di “risposte immediate”. Non ci sono bacchette magiche, ma una cosa è chiara: i fondamentali della buona SEO restano validi – contenuti di qualità, struttura solida, dati precisi – semplicemente vanno applicati con ancor più rigore e intelligenza, adattandoli ai nuovi formati di fruizione.
In un tono volutamente ironico dicevamo all’inizio: “dobbiamo convincere un’AI a citarci”. In realtà, come abbiamo visto, convincere l’AI significa in fin dei conti convincere gli utenti e i motori che il nostro sito è affidabile e utile. Le AI sono solo nuovi intermediari: addestrate sui comportamenti umani e sui segnali dei motori, premieranno chi avrà già lavorato bene sulla SEO e la qualità. E per chi invece sperava in trucchi o scorciatoie, le AI saranno implacabili nel mettere in evidenza l’inconsistenza (anzi, a volte se la inventeranno pure se non trovano fonti – ulteriore ragione per cui serve esserci con info corrette, per evitare che l’AI faccia pasticci e diffonda disinformazione al posto tuo).
In conclusione, la ricetta è: aggiornarsi costantemente, sperimentare (monitorando i nuovi referral e features), e mantenere un approccio user-centric anche in questo contesto. Perché dietro ogni ChatGPT o Siri c’è sempre un utente in carne e ossa che cerca risposte – e nostro compito è continuare a essere quella risposta, qualsiasi sia la forma in cui viene servita.
Share this article
One Comment
Leave A Comment
Ultimi articoli
Aprile 22, 2026
Aprile 22, 2026




Buona la parte sui segnali tecnici per diventare “AI-friendly”: Schema per Article/FAQ, Speakable per news e monitoraggio dei referral da sistemi conversazionali (es. GA4). Condivisibile l’idea di progettare contenuti “modulari” per aumentare la probabilità di estrazione e poi lavorare sulla conversione del clic post-citazione.