Da anni ci occupiamo di ottimizzazione per i motori di ricerca, aiutando professionisti e aziende a farsi trovare su Google quando qualcuno cerca un servizio, una consulenza o una soluzione concreta a un problema.
Negli ultimi tempi, però, qualcosa sta cambiando in modo piuttosto evidente, anche per chi non segue questi argomenti tutti i giorni.
Sempre più persone non passano più da Google, ma fanno direttamente una domanda a strumenti come ChatGPT, Gemini o altri sistemi basati su intelligenza artificiale. Chiedono, ottengono una risposta e spesso si fermano lì.
Ed è proprio da qui che nasce una domanda che ci sentiamo fare sempre più spesso:
“Come faccio a comparire anche dentro le risposte delle AI?”
Prima di entrare nel merito, però, è utile fare un passo indietro e chiarire un concetto di base, perché spesso viene dato per scontato.
LLM è l’acronimo di Large Language Model, cioè un modello di intelligenza artificiale addestrato per comprendere e generare linguaggio naturale.
In pratica, strumenti come ChatGPT o Gemini non “cercano” informazioni come fa Google, ma producono risposte basandosi su enormi quantità di testi analizzati durante l’addestramento e, in alcuni casi, su informazioni recuperate in tempo reale dal web.
Un LLM non ragiona per pagine da mostrare, ma per probabilità: valuta quali parole, concetti e fonti sono più coerenti e affidabili per costruire una risposta credibile.
È per questo che, quando chiedi qualcosa a un’AI, non ottieni dieci link tra cui scegliere, ma una spiegazione unica, spesso già sintetizzata.
Ed è anche per questo che, oggi, il tema non è solo farsi trovare, ma diventare una fonte su cui l’AI decide di basarsi.
Partiamo da un punto fermo, perché su questo tema c’è parecchia confusione.
Google non è sparito e non sta per sparire. Oggi gestisce ancora circa il 90% delle ricerche globali, con volumi enormi: si parla di circa 14 miliardi di ricerche al giorno.
Il problema non è quindi l’uso di Google, ma il modo in cui Google risponde.
Già nel 2025, quasi il 60% delle ricerche si è concluso senza alcun click. L’utente legge la risposta direttamente nella pagina dei risultati e non visita nessun sito. Con l’introduzione delle AI Overview, questo fenomeno è diventato ancora più evidente: quando Google mostra una risposta generata dall’AI, il CTR dei risultati organici può calare anche del 60%.
In pratica succede questo:
Nel frattempo, gli strumenti basati su LLM stanno crescendo molto velocemente.
ChatGPT, per esempio, gestisce circa 2,5 miliardi di messaggi al giorno. Non tutti sono ricerche, ma si stima che circa il 35% abbia un intento informativo o esplorativo, molto simile a quello di una query su Google. Tradotto in numeri, parliamo di circa 900 milioni di richieste “search-like” al giorno, pari a circa il 6% del volume di ricerca di Google.
Anche il traffico referral racconta la stessa storia. Google invia sempre meno visite ai siti editoriali, con cali stimati intorno al -30% negli ultimi anni, mentre il traffico proveniente da strumenti come ChatGPT o Gemini cresce a ritmi altissimi, anche del +3000% anno su anno, pur partendo da una base ancora molto piccola.
Non siamo quindi davanti a una sostituzione immediata, ma a una erosione progressiva. Google resta centrale, ma manda sempre meno traffico fuori.
Qui è fondamentale chiarire un concetto.
Le LLM non funzionano come un motore di ricerca classico. Non mostrano una lista ordinata di risultati, ma producono una risposta unica e coerente.
All’interno di quella risposta, però, possono:
Il vero obiettivo quindi non è “arrivare primi”, ma diventare una fonte attendibile. Essere il sito da cui l’AI attinge quando deve spiegare un argomento.
Questo vale per un professionista, come uno psicologo o un commercialista, ma anche per realtà più strutturate o aziende più grandi.
Semplificando molto, le AI cercano una cosa sola: ridurre il rischio di errore.
Gli LLM privilegiano siti che dimostrano nel tempo competenza reale sull’argomento.
Questo significa:
Titoli chiari, H1, H2 e H3 usati correttamente, paragrafi leggibili ed elenchi aiutano l’AI a capire la relazione tra i concetti.
I contenuti che rispondono in modo diretto a una domanda funzionano molto meglio di testi vaghi o troppo narrativi.
Quando un brand viene citato spesso insieme a un tema specifico, l’AI impara ad associare quel nome a quell’argomento.
I dati strutturati aiutano a evitare ambiguità e a far capire se si parla di una persona, un’azienda o un servizio.
Siti veloci, leggibili e tecnicamente puliti hanno molte più possibilità di essere usati come fonte.
Testi scritti per le persone funzionano meglio di contenuti forzati sulle keyword.
Molti dei fattori che funzionano per le LLM sono le stesse basi della SEO fatta bene: autorevolezza, qualità dei contenuti, struttura chiara e accessibilità tecnica.
Che si tratti di una ricerca su Google o di una domanda fatta a un chatbot, la logica di fondo è la stessa.
SEO tecnica e LLM
Non avere pagine 404 inutili, gestire correttamente i contenuti duplicati, usare H1 e H2 in modo coerente, avere URL leggibili, un sito veloce e dati strutturati quando servono.
Sono tutte attività che aiutano Google, ma rendono il sito molto più comprensibile anche per le AI.
L’ottimizzazione per gli LLM non cancella la SEO. La evolve.
Chi ha lavorato bene sulla SEO negli anni è già avanti. Chi ha puntato su scorciatoie farà fatica sia con Google sia con le AI.
Alla fine il lavoro è sempre lo stesso: costruire contenuti utili, chiari e credibili per le persone.
Solo che oggi, a leggerli, non sono più solo gli utenti.