Fast Mobile First: perchè un sito lento su mobile penalizza la tua posizione su Google
Google indicizza i siti partendo dalla versione mobile. Se il tuo è lento su smartphone, perdi posizioni, anche se da desktop funziona perfettamente. Ecco perché e come rimediare.
Per la SEO è fondamentale che un sito sia veloce, e questo è abbastanza ovvio. Ma c’è una particolarità: Google assegna i suoi punteggi in base a quanto il tuo sito è veloce da mobile (e con una connessione limitata, per di più). Per questo un buon design mobile è fondamentale per scalare l’indicizzazione di Google, anche quando pensavi che il tuo sito non ne avesse bisogno.
Cos’è un sito veloce?
Tecnicamente, si definisce veloce un sito capace di caricare l'elemento più pesante della pagina (LCP, Largest Contentful Paint) in meno di 2,5 secondi. Oltre a questo, Google utilizza altri parametri che valutano la velocità di risposta del server e la velocità con cui il sito risponde all’interazione degli utenti (ad esempio, quanto tempo passa tra il click su un bottone e l’effetto di quel click).
In sostanza quindi, un sito si può dire veloce quando è capace di entrare in funzione nel giro di un paio di secondi, due e mezzo al massimo.
Quanto importa a Google se un sito è veloce?
Dal 2021 (con l'introduzione dei Core Web Vitals), Google ha reso la velocità di caricamento un fattore di posizionamento diretto.
L’ LCP descritto prima è uno dei parametri all’interno dei Core Web Vitals, ed insieme a questo ne fanno parte l’Interaction To Next Paint (INP), che misura la responsività del sito, sia in fase di caricamento sia durante la permanenza, e il Cumulative Layout Shift (CLS), che misura la stabilità visiva del sito in fase di caricamento.
Avere dei buoni punteggi nei Core Web Vitals è fondamentale per avere una buon posizionamento nell’indicizzazione di Google.

È importante avere una versione mobile veloce?
In breve: sì, è fondamentale.
Fino a qualche anno fa, Google aveva due "indici" separati. Dal 2020/2021, Google ha completato la migrazione al Mobile-First Indexing. Questo significa che durante l’indicizzazione Google non guarda più la versione desktop come riferimento principale per decidere dove posizionarti: guarda esclusivamente quella mobile.
Perché la velocità è così importante?
La velocità di caricamento di un sito occupa un posto principale nei valori SEO perché è direttamente collegata alla quantità di utenti che poi interagiranno con il sito stesso.
Si è stimato infatti che oltre il 53% delle visite da mobile viene abbandonato se una pagina richiede più di 3 secondi per caricarsi, e se arriva a 5 secondi, aumenta al 90%.
Un vecchio e famoso studio stimava già nel 2008 che un secondo di ritardo nel caricamento di un sito portava a una riduzione del 7% delle conversioni, una riduzione dell’11% per le pagine visualizzate, e una riduzione del 16% della soddisfazione dei clienti.
Studi più recenti hanno dimostrato che oggi ritardi ancora più piccoli causano danni ancora maggiori, come ad esempio che per far diminuire i tassi di conversione del 7% ora bastano soli 100 millisecondi di ritardo.
Vuoi salire su Google? Inizia dalla SEO
Come si comporta Google per determinare la velocità di un sito?
Quando Google indicizza il sito, e determina quindi il tuo punteggio di velocità, simula la prima visita di un utente sul tuo sito, effettuata simulando la visita da un dispositivo mobile di fascia media. Inoltre, Google simula una connessione non ottimale in modo da vedere quanto il sito è effettivamente veloce in un contesto reale.
Quindi non basta che il sito si possa caricare velocemente da Milano o Roma con la migliore fibra in Italia: Google utilizza una versione simulata di una normale connessione 4G, in modo da mettersi nella condizione di utilizzo di un utente normale.
È importante quindi che il sito non risulti troppo appesantito da contenuti inutilmente pesanti o logiche inutilmente complesse, perché ai fini della SEO, per quanto un sito possa funzionare in modo ottimo visualizzandolo da un PC potente e con una buona connessione, se poi da un comune dispositivo mobile non va allora è un problema.
Crawler contro dati reali, chi vince?
Vincono i dati reali.
Google utilizza sia i Dati di Laboratorio, raccolti tramite i crawler, sia i Dati sul Campo, raccolti dagli utenti reali tramite il Chrome User Experience Report (CrUX), ma attribuisce un peso predominante a questi ultimi.
Per i dati ottenuti dai crawler, Google considera la velocità di risposta a freddo ottenuta dal crawler, in modo da analizzare la velocità di un sito ad una prima visita. I dati ottenuti tramite CrUX sono invece dati ottenuti in forma anonima dagli utenti che visitano il sito nel tempo, in cui entra in gioco anche l’efficacia della cache del browser. Questi sono quindi dati reali che rispecchiano la diversità dei modelli di dispositivi usati per navigare e della velocità di connessione dei singoli utenti.
Il posizionamento nel ranking è influenzato da entrambi i fattori, ma Google preferisce dare maggiore importanza ai dati reali, attribuendo un peso predominante all’esperienza reale ottenuta tramite CrUX, ed usando i Dati di Laboratorio da soli solo nel momento in cui non abbia a disposizione sufficienti dati ottenuti tramite CrUX.
Perché il mio sito è troppo lento?
La lentezza di un sito è spesso una combinazione di immagini o video non ottimizzati e quindi troppo pesanti, di un servizio di hosting inefficiente, di una mancanza di caching, e/o di un eccesso di script e plugin che ne rallentano il caricamento.
Immagini e/o video non ottimizzati
È il caso di immagini caricate in formati come JPEG o PNG, che non sono compresse e quindi a parità di risoluzione pesano molto più (anche dieci volte tanto in casi limite) dei formati compressi come ad esempio WEBP, che ad oggi è praticamente supportato a pieno da tutti i browser moderni.
Oppure si può parlare anche di non-ottimizzazione nel momento in cui si sta servendo un’immagine o video ad una risoluzione eccessivamente alta per l’utilizzo che se ne fa (come ad esempio a 2000x2000 quando poi la si fa visualizzare a 300x300).
Si può parlare anche di non-ottimizzazione quando le immagini vengono fatte caricare dal browser senza lazy-loading, cioè tutte contemporaneamente, quando non necessario, anziché far caricare prima le immagini che verranno visualizzate prima, e poi, quando serve, le altre.
Mancanza di una CDN
La mancanza di una CDN (Content Delivery Network) costringe ogni singolo utente, ovunque si trovi nel mondo, a richiedere i dati direttamente al tuo server centrale. Se il tuo server è fisicamente a Milano e un potenziale cliente ti visita da New York, i dati devono attraversare l'oceano, accumulando un ritardo inevitabile.
La cache distribuita di una buona CDN riduce fisicamente la distanza che i dati devono percorrere, migliorando nettamente la velocità di un sito che viene visualizzato da parti diverse del mondo.

Hosting inefficiente
Un hosting troppo economico risulta spesso un hosting inefficiente, incapace di gestire traffici pesanti. Potresti risentire di questo anche in maniera indiretta. Infatti, spesso questi servizi molto economici si trovano a gestire un numero troppo elevato di siti tramite lo stesso server. Se il server su cui è il tuo sito si ritrova sotto sforzo eccessivo dovuto a un traffico troppo elevato verso un sito differente dal tuo, il server allora si trasformerà in un collo di bottiglia anche per il tuo sito, che verrà rallentato indirettamente.
Un sito veloce non si improvvisa ma va progettato
Eccesso di plugin inutili
Ogni plugin aggiunto a un CMS o ogni script esterno aggiunge righe di codice che il browser deve leggere, interpretare ed eseguire. Se questo codice non serve, il browser lo andrà ad eseguire inutilmente, rallentando il sito intero. In più, più codice inutile viene eseguito, maggiore il ritardo. Inoltre è anche da tenere a mente che plugin non aggiornati o mal programmati possono andare in conflitto tra loro, creando errori ciclici che fanno sprecare risorse e rallentano ancora di più l’esecuzione.
Mancanza di caching
Si può impostare un sistema di caching sia lato server, sia lato utente, ed entrambi sono fondamentali.
Senza un sistema di caching lato server, il server ogni volta che un utente visita una pagina andrà a rieseguire da zero la creazione della pagina da servire all’utente. Con una cache lato server si crea una versione statica della pagina, o di parte di essa, che viene servita senza dover rifare ogni volta tutti i passaggi per arrivare a questa (ad esempio interrogare il database, recuperare i testi, comporre il layout e inviarlo sono tutte azioni che possono essere copiate in cache).
Il caching lato browser invece permette di memorizzare elementi statici (logo, CSS, icone) direttamente sul computer dell'utente. Alla seconda visita, il sito caricherà istantaneamente perché i file sono già "lì".
La combinazione di caching lato server e lato browser è fondamentale per la SEO, in quanto Google valuta le prestazioni attraverso sia i Dati di Laboratorio, raccolti tramite i crawler senza nessuna cache lato browser (ed è quindi qua fondamentale un buon server caching), sia i Dati sul Campo, raccolti tramite CrUX in un contesto di utilizzo reale, in cui anche la cache lato browser diventa fondamentale. Avendo i dati reali un peso predominante su quelli di laboratorio, viene da sé che per un buon posizionamento risultano cruciali sia il server caching sia il browser caching.
Cosa succede se un sito è troppo lento durante l’indicizzazione?
Google utilizza una sua strategia per evitare di spendere troppe risorse nell’indicizzare dei siti troppo lenti, che terrebbero occupati i Crawler senza farli lavorare all’indicizzazione delle pagine.
In ambito tecnico, il carburante che alimenta l'attività di Google si chiama Crawl Budget. Se il tuo server è rapido nel rispondere, Google allora alloca più gas per il bot, ed il bot stesso inoltre consuma meno carburante per ogni pagina e riesce quindi a visitarne molte di più. Se invece il sito è lento o risponde con errori, Google allora riduce preventivamente la quantità di gas per evitare di sovraccaricare il tuo server, rallentando drasticamente la frequenza di indicizzazione.
Che succede se il crawler finisce il budget? Può finirlo?
Sì, può finirlo eccome. Quando il Crawl Budget si esaurisce prima che Google abbia visitato l'intero sito, il bot interrompe la scansione e se ne va. Le conseguenze sono critiche: le nuove pagine pubblicate o gli aggiornamenti ai contenuti esistenti potrebbero impiegare settimane, se non mesi, per apparire nei risultati di ricerca. In pratica, una parte del tuo sito diventa invisibile a Google semplicemente perché il crawler non ha avuto abbastanza risorse per raggiungerla a causa della lentezza del sito stesso.
Il mio sito è piccolo. C’è il rischio che Google non me lo indicizzi a causa del Crawl Budget?
In realtà no. La lentezza di un piccolo sito non causerà la scomparsa del sito dal motore di ricerca, ma “solo” la sua posizione nei confronti dei competitor.
Il rischio diventa critico quando la struttura del sito cresce e arriva a contenere migliaia di pagine. Ma attenzione, perché non è così difficile raggiungere queste dimensioni. Di seguito puoi trovare alcuni esempi di siti che dovrebbero monitorare questo aspetto con estrema attenzione.
E-commerce con migliaia di prodotti
Questo è il caso più comune. Gli e-commerce generano spesso migliaia di pagine diverse a causa di varianti del prodotto come ad esempio taglie, colori e/o modelli diversi, ed anche a causa delle pagine generate dinamicamente dai filtri di ricerca, come ad esempio pagine che dividono i prodotti per marca o per settore o per ambito di utilizzo, riportando a volte anche gli stessi prodotti sotto categorie diverse (che essendo posizionati sotto URL diversi risultano essere pagine uniche agli occhi del crawler). Se il server è lento a generare queste pagine, Googlebot sprecherà molto tempo, e potrebbe arrivare ad ignorare magari i nuovi prodotti appena caricati in magazzino.
Siti di News e Grandi Blog
Se un sito di notizie viene espanso con decine di nuovi articoli ogni giorno, allora non ci vorrà molto a raggiungere la dimensione critica per il problema del Crawl Budget. Se il sito è pesante, Googlebot farà fatica a passare abbastanza spesso per indicizzare le notizie in tempo reale. E se Google finisce il budget prima di vedere la tua ultima breaking news, la concorrenza più veloce sarà il risultato che Google posizionerà come prima posizione, e il tuo sito perderà inevitabilmente quel traffico, dando vantaggio al competitor più bravo.
Forum o Social
Siti che ospitano migliaia di discussioni sono fortemente impattate dal problema del Crawl Budget. Senza una struttura tecnica adeguata, il crawler farà molta fatica ad indicizzare le nuove discussioni rilevanti, rendendo il sito meno visibile nelle ricerche recenti.
Siti medio-grandi che hanno subito migrazioni o cambi di URL
Se hai cambiato la struttura dei link e non hai rimosso correttamente i vecchi indirizzi, Googlebot continuerà a provare a visitare i vecchi URL ricevendo errori 404 (not found) o seguendo catene di redirect. Questo è un enorme spreco di gas, in quanto il bot consumerà energia su pagine morte invece di concentrarsi su quelle nuove.