SEO tecnica: checklist

SEO tecnica: checklist

Con SEO tecnica si intende l’analisi e l’ottimizzazione degli aspetti on page più tecnici di un sito web. Vale a dire, ad esempio, l’indicizzazione, la pulizia del codice (e la facilità per lo spider del motore di ricerca ad accedervi), la profondità, la struttura e le tassonomie del sito web, la velocità di caricamento delle pagine, ecc.

Per approfondire e acquisire capacità di intervento lato SEO sugli aspetti tecnici non occorre necessariamente essere uno sviluppatore (anche se ovviamente aiuta). Occorre conoscere l’HTML e i CSS. Sarebbe di grande supporto anche una conoscenza basilare dei linguaggi PHP e Javascript. Ciò per avere un quadro completo degli strumenti dello sviluppo sul web.

Per questa checklist sono debitore, soprattutto per l’organizzazione degli argomenti, a due guide in lingua inglese estremamente ben fatte: webris.orgdistilled.net. Uno strumento che non deve assolutamente mai mancare nella cassetta degli attrezzi del SEO tecnico è Screaming Frog.

Screaming Frog è un software di crawling che consente di analizzare un sito web allo stesso modo degli spider dei motori di ricerca. Il tool è, a detta di molti, davvero notevole e semplifica non poco il lavoro di un analista SEO. Screaming Frog prevede anche una versione gratuita, adatta all’analisi di siti web di piccole/medie dimensioni (con la versione free è possibile analizzare 500 url per singola sessione).

Tra le alternative, consiglio Visual SEO Studio (un software ideato da Federico Sasso). Le funzionalità di base sono le medesime e anch’esso prevede una versione free con le stesse limitazioni di Screaming Frog.

Fatte queste necessarie premesse, addentriamoci a vedere come deve essere organizzata una valida checklist dell’analisi SEO tecnica di un sito web.

Indicizzazione e Accessibilità

Un primo step quando si fa una SEO audit tecnica di un sito web e verificare le pagine indicizzate dal motore di ricerca. Il modo più veloce e immediato per farlo è servirsi del comando site: di Google (è possibile utilizzarlo anche su Bing).

Il comando restituisce le pagine indicizzate. Il site: è anche un modo attraverso il quale è possibile vedere in modo rapido se sono presenti pagine non inserite dal webmaster. Cioè se magari il sito è stato “bucato” e vi sono stati iniettati altri contenuti (prodotti farmaceutici in molti casi, ma anche altro).

Comando site Google
Comando site: Google. In basso è possibile vedere il numero delle pagine indicizzate.

Se si dispone degli accessi in Search Console, è possibile servirsi degli ex strumenti per i Webmaster di Google per visualizzare lo stato dell’indicizzazione del sito web.

Search Console indicizzazione
Sitemap e Robots.txt

Un secondo passaggio riguarda il check della sitemap e del file robots.txt del sito web. Quest’ultimo è un file di testo che contiene le direttive di accesso o restrizione al sito, destinate ai bot dei motori di ricerca (e non solo).

Come visionarlo? Il file può essere raggiunto pubblicamente digitando l’url: miosito.it/robots.txt. Oppure, se si dispone degli accessi, attraverso Search Console, nella sezione Scansione > Tester del file robots.txt.

La sitemap invece aiuta il motore di ricerca a comprendere meglio le pagine e le priorità di un sito web. Si possono generare e inviare al motore anche sitemap relative alle immagini e ai video del sito internet. Spesso la sitemap è in formato xml ed esistono diversi tools online che consentono di generarla. Su WordPress non mancano i plugin realizzati a tal fine.

Tra questi, Yoast comprende, tra le varie funzioni, anche quella di creazione di una sitemap.xml (anche se non è considerata tra le migliori). In alternativa, consiglio il Plugin Google XML Sitemaps di Arne Brachhold.

Come visionarla? Pubblicamente, attraverso l’url: miosito.it/sitemap.xml (o altro indirizzo a seconda del tipo di sitemap). Oppure attraverso Search Console nella sezione: Scansione > Sitemap.

L’importanza della sitemap cresce con siti di grandi dimensioni. Per siti di piccole dimensioni è invece, a mio modo di vedere, piuttosto relativa e marginale. Il miglior modo per comunicare al motore di ricerca la gerarchia del nostro sito web, è attraverso la sua struttura e alberatura (come vedremo a breve).

Meta Tag Robots

I meta tag Robots sono inseriti all’interno dei tag <head> di una pagina web. Hanno lo scopo di indicare agli spider dei motori di ricerca, come comportarsi in relazione a quella singola pagina (mentre invece il file robots.txt contiene direttive riferite all’intero sito web). Attraverso il tag meta robots si può indicare ad esempio allo spider di non indicizzare quella pagina e non seguirne i link presenti. Ecco in questo caso come apparirebbe il meta tag robots:

<meta name="robots" content="noindex,nofollow">

Per effettuare un check dei meta tag robots ci si può servire di Screaming Frog, che restituisce anche informazioni su tali direttive. In alternativa, individuata la pagina d’interesse, attraverso il tasto destro del mouse e la voce “visualizza sorgente pagina” è possibile andare a dare un’occhiata al tag in questione.

Errori di scansione

Si tratta di url di un sito web che lo spider non è riuscito a sottoporre a scansione, o che hanno restituito un errore (per approfondire visionare la Guida di Search Console). Gli errori di scansione vengono suddivisi in Client Error (4xx) e Server Error (5xx). Uno degli errori più comuni è il 404, che viene restituito in genere quando la pagina che si cerca non esiste o è stata rimossa.

Come effettuare un check degli errori di scansione su un sito web? Se si dispone degli accessi ci si può servire di Search Console (sezione Scansione > Errori di scansione). Tenere presente che su Search Console i tempi di aggiornamento delle informazioni non sono immediati. In alternativa, si può utilizzare ancora una volta il fidato Screaming Frog.

Paginazione

Molti siti web suddividono i contenuti in diverse pagine. Basti pensare ai blog, dove in generale la lista degli articoli, superato un certo numero, prosegue poi nelle pagine successive. In questo caso può essere utile segnalare al motore di ricerca la sequenza logica delle pagine (evitando problematiche relative a confusione e duplicazione delle sezioni).

In questo caso ci si può servire degli elementi link rel=”next” e rel=”prev”. Come funzionano? Se ad esempio gli articoli del nostro blog si estendono per tre pagine, avremo: www.sito.it (homepage), www.sito.it/pagina2 e www.sito.it/pagina3. Ognuna di queste pagine avrà, all’interno dei tag <head>, un riferimento link rel alla pagina precedente e alla successiva. Prendendo ad esempio la pagina2, il risultato lato codice HTML sarà il seguente:

<link rel="prev" href="http://www.sito.it/" />
<link rel="next" href="http://www.sito.it/page/3/" />

Un Plugin molto diffuso e apprezzato (ma anche criticato) come Yoast SEO, offre tra le proprie features anche l’inserimento in automatico dei link rel per la paginazione dei contenuti.

Architettura sito web

L’architettura di un sito web ha un’importanza fondamentale, non solo lato SEO ma anche lato marketing. Questa deve essere più semplice e logica possibile. Si deve evitare una eccessiva profondità se non necessaria, privilegiando una struttura più orizzontale che verticale. Vediamo alcuni aspetti da ottimizzare in fase di progettazione di un sito internet.

Main Menu

Il main menu ha un’importanza prioritaria. Qui vanno inserite le pagine più importanti, in modo che siano facilmente raggiungibili sia dagli spider che dagli utenti. Se per un’azienda la pagina più importante è quella dei servizi e per raggiungerla occorrono tre clic, significa non si è capito molto.

Si tratta di considerazioni che trascendono la SEO e riguardano anche il marketing e la user experience (quando non il buon senso). Come già accennato, sarebbe buona pratica in generale evitare un’eccessiva profondità nello strutturare un sito web (dunque consentire di raggiungere più sezioni del sito, con meno clic possibile).

Link Interni

I link interni e la struttura dei menu, consentono di “comunicare” al motore di ricerca la gerarchia rispetto alle pagine del sito web (ancor più della sitemap). Il consiglio è creare una struttura logica dei link interni. Il robot dei motori di ricerca usa i collegamenti sulle pagine web per viaggiare tra di loro e così poterle indicizzare.

Le pagine che ricevono più link interni devono essere anche le più importanti. Attraverso Search Console è possibile visionare l’elenco della pagine che collezionano più link interni (sezione Traffico di ricerca > Link Interni). Molto utile poi, utilizzare negli Anchor Text dei link interni, parole chiave per cui vorremmo posizionare le pagine linkate (senza esagerare).

Url della Pagina

Anche la struttura dell’URL della pagina web è importante lato SEO. Deve essere parlante, non troppo lungo e descrittivo del contenuto della pagina stessa. Evitare sequenze di caratteri non scansionabili. Meglio una URL tipo seoholmes.it/chi-siamo che seoholmeso.it/12345566=?reAbc! Sarebbe utile anche qui inserirvi in modo naturale parole chiave d’interesse.

A detta di molti, nello strutturare l’url delle pagine web, sarebbe meglio servirsi dei trattini, rispetto ad altre soluzioni (come l’underscore). Dunque dei due esempi seguenti, privilegiare la prima soluzione rispetto alla seconda (o ad altre alternative):

seoholmes.it/soluzione-migliore/
seoholmes.it/soluzione_peggiore/

Ottimizzazione on page

Una SEO audit che si rispetti non può prescindere poi da un’analisi di alcuni tag ed elementi on page fondamentali per il posizionamento di un sito web. Ovviamente un’analisi del genere, presuppone prima l’individuazione delle parole chiave su cui si vogliono costruire le pagine del proprio progetto web.

Anche per l’ottimizzazione delle singole pagine, un tool come Screaming Frog si rivela estremamente utile, fornendo una serie di dati e informazioni aggregate. Ma vediamo brevemente nel dettaglio gli elementi più importanti da tener presenti nella propria check list SEO.

Title

Il tag title è l’elemento on page più importante lato SEO. Tralasciando le considerazioni sulla scelta delle keywords, in una SEO Audit occorre accertarsi che i titles presenti sul sito web non siano troppo lunghi (sia in termini di parole, che di pixel). Che il title sia presente in ogni pagina. Occorrere poi accertarsi che non vi siano tag title duplicati o che targettizzino la stessa parola chiave (ciò per prevenire casi di Keyword Cannibalization).

Meta Description

La meta description non ha un’importanza diretta lato SEO, però può averla lato utente. Comparendo in serp, consente di personalizzare ulteriormente l’aspetto delle nostre pagine e possibilmente invogliare al clic. Occorre dunque che venga inserita manualmente, almeno nelle pagine più importanti del sito web.

Headings

I titoli interni di un articolo (H1, H2, H3, ecc) hanno un ruolo chiave in quanto organizzano la struttura del post, comunicando al motore di ricerca gli aspetti più importanti. Occorre accertarsi che venga rispettata una gerarchia negli stessi (prima H1, poi H2 e cosi via). L’H1 in particolare, dopo il title è l’elemento on page più importante (è il cosiddetto titolo visibile lato utente). La prassi comune consiglia di non inserire più di un H1 per pagina.

Immagini

Anche le immagini vanno ottimizzate con cura. L’ottimizzazione delle immagini abbraccia tanti aspetti, tanto che richiederebbe una guida apposita (ve ne sono diverse sul web). In questa sede in particolare, sottolineo due aspetti: dimensioni e nome del file. Riguardo il primo aspetto, le immagini andrebbero caricate sul sito web delle dimensioni appropriate, sia in termini di pixel che di kilobyte.

Un indicatore che si usa convenzionalmente, è che la dimensione della singola immagine non dovrebbe superare i 100 KB. Riguardo il secondo aspetto, occorre accertarsi che le immagini abbiano un nome file parlante e che vi sia inserito l’attributo ALT (elementi che ne consentono l’indicizzazione). Screaming Frog nei suoi tab ci segnala le immagini prive dell’ALT e quelle con dimensioni superiori ai 100 KB.

Meta hreflang

Se il sito web oggetto di analisi ospita versioni in diverse lingue, è necessario segnalarlo al motore di ricerca attraverso il meta hreflang, in modo possa “servire” la versione più appropriata all’utente che visita il sito internet. Come fare un check? Attraverso il tasto destro del mouse e la voce “visualizza sorgente pagina”. Se le lingue del sito web sono ad esempio italiano e inglese l’hreflang apparirà così:

<link rel="alternate" hreflang="it" href="https://seoholmes.it/"/>
<link rel="alternate" hreflang="en" href="https://seoholmes.it/en/"/>

Performance

Le ultime considerazioni su una check list SEO che si rispetti, riguardano le performance di un sito web. Si tratta di uno dei fattori SEO che sembrerebbe acquisire sempre più importanza, anche dal punto di vista del posizionamento.

In ogni caso un sito con tempi di caricamento lenti è un grosso problema, che fa venire meno qualsiasi altra considerazione. Gli utenti si collegano sempre più da Mobile e, aggiungerei, hanno sempre meno pazienza. Dunque occorre ottimizzare anche gli aspetti relativi alle performance e alla velocità del sito web.

Alcuni interventi per migliorare la velocità di un sito web sono piuttosto tecnici e richiedono l’intervento di una mano esperta. Tra i fattori rilevanti in termini di performance di un sito web abbiamo: dimensione immagini, tempo di risposta del server, caching del browser, l’utilizzo di CSS o Javascript esterni alla pagina e la compressione del codice.

Su WordPress esistono diversi plugin che fanno il lavoro sporco per noi e in molti casi anche in modo piuttosto efficace. Per fare un check sulla velocità e le performance di un sito web esistono diversi strumenti utili, ne indico in particolare tre molto usati e apprezzati:

  • PageSpeed Insights: lo strumento di Google, a detta di molti un po’ troppo severo.
  • GTmetrix: un tool molto utile. Consente di visionare e scaricare in PDF report piuttosto completi (consiglio di registrarsi per disporre di maggiori opzioni).
  • Pingdom: un servizio molto completo (e a pagamento) per il monitoraggio delle performance nel tempo di un sito web.

Sicurezza e Link Spam

Un’ultimissima considerazione in tema sicurezza. I siti web vengono “bucati” o compromessi più spesso di quanto si possa immaginare (soprattutto se sono realizzati con un CMS noto). Fare dei controlli anche in questo ambito, servendosi di alcuni strumenti offerti da Search Console e rivolgendosi a un tecnico nel caso si riscontrino situazioni strane (tipo pagine in cinese che compaiono in serp e sono ospitate sul nostro dominio).

Faccio rientrare nel discorso sicurezza, anche se un po’ forzato, pure l’analisi sui backlink tossici. Occorre fare un check anche dei backlink che riceve un sito web. Gli strumenti a disposizione sono il già più volte citato Search Console (sezione Traffico di ricerca > Link che rimandano al tuo sito), più altri strumenti a pagamento come Majestic e Ahrefs.

Un elevata presenza di link spam che puntano a un sito web, possono portare anche a penalizzazioni importanti. Tali link possono essere il frutto della strategia malevole di qualcuno (magari un competitor), oppure inseriti con noncuranza e scarsa lungimiranza da chi aveva lo scopo invece di spingere il sito in alto in serp.

Questa mini guida a una checklist SEO tecnica, non intende esaurire tutti gli aspetti che vanno presi in considerazione in un’analisi di questo tipo (per approfondire occorrerebbe un intero manuale). Vuole però essere un punto di partenza utile per chi si trova a studiare lo stato di salute SEO di un sito web.

Se pensi abbia tralasciato aspetti importanti o vuoi aggiungere altre considerazioni, commenta il post. Se invece hai bisogno di una consulenza SEO, contattami e spiegami come posso aiutarti.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *