SEO

La SEO (Search Engine Optimization) comprende quell’insieme di attività che hanno lo scopo di rendere un sito web più “interessante” agli occhi dei motori di ricerca, in modo da migliorarne il posizionamento e quindi la visibilità. L’obiettivo è di attrarre traffico, possibilmente traffico in target con gli obiettivi di business del sito web stesso.

I fattori che determinano il posizionamento SEO di un sito web sono innumerevoli, oltreché in continua evoluzione. Ad oggi è Google il motore di ricerca di gran lunga dominante nel mondo Occidentale, quindi è sulle sue linee guida che si concentra l’attenzione di SEO e webmaster. Si è soliti raccogliere i fattori SEO in due grandi macro-aree: fattori on page e fattori off page.

I primi riguardano l’insieme di attività che si compiono all’interno del sito web che si vuole posizionare. Alcune sono attività piuttosto tecniche che hanno a che fare con l’architettura, il codice HTML, le performance del sito stesso. Altre attività sono più di carattere editoriale, e riguardano i contenuti e le scelte da compiere relativamente alle parole chiave su cui si vuole puntare.

I fattori off page invece, raccolgono l’insieme di attività che si compiono al di fuori del sito web che si vuole posizionare. Lo scopo è farlo conoscere nella rete e portarvi autorevolezza. Ancora oggi i backlink che un sito riceve sono uno dei fattori di posizionamento più importanti. La rivoluzione di Google era stata propria quella di guardare ai link che i siti si scambiano come a voti, fondamentali ai fini di ranking. Oggi tale approccio è ancora valido, anche se il perno si è spostato più sulla qualità e la tematicità dei link.

In questa pagina sono raccolti tutti gli articoli di approfondimento o aggiornamento sul mondo SEO. Se ti serve una consulenza, o vuoi proporre un articolo o argomento da approfondire, puoi fare riferimento alla sezione contatti del sito web.

File robots.txt: per cosa usarlo e gli errori più comuni

File robots.txt: per cosa usarlo e gli errori più comuni

Cos’è il file robots.txt

Il file robots.txt è un file di testo che contiene direttive di accesso al sito web rivolte ai bot (dei motori di ricerca e non solo). Lo scopo è quello di precludere l’accesso al sito, o ad alcune parti di esso, ai crawler in generale o solo ad alcuni di essi. Si tratta di uno standard, ideato nel 1994, che consente ai webmaster di richiedere ai bot automatici di non fare il crawling di pagine o intere sezioni di un sito internet.

Leggi Tutto Leggi Tutto

Condividi il Post
SEO tecnica: checklist

SEO tecnica: checklist

Con SEO tecnica si intende l’analisi e l’ottimizzazione degli aspetti on page più tecnici di un sito web. Vale a dire, ad esempio, l’indicizzazione, la pulizia del codice (e la facilità per lo spider del motore di ricerca ad accedervi), la profondità, la struttura e le tassonomie del sito web, la velocità di caricamento delle pagine, ecc.

Leggi Tutto Leggi Tutto

Condividi il Post
I motori di ricerca più usati nel mondo

I motori di ricerca più usati nel mondo

Un’indagine sui motori di ricerca più usati nel mondo, porterebbe rapidamente a concludere che Google è di gran lunga il più utilizzato. Dunque discorso chiuso? Se da un lato ogni strategia di search marketing non può prescindere dal partire dal motore di ricerca di Mountain View, dall’altro è necessario aggiungere ulteriori considerazioni.

Alcune di queste sono geografiche. Alcuni paesi (vedremo in particolare Russia e Cina) hanno, più per motivi ideologici, tentano di limitare la penetrazione di un motore di ricerca come Google, visto un po’ come la longa manus degli Stati Uniti. Dunque le attività che hanno un respiro internazionale non possono non tener conto di questa sorta di “geopolitica dei motori di ricerca”, nello strutturare la propria strategia di visibilità.

Leggi Tutto Leggi Tutto

Condividi il Post
Casi studio: markup strutturato contenente spam

Casi studio: markup strutturato contenente spam

Il post di oggi mira a esporre un caso di penalizzazione manuale, con segnalazione in Search Console, di uno dei miei siti web. Come è possibile vedere nell’immagine, l’azione manuale condotta da Google è stata motivata dall’implementazione di tecniche di markup strutturato contenente spam. Dunque un comportamento in violazione delle Linee Guide di Google stesso sui dati strutturati.

Leggi Tutto Leggi Tutto

Condividi il Post
Posizionare una pagina per più parole chiave

Posizionare una pagina per più parole chiave

Posizionare una stessa pagina per più parole chiave correlate, può consentirci di attrarre maggior traffico, possibilmente caratterizzato dallo stesso search intent. La scelta delle parole chiave e l’ottimizzazione delle pagine sulle stesse, è uno dei passaggi fondamentali in una strategia SEO vincente.

In alcuni casi può risultare più utile, individuate le keywords d’interesse, creare diverse pagine ottimizzate e tentare di posizionarle su serp differenti. Altre volte invece, quando la correlazione tra le parole chiave è troppo stretta, si può procedere allo sviluppo di un contenuto che, oltre alla keyword principale, allarghi il campo semantico del testo includendo anche le correlate.

Leggi Tutto Leggi Tutto

Condividi il Post
Fattori di posizionamento SEO 2017

Fattori di posizionamento SEO 2017

Il sito Search Engine Land, uno dei portali di riferimento per addetti ai lavori e appassionati SEO, ha aggiornato la periodica tabella dei fattori SEO. La tabella, alla sua quarta edizione, analizza tutti i fattori di posizionamento SEO più importanti, per spingere un sito web in alto nei risultati di ricerca.

Questi comprendono sia fattori on site che off site, oltreché gli aspetti che invece possono penalizzare o indebolire il posizionamento sui motori di ricerca. Vediamo quindi con la tabella fattori SEO 2017, quali elementi hanno guadagnato un maggiore peso e quali invece hanno perso terreno.

Leggi Tutto Leggi Tutto

Condividi il Post
Keyword cannibalization: come risolverla

Keyword cannibalization: come risolverla

La keyword cannibalization, ossia la cannibalizzazione delle parole chiave (o dei contenuti), può compromettere o indebolire notevolmente le possibilità di posizionamento di un sito web. Ciò perché se per certi versi Google attraverso i vari update, diventa sempre più “intelligente”, rimane comunque un algoritmo che ragiona in base a determinati parametri e fattori.

Scopo di chi struttura un sito web ottimizzato SEO, è dunque quello di renderlo il più possibile “comprensibile” al motore di ricerca. Ma andiamo con ordine, vediamo intanto cosa si intende per keyword cannibalization.

Leggi Tutto Leggi Tutto

Condividi il Post