Ottimizzazione on page

File robots.txt: per cosa usarlo e gli errori più comuni

File robots.txt: per cosa usarlo e gli errori più comuni

Cos’è il file robots.txt

Il file robots.txt è un file di testo che contiene direttive di accesso al sito web rivolte ai bot (dei motori di ricerca e non solo). Lo scopo è quello di precludere l’accesso al sito, o ad alcune parti di esso, ai crawler in generale o solo ad alcuni di essi. Si tratta di uno standard, ideato nel 1994, che consente ai webmaster di richiedere ai bot automatici di non fare il crawling di pagine o intere sezioni di un sito internet.

Leggi Tutto Leggi Tutto

Condividi il Post
SEO tecnica: checklist

SEO tecnica: checklist

Con SEO tecnica si intende l’analisi e l’ottimizzazione degli aspetti on page più tecnici di un sito web. Vale a dire, ad esempio, l’indicizzazione, la pulizia del codice (e la facilità per lo spider del motore di ricerca ad accedervi), la profondità, la struttura e le tassonomie del sito web, la velocità di caricamento delle pagine, ecc.

Leggi Tutto Leggi Tutto

Condividi il Post
Keyword cannibalization: come risolverla

Keyword cannibalization: come risolverla

La keyword cannibalization, ossia la cannibalizzazione delle parole chiave (o dei contenuti), può compromettere o indebolire notevolmente le possibilità di posizionamento di un sito web. Ciò perché se per certi versi Google attraverso i vari update, diventa sempre più “intelligente”, rimane comunque un algoritmo che ragiona in base a determinati parametri e fattori.

Scopo di chi struttura un sito web ottimizzato SEO, è dunque quello di renderlo il più possibile “comprensibile” al motore di ricerca. Ma andiamo con ordine, vediamo intanto cosa si intende per keyword cannibalization.

Leggi Tutto Leggi Tutto

Condividi il Post