Ottimizzazione on page

L’ottimizzazione SEO on page riguarda gli interventi che vengono compiuti all’interno di un sito, che si vuole posizionare tra i risultati di ricerca di un search engine. Gli ambiti di intervento sono molto ampi. Alcune attività sono piuttosto tecniche e hanno a che fare con l’infrastruttura che ospita il sito web e con la struttura dello sito stesso.

Vi rientrano gli aspetti relativi l’indicizzazione, l’accessibilità e l’architettura del sito web (tassonomie, url, robots.txt, sitemap, meta tag, performance, ecc.), oltreché l’ottimizzazione di alcuni tag HTML essenziali lato SEO.

Altri aspetti dell’ottimizzazione SEO on page (o on site) sono più di stampo “contenutistico-editoriale”. Hanno a che fare cioè con una scelta oculata delle parole chiave (il passaggio più importante di una strategia SEO) e con la creazione di contenuti efficaci in termini di search intent e risposta ai bisogni degli utenti della serp d’interesse.

Se da un lato è senz’altro vero che soprattutto per le serp più competitive la sola ottimizzazione SEO on page non è sufficiente, dall’altro rappresenta le fondamenta su cui poi costruire una strategia off site (bombardare di link un sito mal ottimizzato, oggi sembrerebbe funzionare sempre meno).

Dunque bisogna prendersi del tempo per studiare con cura un progetto (“trasformandolo” in parole chiave), costruire un sito SEO friendly e produrre contenuti di qualità (quest’ultima intesa come capacità di rispondere efficacemente ai “nostri utenti”).

Questa sezione del sito ospita gli articoli e gli approfondimenti riferiti ai numerosissimi aspetti che compongono l’ottimizzazione SEO on page.

Aggiornare vecchi contenuti per aumentarne il traffico

Aggiornare vecchi contenuti per aumentarne il traffico

Nella gestione di un sito web (blog o altro) spesso ci si concentra sulla produzione costante di nuovi contenuti. Abbiamo già visto in un altro post come l’assioma “pubblico nuova roba, Google mi premia” è piuttosto relativo (vedere qui).

Anzi, se la strategia e analisi dei nuovi contenuti non è fatta con cognizione di causa, il rischio è una perdita di tempo e un peggioramento dell’ecosistema web (tradotto, nuova mondezza viene messa online e Google la deve ingurgitare).

Leggi Tutto Leggi Tutto

Google Sitelink: come ottenerli in serp

Google Sitelink: come ottenerli in serp

Iniziamo questa guida su come ottenere i sitelink su Google con una precisazione: non potete automaticamente inserire (o rimuovere) i sitelink che appaiono nella serp di Google relativa al vostro Brand.

Discorso chiuso? In realtà se non potete ottenere i sitelink automaticamente, vi sono alcuni aspetti che favoriscono di molto le possibilità di vedere la comparsa di questi in serp. Vediamoli nel dettaglio.

Leggi Tutto Leggi Tutto

The SEO Framework: il plugin alternativa a Yoast

The SEO Framework: il plugin alternativa a Yoast

The SEO Framework è un plugin WordPress, con una serie di features per ottimizzare gli aspetti SEO on page di un sito web. Il plugin è un’alternativa ai più blasonati Yoast SEO e All in One SEO Pack. Incuriosito dalle ottime recensioni, ho provato il plugin. Vediamo dunque le caratteristiche principali di The SEO Framework e come si comporta rispetto alla concorrenza.

Leggi Tutto Leggi Tutto

La SEO nel 2018: l’opinione di Rand Fishkin

La SEO nel 2018: l’opinione di Rand Fishkin

Intervenuto al recente Web Summit 2017, la rockstar della SEO Rand Fishkin ci ha parlato di quelle che a suo avviso potrebbero essere alcune delle tendenze che caratterizzeranno il mondo SEO nel 2018. Fondatore della compagnia Moz, Fishkin è certamente una delle voci più autorevoli dell’industria SEO internazionale.

Per approfondire sull’intervento di Fishkin al Web Summit, andare a vedere le slide originali su Slideshare, oppure l’ottimo articolo pubblicato su Pop up Magazine. Qui ci soffermeremo sugli aspetti più interessanti dell’intervento di Rand Fishkin.

Leggi Tutto Leggi Tutto

File robots.txt: per cosa usarlo e gli errori più comuni

File robots.txt: per cosa usarlo e gli errori più comuni

Cos’è il file robots.txt

Il file robots.txt è un file di testo che contiene direttive di accesso al sito web rivolte ai bot (dei motori di ricerca e non solo). Lo scopo è quello di precludere l’accesso al sito, o ad alcune parti di esso, ai crawler in generale o solo ad alcuni di essi. Si tratta di uno standard, ideato nel 1994, che consente ai webmaster di richiedere ai bot automatici di non fare il crawling di pagine o intere sezioni di un sito internet.

Leggi Tutto Leggi Tutto

SEO tecnica: checklist

SEO tecnica: checklist

Con SEO tecnica si intende l’analisi e l’ottimizzazione degli aspetti on page più tecnici di un sito web. Vale a dire, ad esempio, l’indicizzazione, la pulizia del codice (e la facilità per lo spider del motore di ricerca ad accedervi), la profondità, la struttura e le tassonomie del sito web, la velocità di caricamento delle pagine, ecc.

Leggi Tutto Leggi Tutto

Keyword cannibalization: come risolverla

Keyword cannibalization: come risolverla

La keyword cannibalization, ossia la cannibalizzazione delle parole chiave (o dei contenuti), può compromettere o indebolire notevolmente le possibilità di posizionamento di un sito web. Ciò perché se per certi versi Google attraverso i vari update, diventa sempre più “intelligente”, rimane comunque un algoritmo che ragiona in base a determinati parametri e fattori.

Scopo di chi struttura un sito web ottimizzato SEO, è dunque quello di renderlo il più possibile “comprensibile” al motore di ricerca. Ma andiamo con ordine, vediamo intanto cosa si intende per keyword cannibalization.

Leggi Tutto Leggi Tutto