Motori Di Ricerca Seo Ranking

Motori Di Ricerca | Guida Seo Parte 04 – Ranking

L’IMPORTANZA DEL PAGERANK DI GOOGLE

Iniziamo questa importantissima sezione con una citazione presa direttamente dalla guida alle funzioni di ricerca di Google:

“Il nucleo principale del software è rappresentato da PageRank(TM), che consiste in un sistema che permette di classificare le pagine Web in ordine di importanza. Il sistema è stato sviluppato da Larry Page e Sergey Brin all’Università di Stanford. PageRank continua ad essere l’elemento chiave degli strumenti di ricerca di Google.”

Questo è quanto dichiarato da Google, ma attualmente è ancora così?

La risposta, anche se può sorprendere è: NO, infatti il pagerank ormai, non condiziona più in modo sostanziale l’ordinamento negli indici di Google.

Un semplice esempio potrebbe essere questo:

  • Prendiamo come campione uno dei siti con più alto pagerank: adobe.it (PageRank pari a 8)
  • Analizzando la pagina, possiamo estrapolare questa parola chiave, presente nel testo: grandi marchi
  • Effettuiamo ora la ricerca su Google.it per la parola chiave “grandi marchi”
  • Come possiamo vedere, nelle prime posizioni troviamo altri siti. Allora questi hanno PageRank maggiore di 8 attribuito al sito di Adobe? Certo che no, infatti sono più o meno tutti a PR3-4 ed il sito Adobe.it non compare nei primi 100 risultati di questa SERP.

Grazie a questo semplice test, ma anche per esperienze personali, possiamo dire che ad oggi il PageRank non determina in modo “sostanziale” il ranking di Google.

Ma cos’è il PageRank e come viene determinato?

Il PR (PageRank) è uno dei principali, ma ormai obsoleto, algoritmo brevettato da Google per l’ordinamento dei propri risultati. Questo sistema di calcolo attribuisce ad ogni singola pagina del web indicizzato un valore da 0 a 10 basandosi, non solo sulla quantità di backlinks che essa riceve, ma anche sulla loro qualità (matematica).

Prima di procedere con ulteriori spiegazioni vediamo la formula semplificata del PR:

Motori Di Ricerca - Guida Seo

Per tanto, vista la formula di calcolo del PR, è facilmente intuibile che questo sistema non è fondato esclusivamente su quanti links riceve una determinata pagina, ma anche (e soprattutto) dal PR e dal numero di links in uscita che la pagina linkante possiede. Questo algoritmo, a suo tempo, ha permesso a Google di superare tecnologicamente il concorrente Yahoo!, fornendo SERP sempre più attinenti alle parole chiave ricercate, con un ottimo riscontro in termini di soddisfazione degli utenti.

Quindi il PageRank viene trasferito da una pagina all’altra mediante ed in funzione dei links presenti nella pagina. Ad esempio una pagina PR5 che linka 10 ripartisce in modo uniforme il proprio PR alle pagine. L’ideale quindi è ricevere links da pagine ad alto PR con pochi outboundlinks.

Com’è possibile conoscere il PR di una pagina?

Prima di questo, dobbiamo fare una precisazione fondamentale: il PR reale viene calcolato quasi in real-time, mentre il PR visibile viene esportato con cadenze prestabilite da Google (solitamente ogni 3 mesi).

In tal senso, per conoscere il PR di una pagina, il modo più semplice (e naturalmente consigliato da Google) è aver installato la Google Toolbar nel proprio browser. Basta navigare e la barretta verde si colora in funzione del livello di PR raggiunto da ogni singola pagina.

Tieni comunque presente che il PR visualizzato nella Google Toolbar non è Reale ma rappresenta una fotografia del PageRank della pagina circa un mese prima dell’export del PR.

Ma allora perché Google impiega tante risorse per il PR quando questo non è più considerato?

La risposta è semplice, se i web master si concentrano su un fattore non importante, questi difficilmente potranno influire sulle SERP, lasciando quindi i risultati organici il più naturali possibili.

Inoltre, grazie alla funzione di visibilità del PR (ci sono comunque moltissimi tool che lo permettono autonomamente), Google riesce a distribuire in modo capillare la propria Toolbar.

Dunque il PR non va considerato?

Attenzione, non ho detto questo. Ho semplicemente dimostrato che attualmente il PR non viene utilizzato per il calcolo del ranking ma è comunque una buona misurazione di popolarità.
Infatti considero il PR un buon indice di Linkpopularity che va a comporre il “cruscotto” per monitorare e valutare l’autorevolezza di una pagina web (e quindi di un sito).

INCREMENTO DELLA LINK- POPULARITY

Come avrai potuto intuire, nel posizionamento sui motori di ricerca il fattore più determinante sono i links ed il loro valore qualitativo. Questo perché il motore interpreta ogni backlink come un voto fatto da una pagina a quella linkata. Se una pagina riceve link significa che questa presenta contenuti interessanti e quindi va premiata in SERP. Naturalmente i motori non si limitano a conteggiare i links solo in termini numerici, ma puntano sempre di più sulla loro qualità.

Questo è possibile analizzando, oltre la relativa popolarità della pagina linkante anche la tematicità della stessa. Ad esempio, se il nostro sito www.vendita-orologi.it riceve un link da un sito/pagina che tratta di articoli ortofrutticoli, avrà un valore minore rispetto ad un backlink da una pagina che parla di orologi antichi oppure di gestione del tempo.

Per tanto, il modo migliore per costruire una buona link-popularity è quello di ricevere il maggior numero di backlinks da siti e/o pagine con:

  • Elevata popolarità
  • Alta tematicità coi nostri contenuti
  • Elevato Trust (vedremo poi meglio parlando di TrustRank)

Ad ogni modo, escludendo per un momento il discorso “motori di ricerca”, non scordiamoci che un link da un sito a tema può portare traffico diretto e targettizzato sul nostro sito (che poi è lo scopo del posizionamento). Nei paragrafi successivi, vedremo punto per punto le principali attività per l’incremento della popolarità sul web.

L’IMPORTANZA DEI CONTENUTI: IL LINKBAITING

Incredibile ma vero, nel posizionamento: la tecnica più “naturale” è pure quella più efficace. Difatti il modo migliore per creare una buona popolarità è quello di creare contenuti interessanti che attireranno links spontanei provenienti da siti di altri web master.

L’esempio calzante di questa tecnica, chiamata linkbaiting, è Wikipedia. org che, offrendo una vasta quantità di contenuti, riceve link a tema per ogni pagina da chiunque voglia integrare le proprie pagine con le definizioni per l’appunto contenute nell’enciclopedia più grande al mondo. Quindi doppio vantaggio: si ricevono link in modo “automatico” (naturale/spontaneo e progressivo nel tempo) e soprattutto da pagine “a tema” con i nostri argomenti.

Per esempio, il linkbaiting può essere attuato fornendo contenuti utili ed originali come:

  • Tool e/o software da utilizzare direttamente on-line
  • Creazione di contenuti ridistribuibili
  • Traduzioni di contenuti disponibili solo in altre lingue
  • Articoli tecnici originali (che possono essere ripubblicati su altri siti) • Spazio alla fantasia… 🙂

COMUNICATI STAMPA E ARTICLE MARKETING

In realtà queste opportunità di promozione, dovrebbero aver poco a che fare col posizionamento e l’aumento della link popularity, in quanto nati principalmente per comunicare con la stampa e fare Branding (promozione del marchio).

Va comunque detto che queste tecniche se ben studiate senza abusi, portano benefici anche in termini di popolarità e quindi di posizionamento sui motori di ricerca.

Non mi soffermerò sulle differenze fra CS (comunicati stampa) e AM (article marketing), ma ci concentreremo solamente sull’ottimizzazione di questi per ottenere il massimo risultato possibile in termini di posizionamento.

In pratica questa tecnica prevede la realizzazione e la distribuzione di nostri comunicati stampa od articoli su altri siti specializzati nella diffusione di queste tipologie di contenuti. Per creare link-popularity è quindi fondamentale inserire dei link alle nostre pagine nei CS o articoli che andremo a divulgare.

Alcuni consigli sulla realizzazione dei testi e la loro ottimizzazione:

  • Lunghezza testo: almeno 450 parole per gli articoli, non più di 500 parole per i comunicati stampa
  • Numero di backlinks: fare riferimento alle regole di ogni sito di distribuzione (comunque non superare i tre link per contenuto sottomesso)
  • Posizione dei links: l’ideale è distribuire i links su tutto l’articolo (occhiello, corpo e footer).
  • Url nei links: sempre meglio linkare una diversa url per link in modo tale da distribuire la forza dei backlink su più aree del sito (risulta più naturale, meno invasivo e più utile all’utente)
  • Indicare sempre le informazioni per contattare l’autore
  • Cambiare almeno il titolo dell’articolo per ogni sottomissione, questo aumenterà le possibilità di by-passare i filtri anti-duplicazione.

ISCRIZIONE ALLE DIRECTORY

Pur essendo una delle più “antiche” forme di linkbuilding, l’iscrizione del proprio sito web all’interno delle directory può aiutare ad incrementare l’autorità e la popolarità. Soprattutto se i links provengono da directory autorevoli come Dmoz e Yahoo Dir.

Alcuni consigli per ottenere il massimo risultato in termini di posizionamento dalle richieste di inclusione:

  • Selezionare la sottocategoria più idonea agli argomenti trattati dal sito, questo permette di avere un inserimento più rapido e un link da una pagina altamente targettizzata
  • Inserimento dell’homepage: solo pochissime directory permettono di segnalare pagine interne del sito, quindi è preferibile inserire esclusivamente la URL del dominio
  • Utilizzare il vero nome del sito
  • Adottare differenti descrizioni del sito, anche qui per evitare i filtri anti-duplicazione ed espandere la query
  • Non sottomettere siti satelliti o mirror, perderai solo tempo prezioso

Directory in evidenza:

  • http://www.dmoz.org/ – La directory più grande del mondo
  • http://it.dir.yahoo.com – Directory di Yahoo! ad elevato Trust.
  • http://directory-italia.blogspot.com – Blog innovativo dove si diventa direttamente Editori della directory per segnalare i propri siti in modo autonomo ed immediato
  • Altre directory italiane: liste.giorgiotave.it/directory/

SITI SATELLITE E NETWORK

Queste tecniche erano molto utilizzate fino ad un paio di anni fa e consistevano nel creare siti esterni (satelliti) al sito madre e da questi linkare le pagine del sito principale. Questo permetteva di creare un’isola di siti ottimizzati che tutti insieme spingevano il sito principale nelle prime posizioni per determinate parole chiave.

Attualmente questa tecnica è molto pericolosa, perché facilmente individuabile dai motori di ricerca (Google in pole position) che col tempo si accorgono della proprietario del network e quindi delle finalità del progetto (migliorare il posizionamento) penalizzando l’intero gruppo di siti ed il sito madre fra i risultati delle ricerche.

In questi termini, suggerisco sempre di non costruire siti satellite e network chiusi (su stesse classi di indirizzi IP, con stessi proprietari, etc.) ma di realizzare un vero e proprio gruppo di siti autonomi che trattano in modo dettagliato argomenti attinenti a quelli del sito madre (anche grazie all’espansione della query).

Ad esempio, tornando al nostro sito www.vendita-orologi.it, potrebbe essere interessante creare altri due siti, il primo che parla della gestione del tempo, mentre il secondo offre consigli pratici di tecniche di vendita. Naturalmente non ci dimenticheremo di linkare i siti appartenenti al network al sito madre, ma essendo autonomi e con contenuti validi, questi riceveranno links spontanei e potranno essere tranquillamente iscritti alle directory secondo la loro categoria di appartenenza, che essendo a tema con gli argomenti trattati dal sito principale, lo aiuterà a migliorare il posizionamento.

SCAMBIO ED ACQUISTO DI LINK

Sistemi di promozione che scoraggio di utilizzare, non solo perché sconsigliati nelle linee guida di Google, ma soprattutto perché vincolano il posizionamento del sito a link non duraturi nel tempo se non rinnovando il canone annuale.

Ad ogni modo, per completezza d’informazione, quando si vuole acquistare e/o effettuare scambi links con altri siti, è sempre consigliato valutare:

  • 1 – Prediligere siti che vendono links poco visibili nelle pagine interne, senza scritte come: “Collegamenti sponsorizzati” oppure “Sponsor” etc. Questo perché in vista delle nuove politiche di Google, i siti che espongono links in vendita sono facilmente rintracciabili con software automatici
  • 2 – Autorevolezza (Trust) della pagina/sito. Visto che il Trust non è un valore prestabilito (nè tanto meno visibile ai webmaster), possiamo intuire e dedurre l’autorità di un sito verificando:
  • A – Presenza del sito su directory rilevati (come Dmoz e Yahoo Dir.)
  • B – Pagerank della pagina, anche se ormai questo valore non è più utilizzato per la definizione del ranking, è pur sempre un buon indice di popolarità
  • C – Quantità e qualità dei link in entrata: più link una pagina riceve, più questi provengono da siti importanti, tanto maggiore sarà il Trust del sito stesso
  • D – Quantità e qualità dei links in uscita, al contrario del punto precedente, se la pagina contiene oltre i 20 links a siti esterni il suo Trust si abbassa. Da evitare siti che linkano a risorse SPAM, Adult, Gambling e Pharmacy
  • E – Anzianità del dominio, più il sito è anziano più questo sarà considerato importante dal motore di ricerca
  • F – Tematicità della pagina/sito contenente il nostro link, ricevere links a tema, come sappiamo bene, è molto meglio che riceverne da pagine che trattano altri argomenti
  • G – Tematicità del dominio nel tempo, meglio se il dominio nella sua storia ha trattato solamente un argomento (per scoprirlo si possono usare tool gratuiti come: http://webarchive.org/)
  • H – Posizione nel sito in SERP per determinate parole chiave che intendiamo “spingere”, infatti se Google mette la pagina che vende link fra i primi 20 risultati significa che questa (vista la sua posizione) ha comunque un buon trust relativo a quella keywords
  • 3  – Evitare siti penalizzati e/o bannati. Per scoprire se un sito è vittima di penalizzazioni o BAN, rimando ad un semplice, ma completo, articolo sul mio blog: http://tinyurl.com/barnato
  • 4 – Diffidare da link non diretti, che utilizzano Javascript, Redirect o l’attributo “nofollow” nel tag <a href>. Infatti, se l’obiettivo è quello di trarre giovamento nel posizionamento organico dall’acquisto/ scambio link, queste funzioni inibiscono lo spider ed il backlink perde il suo valore (per quanto riguarda i motori di ricerca).

IL RANKING DI GOOGLE: TRUSTRANK

Ho già anticipato nei paragrafi precedenti la parola Trust, per identificare l’autorevolezza (quindi l’importanza) di un sito per i motori di ricerca.

In particolar modo, Google ha sviluppato un algoritmo in grado di valutare questa “Forza” e creando il Trustrank.

La logica di base (non certo la tecnologia) è piuttosto semplice, ed ho cercato di illustrarla in questi due articoli (pubblicati sul mio blog – http://tinyurl.com/vecchiaidea, del quale riporto le parti salienti):

[…]

Partiamo dal concetto che se non si conosce una cosa, che sia un oggetto, una parola od una persona, è naturale cercare di accostarla a qualcosa che invece conosciamo molto bene, facciamo alcuni esempi:

[…]

  • una persona estranea, se non la possiamo conoscere di persona per lungo tempo e dobbiamo valutarne l’affidabilità in modo pressoché immediato, ricercheremmo informazioni sulla reputazione, da fonti che conosciamo bene, delle quali ci fidiamo e che per noi godono di una buona reputazione. In questi termini è possibile valutare una persona senza conoscerla direttamente.

Prendiamo come esempio calzante, quest’ultimo relativo alla conoscenza ed alla valutazione di una persona a noi estranea (un po’ come Google con tutti i nuovi siti internet trovati in rete).

Quindi, come detto in precedenza il nostro pregiudizio (visto nel significato “buono” del termine) si affida ad un vecchio ma alquanto veritiero proverbio: dimmi con chi vai e ti dirò chi sei!

In questi termini, Google ha modificato negli ultimi mesi (circa un paio di anni) il suo algoritmo di ranking, prima quasi esclusivamente basato sui fattori on-page (contenuti nel sito e controllati in toto dal web-master) passando ad un sistema più democratico, tenendo quindi molto in considerazione i fattori off-page: in primis quello della reputazione che scaturisce da tutti componenti della rete, in modo particolare da quelli che Google conosce ai quali ha già attribuito un giudizio ed un valore d’importanza.

[…]

Ma come fa Google a capire che reputazione ha un sito?

In effetti, la domanda sorge spontanea… e la risposta è molto semplice: tramite i backlink (collegamenti ipertestuali fra una pagina e l’altra nel web). In questi termini, se una pagina riceve un link da un’altra, significa che quest’ultima ha espresso un giudizio positivo verso i contenuti della pagina che riceve il link. Quindi più una pagina riceve link più questa gode di una buona reputazione.

[…]

Articolo 2:

http://tinyurl.com//nv37gy

[…]

Mediante l’introduzione del TrustRank, un nuovo algoritmo in grado per l’appunto, di valutare la qualità di ogni singolo sito, in funzione di caratteristiche ed attributi che vedremo fra poco.

[…]

il punto di partenza sono alcuni siti considerati importanti oppure SPAM da Google: i siti con elevato trust vengono chiamati HUBS oppure SEEDS […] potremmo soffermare la nostra attenzione sull’aspetto e le possibilità di trasmissione del Trustrank da un sito ad un altro.

A tal proposito, vorrei sottolineare il fatto che, al contrario del Pagerank, il Trustrank non è un valore attribuito in funzione di una precisa funzione matematica ad una singola pagina, ma all’intero sito. Da questa affermazione quindi possiamo dedurre che il Trustrank è un valore qualitativo (non definito) che Google attribuisce ad un dominio.

[…]

Concludendo, attualmente circa l’80% del posizionamento su Google è determinato da questo algoritmo pertanto ogni singola informazione, deduzione ed intuizione di questo può rivelarsi vincente in una strategia di promozione organica. I consigli sono sempre gli stessi: buoni contenuti, una “sana” promozione on-line e di linkbuiling, ma soprattutto un augurio che ricorda tanto gli anni 80: che il Trustrank sia con te e con il tuo sito!

I FATTORI PIU’ IMPORTANTI DI UN BACKLINK

Anche in questo caso, ho già anticipato qualcosa nella sezione “acquisto link” ad ogni modo, vedremo nel dettaglio quali sono le caratteristiche che permettono ad un links di dare la maggior spinta possibile. Naturalmente, questi fattori sono elencati in ordine di importanza decrescente e prevedono che il links sia proveniente da pagine Trust o comunque non penalizzate o Bannate (valgono le stesse indicazioni date per la scelta dei links in vendita):

  • 1 – Anchor Text del link, in pratica è la parola chiave cliccabile del nostro backlink. Ad esempio, se intendiamo posizionarci per la parola chiave “Vendita orologi”, un link con anchor text Vendita Orologi al nostro sito avrà maggior spinta rispetto ad un link semplice che utilizza il nome di dominio come ancora.

Consiglio comunque di non abusare di questa tecnica (vedi GoogleBombing) con ripetizioni della sessa keyword ma di utilizzare differenti anchor text che contengano ad ogni modo le parole chiave per le quali si desidera posizionare la pagina. Ecco i due esempi:

Ottimizzato:

<a href=”http://www.vendita-orologi.it/”>Vendita Orologi</a>

Non Ottimizzato:

<ahref=”http://www.vendita-orologi.it/”>www.venditaorologi.it</a>

  • 2 – Tematicità del link, è l’ennesima ripetizione, ma il tema attinente dei backlinks è davvero importante ed alla base del posizionamento organico. Esempio:

Ottimizzato:

Backlink a vendita-orologi.it proveniente da un portale sulla gestione del tempo (time manager).

Non Ottimizzato:

Backlink da un portale che parla di Floricoltura

  • 3 – Qualità del link, importante ricevere link da siti Trust. Comunque non penalizzati, bannati, SPAM, etc. etc.
  • 4 – Presenza dell’attributo alt se il link è contenuto in un’immagine. Difatti gli effetti sono quasi totalmente paragonabili a backlinks testuali con anchor text ottimizzata.

Consiglio sempre e comunque di non abusare di questa tecnica con ripetizioni troppo assidue di keywords, ma di utilizzare questa opportunità per espandere ulteriormente la query con altre parole chiave attinenti ed utili all’utente.

Ottimizzato:

<ahref=”http://www.vendita-orologi.it”><img src=”/images/logo.jpg” alt=”Vendita di orologi da polso” /></a>

Non Ottimizzato:

<ahref=”http://www.vendita-orologi.it”><img src=”/images/logo.jpg”/></a>

  • 5 – Età del backlink, un link vecchio e duraturo nel tempo, ha più autorevolezza rispetto ad un link volatile

MANTENIMENTO LA STORIA SI RIPETE

Bene, abbiamo raggiunto, grazie all’ottimizzazione ed alla promozione del nostro sito, buoni risultati in termini di visibilità sui motori di ricerca. Ed ora che si fa? Abbiamo finito?

Certo che NO! Infatti dobbiamo mantenere i posizionamenti raggiunti e cercare di migliorarli sempre più man mano che il tempo passa. Questo perché, prima o poi succede, i siti dei concorrenti crescono e la mancanza di interventi correttivi e migliorativi di promozione, il sito sarebbe destinato a scendere progressivamente fino a sparire dalle posizioni utili (prime tre pagine).

Allora che fare? Qui la storia si ripete, nel senso che si continua a:

  • ottimizzare le nuove pagine
  • creare contenuti sempre più utili ed originali
  • trovare nuove parole chiave “a tema” per cui posizionare il sito
  • incrementare la propria polarità con le attività sopra descritte (o magari meglio ancora inventandosi un modo simpatico ed ingegnoso per raccogliere sempre più link da altri siti a tema)
  • monitorare la situazione per analizzare i risultati ottenuti ed elaborare continuamente nuove strategie di crescita del sito (soprattutto dal punto di vista degli utenti senza tralasciare naturalmente i concetti SEO fin qui acquisiti)

CONTROLLO

Come anticipato nei paragrafi precedenti, vi sono alcuni comandi che i motori di ricerca mettono a disposizione dei Webmaster per il controllo di alcuni fattori fondamentali per il posizionamento di un sito internet.

IL COMANDO “SITE:”

Questo comando, identico per tutti i principali motori di ricerca (Google, Yahoo, MSN-Live), serve per vedere quante e quali pagine il motore ha indicizzato nei propri database.

L’utilizzo è molto semplice, basta effettuare una ricerca scrivendo: site:nomedominio.it

oppure

site:nomedominio.it/pagina-da-verificare.html

(per controllare se una specifica pagina è presente nell’indice)

Questo ci permette di valutare se dobbiamo “spingere” o addirittura “forzare” l’indicizzazione di determinate sezioni o pagine del nostro sito.

IL COMANDO “LINK:”

Per questa impostazione di ricerca, che permette di visualizzare i backlinks che un sito riceve, i 3 motori di ricerca hanno preso differenti strategie.
Vediamole nel dettaglio:

1) GOOGLE

Sintassi comando: link:nomedominio.it

Risultati mostrati: Frammentari, non aggiornati e randomizzati. In pratica questo comando in Google non è attendibile perché non mostra tutti i backlinks e l’aggiornamento di questo elenco avviene solitamente con l’export del PR (quindi ogni 3-4 mesi).

Altre soluzioni: Probabilmente per le troppe richieste giornaliere con questo comando, Google ha preferito sospendere l’aggiornamento dei BL risultanti, ma ha comunque fornito all’interno del Webmaster Tool uno spazio approfondito per i link esterni che ogni singola pagina del sito riceve. Attualmente questo è il sistema di rilevazione dei backlinks più affidabile (sembra che li conteggi davvero tutti, anche se con aggiornamenti settimanali ed a volte con ritardi mensili). Qui vengono rilevati tutti i collegamenti esterni al sito, anche link non diretti, alcuni javascript e con l’attributo nofollow.

2) YAHOO!

Sintassi comando: linkdomain:www.nomedominio.it site:www.nomedominio.it

Risultati mostrati: Abbastanza affidabili ma aggiornati con la stessa velocità di indicizzazione di Yahoo (molto lentamente).

Altre soluzioni: Yahoo Site Explorer – Attivabile con la stringa: link:www.nomedominio.it

Sembra indicare tutti i backlinks rilevati da Yahoo (anche quelli con attributi “nofollow”).

MIGRAZIONE

A volte è indispensabile spostare oppure rinominare le pagine del proprio sito internet. Questo succede quando una pagina non è più attuale e va sostituita, oppure semplicemente quando si cambia CMS (Content management system) e non è possibile eseguire un Mod-Rewrite tale da non modificare le URL delle pagine.

A tal proposito, per non perdere il lavoro di posizionamento realizzato sulle vecchie pagine, soprattutto in termini di popolarità, occorre adottare una soluzione che ci permetta di dire al motore di ricerca che quella pagina web non esiste più ma che è stata spostata, rinominata oppure sostituita da una nuova pagina.

Ciò è possibile effettuando un reindirizzamento permanente dalla pagina vecchia a quella nuova (o alla nuova posizione). Questa funzione si chiama Redirect 301 (dove 301 identifica la tipologia “Permanente” di redirect, mentre se fosse uno spostamento temporaneo occorre usare il codice 302).

Abbiamo detto che è fondamentale, per non perdere la popolarità acquisita nel tempo di una pagina (e quindi anche il suo Pagerank), reindirizzare in modo permanente la vecchia URL a quella nuova con un Redirect 301 (HTTP 301 “Moved Permanently”). Naturalmente, questa tipologia di operazione è differente per ogni linguaggio di programmazione con il quale il sito è scritto e dalla tipologia di server sul quale risiedono le pagine web.

REDIRECT 301 LATO SERVER (LINUX)

Il reindirizzamento su un server Linux, si può implementare nel codice PHP ed ASP delle pagine oppure direttamente nel file htaccess. Vediamo ora linguaggio per linguaggio come effettuare in modo corretto il 301:

1) PHP

<?
Header( “HTTP/1.1 301 Moved Permanently” );
Header( “Location: http://www.nomedominio.it/nuova- paginadestinazione.php” );
?>

2) ASP

<%
Response.Status=”301 Moved Permanently” Response.AddHeader “Location”, ” http://www.nomedominio.it/nuovapagina-destinazione.asp” %>

3) ASP.NET – C#

private void Page_Load(object sender, System.EventArgs e) { Response.Status = “301 Moved Permanently”; Response.AddHeader(“Location”,” http://www.nomedominio.it/nuovapagina-destinazione.aspx”); }

4) ASP.NET – VB

Private Sub Page_Load(object sender, System.EventArgs e) Response.Status = “301 Moved Permanently”; Response.AddHeader(“Location”,” http://www.nomedominio.it/nuovapagina-destinazione.aspx”); End Sub

5) Coldfusion

<CFHEADER statuscode=”301″ statustext=”Moved Permanently”> <CFHEADER name=”Location” value=” http://www.nomedominio.it/nuovapagina-destinazione.ext”>

6) Perl

#!/usr/bin/perl -w

use strict;

print “Status: 301 Moved Permanantly\n”;

print “Location: http://www.nomedominio.it/nuova-pagina- destinazione.ext \n\n”;

exit;

Invece, per quanto riguarda la modifica del file .htaccess: FILE .htaccess

Redirect permanent http://www.nomedominio.it/vecchia-pagina.html http://www.nomedominio.it/nuova-pagina-destinazione.ext

META REFRESH A ZERO SECONDI (LATO USER/SERVER WINDOWS)

In alcune circostanze, soprattutto quando il sito risiede su una macchina Windows, il redirect lato server, potrebbe essere proibitivo oppure richiedere molte ore di programmazione Si può attuare il così detto “Redirect dei Poveri” tramite il meta refesh impostato a 0 (zero) secondi. Ecco la sintassi corretta di questo meta tag, che deve sostituire integralmente i contenuti della vecchia pagina:

<head>

<meta http-equiv=”refresh” content=”0;url= http://www.nomedominio.it/nuova-pagina-destinazione.ext” />

</head>

IMPORTANTE: assicuratevi che la pagina vecchia presenti solamente quella porzione di codice relativa al redirect e nient’altro (title, description, body, etc.) in quanto, i motori di ricerca se la pagina presenta altri contenuti, reputano la pagina una doorway con reindirizzamento automatico (il che vorrebbe dire essere prima o poi bannati).

DA EVITARE

Vi sono alcune cose che un SEO dovrebbe sempre evitare nelle sue azioni di ottimizzazione e promozione: vediamo quali sono.

SOVRAOTTIMIZZAZIONE

Come ripetuto nel paragrafo dedicato all’ottimizzazione delle pagine web, abusare di tutte le tecniche di ottimizzazione può essere controproducente al posizionamento del sito.
Assolutamente da evitare:

  • Ripetizioni assidue di parole chiave (keyword stuffing)
  • Utilizzo delle tecniche di ottimizzazioni simultaneamente e sempre per le stesse keywords
  • Abusare degli attributi “alt” delle immagini e dei “title” dei links
  • Eccedere nel numero di links interni con le stesse parole chiave

Piuttosto occorre misurare sapientemente ogni ottimizzazione implementandola con l’utilizzo dell’espansione della query (vista precedentemente).

SITI CON FRAME

Per la loro natura di “scatole cinesi”, queste tipologie obsolete di siti, non sono molto gradite ai motori di ricerca, perché non permettono allo spider di indicizzare tutti i contenuti delle pagine. Difatti, anche solo navigando in un sito realizzato con i frame, la url di navigazione visibile all’interno del browser invariata.

In pratica, è inutile ottimizzare pagine interne se queste non sono raggiungibili dallo spider e quindi indicizzabili.

CLOAKING

Si tratta di una tecnica di reindirizzamento estremamente pericolosa perché, se scoperta, porta all’esclusione diretta del sito dagli indici (almeno per quanto riguarda Google). Vediamo nel dettaglio come funziona per poterle evitare e magari segnalare il comportamento scorretto a Google. Praticamente vengono realizzate due differenti pagine, una per gli utenti ed una ottimizzata per i motori di ricerca. La prima, naturalmente avrà caratteristiche di layout inerenti al sito, mentre la seconda sarà studiata esclusivamente per raggiungere un ottimo posizionamento sui motori di ricerca, tanto gli utenti “non la potranno mai vedere”.

In questi termini, viene realizzato uno script che in funzione di chi richiede la pagina, fa visualizzare una o l’altra pagina. Questo avviene perché questo software è in grado di riconoscere se chi tenta di accedere alla pagina è uno spider (tramite riconoscimento dell’indirizzo IP).

Così facendo, mostra la pagina ottimizzata allo spider che la indicizza e la posiziona in SERP, mentre se un utente richiede la stessa pagina vede quella effettiva del sito. Seppur ad occhio nudo, questa tecnica è difficile da individuare lo si può fare analizzando i contenuti dalla pagina indicizzata e la copia cache che Google ha archiviato nei propri database. Vi sono tecniche ancora più evolute di Cloaking, ma per questo occorre una guida alle tecniche Black-Hat SEO.

DOORWAYS

Anche questa tecnica è stata bandita da tutti i motori di ricerca e consiste nel creare una pagina ottimizzata che re-indirizza in modo automatico ad un’altra pagina. In pratica, il motore indicizza una pagina e quando l’utente vi accede, questo viene re-indirizzato su altri contenuti di un’altra pagina web.

Questa tecnica viene effettuata con sistemi di reindirizzamento del tutto simili a quelli indicati precedentemente per il 301 e, al con orario del Cloaking, è facilmente individuabile in quanto ci potrebbero essere ritardi nel reindirizzamento e ad ogni modo, la barra di navigazione non mostra la url del link presente e posizionato sul motore di ricerca.

TESTI E CONTENUTI NASCOSTI

Vi sono moltissimi modi per nascondere del testo ottimizzato all’interno di una pagina, in modo tale da renderlo visibile solamente agli spider e trarne un vantaggio in termini di posizionamento (senza dover stravolgere il layout del sito).

Non sarà certo in questa sede che parlerò di queste tecniche, perché naturalmente le sconsiglio tutte in quanto possono portare a forti penalizzazioni o addirittura a ban del dominio.
Bisogna sempre tener presente che il motore esige la massima trasparenza, cioè ciò che vede lui lo devono vedere anche gli utenti (questo non scordarlo mai).

ACQUISTO/SCAMBIO LINKS

Ormai da qualche mese Google ha dichiarato espressamente guerra a tutte le forme di linking volte a migliorare il posizionamento nei propri indici in modo non naturale. Fra queste tecniche in primis vi sono:

  • Scambio links: non partecipare a nessun circuito di scambio link e ricordati di non esasperare queste forme di collaborazione con decine e decine di siti partner (anche se io consiglio sempre di ottenere link unilaterali, se ci si limita a 2 o 3 scambi i rischi di penalizzazioni si riducono drasticamente)
  • Acquisto di link: è una tecnica che francamente non ho mai utilizzato, nemmeno quando non andava contro le linee guida di Google (naturalmente se il link è valido per il ranking), perché la ritengo non efficace a lungo termine, difatti i posizionamenti raggiunti con questa tecnica sono perennemente dipendenti dal pagamento mensile o annuale di questi backlinks. In questi termini, il sito non si accresce veramente ed il lavoro SEO si limiterebbe a far da tramite fra chi vende e chi compra i links. Negli ultimi tempi, Google si è limitato a penalizzare il Pagerank dei siti che vendono link, in modo da screditare e scoraggiare l’utilizzo di questa tecnica.

Molto probabilmente, quando riuscirà ad identificare se un link è spontaneo oppure acquistato, passerà anche a penalizzare direttamente in SERP chi vende (sicuramente) e chi acquista (forse) links.

IMPLEMENTAZIONE TROPPO RAPIDA DEI BACKLINKS

Aumentare in modo esponenziale in un breve lasso di tempo i propri backlinks, può essere estremamente controproducente.

Naturalmente si parla di decine di migliaia di links ottenuti in pochi giorni e da siti differenti.

Questo perché difficilmente un sito riceve in un solo giorno 10.000 links spontanei, se non mediante l’utilizzo di tecniche black-hat come, ad esempio, il blog spamming (software automatizzati che vanno ad inserire commenti e links sui blog di mezzo mondo) e Google lo sa benissimo (penalizzando il sito).

In questi termini consiglio, oltre a spalmare nel tempo le proprie attività di link building, di variare sempre le anchor text dei links e di promuovere non solo l’homepage ma anche le pagine interne.

RICEVERE LINKS DA RISORSE SPAM, PENALIZZATE O BANNATE

In effetti questo punto è molto difficile da gestire, in quanto non dipende direttamente dal SEO, ma da altri webmaster esterni al progetto. Ad ogni modo, è buona norma controllare periodicamente i backlink e segnalare a Google eventuali Spam Engine per far si che vengano rimossi. Invece, nel caso si ricevano backlinks da risorse penalizzate o bannate (differenti dagli SPAM Engine) consiglio sempre di contattare il proprietario del sito e richiedere l’eliminazione dei links.

Naturalmente questo non significa che per abbattere un competitor basti linkarlo da un sito bannato o penalizzato (sarebbe troppo facile), ma se queste operazioni non sono tenute sotto controllo (cioè si ricevono centinaia o migliaia di links da risorse spam) è possibile incappare in qualche penalizzazione o fluttuazione nelle serp di Google.

LINKARE RISORSE SPAM, PENALIZZATE O BANNATE

In questo caso, invece, è direttamente il SEO che decide quali e quanti siti linkare all’interno delle proprie pagine. Per tanto consiglio sempre di verificare che le risorse da linkare non siano considerate SPAM dai motori di ricerca.

Infatti, Google considera che solo un sito SPAM può linkare un altro sito Spam o bannato. In certi casi, anche un solo link ad un sito bannato genera il BAN del sito linkante.

Stessa situazione di penalizzazione l’ho riscontrata, in funzione delle mie esperienze personali, se si linkano siti penalizzati in SERP.

Per concludere, occorre sempre monitorare i propri outboundlinks perché una risorsa utile potrebbe facilmente trasformarsi in una risorsa SPAM.

DUPLICAZIONE DI CONTENUTI SENZA LINK DI RITORNO

Questa a mio avviso è una delle piaghe più difficili da superare per il web, difatti è pratica comune di molti webmaster fare copia ed incolla per generare in breve tempo i contenuti delle proprie pagine. Niente di più scorretto sia a livello giuridico (diritti sul copyright) sia per i motori di ricerca (Google in particolare) che, nel migliore dei casi non indicizzano il contenuto ma che potrebbero penalizzare l’intero sito per duplicazione di contenuti.

Ciò non significa che nei nostri siti non possiamo riprodurre altri contenuti (con le dovute autorizzazioni) per i nostri utenti, ma dobbiamo farlo nell’unico modo corretto: lasciando invariati i contenuti ed inserendo un link di ritorno alla risorsa originale.

Posizione Sul Post 100%

[/sociallocker]

THE END

Eccoci arrivati alla fine di questa quarta e ultima parte della mia guida completa sull’ottimizzazione sui motori di ricerca. Abbiamo finalmente completato questo vero e proprio manuale SEO. Se desideri essere informato dei prossimi post che usciranno, ti invito a iscriverti alle NEWSLETTERS con il modulo qui sotto.

Spero che anche questo articolo ti sia stato di aiuto per iniziare a comprendere questo vasto argomento quale è il SEO. A tal proposito ti invito a condividerlo sui tuoi social network utilizzando i tasti qui sotto, e magari a scrivere un commento a riguardo. Così facendo mi saresti di grande aiuto sostenendo il Blog.