Motori Di Ricerca Seo Ottimizzazione

Motori Di Ricerca | Guida Seo Parte 03 – Ottimizzazione

INTRODUZIONE

Il web marketing ha come punto di riferimento la promozione sui motori di ricerca, in quanto questi generano oltre l’80% del traffico su internet. Gli investimenti in questa forma promozionale (detta SEM – Search Engine Marketing) possono essere eseguiti in due diversi modi:

  •  Promozione in PAY PER CLICK
  •  Posizionamento organico nei motori di ricerca

La prima è gestita direttamente dai motori di ricerca che fanno comparire i link al tuo sito fra i collegamenti sponsorizzati, mentre la seconda consiste nel posizionamento dei link al tuo sito fra i risultati “naturali” (organici) del motore (solitamente 10 posizioni per pagina).

Questo documento è dedicato a chiunque sia interessato al mondo SEO (search engine optimization) e web marketing. A chi si affaccia per la prima volta in questa affascinante professione oppure ad esperti che vogliono trovare nuovi spunti e punti di confronto.

COSA IMPARERAI?

A scegliere le migliori parole chiave, ottimizzare, migliorare e posizionare il tuo sito sui principali motori di ricerca, Google in Primis. Scoprirai quali sono i fattori più importanti che determinano “attualmente” il posizionamento ed alcuni suggerimenti pratici su come amplificarli per scalare il ranking e raggiungere la vetta. Capirai quanto importanti sono il web marketing e soprattutto gli utenti

DIFFERENZE FRA MOTORI DI RICERCA E DIRECTORY

La differenza sostanziale fra un motore di ricerca ed una directory (lista di siti) è la fase di raccolta dei siti in essi contenuti ed archiviati (indicizzazione), difatti i primi utilizzano appositi software (detti SPIDER o ROBOTS) per individuare ed archiviare i siti ed i loro contenuti.

Al contrario una directory è composta da siti inseriti manualmente da editori che generalmente ne indicano un solo link ed una descrizione che molte volte non è contenuta all’interno del sito.

A tal proposito, l’indicizzazione sui motori di ricerca risulta indubbiamente più rapida (automatizzata) rispetto a quella manuale eseguita dagli editori delle directory.

In questi termini il motore è molto più soggetto allo SPAM rispetto ad una directory in quanto, fino ad oggi, è molto più facile ingannare un algoritmo o comunque una macchina rispetto ad una persona in carne ed ossa (per fortuna!).

Inoltre il sistema di ordinamento dei risultati è sostanzialmente differente: mentre le directory sono organizzate in categorie e sottocategorie ed ordinate alfabeticamente (o comunque con sistemi ordinati prestabiliti), nei motori di ricerca l’ordinamento viene eseguito esclusivamente quando il motore viene interrogato con una nuova frase di ricerca (query).

Quindi, sintetizzando:

MOTORI DI RICERCA = Indicizzazione automatica, velocità di inserimento, complessità di calcolo in fase di ordinamento (ranking), pericolo di SPAM

DIRECTORY = Indicizzazione manuale, lentezza di inserimento, scarsa o nulla capacità di calcolo in fase di ordinamento per meritocrazia, SPAM quasi del tutto assente.

TARGET, MERCATO E OBIETTIVI DEL PROGETTO

Prima di intraprendere qualsiasi azione, sia di marketing sia nella vita di tutti i giorni, occorre definire al meglio gli obiettivi che intendiamo raggiungere. Solo in questo modo, cioè avendo ben chiaro il nostro “scopo” potremmo studiare ed adottare tutte le soluzioni per raggiungere le nostre aspirazioni.

Nello specifico, parlando della promozione di un sito sui motori di ricerca, dobbiamo capire che un buon posizionamento è un mezzo per raggiungere qualcosa e/o qualcuno; non è assolutamente da confondersi con l’obiettivo finale del progetto internet.

Infatti, se vogliamo maggior visibilità non è per lodarci ma perché questa ci permette di poter vendere i nostri prodotti, raccogliere sempre più utenti attivi, incrementare gli introiti pubblicitari, etc.

Pertanto, come prima cosa per iniziare col giusto piglio attività di promozione on-line di un sito internet occorre definire questi 3 punti fermi, rispondendo a queste “semplici” domande:

• Obiettivo: qual è la mia motivazione?
• Target: a chi mi sto rivolgendo?
• Mercato: che lingua parlano i miei utenti?

E se il sito ha più scopi? Solitamente è consigliabile concentrare le proprie energie su pochi obiettivi alla volta, quindi l’ideale è raccoglierli tutti ed ordinarli per priorità, quindi scegliere i primi due o tre al massimo (fra quelli con priorità maggiore).

STUDIO DELLA CONCORRENZA

Grazie alla definizione degli obiettivi e riferimenti visti nel punto precedente, sarà possibile identificare i nostri competitors di settore con semplici interrogazioni ai motori di ricerca, per parole chiave che (al momento) riteniamo si addicano al nostro caso ed alla promozione on-line.

In particolar modo, solitamente è bene analizzare i primi 5 siti posizionati su Google proprio per quelle keywords (ed altre… basta cercare sinonimi oppure prodotti similari/annessi).

Di questi è fondamentale raccogliere informazioni riguardanti:

DATI DI CONTENUTO

• Contenuti proposti: quali informazioni vengono date agli utenti?
• Impostazione grafica e layout: questo più che altro serve per il web marketing e carpire come il competitor si pone al target di riferimento • Servizi offerti all’utente: forum, blog, interazione, chat, supporto tecnico, etc.

DATI TECNICI DI POSIZIONAMENTO

Struttura del tag title: in che modo è scritto o viene composto il titolo di ogni pagina? Successivamente vedremo perché questo tag è importante così come il meta description

  • Composizione delle url e dei link interni: gli indirizzi delle pagine non contengono parametri e presentano una struttura a directory? Se sì, il sito è stato concepito con url search engine friendly, ciò denota già una minima conoscenza SEO.
  • Pagerank della pagina: non perché il PR (abbreviativo di Page-Rank) sia importante ai fini del posizionamento, ma è comunque un parametro in più di valutazione della popolarità della pagina
  • Link popularity del sito: questa è facilmente misurabile con un semplicissimo comando di ricerca eseguito su Yahoo (purtroppo questo comando su Google non è più attendibile ormai da oltre un anno). Ecco il comando:

Questa stringa restituisce un dato abbastanza attendibile di quanti link il sito competitor riceve (basta guardare in alto a destra il numero dei risultati trovati).

  • Parole chiave utilizzate nel meta keywords e nel titolo della pagina: questo serve esclusivamente per “scoprire” altre parole chiavi che il competitors ha scelto per la proposta dei sui servizi.

ATTENZIONE, questo non significa che il meta keywords sia importante per il posizionamento (anzi, come vedremo in fase di OTTIMIZZAZIONE, questo meta è nel migliore dei casi ignorato dai motori di ricerca principali).

Con ciò abbiamo una panoramica generale del Mercato, infatti abbiamo definito gli utenti ed analizzato l’attuale offerta, fornita dai nostri competitors, che soddisfa questi navigatori.

SCELTA DELLE PAROLE CHIAVE

Già qualcosa è stato anticipato nei punti precedenti, ma ora si fa sul serio, infatti questa fase di definizione delle parole chiave è fondamentale e condiziona in modo sostanziale l’esito della promozione ed il raggiungimento degli obiettivi prefissati.

A questo punto, quali sono le parole chiave con le quali posizionarsi?

  • Quelle che generano più visite.
  • Quelle più semplici da posizionare.
  • Quelle utilizzate da tutti e dai miei competitors.

Nessuna di queste risposte è corretta. Difatti, le keywords migliori sono quelle che ci permettono di raggiungere al meglio gli obiettivi che ci siamo preposti, con un buon compromesso fra gli investimenti da sostenere ed i risultati raccolti (ROI – Ritorno dell’investimento).

In questi termini, le parole chiave ideali sono quelle che risultano essere le più ricercate, che portano il maggior numero di risultati e con livelli di concorrenza non elevati (dove è più facile ottenere il posizionamento e mantenerlo nel tempo).

Dove trovare ispirazione per la ricerca delle giuste parole chiave:

  • Analisi della concorrenza: come visto in precedenza
  • Suggeritori di parole (i migliori a meno di link aggiornati):

– Google Keyword Tool External
– Yahoo: http://www.inventory.overture.com
– SEO-Book: http://tools.seobook.com/general/keyword

Questi permettono di ottenere anche un’idea di concorrenza (basata su quella del Pay per Click) e dei volume di ricerca (da prendere sempre con le pinze).

  • Espansione della query: questa tecnica permette di vedere come il motore associa determinate parole chiave ad altre similari oppure sinonimi. Per trovare nuove parole basta usare l’operatore ‘ ~ ’ prima della parola chiave e sottraendo di volta in volta le parole evidenziate da Google.

Ad esempio: se vogliamo trovare l’espansione della query della keywords “web”, ricerchiamo in Google questa stringa: ~web –web (espandiamo query per “web” ed eliminiamo tutti i risultati che contengono “web” per far emergere gli altri termini).

Ora non ci resta che sottrarre la parola evidenziata, cioè “Webb” (con due ‘B’), riscrivendo la query in questo modo: ~web -web –webb fino a quando non verranno più visualizzati i risultati. Al termine, tutti i termini sottratti sono l’espansione della query relativi alla prima parola cercata ed analizzata (in questo caso Webb è un’espansione di Web).

  • Chiedere direttamente a persone “non addette ai lavori”: questo permette di valutare un campione di potenziali utenti e capire come effettuerebbero la ricerca per quel prodotto/servizio offerto dal sito
  • Immedesimarsi nell’utente medio
  • Escludere keywords non coerenti con il raggiungimento degli obiettivi: se vendiamo “Pere” è pressoché inutile dedicare energie per posizionarsi con “Mele”.

In ogni caso è preferibile scegliere parole chiave secondo lo schema piramidale, cioè partendo da quelle meno competitive e più specifiche / di nicchia, per due semplicissimi motivi:

  1. Stimolazione: cercare di posizionarsi subito per parole competitive richiede un grande sforzo ed è difficile vedere risultati nel breve-medio periodo. La mancanza di risultati concreti porta facilmente alla demotivazione.
  2. Costruzione più solida della visibilità basata anche sulla long tail (coda lunga). Questo significa che il posizionamento verrà sviluppato a step, proprio come si costruisce un muro mattone su mattone, passando da keywords poco competitive a parole chiave sempre più complesse e difficoltose ma basandosi sempre sui posizionamenti già raggiunti dalle precedenti parole.

SCELTA DEL DOMINIO IL NOME DEL SITO

Contrariamente a quanto molti pensano, inserire le parole chiave nel dominio incide in minima parte sul posizionamento dello stresso sui motori di ricerca (qualche hanno fa invece era quasi indispensabile). Quando si sceglie un nome di dominio, ci sono da considerare due aspetti, lato SEO e Web Marketing, quindi inserirvi le parole chiave scelte:

  • Maggiori possibilità di anchor text nei backlink favorevoli al posizionamento: questo argomento verrà approfondito maggiormente nella sezione apposita “I fattori più importanti di un backlink ai fini del posizionamento”. In parole povere se qualcuno inserisce nel proprio sito un link al nostro, anche se lo fa solo col nome di dominio, passa al link maggior tematicità e potenza per le parole chiave contenute per l’appunto nel dominio.
    Ecco un esempio per capire meglio la differenza:
    Parola chiave da promuovere: Vendita orologi
    http://www.oraforazio.it/ -> nome di dominio senza parole chiave http://www.vendita-orologi.it/ -> nome di dominio con parole chiave
    È facilmente intuibile che, nel caso i siti vengano linciati dall’esterno senza anchor text (testo cliccabile differente dal dominio), il secondo passa un’informazione in più al motore (anche non cliccandoci sappiamo già immaginare di cosa parlerà il secondo sito)
  • Maggior visibilità in SERP, cioè fra i risultati delle ricerche: difatti, è buona norma di tutti i motori evidenziare in grassetto le parole chiave ricercate fra i propri risultati, comprese quelle contenute nella url (indirizzo web) del link.

Chiarito questo concetto di base ora vediamo quali sono i fattori principali per la scelta del nome di dominio, ricordandoci sempre di non ragionare solo per i motori, perché i siti sono fatti per gli utenti, non per Google & Co. Eccoli:

  • Branding: non scordiamoci mai che il nome del dominio è il nostro biglietto da visita sul web, quindi scegliamolo in funzione della ragione sociale oppure dei marchi e dei prodotti.
  • Brevità e semplicità: questo permette al sito di essere più facilmente ricordato e quindi visitato
  • Estensioni, cioè ciò che viene dopo il nome del sito: quelle più comuni sono .it, .com, .net, .org… scegli quella che si addice meglio ai contenuti ed allo scopo del sito. Infatti si può chiaramente intuire che .it sta per Italiano, .com per Commerciale, .org per le organizzazioni, etc. Per tutelare l’immagine sul web, consiglio sempre di registrare tutte le estensioni principali, per evitare che cadano in mano a concorrenti o persone che potrebbero approfittarsi della notorietà del sito ufficiale.
  • Influenza al posizionamento: questo è l’ultimo parametro da seguire in funzione delle informazioni sopra indicate. Infatti, tengo a precisare che l’influenza diretta nell’avere parole chiave all’interno del dominio è prossima allo Zero: sono ben altri i fattori che determinano un buon ranking sui motori di ricerca.

OTTIMIZZAZIONE

Finalmente si parte con una delle fasi più interessati nel lavoro di un SEO, per strutturare al meglio un sito per i motori di ricerca.

OTTIMIZZARE UN SITO PAGINA PER PAGINA

Ricorda sempre che per ottenere il massimo posizionamento di una pagina

bisogna che questa sia ottimizzata per una o al massimo due keywords. Quindi occorre profilare e “nicchiare” il più possibile i contenuti del sito al fine di ottenere un effetto cipolla in grado di sviscerare in modo sempre più dettagliato l’argomento.

Esempio lampante sono le web directory, strutturate proprio a strati da macro categorie a micro-categorie molto profilate e di nicchia.

STRUTTURA HTML

Inutile dire, ma è comunque dovere precisare, che la struttura delle pagine deve essere:

  • Pulita, non deve contenere troppe ripetizioni di codice (attenzione quindi ai moduli dei form con campi di selezione a tendina, se ne vedono davvero di infiniti). Inoltre consiglio sempre di utilizzare CSS (fogli di stile) esterni, in modo da lasciare pulita ed ordinata la pagina • Semplice, per esempio è sconsigliabile l’uso di tabelle e sottotabelle, egregiamente sostituite dai layers (livelli).
  • Corretta, il codice HTML risultatane non deve contenere errori di grammatica (solitamente ci si scorda sempre di chiudere qualche TAG)

I TAG PIU’ IMPORTANTI

Veniamo ora alla costruzione di una pagina ottimizzata, analizzando punto per punto i tag più importanti al fine del calcolo del ranking (in ordine d’importanza):

  • Title TAG (<title></title>), non è altro che il titolo della pagina ed è il fattore on-page che incide maggiormente al posizionamento. Per questo motivo in questo tag andrà inserita la parola chiave primaria, scelta per il posizionamento della pagina. Anche la posizione della keywords nel titolo della pagina è importante infatti, anche se in modo marginale, nel calcolo del ranking, il motore tiene conto della prominenza della parola chiave rispetto a tutto il contenuto del tag title. La soluzione ottimale è scrivere titoli che contengano meno di 70 caratteri (spazi compresi) e non più di 10 parole.

Importante: scrivi titoli accattivanti che attirino l’attenzione degli utenti in modo da generare più click possibili (qui si parla di web marketing, non di SEO).

Ad esempio, per la nostra pagina dedicata alla vendita di orologi, un title corretto potrebbe essere questo: “Vendita orologi online a prezzi di fabbrica”.

Poi se si vuole far branding, si può tranquillamente aggiungere alla fine il nome di dominio (lo aggiungeremo in fondo e senza il “www.” per non perdere prominenza).

Come per ogni tag menzionato meglio evitare ripetizioni di parole chiavi (questa tecnica si chiama keyword stuffing ed è considerata SPAM da tutti i motori).

  • Header TAGS (<H1></H1>, <H2><H2>), rappresentano i titoli di paragrafo in una pagina HTML strutturata con testi introdotti da titoli di paragrafo. L’importanza di inserire in questi due tags la parola chiave è praticamente indifferente. Anche in questo caso creeremo intestazioni di paragrafo inerenti ai contenuti della pagina e che abbiano un senso per l’utente contenenti una sola volta la keywords principale nel tag H1 e la parola chiave secondaria nel tag H2.

Importante è non ripetere il tag H1 più di 2 volte all’interno della stessa pagina, mentre gli altri Header TAGS si possono ripetere a volontà (sempre con utilizzi appropriati). Tornando all’esempio del sito destinato alla vendita di orologi, potremmo realizzare una struttura del genere:

<H1>Vendita di orologi online, scopri le nostre promozioni</H1>

<p>Contenuto testuale riguardante la vendita di orologi… bla bla bla… </p>

<H2>Vendita diretta di orologi da polso</H2>

<p>Paragrafo dedicato agli orologi da polso (chiave secondaria di vendita orologi)…</p>

  • Struttura degli Header TAGS (<Hn></Hn>), questi tag visti nel punto precedente sono un valido aiuto al posizionamento se vengono organizzati e scritti in una struttura ottimale discendente, difatti i tag Header adottati dall’HTML sono sei (H1, H2, H3, H4, H5, H6). Anche in questi altri Hn possiamo inserire parole chiave secondarie e terziarie per spingere e rafforzare la chiave primaria, ma con metodo ed un struttura corretta, detta dalla corretta scrittura del codice HTML e dal buon senso.

Qui vediamo un esempio di struttura corretta (header in ordine decrescente):

<H1>Vendita di orologi online, scopri le nostre promozioni<H1>

<H2>Vendita diretta di orologi da polso<H2>

<H3>Orologi svizzeri di lusso<H3>

<H4>Orologi usati in buono stato<H4>

<H5>Quadranti in quarzo<H5>

<H6>Orologi da tavolo<H6>

Qui invece un esempio di struttura scorretta (header non ordinate):

<H2>Vendita diretta di orologi da polso<H2>

<H1>Vendita di orologi online, scopri le nostre promozioni<H1>

<H4>Orologi usati in buono stato<H4>

<H6>Orologi da tavolo<H6>

<H3>Orologi svizzeri di lusso<H3>

<H5>Quadranti in quarzo<H5>

Naturalmente è possibile realizzare strutture corrette in modo più complesso, l’importante è ricordarsi di avere una buona dose di contenuto per ogni paragrafo e di non ripetere il tag H1:

<H1>Vendita di orologi online, scopri le nostre promozioni<H1>

<H2>Vendita diretta di orologi da polso<H2>

<H3>Orologi svizzeri di lusso<H3>

<H2>Vendita diretta di orologi da polso<H2>

<H3>Orologi svizzeri di lusso<H3>

<H5>Quadranti in quarzo<H5>

<H3>Orologi svizzeri di lusso<H3>

<H5>Quadranti in quarzo<H5>

<H6>Orologi da tavolo<H6>

Purtroppo però, l’utilizzo di questi tag ha una contro indicazione cioè quella di “rovinare” il layout grafico della pagina. La soluzione è utilizzare i fogli di stile, in modo tale da modellare le intestazioni a piacimento e rendere gradevoli nella grafica della pagina. Anche qui attenzione a non trasformare un H1 (carattere molto grande) in un font di 1 pixel, perché anche questa tecnica potrebbe portare a penalizzazioni fra i risultati delle ricerche.

L’H1 è stato studiato per rappresentare il titolo di un paragrafo, quindi dev’essere ben visibile nella pagina.

  • Parola chiave nel testo del link, praticamente rendere cliccabile una parola chiave con un collegamento ipertestuale in questo modo: <a href=”http://www.vendita-orologi.it/”>Vendita orologi</a>
  • Parola chiave nei nomi dei file, dare nomi a file (pagine, directory, immagini, swf, etc.) utilizzando la keywords definita. Due esempi: <img scr=”vendita-orologi.jpg”>

<a href=”vendita-di-orologi.html”>anchor text</a>

<a href=”../vendita-orologi/pagina.html</a>

  • Tag per la formattazione del testo. Utilizzare i tag di formattazione del testo per evidenziare le parole chiave aiuta e facilita il posizionamento della pagina. In particolar modo, i tag più importanti a questo scopo sono, in ordine di rilevanza (anche se le differenze sono davvero minime):

<strong></strong> – Grassetto

<b></b> – Altro tag per il grassetto

<i></i> – Testo corsivo

<u></u> – Testo Sottolineato

<em></em> – Altro tag per testo corsivo

Naturalmente questi tag possono essere combinati fra loro per enfatizzare in modo più marcato le parole chiavi (ma è meglio non esagerare per evitare di creare testi poco leggibili per gli utenti).

  • Attributo ALT delle immagini, inserire le keywords nell’attributo Alt delle immagini, utilizzato per descrivere il contenuto delle figure per i browser testuali (gli spider sono testuali). Breve esempio:

<img scr=”nome-immagine.jpg” alt=”vendita orologi”>

Questo attributo acquisisce maggior valore, perché considerato come un’anchor text se l’immagine è un collegamento ipertestuale ad un’altra pagina/oggetto.

Questi i tag veramente indispensabili per ottimizzare una pagina web per il posizionamento nei motori di ricerca, ma non esagerare utilizzando tutte queste ottimizzazioni racchiudendole in un solo tag.

Esempio scorretto:

<b><i><a href=”../vendita-orologi/vendita orologi.html”>vendita orologi</a></i></b>

Quindi, ottimizza con buon senso, senza abusare mai nell’utilizzo di queste tecniche esasperando l’ottimizzazione del sito, il rischio è la penalizzazione per sovra-ottimizzazione.

I META TAG

Analizziamo insieme quali meta tag sono veramente importanti ai fini del posizionamento sui motori di ricerca:

  • Meta Tag ROBOTS, questo meta serve per “istruire” i robots (cioè gli spider che scansionano il sito internet) a fare oppure non effettuare determinate operazioni, definite da parametri.

La sintassi completa del Meta Robots è questa:

<META NAME=”robots” CONTENT=”Index, NoIndex, Follow, Nofollow, No archive”>

Vediamo ora nel dettaglio il significato di ogni attributo:

  • Index: la pagina può essere scansionata ed indicizzata sul motore
  • NoIndex: la pagina non dev’essere scansionata e quindi presente sul motore
  • Follow: si concede allo spider di seguire i link contenuti nella pagina e di ridistribuire il PageRank a questi collegamenti
  • NoFollow: divieto di visitare i link contenuti nella pagina e quindi evitare la re-distribuzione del PR
  • NoArchive: si vieta al motore di ricerca di archiviare una copia cache della pagina sui propri server Naturalmente, visto che uno spider è creato appositamente per indicizzare e seguire i link di una pagina, gli attributi Index e Follow sono totalmente inutili.

Mentre gli altri tre hanno un loro scopo, anche se a volte sono poco efficaci perché vengono ignorati da alcuni spider.

Come? Ed il meta KEYWORDS e DESCRIPTION, dove sono andati a finire?

Ho scritto un articolo sul mio blog che descrive come ottimizzare i meta tag: http://tinyurl.com/noyjht

A tal proposito, ecco un piccolo riassunto, indispensabile:

  • Meta Tag KEYWORDS, viene completamente ignorato da tutti gli spider dei motori di ricerca, quindi meglio eliminarlo totalmente dalle proprie pagine. Se questo non fosse possibile o si preferisse mantenere questo inutile tag, non scrivere più di 5-6 keywords e fare in modo che queste siano completamente attinenti al contenuto della pagina. L’abuso di questo tag potrebbe insospettire il motore oppure i QR (Quality Rater).
  • Meta Tag DESCRIPTION, non viene calcolato ai fini del calcolo del ranking, ma è importantissimo per il web marketing e la comunicazione nelle SERP. Questo perché se vengono ricercate parole chiave presenti nella description della pagina, questa verrà visualizzata fra i risultati del motore. Quindi in pratica, l’ideale è scrivere una descrizione della pagina incentivante ed accattivante, utilizzando le parole principali della promozione e senza superare i 150-200 caratteri totali.

Tutti gli altri meta tag sono completamente inutili al posizionamento, quindi non utilizzarli assolutamente per inserire parole chiave o altre diavolerie.

COMPOSIZIONE DELLE URL

Come anticipato prima, avere delle url contenenti le parole chiave può essere un fattore positivo al posizionamento ma non solo, se queste sono scritte in modo semplice e chiaro sono più facilmente indicizzabili dal motore e più leggibili ed efficaci in SERP.

Difatti, molti siti dinamici generano pagine con url molto lunghe e composte da molti parametri (solitamente divisi da “?” oppure da “&”). Indirizzi di pagine di questo tipo non piacciono molto ai motori di ricerca infatti solitamente questi non si spingono oltre il 5° (quinto) parametro, questo per evitare di finire in loop con pagine praticamente infinite.

In questi termini, viene in aiuto il mod rewrite, che permette al server di riscrivere le pagine dinamiche in modo search engine friendly, ma anche user friendly. Vediamo come strutturare in modo ottimale le url, anche utilizzando le parola chiave, cioè con l’utilizzo di sottodirectory altamente tematizzate in questo modo: http://www.dominio.com/categoria-keyword/prodotto-keywords.html

Un esempio per chiarire il tutto:

http://www.vendita-orologi.it/orologi-polso/vendita-rolex-oro.html

A livello di posizionamento ed interpretazione dei simboli, utilizzare come separatore il trattino “-“ oppure l’underscore “_”, è praticamente identico (l’algoritmo di Google e di quasi tutti gli altri motori, infatti interpretano il trattino e l’underscore in modo uguale, cioè come se le due parole unite fossero separate da uno spazio).

Solitamente, soprattutto per una lettura migliore, più elegante e facilmente memorizzabile dagli utenti, le url è preferibile riscriverle utilizzando come separatore il trattino “-“.

OTTIMIZZAZIONE DELLE IMMAGINI

Anche le immagini e la struttura dei link interni possono aiutare ad ottenere un miglior posizionamento sui motori di ricerca, vediamo come:

Ottimizzazione delle immagini

  1. Come visto in precedenza, avere le parole chiave nei nomi dei file è positivo, quindi lo è anche se le keywords vengono inserite nel nome delle immagini, ad esempio potremmo separare più chiavi con il trattino: vendita-orologi.gif (Naturalmente anche qui senza esagerare, utilizza al massimo 2-3 parole chiave per ogni nome del file)
  2. Inserire le keywords nell’attributo ALT delle immagini. Infatti, questo attributo serve per indicare il contenuto dell’immagine anche ai browser testuali e viene considerato a tutti gli effetti come testo della pagina. Il mio suggerimento è quello di utilizzare questo attributo con lo scopo per il quale è nato, cioè informare sul contenuto dell’immagine. Questo non ci vieta comunque di utilizzare qualche parola chiave nella descrizione (non più di 10 parole inserite, magari utilizzando anche la tecnica dell’espansione della query).

I benefici di questa ottimizzazione sono molteplici, ecco i principali: è utile all’utente che si trova la didascalia dell’immagine se vi passa sopra col mouse, migliora il posizionamento (anche se in modo molto contenuto) ed infine aiuta il posizionamento dell’immagine fra i motori di ricerca per immagini (Google Images in primis).

  1. NON utilizzare l’attributo TITLE delle immagini, perché questo non è un attributo proprio del tag “IMG” ma del tag “A Href”. Ho visto siti che per abuso di questa tecnica sono stati bannati da Google.

OTTIMIZZAZIONE DEI LINK INTERNI

  1. Struttura: suddividere il sito in sezioni è molto comodo, sia per l’utente, sia per il web master e per di più anche per il motore di ricerca perché sinonimo di profondità d’informazione. Difatti le directory sono proprio strutturate in questo modo (Dmoz è l’esempio calzante). Il modo migliore per effettuare questa suddivisione è l’utilizzo di directory, nelle quali metteremo, come visto in precedenza, anche le nostre keywords.
  2. Utilizzo delle index di categoria: questo permette di poter gestire al meglio ogni categoria che non sarà più vincolata ad un nome file. In pratica, il meccanismo è molto semplice, infatti come abbiamo detto nel punto precedente suddivideremo il sito in cartelle e sottocartelle (es. http://www.vendita-orologi.com/orologi-polso/ rolex/) e tratteremo ogni cartella come se fosse la ROOT (cartella principale) del nostro sito, quindi inserendo una index che venga interpretata automaticamente dai browser

Questa tecnica porta a due vantaggi fondamentali: il primo è quello accennato poco fa’, cioè creare indipendenza fra la cartella ed il nome del file in essa riportato (abbiamo la possibilità di cambiare estensione, senza ripercussioni sul posizionamento perché sarà indicizzata direttamente la cartella e non il file); il secondo è quello di poter ricevere più link diretti alle sottocategorie del sito e, per quanto detto prima, mantenerli più a lungo nel tempo.

Difatti è molto più semplice e veloce linkare una risorsa di questo genere: http://www.vendita-orologi.com/orologi-polso/ anziché http://www.vendita-orologi.com/orologi-polso/orologicinturino.html

  1. Utilizzo di link assoluti: sia chiaro, non che diano un vantaggio in termini di posizionamento rispetto a quelli relativi, ma nell’epoca del copia-incolla questo fattore potrebbe rilevarsi fondamentale (spero non ti capiti mai!).

OTTIMIZZARE UNA PAGINA IN FLASH

Come avrai potuto notare, i siti scritti interamente con questa tecnologia, hanno difficoltà sia di indicizzazione sia di posizionamento (anche se le cose stanno cambiando, infatti Google e Co. hanno sviluppato spider in grado di leggere i contenuti dei file Flash, i classici .sfw).

Questi problemi, in particolar modo quelli legati al posizionamento, sono causati dall’impossibilità di ottimizzare i contenuti dei filmati Flash e delle pagine in esse contenuti.

Vi sono svariati metodi per ottimizzare una pagina contenente un filmato SWF, ma mi soffermerò solamente sull’ottimizzazione che reputo attualmente più efficace e sicura, cioè l’inserimento del codice ottimizzato all’interno del tag object (quello utilizzato per richiamare l’SWF all’interno della pagina) visualizzandolo come testo alternativo per i browser sprovvisti di Flash Player. Ecco un esempio per chiarire il tutto

<object type=”application/x-shockwave-flash” data=”filmato-flash.swf” width=”150″ height=”150″> <param name=”movie” value=”filmato- flash.swf” /> [Inserimento codice ottimizzato] </object>

Nella parte successiva al richiamo del file SWF quindi possiamo inserire del codice HTML sostitutivo per browser sprovvisti dell’applicazione per leggere l’animazione Flash (fra questi ci sono anche gli spider dei motori che leggeranno ed utilizzeranno questo codice ai fini del calcolo del ranking).

L’utilizzo di questo tag, è comunque da usare con parsimonia ed è il modo più semplice e veloce per ottimizzare animazioni Flash mantenendo comunque la validazione W3C della pagina (difatti il tag EMBED e quindi il NOEMBED sono deprecati dall’XHTML 1.0 Transitional).

COME ISTRUIRE GLI SPIDER

Già nel capitolo dedicato ai Meta Tags abbiamo parlato di dare delle indicazioni allo spider prima di indicizzare le nostre pagine.

Solitamente, preferisco passare queste istruzioni non direttamente all’interno delle pagine, ma in un apposito file denominato robots.txt

Per l’appunto, questo file di testo è stato pensato ai motori di ricerca per facilitare, in primo luogo i suoi spider, ma anche i webmaster che desiderano particolari attenzioni di indicizzazione delle pagine dei propri siti web.

Il file robots.txt è un semplicissimo file di testo (.txt), che viene letto da tutti i principali motori di ricerca prima di indicizzare un sito. Per cui questo file deve avere determinate caratteristiche per essere correttamente interpretato dai Robots dei motori:

  • Il file può avere solo questa denominazione: robots.txt
  • Il robots.txt deve risiedere nella root del sito (nella cartella principale. Es. http://www.vendita-orologi.com/robots.txt)
  • Non deve contenere tag HTML o altro testo (perché questi verranno completamente ignorati)

In pratica il file Robots.txt è la soluzione adottata dallo “Robots Exclusion Standard” per escludere l’indicizzazione di alcune parti/pagine del sito agli spider dei motori di ricerca (quasi tutti hanno aderito a questo protocollo).

Per tanto, questo file ha solamente un potere inibitore per i motori di ricerca e non è usato ai fini del posizionamento.

La sintassi corretta per le istruzioni ai Robots è questa: User-agent: [nome spider]
Disallow: [cartella/file da escludere]
Vediamo in pratica, con alcuni esempi, come scrivere correttamente il file robots per:

  • Escludere la cartella “admin” dagli indici di Google:

User-agent: googlebot

Disallow: /admin/

  • Escludere le cartelle “admin” e “riservato” dagli indici di Google:

User-agent: googlebot

Disallow: /admin/

Disallow: /riservato/

  • Escludere la cartella “admin” da Google e “riservato” da Yahoo!:

User-agent: googlebot

Disallow: /admin/

User-agent: slurp

Disallow: /riservato/

  • Escludere la cartella “admin” a tutti gli spider:

User-agent: *

Disallow: /admin/

  • Escludere la pagina “riservato.html” a tutti gli spider:

User-agent: *

Disallow: /riservato.html

  • Escludere l’intero sito a tutti gli spider (il sito non verrà indicizzato):

User-agent: *

Disallow: /

Grazie a queste semplici ipotesi è facile intuire come funziona questo file, basta aver presente che l’asterisco (*) rappresenta tutti gli spider e nel disallow basta indicare la localizzazione del file o della cartella da non indicizzare senza il nome del sito (cioè in valore relativo).

Solitamente consiglio sempre di escludere dagli indici di tutti i motori di ricerca:

  • Cartelle contenenti DATABASE
  • Pagine dinamiche non di contenuto
  • Pagine/cartelle di amministrazione del sito
  • Cartelle e pagine riservate (anche se sempre meglio bloccare l’accesso richiedendo una password)
  • Documenti on-line non di divulgazione pubblica

Questo in primo luogo per evitare di rendere pubblici dati riservati o comunque non destinati agli utenti internet, ed in seconda battuta per concentrare l’attenzione degli spider solamente dove effettivamente serve (migliorando velocità di indicizzazione e performance del web- server).

REGISTRAZIONE NEI MOTORI DI RICERCA

La registrazione dei siti sui motori di ricerca è stato un “cavallo di battaglia” di molte Agenzie SEO fino a qualche hanno fa. Questo perché nei primi anni di vita di tutti motori di ricerca avevano bisogno, per scovare nuovi siti e pagine web, dell’aiuto dei webmaster invitandoli a segnalarle in appositi moduli.

Ora, per i motori di ricerca più evoluti e importanti, queste operazioni di “registrazioni” sono pressoché inutili perché quasi totalmente ignorate. Ad ogni modo, per completezza di informazione, di seguito vengono elencati i link per sottomettere le proprie URL di alcuni motori di ricerca:

  • Aggiunta url di Google

http://www.google.it/intl/it/add_url.html

  • Aggiunta url di MSN-Live

http://beta.search.msn.com/docs/submit.aspx

  • Aggiunta url di Yahoo!

https://siteexplorer.search.yahoo.com/submit

Comunque come già detto, grazie a spider sempre più veloci e potenti, questi form sono ormai inefficaci. Infatti per indicizzare una pagina su questi motori ci sono metodi molto più efficaci e rapidi.

COME INDICIZZARE VELOCEMENTE UN SITO

Allora come vengono indicizzati nuovi siti oppure nuove pagine web dai motori di ricerca?

Come precedentemente introdotto, sono gli spider che permettono ai motori di indicizzare nuove pagine pubblicate sul web, per tanto, il modo più veloce ed efficace per far passare lo spider è possibile “solo” tramite i link.

Per cui, sintetizzando, possiamo dire che per indicizzare una nuova pagina (o sito) il modo più efficace è quello di far si che questa venga linkata in modo diretto da un’altra pagina già indicizzata e presente negli indici del motore di ricerca.

Invece, la velocità di indicizzazione è direttamente proporzionale al numero ed alla qualità dei backlinks ricevuti dalla pagina. Morale: più link autorevoli (e quindi “spiderizzati”) riceve la pagina, più veloce sarà l’indicizzazione.

In ogni caso, questa è l’operazione principale che può essere affiancata da altri accorgimenti che facilitano la velocità di indicizzazione:

  • Sottomissione della sitemap del sito (che vedremo in dettaglio nel prossimo capito)
  • Segnalazione del sito nei circuiti di Social Bookmark (siti preferiti).
  • Navigare sul sito con la Google Toolbar installata ed attiva

Un paio di backlink e queste ulteriori spinte, permettono addirittura di indicizzare nuovi siti in 36-48 ore (almeno su Google del quale, successivamente, sfateremo il mito dell’effetto SAND BOX per i nuovi siti).

LA SITEMAP

La risorsa principale dei motori di ricerca sono i contenuti, presenti in tutti i siti web del mondo, quindi più contenuti offrono ai propri utenti più il servizio di posizionamento e ricerca migliorano. A tal proposito, negli ultimi mesi (il primo è stato Google) i principali motori hanno messo a disposizione dei web master un vero e proprio pannello di controllo, dove la funzione principale è la sottomissione di una o più sitemap del sito in formato xml (o txt).

Questo permette al motore di ottenere url dirette (e qualche dato in più, ma non molto influente) alle pagine di vecchi e nuovi siti, velocizzando ed aumentando la precisione di indicizzazione ottimizzando le risorse impiegate (gli spiders).

Il vantaggio, quindi, non è solo per il motore (che offre un servizio migliore impiegando meglio le proprie risorse) ma anche per il webmaster che può, in questo modo, gestire al meglio l’indicizzazione del sito (ed altre informazioni sui propri progetti web).

Per semplicità, vedremo solamente lo strumento gratuito principale e completo per la gestione delle sitemap: il Web Master Tool di Google. Come detto in precedenza, Google accetta sitemap in formato xml, vediamo ora come creare una semplice mappa del sito, analizzandone la sintassi e la struttura del protocollo sitemap:

<?xml version=”1.0″ encoding=”UTF-8″?>

<urlset xmlns=”http://www.google.com/schemas/sitemap/0.84″> <url>

<loc>http://www.vendita-orologi.it/</loc>

<lastmod>2008-06-01</lastmod>

<changefreq>monthly</changefreq>

<priority>0.8</priority>

</url>

</urlset>

In pratica, ogni url viene sottoposta (dopo la dichiarazione del file e dell’urlset) all’interno dei tag <url></url>.

L’indirizzo reale della pagina viene indicato all’interno del tag <loc></loc>.

Mentre le altre variabili <lastmod>, <changefreq> e <priority> non sono obbligatorie e servono per indicare:

<lastmod>2005-01-01</lastmod> – ultima data di aggiornamento della pagina

<changefreq>monthly</changefreq> – frequenza di aggiornamento della pagina

<priority>0.8</priority> – Priorità di importanza ed indicizzazione rispetto alle altre url presenti nella sitemap

Essendo dati non obbligatori e non particolarmente seguiti ed importanti per Google, possono essere tranquillamente omessi.
La composizione della sitemap quindi è un insieme di url indicate nell’apposito tag <url> mediante l’altro tag <loc> messe in sequenza.

Ad esempio:

<?xml version=”1.0″ encoding=”UTF-8″?>

<urlset xmlns=”http://www.google.com/schemas/sitemap/0.84″> <url>

<loc>http://www.vendita-orologi.it/pagina1.html</loc>

<lastmod>2008-06-01</lastmod>

<changefreq>monthly</changefreq>

<priority>0.8</priority>

</url>

<url>

<loc>http://www.vendita-orologi.it/pagina2.html</loc>

<lastmod>2008-06-01</lastmod>

<changefreq>monthly</changefreq>

<priority>0.8</priority>

</url>

</urlset>

Per maggiori dettagli sul protocollo Sitemaps è possibile visitare:

https://www.google.com/webmasters/tools

LA SANDBOX PER I NUOVI SITI

In termini di indicizzazione, soprattutto se si parla di nuovi siti (mai stati spiderizzati), non possiamo tralasciare l’effetto SANDBOX.

Questo fenomeno, è stato rilevato da webmaster e SEO di tutto il mondo a partire dal 2004. In pratica, si ipotizzava che i nuovi siti subissero un filtro che indipendentemente dai link in entrata e dai contenuti dello stesso, che ne impediva il buon posizionamento (non l’indicizzazione) fino a un determinato lasso temporale determinato, molto probabilmente, dal settore di appartenenza del web site e dalla competitività delle SERP.

Anche se gli effetti possono essere constatati su nuovi siti, il filtro Sandbox non esiste. Infatti, come dichiarato direttamente anche dai tecnici di Google, l’effetto è puramente algoritmico e generato dai calcoli del Trustrank (che vedremo successivamente nel dettaglio).

Infatti, è possibile posizionare nuovi siti (mai indicizzati) anche in pochi giorni (10-15) per parole chiave a bassa competitività, basta che il motore attribuisca la giusta “fiducia” al sito (naturalmente il tempo di attribuzione della “fiducia” è direttamente proporzionale alla competizione per quella keyword, il motore non può permettersi di fare errori in questi termini).

Pertanto, il mito della sandbox è da sfatare anche se effetti simili vengono generati automaticamente dagli algoritmi di Google. Discorso diverso per MSN-Live che dagli ultimi test effettuati sembra proprio abbia un filtro di durata variabile dai 30 ai 90 giorni per i siti di prima indicizzazione.

Posizione Sul Post 100%

[/sociallocker]

TO BE CONTINUED…

Eccoci arrivati alla fine di questa terza parte della mia guida completa sull’ottimizzazione sui motori di ricerca. Seguirà l’ultimo articolo per completare questo vero e proprio manuale SEO. Se desideri essere informato dei prossimi post che usciranno, ti invito a iscriverti alle NEWSLETTERS con il modulo qui sotto.

Spero che anche questo articolo ti sia stato di aiuto per iniziare a comprendere questo vasto argomento quale è il SEO. A tal proposito ti invito a condividerlo sui tuoi social network utilizzando i tasti qui sotto, e magari a scrivere un commento a riguardo. Così facendo mi saresti di grande aiuto sostenendo il Blog.