Nelle ultime settimane Google sembra lavorare su un duplice binario che da un lato punta ad aprirsi al Web semantico con Google Knowledge Graph e, dall’altro, grazie a Penguin punta ad ottimizzare e migliorare i risultati restituiti dalle ricerche anche attraverso alcuni cambiamenti significativi nell’algoritmo di ranking.
Quest’ultimo, infatti, nonostante le migliorie apportate da Panda – che miravano a premiare i contenuti di qualità – è risultato comunque fortemente influenzabile mediante l’attivazione di scorrette attività di SEO.
Rientrano, così, nell’ambito di quello che viene definito “black hat SEO” tutte quelle pratiche di web spamming come il link spamming o il keyword stuffing, che tendono a moltiplicare le keyword o gli URL associati ai contenuti senza effettivamente offrire contenuti di effettivo valore.
Se, invece, le modalità d’azione di chi si occupa di ottimizzazione per motori di ricerca sono comunque sempre state allineate con il “white hat SEO” il problema sostanzialmente non si pone.
Google Penguin, infatti, ha l’obiettivo di premiare i migliori siti, cioè quelli che offrono davvero un contenuto originale e di valore per chi li consulta, eliminando di conseguenza tutti i siti duplicati e di fatto sfoltendo i risultati delle ricerche.
Come avvenuto nel caso di Panda il rilascio sarà graduale – il 26 maggio, ad esempio è stata rilasciata la versione 1.1 – ma l’impatto pian piano dovrebbe essere evidente per tutti (stando anche alle previsioni effettuate da Google stesso in base alle simulazioni pre-release).
L’atteggiamento di Google è significativo: basta alla duplicazione dei contenuti online (il che, in molti casi, potrebbe anche significare basta alla diffusione selvaggia di copia/incolla di comunicati stampa) e basta all’impiego di pratiche scorrette di SEO. Che senso ha, infatti, inseguire il ranking ed incrementare il proprio traffico se poi non si offrono dei contenuti validi ed una possibilità di navigazione ed una usabilità efficaci?
Nel rapporto quantità vs qualità, quest’ultima dovrebbe sempre prevalere, e ciò vale non solo nel caso dei blog personali o dei siti web aziendali ma anche e soprattutto nel caso dei corporate blog e dei siti che vogliano offrire informazione.
E’ vero che un buon posizionamento sui motori di ricerca equivale ad avere una maggiore visibilità ma sarebbe meglio chiedersi se questa non possa trasformarsi in uno svantaggio nel caso in cui il prodotto che poi si offre agli utenti sia di pessima qualità.
Il vero rischio, in questo caso, non è la non-visibilità ma una possibile trasformazione della visibilità in cattivo passaparola: chi dovrebbe voler navigare un sito con valore informativo uguale a zero?
A cosa serve una fantastica indicizzazione, frutto di un dettagliatissimo lavoro sulle keywords, se poi – keyword a parte – il contenuto di riferimento è di pochissimo valore?
Queste domande dovrebbe guidare non solo i webmaster e web designer che lavorano sull’usabilità dei siti e sula loro architettura ma anche chi coordina la realizzazione dei contenuti e soprattutto che si occupa del Web marketing: non è corretto vendere ai propri clienti soluzioni miracolose che poi possono arrecare loro un danno di immagine (ed essere comunque penalizzati da Google).
Per questo se volete attivare pratiche in ottica SEO rivolgetevi sempre a dei professionisti e pensate al valore di ciò che offrite. Il rispetto degli utenti viene sempre prima di ogni possibile obiettivo commerciale.