Lista dei filtri antispam di Google


Consigli su come evitare lo Spam

I filtri usati da Google e come uscirne fuori

L'incubo del Webmaster è quello di cadere dopo tanto lavoro, in una delle penalizzazioni pensate da Google per proteggersi dalle svariate tecniche di Spam del web moderno. Ho pensato quindi di inserire una lista dei vari filtri che Google non dichiara ufficialmente, ma che sono visibili ai Seo's, e i consigli su come aggirarli o evitarli. Ho preso spunto modificandola secondo il mio parere da una lista apparsa in una delle discussioni sul Blog di Searchengineland.com e proposta da un vecchio del Seo, Joe Whyte.

Google Sandbox

Il filtro della scatola di sabbia è tipicamente applicato alle nuovissime pagine web, ma è stata notata la sua applicazione anche su alcuni domini un po' piú vecchiotti. Sembra che abbia a che vedere con la competitivitá delle keywords e che le nuove pagine possono continuare a posizionarsi bene se le keywords non sono molto competitive. In altre parole se un dominio nuovo appare nel web trattando un argomento di forte competizione, come potrebbe essere il campo immobiliare o turistico, se le parole chiave presenti nel suo contenuto saranno mirate a dei prodotti esclusivi, le pagine saranno posizionate molto in alto nel motore di ricerca per quelle parole chiave.

Nel caso contrario, sarà dura per il nuovo dominio, posizionarsi visibilmente nei risultati di ricerca. Si è potuto notare inoltre un comportamento simile alla SandBox delle pagine, quando un dominio nuovo appena indicizzato cambia repentinamente il suo contenuto o le sue chiavi di spicco. Il titolo, la descrizione, gli attributi ALT e Title. In questo caso Google che in un primo momento aveva messo in aspettativa per il pagerank la pagina o l'intero sito (la finestrella del PR della Toolbar era a zero ma bianca), spegneva nuovamente la finestrella come se ci fosse stata una penalizzazione pur continuando a indicizzare le pagine regolarmente. (la finestrella ritorna grigia)

Come evitare questo: Google usa un sistema chiamato Trusted Rank. L'idea dietro a questo filtro è che se una pagina con un alto pagerank linka il vostro dominio, per il motore di ricerca la vostra pagina diventa anch'essa degna di tale valore, perchè se quella pagina autorevole ha deciso di fidarsi delle vostre pagine, Google che si fida di lei di conseguenza si fiderà anche della vostra. Un bel giro di parole che spero sia chiaro. Uscirne perchè si è trovato un link autorevole che ci linka è un discorso abbastanza complesso per i vari motivi conosciuti, quindi cio' che si potrebbe fare è tentare di mirare le keywords (parole chiave) su argomenti meno competitivi, i quali ci permetterebbero di salire nelle posizioni del motore di ricerca. Inoltre in ogni caso inserire in rete un sito quando questi è già stato portato a termine preserva dal doverlo modificare subito dopo incorrendo in questo filtro spietato!

Google -30

Questo filtro è applicato alle pagine che tentano una Seo tecnica di spam. Se Google trova le vostre pagine facenti uso di Doorway, java redirects, testo nascosto ecc. le pagine vengono retrocesse di trenta posizioni nei risultati di ricerca. In base alla tecnica usata le posizioni potrebbero arrivare fino a -950, come si è potuto notare in alcuni casi. Qualcuno ha anche per questo pensato che esista anche un filtro dei -950 risultati.

Come evitare questo filtro: Se si ritiene di essere incappati in questa penalizzazione di solito è sufficente eliminare gli elementi spam, per vedere ritornare le pagine nelle loro vecchie posizioni. Si possono sempre compilare delle domandine di reinclusione delle pagine, se le stesse tramite questo filtro fossero state completamente escluse. Un esempio? Se le vostre pagine erano alle ultime 20 posizioni dell'indice del motore di ricerca, togliendone 30, si finisce a fare debiti, i quali per essere estinti hanno bisogno di una domanda di grazia. Naturalmente dopo che il contenuto spammoso è stato eliminato!

Google Bombing

Questo filtro è applicato alle pagine con un alto numero di backlinks aventi lo stesso identico testo Anchor. Questo fa alzare una bandierina rossa nel motore di ricerca perchè è estremamente innaturale in una struttura di link riferenti (Backlinks) la presenza dello stesso testo anchor su tutti i link.

Come evitare questo filtro: Google dichiara che non è possibile volutamente da parte di un concorrente provocare l'attivazione di questo filtro, tuttavia se le tue pagine sono state penalizzate da questo filtro, molto probabilmente le stesse saranno state posizionate molto indietro negli indici di Google, cioè molto spesso oltre la posizione 500. Se questo filtro è stato applicato, è difficile venirne fuori. Google secondo i nostri studi di laboratorio, attiva questo filtro solo in particolari situazioni dove crede che il link sia stato "venduto" o comunque inserito apposta per aumentare la popolarità del sito per quella parola o frase chiave contenuta nel testo anchor. IL rimedio sarebbe far cancellare i link dal webmaster del sito che vi linka dalle sue pagine, cosí da disattivare il filtro. Nel caso di un concorrente sleale, questo sarà difficile, l'unico rimedio rimasto quindi (poco utile secondo noi), è la domanda di riconsiderazione spiegando il problema.

Google Bowling

Non proprio un filtro, ma una serie di tecniche Spam che provocheranno la bannata dagli indici, inizializzate dai siti o webmaster della concorrenza. Il Google Bowling è solo possibile con pagine nuovissime che non hanno un valore agli occhi del motore di ricerca. Il tentare questa tecnica con l'intenzione di far bannare il sito rivale, con domini affermati dal loro Trust Rank, è praticamente inutile.

Come evitare il filtro: Google dice che non è possibile da parte di concorrenti sleali influenzare le Serp's al punto da far eliminare il vostro sito dalle stesse. Molti Seo's non credono in questo, e consigliano come unica soluzione la domanda di reinserimento nel motore di ricerca.

Contenuto duplicato

Il filtro dei duplicati è applicato alle pagine che contengono un contenuto già creato, cacherizzato e indicizzato altrove. I siti di notizie (News) sono esenti dall'applicazione di questo filtro. Solitamente la penalizzazione consiste nel trovarsi posizionato in un risultato di ricerca il sito o la pagina doppione che non si voleva che fosse prescelta per apparire in un risultato di ricerca. Una pagina per essere ritenuta un duplicato non deve essere necessariamente identica ma superare una certa percentuale di similitudine che Google non ha voluto dichiarare. Il mio consiglio è di mantenere i contenuti delle pagine differenti, per almeno il 65%.

Come rimediare: Se si sa di aver copiato i contenuti di altre pagine o lo stesso sito su altri domini, l'unico rimedio è quello di eliminare i contenuti duplicati, aggiungendo nelle pagine di uno dei siti, abbastanza elementi unici da far scendere la percentuale di plagio sotto al 65%. Se si è proprietari del contenuto si puo' chiedere l'eliminazione dello stesso dalle pagine che lo hanno rubato, e anche informare Google del plagio. Questo per evitare di essere a vostra volta penalizzati dal filtro. E' consigliabile usare Copyscape per controllare l'esistenza delle pagine che copiano i vostri contenuti.

Google risultati supplementari

Questo filtro prende le pagine già indicizzate dal motore di ricerca e le inserisce in un database supplementare. Si tratta delle pagine per le quali il motore non assegna una posizione nell'indice primario per svariati motivi. Solitamente si tratta di duplicati o di pagine la cui scansione è bloccata dal robots.txt in un secondo momento (dopo essere state indicizzate regoalrmente) e secondo Google vengono estratte quando il motore di ricerca non trova altri risultati attinenti alle ricerche. Questo vuol dire che le pagine del tuo dominio inserite nel database supplementare non aiuteranno la scalata alle posizioni. La formula per estrarre unicamente i risultati supplementari e vedere se il vostro dominio ha delle pagine o è totalmente in quei risultati è la seguente:

  • site:dominio.net/ = 136 Pagine totali inclusi i supplementari!
  • site:dominio.net/* = 124 Pagine nell'indice primario!
  • -site:dominio.net/* -site:dominio.net/ = 12 Pagine nei supplementari!
  • Attenzione! Il metodo subito sopra indicato sembra essere deprecato.
    Vi terró informati se ci saranno dei cambiamenti!

I risultati in risposta alle varie query potrebbero non essere precisi come nell'esempio qui sopra a causa di fattori come il traffico totale sul centro dati interpellato al momento della richiesta o al numero delle richieste simili.

Come evitarlo: Il contenuto unico e il farsi riferire da altre pagine web sono la strada più veloce per uscire dai risultati supplementari se la causa è quella dei "contenuti duplicati". Il titolo e la descrizione delle pagine non dovranno mai essere uguali. In molti casi si tratta di pagine generate dinamicamente che hanno un contenuto molto scarso, il quale non riesce a far superare la percentuale di plagio del layout simile in tutte le pagine. Ogni pagina dovrà necessariamente avere un suo titolo e non dividerlo con le altre pagine!

Filtro età del nome del dominio

Questo filtro è strettamente legato al Trust rank e alla Sandbox, ma è anche possibile essere fuori dalla scatola di sabbia ed avere un buon trust rank, eppure vedersi attivare questo filtro. Il fine di questo filtro è che i domini più vecchi appariranno in una posizione migliore per le loro parole chiave, che quelli con un età più giovane. Se si attiva questo filtro sulle vostre pagine, si dovrà pazientare per vederle pian piano con il passare del tempo crescere nelle posizioni.

Come evitare questo filtro: La qualità e l'aumento dei link riferenti di un certo valore, aiuterà la vostra posizione nelle Serps.

Links.html filtro

L'uso dei reciprocal link è una vecchia tecnica SEO che viene in qualche modo mal vista da Google, dalla quale appunto si distanzia applicando questo filtro. Secondo una mia opinione è applicato maggiormente sui domini nuovi che vogliono iniziare la loro carriera aggiungendo appunto la pagina per i link amici. Questo filtro penalizza le posizioni sul motore di ricerca.

Come evitarlo: Si utilizzi l'attributo rel="nofollow" per i link esterni al sito che hanno solo uno scopo pubblicitario. Fare uno scambio link con un sito che non ha nessuna attinenza con il tema trattato dal nostro, porterà solo svantaggi al nostro dominio. Anche i link alle directory che impongono il "Link reciproco" non rispettano le norme del motore di ricerca Google

Link Farm filtro

Le link farms sono delle pagine dove sono ammucchiati centinaia di link di ogni tema e specie. Molte di esse sono conosciute dal motore di ricerca il quale le esclude dal suo indice. Il partecipare a certi scambi è la maniera migliore per essere penalizzati da questo filtro, la quale penalizzazione comporta l'esclusione dai risultati di ricerca per le pagine trovate in quelle Farms.

Come evitare la penalizzazione: Attualmente l'unico modo per non essere penalizzati da questo filtro è il non accettare scambi con pagine che offrono centinaia di links senza organizzazione e tema.

Co-citazione backlinks

Questo filtro è abbastanza popolare, google guarda con attenzione la struttura dei link riferenti. Se il tuo link è su di una pagina che in uscita ai suoi link ha tra gli altri, dei link alle pagine dei "casino's", pagine con contenuti per adulti, pagine conosciute come spam, ecc., google penserà che il tuo link ha una relazione con quei temi e questo influenzerà negativamente il Trust rank del tuo dominio. La nostra relazione ad altre pagine vista con gli occhi di Google, la potremo scoprire nei WebMaster Tools, nella nostra sezione Sitemaps alla voce Statistiche --> Statistiche indice --> "Related".

Come evitare questo filtro: Quando cerchi uno scambio link con un potenziale partner, accertati che questo non abbia nelle sue pagine link che portano alle suddette pagine.

Aumento veloce dei Backlinks

Questo filtro è applicato quando molti backlinks appaiono improvvisamente nello spazio di poco tempo provenienti da circuiti noti. Questo potrebbe causare una quarantena che si nota più spesso, cioè, il forte calo del posizionamento del sito nei risultati di ricerca (SERP).

Come evitare il filtro: Non partecipare mai agli schemi di links, "Black hat", Link Farms, ecc.

Tempo di caricamento della pagina

Filtro importantissimo dal 2010 con l'avvento dell'algoritmo Caffeine! Il filtro applicato in questione è molto semplice. Se la pagina è troppo lenta a caricarsi, lo Spider incorrerà in un Time Out e abbandonerà l'indicizzazione. Abbandonare l'indicizzazione significa anche in alcuni casi, che il robots non passerà più con la stessa frequenza su quella pagina.

Come evitarlo: Assicurati che le tue pagine abbiano un peso relativamente leggero, e che la tua grafica sia allo stesso modo semplice da caricare. Se usi i Flash (non più supportati da Chrome dal 2020), è consigliabile l'uso dello Java pre-load coding. Non usare se non strettamente necessario gli javascript nell'Header della pagina. Se il tuo stile CSS è complicato e pesante è necessario toglierlo dalla pagina e richiamarlo con una delle tante possibilità di importo del CSS. Fai in modo che le pagine siano accessibili usando sempre il CSS e segui attentamente le regole del Web 2.0.

Filtro per sovraottimizzazione

OOP Over Optimization Penalty, Penalizzazione da sovraottimizzazione. Il filtro penalizza esattamente cio' che si intende raggiungere con la sovraottimizzazione, e cioè una posizione migliore nel motore di ricerca.

Come evitare la sovraottimizzazione: Non praticandola naturalmente, scrivendo il contenuto della pagina pensando all'utente e non al motore di ricerca. È infatti l'utente che è importante per Google. Se il contenuto altro non è, che una serie di frasi che ripetono a cantilena sempre le stesse parole chiave, Google che è in grado di comprendere l'indice di naturalezza di una frase attraverso un suo brevetto, applicherà questo filtro.

Ed ora un consiglio dal tema relativo

Si usi sempre il redirect 301 se si devono cambiare in parte o totalmente gli Url delle pagine.
Ad esempio, se modificate un indirizzo URL di una pagina, questa sarà irraggiungibile per molto tempo per lo Spider, che non trovandola e trovandosi probabilmente in presenza di molti errori simili sul dominio, penalizzerà la qualità di esso. Si usi quindi il Redirect 301 per reindirizzarla sul nuovo indirizzo.

Torna su