Seo e Sem specialist vs Google
Cosa sceglie Mario sui motori di ricerca?
Questa storia comincia all’inizio del nuovo millennio, quando gli algoritmi di Google provano a contrastare le operazioni degli specialisti dell’indicizzazione, Ricordate? Sono gli antenati di quelli che nella puntata precedente cercavano di accaparrarsi l’attenzione di Mario, a sua volta intento a comprare online le sue scarpe da basket. Gli specialisti Seo provano attraverso diverse tecniche a collegare i siti visitati da Mario ai database dei motori di ricerca. Ripercorrendo la storia di Google sembra che i Seo specialist di ieri abbiano provato se non a fregare l’algoritmo, quantomeno ad aggirarlo, costringendo il motore di ricerca a continui aggiornamenti.
“Dance e Florida”: ripetita iuvant
Come penalizzare la tecnica del keyword stuffing?
Ecco allora il 2003 quando gli algoritmi “Dance” e “Florida”, penalizzano i siti che utilizzano la tecnica keyword stuffing, basata sulla ripetizione di parole chiave nelle pagine web. Nel 2004 arriva “Austin” e tocca ai siti zeppi di Black Hat Seo che nascondono parole chiave in font piccoli o dello stesso colore dello sfondo della pagina, ripetendole più volte e rendendole invisibili all’utente del sito. Hacker geniali ma non abbastanza. Nel 2005 sbarca “NoFlow” l’algoritmo che è in grado di riconoscere link da non indicizzare, spesso presenti nei blog, privilegiando i link in entrata, quelli che da siti esterni puntano sul sito sul quale lo specialista lavora.
Local Seo
Quando arriva la localizzazione nei risultati di ricerca?
Sempre nel 2005 arriva la svolta della “Local Maps” che introduce la localizzazione che influisce sui risultati di ricerca: nasce la Local Seo. Si tratta di una vera e propria svolta, è infatti probabile che non appena Mario sia davvero pronto all’acquisto, inserisca tra le chiavi di ricerca su Google “Scarpe Jordan Torino”, associando all’articolo, il luogo nel quale comprare. Chi cerca un prodotto o un servizio associandolo ad un luogo ha un tasso di conversione molto più alto rispetto a chi fa una ricerca generica. Significa che le probabilità che l’idea di Mario si converta in una decisione di acquisto sono decisamente più basse se sul motore di ricerca Mario si limita a digitare solo “scarpe Jordan”. Gli specialisti Seo sanno anche che la maggior parte delle ricerche localizzate si effettuano da smartphone, invece che da pc, con importanti conseguenze sul modo di visualizzare i contenuti dei siti. La strumentazione relativa alla geolocalizzazione prosegue con l’aggiornamento algoritmico “Pigeon”, sbarcato anche in Europa nel 2014 che migliora nettamente i risultati delle ricerche localizzate, particolarmente utili per cercare negozi, hotel, ristoranti, ecc.
Linkare si può
Perché collegare parole chiave a link esterni?
Tra il 2005 e il 2006 intervengono cambiamenti algoritmici per selezionare i link in entrata penalizzando i “link reciproci”, acquistati da siti specializzati. Il link esterno è quello di un sito altro rispetto a quello curato dallo specialista Seo che mette un collegamento ipertestuale in una pagina, creando un cancello da dove possono arrivare nuovi visitatori. I link reciproci si creano quando lo specialista A, che vuole pubblicizzare il suo sito, propone a uno specialista B di inserire un link al sito sulla sua pagina web, e contraccambia fornendo lo stesso servizio. Questo non significa che non sia corretto collegare parole chiave a link esterni ma soltanto che va fatto se tale azione è funzionale al discorso, se effettivamente il link è all’interno di un blocco di testo che affronta l’argomento linkato. Se invece il link è buttato lì solo per scalare posizioni sul motore di ricerca, allora rientriamo tra gli specialisti che provano a fregare Google.
Cambiamenti Google lato utente
Come cercare generi diversi di contenuto?
Nel 2007 arrivano modifiche per intervenire sulle attività che l’utente fa nel motore di ricerca, cambia la SERP (Search Engine Results Page): la pagina di Google con i risultati della ricerca, dal primo link posto in cima alla prima pagina a più infinito, ovvero fino a quando il motore di ricerca non ha più tracce per generare link e arriva l’Universal Search con nuove opzioni di ricerca come “notizie”, “immagini”, “video”. La possibilità di cercare soltanto un genere di contenuto e di affinare la ricerca rappresenta una vera e propria svolta per chi utilizza internet per lavoro. Le immagini ad esempio possono essere cercate per dimensione, tipo (disegni, clip art, gif), dominante colore, diritti di utilizzo. Nel 2008 all’utente che svolge una ricerca in Google si offrono suggerimenti da assecondare, così mentre Mario scrive “scarpe da basket”, compaiono su righe diverse altre chiavi di ricerca come: “scarpe da basket Nike”, “scarpe da Basket Jordan”, “scarpe da basket Adidas”, di fatto riducendo alle opzioni suggerite le infinite possibilità che la sua ricerca avrebbe potuto prendere.
Posizionamento in tempo reale
Cosa fare per penalizzare la duplicazione di content?
Nel 2009 arriva la rivoluzione con “Caffeine” acceleratore dell’indicizzazione, in grado di assicurare un ottimo posizionamento, quasi in tempo reale. Secondo alcuni é qui che nasce la vera SEO (Search Engine Optimization) e si moltiplicano format e contenuti. Comincia l’era dei contest e degli eventi online che vivranno negli anni successivi un vero e proprio boom. Nel 2010, grazie a Social Signal, Google recepisce anche talune indicazioni che provengono dai Social Network per aumentare il “ranking di posizionamento” grazie a “+1 Button” e a Google Plus con l’intento di condizionare tutti i motori di ricerca. È l’era in cui Google prova a penalizzare la duplicazione di contenuti.
Troppa pubblicità online
Meglio gli aggiornamenti della pubblicità?
Nel 2011 arriva “Panda” che declassa i siti con troppa pubblicità e i contenuti di bassa qualità. Nello stesso anno l’algoritmo viene aggiornato con “Freshness”, un sistema che porta su nel rank i siti aggiornati con frequenza. È l’inizio di una Seo che privilegia i contenuti ai trucchi. Nel 2012 “Penguin” riprende a penalizzare con maggiore efficacia il Keyword Stuffing e i Black Link collegati a pagamento. Evidentemente le misure adottate fin qui non erano state in grado di debellare totalmente le cattive pratiche che potrebbero addirittura persiste tra specialisti convinti di poter scalare posizioni attraverso i trucchi della vecchia Seo.
Google plus
Arriva il web semantico
Arriva anche Google Search Plus Your World che premia le connessioni con Google Plus. Siamo nella stagione del web semantico in cui Google privilegia i contenuti reali alle tecniche informatiche. L’aggiornamento Knowledge Graph aggiunge ulteriori informazioni nei risultati di ricerca, specie su personaggi e video correlati, date di nascita, parentele, ecc. L’intento è di penetrare negli stili di vita (e di ricerca) dei naviganti della rete penalizzando contenuti commerciali non gestiti direttamente da Google.
La rivoluzione del colibrì
Come scalzare quelli che operano su codice HTML?
Nel settembre del 2013 ecco “Hummingbird”, algoritmo che fa tesoro delle battaglie condotte dai suoi predecessori ma che lato utente reinterpreta con nuove modalità i dati disponibili fornendo risposte più puntuali e precise. La rivoluzione del Colibrì (traduzione di Hummingbird) sta nel considerare le frasi non più come somma di singole parole ma come elementi finiti, dotate di significato, in grado di essere confrontare con altre frasi precedentemente archiviate.
L’effetto interessa le SERP che generano risultati sempre meno legati a parametri semiautomatici, basati sulla densità di parole chiave. Il Colibrì ha scalzato gli attacchi di quanti operano sul codice HTML, favorendo la qualità di contenuti a beneficio di informazioni più corrette ed esaustive. Da qui in poi più che fregare sul lato informatico il motore di ricerca, il SEO specialist ha cominciato a studiare come gli utenti effettuano le loro query (le loro ricerche online). Se ad esempio si tratta di una ricerca fatta quando l’utente sta sul suo account Google o altrove. Se sta su Google (Gmail, Drive, Maps) tutte le sue ricerche sono salvate al fine di personalizzare le risposte del motore di ricerca. Google rileva la posizione geografica dell’utente dall’indirizzo IP da cui si collega, modificando i risultati della ricerca anche in funzione della localizzazione. L’aggiornamento in tempo reale migliora ulteriormente nel 2016 con “Penguin 4.0” in grado anche di far recuperare nel rank di posizionamento i siti canaglia che in passato avevano adottato comportamenti poco virtuosi ricorrendo a tecniche Seo spinte.
Guerra alle fake news
Quali sono i cambiamenti di Google più recenti?
Nel 2017 Google dichiara guerra alle fake news con il lancio di “Fred”, il nuovo algoritmo che evidenzia cosa evitare per non essere penalizzati e precisamente: il ricorso a eccessiva pubblicità che limita l’usabilità dell’utente; l’abuso di link e collegamenti a sistemi di affiliazione; contenuti che non corrispondono appieno alla ricerca. Il 1° agosto del 2018 interviene l’aggiornamento “medic update”, così denominato per gli effetti che ha avuto sui siti sanitari, con il quale cambiano i parametri di valutazione sulla qualità dei contenuti legati a criteri di autorevolezza e reputazione e si valorizzano le visite da mobile, negli stessi mesi Google pubblica il “mobile first index”.
La fine di Google Plus
Anche Google può sbagliare?
Nell’ottobre del 2018 Google ha provveduto a eliminare Google plus, secondo la fonte Inside Marketing si sarebbe trattato di un gigantesco bug: che avrebbe esposto i dati privati di circa 500mila utenti di Google Plus al rischio che applicazioni di terze parti ne entrassero in possesso. Ricordo l’entusiasmo con cui era stato accolto dagli specialisti dei social network che invitavano tuti i clienti ad entrare in Google Plus adducendo ragioni tipo: “se vuoi migliorare il tuo posizionamento su Google, non puoi non essere sul suo social”
Epilogo
Al di là delle cause reali sulla chiusura di Google Plus, se si sia trattato di uno dei flop di Google o se siano ragioni di sicurezza a giustificare lo spegnimento, tutti i cambiamenti elencati in questo articolo, dal 2013 sembrano spingere la Seo verso la produzione di contenuti di qualità, rispetto ai trucchi utilizzati inizialmente dai Seo specialist. Ma potrebbe trattarsi solo di un auspicio, dato che le regole per la scrittura on-line ci sono e tendono ad aumentare, a discapito dell’originalità e della cifra estetica. Gli algoritmi introdotti per contrastare i trucchi degli specialisti, in molti casi hanno solo parzialmente risolto i problemi per i quali erano stati concepiti, tanto che sul terreno di questo conflitto, si svolgono ancora durissime battaglie .