In relazione all’ultimo aggiornamento di Google ho deciso di tradurre questo interessante articolo uscito su Search Engine Journal:
”
Esaminiamo il più recente aggiornamento dell’algoritmo di base di Google
Google ha confermato un aggiornamento dell’algoritmo di base avvenuto la settimana scorsa.
Danny Sullivan di Google ha dichiarato che l’azienda non aveva come obiettivo per l’update i siti Web di bassa qualità. L’idea delle conferme ufficiali è che non vi sia nulla da correggere nei siti che rendono male nei ranking.
Questo annuncio è importante perché schiaccia la solita speculazione di Phantom Update. Google non prende di mira i segnali di “bassa qualità”.
Cos’è un aggiornamento Broad Core Algorithm?
Google in genere non annuncia aggiornamenti al suo algoritmo principale perché gli update dell’algoritmo più importanti hanno luogo quasi ogni giorno, a volte anche due volte al dì (leggi sotto per maggiori dettagli).
Questo aggiornamento è diverso. Non è uno dei soliti upgrade giornalieri di Google.
Innovazioni di questo tipo si verificano diverse volte l’anno. Google le definisce come Broad Algorithm Update.
Indizi di un Broad Core Algorithm Update
Google ha offerto pochi indizi. Ma ecco quello che sappiamo:
- L’aggiornamento si focalizza sul dare dei risultati di ricerca migliori
- Non c’è nulla di sbagliato se i siti perdono nei ranking
- Non c’è modo di “correggere” i siti che perdono nei ranking
- I miglioramenti si concentrano sui contenuti ma non è un problema di “qualità”
Ecco l’annuncio di Google:
“Ogni giorno, Google rilascia di solito una o più modifiche progettate per migliorare i nostri risultati. Alcune sono focalizzate su specifiche aree di miglioramento. Altre sono grandi cambiamenti. La scorsa settimana abbiamo rilasciato un ampio aggiornamento dell’algoritmo di base. Lo facciamo regolarmente più volte l’anno….”
Questo è sicuramente simile ai precedenti aggiornamenti core, ma su scala più ampia. Google ha aggiornato l’algoritmo principale ogni giorno ormai dal 2012 ( 665 aggiornamenti l’anno).
Perché Google Potrebbe essere diventato più trasparente
L’industria della SEO solitamente presume che gli aggiornamenti degli algoritmi core di Google si concentrino sul “targeting” di pagine Web di “bassa qualità. È un peccato perché si ignora così la possibilità che gli aggiornamenti dell’algoritmo base di Google possano essere semplicemente dei miglioramenti per fornire una risposta migliore alle query di ricerca.
Quindi, se Google va ad aggiornare l’algoritmo principale per migliorare la sua capacità di rispondere alle query di ricerca, l’industria dell’SEO avrebbe torto ad affermare che i siti in perdita nei ranking hanno fatto qualcosa di sbagliato.
Google ha sempre rifiutato di chiarire quali tipi di miglioramenti stavano venendo apportati, almeno fino a questo annuncio. Si è quindi ipotizzato che Google stesse “prendendo di mira” le pagine Web di bassa qualità. Ancora e ancora, anno dopo anno. Come se Google sapesse solo creare algoritmi mirati per queste “scarse” pagine Web.
L’Algoritmo di Google non si limita a prendere di mira la bassa qualità
C’è una grande differenza tra un algoritmo che “bersaglia” le pagine web di bassa qualità ed uno che identifica la migliore risposta a una query di ricerca. Il settore della SEO dà per scontato che l’algoritmo di Google sia ossessionato dal targeting di bassa qualità, tralasciando i miglioramenti nella risposta alle query di ricerca.
Google ha costantemente smentito le speculazioni sul Phantom Update
Negli ultimi anni, l’industria della SEO si è mossa come se l’algoritmo di Google fosse rivolto esclusivamente alle pagine Web di bassa qualità. Google non solo ha negato, ma i suoi portavoce hanno finanche smentito con veemenza questa voce.
La risposta di Google alle voce sul Phantom Update era che mancava un aggiornamento significativo, a favore invece delle sole modifiche giornaliere all’algoritmo principale. Con quale frequenza Google lo aggiorna? Sicuramente due volte al giorno, ogni giorno.
Se questo è vero, un SEO potrebbe scegliere un qualsiasi giorno della settimana per dichiarare un aggiornamento e non sbaglierebbe. Ma sarebbe sbagliato dire che l’update era di vasta portata, e possibilmente ancora più errato presumere che l’aggiornamento dell’algoritmo di base si riferiva alla bassa qualità. Come abbiamo visto in precedenza, l’algoritmo principale di Google fa più che “mirare” alla bassa qualità.
Google Potrebbe Aggiornare l’Algoritmo Core due volte al giorno ogni giorno
Alcuni anni fa Google ha pubblicato informazioni sul suo algoritmo, facendo capire di emettere almeno due cambiamenti al suo “core” ogni giorno. Ecco cosa rivelarono:
“…i nostri esperti ingegneri di ricerca esaminano attentamente i dati di tutti i diversi esperimenti, decidendo se la modifica è approvabile per il lancio. Sembra difficile, ma la procedura è ben consolidata, quindi un ingegnere può passare da un’idea al live su Google per una percentuale di utenti in 24 ore. Basandoci su questa sperimentazione, valutazione e analisi, abbiamo lanciato 665 aggiornamenti per la ricerca nel 2012.”
Google lanciò 665 miglioramenti per la ricerca solo nel 2012. Se pensiamo a questa cifra, possiamo capire perché i portavoce di Google continuano a dire che non vi era alcun update. Semplicemente non c’erano.
Ecco cosa twittava Sullivan sul vecchio e cosiddetto aggiornamento Maccabei:
“I report che lo definiscono un singolo “update” o che lo chiamano “Fred” non riflettono ciò che diciamo in realtà: ci sono stati diversi piccoli cambiamenti avvenuti come sempre come da routine in una qualsiasi settimana.”
Gary Illyes era riluttante a dare un nome ad un algoritmo core quotidiano. Quando capisci che questi aggiornamenti arrivano quasi ogni giorno, l’idea di sceglierne uno su sessanta in un dato mese poi può sembrare davvero ridicola. Quando venne incalzato a riguardo, Gary Illyes alzò praticamente le mani, suggerendo di nominarlo come il suo pesce, Fred.
Google Distrugge le solite speculazioni sul Phantom Update
Che Sullivan abbia fatto di tutto per annunciare specificamente che non c’è nulla da sistemare può essere visto come una mossa preventiva per fermare la speculazione infondata secondo cui Google stava “mirando” solo ai siti web di bassa qualità.
Idea 1: Che cos’è il Google Improving?
Mi tengo aggiornato sulla ricerca sul recupero delle informazioni. Ho letto i documenti di ricerca e i brevetti più recenti. La ricerca oggi è focalizzata su 22 aree. Nessuna di queste si concentra sul targeting delle pagine web di bassa qualità.
Ecco gli aspetti più a tema con la SEO:
- Capire l’intento dell’utente
- Capire il contenuto
Queste sono le aree che fanno probabilmente parte dell’aggiornamento dell’algoritmo Broad Core di Google. Se quest’ultimo riuscisse a capire meglio i contenuti, come lo ottimizzeremmo?
Ecco un esempio di ricerca recente: Apprendimento per un’espansione supervisionata di query efficiente tramite selezione di funzionalità a due stadi. Non puoi comprare un thesaurus e disseminare sinonimi lungo il tuo contenuto per battere questo tipo di algoritmo.
Motivo forse per cui Sullivan ritiene che questo non sia il problema da risolvere. Questo aggiornamento dell’algoritmo Broad Core potrebbe avere qualcosa a che fare con il miglioramento nell’efficacia con cui Google decifra intento e contenuto dell’utente.
Idea 2: Probabilmente non riguarda la bassa qualità
Noterai che non parlo della ricerca su pagine web di bassa qualità. Questo perché non è qualcosa su cui i ricercatori di Google si concentrano.
Bisogna tornare indietro di molti anni per trovare documenti e brevetti relativi alla ricerca di contenuti di bassa qualità. La maggior parte della ricerca sul recupero delle informazioni (relativa alla SEO) si concentra sull’intento dell’utente e sulla comprensione del contenuto stesso.
Se su questi due punti si stanno concentrando i motori di ricerca, ne consegue che gli aggiornamenti dell’algoritmo di base si concentrano anche su quelli per classificare le aree e non sul “targeting” di pagine Web di di bassa qualità.
Se Google fosse ossessionato dalle pagine Web di bassa qualità come gli SEO, ci sarebbero più ricerche e brevetti depositati su questi argomenti. Ma non ci sono. Questa è la realtà.
Ecco un link ai documenti di ricerca di Google, così potrai metterti alla ricercadi quegli algoritmi per “pagine web di bassa qualità”. Vedi da solo.
Idea 3: Seriamente, Cosa Si Può Fare Per Recuperare Ranking?
Sebbene Google abbia dichiarato che non c’è una soluzione, la SEO è proattiva. Google consiglia di attendere che i tuoi contenuti aumentino rispetto alle altre pagine. Questo però implica che i tuoi contenuti siano “grandi” e più importanti, almeno rispetto a quelli della concorrenza.
Secondo me, una via d’uscita significa creare contenuti non focalizzati sulle parole chiave, ma sulla soluzione dei problemi. Concentrarsi sui fastidi che i visitatori del sito vogliono risolvere può essere produttivo.
I risultati di ricerca di Google riguardano la risoluzione delle query degli utenti. Ciò significa che il tuo contenuto deve anche concentrarsi sulla risoluzione dei problemi quando vanno a inserire una certa query di ricerca. C’è ancora molto da dire su questo argomento, in quanto riguarda l’esperienza dell’utente.
Google dice di rendere grandiosi i tuoi contenuti. Cosa li rende grandiosi di preciso? Non è la rilevanza per le parole chiave di un utente.
Ciò che rende grande il contenuto sta nella risposta positiva del visitatore del sito verso i tuoi contenuti. Quanto è comodo o facile trovare una risposta, quanto è semplice confrontare i prodotti – tutte queste caratteristiche legate alla “user experience” messe insieme sono ciò che rendono i contenuti grandiosi.”
E tu cosa ne pensi?