AGGIORNAMENTO ANTISPAM DI GOOGLE: LE NEWS

Google ha lanciato di recente il nuovo aggiornamento antispam. Che cos’è successo effettivamente? Neil Patel ne ha parlato dettagliatamente nel suo articolo “Google’s Spam Update Just Completed: Here’s What Happened” scritto sul blog del suo portale neilpatel.com. Qui ne trovate una mia libera traduzione.

Patel e lo staff della NP Digital hanno creato nel tempo 100 siti web che utilizzano contenuti scritti da intelligenza artificiale. Questi siti sperimentali servono a capire come Google percepisca questo tipo di contenuti e in questa breve guida verrà trattata anche questa tematica.

SCOPO DELL’AGGIORNAMENTO ANTISPAM

L’obiettivo principale di Google riguarda la riduzione dello spam e oggi l’azienda ha molti più strumenti per cercare di contrastarlo rispetto al passato. Questo aggiornamento non specificava se si trattasse di link spam o solo spam generale. Ma quando guardiamo agli oltre 900 milioni di domini che monitoriamo, ecco le categorie che sono state maggiormente colpite in modo negativo a livello globale.

Come puoi vedere dal grafico sopra, i siti di notizie e sport sono stati i più colpiti, seguiti da vicino dai siti di arte e intrattenimento e tecnologia e comunità. La maggior parte di questi siti è basata su contenuti pesanti e non orientata al prodotto.

Quando abbiamo esaminato i siti interessati, ecco cosa abbiamo trovato:

  • Contenuti scarni: la maggior parte di loro non aveva contenuti sorprendenti… molti di loro avevano contenuti scarni. Per chiarire, non intendo un basso numero di parole, ma contenuti che in realtà non hanno fornito molto valore. In sostanza, il contenuto era di livello superficiale e una volta finito di leggerlo non hai ottenuto molti approfondimenti o punti o valori utilizzabili.
  • Meta tag creati in modo inadeguato: molti dei siti web interessati avevano pagine con meta tag duplicati o che erano stati scritti per i motori di ricerca e non per gli umani.
  • Riempimento di parole chiave: la maggior parte dei siti interessati non conteneva un numero eccessivo di parole chiave, ma circa il 3,89% sì. Questi usavano parole chiave in modo eccessivo che rendevano l’esperienza di lettura non ideale.

L’analisi di altri punti (tipo i backlink) non ha invece regalato nuove conclusioni alla nostra ricerca, ma… ecco qui qualcosa di molto interessante.

CONTENUTI GENERATI DALL’INTELLIGENZA ARTIFICIALE

Abbiamo 100 siti web generati dall’intelligenza artificiale che coprono diversi settori. Tutti hanno oltre 60 pagine di contenuti, se non di più, tutte generate dall’intelligenza artificiale. Inoltre generano almeno 3.000 visitatori al mese da Google. Nessuno dei siti vende nulla o raccoglie lead, sono solo siti informativi nei rispettivi ambiti.

Dei 100 siti generati da contenuti AI, 53 hanno i loro contenuti creati esclusivamente tramite AI. E hanno anche i loro meta tag e persino i titoli all’interno dell’articolo, tutti creati da AI. Quelle pagine non si collegano ad altri siti o nemmeno a pagine interne poiché gli strumenti di generazione di contenuti AI non aggiungono realmente link.

Una cosa da notare è che la maggior parte degli strumenti di intelligenza artificiale non crea contenuti superiori a 500 parole a meno che non inizi a modificare il contenuto o chiedi allo scrittore di intelligenza artificiale di creare contenuti un paragrafo alla volta.

Ma per il primo lotto di siti AI (53 di loro), non abbiamo avuto umani che modificassero alcun contenuto. Abbiamo utilizzato esclusivamente il contenuto creato da AI nella forma in cui è stato creato, inclusi i meta tag creati dall’autore di AI.

Nel secondo lotto avevamo 47 siti. Su questi abbiamo utilizzato l’intelligenza artificiale per creare il contenuto, ma poi abbiamo chiesto a un essere umano di modificarlo per assicurarci che fosse migliore e fornisse più valore. Gli umani hanno anche aggiunto link interni ed esterni, modificato i meta tag per renderli più user-friendly e aggiunto immagini e video incorporati all’interno dell’articolo quando aveva senso.

L’unica cosa che non abbiamo fatto è stato di aumentare molto la lunghezza. Perché da quello che vediamo dal nostro Ubersuggest AI Writer, la maggior parte delle persone che usa solo contenuti scritti da AI non li modifica molto. Quando li modifica, non aggiunge in realtà molte parole.

Con i nostri siti, volevamo replicare ciò che la maggior parte dei professionisti del marketing sta facendo con l’intelligenza artificiale per avere un’idea di ciò che Google sta cercando di fare. Riesci a indovinare cosa è successo a quei siti?

Il primo gruppo di contenuti scritti dall’intelligenza artificiale, che non ha avuto alcun intervento umano quando si trattava di modificare il contenuto, non ha funzionato bene come quelli che hanno avuto l’intervento umano.

In sostanza, hanno registrato in media un calo del traffico del 17,29% e il posizionamento delle parole chiave è diminuito in media di 7,9 posizioni. Tieni presente che può sembrare molto, ma nessuno di loro aveva la classifica numero 1 per nessun termine popolare. Il secondo gruppo ha visto invece un calo del traffico del 6,38% e in media un calo della posizione in classifica di 3,3 posizioni.

Ma poi quando abbiamo scavato più a fondo perché ero curioso di vedere i risultati per ogni sito, abbiamo notato che non tutti i siti sono stati colpiti dall’aggiornamento.

  • Del primo gruppo di 53 siti, in cui il contenuto NON è stato regolato dagli esseri umani, 14 di essi sono stati colpiti dall’aggiornamento e hanno registrato cali di traffico tra il 31,44% e il 73,18%. In media i 14 siti hanno perso il 51,65% del loro traffico.
  • Dal secondo gruppo, in cui gli umani hanno leggermente modificato il contenuto, sono stati colpiti 8 siti. Hanno perso tra il 29,52% e l’81,43% del loro traffico. In media, questi 8 siti hanno registrato un calo del traffico del 42,17%.

Ora, la cosa divertente è che alcuni degli altri siti in entrambi i lotti hanno visto cali di traffico minori come pochi punti percentuali e alcuni hanno persino visto un leggero aumento del traffico dal traffico SEO fino al 4% quando si confronta il traffico precedente e successivo all’aggiornamento.

Inoltre, nel primo gruppo dei 14 siti che sono stati interessati, 13 di loro hanno visto anche cali di traffico dall’aggiornamento dei contenuti, e nel secondo gruppo tutti e 8. Le statistiche che abbiamo visto ci confermano dunque che questi siti sono stati colpiti dall’aggiornamento.

CONCLUSIONI

Da ciò che stiamo vedendo, la maggior parte di questo aggiornamento si è concentrata su contenuti, meta tag e densità delle keyword. Ciò non significa che Google non abbia esaminato altri fattori come link o contenuti duplicati, ma abbiamo visto che i modelli più importanti sono relativi ai fattori che ho menzionato sopra e ai contenuti generati dall’intelligenza artificiale.

Se vuoi fare bene a lungo termine concentrati sull’utente, è davvero il modo per vincere. Nel breve periodo, potresti non andare avanti, ma nel lungo periodo lo farai. Poniti solo domande del tipo: questo contenuto sarà utile per gli utenti? L’utilizzo degli stessi meta tag su tutte le pagine è utile? Il mio sito web fornisce abbastanza valore al punto che le persone vorranno linkare il proprio sito al mio?

Rispondi