Quanto tempo ci vuole per deindex di bassa qualità o il contenuto sottile pubblicato da incidente? [argomento di studio]

A+ A-
SEO Monsters

Ho avuto una società di e-commerce mi raggiunga precedenza nel corso dell'anno per chiedere aiuto. Volevano avere un audit completato dopo aver apportato alcune importanti modifiche al loro sito.

Come parte della nostra comunicazione iniziale, hanno preparato un elenco puntato di modifiche che erano state attuate quindi vorrei essere a conoscenza di loro prima di analizzare il sito. Tale elenco comprende il eventuali cambiamenti nella classifica, il traffico e l'indicizzazione.

Uno di quei proiettili si è distinto: Avevano visto un grande picco di indicizzazione dopo le recenti modifiche è andato in diretta. Ora, questo è un sito che era stato influenzato da importanti aggiornamenti degli algoritmi nel corso degli anni, così la combinazione di grande sito cambia (senza guida SEO) e un successivo picco di indicizzazione paura di botte fuori di me.

SEO Scared.

Credit: GIPHY

Ho controllato Google Search Console (GSC), e questo è quello che ho visto: 6.560 pagine indicizzate saltato a 16.215 in una settimana. Questo è un aumento del 160 per cento.

Indicizzazione picco di GSC.

Era chiaro che a scavare in questo problema e scoprire ciò che è accaduto sarebbe una priorità. La mia speranza era che, se gli errori sono stati spinti alla produzione, e le pagine sbagliate venivano indicizzati, ho potuto emergere questi problemi e risolverli prima che il danno maggiore è stato fatto.

Ho scatenato Urlando Rana e DeepCrawl sul sito, utilizzando sia Googlebot e Googlebot per smartphone come user-agent. Ero ansioso di scavare nei dati scansione.

Il problema: navigazione a faccette Mobile e un aumento nel contenuto sottile

In primo luogo, il sito non è reattivo. Invece, utilizza la pubblicazione dinamica, il che significa diverso HTML e CSS possono essere consegnati in base a user-agent.

I cambiamenti recenti sono state fatte per la versione mobile del sito. Dopo tali modifiche sono state implementate, Googlebot veniva spinto a molti URL sottili attraverso una navigazione a faccette (disponibile solo sulle pagine di telefonia mobile). Tali URL sottili erano chiaramente indicizzati. In un momento in cui gli algoritmi di qualità di Google sembrano essere in sovraccarico, che non è mai una buona cosa.

Le scansioni sono eseguite emerso un certo numero di pagine basate sul cellulare navigazione a faccette - e molti di loro erano terribilmente sottile o vuoto. Inoltre, il report HTML Miglioramenti (sì, che riportano molte persone ignorano totalmente) elencato una serie di tali URL sottili nel rapporto tag del titolo duplicato.

Ho scavato nel GSC mentre le ricerche per indicizzazione correvano e ha iniziato emersione molti di tali URL problematici. Ecco uno screenshot che mostra circa 4.000 URL sottili nel report. Non era tutti gli URL problematici, ma si poteva vedere Google li stava trovando.

Abbiamo chiaramente avuto una situazione in cui i problemi tecnici di SEO ha portato a contenuti sottile. Ho parlato di questo problema molte volte durante la scrittura sui principali aggiornamenti degli algoritmi, e questo è stato un grande esempio che questo accada. Ora, è arrivato il momento di raccogliere quanti più dati possibile, e quindi comunicare i problemi di fondo al mio cliente.

la correzione

La prima cosa che ho spiegato è che il cellulare-primo indice sarebbe arrivato presto, e probabilmente sarebbe meglio se il sito sono stati spostati in un responsive design. Poi il mio cliente potrebbe essere sicuri che tutte le pagine contenevano lo stesso contenuto, dati strutturati, direttive e così via. Sono d'accordo con me, e questo è l'obiettivo a lungo termine per il sito.

In secondo luogo, e direttamente legato al problema che emerse, ho spiegato che esse dovrebbero canonicalize, noindex o 404 tutte le pagine sottili essendo legato alla dalla navigazione a faccette sul cellulare. Come Googlebot esegue la scansione di nuovo quelle pagine, che dovrebbe raccogliere le modifiche e iniziare a cadere dall'indice.

Il mio cliente ha chiesto il blocco via robots.txt, e mi ha spiegato che se le pagine sono bloccate, quindi Googlebot non vedrà mai il tag noindex. Questa è una domanda comune, e so che ci sono un sacco di confusione su questo.

Meta tag robots e il file robots.txt

E 'solo dopo che le pagine vengono rimosse dall'indice che dovrebbero essere bloccati tramite robots.txt (se si sceglie di andare su questa strada). Il mio cliente in realtà ha deciso di 404 pagine, srotolato i cambiamenti, e poi passata a altri risultati importanti la revisione e strisciare analisi.

La domanda

E poi il mio cliente ha chiesto una domanda importante. E 'uno che molti hanno chiesto dopo noindexing o la rimozione di bassa qualità o pagine sottili dai loro siti.

“Quanto tempo ci vorrà per Google di abbandonare quelle pagine dall'indice ??”

Ah, una grande domanda - e la risposta può essere diverso per ogni sito e situazione. Ho spiegato che a seconda dell'importanza di quelle pagine, gli URL possono essere rimossi in tempi relativamente brevi, o potrebbe volerci un po '(anche mesi o più).

Ad esempio, dato che questi erano pagine sottili generate da una navigazione a faccette, probabilmente non erano in cima alla lista di Google dal punto di vista importanza e la priorità. E se questo fosse il caso, allora Google potrebbe non eseguire la scansione quelle pagine frequentemente (o in qualunque momento presto). La mia raccomandazione è stato quello di passare ad altri oggetti e poco monitorare indicizzazione nel corso del tempo.

Nota: ho spiegato che il mio cliente potrebbe aggiungere tali URL sottili in un file sitemap XML, una volta rimosso dal sito, al fine di accelerare il processo di Google scoprire i 404s. Credo che il mio cliente ha fatto sulla base dei dati di scansione mobile e dei miglioramenti HTML segnalazione. Questo non significa che gli URL sarebbero immediatamente sceso dall'indice, ma potrebbe aiutare con la scoperta.

L'attesa

Quindi, si è proceduto con il piano di bonifica in base all'analisi di ricerca per indicizzazione e l'audit e lasciare che Google strisciare le pagine problematiche. Abbiamo monitorato il rapporto di stato indice di vedere quando quelle pagine sarebbero iniziare a cadere, sperando che sarebbe presto (ma realisticamente sapendo che potrebbe richiedere un po ').

E poi, alla fine di agosto, una e-mail ha colpito la mia casella di posta dal mio cliente con l'oggetto, “indicizzazione finalmente sceso in GSC.” Sembra ci fosse un forte calo di indicizzazione, che cade a destra indietro fino a dove il mio cliente era prima della problematica pagine sono state indicizzate! In realtà, ci sono stati circa 500 meno pagine indicizzate rispetto a prima il picco.

In realtà, ci sono stati due gocce. Il primo è stato circa due mesi a fare dei cambiamenti, e poi c'è stato un calo molto più grande di circa tre mesi in Potete vedere il trend di seguito.:

Indicizzazione picco di GSC.

Quindi, per questo sito e la situazione, ci sono voluti circa tre mesi di Google di abbandonare tutte quelle pagine problematici dall'indice di una volta che sono stati attuati i cambiamenti (e per questo si riflettano nel rapporto Stato dell'indicizzazione in GSC). E 'importante notare che ogni situazione può essere diversa, e il tempo per deindex pagine problematici può variare. Tuttavia, per il mio cliente, è stato tre mesi.

Inoltre, Google John Mueller ha spiegato che i dati per il report Stato indice viene aggiornato più volte a settimana, ma sappiamo che il grafico di report viene aggiornato una volta alla settimana. Se questo è il caso, allora ci volle Google un po 'di tempo per rimuovere questi URL sottili dall'indice.

di Google John Mueller che spiega come spesso indice di stato viene aggiornato (a 40:36 nel video):

Andando avanti e suggerimenti finali

Erroneamente la pubblicazione di pagine sottili può essere problematico su più livelli. In primo luogo, gli utenti potrebbero essere accedono le pagine sottili o di bassa qualità (che possono avere un impatto felicità utente). In secondo luogo, Google può anche essere scansione e l'indicizzazione quelle pagine. Sappiamo che Google conterà tutte le pagine che vengono indicizzati al momento di valutare la qualità di un sito, quindi è criticamente importante sapere questo sta accadendo, a capire come risolvere il problema, e quindi monitorare indicizzazione nel corso del tempo.

Ecco alcuni pensieri finali e suggerimenti:

  • Cercate sempre di avere una recensione di SEO importanti modifiche a un sito prima di essere pubblicati. Si può risparmiare un sacco di dolore. Se avessi potuto esaminato i cambiamenti nella messa in scena, quindi gli URL sottili problematiche sarebbero stati catturati, e la società avrebbero potuto evitare tutta questa situazione.
  • Implementare correzioni rapidamente. Anche in questo caso, Google valuterà tutte le pagine che vengono indicizzati al momento di valutare la qualità di un sito. Se si prende in mano un problema come quello documentato qui, muoversi rapidamente per noindex, canonicalize o 404 quelle pagine. Il più veloce di Google può vedere che, meglio è.
  • Essere pazientare. Si può prendere tempo per le pagine per essere rimosso dall'indice. In questo caso, ci sono voluti un solido tre mesi per che ciò accada.
  • responsive design è il miglior approccio, l'installazione-saggio, come il mobile primo indice si avvicina. Google ha spiegato molte volte nel corso dell'ultimo anno o giù di lì. Questo caso sottolinea il pericolo nell'uso di URL per dispositivi mobili separati o la pubblicazione dinamica. Molte persone controllare modifiche sul proprio desktop, in modo da problemi di telefoni possono rimanere nascosti sotto la superficie. Attenzione.
  • Essere proattivi, non reattivi. Se strisci continuamente e analizzare il vostro sito, è possibile ritirare i problemi come questo abbastanza rapidamente. Poi si può passare rapidamente per apportare modifiche. Nip quei problemi sul nascere.

Sommario: pazienza è una virtù

Ci sono momenti in cui i siti web erroneamente pubblicano bassa qualità o il contenuto sottile. Quando ciò accade, è estremamente importante identificare e superficie quelle pagine in fretta. E quando lo fai, il prossimo passo è quello di gestire correttamente le pagine di noindexing, canonicalizing o 404ing gli URL.

Una volta che si prende cura della situazione, si può prendere tempo per Google a scansionare quelle pagine, i cambiamenti di processo, e poi cadere le pagine dall'indice. Hai semplicemente bisogno di essere paziente sul fatto che aver implementato la correzione giusta. Nel corso del tempo, quelle pagine dovrebbero cadere - proprio come hanno fatto in questa situazione.


Le opinioni espresse in questo articolo sono quelle dell'autore del cliente e non necessariamente Search Engine Land. Autori del personale sono elencate qui.


Ads

Condividere