Making Sense Of di Google Suggerimenti URL nuova dinamica

A+ A-

recente post sul blog di Google raccomandando che i webmaster evitare di riscrivere URL dinamici causato scalpore minore nel settore della ricerca di marketing. Le reazioni variavano da paure nervose che i siti con URL riscritte dovrebbero improvvisamente invertire il loro intenso lavoro, tutto il modo di stupore e persino rabbia che Google dovrebbe raccomandare una battuta d'arresto a qualcosa che molti considerano una best practice.

Come il presidente di una società che fornisce la riscrittura degli URL come uno di una serie di ottimizzazioni di ricerca naturali che facciamo per molti siti dinamici (tramite la nostra soluzione GravityStream), credo di avere una prospettiva unica sulla questione e posso sia chiarire ciò che penso che il googler possono essere stati intenzione di trasmettere e anche fornire alcune proposte alternative in giro per la questione.

Col senno di poi, post sul blog di Google sulla dinamica rispetto URL statici non è poi così rivoluzionaria, e non era destinato ad essere tutto ciò che discutibile.

C'è stato un certo grado di paura, incertezza, dubbio, e disinformazione sulla riscrittura degli URL. Molti hanno imparato tattiche di ottimizzazione di ricerca nel lasso di tempo relativamente recente, in primo luogo attraverso la lettura di un guazzabuglio di pagine web scritte in tempi diversi in passato da diverse persone con diversi gradi di competenza. Quando i motori di ricerca sono stati nei loro primi giorni, erano quasi uniformemente in grado / disposti a ragno URL dinamici, per cui la presenza di stringhe di query e smettere di caratteri utilizzati per essere un affare molto grosso. Tattiche come l'impiego di scripting “Mod Rewrite” per trasformare automaticamente gli URL dinamici di apparire come statica sono stati sviluppati per affrontare questi problemi.

Ma durante le battaglie più di “chi indicizzati il ​​maggior numero di pagine”, i motori di ricerca ridotto le regole su quali tipi di URL che avrebbero index, allarga per indicizzare molti querystringed / URL dinamici, e l'introduzione di nuovi problemi in termini di gestione dei duplicati (duplicazione è causato quando un sito fornisce essenzialmente lo stesso contenuto tramite un numero di URL che possono differire solo da parametri relativamente minori). Gli individui che non capiscono l'evoluzione delle capacità dei motori di ricerca non possono avere il contesto necessario per capire veramente cosa aspetti della formazione URL sono importanti.

In questo post del blog, Google a quanto pare ha cercato di ridurre la disinformazione intorno ciò che è necessario negli URL, e anche loro volevano solo fare le cose più facili per i webmaster per permettere alla gente di sapere che possono gestire gli URL dinamici molto meglio di quanto è stato fatto in passato. Responsabile di Google della loro squadra Webspam, Matt Cutts, interpretata in questo modo nel post nei commenti Sphinn:

“... a mio parere ciò che questo post dice è 'Facciamo un lavoro solido su siti con parametri dinamici, e un sacco di persone commettono errori quando cercano di riscrivere i loro URL per cercare statica, così si potrebbe desiderare di provare il percorso parametro dinamico perché che può funzionare abbastanza bene '. In sostanza, è Google dicendo 'Verremo a webmaster e il modo naturale di scrivere parametri dinamici piuttosto che ti chiede di riscrivere tutto come statica se non si vuole.' Quindi stiamo cercando di avvicinarsi ai webmaster, non volendo i webmaster di muoversi necessariamente verso di noi. Se hai già un sito e che sta facendo bene il modo in cui attualmente è-grande. In tal caso, probabilmente non c'è bisogno di cambiare nulla. Ma se si sta iniziando un nuovo sito, vale la pena considerare stare con parametri dinamici invece di fare grandi quantità di riscritture (che alcuni webmaster fanno in modi insoliti che non sempre funzionano bene nei motori di ricerca). Questo è il mio introito, almeno. Non è come sia scelta sarebbe farti penalizzato in Google; tutto questo è solo consiglio da dare ulteriori informazioni per i webmaster quando stanno facendo la loro scelta di architettura del sito.”

La nostra azienda è d'accordo che è facile fare il male gestione URL - è molto semplice da implementare con poca manipolazione di fattori che aggravano la duplicazione, rendendo più difficile per Google ei motori di ricerca per decifrare automaticamente i parametri non necessari - e le persone che lo fanno può overstuff gli URL con le parole chiave o impiegare parole chiave non pertinenti. URL Rewriting fatto in una maniera non sofisticato amatoriale può introdurre molti più problemi di quanti ne risolva.

Molto semplicemente, la riscrittura degli URL non deve essere intrapresa se non si ha l'esperienza e la tecnologia delle qualità professionali necessarie riscrittura.

Tuttavia, non sono d'accordo che tutti i webmaster dovrebbero necessariamente lasciare URL fino a algoritmi di Google per gestire. Google ha recentemente chiesto per i webmaster per aiutare con i problemi causati da collegamenti infiniti e la “navigazione guidata” o cercare link di filtraggio che creano numerosi percorsi URL per lo stesso contenuto, e Googlebot non è molto bravo a rilevare questo e compensare la duplicazione e gli effetti di diluizione PageRank. Che tutto si riduce a questo: ciò che è fonte di confusione per Googlebot in ultima analisi, diventa fonte di confusione per i ricercatori, portando così ad un lose-lose-lose - per Google, per i suoi utenti, e per i proprietari di siti.

Diamo un'occhiata a un esempio concreto per dimostrare il mio punto. Non molto tempo fa, Googlebot ha catturato in una trappola ragno non intenzionale nel proprio sito Google Store, l'indicizzazione di molti URL duplicati causati da ID di sessione e URL alternativi causati da architettura del sito:

Makingsenseofgooglesurl1makingsenseofgooglesurl2

Il fatto è che gli URL con ID di sessione o gli ID utente non sempre vengono correttamente identificati da Google, con conseguente contenuti duplicati e la diluizione PageRank. Quando questo accade, il potenziale PageRank di un sito può ottenere diffondersi molto sottilmente attraverso un gran numero di pagine, riducendo la loro capacità di rango nei risultati di ricerca.

Inoltre, gli URL con le parole chiave in loro un rendimento migliore nelle SERP (sia ranking-saggio e click-through-saggio) rispetto a quelli con ID prodotto. Quindi un URL riscritto come www.domain.com/blue-widgets sorpasserà www.domain.com/product.asp?productID=123 per una ricerca su “widget blu” - ceteris paribus. Questo è vero non solo in Google, ma anche in altri motori pure.

Abbiamo condotto numerosi esperimenti per i clienti per dimostrare la classifica beneficio a noi stessi, ma non possiamo pubblicare questi test, purtroppo (siamo limitati a causa della riservatezza del cliente). Vi incoraggio a condurre i propri test. Recentemente, al Web 2.0 Expo di New York, Nathan Buggia di Microsoft Live Search ha descritto come URL descrittivi in ​​grado di fornire risultati migliori sia in traffico di ricerca e il traffico organico. (Quando contattati in seguito per questa storia, Buggia ha chiarito che “non si sta cercando di roba come molte parole chiave in là possibile, si sta cercando di rendere l'URL più descrittivo e pertinente al contenuto della pagina in modo che entrambi gli utenti e motori di ricerca possono comprendere meglio cosa possono aspettarsi dal clic su un link alla pagina.”

URL più brevi hanno anche una migliore percentuale di clic nelle SERP di Google di URL lunghi. Questo effetto è stato trovato attraverso test utente che è stato commissionato da MarketingSherpa. MarketingSherpa ha scoperto che gli URL brevi ottenere cliccato su due volte più spesso gli URL lunghi (dato che il rango di posizione è uguale).

La proposta di valore è chiaro: se si trasformano in modo efficace gli URL ad essere più brevi, di avere buone parole chiavi / rilevanti, e per ridurre possibili duplicazioni - si possono avere migliori percentuali di clic e una migliore posizionamento nei motori di ricerca.

Quali sono stati Googler Juliane Stiller e Kaspar Szymanski cercando di realizzare con il suddetto post del blog? La mia impressione è che Google sta trovando un allarmante numero di riscritture URL impropriamente attuate che sono fonte di confusione Googlebot ancora di più e aggravando la situazione contenuti duplicati.

Se i parametri superflui - ad esempio ID di sessione, ID utente, bandiere che non intaccano sostanzialmente il contenuto visualizzato, monitoraggio parametri - ottenere erroneamente incorporato nel nome del file / filepath, quindi Googlebot avrà un tempo ancora più difficile identificare quei parametri superflui e aggregando i duplicati . E se i parametri sono incorporati nel percorso del file in modo incoerente (ad esempio www. Example.com/c-clothing/shirts-mens/ e www.example.com/shirts-mens/c-clothing/). Inoltre, quando Googlebot trova ancora i link ai vecchi (non riscrivere) gli URL, l'URL di buone intenzioni riscrittura in realtà presenta Google con un altro duplicato da affrontare. Può essere un vero e proprio disastro.

Google può ora gestire URL dinamici meglio che in tempi precedenti, ma se si sa cosa si sta facendo sarete ottenere un vantaggio trasformando in modo efficace gli URL.

La lezione qui è di assumere un professionista quando si imbarcano su un progetto di riscrittura degli URL, per non lasciare gli URL dinamici e il vostro sito web nelle mani del destino.

Stephan Spencer è fondatore e presidente di Netconcepts, un 12-year-old un'agenzia web specializzata nel motore di ricerca e-commerce ottimizzato. Egli scrive per diverse pubblicazioni e blog del Natural Blog. La colonna Biologico 100% appare giovedì alle Search Engine Land.


Le opinioni espresse in questo articolo sono quelle dell'autore del cliente e non necessariamente Search Engine Land. Autori del personale sono elencate qui.


Ads

Condividere