SEO, SEA & Web Marketing | performance-marketing.it

Così parlò Mueller: 30 best practices per ottimizzare la SEO On-Page

oncrawl.com e successivamente il Search Engine Journal hanno recentemente raccolto gli statements più importanti rilasciati da sua eminenza John Mueller, Webmaster Trends Analyst di Google, su tematiche di SEO on page. Molti di questi punti non costituiscono particolare novità, altri invece sono sono più importanti e quindi sono degni di essere considerati con attenzione. Vediamoli insieme.

1. Gli errori 404 non hanno nessun impatto sul posizionamento

Come già scritto in precedenza, John conferma che le 404 non hanno nessuna influenza sui ranking e che sono anzi una cosa cosa totalmente normale all’interno di un sito web.

2. Google considera due domini come “uguali” nel caso utilizzino gli stessi parametri negli URL ed abbiano un hosting condiviso

Come evitare che questo venga visto da Google come contenuto duplicato? Utilizza il canonical tag!

3. Il solo redirect 301 non dà la garanzia che il nuovo URL venga indicizzato

Google, “sulla base di altri segnali” (qui Mueller, come spesso fa, si tiene molto sul generico) potrebbe mostrare nei risultati di ricerca l’URL “vecchio”, cioè quello che viene reindirizzato. Per evitare ciò, è necessario far capire chiaramente che l’URL rilevante è quello di target del reindirizzamento tramite l’uso del canonical, la correzione dei link interni e, se necessario, del tag hreflang.

4. Google considera i tempi di caricamento e di rendering per valutare la velocità di un sito

Mueller consiglia di non focalizzarsi troppo nell’ottimizzazione di metriche particolari come ad esempio il TTFB (time-to-first-byte) o il dump complete, perché Google valuta il quadro generale del caricamento di un sito piuttosto che metriche separate per le fasi intermedie.

5. Google non considera le immagini di background con CSS

Per apparire nei risultati di ricerca delle immagini, il buon John consiglia di di utilizzare il tag src=”https://www.example.com/my_image_URL”

6. La posizione dei link interni non è rilevante

È probabile che le parole di Mueller siano state in questo caso fraintese. Infatti la posizione dei link interni conta, eccome. Questo il commento a tal proposito di Cyrus Shepard, uno che qualcosina di SEO ne sa:

7. Il cambio di hosting può portare Google a ridurre la frequenza di scansione

In caso di cambio di provider, tieni presente che Google ridurrà temporaneamente la velocità di scansione del tuo sito, perché non sa quale carico può sopportare il nuovo server.

8. Se utilizzi i framework Javascript, testali tramite il rapporto dati strutturati di Search Console

I Frameworks Javascript possono causare problemi a livello di SEO, specialmente quando si tratta di crawling e indicizzazione. Per questo motivo, John consiglia di utilizzare il rapporto sui dati strutturati in Search Console per assicurarsi che un sito web sia correttamente scansionato e “renderizzato“.

9. L’HTTPS non ha un influenza diretta sui ranking, ma può essere utilizzato come tiebreaker

A parità di status di fattori di ranking per una determinata query (consideriamo ad esempio il caso ipotetico di due siti la cui qualità dei contenuti è simile, che abbiano un profilo di backlink identico e il cui livello di ottimizzazione on page sia simile o uguale), l’HTTPS può portare ad un vantaggio rispetto ad un sito senza certificato SSL.

10. I dati strutturati necessitano di un codice HTML “pulito”

Mueller sostiene quanto sia fondamentale ridurre al minimo gli errori di codice nell’HTML per evitare problemi nell’implementazione di Schema.org

11. Google valuta la qualità di un sito basandosi solo sulle pagine indicizzate

Spesso i webmaster si chiedono se le pagine bloccate all’indicizzazione o alla scansione possano influenzare la valutazione complessiva di un sito. John conferma che Google valuta solo le pagine indicizzate per determinare la qualità del contenuto di un sito. Ci sono tante pagine, caso tipico quelle a cui si accede tramite log in, in noindex? Nessun problema.

12. Lo status 410 toglie le pagine dall’indice di Google più velocemente di un 404

In sostanza Mueller dice che i codici 404 e 410 vengono trattati allo stesso modo, vale a dire che Google in entrambi i casi non spreca troppo tempo ad analizzare cose che di fatto non esistono. L’unica sottile differenza, sostiene John, è che le 410 vengono tolte dall’indice prima delle 404, ma la differenza è veramente minima (“we’re talking on the order of a couple days or so“).

13. Aggiungere il noindex tramite Javascript? Sconsigliabile

Se si inserisce noindex tramite Javascript, la sua considerazione e applicazione sarà ritardata perché Google lo “catturerà” nel suo secondo rendering e indicizzazione: il crawl del Javascript può avvenire in un secondo momento, quando la pagina può essere già stata indicizzata. Al fine di non consentire l’indicizzazione di una pagina sin dall’inizio, è meglio tramite HTML.

14. Javascript e HTML non devono inviare segnali contraddittori a Google

Fai attenzione ai segnali che invii a Google tramite Javascript e HTML. Se si sceglie di impostare un link in nofollow tramite Javascript e follow in HTML, questo link verrà seguito durante la prima indicizzazione della pagina, perché Google considera i segnali in Javascript solo in un secondo rendering e indicizzazione.

Lo stesso discorso vale anche per i segnali duplicati, vale a dire mai dare gli stessi segnali in HTML e Javascript. Per esempio, se usi Javascript per modificare i canonical tag o i robots meta tags, non ripetere assolutamente questi tags anche in HTML.

15. Se si modifica il contenuto di una pagina più spesso, Google aumenterà la frequenza di scansione conseguentemente

Google tenta di capire la frequenza con la quale il contenuto di una pagina viene cambiata e modifica di conseguenza la frequenza di scansione. Se il contenuto cambia significativamente e regolarmente, Google aumenterà di conseguenza la sua frequenza di scansione.

16. Google non indicizza il contenuto degli URL che contengono il cancelletto

Qui non c’è molto da spiegare: l’URL http://www.example.com/office.html#mycontent non verrà indicizzata

17. Pagine che restituiscono 404 o 410 non comportano una perdita del crawl budget

Google può per un certo periodo di tempo continuare a scansionare questo tipo di pagine, ma ciò non comporta uno spreco del crawl budget. Google semplicemente scansiona ulteriormente queste pagine per assicurarsi che non ci sia niente da indicizzare.

18. Google non ha una preferenza per gli URL più corti

Differentemente da quanto si è sempre pensato, Google non li tratta in modo preferenziale. Un URL corto è comunque meglio, se non per i motori di ricerca, per l’utente.

19. Usa il Rel=Canonical invece del Noindex per la gestione dei contenuti duplicati

Quando una pagina è impostata su noindex ne consegue che tutti i “segnali” provenienti da questa pagina saranno persi.

Per la gestione di contenuti duplicati, Mueller raccomanda di utilizzare il canonical nella versione preferita della pagina in modo che i segnali per entrambe le versioni possano essere considerati ed evitare quindi che quelli della pagina deindicizzata vengano persi.

20. Assicurati che gli scripts posti nell’header non lo chiudano prematuramente

John spiega che in alcuni siti si trovano nell’header elementi che non gli dovrebbero appartenere, come ad esempio divs e iframes. Ciò comporta che Googlebot assuma che l’header sia già chiuso e che quindi non venga considerata la presenza di elementi fondamentali, come ad esempio hreflang.

John raccomanda di utilizzare la funzione “Visualizza codice” dello strumento Rich Results di Google per controllare questo problema.

21. Pagine bloccate tramite robots.txt possono essere comunque indicizzate se linkate esternamente

Google può comunque indicizzare pagine che sono bloccate tramite robots.txt se queste hanno ricevono backlinks. Per queste pagine Mueller consiglia quindi di utilizzare il tag noindex.

22. Usa il rendering dinamico per mostrare a Googlebot pagine completamente renderizzate

Implementando il dynamic rendering si può restituire la versione completamente renderizzata di una pagina a Googlebot.

In questo modo si supera il ritardo tra l’indicizzazione iniziale e il rendering di una pagina.

23. Anche i link non visibili passano PageRank

Mueller conferma che tutti i link nell’HTML di una pagina passano PageRank, indipendentemente dal fatto che questi siano visibili o meno.

24. Google è capace di ignorare i link sia tramite algoritmo che manualmente

Google utilizza algoritmi e metodi manuali per ignorare i link, non necessariamente solo quelli “tossici”.

Il Web Spam Team di Google può intervenire manualmente per bloccare i siti dal passaggio di PageRank e ignorare quelli negativi. Rifiutare links tramite disavow è quindi ormai una pratica obsoleta?

25. Hreflang è un segnale di canonicalizzazione di minore importanza

Quando Google sceglie la versione canonica di una pagina, hreflang viene utilizzato come segnale minore.

Hreflang dovrebbe essere supportato da segnali più rilevanti, come ad esempio

  • La  Sitemap
  • I link interni
  • Il Rel=Canonical

26. Il Markup “Date Published & Modified” è fortemente consigliato

Mueller consiglia di aggiungere il markup della data per gli articoli, in quanto ciò consente a Google di estrarre più facilmente la data corretta dalla pagina.

27. L’importanza di una pagina è determinata più dal numero di clic per raggiungerla che dalla struttura dell’URL

Nel determinare l’importanza di una pagina, Google dà più peso al numero di clic necessari per raggiungere una pagina (click depth) piuttosto che alla struttura dell’URL.

28. Meglio utilizzare sottodirectory invece che sottodomini, a meno che le pagine non siano marcatamente diverse dal resto del sito

Google vede i sottodomini e le sottodirectories sostanzialmente allo stesso modo.

Tuttavia, Mueller raccomanda di tenere insieme le pagine sullo stesso sito nella maggior parte dei casi e di utilizzare un sottodominio solo quando queste pagine sono significativamente diverse dal resto del sito.

29. Utilizzare <noscript> tag o il markup per contrassegnare le immagini “Lazy-Loading”

Per aiutare Googlebot a elaborare immagini con lazy loading (una tecnica utilizzata per richiamare un determinato tipo di risorsa in modo asincrono, ovvero dopo che i contenuti principali sono già stati caricati), Mueller consiglia di utilizzare un tag <noscript> o di contrassegnarle tramite dati strutturati.

30.  I tag delle immagini devono avere un tag ‘A’ e un elemento ‘Href’ per essere visti come link

Un’immagine è considerata da Google come linksolo se ha un tag ‘a’ e un elemento ‘href’.
Esempio:
<a href=”../html-link.htm”><img src=”flower.jpg” width=”82″ height=”86″ title=”White flower” alt=”Flower”></a>

Così parlò Mueller: 30 best practices per ottimizzare la SEO On-Page
5 (100%) 1 vote[s]

Add comment

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.