Archivio tag: google

Meglio Sitemap XML o HTML per Google?

Questa è stata una domanda recente fatta a Matt Cutts, da un SEO Indiano di Nome Raj: “Google preferisce la sitemap xml o quella in HTML?”.

La risposta è stata: “entrambe”. La sitemap in HTML a differenza di quella XML è utile anche all’utente, se viene resa ben visibile e formattata in maniera ben leggibile.

Il consiglio di Matt Cutts è di adoperare entrambe le soluzioni, ma non ci sono problemi se si decide di usare solo una o l’altra. Entrambe aiuteranno Google a scovare tutti i contenuti.

Ecco il video originale in Inglese:

Alla prossima

Simone

Google Trends for Websites

Attenzione: Articolo scritto oltre 6 mesi fa.

google trendsGoogle ha lanciato una nuova funzione che va ad impreziosire ancora di più l’utilissimo Google Trends. Si chiama Trends for Web Sites la novità in casa Google. Questa funzione permette di verificare Trend di ricerca per sito anziché per keywords.

Come funziona

Inserendo un nome di dominio all’interno del box di ricerca di Google Trends for Web sites, Google offrirà un report dettagliato con dati su paesi e città che generano il maggior traffico, volume di ricerca stimato, siti correlati e keyword di ricerca correlate al dominio. E’ possibile mettere in confronto più siti alla volta. Inoltre da ora è anche possibile esportare tutti i dati in un foglio CSV. Per accedere a questa nuova parte del tool basta entrare in trends.google.com e cliccare sul link in alto “websites”.
I dati offerti da questa nuova funzione sono davvero utili per varie attività. Vediamole nel dettaglio.

Per Link Builder:

Un link builder può utilizzare i dati offerti da Google Trends for Web sites per cercare siti correlati al proprio secondo l’algoritmo di Google. Un link dai siti correlati secondo Google avrà quasi sicuramente un peso importante. Cosa c’è di meglio che questo tool per capire come ragiona Google nei confronti del proprio settore?

Per Marketing Manager e SEM’s:

La versione di web trends per siti è utilissimo per trovare keyword interessanti correlate a siti di competitor e quindi utile per il proprio. Non ci avevate pensato vero? Ma non solo. Ovviamente grazie a questa nuova funzione è possibile reperire dati utilissimi dei competitors come: localizzazione geografica dell’utenza, traffico stimato, keyword rilevanti per un determinato sito e siti correlati. Sta nella bravura del professionista utilizzare i dati in maniera utile alla propria causa.

Per utenti comuni:

Questa funzione può risultare utile anche ad un utente non interessato all’attività di web marketing. Infatti questo strumento può essere utile per cercare siti correlati ad un altro per approfondire una determinata ricerca.
Come si può notare, si può utilizzare questa nuova opzione per svariate funzioni.

E’ interessante sapere che le informazioni prodotte derivano da un elaborato calcolo di dati derivanti da Google Search, Google Analytics, dati derivanti da account Google e altro. Inoltre è sempre da considerare che tutti i dati sono una stima approssimativa. Le frasi di ricerca visualizzati per dominio sono solamente massimo 10.

Trends for web sites è disponibile solo in lingua inglese. In futuro è molto probabile che le funzioni di questo nuovo strumento aumentino e si migliorino sempre più.

Simone

Se google non trova il file robots.txt non indicizza il sito

Attenzione: questa notizia è vecchia e proviene dal vecchio database di RankFirst.

Ha del clamoroso questa notizia, che ho trovato spulciando alcuni blog di Search Marketing americani. Google ha fatto sapere che se il file robots.txt non è raggiungibile dal bot, potrebbe non indicizzare l’intero sito. Per non raggiungibile si intende una risposta del server con un time out durante il passaggio di Googlebot. Ma che assurdità è questa, vi chiederete, e mi sono chiesto prima di approfondire l’argomento.

Un responsabile di Google, John Mueller, ha detto che questa scelta è dovuta ad una politica di “sicurezza”. Se Google non può leggere il file che dice a Googlebot cosa non indicizzare, allora il bot escludi per sicurezza l’intero sito. Pensandoci bene il ragionamento non è poi così sbagliato.

Se Google non riesce a leggere cosa è “proibito” indicizzare, non può rischiare di indicizzare file che potrebbero essere esclusi dal passaggio del bot, volutamente dal webmaster.

Come ho specificato all’inizio, per file robots non raggiungibile, Google intende una risposta di time out del server. Se il file robots.txt non è presente e il server risponde con un errore 404 – not found, non ci sono problemi. In poche parole, un sito non deve avere per forza il file robots.txt per essere indicizzato, basta che il server risponda con errore 404.

Il problema è solamente quando Google chiede al server il file robots.txt, e non riceve risposta. Caso abbastanza raro – speriamo.

Simone