Più Traffico?
Contattami
Seo Ottimizzazione

Ottimizzazione dello Snippet

La Manipolazione dello Snippet è un argomento che va oltre il posizionamento nella serp dei motori di ricerca.
E’ importante anche perchè deve essere un “call to action” specialmente per i siti commerciali.
Avere il controllo assoluto dello snippet a volte è difficile ma in generale le regole base sono queste:

1.Il Tag description deve contenere al massimo 24-26 parole divise in 2 frasi di uguale lunghezza o quasi non andando oltre i 180 caratteri spazi compresi (idealmente 160)

2.Le 2 frasi di descrizione dovrebbero descrivere il business in modo diverso e contenere 2 o 3 parole chiave.

3.Assicurarsi che l’ultimo paragrafo della pagina contenga meno caratteri delle frasi della descrizione pur avendo la parola chiave al suo interno.

4.Sarebbe opportuno avere nel body dalle 6 alle 9 parole con un “call to action” finale.

Con alcune sperimentazioni dovreste ottenere uno snippet che Google metterà insieme da una frase nel description tag e una dal body tag.

Ricordare che Google prende un diverso snippet per ogni keyword che l’utente cerca quindi averene il controllo assoluto è impossibile.

Comunque se siete in un mercato competitivo dove una frase viene più usata di altre inseritela nella descrizione delle 2 frasi del meta tag descrption e sarete sicuri che sarà usata come snippet.

Leggi
Adwords

Come Fare una Campagna con Google Adwords ed Avere Risultati

Avere risultati con Google Adwords non è facile ed a volte è troppo costoso e si raggiunge un obiettivo solo parziale.
Nella pianificazione di una campagna pay per click con adwords è da tener presente un fattore determinante per la buona riuscita del nostro progetto: il quality score.

Il quality score è la misura della qualità e della rilevanza di un annuncio e ne determina il minimo CPC del bid.

Il quality score è dato da fattori come CTR della keyword su Google, della rilevanza del testo del annuncio, delle keywords nella landing page.

Il quality score oltre ad influire sul costo dell’annuncio ha rilievo sulla posizione e sul fatto che appaia o no!

Quindi elemento chiave è far si che Google veda il nostro sito rilevante in sintonia con l’ad.

Usare diversi AdGroup con target keywords

Usare le relative keywords nel testo della landing page

Fare uno split test A/B se il traffico non è molto, altrimenti un analisi multivariata per la landing page è consigliata per cercare di migliorare la conversione.

Poi si deve solo sperimentare cercando di migliorare la conversione e il ROI.

Leggi
Seo Ottimizzazione

Controllare la Frequenza di Indicizzazione di Google

Controllare la frequenza di indicizzazione di Google è un tema molto importante ai fini del posizionamento.

Per alcuni Google passa troppo spesso per altri troppo raramente.
Altri protestano perchè non visita il loro sito per intero ed altri ottengono il ribaltamento quando le zone che non hanno voluto accessibili tramite i motori di ricerca compaiono nell’indice di Google.

Google visita spesso un sito se è aggiornato frequentemente ed è citato spesso da altri siti.
Quindi più link si hanno specialmente con fonti tipo social networks dove googlebot passa di frequente più possibilità si hanno di farsi trovare dallo spider.

Inoltre, è certamente possibile trattenere il robot. Potete controllare le pagine dove Googlebot passa e chiedere una riduzione della frequenza o della profondità.
Per fare ciò il migliore metodo è usare un file robots.txt.

Esso è semplicemente un file di testo di ASCII che disponete nella root del vostro dominio.
Per esempio: http://www.yourdomain.com/robots.txt.
Potreste usare robots.txt per impedire l’indicizzazione di alcune vostre pagine d’accesso che sono coperte da diritti di autore.

Ogni blocco della file di robots.txt elenca in primo luogo il nome dello spider, quindi la lista degli indici o dei file di cui non è permesso accedere.

Ecco un esempio del robots:User-agent: *

Disallowed: /images/
Disallowed: /cgi-bin/

Con ” User-agent: * ” ci si riferisce a tutti gli spider

Con ” Disallowed: /images/ ” non permettimo agli spider di indicizzare questa directory

Per controllare la frequenza del Googlebot, dovete aprire un account su Google Webmaster.
Potete allora scegliere una delle tre regolazioni: più velocemente, normale, o più lento.
Il normale è suggerito.

Dovreste notare che nessuno di questi metodi di spidering è 100% certo (specialmente per gli altri spider).

La modifica del meta per evitare che gli spider seguano i collegamenti alla vostra pagina non sono molto affidabili specialmente con altri motori di ricerca.

Google è conosciuto per osservare sia le istruzioni NOINDEX che NOFOLLOW, ma poichè altri motori di ricerca non lo fanno spesso, io suggeriremmo l’uso di un robots.txt come miglior metodo.

Leggi
1 2 3 4