Creare un sito web può essere divertente e stimolante. Quello che però occorre tener presente è il lavoro di gestione che c’è dietro questo start up.
postato da elamedia il 18/07/2012
Categoria: Internet - tags: algoritmo google + creare sito web
Gli aspetti da tener presente quando crei un sito web da zero

Creare un sito web può essere divertente e stimolante. Quello che però occorre tener presente è il lavoro di gestione che c’è dietro questo start up.

SEO on site

Un aspetto certamente da non sottovalutare riguarda l’ottimizzazione del nostro sito web dal punto di vista SEO.

Criteri di funzionamento dell’Algoritmo di Google

Criteri principali sono:

-       on-page, legati alla pagina web, ai suoi codici e contenuti;

-       off-page, che rappresentano le pagine e i link esterni, nonché i principali valori di posizionamento.

L’algoritmo di Google non deve inoltre avere bisogno di uno specifico intervento umano per agire, ma deve stabilire, una volta costruito ad Hoc e applicato, un punteggio di rilevanza della pagina automatico.

L’ultima cosa da fare sarà poi quella di attribuire un ordine d’importanza tra i vari contenuti del sito internet; analizzando quale dei documenti presenti in esso siano più rilevanti e quali invece meno, in base alla keyword di ricerca.

Cosa è il crawler?

-       è un software utilizzato dai motori di ricerca

-       ha lo scopo di analizzare i contenuti di una rete o di un database

-       analizza le pagine web utilizzando un metodo definito dal programmatore

Funzionamento dei web crawler

Il web crawler effettua le sue ricerche in base ad una lista di url fornite dal motore di ricerca (programmatori o url suggerite dai webmaster)

Funzioni di alcuni web crawler

Google bot Crawler, ad esempio, ha una architettura basata sui linguaggi di programmazione C++ e Python. Il suo utilizzo fu integrato nel processo di indicizzazione dei contenuti, in modo da indicizzare completamente il testo ed estrarre gli url.

Mercator (Altavista) è un web crawler modulare, realizzato e distribuito da Java. I moduli di protocollo che lo costituiscono effettuano correlazioni per acquisire le pagine web, mentre i moduli di processo analizzano e appunto processano le pagine stesse.

Fonte: http://www.elamedia.it/creazione-siti-web-roma.html