Capire Google e i motori di ricerca.

Mauro Goretti e Aramini Parri Lucia.
-->
Capire Google e i motori di ricerca.
Come tutti noi sappiamo i motori di ricerca sono strumenti per mezzo dei quali è possibile ricercare alcuni termini[parole] all'interno di una vasta quantità di siti Web. In seguito ad una query i search engine riportano una lista di siti che contengono i termini cercati.
I motori di ricerca si distinguono dalle directory o cataloghi: una directory contiene una selezione di indirizzi di siti Web, ordinati per tipologia dei contenuti, appositamente ordinati e selezionati da un gruppo di persone. I webmaster e i proprietari dei siti Web fanno una vera e propria richiesta per venire catalogati, dal momento che le directory accettano nel proprio archivio solo i siti Web che rispettano un certo standard di qualità. I motori di ricerca scandagliano costantemente l'intera Rete inserendo nel proprio archivio tutti gli indirizzi dei siti Web che riescono a rintracciare, trascurando a volte la qualità dei contenuti. Per risolvere questo problema: della qualità, come tutti noi sappiamo senza togliere di “Rispetto” a nessuno, alcuni siti non sono proprio il massimo, non è nel mio stile fare considerazioni alcuna, ma i titolari di questi siti sanno a cosa alludo, ma chiusa questa parentesi il più noto motore di ricerca: Google è corso ai ripari [già da tempo] ed ha creato il cosiddetto: Indice di qualità del sito Web.
Google utilizza il PageRank: il termine deriva dall'unione di due parole: Page deriva dal nome da chi lo ha progettato, Larry Page {uno dei fondatori di Google}, e Rank sta per classifica, quindi :
Classificazione dei Siti”. In questo modo è possibile, in seguito ad una ricerca, offrire ad un utente una lista di siti ordinata in base all'indice di qualità, partendo dal sito che presenta il valore più alto.

Gli Spider.

Ogni motore di ricerca usa alcuni programmi chiamati Spiders [ragni], il cui compito esclusivo è quello di visitare costantemente una vasta quantità di siti Web, leggere il testo contenuto nelle pagine e scegliere quei termini che esprimono al meglio i contenuti del sito. Come potremo capire questi software hanno un ruolo di primaria importanza per l'efficacia del singolo motore di ricerca. Per ogni pagina letta, lo spider cerca al suo interno e memorizza ogni link ad altri siti, aggregandoli ad una lista da visitare. In questo modo, attraverso un processo a catena, lo spider è in grado di ottenere un numero enorme di indirizzi di siti e pagine Web, riuscendo ad ampliare il numero di siti conosciuti molto più di quanto sia possibile con le directory, che si basano su un procedimento di iscrizione e valutazione dei siti più lungo, in quanto operato da persone. L'obbiettivo finale è raccogliere informazioni creando un database, completo, immenso e naturalmente di risposta all'immediata e crescente al gran numero di richieste da evadere. Teniamo sempre presente che gli spider analizzano solo ed esclusivamente il testo e non la grafica.
Prossimo articolo: come creare le famose : parole chiave [Keyword]

Commenti

Post popolari in questo blog

INSTAFETCH - Android -

I pesci abissali. Zoologia marina.

La Centrale Idroelettrica.