venerdì, aprile 15, 2005

Evoluzione degli standard di ricerca - Parte 2: il target georeferenziato

Definizione
Il target georeferenziato siamo noi tutti. Rapportando il termine al web, ed in particolare ad una campagna pubblicitaria on-line, noi rappresentiamo per le Aziende che hanno investito, investono e investiranno nel settore, l’obiettivo finale da raggiungere in relazione al contesto geografico e sociale in cui viviamo, al fine di offrirci l’informazione localizzata più adeguata alle nostre esigenze. Questo termine si sta diffondendo in seguito agli investimenti delle maggiori aziende operanti nel settore dei motori di ricerca, sia in relazione al web che al mercato del Mobile.

Un piccolo esempio d’informazione localizzata
Ogni programmatore di applicazioni lato-server (PHP, ASP, Cold Fusion, etc.) sa che è possibile risalire (con un certo margine di errore) alla nazionalità di un utente tramite il suo Indirizzo IP oppure (e qui il margine di errore è decisamente elevato) attraverso la “lettura” dei “dati anagrafici” del browser con cui l’utente sta visualizzando le pagine on-line. Lo scopo delle righe di codice deputate alla lettura della Nazionalità può essere, tra l’altro, quello di presentare una pagina web in una determinata Lingua piuttosto che in un’altra, oppure quello di offrire determinate soluzioni, informazioni a seconda del Paese d’origine dell’utente. I siti web che adeguano il proprio contenuto (testo e/o immagini) a seconda della nazionalità dell’utente, non fanno altro che fornire informazioni localizzate che incidono, ad esempio, sull’eventuale fidelizzazione del visitatore o sull’acquisizione di un nuovo cliente.

L’informazione localizzata più diffusa
Maggiori sono i dati a disposizione dell’azienda su un determinato sito web, prodotto o servizio (“l’offerta”) e migliori sono le probabilità d’indirizzare la pubblicità dell’offerta ad un target realmente interessato. Questo vale per qualsiasi tipo di business, a maggior ragione per attività di e-business. Directories “naturali” e le Directories che ordinano l’archivio dei Motori di Ricerca si appoggiano quasi tutti a modelli più o meno simili d’informazione localizzata che, a volte, rappresentano il fulcro dell'intero progetto: directory dedicate a siti web di un solo Paese e suddivisa per canali tematici, oppure directory generiche in cui è possibile filtrare i risultati per Paese oltre che per canali tematici. Ci sono, poi, esempi d’informazione localizzata più specifica basata su questo standard comune, come ad esempio findit.it che permette all’utente di migliorare la resa della propria ricerca utilizzando filtri di ricerca quali “Regione” e “Città”, oppure l’organizzazione degli archivi comunali (es. http://statistica.comune.fi.it/stat_terr/archivi.htm). L’idea che sta alla base dell’informazione localizzata è tutta qui: fornire un servizio economico, veloce e altamente selettivo al fine di soddisfare l’esigenze del cliente nel modo migliore possibile.

Anteprima della Parte 3: La Ricerca semantica
Da quando Google è entrato in borsa (28/07/04) non è più lo stesso. Un nuovo e potente motore, quello economico, spinge Google dove prima non avrebbe mai osato inoltrarsi. L'ambizioso progetto di digitalizzazione del sapere cartaceo ne è la prova concreta.

Si pensi anche a Google Answers, non citato nella Prima Parte di "Evoluzione degli Standard di Ricerca": troverebbe collocazione nella sezione "Sperimentazione", pur essendo appena uscito dalla fase Beta. Fatto sta che è già attivo all' indirizzo http://answers.google.com/answers/ , ovviamente a pagamento, un servizio analogo al P.I.Q.U.A.N.T. dell' IBM.

IBM potrebbe non riuscire mai a costruire uno spider in grado né di comprendere la domanda né di elaborare una propria risposta. Ma la strada è segnata, ed è proprio nel 2004 che ha avuto luogo la svolta.

Google già lavora attraverso giganti mappe semantiche, in cui sono segnate le "concentrazioni" e le "reti" di parole. Diciamo che questo rappresenta un po' lo scheletro di quel che dovrà per forza di cose seguire.

Sicuramente l' ambizione è quella di strutturare un sistema in grado di costruire modularmente un discorso, attingendo fonti da siti differenti. Ma perchè questo sia possibile è necessario che lo spider abbia un' idea chiara di ciò di cui necessita l'utente. Costruire uno spider di questo tipo è un' impresa ardua, che deve confrontarsi con lo storico problema dell' intelligenza artificiale. Ma bisogna essere ottimisti: nei prossimi anni i motori di ricerca subiranno cambiamenti veloci e repentini, e la pagina http://www.google.it/search?hl=it&q=google rimarrà soltanto nei nostri nostalgici ricordi.

Articolo scritto per alVerde.net e Briciole di accessibilità, webmarketing e altro da Alessandro Mirri (advmagazine.net) ed Ettore Sorvino (furbissimi.com).

Nessun commento: