lunedì 23 luglio 2007

Mahalo: il primo motore di ricerca "umano"



Mahalo è il primo motore di ricerca "human-powered", cioè servo-assistito da una nutrita squadra di "guide umane" che si dedicano quotidianamente a filtrare spam, doorways, pagine civetta e altri mezzi poco leciti per posizionarsi in testa ai motori di ricerca.

Mahalo opera una selezione molto stretta: non prende in considerazione siti che abbiamo meno di un anno di vita, che non abbiamo contenuti di qualità, che presentino troppa pubblicità o contenuti poco autorevoli.




Mahalo ha anche un blog: http://blog.mahalo.com



Mahalo è una parola Hawaiiana che significa "grazie" e in questo video viene presentato nientemeno che da Marissa Mayer, Vice President Search di Google, che non solo ne commenta il lancio, ma delinea anche quello che sarà il futuro dei motori di ricerca.

Marissa Ann Mayer è Vice Presidente del settore Search Product e User Experience presso la Google company. E' lei che decide quando e come un nuovo prodotto sia pronto per il lancio al grande pubblico.
Da alcuni anni la Mayer diventata è uno dei volti più noti e amati dal pubblico americano, primo testimonial dell'importante azienda di Mountain View. Fu proprio lei il primo ingegnere donna a mettere piede in Google nonché uno dei primi venti dipendenti ad essere assunti nel 1999.



Ha ricevuto un Bachelor of Science in Symbolic Systems e un Master of Science in Computer Science alla Stanford University.Nel video seguente la Mayer, durante l'ultima conferenza del 19 giugno 2007 a Parigi dimostra come Google stia lavorando per permettere a tutti di poter accedere nel migliore dei modi e nel modo più rapido possibile a tutte le risorse considerate rilevanti presenti in Rete.



tratto da The Daily Bit

lunedì 28 maggio 2007

The Encyclopedia of Life - L'enciclopedia della vita

The Encyclopedia of Life - L'enciclopedia della vita


"Imagine an electronic page for each species of organism on Earth, available everywhere by single access on command." - Edward O. Wilson

http://www.eol.org

Eol porta l’attenzione sulla biologia e sulla creazione di un “ecosistema di pagine web” dove catalogare informazioni, notizie, riguardanti il pianeta Terra e i suoi abitanti: il video dimostra in maniera convincente quali possono essere gli sviluppi di un simile progetto, un’idea affascinante e per certi versi unica, come Wikipedia.

Leggi l'articolo di approfondimento su The Daily Bit

E su
Ecosistemi Digitali
(Ning)



.
.

Fotografie virtuali su Second Life


L'isola “Italian-Life” è stata inaugurata lunedi 21 Maggio alle ore 16 su Second Life con l’obiettivo di sviluppare un importante polo diitalian life su second life aziende italiane attente all’innovazione e allo stile.


Il nuovo spazio presenta un esempio di eccellenza italiana nella virtualità nel mondo e ha riscosso, da subito, a dire di coloro che l’hanno già visitata, numerosi apprezzamenti per la cura dei dettagli grafici e dei particolari.

Per avere un’idea di Italian Life, vi consigliamo di visionare alcune delle foto della nostra galleria fotografica: dall’Auditorium Sferico, al centro dell’isola, dove si è svolta la nostra conferenza stampa e che ospiterà forum, incontri e sessioni didattiche alla reception dell’isola e all’ingresso della mostra fotografica “Virtual Cooking” del fotografo Marco Beltramo, che resterà visibile per circa un mese.
In primo piano in ogni foto, sullo sfondo di Italian Life, spiccano diversi visitatori incuriositi, gli avatar, termine che nella realtà virtuale identifica un personaggio che rappresenta l'utente reale dotato di un proprio nickname.

LA GALLERIA FOTOGRAFICA

Galleria fotografica di Italian Life
28/05/2007
L'isola “Italian-Life” è stata inaugurata lunedi 21 Maggio alle ore 16 su Second Life con l’obiettivo di sviluppare un importante polo di aziende italiane attente all’innovazione e allo stile.

giovedì 17 maggio 2007

L'importanza dei legami deboli nelle reti sociali

Leggendo in giro sui Blog trovo opinioni discordanti sul ruolo che i social network ( Linkedin e Neurona, solo per citarne un paio) possono avere nella struttura delle reti sociali professionali partendo dalle raccomandazioni globali con LinkedIn,

Neurona.com LinkedIn

Leggo opinioni discordanti anche sulle differenze strutturali di social network particolari, come quella di Granieri - che preferisce ad esempio Neurona, oppure LinkedIn e linkedOut di Dario Banfi.

Affrontando l'aspetto da un altro punto di vista, vorrei prendere spunto dalla tesi di un importante sociologo che chiarì l'importanza dei legami deboli nelle reti sociali.

Conoscerete senz'altro la teoria dei sei gradi di separazione di Stanley Milgram che più volte viene citata sui blog che trattano l'argomento dei social network, altrimenti potete leggere si Wikipedia di cosa si tratta:

http://it.wikipedia.org/wiki/Sei_gr adi_di_sepa razione_(sociologia)

Nel 1973 Mark Granovetter, un sociologo che insegnava alla Johns Hopkins University di Baltimora (e appena tre anni prima di Milgram) aveva pubblicato un articolo sul fenomeno dei "piccoli mondi".

Il suo nome e' legato a un importante contributo, pubblicato in due articoli degli anni 1970 sulle modalita' con cui le persone cercano e trovano lavoro...
L'idea e' che i legami ( relazioni ) DEBOLI risultano essere più importanti delle amicizie forti e radicate. Secondo Granovetter la società e' strutturata in cluster altamente connessi, o cerchie molto ristrette di amici dove tutti conoscono tutti.

Sono pochi quei legami con l'esterno che mettono in contatto questi gruppi con il mondo delle nostre relazioni. Questi legami svolgono una funzione critica nella intermediazione.
Nella ricerca di nuove opportunità di lavoro dunque può essere utile uscire fuori dalla cerchia di amicizie note per affidarsi a legami deboli in grado di aprire la comunicazione verso altri cluster o gruppi di individui..

Ad esempio se noi cerchiamo lavoro non dobbiamo limitarci a farlo sapere alla nostra ristretta cerchia di amici stretti e parenti.
Secondo questa teoria sono i legami deboli, gli amici degli amici degli amici, che ci mettono in condizione di trovare quello che cerchiamo
Questa tesi e' stata ampiamente dimostrata in varie occasioni e attivita' umane e, recentemente, anche sul World Wide Web.

E' un concetto sottile, ma assi importante, quello esposto da Granovetter, poiche' i ponti dei legami deboli consentono la tenuta delle reti sociali.

Inoltre e' provato che i legami forti non sono quasi mai rilevanti sotto questo profilo e si possno eliminare senza produrre gravi danni al grafo della relazione tra reti diverse. I ponti, cioè, sono costituiti quasi sempre da legami deboli.

Il social networking favorisce questa condivisione delle amicizie e dei contatti per creare una rete di rapporti in cui nessuno è sconosciuto e chiunque è identificabile in quanto "amico di" un altro.

A partire dal 1998 alcuni fisici hanno studiato il fenomeno del "Piccolo Mondo" utilizzando una rete facile da maneggiare matematicamente: Internet.
Prima di allora era molto difficile studiare questi fenomeni, perche' le reti sociali o gli ecosistemi hanno una evoluzione lenta e difficilmente si possono riprodurre dei modelli di simulazione al calcolatore...

In una pubblicazione su Nature, nel giugno del 1998, nell'articolo Collective dynamics of small world networks di Duncan Watts e Steve Strogatz, due ricercatori della Cornell University di New York ripresero il concetto che una qualunque persona nel pianeta è separata da ogni altra da un numero limitato di relazioni.
Piu' recentemente un altro fisico, Lazlo Barabasi, ha scoperto alcune leggi che permettono di seguire l'evoluzione di ogni tipo di rete, chiamata a invarianza di scala

Dagli questi studi sulla teoria delle reti sono nate una serie di piattaforme che hanno cercato di attuare, in pratica, il principio dei "sei gradi di separazione", favorendo la creazione di reti sociali tra individui che si conoscono ed individui che non si conoscono affatto, proprio attraverso il meccanismo della presentazione o della "conoscenza indiretta" (il principio per cui "gli amici dei miei amici sono miei amici").

Per quanto riguarda la qualita' (che secondo Nicola diminuirebbe con l'aumentare delle dimensioni dei gruppi)? Sono d'accordo con lui. Ma certo e' importante definire prima gli obiettivi e definire cosa di intende per qualita'. Intendo: la qualita' deve essere quantificabile e contestualizzabile.

Per esempio: quando devo vivere una vita di relazione, passare il mio tempo libero con persone che amo, che conosco intimanente, continuero' a frequentare sempre un gruppo formato da non piu' di 40-60 persone. Questi sono i miei legami forti. Ci sono studi di antropologia che confermano che gruppi piu' numerosi sono meno coesi.

Quando invece dovro' raggiungere degli obiettivi diversi, alimentare il tessuto sociale che possa pemette di migliorare il mio "status", beh, mi fara' molto utile utilizzare i "cluster" che accorciano la dimensione delle reti di conoscenze.

Nel mio lavoro se riesco a ottenere una "scorciatoia" e conoscere una persona passando per 2-3 persone invece che attraverso una lenta e lunga ricerca avro' dei vantaggi competitivi...

Il bello è che si è recentemente scoperto che anche il World Wide Web e molte altre reti, come quelle degli ecosistemi viventi, funzionano nello stesso modo.

L'unica differenza è che internet e il Web si sono formate in decenni mentre le catene alimentari in natura (gli ecosistemi) si sono evolute nel corso di milioni di anni.

Quali sono le analogie di queste reti cosi' apparentemente diverse?

Consiglio a chi non ha mai letto di questi argomenti, e desideri approfondire, di fare una ricerca su Google e Wikipedia su seguenti concetti:

teoria del mondo piccolo

legge di potenza
reti a invarianza di scala
preferential attachment
fitness dei nodi di una rete


Queste leggi matematiche sono anche alla base del comportamento di reti "aristocratiche" tra cui Internet, il Web, le reti sociali di persone, le reti di diffusione delle epidemie, la rete degli scambi proteici di una cellula, le relazioni sessuali tra individui, le preferenze come le mode, ecc.
Sono cioe' tutte reti a invarianza di scala.

Qualcuno ha letto il testo di Albert-László Barabási dal titolo "LINK" edito da Einaudi nel 2004?

Sarebbe interessante sapere cosa ne pensate...

Arouet

sabato 5 maggio 2007

PageRank Assisted Search Engine

Il suo nome è P.R.A.S.E. - acronimo di PageRank Assisted Search Engine.

Questo tool è in grado di cercare, con opzioni specificate dall'utente, i siti tematizzati su una determinata parola chiave o keyphrase.

Si tratta di uno strumento molto utile per chi ha necessità di trovare dei siti partner che trattano lo stesso argomento per tentare uno scambio link.

Ricodidamo che lo scambio link "brutale" non è ben visto dai motori di ricerca.

E' preferibile, infatti, che il link sia contestualmente immerso in un testo che tratti in modo abbastanza approfondito dell'argomento. In altre parole, quello che Google e i motori premiano è la qualità dei contenuti. Il link dunque andrà preferibilmente "immerso" nel testo descrittivo del tema che tratta.


Backlink Checker - quanto valgono i link che vi collegano?


Webtool (www.iwebtool.com) mette a disposizione per chi fa analisi del web una serie di tools molto utili.

Uno di questi è il backlink checker che ci permette di controllare quanti link riceve il nostro sito.

Di fianco all'indirizzo web - che rappresenta la pagina web dove è contenuto il nostro link - apparirà la barra del PageRank di Google che ci indica quanto vale il sito che ci collega

Come sostenuto da Larry Page, in via teorica più è alto il PR il link avrà più valore.

Ci sono però altri fattori da considerare: se in una pagina con PR 5 ci sono oltre al nostro molti altri link, il valore pagerank verrà diviso per i collegamenti in uscita. Quindi una pagina con PR5 con 20 link in uscita non è più forte di una pagina PR4 con 10 link in uscita
.


lunedì 30 aprile 2007

Moltiplica le tue opportunità di business con DEP (Digital Ecosystem Project)


Il "Digital Ecosystem Project" è un progetto che nasce con l'obiettivo di consentire alle PMI, ad enti/associazioni e agli studi professionali di conoscere le enormi potenzialità del funzionamento delle reti promosso da Inter.media sul social Network Neurona
intermedia

Tra le finalità di studio che si pone il progetto "Digital Ecosystem Project" vi è quello rivolto a un incremento della visibilità e della riconoscibilità del marchio e dei prodotti aziendali grazie a un incremento del posizionamento sui motori di ricerca, in primo luogo Google che, oggi, soddisfa la maggior parte delle richieste dei navigatori.

Tra le aziende/associazioni promotrici del progetto, oltre a Intermedia e allo stesso Club Internazionale dei Diritti del Turista ci sono la Web Agency Time&Mind, l'associazione Popai, la rivista The Daily Bit.


COME FUNZIONA

In analogia al significato di “ecosistema biologico” che vede nell’interazione fra gli elementi di una comunità di organismi e l’ambiente in cui essi vivono la sua essenza, un ecosistema digitale ha l’obiettivo di svilupparsi grazie alle interazioni fra le parti di cui è costituito: pagine Web e link.

Un ecosistema digitale, in termini operativi, si traduce in una quanto più possibile fitta ramificazione di pagine Web interconesse che ha nelle piattaforme del Web 2.0 (YouTube, Flickr, Blogger, MySpace, Xanga, LinkedIn, Second Life...) le estremità e nel portale aziendale il tronco verso il quale tutti i rami convergono.

I motori di ricerca apprezzano i collegamenti perché rappresentano un segno di “credibilità” del sito oggetto dei link. Il Web 2.0, attraverso i suoi potenti strumenti di social networking opportunamente utilizzati grazie a una accurata pianificazione strategica, rappresenta una grande opportunità per creare “visibilità”.


PER PARTECIPARE AL PROGETTO E' NECESSARIO:


  • essere titolari di un sito Internet (di qualunque tipo purché relativo a un'azienda, studio professionale, ente o associazione);
  • iscriversi gratuitamente alla Comunità Ecosistema Digitale su Neurona
  • comunicare al Coordinatore della Comunità il dominio del sito che si intende far partecipare al progetto con una breve descrizione (max 500 battute);
  • allestire all'interno del proprio sito una sezione chiamata Digital Ecosystem Project nella quale pubblicare l'elenco completo dei partecipanti al Progetto con i relativi link e le descrizioni che verranno forniti dal Coordinatore;
  • impegnarsi a fornire l'andamento delle statistiche di accesso al proprio sito per un periodo di sei mesi con cadenze mensili.

Il Coordinatore della Comunità si riserva di non accettare o di eliminare dal Progetto i membri che non rispettino le regole citate o che utilizzino il Progetto stesso per scopi immorali, fuorvianti o lesivi dell'immagine della Comunità stessa.

Più membri parteciperanno al Progetto maggiori benefici si riuscirà ad ottenere in termini di posizionamento on-line e di incremento del Page Rank e del numero di visitatori. I risultati saranno resi pubblici e presentati nel corso del Convegno Annuale di Intermedia che si terrà a novembre 2007.

martedì 10 aprile 2007

Buon Compleanno, Eulero

Il 15 aprile 2007 potremo festeggiare il terzo centenario della nascita di Leonhard Euler, noto come Eulero e, senza dubbio, come ha affermato anche lo storico della matematica Morris Kline [1], il più grande matematico del Settecento e uno dei quattro più grandi matematici della storia insieme ad Archimede, Newton e Gauss.

Nato in Svizzera, a Basilea, ma vissuto per tutto il corso della suaEuler (Eulero) carriera a Berlino e a San Pietroburgo, Eulero trasferì la sua importante influenza in ogni campo della matematica, della fisica e dell’ingegneria.

E’ noto per essere tra i più prolifici di tutti i tempi avendo dato contributi cruciali in numerose aree scientifiche: dalla analisi infinitesimale, alle funzioni speciali, dalla meccanica razionale alla meccanica celeste e alla teoria dei numeri, dalla teoria dei grafi, alla teoria delle stringhe.

L’aspetto più sorprendente è che, nel periodo di maggiore contributo alla ricerca scientifica, egli riusciva a malapena a scrivere o a leggere anche solo una riga, dato che aveva perso l’occhio destro a trent’anni ed era in seguito diventato praticamente cieco a causa di un intervento mal eseguito di cataratta.

Le migliaia di pagine delle sue dimostrazioni e dei suoi teoremi furono praticamente dettati a voce, affidati all’uso della sua prodigiosa memoria.

E nondimeno fu uno dei matematici più prolifici, dato che la sua opera omnia comprende 74 volumi in-quarto, dedicati non solo alla matematica, ma anche alla meccanica, all'astronomia e ancora all'ottica, all'acustica, alla termologia, all'elettricità e al magnetismo.

Del resto il suo grande genio Eulero lo dimostrò fin da piccolo, da quando entrò nella Università di Basilea tredicenne e si laureò in filosofia. A quel tempo riceveva anche lezioni di matematica nientemento che da Johann Bernoulli, che aveva scoperto il suo enorme talento e convinse il padre di Eulero a fargli intraprendere lo studio della matematica. Nel 1726 Eulero completò il suo dottorato sulla propagazione del suono e nel 1727, partecipò al Grand Prix dell'Accademia francese delle scienze (premio che vinse ben dodici volte nella sua vita).


CON EULERO NASCONO I MODELLI CHE STUDIANO L’EVOLVERE DI INTERNET

A Eulero dobbiamo uno delle più importanti contributi alla matematica, la “topologia” e uno dei suoi più importanti approcci scientifici, la teoria dei grafi, che trova numerosi applicazioni oggi, sia nelle reti di comunicazione che nello studio dell’evolvere di Internet, come in applicazioni della fisica e dell’ingegneria o nella costruzione di circuiti elettronici, ma anche in altre discipline come la sociologia e la biologia.

Come spesso accade nella storia delle scoperte scientifiche, il vastokonigsberg grafo argomento chiamato topologia trae origine da un indovinello apparentemente innoquo: il problema dei ponti di Königsberg.

La città di Königsberg è celebre per aver dato i natali a Kant e per i suoi sette ponti
che collegavano i vari quartieri della città, attraversata dal fiume Pregel.

Erano in molti a chiedersi se fosse possibile attraversare tutti e sette i ponti ritornando alla fine al punto di partenza, dopo essere passati una volta sola su ognuno di essi.

Il problema, al tempo di Kant, aveva attirato l'attenzione dei più celebri matematici, i quali avevano tentato invano di trovare una soluzione.

Eulero risolse il problema nel 1735. Si rese conto [2] [3] che la posizione esatta delle isole e dei ponti è irrilevante: quel che importa è il modo in cui i ponti sono messi uno rispetto all’altro, cioè la “rete” formata dai ponti.

Se osserviamo la figura 2 in cui i ponti vengono sostituiti da “lati” e le rivegrafo del fiume da “vertici” capiremo che Eulero costruì quello che si chiama un grafo, con nodi, i punti, e archi, le linee, e allargò la sua indagine ai problemi di percorso, in generale.

Egli stabilì che un grafo composto soltanto da nodi pari, collegato cioè a un numero pari di
archi, è sempre percorribile e si può ritornare al punto di partenza senza sovrapposizioni di
percorso.

Se un grafo contiene nodi pari e soltanto due nodi dispari è ancora percorribile, ma non si può più ritornare al punto di partenza. Se contiene invece più di due nodi dispari, non è più percorribile, senza sovrapposizioni di percorso.

La passeggiata sui ponti di Königsberg è di quest'ultimo tipo, e porta a un grafo composto da quattro nodi dispari, quindi non ha soluzione.

Quello che sembrava un piccolo rompicapo senza importanza, nelle mani di Eulero diventò un grande problema matematico, punto di partenza della teoria dei grafi e di una nuova scienza: la topologia, che investe oggi notevole importanza nello studio delle reti come internet.

Lo studio dei grafi portò a risultati sorprendenti. Uno di questi è la cosiddetta formula di Eulero, scoperta dal matematico nel 1751. Se in un grafo piano contiamo il numero di vertici e lo chiamiamo V, il numero di lati e lo chiamiamo E, e il numero di facce e le chiamiamo F, è sempre vera la seguente relazione

V-E+F =1

Un risultato notevole, se pensiamo che questo è indipendente da quanto sia semplice o complicato un grafo e da quanti lati o vertici abbia.

La teoria dei grafi è diventata uno strumento di importanza cruciale nella nostra epoca a partire dal 1950, in risposta a un crescente interesse dapprima in studi quantitativi in sociologia e antropologia (le cosiddette social network). E’ a partire da questi anni che matematici come Paul Erdős e Alfréd Renyi iniziarono a studiare i primi modelli matematici che spiegassero la proparazione delle informazioni in una rete interconnessa.

Oggi si è scoperto che questi modelli spiegano anche la complessità di reti sociali e la propagazione di epidemie (scienze biologiche), di virus informatici e circuiti elettronici ( Computer Sciences), o di fenomeni sociali come le mode o i comportamenti delle masse e nondimento allo studio dellà complessità di Internet e dei fenomeni emergenti del World Wide Web.



LA FORMULA DI EULERO E LA FIRMA DIGITALE

L’importanza degli studi di Eulero, che ebbero grande influenza scientifica nel nostro millennio, non si ferma qui.

Grazie ad Eulero, e in particolare a un algoritmo che utilizza la formula del matematico, si sono potuto realizzare metodi per la crittografia a chiave pubblica come il metodo RSA, che viene oggi utilizzato per l'autenticazione dei dati, il non ripudio e il controllo di integrità, tramite il meccanismo della firma digitale.

L'algoritmo RSA, che prende il nome dai suoi inventori, Rivest, Shamir e Adleman, che lo realizzarono nel 1977, è basato su alcune proprietà dell'aritmetica modulare degli interi scoperte proprio da Eulero.


BELLEZZA MATEMATICA

Non possiamo chiudere l’articolo senza ricordare una delle più belle formule mai scoperte dalla mente di un matematico.

Nel 1748 Eulero scoprì l’incredibile identità

e = cos x + i sin x


che vale per ogni numero reale x. Se sostituiamo il valore pigreco per x, allora, visto che cos π = -1 e sin π = 0, si ha la famosa formula di Eulero

e+1=0



ritenuta da Richard Feynman "la più bella formula di tutta la matematica", e che collega armoniosamente cinque numeri estremamente importanti: due interi (0 e 1), due numeri reali (pigreco e il rapporto la base dei logaritmi naturali) e un complesso (i, cioè la radice quadrata di -1).

Usando le tre operazioni più importanti della matematica (somma, prodotto ed elevamento a potenza) si ottiene dunque questa sorprendente relazione fra numeri, che mostra un’intrinseca connessione esistente fra enti scoperti individualmente a distanza di migliaia di anni l’uno dall’altro, condensata in una formula che possiede la profonda armonia di un’opera d’arte.

Una delle conseguenze più inaspettate di questa equazione è che elevando un numero irrazionale a una potenza che è un immaginario irrazionale si può ottenere un numero naturale.

Tra l’altro ricordiamo che oggi, oltre ai tre simboli e, π e i, e che sono dovuti in larga misura a Eulero, noi utilizziamo molti altri simboli introdotti dal matematico per designare certi numeri particalarmente importanti.
Dalla geometria, all’algebra dalla trigonometria all’analisi troviamo dappertutto l’uso di simboli euleriani, oltre alla terminologia e ai concetti caratteristici di Eulero.

Solo per fare alcuni esempi, in geometria tutti noi utilizziamo il suo metodo quando scegliamo le lettere minuscole a, b, c per indicare i lati di un triangolo e le corrispondenti lettere maiuscole A,B,C, per indicare gli angoli opposti. O l’espressione lgx per indicare il logaritmo di x. Oppure il simbolo Σ , oggi un uso comune per indicare una sommatoria, o infine, forse il più importante di tutti, la notazione f(x) per indicare una funzione di x.

Se l’attuale notazione matematica è quello che è, lo dobbiamo a Eulero più che a ogni altro matematico.

E oltre alla bellezza matematica, la scoperta di una profonda connessione tra l’analisi complessa e i numeri naturali permesero agli studiosi di teoria dei numeri di identificare e descrivere strutture numeriche che, molto proabilmente, sarebbero rimaste per molto tempo nell’ombra impedendo così applicazioni significative, per esempio, nelle telecomunicazioni, che hanno permesso la realizzazione di cellulari, GPS e computer e Internet, e dunque degli strumenti che permettono a voi di leggere questo articolo.

L'AUTORE

Claudio Pasqua è docente di Computer Science e Comunicazione con i nuovi media dal 1994. La teoria della complessità (l'insieme interdisciplinare delle teorie che si occupano dello studio di sistemi complessi) e gli scenari del mondo digitale e delle sue applicazioni nel mondo reale sono alcune delle sue attività di interesse. Pubblica regolarmente articoli sull'argomento ICT su riviste nazionali e su Internet dal 1995



REFERENCES

[1] Morris Kline, Mathematical thought from ancient to modern times, New York (1972), trad. it. “Storia del pensiero matematico - volume I dall'antichità al settecento”, (1996) Giulio Einaudi editore s.p.a., Torino

[2] Euler L. (1741) Solutio Problematis ad geometriam situs pertinentis, Comment. Acad. Sc. Petrog., t. 8 (1736), pp. 128-140.

[3] Euler L. (1923) Solutio Problematis ad geometriam situs pertinentis (ristampa di [E]), Commentationes Algebraicae, Teubner, Lipsia, Berlin (edidit L. G. Du Pasquier).




lunedì 2 aprile 2007

Marketing Reloaded

Venerdì scorso mi è capitato di assistere, in qualità di inviato della rivistaMarketing reloaded The Daily Bit, al convegno “Marketing Reloaded”, organizzato dalla School of Management del Politecnico di Milano in collaborazione con Nielsen/NetRatings, Connexia e con il patrocinio di AISM (associazione Italiana Marketing). Si è trattato, nell’intenzione dei promotori, di una “mattinata di approfondimento su modelli e strumenti di un nuovo paradigma di marketing nell’era del 2.0”.

Vediamo come sono stati affrontati questi temi e quali sono state le conclusioni, tutt’altro che scontate, dell’incontro.


INTRODUZIONE AI NUOVI PARADIGMI TECNOLOGICI

Umberto Beltelè, presidente della School of Management, ha introdotto l’argomento della giornata aprendo il dibattito sulla difficoltà di prevedere quelle che sono le evoluzioni della società legate alla introduzione di nuovi paradigmi tecnologici.
Termini come B2C o B2B, molto in voga cinque-sei anni fa, sono ormai quasi obsoleti. Lo dimostrano alcune anche importanti aziende ICT, molte fallite miseramente, che erano fondate su Business Model ancorati ai ricavi pubblicitari.
Lo dimostrano anche i fallimenti di previsioni avventate, come quella che diceva che la distribuzione tradizionale sarebbe sparita.
La distribuzione tradizionale non è scomparsa, ma una cosa è certa: con l’introduzione del nuovo mezzo è stato modificato profondamente il comportamento dei consumatori.


WEB 2.0: LO SCENARIO ITALIANO E INTERNAZIONALE

Daniele Sommavilla, Vice President South Europe di Nielsen/NetRatings ha affrontato l’argomento legato agli aspetti del Web 2.0 iniziando proprio dalla sua definizione: per Web 2.0 si intende l’ambiente in cui si sono sviluppati e continuano a svilupparsi i siti e quelle applicazioni che mettono il controllo del contenuto (sia generato direttamente che non) nelle mani dell’utente.
Correttamente Somavilla pone l’accento sulla necessità, quando si debba studiare un fenomeno, di delimitarne i confini, gli oggetti da misurare, in modo che il disegno scientifico nel tempo possa riprodurre gli stessi risultati e sia possibile studiarne l’evoluzione.
Il consumatore/navigatore è qui l’oggetto di studio, e lo strumento di analisi principe è il metodo matematico-statistico.

Gli strumenti, che il Web 2.0 mette a disposizione, rendono in grado oggi i singoli indiividui di formare una “massa critica” che ha il potere di rendere popolare un marchio con estrema rapidità e faciltà.

Categorizzando tali strumenti assistiamo al nascere dei seguenti gruppi di portali:

• I Giant, ovvero grandi portali aggregatori di conoscenza (wikipedia, Myspace, You Tube)

• Le Communities Verticali, caratterizzate da tecnologie innovative che permettono un grado di interazione e di comunicazione fra utenti molto alta (bebo, Linkedin, FaceBox, Facebook, …)

• I Bloggers (Blogger, Splinder, Blogo, Xanga)

• I Niches (siti di nicchia) che sono in forte crescita e permettono una gestione personalizzata di materiale fotografico (Photo, Flickr, Ringo webshots, Pic, Photobucker)

• I Portals, o megllo le loro communities, che in questi ultimi due anni hanno fatto un salto di qualità nell’esperienza di relazione (Google group, Yahoo Groups, ecc.)

• I Video, con al centro i portali italiani che stanno riscuotendo successo nell’ambito europeo (Libero video, Metacafe, Google Video)

• I Knlowledge, dispensatori di conoscenza (Yahoo answer, Wiktionary, Answer.com)

• I Mondi Sintetici, vite virtuali sempre più popolari tra cui Second Life, Habbo, neopets (le orfane del Tamagochi)

Una analisi dei dati di navigazione, nata da una collaborazione di IAB Italia, presenta alcune cifre estremamente significative sugli internauti italiani nel mese di gennaio 2007.

I navigatori attivi in Italia sono 20.248.000 sull’intero universo delle persone che hanno un collegamento internet, i quali sono circa 30 milioni.

Ma gli Heavy-User, gli utenti che hanno un’elevata frequenza di navigazione nel web 2.0, sono ad oggi 5 milioni e 300.000. Sono questi che guidano l’attenzione del mercato, dei grandi publisher. E sono gli stessi che contribuiscono ad arricchire l’informazione sul web, che pubblicano nuovi blog, articoli e materiale digitale. Sono anche coloro che utilizzano con maggiore frequenza siti di informazione e trascorrono maggior tempo sulle pagine con web advertising (circa il 31% visita portali ad alto contenuto di advertising).

Un concetto da non sottovalutare è legato al tempo di navigazione. Sbagliamo se pensiamo che il Web 2.0 dia luogo a una dilatazione del tempo per ogni navigazione (allo stare attaccati alla rete più a lungo). In realtà si è visto che la grande crescita di consumo è legata alla frequenza di navigazione, alla necessità di essere costantemente aggiornati (es. sapere se ho nuovi commenti sul mio blog, nella mia community, ecc.). Questo influisce molto sulla necessità di adattare lo strumento di marketing al contesto.


IL NUOVO CONSUMATORE OGGI, TRA TRADIZIONE E MULTICANALITA’

Concetta Galante, Senior Client Team Manager di ACNielsen Italia, ha posto l’accento sulle scelte dei consumatori, il loro attaccamento alla marca e nell’utilizzo disinvolto di canali alternativi nei confronti del largo consumo.

Il consumatore presenta un continuo avvicinamento a Internet comemarketing reloaded strumento utile al criterio di acquisto anche se presenta tanti elementi che lo caratterizzano, rispetto ad altri paesi europei, come un consumatore ancora tradizionale e attento alle caratteristiche più tangibili del prodotto tradotto in una scelta di canali ancora di impostazione classica.
Si è visto che in Italia il consumatore è meno propenso a utilizzare nuovi canali (es. il discount) e ha un maggiore attaccamento alla marca.
L’italiano ha presentato, rispetto ai suoi vicini europei, una maggiore fedeltà alla, identificata spesso nel made in Italy (75%), qualità che si esprime con una scelta nella decisione di acquisto. Se infatti chiediamo al consumatore italiano cosa fa se non trova la propria marca sullo scaffale, il 43% risponde che non la cambia (cambia negozio oppure cerca una alternativa nell’ambito della stessa marca). Questa percentuale è tuttora la più alta d’Europa.

La fiducia del punto di vendita inoltre influisce sull’acquisto persino nelle più giovani generazioni. La qualità tangibile del prodotto è identificata con il negozio vicino a casa, la marca, il made in Italy come prodotto di qualità e quasi mai con il prezzo.

La domanda è: possiamo pensare che tutti i beni vedranno uno spostamento massivo su Internet come decisore dell’acquisto? Galante ritiene che nella moda, nel fashon, negli accessori di moda e nella gioielleria saranno sempre decisivi, nel processo di acquisto, l’approccio diretto in vetrina (solo l’8% usa internet per la decisione di acquisto su questi generi di prodotti). Mentre Internet diventa decisivo nel processo di acquisto già in due settori: la ricerca di un viaggio, la tecnologia mp3 e i cellulari (l’Italia è al secondo posto al mondo) e alcuni prodotti di nicchia come i prodotti dietetici.

Tuttavia assistiamo anche a comportamenti apparentemente: una ricerca condotta sui Blog come strumento di decisione di acquisto, fa risultare l’italia al primo posto, il che esprime una certa disinvoltura nell’uso diquesti strumenti per classificare, giudicare e comparare l’acquisto e i giudizi di altri consumatori.


MARKETING RELOADED: PILLOLA ROSSA O PILLOLA BLU?

Giuliano Noci, ordinario di Marketing al Politecnico di Milano, inizia la sua relazione ponendo l’accento su come la tecnologia Wiki stia cambiando profondamente i processi di innovazione delle imprese e di condivisione di idee. Con il Wiki aumenta la frequenza di generazione di contatti e di scambio di opinioni. Due casi estremi sono Nokia e banca Unicredit (vedi news su The Daily Bit) che hanno investito in strumenti per la condivisione della conoscenza umana su internet.

Le aziende stanno investendo sempre di più su mezzi di social networking che offrono il privilegio di stabilire un dialogo con i consumatori e di ottenere feedback direttamente dalle persone interessate: capire dalle risposte degli utenti quali sono le opinioni in merito ai temi vicini a quelli del brand può costituire un grande vantaggio competitivo in termini di business per l’azienda stessa.

Secondo tema affrontato da Noci è quello per il quale siamo di fronte a un nuovo “Prime Time”, dato dal fatto che cambiano continuamente i canali di comunicazione utilizzati delle imprese.
Alcuni esempi li vediamo dalla cronaca: il New York Times ad esempio ha appena dichiarato che cinque anni non avrà più il corrispondente cartaceo ma solo l’edizione on line del giornale.

Un altro fenomeno da cui non possiamo prescindere è l’evoluzione dei mondi sintetici e in particolare Second Life.second life
Reuters pochi giorni fa ha riportato una agenzia che descrive che su ebay è avvenuta una transazione per 50mila dollari di Amsterdam virtuale.
Inoltre mercoledì sempre Second Life ha fatto transazioni per 1,5 miloni di dollari (moneta fisica). Infine sono sempre piu le aziende come la Toyota entrano nella progettazione di concessionarie o agenzie virtuali.

Indubbiamente si deve ripensare a cosa sta cambiando. Siamo di fronte a tre precise realtà:

1. La presenza di tecnologie abilitanti che permettono di ripensare al rapporto azienda-utente/cliente

2. Un rinovato bisogno di socialità in un contesto che è interconnesso, ipertecnologico. Stanno cioè nascendo le cosiddette neo-tribu postmoderne, un rinato concetto del clan volto a recuperare valori ancestrali, per cui assistiamo a un ritorno del Pathos per la generazione di valori di legame tra individui.

3. La necessità di “essere”, di affermare una propria individualita’ in una società così interconnessa da risultare disarmante.

L’Avatar è allora la rappresentazione virtuale di quello che ho sempre sognato di essere ma non ho mai avuto modo di diventare. E Seccon Life è una occasione formidabile per molti di noi di affermare una nuova identità e di affermare un nuovo concetto di socialità

E’ così che nel nuovo marketing diventa centrale l’abilità dell’impresa di co-creare esperienze di valore con il contesto.

E le sfide che le imprese dovrebbero colmare sono di tre tipi:


1) CREARE ATTENZIONE. Il marketing deve trovare nuove modalità per generare attenzione, perché tutti siamo sottoposti a overload cognitivo. Philip Kotler ha dichiarato che, negli Stati Uniti, ogni individuo che si alza la mattina e si va a coricare la sera viene esposto a 1600 messaggi al giorno. Le aziende si trovano impreparate a gestire una tale entropia informativa. Inoltre paradossalmente i contenuti generati dagli utenti in una logica “member get member” e nell’ottica del Web 2.0 paradossalmente sono più interessanti dei contenuti gestiti dai professionisti della pubblicità.

2) ENGAGEMENT. L’impresa deve generare attenzione attiva. Non è sufficiente catturare attenzione ma essa deve diventare attiva in un ottica di co-crezione.
La risposta marketing classico potrebbe essere quello “urlare”, cioè di generare attenzione con l’aumento della frequenza della ripetizione dei messaggi. Purtroppo questo non fa altro che aumentare l’investimento in pubblicità e generare così entropia informativa. In realtà i clienti vogliono essere ascoltati e vogliono vivere una dimensione personale di relazione. Il fallimento di questo paradigma lo vediamo da una riflessione dell’Economist: con metodi come i “Frequent Flyer Program” si sono avuti circa 14 trilioni di miglia accumulate per un valore di 700 miliardi di dollari e 5-25 anni per consumarle tutte!

3) CO-CREAZIONE. La risposta del marketing classico è “non c’è nulla di nuovo da co-creae con il cliente. Ci sono già le ricerche di mercato, comunichiamo già con lui e, in fondo… sappiamo che il cliente è un portatore sano di bisogni”. Già, ma questo va contro ogni logica di co-creazione. E’ invece necessario generare esperienze e aggiungere un nuovo elemento: la multicanalità. Mobile, internet e canali tradizionali devono convergere. E il Marketing Mix deve spostarsi verso una logica di processo, di relazione, dove non esistono più confini netti tra impresa e cliente.


Oltre alla multicanalità dobbiamo stare attenti allo svilupparsi della polisensorialità. In fondo noi apprendiamo attraverso i sensi. Dunque le nostre iniziative diverranno tanto più efficaci quanto più sapremo impattare su più sensi dell’individuo.


AUDI VIRTUAL LAB Infotainment è il primo dei case history presentati da Giuliano Noci.

L’azienda ha puntato molto sulla progettazione della relazione come parte integrante il processo di sviluppo di nuovi prodotti.
Grazie a un servizio di infotainment per la progettazione del nuovo cruscotto sono stati coinvolti gli utenti, e questo è un modo di fare outsourcing del processo di sviluppo, un modo per rendere il cliente protagonista del processo.
Se partecipo al processo di sviluppo io mi sento dunque protagonista e avrò un’affezione positiva nei confronti della marca, tanto più che innescherò dei veri e propri processi di marketing virale.

Un altro esempio – tra l’altromarketign reloaded spesso citato in letteratura - è NIKE ID come possibilità di customizzare la propria scarpa prima di ordinarla (open source footwear).

Ma Giuliano Noci lo ha voluto riportare in chiave diversa: come coinvolgimento emotivo ed affettivo dell’individuo che diventa protagonista nell’ambiente fisico in cui si trova.

Funziona in questo modo: tu costruisci tramite sito web la tua scarpa su misura e la tua scarpa viene proiettata su grande monitor nella più importante piazza del mondo, la Time Square di New York.

Altri esempi sono:

  • Casa Bonduelle (dove il cliente diventa autore di spot pubblicitari);
  • Lancia Y con Bcolor-me, in cui colorate parti del corpo di alcuni modelli/modelle e inviare un sms per vedere il risultato hanno un valore di contatto e secondo una logica personalizzata, parte l’invito a provare la nuova lancia Y;
  • Fluevog (dove l’idea più votata viene progettata e mandata in produzione, secondo una filosofia di crowdsourcing, simile per certi aspetti all'opensource)
  • Ducati, che sposa la valorizzazione della tribù su cui costruisce il processo di relazione.

Quest’ultimo esempio si inserisce in un approccio noto con il nome diTattoo brand harley“Tattoo brand” (se io sono disposto a tatuarmi, a imprimere indelebilmente, il marchio dell’azienza che rappresenta per me il sogno, allora ho veramente instaurato un rapporto solidissimo). In questo caso ottengo dei clienti “evangelici”, dei predicatori, che in una logica entropica, di overload cognitivo, diffondono il verbo del brand in ottica virale.

Il successo di una impresa deriva dunque non solo dalla capacità di calvalcare le nuove tecnologie in modo adeguato, ma anche dalla abilità di gestire al meglio la convergenza tra sviluppo del web 2.0 e bisogno emergente di nuova socialità.


COMUNICAZIONE INNOVATIVA: RISCHI E MODELLI DI SUCCESSO

Giovanni Pola, Business Manager di Connexia, ultimo relatore della giornata, ha introdotto i rischi e i modelli di successo nella comunicazione innovativa.
Nella sua esposizione ha posto l’accento sulla necessità di avere un approccio multidirezionale (non solo B2B, B2C, ma anche C2B e C2C). Il consumatore, cioè, vuole parlare con l’azienda e con altri utenti. E’ il cliente che ha in mano il telemando, non solo metaforicamente parlando, dato che la tastiera sta evolvendosi in nuove interfaccie più user friendly con cui navigare sul televisore, il cellulare, ecc.
Una altra osservazione è quella rivolta all’importanza degli opinion leader, che sul web sono i blogger, e verso i quali c’è una caccia aperta. Le aziende vorrebbero approcciare il mondo dei blogger (si parla cioè di corporate blogger) ma si è scoperto che le stesse aziende non sanno affatto come gestirli.
Infine Pola ha individuato correttamente il problema dei mondi sintetici come Second Life.
I numeri che sta producendo Second Life non sono enormi in questo momento. Qual è allora il fenomeno da studiare e cavalcare? Il fenomeno è la novità del servizio che ho messo on line, il quale genera eco nel mondo reale. Devo insomma avere una idea innovativa e considerare i limiti fisici di questo canale. Un esempio per tutti: il ministro Di Pietro ha invitato giorni fa alcune redazioni a casa sua nel virtual mondo, ma paradossalmente lui è rimasto fuori per sovraffollamento della linea. Insomma c’è ancora un gap tra trasmittente, canale e ricevente.

MARKETING E TECNOLOGIA: UN BINOMIO VINCENTE?

Molto apprezzata la riflessione di Franco Giacomazzi, Presidente AISM, che durante la prevista tavola rotonda ha espresso con una certa arguzia un parere condivisibile confermando come “non ci siano ancora le professionalità. Ovvero che siamo ancora in una situazione in cui l’esperto di IT afferma di non occuparsi di marketing e non dialoga con l’esperto di Marketing che dice di non occuparsi di tecnologia”.

Se manca il dialogo o manca la disposizione a comprendere nuove realtà competitive esisterà sempre un profondo Gap tra il marketing di tipo più tradizionale e le nuove realtà di mercato.
“In effetti – ha sottolineato Giacomazzi – anche tra i relatori di questa giornata c’è chi ha candidamente ammesso, presentando i propri case history, di non avere “sperimentato” questi nuovi paradigmi sensoriali.

E sulla necessità di guardare oltre ha ricordato un aneddoto che gli successe quando lavorava in Montedison più di vent’anni fa. Era appena uscito il primo e innovativo personal computer Apple, al che ne parlò con i suoi colleghi ingegneri. Questi ultimi, quasi con compatimento, derisero quello che consideravano a torto un mero giocattolo. Solo due anni dopo, quegli stessi ingegneri si ripresentarono dicendo che era strategicamente importante per l’azienda l’acquisto di un nuovo prodotto appena uscito. Erano i primi PC della IBM. Insomma, una acuta analisi di come è importante essere pronti al cambiamento, per non farsi cogliere impreparati.

Sempre da Giacomazzi, un gustoso paradigma in chiave psicologica, che conferma l’esigenza di dotarsi di una nuova piramide di Maslov, una “Maslov 2.0” appunto, in cui dal bisogno di funzionalità di un prodotto si debba traslare alla spiegazione di una vera e propria esigenza in chiave sensoriale e percettiva.


CONCLUSIONI

Il quasi migliaio di iscritti al convegno conferma l’interesse che il Web 2.0 riscuote sul grande pubblico.

I temi affrontati, grazie soprattutto alla preparazione dei relatori, sono risultati molto stimolanti. Mi sarei atteso solo un sforzo in più volto al superamento del paradigma di multicanalità.

Oggi infatti è diventato scontato comprendere come la capacità di fare "convergere" i canali digitali (HTTP, WAP, Web-TV, UMTS, ecc.) diventerà elemento discriminante tra i vari fornitori di contenuti e servizi.

Quello su cui invece gli esperti di Marketing dovranno confrontarsi nel prossimo futuro, e che probabilmente non è stato ancora compreso, è quello del concetto integrazione e connettività tra i canali.

Durante il convegno, ad esempio, non è stato fatto riferimento alla recente tecnologia dei mash-up, strumenti del Web 2.0 che permettono la possibilità di combinare contenuti provenienti da fonti diverse per creare nuovi oggetti e nuova informazione. O almeno un accenno ai nuovi canali "syndication" come i podcast TV e radio, canali come iTunes, ecc.

Quella che, in mancanza di termini appropriati, chiamerei Hypercanalità: questo si, il vero nuovo fenomeno da studiare e che modificherà ulteriormente il comportamento di quei 5milioni e 300.000 utenti “heavy-user” italiani, già citati dalle ricerche Nielsen/NetRating e che, in un ecosistema in continua evoluzione, sono destinati solo ad aumentare.

Recenti studi hanno infatti già dimostrato che se la multicanalità realizzascale free nertwork
ritorni sull’investimento legati a una scala di proporzionalita diretta (come se usassimo il Web 2.0 in un ottica 1.0-centred), l’Hypercanalità (intesa qui come interconnessione scale-free tra canali) genera ritorni riferiti a una scala legata a una legge di potenza sull’investimento.

E’ questa la vera differenza tra network concepiti e utilizzati come reti casuali e strumenti utilizzati su reti a invarianza di scala.

Solo in questo contesto può essere altresì spiegato il successo di “Giant Portal” (come YouTube o Wikipedia) come hanno del resto ben evidenziato studi sulle reti a invarianza di scala da parte di ormai noti scienziati come Dunkan Watts, Steve Strogatz, Reka Albert, Albert-László Barabási, Ginestra Bianconi, solo per citarne alcuni.

Claudio Pasqua



L'articolo originale è stato pubblicato su The Daily Bit


venerdì 16 marzo 2007

The Emergence of the Creative Enterprise

Sono le invenzioni geniali di pochi singoli illuminati a fare progredire la scienza o l'intelligenza collettiva di molti individui che lavorano in gruppo?

Mi è capitato recentemente di leggere un interessante post dal blog di Layla Pavone.

Nella sua riflessione il Presidente di IAB Italia e IAB Europa siscale free network interroga su cosa muove il mondo, cioè su cosa consente alla creatività di un popolo di farlo progredire nella scoperta scientifica e tecnica.

Layla Pavone riporta quella che è la conclusione del libro "The Wisdom of Crowds" scritto da Jim Surowiecki, giornalista del New Yorker, il quale sostiene che è l'unione di piu' intelligenze, l'integrazione di molteplici punti di vista, a creare più valore di quanto possa crearne il genio isolato di una mente illuminata.

Tuttavia non è sempre stato così.

Albert-László Barabási, professore in fisica statistica della Università di Notre Dame, ha dimostrato in un articolo [1] apparso su SCIENCE, che nonostate per secoli gli individui impegnati in ogni campo del sapere scientifico si siano tenuti legati da una rete invisibile, comunicandosi le loro scoperte, tuttavia gli studi e le relative pubblicazioni scientifiche erano sempre stati fenomeni legati a singole iniziative culturali.

Le più grandi idee attribuite a Galileo, Netwon, Darwin e Einstein possono dunque essere descritte topologicamente da una geografia di nodi isolati.

Anche nella prima metà del XX secolo la rete di scienziati, che pure si organizzarono in singole squadre di individui estremamente collaborative, tendevano e creare isole. Pensiamo ad esempio alla stretta collaborazione di scienziati come James Watson (zoologo e genetista) e Crick (un fisico), i due scienziati che scoprirono il DNA che furono responsabili della rivoluzione scientifica più importante degli ultimi due secoli dopo la scoperta delle leggi di Mendel.

Ma erano purtroppo ancora collaborazioni legate all'interazione [link] di pochi individui isolati, gruppi di lavoro che non comunicavano con altri gruppi.

Solo quando si resero necessari obiettivi internazionali come il Progetto Genoma Umano, oppure la ricerca della "particella di Dio", il bosone di Higgs, parametro chiave del modello standard, si sentiì l'esigenza di una collaborazione estesa su scala planetaria.

Tali ricerche non sarebbero state possibili senza una collaborazione tra migliaia di individui strettamente interconnessi con centinaia di centri di ricerca internazionali, collegati da una invisibile rete di collaborazioni e la co-pubblicazione di milioni di scritti scientifici.

Il merito di Barabási è di avere dimostrato scientificamente le intuizioni di Jim Surowiecki, descrivendo queste relazioni tra nodi mediante un solido linguaggio matematico.

La rete di collaborazioni tra scienziati e autori di pubblicazioni scientifiche è una rete a invarianza di scala, che cresce con legge di potenza.

Un esempio citato nel suo articolo è quello di Paul Erdos, il padre della teoria delle reti casuali, scienziato che con più di 500 collaboratori, può essere preso come il miglior esempio conosciuto di rete collaborativa tra matematici.

Barabási ha matematicamente dimostrato che il Web, la cellula di un organismo vivente, o una rete sociale è guidata dai medesimi meccanismi che ne regolano la sopravvivenza e la propria evoluzione.

La dinamica di queste reti fa sì che esse seguano la stessa strada evolutiva. Pur essendo reti "senza ragno", cioè senza un supervisore centrale, esse hanno tendenza ad auto-organizzarsi. Per gli organismi ci pensa la legge dell'evoluzione biologica, per le reti complesse come internet è la legge di potenza.

Oggi le grandi scoperte scientifiche sono legate alla collaborazione di centinaia, migliaia di individui. Non è solo una questione di costi (i laboratori moderni hanno bisogno di enormi investimenti statali e intergovernativi). E' un problema soprattutto legato alla complessità.

Barabási ha inoltre dimostrato che nelle reti collaborative è importante sia la presenza di menti dotate di grande intelletto ed esperienza (i singoli guru, individui illuminati ed estremanente dotati intellettualmente) che giovani menti dotate di creatività e portate all'innovazione.

I primi hanno il compito di "guidare" il gruppo, di ragionare per inferenze, e risparmiare tempo computazionale grazie alla loro lunga esperienza passata a studiare su modelli teorici per anni durante notti insonni. I secondi quelli di portare al gruppo esperienze collaborative e idee fresche innovative.

Una teoria matematica che spieghi la dinamica delle scoperte umane non può più quindi essere più solo legata all'apporto di un singolo individuo.

Anche le imprese più competitive del XXI secolo saranno quelle che potranno sfoggiare gruppi di lavoro composti da individui con una giusta combinazione di " expertise" (saper fare), esperienza, creatività e innovazione.


Claudio Pasqua


[1] Albert-László Barabási - Network Theory - the emergence of the Creative Enterprise - SCIENCE, 29 April 2005

mercoledì 14 marzo 2007

International Workshop and Conference on Network Science (NetSci07)


L'International Workshop and Conference on Network Science (NetSci07) porta all'attenzione di scienziati, ricercatori e docenti i fenomeni delle reti a invarianza di scala in settori molto diversi dellaNetSci07 ricerca scientifica.

Matematici, analisti ed esperti in ogni settore della ricerca si incontreranno per analizzare le implicazioni che può dare lo studio delle reti in campi che vanno dalla biologia sistemica alla scienza dell'informazione, passando per le scienze sociali e quelle ingegneristiche.

La conferenza darà maggiore enfasi alle reti biologiche e ai loro modelli costituenti.
In particolare lo studio delle reti di regolazione, della trascrizione dei pattern genetici e dell'interazione proteica all'interno delle cellule, del metabolismo e degli ecosistemi.

Il workshop offrirà poi la possibilità di seguire le relazioni dettate dalle più recenti scoperte in questi promettenti settori.

Associato all'evento è previsto anche un concorso dal titolo "Visualizing Network Dynamics" aperto a ricercatori, tecnici e docenti in ogni disciplina tra cui antropologia, sociologia, storia, psicologia sociale, biologia, geografia economia e scienze della comunicazione ma anche artisti e designer che potranno sottoporre alla giuria scientifica i lavori a tema con il fine di esprimere al meglio, anche graficamente, l'evolversi delle reti e delle interazioni dei loro elementi costituenti.

La redazione di The Daily Bit, che segue da alcuni anni l'evolvere degli studi più recenti sulle reti, seguirà da vicino anche questo importante appuntamento internazionale.

Alcuni studi, riassunti nelle pagine della nostra rivista, sono stati pubblicati proprio dai relatori e organizzatori di questo evento, come Reka Albert e Albert-László Barabási, e si dimostrano utili nella spiegazione e nella formulazione matematica di fenomeni molto diversi ma anche molto simili per la descrizione del comportamento del world wide web.

Il workshop e la conferenza si svolgeranno al New York Hall of Science nei pressi del Flushing Meadows Corona Park, Queens New York City

NetSci07
International Workshop and Conference on Network Science
20-25 maggio 2007
New York Hall of Science
Queens, NYC



ARTICOLI CORRELATI

File IconNetSci 2007 sul sito della University of Notre Dame
File IconVincitori e vinti nel World Wide Web
File IconPerché su Internet i ricchi diventano sempre più ricchi?
File IconLa dinamica dei sistemi complessi e il World Wide Web
File IconLa fisica del Web

mercoledì 7 marzo 2007

TEORIA DELL’EMERGENZA E RETI COMPLESSE


articolo tratto da The Daily Bit

Recentemente [1] il fisico teorico Ginestra Bianconi ha condotto uno studio sulla emergenza di reti a inviarianza di scala in cui ha dimostrato che il grado di distribuzione in tali reti corrisponde a uno stato di energia più elevato rispetto a reti non organizzate. Al contrario il minimo di energia si riscontra nelle reti con nodi e link distribuiti in modo aleatorio (reti casuali).

La teoria dell’emergenza è una branca della teoria dei sistemi che studia i processi di costituzione di entità basate su (emergenti da) interazioni di cooperazione/competizione tra elementi. secolo della complessità

Il tema dell’emergenza per la sua peculiarità rappresenta molte delle problematiche sistemiche attualmente presenti in diverse discipline.
Una larga varietà di reti complesse come Internet, il World Wide Web, le reti biologiche degli scambi proteici tra cellule o le reti sociali (come lo stabilirsi di comunità auto-organizzate come la sincronia del lampeggio di sciami di lucciole, fino all'organizzarsi di interi centri industriali) ed economici (come i comportamenti dei mercati azionari) rivelano una tendenza analoga a massimizzare l’energia.

Queste strutture evolvono in modo da conseguire precisi obiettivi e rivelano caratteristiche topologiche analoghe, tra cui una interessante tendenza all’autoorganizzazione.

Le proprietà di queste strutture non sono dedicibili da quelle dei componenti interagenti tra loro, da cui la necessità a ricorrere a delle modelizzazioni che dalla prima semplice osservazione che “il tutto è maggiore della somma delle sue parti” arrivino a descrivere le reti a livello sistemico: dobbiamo cioè esaminare la struttura e la dinamica delle funzioni tra i nodi e dell’intero complesso di relazioni, piuttosto che le caratteristiche delle parti isolate.

La complessità dei sistemi e la enorme quantità di informazioni (dati) oggi disponibili richiede lo sviluppo di modelli matematici e metodi computazionali che possano definire le relazioni tra struttura e funzione a tutti i livelli di organizzazione.

Creare un modello della rete allargato a ecosistema digitale aperto tiene fondamentalmente in conto tale complessità.

REFERENCE

[7] G. Bianconi, Degree distribution of complex networks from statistical mechanics principle, cond-mat/0606365v5 (2006)

venerdì 2 marzo 2007

Google non è solo un motore di ricerca

Ecco 15 caratteristiche (più o meno conosciute) che possono tornarci utili ...
  1. Google è una calcolatrice. Quanto fa 2+5?

  2. Google conosce le costanti matematiche e fisiche. Qual'è la velocità della luce? E la velocità del suono al livello del mare? E il pi greco? Google lo sa.

  3. Google fa conversioni tra unità di misura. A quanti euro corrispondono 100$? Quanti metri è lungo un miglio?

  4. Google è un dizionario. Cosa vuol dire enigma?

  5. Google fa anche da glossario. Provate per esempio la definizione di "peer to peer"

  6. Google raccoglie aneddoti e fatti storici. Vuoi sapere dove è nato Mark Twain o quanti abitanti ha San Francisco? Google (in questo caso solo la versione .com) ha la risposta.

  7. Google mostra le previsioni del tempo. Scrivendo Weather + il nome della città cercata Google.com mostrerà le previsioni del tempo. Ecco un esempio per New York. Anche in questo caso funziona solo per la versione .com

  8. Google fornisce anche il meteo per gli aereoporti. Utilissimo se dovete volare, ad esempio ecco l'aereoporto di Minneapolis...

  9. Google tiene traccia dei voli aerei. Per i voli USA e molti voli internazionali basta inserire il codice del volo per controllare se è arrivato o meno...

  10. Google tiene traccia dei tuoi pacchi. Per FedEx, US Post e UPS, basta inserire il numero di tracking nel campo di ricerca, e vi verrà mostrato dove si trova il vostro pacco. Penso valga solo per gli USA e solo su Google.com

  11. Google è un enorme elenco telefonico. Sempre e solo per gli USA Google fa da elenco telefonico. Vi va di fare una telefonata a John Smith?

  12. Google recupera i prefissi. Idem con patate per gli "area code", corrispondenti ai nostri prefissi telefonici

  13. Google ama il cinema. Mostra orari dei cinema e recensioni semplicemente inserendo "movies + titolo del film", ad esempio Casino Royale

  14. Google ama la musica. Inserendo il nome di un artista ci verrà mostrata la discografia e notizie interessanti... Provate Norah Jones!

  15. Google ha la risposta per tutto. Ed è semplicemente "42". 42? Sì quarantadue!

Alcune di queste sono funzionanti solo su Google.com e non sulle versioni in lingua italiana.

I link forniti puntano a Google.com, ma a causa delle impostazioni del vostro browser potreste essere dirottati verso la versione italiana, dove molte di queste features non funzionano.

venerdì 23 febbraio 2007

SEO: tool per le keyword


Sempre dal blog www.marketingroutes.com apprendiamo un elenco di tool per le keyword (i più famosi) per agevolarvi nella ricerca di parole chiavi che possono essere utili per il vostro sito.

Saranno benvenuti i commenti di coloro che vorranno segnalare ulteriori tool di ricerca keyword:

Vantaggi e svantaggi delle doorpage

Segnaliamo un ottimo articolo dal titolo Vantaggi e svantaggi delle doorpage
e scritto da Stefano Gorgoni

L'articolo spiega che Google si mostra spietato verso chi utilizza questa tecnica. Appena viene rilevato il redirect, senza curarci di come viene rilevato (chi ha detto "Toolbar"?), il sito viene rimosso completamente dall’indice.

Segnaliamo inoltre alcuni articoli interessanti sull'argomento del SEO pubblicati dal blog Marketing Route:

I 5 fattori più importanti che influenzano il calcolo del PageRank

Citiamo qui (secondo un articolo pubblicato su The Daily Bit) i 5 fattori più importanti che influenzano il calcolo della link popularity di un nodo descritti proprio da Lawrence Page (uno dei fondatori di Google e ideatore del PageRank):

1. Visibilità di un Link
2. Posizione di un Link all’interno di un documento
3. Distanza di tra le pagine
4. Importanza di una pagina linkata
5. Aggiornamento di una pagina linkata

Una caratteristica non spiegata dal modello di rete a invarianza di scala è che quando aggiungiamo alla mia pagina Web un link verso, ad esempio, una pagina di questa rivista on line, creiamo un link interno fra due nodi vecchi!

Luis Amaral e Gene Anely della Boston University [1] e due studenti hanno dimostrato proprio questo: che i nodi, invecchiando, perdono gradualmente la loro capacità di annettersi dei link.
I due studenti del gruppo (Mendes e Dorogovtsev) hanno dimostrato poi che l’invecchiamento non distrugge le leggi di potenza, ma altera semplicemente il numero di hub perché cambia il loro esponente in grado.

Cioè come dire che la regola del collegamento preferenziale (preferential attachment) segue un meccanismo più complesso: la probabilità che un nuovo nodo si colleghi a uno già esistente non dipende unicamente dal numero di link ma anche dall’aggiornamento e dalla distanza tra le pagine.

Ecco perché ad esempio metodi di calcolo come il PageRank di una pagina sono influenzati solo in piccolissima parte da Link ipertestuali interni. Anzi di più: è importante che le due pagine non risiedano sullo stesso server, giudicato dal PR come pagine “vicine tra loro”.



[1] Il lavoro sull’invecchiamento condotto dal gruppo dell’Università di Boston è stato pubblicato in L.A. Amaral, A. Scala, M. Barthélémy e H.E. Stanley, Classes of Small-World Networks, in “Proceedings of the National Academy of Sciences”, 97 (2000). pp. 1149-152

giovedì 22 febbraio 2007

La dinamica dei sistemi complessi e il World Wide Web

Pare veramente incredibile pensare che ci siano voluti più di 40 anni perché la scienza si interrogasse sul perché certi sistemi complessi (tra cui alcune reti e Internet) non seguissero semplici comportamenti casuali.

Dal 1959, da quando due matematici ungheresi, l’inimitabile Paul Erdős e il suo collaboratore Alfréd Rényi iniziarono a studiare il comportamento delle reti in comunicazione e nelle scienze biologiche, è passata molta acqua sotto i ponti. Essi suggerirono, con convincenti calcoli, che i sistemi complessi si comportavano in maniera del tutto aleatoria [1] [2].

Quarant’anni dopo, nel 1999, il fisico Albert-László Barabási (foto) e i suoibarabasi reti collaboratori Reka Albert e Hawoong Jeon si accorsero non solo che non tutte le reti si comportavano come sistemi casuali [3] [4]: anzi, erano molti gli esempi di reti che presentavano un comportamente altamente organizzato: una di queste era proprio Internet e il World Wide Web.

Tenete presente che gli strumenti che prima di tali studi venivano utilizzati per spiegare il comportamento di Internet si basavano su idee mutuate dall’analisi sul comportamento di sistemi privi di organizzazione.
Gli attuali protocolli sono stati sviluppati negli anni Settanta, quando la rete era piccola, sfruttando le tecnologie disponibili allora.
L’importanza di conoscere la topologia della rete e dei suoi attributi è legata alla necessità di abbattere le limitazioni intrinseche al modello: senza tali conoscenze non si possono ad esempio progettare nuovi strumenti e nuovi servizi.

Da cui l’importanza di introdurre nuovi modelli che spieghino con maggiore raffinatezza le caratteristiche dei questi sistemi.


Articolo tratto da The Daily Bit


REFERENCES

[1] Paul Erdős and Alfréd Rényi , Publ. Math. Inst. Acad. Sci. 5, 17 (1960).

[2] B. Bollobas, Random Graphs (Academic Press, London, 1985).

[3] Albert-László Barabási, and R. Albert, Science 286, 509 (1999).

[4] Albert-László Barabás, Linked, The New Science of Networks, Perseus Publishing, 2002

mercoledì 31 gennaio 2007

Tools per il SEO

Segnalo alcuni tools utili per il SEO


Questa pagina tiene una traccia degli l'aggiornamento del pagerank e dei backlinks
nell'indice di google
http://www.seologs.com/google-updates.html


Questo strumento visualizza il pagerank di provenienza per ogni link presente all'interno di una pagina
http://www.seologs.com/pr-check/fullpage-pr.html

Questo fa un calcolo esatto dei BackLink di Google per ogni IP server
http://www.seologs.com/dc-link-popularity.html

questo fa lo stesso anche con altri motori
http://www.seologs.com/link-popularity-tool.html

Altri tools alla pagina
http://www.seologs.com/seo-tools.html

venerdì 19 gennaio 2007

Hot Spot Internet gratis in Italia

free-hotspot.com, il principale provider di servizi gratuiti Internet Wi-Fi in Europa, annuncia oggi che, con oltre 600 HotSpot installati, la società gestisce la più ampia rete di HotSpot GRATUITI al mondo, superando anche i più vasti network di questo tipo negli Stati Uniti. Attualmente più di 40.000 persone al mese usufruiscono dell’accesso gratuito Wi-Fi ad Internet offerto da free-hotspot.com in 14 Paesi europei.

“Siamo molto orgogliosi di essere diventati il leader mondiale del settore dopo un solo anno dal nostro ingresso sul mercato”, ha dichiarato Dan Toomey, CEO di free-hotspot.com. “Cio’ che mi rende felice non è solo la nostra crescita personale, ma anche lo sviluppo del Wi-Fi gratuito in generale in Europa. Il numero di HotSpot gratuiti in Europa ha infatti raddoppiato nel corso del 2006”, ha spiegato. “Il fatto poi che free-hotspot.com abbia contato nel processo di sviluppo per il 60% sottolinea il nostro impegno nella diffusione dei servizi di accesso gratuiti ad Internet Wi-Fi in Europa. Continueremo a fare del nostro meglio per rispondere alla domanda degli utenti nel 2007”.

La crescita statistica degli HotSpot gratuiti in Europa ed il ruolo chiave giocato da free-hotspot.com sono stati confermati da JiWire, che gestisce la più ampia directory di HotSpot pubblici certificati. Kevin McKenzie, CEO di JiWire, ha cosi’ commentato la notizia: ”Siamo certi che i servizi gratuiti o a basso costo supportati da inserzioni pubblicitarie delineeranno lo sviluppo futuro del Wi-Fi pubblico. Siamo lieti di vedere che free-hotspot.com guida con successo tale processo di sviluppo. Mentre numerose società hanno espresso l’intenzione di costruire una rete che fornisca un accesso ad Internet Wi-Fi gratuito, free-hotspot.com ha saputo realizzare le proprie promesse. La crescita della società nel corso dell’ultimo anno è davvero straordinaria”.

File Iconhttp://www.free-hotspot.com