Menu

Biografia


Sintesi esecutiva

Principali posizioni:
CWI [research scientist], MIT Lab for Computer Science [research scientist], MIT World Wide Web Consortium (W3C) [research scientist], UNIPD [professore], Volunia [CTO], European Institute for Science, Media and Democracy [CTO].
Principali tecnologie:
P3P (Platform for Privacy Preferences) [standard mondiale], XML-Query (XQuery) [standard mondiale], Web Ontology Language (OWL) [standard mondiale], APPEL [proposto standard mondiale per la privacy selection], Metalog [primo sistema al mondo di semantic web], Volunia [sistema di meta mappings e social search], Theory of Vaccines [correttezza ottimale], SEP (search engine persuasion) [primo studio formale al mondo sul SEO], Hyperinformation [prima tecnica hyper per i motori di ricerca] e Hyper Search [primo motore di ricerca hyper al mondo].

Biografia espansa

Diplomato a pieni voti al liceo scientifico, laureato in Matematica con 110/110 e lode, voto minimo durante tutta la durata degli esami mai sotto al massimo (30/30).

Dottorato in Matematica Computazionale ed Informatica, con una tesi che ha vinto il premio EATCS (European Association for Theoretical Computer Science) per la miglior tesi di dottorato dell'anno, grazie all'invenzione dell'analisi locale nei linguaggi di programmazione.

Research scientist al CWI (il centro nazionale di ricerca olandese).

Research scientist all'MIT Lab for Computer Science (USA) nel Computation Structures Group.

Research scientist al MIT (USA) nel World Wide Web Consortium (W3C) (principalmente nel Technology & Society Domain, ed in parte anche nell'Architecture Domain). Onorato di avere lì iniziato la mia collaborazione ed amicizia con un uomo come Tim Berners-Lee, l'inventore del web.

Nel frattempo, ricercatore in Informatica presso l'Università di Venezia prima, e professore associato presso l'Università di Padova dopo.

Chief editor di P3P (Platform for Privacy Preferences), lo standard mondiale per la privacy sul Web, e co-autore della specifica APPEL.

Iniziatore dell'attività di Query Languages al W3C (si veda ad esempio QL'98). Ho poi iniziato il progetto XML-Query (XQuery) (del quale sono stato responsabile W3C per un buon numero di anni...), con la missione di sviluppare lo standard mondiale per l'interrogazione di dati XML (sul web e non), e finalmente fornire la giusta integrazione tra il mondo Web e quello dei databases, integrazione poi realizzata con la prima versione della famiglia di standard mondiali XQuery di cui sono stato co-autore.

Membro del progetto di Web Ontology del W3C per portare il Web Semantico ai livelli espressivi più alti: tra gli ideatori della prima versione dello standard mondiale OWL (Web Ontology Language).

Co-fondatore e membro dell'Executive Committee del Network of Excellence della Comunità Europea sul Web Reasoning, REWERSE.

Consulente per la Comunità Europea sulle Knowledge Technologies, e consulente scientifico/strategico per una varietà di organizzazioni ed entità.

Responsabile W3C per la IEEE Internet Best Practices Activity.

Chair e/o pc member in molti eventi; per esempio, guardando un pò indietro, chair di Query Languages'98 (QL'98), nel Program Committee della Eighth International World Wide Web Conference (WWW8), della Nineth International World Wide Web Conference (WWW9) in Amsterdam, Vice-Chair a WWW10, etc etc.

Editor-in-chief dell'Open Journal of Web Technologies (OJWT).

CTO (Chief Technical Officer) dell'European Institute for Science, Media and Democracy, la Piattaforma Permanente per l'Eccellenza Europea. La principale tecnologia che ho proposto, attualmente in fase di sviluppo, è REISearch, l'European Research Excellence Innovation Network (il primo network integrato, intersettoriale ed interdisciplinare per i ricercatori europei). REISearch ha avuto il supporto, tra gli altri, del Parlamento Europeo e della sua presidenza (Jerry Buzek e Martin Schulz) e della presidenza della Commissione Europea (Manuel Barroso), ed ha anche ricevuto importante supporto finanziario dal Gruppo Orange.

Ideatore e creatore di Volunia (si vedano ad esempio le recensioni di Search Engine Land e di Search Engine Watch), dove sono stato CTO ed ho anche dovuto fare da project manager, programmatore e finanche segretaria (...) dalla sua creazione fino al lancio pubblico nel 2012. Sono stato poi meschinamente estromesso dall'imprenditore finanziatore, che voleva avere il pieno controllo sulla compagnia: se interessati, vedete una prima descrizione, che è quello che per ora ho potuto dire (ovviamente ci sarebbe da dire molto di più, ma per ora ci sono questioni legali da sistemare).

Ricevuto vari premi, incluso il TR35 award dato dal MIT ai più grandi innovatori tecnologici al mondo, il Premio Fondazione Gini per ricerca innovativa, l'IBM young scientist award, il Lifetime Membership Award of the Oxford Society per "i suoi contributi in carriera, e gli sforzi profusi nello sviluppo dello standard mondiale XML Query", etc etc.

Attaccato con successo vari problemi aperti di ricerca, come ad esempio:

Precursore in alcuni importanti campi:

Modularità: l'inventore della teoria della analisi modulare ottimale ("local analysis") per sistemi complessi.
I sistemi complessi sono tipicamente troppo grandi per essere analizzati nel loro complesso, e quindi quello che succede è che si cerca di applicare la cosiddetta analisi modulare: cioè a dire, studiare il sistema come un insieme di piccole parti, e poi da questo inferire in qualche modo che l'intero sistema complesso funziona bene. Prima dell'analisi locale, questa tecnica era più simile ad una forma d'arte, senza una comprensione formale dei principi fondanti, e soprattutto dei limiti del perché/quando studiare il "piccolo" è meglio dello studiare il "grande". L'Analisi Locale ha fornito il contesto formale per studiare queste differenze, permettendo di definire precisamente quali sono i limiti dell'analisi "small versus large". Un sottoprodotto dell'Analisi Locale è stata la Teoria dei Vaccini, che ha mostrato come la miglior analisi del "piccolo" si può ottenere modellando l'idea di "vaccino" (comune alla medicina) nell'apparentemente scorrelato campo della computer science.
Motori di Ricerca: il primo al mondo ad introdurre il concetto di hyperinformation (iperinformazione) nei motori di ricerca, idea poi sviluppata ad esempio in Google
C'è stato un grande cambiamento nel modo in cui motori di ricerca di cosiddetta "seconda generazione" come Google sono nati, dovuto al salto di qualità del considerare la cosiddetta "hyperinformation", invece di considerare solamente la "textual information", l'informazione testuale, che era stata fino a quel momento usata in passato. L'Hyperinformation è stata introdotta nel 1996 (rapporto originale, primo motore hypersearch costruito e funzionante, sottomissione del lavoro a WWW6), e poi è stato anche accettata a WWW6 (pubblicazione finale nel 1997), con una analisi critica della situazione presente in quel momento storico. La hyperinformation può essere usata in vari modi, tra cui due principali, uno che misura la "visibilità", l'altro per misurare il "potenziale" di una pagina web. Il secondo modo è quello che all'epoca ho indicato come il migliore da usare. Dopo la presentazione della hyperinformation a WWW6, Larry Page mi ha cercato ed abbiamo avuto una fitta discussione sui pro e contro dei vari modi di usare l'hyperinformation, in particolare tra visibilià e potenziale. L'anno successivo, Page e Brin correttamente citando il predecessore dell'hyperinformation hanno pubblicato l'articolo sul PageRank, che è essenzialmente una versione dell'hyperinformation per misurare la "visibilità" (il duale del "potenziale"), e sviluppato Google basandosi su questa misura di hyperinformation.
Web Advertisement & Motori di Ricerca: il primo al mondo ad introdurre e studiare formalmente il problema della search engine persuasion (sep)
Ai nostri giorni, termini come "search engine optimization", "search engine spam" e così via sono ben conosciuti: descrivono le tecniche per "pompare" artificialmente delle pagine web nelle top ten dei motori di ricerca. Ci sono molte compagnie che operano in questo settore, e si utilizzano varie tecniche appunto. Il primo studio di questo problema, che è più formalmente chiamato sep (da search engine persuasion) è apparso nel 1997, con l'articolo "Security of World Wide Web Search engines", che per la prima volta ha introdotto formalmente il concetto, e spiegato e classificato delle possibili tecniche e soluzioni. Abbastanza sorprendentemente, quello che sembrava come fantascienza visionaria nel 1997 (lo stesso concetto, e tecniche come l'invisibilità e così via) si è realizzata anni dopo, ed è ora tecnologia comune in un fiorente mercato di crescente importanza.
Web Semantico: il primo sistema al mondo di web semantico (Metalog, il sistema di querying/reasoning per il web semantico)
Il "Web Semantico" ("Semantic Web") è al giorno d'oggi un termine comune in un campo di ricerca molto fiorente. Indietro nel tempo (1998), comunque, era solo una parola intrigante sulla bocca di pochi intimi, che si ritrovavano con l'inventore del Web (Tim Berners-Lee) di fronte ad una lavagna al MIT. Durante quei giorni, emerse il bisogno di passare da un'idea visionaria alla pratica, e questo ha condotto allo sviluppo di Metalog, il primo sistema di web semantico prodotto al mondo. Metalog permetteva per la prima volta di fare interrogazioni (querying) e ragionamenti (reasoning) per il Semantic Web, ed anche di più: di farlo in una maniera che le persone trovassero semplice e naturale. Ancora una volta, quello che sembrava all'epoca visionario è ora in piena fase crescente, ed il Web Semantico è un'area di ricerca in pieno sviluppo, con moltissimi applicativi e studi che sono costantemente sviluppati verso la visione originale del Web di terza generazione, il Web dell'Informazione.
[English | Italiano]