Misurare la qualità delle tecnologie di Natural Language Processing italiane è sempre stato difficile. Diversamente da paesi più “evoluti”, la scarsità di risorse condivise, la naturale ritrosia di parte dell’accademia italiana verso le peer review e anche (ca va sans dire) un certo isolazionismo (io faccio la mia cosa e la faccio meglio degli altri), hanno impedito l’organizzazione di momenti di seria valutazione dei sistemi esistenti.

Tutto questo è finito. Durante il prossimo congresso dell’ai*ia (associazione italiana per l’intelligenza artificiale), il 10 settembre, EVALITA 2007 pubblica i risultati dei task preparati per questa prima edizione.

D’ora in poi, quando si parlerà di parsing, di word sense disambiguation, di riconoscimento di nomi propri, avremo uno standard a cui fare riferimento.

E’ un buon segno, da tenere presente, oggi che si parla (si torna a parlare) di ricerca in linguaggio naturale.