Gli eserciti si stanno schierando (sarà forse perché sta per uscire l’ultimo capitolo della saga di Harry Potter?): da una parte i fautori dell’NLP, dall’altra i detrattori. Il premio: diventare il nuovo Google, definire le modalità di interazione tra uomo macchina, mantenere la promessa del knowledge management.
E’ dunque un momento entusiasmante. Da un lato Powerset, dall’altro Danny Sullivan, grossi calibri, aziende e persone che hanno speso una vita nel settore, e che questa battaglia l’hanno già combattuta alcune volte. Vale, infatti, la pena di ricordare che nel passato le tecnologie linguistiche sono sempre uscite piuttosto malconcie (ricordate BrainBoost? The Electric Monk?). Quando ho iniziato occuparmi di queste cose circolava il detto (attribuito, se ben ricordo, ma sicuramente in maniera apocrifa, all’IBM): “per migliorare le prestazioni del tuo software di NLP, licenzia un linguista e assumi un ingegnere” (come a dire: se proprio si deve fare NLP, l’approccio giusto è statistico, non linguistico).
Perché oggi dovrebbe andare meglio? Perché le tecnologie semantiche (adesso molti le chiamano così) dovrebbero questa volta trionfare (e la speranza di trionfare c’è a giudicare dagli entusiasmi della Semantic Technology Conference)? Gli obiettivi sono ambiziosi: fare meglio di Google, costruire sistemi la cui capacità dialogica sia tale da poter sostituire operatori umani nel supporto clienti… Anche noi di Blogmeter abbiamo delle ambizioni in materia: per poter analizzare le conversazioni online e poterle trasformare in asset strategici è necessaria una componente di comprensione automatica del linguaggio.
Siamo dunque affascinati, ma anche un po’ preoccupati. Non vorremmo che la nostra promessa (nostra nel senso di coloro che credono che l’NLP possa servire a qualcosa nell’interazione uomo-macchina) sia, anche questa volta, difficile da mantenere. E dunque nella lotta tra bene e male, tra NLP e non-NLP, vorremmo trovare un compromesso (e non perché ci piace lo stile Veltroni, e quindi preferiamo fare contenti tutti, ma perchè pensiamo che sia la cosa migliore).
Il compromesso e’ il seguente: il linguaggio naturale non è lo strumento più adeguato all’interazione uomo-macchina ma, poiché quest’ultima manipola interazioni linguistiche, testi e parole, l’analisi del linguaggio naturale risulta uno strumento utile per migliorare la qualità delle risposte che la macchina è in grado di fornire. L’NLP non è quindi la soluzione a tutti i problemi, bensì uno degli ingredienti (tra gli altri, ad esempio, troviamo la user experience, la qualità dei dati di partenza, ecc.).
La verità è che questa è probabilmente la posizione vincente. Ne dà esempio l’utilizzo delle classificazioni multidimensionali (classificazione a faccette), siano esse generate dagli utenti (le tags), siano definite centralmente. Le faccette sono una maniera leggera (sicuramente debole) per assegnare un contenuto semantico a un testo, senza doversi avventurare in una strutturazione completa e onerosa del dominio di riferimento (una ontologia). Certo, possono diventare un caos ingestibile….pero’ funzionano.
Un altro esempio, ne abbiamo già parlato, consiste nell’usare l’NLP per arricchire i risultati di una ricerca basata su keywords, proponendo ricerche correlate, clusterizzazioni dei risultati, risultati alternativi.
Mentre gli eserciti si schierano per la battaglia finale (ed Harry Potter sta per uscire) noi difendiamo la nostra posizione, miglioriamo i nostri sistemi e la qualita’ dei nostri risultati e stiamo ad osservare.