L’innovativa applicazione, che sarà disponibile in una versione di prova già a partire dal prossimo mese di ottobre (iscrivendosi al sito www.aipoly.com) e in Applestore da novembre, rappresenta una grande novità nel mondo della cosiddetta visione artificiale.
Ideatori dell’applicazione dall’alto tasso di innovazione sociale sono l’australiana 26enne Marita Cheng, premiata come giovane dell’anno 2012 nel suo Paese, e il 22enne italiano Alberto Rizzoli, figlio dell’ex editore del Corriere della Sera Angelo, e dell’ex deputato forzista Melania De Nichilo Rizzoli. In particolare il giovane creativo italiano è approdato a Mountain View (California) grazie a un finanziamento da 30 mila euro dato da Google per sviluppare Aipoly nella Singularity University. Si tratta di un istituto sponsorizzato dal Google che seleziona giovani imprenditori da tutto il mondo con l’obiettivo ambizioso di assisterli in progetti che potrebbero migliorare la vita di un miliardo di persone entro dieci anni.
Ma come funziona “Aipoly”? Caricando o scattando una foto dal cellulare entro una ventina di secondi il programma descrive l’immagine, dopo aver trasmesso l’immagine via internet a un server, che la confronta con altri milioni di immagini di tutti i tipi relative a oltre 300 mila oggetti diversi e, quando trova quella che le corrisponde, invia all’utente la risposta.
«Eravamo a Google e un ingegnere ci parlava dei problemi legati alla capacità di vedere di auto e robot e dei problemi che hanno nel riconoscere il mondo fisico», racconta Rizzoli spiegando come sia nata l’idea. «Poi abbiamo assistito alla dimostrazione di un sistema in grado di fare una narrazione semantica, cioè di contestualizzare autonomamente frasi e parole. Abbiamo pensato a come applicare le due cose».
Aipoly analizza, riconosce e descrive le figure e la loro posizione, colori, ruolo e azioni, ad esempio se una persona sta correndo o sorridendo. L’applicazione è stata testata finora su 88 non vedenti che ne sono stati entusiasti.