Le Scienze - 08.2019

(Ann) #1

40 Le Scienze 6 12 agosto 2019


vono ripiegare sugli algoritmi evolutivi, più lenti. «Le reti neurali
hanno fatto passi avanti, ma sono lontane dal raggiungere un ap-
prendimento dei concetti simile a quello degli esseri umani», af-
ferma Lake.

Cose mai esistite
Proprio quello che mancava su Internet: altre foto di personag-
gi famosi. Negli ultimi anni l’etere è stato inondato da un tipo nuo-
vo e strano di fotografie, immagini di persone che in realtà non so-
no esistite. Sono il prodotto di una nuova tecnologia di IA con una
forma ingegnosa di fantasia. «Cerca di immaginare foto di perso-
ne nuove che dall’aspetto potrebbero credibilmente essere perso-
naggi famosi nella società», dice Ian J. Goodfellow di Google Brain
a Mountain View, in California. «Si ottengono fotografie molto rea-
listiche di persone attraenti secondo i canoni convenzionali».
La fantasia è abbastanza facile da automatizzare. In pratica ba-
sta prendere una rete neurale di riconoscimento immagini, chia-
mata anche «discriminatore», e farla girare al contrario; a quel
punto diventa una rete di produzione di immagini, detta anche
«generatore». Un discriminatore riceve come input i dati e resti-
tuisce un’etichetta, per esempio una razza di
cani. Un generatore riceve un’etichetta e resti-
tuisce dati. La parte difficile è far sì che questi
dati siano significativi: se come input si inse-
risce «Shih Tzu», la rete deve restituire un ar-
chetipo di Shih Tzu e per produrre un cane su
richiesta ha bisogno di sviluppare al suo inter-
no l’idea di cane. Mettere a punto una rete che
faccia tutto questo è difficile dal punto di vista
computazionale.
Nel 2014 Goodfellow, che all’epoca stava fi-
nendo il dottorato, ha pensato di far lavorare
in coppia i due tipi di rete. Un generatore crea
un’immagine e un discriminatore la confronta
ai dati, così il controllo pignolo del discriminatore allena il gene-
ratore. «Abbiamo creato un gioco tra due giocatori», dice Goodfel-
low. «Uno è una rete generativa che crea immagini, l’altro è una re-
te discriminativa che guarda le immagini e cerca di capire se siano
vere o false». La tecnica è nota come «reti antagoniste generative».
All’inizio il generatore produce rumore casuale, che non è
un’immagine di qualcosa, tanto meno rappresentativa dei dati di
addestramento. Ma all’inizio neanche il discriminatore è capace di
discernere granché. Via via che questo affina i gusti, anche il gene-
ratore deve migliorare le prestazioni, quindi i due si spronano a vi-
cenda. In quella che è una vittoria dell’artista sul critico, alla fine il
generatore riproduce i dati con tanta verosimiglianza che il discri-
minatore è ridotto a indovinare, a caso, se l’output sia vero o no.
La procedura è complessa e le reti possono bloccarsi, creare
immagini non realistiche o non riuscire a catturare tutta la varietà
dei dati. Per esempio il generatore, per fare il minimo necessario
per ingannare il discriminatore, potrebbe collocare i volti sempre
contro lo stesso sfondo. «Non abbiamo una buona teoria matema-
tica del perché alcuni modelli riescano a offrire buoni risultati e
altri no», afferma Goodfellow.
Comunque sia, poche altre tecniche di IA hanno trovato così
tanti usi in così poco tempo, dall’analisi di dati cosmologici alla pro-
gettazione di capsule dentali. Ogni volta che è necessario assorbire
un set di dati e produrre dati simulati con gli stessi indicatori stati-
stici si può usare una rete antagonista generativa. «Basta fornire un
bel po’ di immagini e chiedere: “Ne puoi fare altre come queste?”»,

Nel 2017 Chelsea Finn, dell’Università della California a Berke-
ley, e colleghi hanno sviluppato un metodo che hanno chiamato
meta-apprendimento indipendente dal modello (model-agnostic
meta-learning). Immaginiamo di voler insegnare a una rete neu-
rale a classificare le immagini scegliendo una categoria tra cinque,
che siano razze di cani, razze di gatti, marche di auto, colori di cap-
pelli o altro. Nell’apprendimento normale, non «meta», immettia-
mo migliaia di immagini di cani e modifichiamo la rete in modo
che le classifichi. Poi immettiamo migliaia di immagini di gatti, ma
questo ha lo spiacevole effetto collaterale di annullare il lavoro sui
cani; se apprende in questo modo, la macchina è in grado di ese-
guire solo un tipo di classificazione alla volta.
Nel meta-apprendimento indipendente dal modello, si infra-
mezzano le categorie. Mostriamo alla rete solo cinque immagini di
cani, una per ogni razza, e poi presentiamo un’immagine di pro-
va per vedere fino a che livello riesce a classificarla correttamente;
probabilmente non riuscirà molto bene, dopo soli cinque esempi.
Riportiamo la rete al punto di partenza, cancellando le poche co-
noscenze che può aver appreso sui cani, ma, è il punto chiave, mo-
difichiamo il punto di partenza in modo che la rete dia prestazioni
migliori la volta successiva. Passiamo ai gatti, e
di nuovo presentiamo solo un esempio di ogni
razza. Continuiamo con auto, cappelli e così
via, seguendo una rotazione casuale tra le ca-
tegorie. Proponiamo ripetutamente i compiti e
testiamo spesso il sistema.
La rete non impara a riconoscere specifi-
camente cani, gatti, auto oppure cappelli, ma
impara qual è lo stato iniziale che le permet-
te di partire con il piede giusto per classifica-
re qualsiasi cosa le sia presentata in gruppi di
cinque. Alla fine diventa rapida: possiamo mo-
strarle cinque specie di uccelli e risponde su-
bito correttamente.
Secondo Finn la rete diventa così acuta perché sviluppa una
distorsione, che in questo contesto è una cosa positiva. Si aspet-
ta che i dati di ingresso abbiano la forma di un’immagine e si pre-
para di conseguenza. «Se hai una capacità di rappresentazione che
sa riconoscere le forme degli oggetti, i colori degli oggetti e la lo-
ro consistenza e che sa rappresentare queste cose in modo conci-
so, allora quando vedi un oggetto nuovo dovresti riuscire a rico-
noscerlo rapidamente», afferma.
Finn ha applicato questa tecnica anche ai robot sia reali che
virtuali. In un esperimento ha dato a un robot con quattro zam-
pe una serie di comandi, ordinandogli di correre in varie direzio-
ni. Con il meta-apprendimento, il robot ha capito che la caratteri-
stica comune dei comandi era «correre» e che l’unica domanda era
«in quale direzione?», così si preparava correndo sul posto. «Quan-
do corri sul posto, è più facile adattarsi rapidamente a correre in
avanti o all’indietro, perché stai già correndo», spiega Finn.
Questa tecnica, come altri approcci simili provati da Wang e
altri, ha i suoi limiti. Anche se riduce la quantità di dati campio-
ne necessari per un compito, in generale ne richiede tanti. «I me-
todi attuali di meta-apprendimento richiedono un enorme adde-
stramento preventivo», dice Brenden Lake, scienziato cognitivo
dell’Università di New York (NYU), uno dei più importanti paladi-
ni di un’IA più umana. Il meta-apprendimento è anche impegna-
tivo dal punto di vista computazionale perché sfrutta differenze
tra i comandi che a volte sono molto sottili. Se i problemi non so-
no definiti abbastanza bene a livello matematico, i ricercatori de-


Dimenticare non è

dannoso per

l’apprendimento, è

essenziale. Lo

stesso principio si

applica anche per

l’apprendimento

automatico
Free download pdf