
Quattro sedie da ufficio allineate sul ciglio di una strada a Bangalore, troppo ordinate per essere state abbandonate di fretta, troppo sporgenti sulla carreggiata per un’utilità pratica. Ma nessuno le nota: le auto le scartano, gli scooter ci passano accanto e i pedoni le ignorano. Sono lì, e questo basta.
È questo dettaglio, non la mucca che blocca il traffico qualche metro dopo, gli scooter che sorpassano in contromano o i bambini che attraversano senza guardare, il particolare che racconta perché Bangalore, capitale dello stato di Karnataka, in India, sia diventata la palestra più ambita al mondo per addestrare alla guida l’intelligenza artificiale.
Non perché sia un posto pericoloso, ma per l’imprevedibilità di quel che può succedere sulla strada.
La città che batte ogni algoritmo

Per cominciare, bisogna capire cos’è Bangalore per spiegare cosa ci fa, in mezzo al traffico, un prototipo a guida autonoma sviluppato dalla start-up locale “Minus Zero”.
La metropoli conta 13 milioni di abitanti ma nessun semaforo visibile nelle zone di perifera, una segnaletica orizzontale che compare e sparisce a discrezione della pioggia, e una concezione della precedenza che cercando di essere generosi, si può definire fantasiosa.
Ogni incrocio è una trattativa tra decine di veicoli che avanzano per millimetri senza guardarsi o suonare, togliendo la traffico la definizione di scorrevole in favore di un’altra caratteristica: l’amalgama, un blog primordiale di lamiere e gas di scarico.
Il risultato è che Bangalore detiene un primato poco invidiabile: secondo i report internazionali sulla mobilità urbana è la città più congestionata del pianeta, con un surplus di tempo speso in auto pari al 71% rispetto a una percorrenza libera.
Vuol dire che se un tragitto potrebbe durare teoricamente un’ora, nella realtà ne richiede quasi due. È questo l’habitat che Minus Zero ha scelto di mettere alla prova il suo prototipo: se sopravvive qui, può farcela ovunque.
Il caos che fa curriculum

In un video che circola su “YouTube”, si vede un’auto avanzare in quella che, avvertono i commenti sotto il filmato, è “una delle strade meno trafficate di Bangalore”, giusto per calibrare le aspettative.
Nello stesso istante due scooter sorpassano contemporaneamente da lati opposti, un furgone in direzione contraria entra nell’incrocio e lo blocca parzialmente, un bambino attraversa, ma nessuno suona il clacson.
Il prototipo, guidato dall’IA e con un umano seduto al volante solo per le emergenze, si fa strada centimetro per centimetro, fin quando arriva una mucca che, non per mancanza di educazione, non è abituata a segnalare la svolta con la freccia.
Lukas Wuttke, fondatore di “tracebloc”, azienda che aiuta le imprese a sviluppare e testare modelli di IA in sicurezza, tenta di dare una spiegazione alla logica: “Non diciamo a un’IA cosa dovrebbe o non dovrebbe imparare, le forniamo un set di dati da cui il modello deve ricavare da solo le regole del gioco. Ma siamo a Bangalore e vuol dire che poi ci sono le eccezioni, e le eccezioni alle eccezioni”.
Semplice? Per niente. Un taxi a guida autonoma addestrata per mesi su strade americane ha fatto cilecca la notte di Halloween: non riconosceva i bambini mascherati come esseri umani. Non li aveva mai visti e neanche risultavano sul database. Punto.
Il problema è che un’intelligenza artificiale non porta con sé niente della capacità di un bambino di immagazzinare dati ed esperienze: se mi sono fatto male cadendo da un’altezza di un metro, probabilmente non è una buona idea buttarmi da cinque. Tutto questo, all’intelligenza artificiale non può succedere, va nutrita con varianti, casistiche, ripetizioni e feedback.
Halloween, le mucche e il problema dell’ignoto
La storia dei bambini mascherati da Halloween è diventata quasi leggenda del settore, e vale la pena raccontarla per intero. Un sistema di guida autonoma sviluppato negli Stati Uniti era stato addestrato per mesi su migliaia di ore di video del traffico reale e funzionava egregiamente.
Poi è arrivata la notte del 31 ottobre, e il sistema ha smesso di colpo di riconoscere i pedoni, ma non tutti, solo quelli in costume. Cappucci, maschere, mantelli e trucchi che alteravano i tratti somatici per l’IA erano oggetti non identificati e per questo insignificanti.
Il settore chiama questo fenomeno “apprendimento fuori distribuzione”: cosa succede quando il mondo reale presenta scenari che il dataset di addestramento non aveva contemplato? La risposta, nella migliore delle ipotesi, è un comportamento imprevedibile e nella peggiore un incidente.
L’obiettivo dei sistemi più avanzati è costruire modelli capaci di gestire l’ignoto attraverso quantità sufficienti di dati per riuscire ad improvvisare.
È in questo che Bangalore guadagna valore come campo di addestramento: su un singolo isolato di periferia, in poche centinaia di metri, un’IA può imbattersi in più situazioni anomale di quante ne accumulerebbe in migliaia di km su un’autostrada tedesca.
Bambini che giocano, segnaletica inesistente, veicoli parcheggiati in doppia fila su entrambi i lati, incroci regolati esclusivamente dalla volontà di chi arriva e quattro sedie da ufficio sul ciglio della strada, allineate con cura.
Elementi che sono un dato e una riga in più sul curriculum.
Le regole e il coraggio di infrangerle

C’è un aspetto della guida autonoma che non viene quasi mai affrontato nelle presentazioni entusiastiche delle case automobilistiche, e che invece è al centro del lavoro di chi questi sistemi li costruisce: l’IA deve imparare non solo le regole, ma anche quando è lecito o necessario violarle.
Wuttke fa l’esempio della linea bianca di mezzeria: “All’IA non viene mai detto che non deve attraversarla, tuttavia, attraverso l’addestramento, impara che nella maggior parte dei casi non deve farlo, mentre in certi casi può”.
Un’auto in doppia fila che blocca la corsia, un pedone al centro della carreggiata, un camion fermo in curva: una serie di situazioni in cui il guidatore umano sconfina senza pensarci due volte, e in cui l’IA deve sapere fare altrettanto.
È questo a distinguere un buon sistema da uno che si limita a seguire istruzioni, ed è probabilmente il motivo per cui strade come quelle di Bangalore, dove le regole esistono ma l’applicazione è lasciata alla fantasia della gente, siano così preziose per addestrare i sistemi.
Il futuro arriva, ma non ha fretta
Eppure Wuttke non ha dubbi: la guida autonoma è una questione di quando arriverà, non di se: “Nei prossimi cinque o sei anni il nostro panorama urbano cambierà completamente. Molti non si rendono ancora conto della portata del cambiamento: la guida autonoma non è l’ennesima app per smartphone, ma una delle trasformazioni più profonde che abbiano mai investito la mobilità umana”.
In India la faccenda è un po’ diversa. Gagandeep Reehal, cofondatore di Minus Zero, è il primo ad ammetterlo: entro i prossimi dieci anni, nel suo Paese, non si vedranno auto a guida autonoma nel traffico ordinario. Il motivo è economico, e non serve a niente nasconderlo: assumere un autista costa molto meno che acquistare un veicolo autonomo.
La tecnologia può essere pronta ma il mercato no, e non lo sarà fin quando il costo dell’automazione non scenderà sotto quello del lavoro umano.
Nel frattempo, Minus Zero ha avviato una collaborazione con “Ashok Leyland”, uno dei principali produttori indiani di veicoli commerciali, per sviluppare camion a guida autonoma destinati a porti, fabbriche e aree industriali. Ambienti chiusi con percorsi prevedibili e nessuna mucca in giro: un modo per portare la tecnologia sul mercato senza aspettare che le strade di Bangalore diventino, ammesso che mai possa accadere, più ordinate.
















