Lancio del primo servizio di taxi a guida autonoma in Giappone
Scopri come Tier IV ha collaborato con il AutonomouStuff di Hexagon per combinare le tecnologie necessarie per implementare un taxi a guida autonoma.
Azienda: Tier IV è una start-up tecnologica e principale sviluppatore del software open-source Autoware per la guida autonoma, con sede in Giappone
Sfida: Scegliere e implementare il giusto stack tecnologico di guida autonoma per lanciare il primo servizio di taxi a guida autonoma in Giappone
Soluzione: Collaborare con AutonomouStuff per equipaggiare un veicolo con un sistema drive-by-wire (DBW)
Risultato: Dimostrazione riuscita dei test di guida automatizzati pubblici nell'inverno 2020
Molte aziende hanno avuto un ruolo attivo nel portare il Robotaxi nelle strade trafficate di Tokyo. Tra questi, Tier IV, ideatore e gestore del progetto, Hexagon | AutonomouStuff, che ha progettato e installato il sistema drive-by-wire che dirige la navigazione e la manovra del taxi, e Autoware Foundation, depositaria di molti degli stack software utilizzati per trasformare i dati dei sensori in comandi dei taxi.
Mentre l'autunno ventoso si trasformava in un gelido inverno per le strade di Tokyo, una folla di curiosi si è radunata agli angoli di alcune strade dell'affollato quartiere di Shinjuku. Tenendo in mano i loro telefoni e tablet per filmare un piccolo taxi nero e bene accessoriato con due passeggeri sorridenti sul sedile posteriore, sono rimasti increduli e non hanno mancato di far notare che al volante non c'era nessuno. Tuttavia, il taxi è uscito senza problemi dal parcheggio dell'hotel di lusso per immettersi nella strada trafficata e allontanarsi nel traffico.
La guida autonoma ha fatto il suo debutto in una delle metropoli più trafficate del mondo. I test svolti con successo alla fine del 2020 sul Robotaxi sono stati progettati per verificare la sicurezza, il comfort e la puntualità dell'auto a guida autonoma, un mezzo di trasporto sempre più probabile nel futuro: Il prossimo futuro. Le aziende coinvolte prevedono di mettere in circolazione questi taxi nel 2022 o immediatamente dopo.
Tra i numerosi commenti raccolti dalla stampa di Tokyo da più di 100 passeggeri che hanno provato le corse senza conducente, il vice governatore di Tokyo ha dichiarato: "Mi sono sentito più sicuro di quando ero nell'auto di un mio amico. È stato un viaggio confortevole". È chiaro che si tratta di un traguardo importante per una mobilità più sicura a Tokyo e per la tecnologia dei veicoli a guida autonoma in tutto il mondo.
Installazione dei comandi
La tecnologia drive-by-wire (DBW) integra o sostituisce i comandi meccanici di un veicolo, come il piantone dello sterzo, il pedale del freno e altri collegamenti, con attuatori elettromeccanici che possono essere attivati a distanza o in modo autonomo. Nella versione attuale del Robotaxi, il sistema DBW si affianca ai tradizionali collegamenti meccanici, in modo che, almeno per il momento, un operatore di sicurezza umano possa riprendere il comando del veicolo di prova, se necessario.
"Lo scopo del nostro lavoro per il Robotaxi era l'installazione del nostro sistema drive-by-wire per il veicolo Toyota nel mercato giapponese", afferma Lee Baldwin, direttore del segmento autonomia di base della divisione Autonomy & Positioning di Hexagon.
"Abbiamo preso in consegna il taxi Tier IV presso la nostra sede centrale di Morton, Illinois. Abbiamo dovuto sviluppare un'interfaccia con i sistemi di bordo per poter fornire un sistema DBW al Tier IV".
Il Platform Actuation and Control Module (PACMod), un sistema proprietario progettato e costruito dagli ingegneri di Hexagon AutonomouStuff, fornisce un preciso controllo via cavo delle funzioni di guida principali e dei componenti ausiliari. PACMod controlla via cavo l'acceleratore, i freni, lo sterzo e la trasmissione. Invia inoltre i comandi agli indicatori di direzione, ai fari, alle luci di emergenza e al clacson.
È dotato di un'interfaccia bus CAN (Controller Area Network) e raccoglie il feedback del veicolo per una successiva analisi, particolarmente importante nei veicoli di ricerca e sviluppo per i quali è stato progettato: fattori come velocità, angolo di sterzata, velocità delle singole ruote e altro ancora.
Infine, è dotato di un design di sicurezza integrato con funzioni di sicurezza intuitive, come il ritorno immediato al controllo manuale completo in situazioni di emergenza. Ciò lo qualifica per l'omologazione su strada in Europa, Stati Uniti e Giappone.
Gli ingegneri di AutonomouStuff hanno installato il DBW e il controllo della velocità e dello sterzo (SSC), per poi spedire il Robotaxi in Giappone. Tier IV l'ha portato in officina e ha installato i numerosi sensori e la versione proprietaria di Autoware.
Implementazione dei cervelli
Autoware è costituito da stack di software modulari e personalizzabili, ciascuno con uno scopo specifico all'interno del veicolo autonomo. Al suo livello superiore, il controllo, formula i comandi effettivi che il sistema impartisce agli attuatori tramite il sistema DBW per realizzare ciò che il modulo di pianificazione vuole che il veicolo faccia per andare dal punto A al punto B. Comprende moduli per la percezione, il controllo e il processo decisionale. La sua architettura rende ogni funzione un modulo indipendente, facile da aggiungere, rimuovere o modificare in base alle esigenze del progetto.
Autoware rifornisce e gestisce la più grande comunità open-source di guida autonoma del mondo, sviluppando varie applicazioni, dai sistemi avanzati di assistenza alla guida (ADAS) fino alla guida autonoma. L'ecosistema software è amministrato dalla Autoware Foundation, un'associazione senza fini di lucro che conta più di 50 membri tra aziende, organizzazioni e università. Tier IV e AutonomouStuff sono membri e partecipanti principali della fondazione.
"Autoware viene utilizzato in progetti negli Stati Uniti, in Giappone, Cina, Taiwan ed Europa", afferma Christian John, presidente di Tier IV North America. "Tutto l'apprendimento, i test, il debugging, tutta l'esperienza ritorna nella piattaforma open-source. Tutti beneficiano di questi miglioramenti.
"È necessario un gran numero di partner per implementare e distribuire una tecnologia autonoma. I sensori, i LiDAR, le telecamere, le centraline che eseguono il software, tutti questi elementi devono combinarsi per implementare l'autonomia".
AutonomouStuff e Tier IV collaborano dall'inizio del 2020 in una partnership strategica per creare, supportare e distribuire soluzioni software per l'autonomia in tutto il mondo e in diversi settori.
"È necessario un gran numero di partner per implementare e distribuire una tecnologia autonoma. I sensori, i LiDAR, le telecamere, le centraline che eseguono il software, tutti questi elementi devono combinarsi".
Dimostrazione della tecnologia in scenari reali
Nel novembre e dicembre 2020, Tier IV e i suoi partner hanno condotto un totale di 16 giorni di test pubblici di guida automatizzata a Nishi-Shinjuku, un trafficato quartiere commerciale nel centro di Tokyo. Funzionari governativi e persone comuni sono stati reclutati come passeggeri per percorrere e commentare percorsi che variavano da 1 a 2 chilometri. In alcuni giorni, un autista di sicurezza si è seduto al volante, pronto a prendere il controllo in caso di imprevisti (non è mai successo). In altri casi, il posto di guida era vuoto; un autista monitorava da remoto gli schermi che mostravano l'ambiente circostante e i progressi del veicolo, pronto ad assumerne il controllo a distanza.
I test di novembre si sono svolti lungo un unico percorso predeterminato. I test di dicembre hanno permesso ai partecipanti di scegliere tre diversi punti di partenza e di arrivo sui loro smartphone, di chiamare il taxi e di portarlo alla destinazione desiderata. Pertanto, il veicolo ha dovuto calcolare e decidere tra molti percorsi potenziali, rendendo l'implementazione più impegnativa.
Hanno partecipato in totale più di 100 collaudatori. È stata un'esperienza di apprendimento impegnativa per i progettisti e gli operatori del Robotaxi, come hanno raccontato in seguito alcuni ingegneri di Tier IV nei blog online dedicati alle dimostrazioni. L'ambiente e le condizioni difficili di Nishi-Shinjuku - traffico intenso, molte svolte a destra e a sinistra, decisioni di cambio di corsia e altro ancora - hanno messo a dura prova le capacità del Robotaxi.
Una delle lezioni inaspettate apprese ha riguardato il falso rilevamento degli ostacoli. I cordoli sporgenti di alcune strade e gli accumuli di foglie nelle grondaie hanno creato problemi al sistema di percezione. Autoware è programmato per riconoscere ciò che deve essere rilevato, come automobili e pedoni, e per distinguere questi oggetti da altri, come la pioggia o le foglie che soffiano, che possono essere ignorati. Tuttavia, questo aspetto deve ancora essere sviluppato. Per il Robotaxi, distinguere tra le foglie che cadono e gli oggetti che cadono dal retro di un camion non è facile come per gli occhi e il cervello umano.
Un altro aspetto su cui lavorare in futuro è l'esecuzione di svolte non protette nelle intersezioni non segnalate, quando la visuale dei veicoli che provengono dalla direzione opposta è oscurata (cosa che richiede una buona dose di giudizio umano e di rapidità di reazione) o la velocità di avanzamento del traffico in arrivo è difficile da stimare.
A questo scopo, Autoware è programmato in modo da non accelerare improvvisamente per sfruttare un vuoto nel traffico, come potrebbe fare un essere umano; il comfort e il benessere dei passeggeri costituiscono la priorità. Questi equilibri tra conservatività e aggressività, così naturali per gli esseri umani, possono essere difficili da ottenere in un sistema programmato in condizioni di traffico intenso.
I sensori LiDAR hanno anche avuto qualche difficoltà in ambienti privi di caratteristiche distintive, come le aree di parcheggio aperte e le gallerie. Inoltre, il costo relativamente elevato dei sensori LiDAR può creare difficoltà nel mercato di massa, quando è necessario equipaggiare molti veicoli.
Per risolvere questo problema, alcuni ingegneri di Tier IV hanno scritto sul blog che stanno sperimentando una tecnica chiamata Visual SLAM, che utilizza una telecamera relativamente economica accoppiata a un'unità di misura inerziale (IMU) al posto di un sensore LiDAR. In questo modo si crea una mappa utilizzando informazioni visive e allo stesso tempo si stima la propria posizione nella mappa. Inoltre, si sta studiando attivamente una tecnologia chiamata ri-localizzazione, che stima la posizione dell'utente in una mappa precedentemente definita.
Ma Visual SLAM ha i suoi punti deboli: non funziona bene al buio, né in presenza di molti oggetti con movimenti simultanei e divergenti.
Visione per il futuro
Tuttavia, Tier IV e AutonomouStuff amano le sfide.
"In questo settore stanno avvenendo molte innovazioni", afferma John. "Il software open source consente a molti operatori di introdurre le proprie soluzioni nell'ecosistema: osto, consumo energetico, architetture di sicurezza: in questo modo, si stanno introducendo le soluzioni e gli operatori migliori della categoria".
Il mercato dei veicoli senza conducente, in rapido sviluppo, presenta molti operatori e molte varianti di combinazioni e integrazioni di sensori; alcune costose, altre meno.
"Altre aziende sono molto integrate verticalmente", aggiunge John, "sviluppano i propri stack software, a differenza del nostro approccio all'open source. Il mercato muove ancora i primi passi verso l'adozione della distribuzione di massa. Alcuni operatori sono riusciti a dimostrare di aver raggiunto il livello 4 e ad implementarlo in mercati limitati".
Ma allo stesso tempo, per poter davvero scalare i loro approcci, è necessario un altro ciclo di ottimizzazione del sistema. Più di mille watt di potenza del computer in un'auto e un'integrazione di sensori pari a 100.000 dollari per veicolo: un'operazione che non può essere estesa a decine di migliaia di veicoli in molte città.
"Ecco perché ora ci sono tutti questi investimenti: LiDAR allo stato solido, imaging radar, tutti elementi che favoriscono uno sviluppo continuo delle capacità di percezione. Ciò significa che le nuove soluzioni devono essere integrate e ottimizzate nel nostro stack relativo alla percezione. Dopo aver apportato queste modifiche, come posso verificare il mio nuovo sistema? Come posso dimostrare che soddisfa ancora i requisiti di sicurezza?"
John ha un'ultima osservazione da fare per il futuro. "A me sembra che tutti abbiano dimostrato di riuscire a far funzionare il software in situazioni limitate. Per espanderci, occorrerà un altro investimento significativo per riprogettare e convalidare i sistemi e l'open source svolgerà un ruolo significativo nell'ottimizzazione delle soluzioni AD di prossima generazione".