CASE è principalmente il lavoro di Pete Bonasso, che lavora da decenni nell'industria dell'intelligenza artificiale e della robotica, molto prima dell'attuale moda degli assistenti virtuali e dell'elaborazione del linguaggio naturale. Oggi è facile dimenticare che la ricerca in quest'area risale alla metà del secolo, con un boom negli anni '80 e '90 quando l'informatica e la robotica hanno iniziato a proliferare.
La domanda è come monitorare e amministrare in modo intelligente un ambiente complicato come quello di una stazione spaziale, un'astronave con equipaggio o una colonia sulla superficie della Luna o di Marte. Una semplice domanda con una risposta che si è evoluta da decenni; la Stazione Spaziale Internazionale (che ha appena compiuto 20 anni) ha sistemi complessi che la governano ed è diventata più complessa nel tempo - ma è lontana dall'HAL 9000 a cui tutti pensiamo e che ha ispirato Bonasso per cominciare.
"Quando le persone mi chiedono su cosa sto lavorando, la cosa più semplice da dire è: 'Sto costruendo HAL 9000'", ha scritto in un pezzo pubblicato oggi sulla rivista Science Robotics. Attualmente questo lavoro viene svolto sotto l'egida di TRACLabs, una società di ricerca a Houston.
Una delle tante sfide di questo progetto è quella di sposare i diversi livelli di consapevolezza e attività insieme. Potrebbe essere, ad esempio, che un braccio robotico debba spostare qualcosa all'esterno dell'habitat. Nel frattempo qualcuno potrebbe anche voler avviare una videochiamata con un'altra parte della colonia. Non c'è motivo per un singolo sistema di comprendere i metodi di comando e controllo per la robotica e uno stack VOIP - ma a un certo punto queste responsabilità dovrebbero essere conosciute e comprese da qualche agente dominante.
CASE, quindi, non è una sorta di IA intelligenza mega-intelligente, ma un'architettura per l'organizzazione di sistemi e agenti che è essa stessa un agente intelligente. Come Bonasso descrive nel suo pezzo, e come è documentato più accuratamente altrove, CASE è composto da diversi "strati" che governano il controllo, le attività di routine e la pianificazione. Un sistema di interazione vocale traduce query o comandi in linguaggio umano in attività che questi livelli possono eseguire. Ma è il sistema "ontologia" che è il più importante.
Qualsiasi IA prevista per gestire un'astronave o una colonia deve avere una comprensione intuitiva delle persone, degli oggetti e dei processi che la compongono. Ad un livello base, ad esempio, ciò potrebbe significare che se non c'è nessuno in una stanza, le luci possono spegnersi per risparmiare energia ma non possono essere depressurizzate. O se qualcuno muove un rover dalla sua baia per parcheggiarlo da un pannello solare, l'IA deve capire che non c'è più, come descrivere dove si trova e come pianificare intorno alla sua assenza.
Questo tipo di logica del senso comune è ingannevolmente difficile ed è uno dei principali problemi affrontati oggi nell'IA. Abbiamo anni per imparare causa ed effetto, per raccogliere e mettere insieme indizi visivi per creare una mappa del mondo e così via - per robot e intelligenza artificiale, deve essere creata da zero (e non sono bravi a improvvisare). Ma CASE sta lavorando per montare i pezzi insieme.
"Ad esempio," scrive Bonasso, "l'utente potrebbe dire" Invia il rover al vano del veicolo "e CASE risponderà:" Ci sono due rover. Rover1 sta caricando una batteria. Devo mandare Rover2? "Ahimè, se dici, 'Apri le porte della baia del cestello, CASO' (supponendo che ci siano porte della baia del pod nell'habitat), a differenza di HAL, risponderà, 'Certamente, Dave', perché non abbiamo piani per programmare la paranoia nel sistema ".
Non sono sicuro del motivo per cui ha dovuto scrivere "ahimè" - il nostro amore per il cinema è superato dalla nostra volontà di vivere, sicuramente.
Questo non sarà un problema per qualche tempo a venire, naturalmente - CASE è ancora molto lavoro in corso.
"Lo abbiamo dimostrato per gestire una base simulata per circa 4 ore, ma molto deve essere fatto per far funzionare una base reale", scrive Bonasso. "Stiamo lavorando con ciò che la NASA chiama analoghi, luoghi in cui gli esseri umani si riuniscono e fingono di vivere su un pianeta lontano o sulla luna. Speriamo di pian piano, pezzo per pezzo, lavorare CASE in uno o più analoghi per determinare il suo valore per future spedizioni spaziali. "
Ho chiesto a Bonasso ulteriori dettagli e aggiornerò questo post se avrò notizie.
Che un'IA di tipo CASE o HAL possa mai essere responsabile di una base non è quasi più una questione - in un certo senso è l'unico modo ragionevole per gestire quello che sarà certamente un sistema di sistemi estremamente complesso. Ma per ovvi motivi deve essere sviluppato da zero con un'enfasi su sicurezza, affidabilità ... e sanità mentale.