Una delle tante sfide di questo progetto è quella di sposare i diversi livelli di consapevolezza e attività insieme. Potrebbe essere, ad esempio, che un braccio robotico debba spostare qualcosa all'esterno dell'habitat. Nel frattempo qualcuno potrebbe anche voler avviare una videochiamata con un'altra parte della colonia. Non c'è motivo per un singolo sistema di comprendere i metodi di comando e controllo per la robotica e uno stack VOIP - ma a un certo punto queste responsabilità dovrebbero essere conosciute e comprese da qualche agente dominante.
CASE, quindi, non è una sorta di IA intelligenza mega-intelligente, ma un'architettura per l'organizzazione di sistemi e agenti che è essa stessa un agente intelligente. Come Bonasso descrive nel suo pezzo, e come è documentato più accuratamente altrove, CASE è composto da diversi "strati" che governano il controllo, le attività di routine e la pianificazione. Un sistema di interazione vocale traduce query o comandi in linguaggio umano in attività che questi livelli possono eseguire. Ma è il sistema "ontologia" che è il più importante.
Qualsiasi IA prevista per gestire un'astronave o una colonia deve avere una comprensione intuitiva delle persone, degli oggetti e dei processi che la compongono. Ad un livello base, ad esempio, ciò potrebbe significare che se non c'è nessuno in una stanza, le luci possono spegnersi per risparmiare energia ma non possono essere depressurizzate. O se qualcuno muove un rover dalla sua baia per parcheggiarlo da un pannello solare, l'IA deve capire che non c'è più, come descrivere dove si trova e come pianificare intorno alla sua assenza.
Questo tipo di logica del senso comune è ingannevolmente difficile ed è uno dei principali problemi affrontati oggi nell'IA. Abbiamo anni per imparare causa ed effetto, per raccogliere e mettere insieme indizi visivi per creare una mappa del mondo e così via - per robot e intelligenza artificiale, deve essere creata da zero (e non sono bravi a improvvisare). Ma CASE sta lavorando per montare i pezzi insieme.
"Ad esempio," scrive Bonasso, "l'utente potrebbe dire" Invia il rover al vano del veicolo "e CASE risponderà:" Ci sono due rover. Rover1 sta caricando una batteria. Devo mandare Rover2? "Ahimè, se dici, 'Apri le porte della baia del cestello, CASO' (supponendo che ci siano porte della baia del pod nell'habitat), a differenza di HAL, risponderà, 'Certamente, Dave', perché non abbiamo piani per programmare la paranoia nel sistema ".
Non sono sicuro del motivo per cui ha dovuto scrivere "ahimè" - il nostro amore per il cinema è superato dalla nostra volontà di vivere, sicuramente.
Questo non sarà un problema per qualche tempo a venire, naturalmente - CASE è ancora molto lavoro in corso.
"Lo abbiamo dimostrato per gestire una base simulata per circa 4 ore, ma molto deve essere fatto per far funzionare una base reale", scrive Bonasso. "Stiamo lavorando con ciò che la NASA chiama analoghi, luoghi in cui gli esseri umani si riuniscono e fingono di vivere su un pianeta lontano o sulla luna. Speriamo di pian piano, pezzo per pezzo, lavorare CASE in uno o più analoghi per determinare il suo valore per future spedizioni spaziali. "
Ho chiesto a Bonasso ulteriori dettagli e aggiornerò questo post se avrò notizie.
Che un'IA di tipo CASE o HAL possa mai essere responsabile di una base non è quasi più una questione - in un certo senso è l'unico modo ragionevole per gestire quello che sarà certamente un sistema di sistemi estremamente complesso. Ma per ovvi motivi deve essere sviluppato da zero con un'enfasi su sicurezza, affidabilità ... e sanità mentale.
When you subscribe to the blog, we will send you an e-mail when there are new updates on the site so you wouldn't miss them.
By accepting you will be accessing a service provided by a third-party external to http://imperoweb.it/
Non è ammessa nessuna copia i contenuti sono protetti da diritti d'autore.
Text