Premio per neodottori di ricerca "Marco Cadoli” a Leonardo Lamanna

Data news
Premio per neodottori di ricerca

Il dottore di ricerca Leonardo Lamanna ha vinto il premio per neodottori di ricerca "Marco Cadoli" per la tesi dal titolo "Integrating Planning and Learning for Agents Acting in Unknown Environments”.
La tesi è stata svolta nel contesto di una fruttuosa collaborazione scientifica tra il DRII/DII (supervisore prof. A. Gerevini) e la Fondazione Bruno Kessler (supervisore dr. P. Traverso), che ha finanziato la borsa di dottorato.
Il premio è un riconoscimento conferito annualmente per la migliore tesi di dottorato in ambito intelligenza artificiale a livello nazionale dall’Associazione Italiana per l’Intelligenza Artificiale (AIxIA).
La premiazione avverrà il giorno 8 Novembre durante la conferenza internazionale AIxIA 2023 che quest’anno si terrà a Roma dal 6 al 9 novembre.

Link di interesse:

- associazione AIxIA e’: https://aixia.it/en/
- conferenza AIxIA e’: http://www.aixia2023.cnr.it/

Abstract della tesi:

"Un agente artificiale intelligente percepisce il proprio ambiente tramite sensori ed esegue azioni nell’ambiente tramite attuatori. La pianificazione simbolica permette agli agenti di decidere che azioni compiere al fine di eseguire delle attivita’. Per utilizzare la pianificazione simbolica, un agente artificiale deve conoscere il proprio stato simbolico e un modello astratto della dinamica dell’ambiente. Tuttavia, nel mondo reale, un agente ha delle percezioni di basso livello dell’ambiente (es. la propria posizione ritornata da un sensore GPS), piuttosto che osservazioni simboliche che descrivono il suo stato. Inoltre, in vari scenari reali, non e’ possibile fornire a un agente un modello corretto e completo dell’ambiente, per esempio quando l’ambiente non e’ noto a priori. Il divario tra rappresentazioni di alto livello, adatte per la pianificazione simbolica, e i sensori e attuatori di basso livello, disponibili in agenti artificiali reali, puo’ essere colmato integrando apprendimento, pianificazione ed esecuzione.

Inizialmente, un agente deve mappare le percezioni continue in uno stato simbolico, per esempio riconoscendo gli oggetti e le relative proprieta’ in un’immagine RGB fornita da una telecamera. Successivamente, l’agente deve costruire un modello dell’ambiente, interagendo con l’ambiente e osservando gli effetti delle proprie azioni. Infine, l’agente deve pianificare con il modello imparato, ed eseguire le azioni simboliche tramite i propri attuatori.

Proponiamo un’architettura che integra apprendimento, pianificazione ed esecuzione. Il nostro approccio combina metodi di apprendimento guidati dai dati, per costruire un modello dell’ambiente in tempo reale, con tecniche di pianifi- cazione simbolica per ragionare sul modello imparato. In particolare, ci focalizziamo sull’apprendimento del modello dell’ambiente, sia da osservazioni continue che simboliche, assumendo che l’agente percepisca lo stato corretto e completo dell’ambiente, e che sia in grado di eseguire azioni simboliche nell’ambiente. Successivamente, assumiamo che siano dati un modello parziale dell’ambiente e la capacita’ di mappare le percezioni in stati parzialmente corretti e incompleti, e l’agente deve sfruttare il modello dell’ambiente e la propria capacita’ percettiva per assolvere dei compiti in ambienti sconosciuti a parzialmente osservabili. Inoltre, consideriamo il problema di imparare come mappare le percezioni continue in stati simbolici, assumendo che l’agente sia provvisto di un modello parziale dell’ambiente, e che sia in grado di eseguire azioni simboliche nel mondo reale.

Nel nostro approccio, sfruttiamo metodi di apprendimento per superare alcune assunzioni semplificative della pianificazione simbolica, come la completa osservabilita’ dell’ambiente, o la necessita’ di avere un modello corretto dell’ambiente. Analogamente, sfruttiamo tecniche di pianificazione simbolica per permettere a un agente di acquisire autonomamente i dati necessari per applicare i metodi di apprendimento. Mostriamo sperimentalmente l’ecacia del nostro approccio in ambienti simulati e complessi, ottenendo risultati migliori di metodi stato dell’arte. Infine, dimostriamo empiricamente l’applicabilita’ del nostro approccio in ambienti reali, conducendo esperimenti su un robot reale.”

 

Ultimo aggiornamento il: 19/10/2023