Human-aware Embodied AI Workshop
24ottTutto il giorno(Tutto il giorno: venerdì) EventoSpoke 2Human-aware Embodied AI Workshop
Dettagli Evento
L’Human-aware Embodied AI Workshop si terrà a Hangzhou, Cina, il 24 ottobre 2025 ed è coordinato da Yiming Wang (Spoke 2). L’Embodied AI — ovvero lo sviluppo
Dettagli Evento
L’Human-aware Embodied AI Workshop si terrà a Hangzhou, Cina, il 24 ottobre 2025 ed è coordinato da Yiming Wang (Spoke 2).
L’Embodied AI — ovvero lo sviluppo di tecnologie capaci di interagire con l’ambiente fisico che le circonda — ha conosciuto progressi significativi negli ultimi anni, grazie soprattutto all’avvento dei Large Language Models (LLM), dei Modelli Multimodali di Linguaggio (MLLM) e di altri approcci fondazionali su larga scala. Queste innovazioni hanno reso possibile per gli utenti umani interagire con agenti fisici (come i robot) attraverso il linguaggio naturale, ad esempio dando istruzioni per navigare verso una determinata posizione, cercare un oggetto specifico o manipolarlo in un certo modo.
Tuttavia, nonostante questi scenari siano intrinsecamente incentrati sull’essere umano, spesso vengono affrontati ignorando la presenza effettiva degli utenti umani e la loro interazione con l’agente durante l’intero svolgimento del compito. Considerando che l’obiettivo a lungo termine dell’Embodied AI è la creazione di una Co-Habitat condivisa tra esseri umani e agenti, la comunicazione bidirezionale (da umano ad agente e viceversa) si configura come una sfida cruciale, da affrontare per gestire efficacemente l’incertezza in tutto il ciclo di percezione, ragionamento, pianificazione, azione e verifica da parte del robot.
Nonostante ciò, il problema della costruzione di un Co-Habitat umano-agente che sia intuitivo, efficace, affidabile e robusto resta in gran parte inesplorato.
Questo workshop si propone di affrontare le sfide legate alla creazione di Co-Habitat senza soluzione di continuità tra esseri umani e agenti, con un focus particolare su: affidabilità (quando l’agente “non sa”), robustezza (quando l’agente “chiede aiuto”) e collaborazione intuitiva (interazione bidirezionale). Esploreremo metodi per integrare MLLM negli agenti fisici per interazioni multimodali efficaci, individuando e mitigando i rischi legati alle allucinazioni dei modelli, nonché modellando gli errori umani e i pattern comunicativi.
Per maggiori informazioni, visita il sito ufficiale dell’evento.


