Nelle prossime settimane vi presenteremo i progetti vincitori delle cascade call (i bandi a cascata FAIR) riservate alle Università ed Enti di ricerca, promossi dagli spoke tra la fine del 2023 all’inizio del 2024. I bandi a cascata di FAIR sono emessi dai dieci Spoke di FAIR sulla base ciascuno dei propri obbiettivi di ricerca, con l’intento di attrarre nell’ecosistema un numero sempre più ampio di realtà e progetti di ricerca di qualità nel campo dell’intelligenza artificiale.
I primi progetti che vi presentiamo lavoreranno con lo spoke 10, coordinato dall’Istituto Italiano di Tecnologia (affiliati CNR, INFN, Università di Catania, Leonardo e STMicroelectronics)
Cosa sono i bandi a cascata?
Nel «Bando per la creazione di Partenariati estesi alle università, ai centri di ricerca, alle aziende per il finanziamento di progetti di ricerca di base» incluso tra le misure di ricerca in filiera del Piano Nazionale di Ripresa e Resilienza (PNRR), e pubblicato dal ministero dell’Università e della Ricerca (MUR) nel mese di marzo 2022 è prevista, da parte degli Spoke che compongono i Partenariati estesi, l’emanazione di bandi per la concessione a soggetti esterni al Partenariato di finanziamenti per attività di ricerca e per l’acquisto di forniture, beni e servizi necessari alla sua attuazione.
I primi bandi a cascata emessi da FAIR sono stati riservati a progetti di ricerca svolti da Università Statali, Università non Statali legalmente riconosciute ed accreditate dal MUR e Enti Pubblici di Ricerca vigilati dal MUR, per un budget di 18 milioni di Euro divisi tra i dieci spoke che compongono il progetto. Una seconda tranche di finanziamenti, ancora aperta, è invece riservata ai bandi a cascata per micro, piccole, medie e grandi imprese.
I vincitori del bando per lo Spoke 10
Lo spoke 10 concentra la sua attività di ricerca sulla bio-socio-cognitive AI: l’obiettivo è progettare sistemi di intelligenza artificiale cosiddetti bioinspired, cioè disegnati prendendo ispirazione dai modelli di apprendimento dell’intelligenza umana.
Questi i progetti vincitori del bando emesso dallo spoke 10, per una dotazione finanziaria complessiva di 2.670.000 € distribuiti su 12 obiettivi di ricerca:
Object ReCognition datA – ORCA
Coordinatore del Progetto: Prof. Marco Bertamini, Università degli Studi di Padova
Il progetto si concentra sulle complessità del riconoscimento degli oggetti nella percezione visiva. L’obbiettivo è raccogliere e analizzare un ampio set di registrazioni di elettroencefalogramma (EEG), con particolare attenzione a forme o oggetti appartenenti a categorie specifiche.
Adaptive MEta-Learning strategies for concept-drift awareness in distributed Intelligent Systems – AMELIS
Coordinatore del Progetto: Prof. Salvatore Gaglio, Università degli Studi di Palermo
Lo scopo del progetto è definire nuove strategie di apprendimento adattivo per rendere più flessibili i sistemi di intelligenza artificiale che operano all’interno di infrastrutture percettive distribuite ed eterogenee. Il progetto integra tecniche di apprendimento supervisionato e non supervisionato per il rilevamento delle anomalie, metodi di apprendimento d’insieme per superare i limiti dei singoli algoritmi e strategie di meta-apprendimento per adattare in modo flessibile l’orchestrazione dei componenti intelligenti.
artiFicial And bio-inspIred netwoRked intelliGence foR cOnstrained aUtoNomous Devices – FAIRGROUND
Coordinatore del Progetto: Prof. Dario Bruneo, Università degli Studi di Messina
Il progetto FAIRGROUND vuole cambiare il paradigma dei sistemi intelligenti, concentrandosi sullo sviluppo di nuove architetture neuromorfiche, algoritmi di apprendimento non-backpropagation e algoritmi di Spiking Neural Network (SNN) bio-ispirati, estendendo così l’uso di intelligenza artificiale in dispositivi limitati. L’obiettivo è quello di abilitare una più ampia popolazione di dispositivi intelligenti, in grado di apprendere e auto-addestrarsi autonomamente in diversi ambienti del mondo reale.
Self-conscious behavior in Embodied AI agents – CAESAR
Coordinatore del Progetto: Prof. Antonio Chella, Università degli Studi di Palermo
Il progetto sviluppa metodi di intelligenza artificiale per supportare le capacità di un robot di generare comportamenti autoconsapevoli basati su modelli di se stesso, dei propri componenti e dell’ambiente. Per valutare la sua autoconsapevolezza, il progetto si concentra anche sui comportamenti che consentono al robot di spiegare le proprie motivazioni e azioni.
Visual Attention for New-generation of Vision Transformers – VisAViT
Coordinatore del Progetto: Prof. Massimo Tistarelli, Università degli Studi di Sassari
Il progetto sfrutterà le conoscenze disponibili sui meccanismi di attenzione nel sistema visivo umano per migliorare l’architettura del vision transformer in diversi modi:
– Definire nuove primitive di dati da incorporare nei codificatori di ingresso del trasformatore.
– Ridurre il tempo di addestramento e la quantità di dati necessari.
– Migliorare il processo di auto-attenzione per includere la rilevanza e la salienza, in modo da selezionare le primitive più informative nei dati di ingresso, consentendo una rappresentazione compatta ma efficiente.
– Migliorare la robustezza agli attacchi avversari e ad altri modelli di input imprevisti.
L’identificazione dei volti sarà adottata come applicazione target per testare i modelli e gli algoritmi sviluppati su insiemi di dati pubblicamente disponibili. I risultati ottenuti saranno confrontati con l’attuale stato dell’arte e ampiamente diffusi attraverso pubblicazioni di conferenze e attività seminariali.
innovAtive human-iN-the-loop-baSed knowledge undERstanding – ANSWER
Coordinatore del Progetto: Alessandro Sebastian Podda, Università degli Studi di Cagliari
Il progetto mira a sviluppare un metodo innovativo di intelligenza artificiale per estrarre conoscenza da dati multimodali, creando un Knowledge Graph (KG) e migliorando i modelli attraverso l’integrazione di risorse esterne. Il processo (semi-)automatizzato prevede una pipeline human-in-the-loop, che affina il Knowledge Graph di un caso pilota per catturare le dinamiche causali di senso comune. Il progetto contribuisce a far progredire lo stato dell’arte scientifico e industriale proponendo e integrando diverse metodologie di intelligenza artificiale, quali l’estrazione di informazioni, il riconoscimento di entità, l’incorporazione di parole, i modelli di trasformazione e i Large Language Models.
Harmonic Analysis and Optimization in Infinite-Dimensional Statistical Learning – HAOISL
Coordinatore del Progetto: Prof. Ernesto De Vito, Università degli Studi di Genova
Il progetto vuole sviluppare una comprensione matematicamente fondata dell’apprendimento automatico, integrando concetti di probabilità ad alta dimensione, statistica non parametrica, ottimizzazione, teoria dei problemi inversi, calcolo delle variazioni, teoria delle equazioni differenziali parziali, analisi numerica e analisi armonica applicata. Il progetto è organizzato intorno a due obiettivi primari:
- Algoritmi: Progettare algoritmi di apprendimento efficienti dal punto di vista del tempo e della memoria, preservando le garanzie statistiche ottimali.
- Applicazioni: Stabilire un supporto teorico per l’applicazione dell’apprendimento automatico nei problemi inversi e di imaging
Foundations of certifiably lightweight and secure AI systems – CLASH-AI
Coordinatore del Progetto: Prof. Lorenzo Rosasco, Università degli Studi di Genova
La creazione di modelli in grado di sfruttare in modo efficiente i calcoli a budget in modo che siano robusti a eventuali attacchi è un problema aperto e urgente. CLASH-AI affronterà questo problema stabilendo le basi dei fondamentali compromessi tra robustezza e comprimibilità degli algoritmi di apprendimento automatico. Tradurrà i risultati fondamentali in indicatori pratici in grado di certificare efficacemente la sicurezza e la sostenibilità dei modelli di apprendimento automatico in diversi scenari. I progressi metodologici saranno testati e messi a punto in casi d’uso pratici rilevanti.
LEveraging computer VIsion and Robotics for human-centered AI – LEVIR
Coordinatore del Progetto: Prof. Francesca Odone, Università degli Studi di Genova
L’obiettivo del progetto LEVIR è studiare, progettare e sviluppare metodi di intelligenza artificiale, con particolare attenzione alla percezione visiva, ai robot e ai sistemi intelligenti. Questi “agenti di intelligenza artificiale” gestiscono dati (spesso non etichettati/parziali/rumorosi) e devono avere requisiti specifici, come l’efficienza, l’invarianza e la generalizzazione a scenari nuovi. Quando interagiscono con gli esseri umani, devono anche comportarsi in modo naturale, con la possibilità di mostrare capacità di anticipazione e previsione, sensibilità alla diversità e attitudine al comportamento sociale. LEVIR intende proporre:
1) Nuovi approcci di computer vision in grado di analizzare gli esseri umani nella scena.
2) Nuovi modelli e servizi Cloud per rendere i robot sociali capaci di adattare il loro comportamento alle esigenze di diversi gruppi target.
Grounded deep learning models for numerical cognition – GROUNDEEP
Coordinatore del Progetto: Prof. Marco Zorzi, Università degli Studi di Padova
Il progetto ha due obiettivi principali: in primo luogo, ci baseremo sulla nostra precedente struttura di modellazione (che rappresenta lo stato dell’arte in termini di simulazione della percezione umana della numerosità) per realizzare un modello del mondo in cui le rappresentazioni della numerosità, apprese in una fase iniziale, sono alla base dell’acquisizione delle rappresentazioni simboliche dei concetti numerici. Il modello del mondo fondato sarà implementato utilizzando architetture generative di ispirazione biologica, che nella nostra più recente estensione forniscono un quadro di apprendimento plausibile dal punto di vista dello sviluppo e possono supportare un apprendimento continuo. In secondo luogo, studieremo le capacità numeriche di base dei modelli di base più avanzati e il loro inserimento di concetti numerici e confronteremo i LLM “non grounded” con modelli multimodali per verificare se l’addestramento simultaneo su testo e immagini migliora la rappresentazione dei concetti numerici. Tutti i modelli saranno testati rispetto a compiti di riferimento e a fenomeni della letteratura sulla cognizione numerica.
Robust Models for Safe and Secure AI Systems – SAFER
Coordinatore del Progetto: Prof. Battista Biggio, Università degli Studi di Cagliari
Il progetto SAFER si propone di sviluppare:
- metodologie di test scalabili e sistematiche per valutare la robustezza avversaria e fuori distribuzione, al di là dei modelli di perturbazione semplicistici studiati finora, considerando perturbazioni più avanzate e specifiche per le applicazioni;
- modelli di intelligenza artificiale più efficienti e robusti, anche contro manipolazioni di dati più realistiche e pratiche.
L’efficacia dell’approccio verrà mostrata sviluppando una piattaforma MLSecOps che integra e automatizza lo sviluppo, i test di sicurezza e il monitoraggio di modelli robusti in produzione. I metodi sviluppati all’interno di SAFER saranno integrati e testati all’interno del framework MLSecOps su dati raccolti da domini applicativi legati alla sicurezza, tra cui il rilevamento di malware Android e Windows, e sulla visione robotica utilizzando la piattaforma di robot umanoidi iCub e i set di dati corrispondenti.