TP3: Learning and Reasoning from Individual to Communities to Society

PIs:

  • Fosca Giannotti (Scuola Normale Superiore)
  • Bruno Lepri (Fondazione Bruno Kessler)

Spoke 1: Human-centered AI
Spoke 2: Integrative AI
Spoke 6: Symbiotic AI
Spoke 8: Pervasive AI
Spoke 9: Green-aware AI
Spoke 10: Bio-socio-cognitive AI

Il Transversal Project 3 coordina le attività dei work package che studiano i metodi per l’integrazione di apprendimento e ragionamento a più scale (individui, comunità, società).

Su scala ridotta, l’obiettivo è un’intelligenza artificiale spiegabile, per una collaborazione sinergica tra uomo e intelligenza artificiale e “human-in-the-loop”, una coevoluzione del processo decisionale umano e dei modelli di machine learning.

Dal punto di vista umano, il processo decisionale assistito dall’intelligenza artificiale dovrebbe potenziare il ragionamento, innescare il pensiero razionale attraverso stimoli cognitivi per ottenere un processo decisionale più consapevole, permettere di scoprire e affrontare i pregiudizi, riconoscere i casi che sono sottorappresentati nei dati storici (ad esempio, riguardano minoranze) e che richiedono un’attenzione specifica.

Dal punto di vista della macchina, bisognerebbe arrivare a nuovi modelli di machine learning “socratici” e autoconsapevoli, che “sanno di non sapere”, che siano in grado di riconoscere quando e perché un nuovo caso appartiene o meno alla distribuzione dei dati alla base del training set. Sistemi di AI che siano in grado di spiegare sia i loro suggerimenti, sia le ragioni per cui preferiscono rimettere la decisione all’umano, che per spiegare i loro suggerimenti si modulino sul proprio livello di fiducia e che siano in grado di rinviare decisioni basate sulla loro fiducia.

Su larga scala, l’obiettivo è modellare complessi sistemi sociali di intelligenza artificiale su larga scala, costituiti da persone che interagiscono e macchine intelligenti/assistenti IA, con particolare attenzione ai fenomeni collettivi emergenti. Il network gli effetti dell’IA e il loro impatto sui sistemi socio-tecnici (STS) non sono sufficientemente affrontati dalla ricerca sull’intelligenza artificiale, innanzitutto perché richiedono un passo avanti nell’integrazione transdisciplinare di AI, data science, scienza delle reti e dei sistemi complessi con le scienze sociali. Come comprendere e mitigare gli esiti dannosi? Come progettare meccanismi di “AI sociale/AI collaborativa/AI cooperativa” che portino a risultati collettivi concordati, come la mobilità sostenibile nelle città, la diversità e il pluralismo nel dibattito pubblico, un’equa distribuzione delle risorse? Mano a mano che emergono sistemi socio-tecnici sempre più complessi, fatti di persone e macchine intelligenti, la dimensione sociale dell’intelligenza artificiale diventa sempre più evidente. In linea di principio, l’intelligenza artificiale potrebbe dare potere alle comunità per affrontare sfide sociali complesse. Oppure potrebbe creare ulteriori vulnerabilità ed esacerbare problemi come pregiudizi, disuguaglianze, polarizzazione, segregazione e depauperamento dei beni sociali. Lo sviluppo dell’intelligenza artificiale sociale e cooperativa coinvolge diversi scenari in cui molti esseri umani e gli agenti artificiali devono coordinarsi e cooperare (possibilmente in modi decentralizzati) ben oltre l’attuale stato dell’arte dei sistemi multi-agente.