PIs:
- Carlo Casonato (Università di Trento)
- Adriano Fabris (Università di Pisa)
- Giovanni Sartor (Università di Bologna)
PIs:
Spoke 1: Human-centered AI
Spoke 3: Resilient AI
Spoke 4: Adaptive AI
Spoke 5: High quality AI
Spoke 6: Symbiotic AI
Spoke 7: Edge-exascale AI
Spoke 8: Pervasive AI
Questo WP ha lo scopo di fornire metodologie e contenuti di progettazione per sistemi di intelligenza artificiale affidabili, come stabilito nei documenti dell’Unione Europea sull’intelligenza artificiale affidabile e nella legge sull’AI. L’obiettivo di questo transversal project è verificare la conformità dei sistemi di intelligenza artificiale con valori etici e legali (ad esempio, privacy, equità, spiegabilità, controllo umano) per aumentare l’affidabilità dei sistemi abilitati all’intelligenza artificiale.
Entità computazionali pervasive, autonome e intelligenti, infatti, sono diventate un aspetto essenziale dell’ecologia sociale odierna. Entro il 2025, ad esempio, il 95% dei dispositivi connessi sarà abilitato all’intelligenza artificiale. L’entità di questo fenomeno impone che la ricerca e lo sviluppo dell’intelligenza artificiale debbano rispettare i principi etici e legali per una AI incentrata sull’uomo. Il rispetto degli standard etici e legali diventa fondante per l’intelligenza artificiale, così come l’intelligenza artificiale diventa una risorsa per rafforzare i principi etici e legali.
Da questo punto di vista, il rapporto dell’intelligenza artificiale con i principi etici e giuridici è una questione trasversale che tocca tutti gli spoke di FAIR: tutti, seppur in misura diversa, si troveranno infatti a confrontarsi con questioni giuridiche ed etiche. A questo scopo sono previsti tre workshop del transversal project 1. A seconda dei diversi temi, il progetto trasversale affronterà: