TP1: Legal and Ethical Design of Trustworthy AI Systems

PIs:

  • Carlo Casonato (Università di Trento)
  • Adriano Fabris (Università di Pisa)
  • Giovanni Sartor (Università di Bologna)

Spoke 1: Human-centered AI
Spoke 3: Resilient AI
Spoke 4: Adaptive AI
Spoke 5: High quality AI
Spoke 6: Symbiotic AI
Spoke 7: Edge-exascale AI
Spoke 8: Pervasive AI

Questo WP ha lo scopo di fornire metodologie e contenuti di progettazione per sistemi di intelligenza artificiale affidabili, come stabilito nei documenti dell’Unione Europea sull’intelligenza artificiale affidabile e nella legge sull’AI. L’obiettivo di questo transversal project è verificare la conformità dei sistemi di intelligenza artificiale con valori etici e legali (ad esempio, privacy, equità, spiegabilità, controllo umano) per aumentare l’affidabilità dei sistemi abilitati all’intelligenza artificiale.

Entità computazionali pervasive, autonome e intelligenti, infatti, sono diventate un aspetto essenziale dell’ecologia sociale odierna. Entro il 2025, ad esempio, il 95% dei dispositivi connessi sarà abilitato all’intelligenza artificiale. L’entità di questo fenomeno impone che la ricerca e lo sviluppo dell’intelligenza artificiale debbano rispettare i principi etici e legali per una AI incentrata sull’uomo. Il rispetto degli standard etici e legali diventa fondante per l’intelligenza artificiale, così come l’intelligenza artificiale diventa una risorsa per rafforzare i principi etici e legali.

Da questo punto di vista, il rapporto dell’intelligenza artificiale con i principi etici e giuridici è una questione trasversale che tocca tutti gli spoke di FAIR: tutti, seppur in misura diversa, si troveranno infatti a confrontarsi con questioni giuridiche ed etiche. A questo scopo sono previsti tre workshop del transversal project 1. A seconda dei diversi temi, il progetto trasversale affronterà:

  • intelligenza artificiale affidabile e centrata sull’uomo in diversi contesti: by-design, in-design, per i progettisti
  • Modelli etici per un’intelligenza artificiale affidabile in contesti multi-agente incerti
  • Individuazione e analisi delle implicazioni etiche degli algoritmi in settori e scenari paradigmatici (AI resiliente, AI adattiva, AI simbiotica, AI edge-exascale)
  • Fondamenti etici per l’autonomia regolabile
  • Metodi per il diritto e l’etica: tecnologie innovative per la governance giuridica e l’etica dell’intelligenza artificiale
  • Sostenibilità dell’AI act: riferimento e verifica di compiti specifici rispetto ai principi della proposta di regolamento europeo.