3rd Workshop on Bias, Risk, Explainability and the role of Logic and Logic Programming (BEWARE)
Dettagli Evento
I sistemi di intelligenza artificiale devono funzionare in modo sicuro, ma i problemi di opacità, parzialità e rischio sono pressanti e sono ancora aperte le questioni fondative
Dettagli Evento
I sistemi di intelligenza artificiale devono funzionare in modo sicuro, ma i problemi di opacità, parzialità e rischio sono pressanti e sono ancora aperte le questioni fondative su quali tipi di pregiudizi e rischi siano implicati nelle tecnologie di intelligenza artificiale opache. Inoltre, l’IA sta sfidando l’etica e bisogna quindi ripensare le sue basi in questo senso.
Questo workshop affronta questioni di natura logica, etica ed epistemologica nell’IA attraverso l’uso di approcci interdisciplinari. L’obiettivo è quello di riunire ricercatori di IA, filosofia, etica, epistemologia, scienze sociali, ecc. per promuovere collaborazioni e migliorare le discussioni verso lo sviluppo di metodi e soluzioni di intelligenza artificiale affidabili che gli utenti e le parti interessate considerino tecnologicamente affidabili e socialmente accettabili.
La terza edizione del workshop BEWARE, coordinato da Francesca Alessandra Lisi (Università “Aldo Moro” di Bari, Spoke 6 e Transversal Project 1), è un forum in cui discutere idee sugli aspetti etici emergenti dell’IA, con particolare attenzione a Bias, Risk, Explainability e al ruolo della logica e della programmazione logica. BEWARE si svolgerà all’interno della conferenza AIxIA 2024, che si terrà a Bolzano dal 25 al 28 novembre 2024, in collaborazione con FAIR, con i progetti BRIO ed AI Aware, nonché con la Società Italiana per l’Etica dell’Intelligenza Artificiale (SIpEIA).
Per saperne di più vai al sito.
Orario
25 (Lunedì) 9:00 - 28 (Giovedì) 18:00