AI Ethics. Pratiche e politiche (in)organiche di cura.

14 maggio, h 15-18
Aula G3 Complesso di San Marcellino, Università degli Studi di Napoli “Federico II”
e online https://tinyurl.com/teamsgot25

L’etica dell’intelligenza artificiale è stata a lungo affrontata come una questione di regole da definire ex ante o di limiti da imporre a posteriori allo sviluppo tecnologico, spesso da una posizione esterna rispetto ai contesti in cui tali tecnologie prendono forma. Questa impostazione, pur utile in chiave regolativa, risulta oggi parziale di fronte a sistemi che operano in modo adattivo, che apprendono da dati socialmente situati e che interagiscono costantemente con ambienti umani. I modelli linguistici di larga scala, in particolare, mostrano come l’intelligenza artificiale non si limiti a eseguire istruzioni, ma partecipi alla generazione di significato, influenzando percezioni, decisioni e relazioni. Questi sistemi apprendono da dati situati, riflettono valori incorporati e li reimmettono negli ambienti in cui operano, contribuendo alla ridefinizione di categorie morali, ruoli attoriali e dinamiche di legittimazione.

Nel quadro di una società in cui i confini tra umano e artificiale si fanno sempre più sottili, diventa urgente interrogare la natura dei bias non solo come deviazioni tecniche da correggere, ma come segnali di tensioni epistemiche e culturali. I modelli generativi, per la loro struttura predittiva e adattiva, ripropongono e talvolta amplificano asimmetrie già presenti nei dati e nei mondi sociali da cui apprendono, agendo come mediatori nella produzione di senso e nei processi di soggettivazione.

Questa riflessione si colloca all’interno di una prospettiva che rifiuta le dicotomie tra naturale e artificiale, materiale e immateriale, hard e soft science, proponendo invece un approccio critico alla co-produzione tra tecnologie e società. L’obiettivo è comprendere le condizioni di possibilità di un’etica situata, ispirata a principi di equità e giustizia e capace di emergere dalle pratiche di convivenza con le tecnologie digitali e di orientare forme di cura, responsabilità e attenzione verso i contesti in cui questi sistemi vengono progettati, distribuiti e utilizzati

L’interesse è rivolto alle forme di coesistenza che si stanno consolidando nei territori misti della società digitale, dove l’AI non è solo infrastruttura tecnica, ma parte attiva di ecologie cognitive, affettive e politiche. In questo scenario, l’etica si configura come esercizio collettivo di lettura e riscrittura dei dispositivi che mediano l’esperienza, sollecitando una riflessione transdisciplinare che connetta pratiche, immaginari e politiche della tecnologia.

Con Edmondo Grassi, Irene Sucameli, Guglielmo Tamburrini.
Moderano Francesco Amato e Arianna Petrosino

Edmondo Grassi è ricercatore in Sociologia presso l’Università San Raffaele Roma. I suoi interessi di ricerca si concentrano sugli Science and Technology Studies (STS), i mutamenti sociali prodotti dall’intelligenza artificiale, l’immaginario, il postumanesimo  e il pensiero della complessità. È direttore scientifico della European Fairy Tale Route per il Consiglio d’Europa e responsabile del GT12 – Récits, fiction, culture et société dell’Association internationale des sociologues de langue française (AISLF). Nel 2024 ha ricevuto il Premio AIS Giovani come miglior giovane ricercatore dell’anno, per l’articolo Intersezioni affettive: esplorando l’ontogenesi delle relazioni umano-algoritmo. Ha già pubblicato numerosi articoli scientifici e due monografie: Per una sociologia algomorfica (FrancoAngeli, 2024); Etica e intelligenza artificiale. Questioni aperte (Aracne, 2020).

Irene Sucameli ha conseguito il dottorato di ricerca in Computer Science nel 2022 e attualmente lavora nel campo del Natural Language Understanding, con particolare interesse per i Large Language Models, gli strumenti per gli umanisti digitali e l’etica dell’AI. Ha collaborato con diverse realtà accademiche e aziendali, sia in Italia che a livello internazionale, tra cui l’Università di Pisa, la Fondazione Bruno Kessler, BNova, l’Università di Edimburgo e la Heriot-Watt University. Dal 2019 ha tenuto diverse conferenze e workshop relativi alle sue aree di interesse e ricerca. Attualmente lavora in Aptus.AI, una startup innovativa che applica sistemi di AI in ambito legale e normativo.

Guglielmo Tamburrini è associato alle ricerche e già professore ordinario di Filosofia della scienza e della tecnologia all’Università di Napoli Federico II (presso il DIETI – Dipartimento di Ingegneria Elettrica e Tecnologie dell’Informazione). È Fellow del Nexa Center for Internet & Society del Politecnico di Torino. Ha coordinato il primo progetto europeo sull’etica della robotica (ETHICBOTS, VI FP, 2005-2008). Ha ricevuto nel 2014 il premio internazionale Giulio Preti per i suoi contributi al dialogo tra scienza, filosofia e democrazia. Le sue attività di public engagement si concentrano attualmente sulla militarizzazione dell’IA e su iniziative collegate per il disarmo e il controllo degli armamenti.

AI ethics. Pratiche e politiche (in)organiche di cura.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Torna su