Skip to content Skip to footer

Images of Artificial Intelligence and the Ethics of Science Communication

L’etica della comunicazione scientifica visuale interroga i principi che dovrebbero guidare, in maniera ottimale, la produzione e l’utilizzo delle immagini della scienza e della tecnologia.  Tuttavia, nell’ambito della rappresentazione visuale dell’IA, occorre constatare una povertà cronica di immagini scientifiche e tecnologiche dell’intelligenza artificiale. 

Da un punto di vista etico, ma anche estetico, ontologico e immediatamente politico, non si tratta di rinunciare alle rappresentazioni visuali dell’IA – arroccandosi in una forma di iconoclastia scientifica e tecnologica – quanto di concepire delle immagini e degli usi «pensivi», prendendo in prestito un termine utilizzato da Jacques Rancière o «agonistici», per utilizzare il linguaggio di Chantal Mouffe.

Inoltre, la produzione d’immagini per mezzo dell’IA generativa pone alcune importanti questioni etiche e sociali. 

In primo luogo perché tali immagini sono create sulla base di un allenamento effettuato dai sistemi di IA a partire dalle immagini disponibili online. Si fa un larghissimo uso, ad esempio, delle immagini di stock – disponibili sui siti di agenzie come Getty Images e Shutterstock – usate come “nutriente” dell’IA generativa. Queste immagini sono cariche di pregiudizi di ordine sociale e culturale che rischiano di essere replicati nelle immagini di IA generativa. 

In secondo luogo, l’IA generativa conduce a una situazione paradossale in cui la stessa IA crea le sue proprie rappresentazioni visuali – la sua narrazione – a partire dalle immagini dell’IA precedentemente create da umani e disponibili online. Molte di queste immagini generate automaticamente e autonomamente rischiano di perpetrare ad libitum gli stessi immaginari dell’IA: robot bianchi e lisci, sfondi blu, linee di codici numerici fluttuanti nello spazio etc. E, d’altra parte, di conferire all’IA generativa, nonché alle aziende che ne sono le proprietarie, il privilegio di detenere non solo i mezzi materiali, ma anche i mezzi simbolici o «immaginari» legati all’IA.

Un elemento fondamentale da tenere a mente è che lavorare sulle immagini e gli immaginari dell’IA non equivale ad assumere una posizione esterna, o estranea, all’oggetto IA. Partendo dall’idea secondo cui l’IA non è solo una tecnologia ma anche, e forse soprattutto, un fenomeno sociale e culturale, possiamo dire che discutere di immagini e immaginari significa potere rendere conto di un aspetto importante, ma spesso sottovalutato, dei processi di innovazione in questo ambito.

Rispetto a questo problematico stato dell’arte il progetto Images of Artificial Intelligence and the Ethics of Science Communication si è proposto di effettuare un’analisi delle immagini con le quali rappresentiamo l’IA. Gli approcci utilizzati sono stati: a) l’analisi filosofica dei concetti (soprattutto per quanto riguarda gli effetti etici e politici di queste rappresentazioni); b) i science and technology studies (a proposito della concettualizzazione e dei metodi per analizzare gli immaginari sociotecnici; c) la sociosemiotica delle immagini e l’analisi critica del discorso (principalmente per isolare e analizzare corpus d’immagini e di testi).

In sintesi è possibile distinguere tre assi del discorso che hanno orientato lo sviluppo del progetto:

a) asse estetico/artistico: che rapporto intrattengono le immagini di IA con il concetto di creazione? L’uso comune e sempre più diffuso, nella sua dimensione ludica e professionale, delle piattaforme in grado di generare immagini sulla base di semplici prompt linguistici lede il discorso sull’autorialità dell’immagine? L’arte diviene forse un’estensione della tecnica? Oppure arte e tecnica, visto che in entrambi i casi stiamo parlando di artefatti, hanno quasi la stessa natura? In fondo, si potrebbe dire che produrre arte in dialogo con una macchina, per esempio per mezzo di prompts, non è molto diverso da un’arte comune come quella del giardinaggio, in cui la produzione può essere indirizzata ma non del tutto domesticata.

b) asse etico/epistemologico: le immagini generate dalle IA sono intessute di un corpus gigantesco di dati invisibili stoccati. Si tratta di immagini non-umane che scompaginano le topologie referenziali dell’ontologia, dell’indessicalità, dell’immaginario a partire dalle quali abbiamo imparato a posizionarci nell’apprensione e nel giudizio delle immagini. In che rapporto sono queste immagini con la cultura del deep-fake? È utile e possibile giudicarne la veridicità? In effetti, ci si potrebbe dire che il problema del deep-fake e delle fake news non può essere risolto facendo ricorso alla distinzione ontologico-epistemologica tra vero e falso ma piuttosto a quella di ordine etico-politico riconoscimento-non-riconoscimento tra individui che aderiscono a una certa visione del mondo.

c) sociale/semiotico/comunicativo: dato che le immagini di IA sono alimentate da un corpus di dati, se e come agiscono i bias cognitivi nella restituzione delle immagini generate? È possibile farne la cartografia? Ma soprattutto è utile, visto che, come insegna la tradizione ermeneutica, i pregiudizi non sono un elemento esterno, bensì intrinseco alla nostra maniera di approcciare il mondo? Perché chiedere alle macchine una neutralità nei giudizi che noi stessi non siamo in grado di fornire loro? 

Date queste diverse questioni, la domanda fondamentale che si è individuata alla fine del progetto è: quale comunicazione visuale può dirsi più efficace nel caso dell’IA, una comunicazione che aspira a essere vera (ovvero a fare referenza alla cosa stessa) o una comunicazione che sia in grado di coinvolgere diversi pubblici nel dibattito attorno all’IA? Questa domanda ne implica un’altra d’importanza non secondaria: fino a che punto dobbiamo e possiamo arrivare nel coinvolgimento dei pubblici a questo dibattito, nonché in altri dibattiti tecnoscientifici? Che fare per esempio dei diversi negazionisti e complottisti, considerarli come parte di questa arena agonistica di discussione o considerandoli come fuori dai suoi limiti, visto che trasformano l’agonismo in una forma di antagonismo (per riprendere la distinzione proposta da Mouffe)? Insomma, come rispondere alla crisi dei saperi contemporanea: rifugiandosi in una attitudine scientista e positivista o raccogliendo i frutti della critica sociale alle pratiche tecnoscientifiche?

Alcuni esiti della ricerca: 

  • le immagini dell’IA non rappresentano solo una questione estetica, ma anche ontologica e soprattutto etico-politica;
  • ontologicamente, rivelano qualcosa sulla non-rappresentabilità intrinseca dell’IA;
  • politicamente, esercitano un effetto anestetizzante sul dibattito più ampio che circonda l’IA;
  • la soluzione principale non è semplicemente creare immagini più trasparenti (e quindi affidabili), ma piuttosto favorire la produzione di immagini agonistiche.

Partecipanti

PI

Alberto Romele 

Graziano Lingua

Afferenti

Rémy Demichelis

Alessandra Scotti

Dipartimento coinvolto

Dipartimento di Filosofia e Scienze dell’educazione

Tipo

Seal of Excellence ROMA_PNRR_YOUR_SOE_22_01 – Images of Artificial Intelligence and the Ethics of Science Communication

Partner

Università Sorbonne Nouvelle

Finanziatore

Università di Torino

Contributo Totale ottenuto

150.000 euro

Periodo di attività

19/12/2022-19/12/2024

Durata Progetto

24 mesi

Prodotti della ricerca :

Libri

Romele, A. (2024). Digital Habitus: A Critique of the Imaginaries of AI. Routledge.

[recensione di Alexei Grinbaum apparsa su Philosophy & Technology, https://www.pdcnet.org/techne/content/techne_2023_0027_0003_0405_0410]

R. Demichelis (2024), L’intelligence artificielle, ses biais et les nôtres. Pourquoi la machine réveille nos démons, Faubourg.

Articoli

Romele, A. (2024). ‘Éthique de l’intelligence artificielle’ comme signifiant flottant: Considérations théoriques et analyse critique des discours de presse. Interfaces numériques, 13(1). https://doi.org/10.25965/interfaces-numeriques.5229.

Romele, A. Images of Artificial Intelligence: a Blind Spot in AI Ethics. Philos. Technol. 35, 4 (2022).

Alberto Romele et Marta Severo, Que veulent les images de l’IA ? Une exploration de la communication scientifique visuelle de l’intelligence artificielle, Société & Répresentation, no 55, printemps 2023, p. 179-201.

Furia, P. e Romele, A. (2024), Rappresentazioni della città: immagini di stock e anestetizzazione del paesaggio, in Rivista di estetica 85.

Romele, A., & Lingua, G. (2024). Latour e la filosofia della tecnologia. Aut aut 402.

Romele, A. e Severo, M. (paper submitted), How Effective Are Depictions of AI? Ethical Reflections from an Experimental Study in Science CommunicationAI & Society.

Capitoli di libro

Romele, A. (2024). The AI Imaginary: AI, Ethics, and Communication. In D. J. Gunkel (Ed.), Handbook on the Ethics of Artificial Intelligence (pp. 262–273). Edward Elgar Publishing. https://doi.org/10.4337/9781803926728.00023.

Romele, A. (2024). Emaginary; or Why the Essence of (Digital) Technology Is by No Means Entirely Technological, in Galit Wellner, Geoffrey Dierckxsens, Marco Arienti (eds.) The Philosophy of Imagination: Technology, Art and Ethics. Bloomsbury. 

Romele, A., & Rodighiero, D. (2023). Fragmentation du visage et datafication du monde: réflexions à partir d’une analyse qualitative et quantitative des images de stock d’intelligence artificielle. In G. T. Giuliana, & M. Leone (Eds.), Sémiotique du visage futur (pp. 103-127). Roma: Aracne.

Convegni organizzati

Seminario annuale BIAS (Banques d’Images et Algorithmisation de la culture viSuelle), Università Sorbonne Nouvelle/Università Paris 1 Panthéon Sorbonne (2024) (video di presentazione: https://vimeo.com/915619894). 

Conferenza internazionale Ethique des images de l’IA : des images de stock à l’IA générative, Maison de la recherche, Università Sorbonne Nouvelle, 14-15 octobre 2024.

Conferenza internazionale Forme e crisi dei saperi. A partire da Bruno Latour, Università di Torino, 4-5 novembre 2024.

Disseminazione

Romele, A. (2024), Intervista per ÉdunumLettre d’information sur le numérique éducatif del Ministero francese per l’educazione nazionale, https://eduscol.education.fr/document/61099/download (pp. 65-68).

Romele, A. (2024), Intervista per il giornale La Croix, https://www.la-croix.com/france/ethique-du-numerique-pourquoi-cette-expression-ne-fait-pas-l-unanimite-20240528

Romele, A. (2022), Intervista per il giornale La revue des médias (la rivista dell’INA, gli archivi audiovisivi francesi), https://larevuedesmedias.ina.fr/photos-images-intelligence-artificielle-covid-climat-presse-journaux-sujets-abstraits

Skip to content