AI

Broken Mirror. A dystopian guide to crossing the border by Filippo Venturi

(in italiano sotto)

From 16 to 19 November, the PhotoVogue Festival 2023 was held in Milan, whose theme was 'What Makes Us Human? Image in the Age of A.I.".
I had the pleasure of being one of the speakers, with a lecture entitled 'Broken Mirror. A dystopian guide to crossing the border', and to exhibit my project Broken Mirror, together with authors such as Charlie Engman, Jonas Bendiksen, Michael Christopher Brown and others. The group exhibition was curated by Chiara Bardelli Nonino.
More info here: PhotoVogue Festival 2023.

Below you will find the transcript of my lecture in English and Italian.

A WITNESS TO REALITY
My name is Filippo Venturi and I am a documentary photographer. My job requires being a reliable witness of reality. Through my photographic projects, I tell true stories and strive to do so honestly for those who will observe my photographs. I also have a degree in Computer Science, so over the years I have carefully observed technological innovations, especially those related to imagery. In recent months, TTI (text to image) software has made remarkable progress. Today it can generate images that effectively mimic photographs. This has prompted me to reflect on the future of coexistence between photographs and images generated with artificial intelligence.

COEXISTENCE OF PHOTOGRAPHS AND SYNTHOGRAPHS
In some areas, such as advertising photography, the advertised product was already idealised and thus distanced from reality, with physical or digital interventions. Therefore, I believe that photographs and synthographs will be indistinguishable and alternating in this field, at least for those who consume them, aware of the distance from reality. There are already advertising campaigns created without the use of photographers. Maybe only a widely echoed campaign is needed to make this phenomenon evident to everyone.

COEXISTENCE OF PHOTOJOURNALISM AND SYNTHOGRAPHY
Concerning documentary photography and photojournalism, I hope they continue to travel on a parallel track to generated images. However, I acknowledge that this might not be the case in future.
A few months ago, Amnesty International used synthographs in place of photographs to protect Colombian protesters attending a 2019 protest, to promote a cause that, for this reason, finished in the background. Those synthographs attracted a lot of controversy, despite Amnesty International explicitly stated that they had used them. Surely they chose the wrong time to do this experiment.

COULD IT BE A FAIR IDENTIKIT OF REALITY?
However, I wonder whether, in the future, the generated images could be used to make what I call 'identikit of reality'. Already today, in the absence of a photograph, a sketch of a crime suspect is made based on eyewitness descriptions. When an event happens in the future without photographers ready to document it, will we reconstruct that event in that location, with images generated with the help of possible eyewitnesses? Already with photography we cannot show the complexity of reality. What to photograph, how to frame it, which photographs to discard, etc. represent so many layers where we forfeit a slice of reality. But representing it without any contact risks distancing us even further.

BROKEN MIRROR
In recent months, I started working with artificial intelligence and generating images. With these softwares I could have created any kind of image. I could have improvised as a comic book artist for example. But in the end I came back to themes I like and know better. I didn't want to use artificial intelligence simply as a shortcut, but I wanted it to be conceptually relevant within the visual project I was developing. In one of these works, I tried to portray in a different way the totalitarian dictatorship that characterises North Korea, a country I had already visited and reported on as a documentary photographic report. This work is called Broken Mirror and uses a language that mimics a documentary style in photography. The basic idea is to insert an alien and destabilising element into the daily life of North Koreans. I chose to introduce insects and spiders, which gradually increase in quantity and size, until they take complete control over the North Koreans. At some point though, the North Koreans themselves begin to transform into these giant insects and they finally become the creatures they used to fear: this actually symbolises their complete submission.

THE INVASIVE AND CONTROLLING NATURE OF TECHNOLOGY
Generating the images the way I had conceived and described them with the prompt, required thousands of attempts and a lot of frustration. The creative process was largely in the hands of artificial intelligence.
However, the selection of images was a compromise between what I wanted to achieve and what I was offered. I did not always get what I wanted. Other times the artificial intelligence inserted unexpected elements that I chose to keep. During this process, I realised that the metaphor I had used, did not just represent the North Korean totalitarian dictatorship, but it did also represent technology itself. In particular, its invasive and controlling nature. With my work, I therefore exploited the new potential that artificial intelligence offers, to express a fear I have towards it.

BREATHING REALITY
After several months fully immersed in this technology, I felt a strong need to return to photographing people's stories. This new technology will be part of the tools l use in the future, but the quiet, solitary nights spent at the computer generating images, reminded me why, at one point in my life, I set aside my passion for computing to embrace photography. I needed to step outside, breathe in reality and eventually capture its traces with my camera.

“Broken Mirror. A dystopian guide to crossing the border“ lecture at Photo Vogue Festival, Milan, Italy, November 18, 2023.


Dal 16 al 19 novembre si è tenuto il PhotoVogue Festival 2023 a Milano, il cui tema è “What Makes Us Human? Image in the Age of A.I.“.
Ho avuto il piacere di essere uno degli speaker, con una conferenza intitolata “Broken Mirror. A dystopian guide to crossing the border”, e di esporre il mio progetto Broken Mirror, assieme ad autori come Charlie Engman, Jonas Bendiksen, Michael Christopher Brown e altri ancora. La mostra collettiva era a cura di Chiara Bardelli Nonino.
Maggiori informazioni qui: PhotoVogue Festival 2023.

Di seguito troverete la trascrizione della mia conferenza in inglese e in italiano:

UN TESTIMONE DELLA REALTÀ
Mi chiamo Filippo Venturi e sono un fotografo documentarista. Il mio lavoro consiste nell’essere un testimone attendibile della realtà. Con i miei lavori fotografici racconto storie vere e cerco di farlo con onestà verso chi osserverà le mie fotografie. Ho anche una laurea in Scienze dell’Informazione e quindi negli anni ho osservato con attenzione le novità tecnologiche, soprattutto quelle legate all’immagine.
Negli ultimi mesi i software TTI (text to image) hanno fatto progressi notevoli. Oggi possono generare immagini che imitano con efficacia le fotografie. Questo mi ha spinto a riflettere sul futuro della convivenza fra fotografie e immagini generate con l’intelligenza artificiale. 

CONVIVENZA FRA FOTOGRAFIE E SINTOGRAFIE
In alcuni settori, come la fotografia pubblicitaria, il prodotto pubblicizzato veniva già idealizzato e quindi allontanato dalla realtà, con interventi fisici o digitali. Credo quindi che fotografie e sintografie (cioè le immagini generate) saranno indistinguibili e alternabili in questo campo, almeno per chi ne fruirà, consapevole della distanza dalla realtà. Ci sono già campagna pubblicitarie realizzate senza l’uso di fotografi. Forse manca soltanto una campagna pubblicitaria che abbia una grande eco e che raggiunga le masse, per rendere evidente a tutti questo fenomeno.

CONVIVENZA FRA FOTOGIORNALISMO E SINTOGRAFIE
Per quanto riguarda la fotografia documentaria e il fotogiornalismo, mi auguro che continuino a viaggiare su un binario parallelo da quello delle immagini generate. Ma so che probabilmente non sarà così.
Pochi mesi fa Amnesty International ha utilizzato delle sintografie in sostituzione delle fotografie, per tutelare i manifestanti colombiani presenti a una protesta del 2019, per promuovere una causa che per questo motivo è finita in secondo piano. Quelle sintografie hanno attirato molte polemiche, nonostante Amnesty International avesse dichiarato esplicitamente di averne fatto uso. Sicuramente hanno scelto il momento sbagliato per fare questo esperimento.

IDENTIKIT DELLA REALTÀ
Mi domando però se, in futuro, le immagini generate potranno essere usate per realizzare quelli che io chiamo “identikit della realtà”. Già oggi, in mancanza di una fotografia, viene realizzato un identikit di un sospettato di un crimine basandosi sulle descrizioni di testimoni oculari. Quando in futuro accadrà un evento senza fotografi pronti a documentarlo, ricostruiremo quell’evento in quel luogo, con immagini generate con l’aiuto di eventuali testimoni oculari? Già con la fotografia rinunciamo alla complessità della realtà. Cosa fotografare, come inquadrarlo, quali fotografie scartare, ecc. rappresentano tanti strati in cui rinunciamo ad una fetta di realtà. Ma rappresentarla senza alcun contatto con essa, rischia di allontanarci ancora di più da essa. 

BROKEN MIRROR
Nei mesi scorsi ho iniziato a lavorare con l’intelligenza artificiale e a generare immagini. Con questi software avrei potuto realizzare qualsiasi tipo di immagine. Avrei potuto improvvisarmi fumettista, ad esempio. Ma alla fine sono tornato ai temi a me più cari e che conosco meglio. Non volevo usare l’intelligenza artificiale soltanto come una scorciatoia, ma volevo che fosse concettualmente rilevante all’interno del progetto visivo che stavo sviluppando. In uno di questi lavori ho provato a raccontare in un modo diverso la dittatura totalitaria che caratterizza la Corea del Nord, un paese che avevo già visitato e raccontato come fotografo documentarista. Questo lavoro si intitola Broken Mirror e utilizza un linguaggio che imita quello documentarista. L’idea alla base consiste nell’inserire nella vita quotidiana dei nordcoreani un elemento alieno e destabilizzante. Ho scelto di inserire degli insetti, dei ragni e altro ancora, che gradualmente aumentato di quantità e dimensione, fino a prendere il controllo completo sui nordcoreani. Ad un certo punto i nordcoreani stessi iniziano a trasformarsi in questi insetti giganti, diventando le creature che temevano, simboleggiando il completamento della sottomissione. 

LA NATURA INVASIVA E CONTROLLANTE DELLA TECNOLOGIA
Generare le immagini così come le avevo pensate e descritte col prompt ha richiesto migliaia di tentativi e molta frustrazione. Il processo creativo era in gran parte affidato all’intelligenza artificiale. La selezione delle immagini era però un compromesso fra ciò che volevo ottenere e ciò che mi veniva proposto. Spesso non ho ottenuto quello che volevo. Altre volte l’intelligenza artificiale ha inserito elementi inaspettati che però ho scelto di tenere. Durante questo processo, ho realizzato che la metafora che avevo utilizzato non rappresentava soltanto la dittatura totalitaria nordcoreana, ma rappresentava la tecnologia stessa. In particolare la sua natura invasiva e controllante. Col mio lavoro ho quindi sfruttato le nuove potenzialità che l’intelligenza artificiale offre, per esprimere un timore che ho nei suoi confronti.

EMERSIONE
Dopo alcuni mesi di full immersion in questa tecnologia, ho sentito un forte bisogno di tornare a fotografare le storie delle persone, come se ne fossi stato in astinenza. Questa nuova tecnologia farà parte degli strumenti che adopererò anche in futuro, ma le ore notturne, silenziose e solitarie passate al computer a generare immagini mi hanno ricordato perché, a un certo punto della mia vita, avevo accantonato la mia passione per l’informatica per abbracciare quella per la fotografia. Avevo bisogno di uscire e di respirare la realtà e, infine, di raccoglierne le tracce con la mia macchina fotografica.

AI and Prejudice by Filippo Venturi

(in italiano sotto)

AI and Prejudice
(Images generated with artificial intelligence, 2023)

An article published on 8 February 2023 by The Guardian, highlighted how the algorithms used by artificial intelligence tend to be gender biased and end up censoring photographs depicting women's bodies, especially when nipples are visible, or pregnant women or women exercising. Large technology companies, including Google, Microsoft and Amazon, which are at the forefront of the development of software using artificial intelligence, have implemented filters to protect their users from seeing unwanted, violent or pornographic images. For example, it has been known for several years that some social networks censor female nipples but not male ones.

Journalists from the British newspaper tested this software using artificial intelligence in analysing hundreds of photographs of men and women in their underwear, while exercising, or using medical tests with partial nudity, and found that artificial intelligence labels photographs of women in everyday situations as sexually allusive. This software tends to rate pictures of women as more racy or sexually allusive than similar pictures of men. Among other consequences, social networks that make use of these algorithms censor or suppress (in the sense of making less visible to users) countless images depicting women's bodies, in some cases even harming women-led companies and businesses, further amplifying social inequalities.

Even photographs for medical use are affected by this problem. Testing these artificial intelligence algorithms on images released by the US National Cancer Institute, in particular one showing how to perform a clinical breast examination, it emerged that Google's artificial intelligence had assigned a high score in terms of indecency, Microsoft's artificial intelligence was 82% sure that the image was 'explicitly sexual', while Amazon's artificial intelligence classified it as representing 'explicit nudity'. Even photographs of pregnant women, where the belly is visible, are problematic in this regard. Google's artificial intelligence classified such a photo as 'very likely to contain racy content', while Microsoft's was 90% sure that the image was 'sexually allusive'.

Behind this problem, there is a phenomenon known to those in the field, namely that of the so-called 'biases' (prejudices/distortions), which are present in today's society and which end up inside the databases (archives) that are provided to artificial intelligence software to train itself. These archives are often a mirror of reality, where gender inequality, for example, leads artificial intelligence to imagine a man when it comes to power roles or a woman when it comes to domestic work.

Artificial intelligence bias can therefore influence the representation of women and their identities, enclosing them within predefined roles and, in a way, repeating and reiterating those limitations that have influenced women's lives for centuries and which, with difficulty, are being dismantled.


AI e Pregiudizio
(Immagini generate con intelligenza artificiale, 2023)

Una indagine pubblicata l'8 febbraio 2023 da The Guardian, ha evidenziato come gli algoritmi utilizzati dalle intelligenze artificiali tendano ad avere pregiudizi di genere, finendo col censurare le fotografie che raffigurano corpi di donne, soprattutto quando in queste sono visibili i capezzoli, oppure donne incinta o che praticano esercizio fisico. Le grandi aziende tecnologiche, fra cui Google, Microsoft e Amazon, che sono all'avanguardia nello sviluppo di software che sfruttano l'intelligenza artificiale, hanno implementato dei filtri allo scopo di proteggere i propri utenti dal vedere immagini indesiderate, violente o pornografiche. Già da diversi anni è noto, ad esempio, come alcuni social network censurino i capezzoli femminili ma non quelli maschili.

I giornalisti del giornale inglese hanno testato questi software che utilizzano l’intelligenza artificiale nell’analizzare centinaia di fotografie di uomini e donne in biancheria intima, mentre facevano esercizio fisico, oppure utilizzando test medici con nudità parziale e hanno scoperto che l’intelligenza artificiale etichetta le fotografie delle donne in situazioni quotidiane come sessualmente allusive. Questi software tendono a valutare le immagini delle donne come più audaci o sessualmente allusive rispetto a immagini simili raffiguranti gli uomini. Fra le varie conseguenze, c’è quella che vede i social network che fanno uso di questi algoritmi censurare o sopprimere (nel senso di rendere meno visibili agli utenti) innumerevoli immagini raffiguranti corpi di donne, in alcuni casi anche danneggiando le aziende e le attività guidate da donne, amplificando ulteriormente le disparità sociali.

Anche le fotografie per uso medico sono toccate da questo problema. Testando questi algoritmi di intelligenza artificiale sulle immagini rilasciate dal National Cancer Institute degli Stati Uniti, in particolare una in cui viene mostrato come eseguire un esame clinico del seno, è emerso come l'intelligenza artificiale di Google avesse assegnato un punteggio elevato in termini di indecenza, quella di Microsoft era sicura all'82% che l’immagine fosse "esplicitamente di natura sessuale", mentre quella di Amazon l’ha classificata come rappresentante "nudità esplicita". Persino le fotografie di donne incinta, dove è visibile la pancia, sono problematiche da questo punto di vista. L’intelligenza artificiale di Google ha classificato una foto di questo tipo come “molto probabile che contenga contenuti audaci”, mentre quella di Microsoft era sicura al 90% che l'immagine fosse "di natura sessualmente allusiva".

Dietro questo problema, c’è un fenomeno noto agli addetti al settore, cioè quello dei cosiddetti “bias” (pregiudizi/distorsioni), che sono presenti nella società attuale e che finiscono dentro i database (archivi) che vengono forniti ai software di intelligenza artificiale per allenarsi. Questi archivi spesso sono uno specchio della realtà, dove la disparità di genere ad esempio spinge l’intelligenza artificiale ad immaginare un uomo quando si parla di ruoli di potere oppure una donna quando si parla di lavori domestici.

I bias dell'intelligenza artificiale possono quindi influenzare la rappresentazione delle donne e delle loro identità, chiudendole all’interno di ruoli predefiniti e, in qualche modo, ripetendo e ribadendo quelle limitazioni che da secoli influenzano la vita delle donne e che, a fatica, si sta cercando di smantellare.

World Press Photo winning photographs (when generated with artificial intelligence) by Filippo Venturi

View all the winners of the annual World Press Photo Contest from 1955 to the present (when generated with artificial intelligence).


Quite rightly, the World Press Photo completely excluded images generated with artificial intelligence, even from the category (open format) in which it had initially thought it could include them. So I wondered which images could have been generated by A.I. to compete for the main award, the photograph of the year, from 1955 to the present.

The purpose of this experiment is to reflect on how artificial intelligence interprets and generates photographs that, from its perspective and at my request, could have won the various editions of the prestigious competition for photojournalists called World Press Photo. Photographs and generated images remain two very different things in many ways. The only point of contact is when the generated image imitates the photograph and exploits its credibility. The consequences of this imitation (and substitution) risk altering and perhaps undermining the credibility of photography (which in any case we must be wary of and should not take for absolute and sole truth) and the role of photojournalism in witnessing reality.


Giustamente, il World Press Photo ha escluso completamente le immagini generate con l'intelligenza artificiale, anche dalla categoria (open format) dove inizialmente aveva ritenuto potessero rientrare. Allora mi sono chiesto quali immagini avrebbe potuto generare l'I.A. per competere per il premio principale: la fotografia dell'anno, dal 1955 a oggi.

Lo scopo di questo esperimento è riflettere su come l'intelligenza artificiale interpreta e genera le fotografie che, dal suo punto di vista e su mia richiesta, avrebbero potuto vincere le varie edizioni del prestigioso concorso per fotogiornalisti chiamato World Press Photo. Fotografie e immagini generate restano due cose molto diverse sotto molti punti di vista. L'unico punto di contatto è quando l'immagine generata imita la fotografia e ne sfrutta la credibilità. Le conseguenze di questa imitazione (e sostituzione) rischiano di alterare e forse compromettere la credibilità della fotografia (di cui comunque bisogna diffidare e che in ogni caso non va presa per verità assoluta e unica) e il ruolo del fotogiornalismo nel testimoniare la realtà.


Webtalk su Fotografia e Intelligenza Artificiale by Filippo Venturi

Mercoledì 6 dicembre 2023, ore 21.15, si terrà un webtalk della serie "serata con l'autore", dove parlerò di Fotografia e Intelligenza Artificiale.

L'incontro è organizzato dall'Associazione fotografica Grandangolo di Carpi.
Link: https://meet.goto.com/grandangolocarpi/le-nostre-serate

A proposito di Fotogiornalismo e Intelligenza Artificiale by Filippo Venturi

Donald Trump, disegno di Jane Rosenberg, New Yorker

A PROPOSITO DI FOTOGIORNALISMO E INTELLIGENZA ARTIFICIALE

Un altro esempio collegato al mio concetto di "identikit della realtà" (con cui intendo la documentazione della realtà tramite l'uso di immagini generate con l'intelligenza artificiale, basate sulla testimonianza di testimoni oculari, in quei casi dove manchino i fotografi) è quello che sta avvenendo in queste mesi nel processo in corso a Donald Trump, da cui i fotografi sono banditi.

Questa limitazione ha riportato sotto i riflettori l'arte del “courtroom sketching”, cioè del documentare ciò che avviene con delle illustrazioni.

Fra i miei timori c'è (c'era), appunto, l'uso dell'intelligenza artificiale per ottenere immagini che integrassero o sostituissero le fotografie di un fotogiornalista, ma in realtà è una paura già superata. Sappiamo già che, in mancanza di una fotografia, accettiamo qualsiasi alternativa visiva, che sia l'identikit di un ricercato o l'illustrazione di un evento.

Ancora più curioso è stato, per me, scoprire che il diritto di disegnare gli avvenimenti di un processo fu dibattuto nel caso United States contro Columbia Broadcasting System, nel 1974, la cui sentenza riconobbe il diritto degli artisti di raccontare quello che accadeva.

E, in fin dei conti, ribaldanto il punto di vista (e dandomi la zappa sui piedi), considerare la narrazione degli eventi, a livello visivo, una esclusiva dei fotogiornalisti è palesemente un errore.

L’impatto sulla Fotografia dell’Intelligenza Artificiale by Filippo Venturi

Ci vediamo domani, sabato 4 novembre, a Piacenza!

Alle ore 14.30 interverrò nell'incontro pubblico "L’impatto sulla fotografia dell’intelligenza artificiale" con Silvano Bicocchi e Michele Smargiassi, nell'ambito del convegno regionale FIAF Emilia Romagna a Palazzo Gotico.


AGGIORNAMENTO: Qualche fotografia dell’incontro, scattate da Luca Monelli

A.I. confini della realtà: Intelligenza artificiale e fotogiornalismo by Filippo Venturi

Sabato 21 ottobre 2023 tornerò al Festival della Fotografia Etica per due eventi dove interverrò!

Ore 10.30, visita guidata alla mostra del mio lavoro fotografico "Awakenings", sui nordcoreani che sono fuggiti dal proprio paese, presso il Chiostro ex-Ospedale Vecchio – Piazza Ospitale n. 10.

Ore 17.30 dibattito intitolato "A.I. confini della realtà: Intelligenza artificiale e fotogiornalismo" col sottoscritto, Alberto Prina (direttore del festival), Irene Fabbri(developer e artista digitale), moderato da Marco Brioni, presso lo Spazio Libri a Palazzo Barni.

PhotoVogue Festival 2023 by Filippo Venturi

Dal 16 al 19 novembre si terrà il PhotoVogue Festival 2023 a Milano, il cui tema è “What Makes Us Human? Image in the Age of A.I.“.

Avrò il piacere di essere uno degli speaker, con un intervento intitolato “Broken Mirror. A dystopian guide to crossing the border”, ed esporrò il mio progetto Broken Mirror assieme ad autori come Charlie Engman, Jonas Bendiksen, Michael Christopher Brown e altri ancora (sotto l'elenco intero). La mostra collettiva è a cura di Chiara Bardelli Nonino.

L’annuncio del Festival: What Makes Us Human? Image in the Age of A.I.
Il programma del Festival: The Program and A.I. Symposium
La mostra: Exhibitions: Uncanny Atlas, Image in the Age of A.I.

The artists: Alex Huanfa Cheng | Alexey Chernikov | Ali Cha'aban | Alkan Avcıoğlu | Carlijn Jacobs | Charlie Engman | Exhibit AI | Filippo Venturi | Jonas Bendiksen | Laurie Simmons | Maria Mavropoulou | Michael Christopher Brown | Minne Atairu | Philipp Klak | Prateek Arora | Roope Rainisto | Synchrodogs | Chanhee Hong 

AGGIORNAMENTO:

Qualche fotografia dal Photo Vogue Festival, dove ho avuto l'onore di presentare il mio lavoro, con un intervento intitolato “Broken Mirror. A dystopian guide to crossing the border” e di partecipare al dibattito "Envisioning tomorrow: A.I. and the future of visual narratives" condotto da Chiara Bardelli Nonino!

C'erano tanti autori ed esperti che hanno fornito osservazioni e testimonianze che hanno ampliato la mia visione sull'argomento intelligenza artificiale, come:

Michael Christopher Brown (Photographer and artist), Filippo Venturi (Photographer), Mutale Nkonde (A.I. Policy Advisor and the CEO and Founder of A.I. for the People), Lydia Mendola (Head of Intellectual Property Practice at Portolano Cavallo), Jennifer Kanis (Principal Lawyer at Maurice Blackburn Lawyers).

The Longest Day by Filippo Venturi

The longest day, from "Tear-anny" series, by Filippo Venturi.
Series of images generated with the use of artificial intelligence. I imagined Vladimir Putin's day on Saturday, June 24, 2023, as the "Wagner" Group (a private military company) was headed to Moscow to carry out what appeared to be a coup d'état, later aborted by Yevgeny Prigozhin, the group's founder and owner.

Il giorno più lungo, dalla serie "Tear-anny", di Filippo Venturi.
Serie di immagini generate con l'uso di una intelligenza artificiale. Ho immaginato la giornata di Vladimir Putin di sabato 24 giugno 2023, mentre il Gruppo “Wagner” (una compagnia militare privata) era diretto a Mosca per compiere quello che sembrava un colpo di Stato, poi interrotto da Yevgeny Prigozhin, fondatore e proprietario del gruppo stesso.