War

Show me the kitten (or the ravenous machine) by Filippo Venturi

[english below]


Show me the kitten / or the ravenous machine (—, 2024)

Di seguito una anteprima di questo mio ultimo lavoro, ancora in corso.

Abstract

Questo progetto indaga la "fame insaziabile" di dati dell'intelligenza artificiale (I.A.), addestrata tramite etichettamenti e descrizioni di questi dati, spesso svolti inconsapevolmente o in maniera apparentemente innocua dagli utenti di Internet.

Attraverso fotografie, frame video e immagini generate con l'I.A., ho esplorato come i sistemi pensati per la sicurezza degli utenti e dei servizi del web (come ad esempio i reCAPTCHA) contribuiscono a migliorare i sistemi di I.A., anche in ambito militare, generando un corto circuito fra ciò che avrebbe una finalità di protezione e sicurezza e ciò che invece sfrutta le abilità umane per allenare questa tecnologia; fra ciò che serve per riconoscere un essere umano da un bot e ciò che invece aiuta i bot a imitare gli esseri umani, in maniera sempre più accurata e allarmante.

Da tutto questo emergono criticità sull'etica, la trasparenza, lo sfruttamento inconsapevole delle persone e il nostro futuro.

Presentazione integrale

Questo progetto indaga l'inesauribile fame di dati da parte dell'intelligenza artificiale (I.A.) e la sua necessità di essere addestrata, tramite etichettamenti e descrizioni di questi dati, ripetute milioni di volte da lavoratori sottopagati oppure dalle attività svolte online dagli utenti di Internet, spesso a loro insaputa.

Questo lavoro – composto da fotografie originali, fotografie d’archivio, frame di videogame, frame di video dal punto di vista dei droni da guerra e immagini generate – esplora il modo in cui l’I.A. si nutre di queste informazioni, anche in modo subdolo, ad esempio attraverso il cosiddetto CAPTCHA (Completely Automated Public Turing-test-to-tell Computers and Humans Apart, ossia test di Turing pubblico e completamente automatico per distinguere computer e umani), che richiede all'utente che si collega online ad un sito o un servizio di scrivere quali siano le lettere o i numeri presenti in una sequenza, spesso distorta o offuscata sullo schermo, che in teoria non sarebbe riconoscibile da un sistema automatizzato (o bot).

Nelle versioni successive e più avanzate, come il reCAPTCHA, si è iniziato a chiedere agli utenti, in modo apparentemente innocuo, di identificare oggetti all’interno di immagini, come automobili, segnali stradali, semafori, persone o animali che, oltre a riconoscere se l’utente è un essere umano, forniscono informazioni utili per addestrare sistemi di intelligenza artificiale (1), migliorandone la capacità di riconoscere e comprendere il contenuto visivo. Va da sé che queste informazioni, ripetute innumerevoli volte ogni giorno in tutto il mondo, possono rappresentare una risorsa importante anche per migliorare tante tecnologie basate sull’I.A., come i sistemi di guida autonoma di alcuni modelli di automobili, ma anche di tecnologie militari impiegate in guerra. I droni - diventati una delle armi principali nella guerra in Ucraina - in particolare i modelli aerei più avanzati, possono imparare a muoversi autonomamente, a riconoscere gli ostacoli da evitare, ma anche i bersagli da colpire.

Negli anni passati è emerso come alcune multinazionali, che hanno investito maggiormente nella ricerca in questo settore, abbiano iniziato a collaborare con il Dipartimento della Difesa Americano (2,3) per ottimizzarne gli strumenti e le tecnologie. Il “Project Maven” di Google provocò molte critiche e preoccupazioni da parte degli stessi dipendenti, fino a spingere l’azienda ad abbandonarlo. Il progetto però non morì, ma si limitò a passare ad altri appaltatori (4).

Le immagini di questo lavoro mirano a dimostrare che l'atto di garantire la sicurezza degli utenti e dei servizi online, fornendo informazioni, è parte di un meccanismo più grande, in cui la privacy e la consapevolezza degli utenti sono spesso trascurate. Questo sistema genera un corto circuito fra ciò che avrebbe una finalità di sicurezza e ciò che invece sfrutta le abilità umane per addestrare una I.A.; fra ciò che serve per riconoscere un essere umano da un bot e ciò che invece aiuta i bot a imitare gli esseri umani in maniera sempre più accurata e allarmante.

Questo progetto si interroga su questioni come la trasparenza, l'etica e il futuro dell'interazione tra umani e macchine, invitando lo spettatore a riflettere sul ruolo inconsapevole che ciascuno di noi gioca nell'alimentare l'intelligenza artificiale.

1 By Typing Captcha, you are Actually Helping AI’s Training (apnews.com)
2 Google Is Helping the Pentagon Build AI for Drones (theintercept.com)
3 Google is quietly providing AI technology for drone strike targeting project (gizmodo.com)
4 In Ukraine, New American Technology Won the Day. Until It Was Overwhelmed (nytimes.com)

Show me the kitten / or the ravenous machine (—, 2024)

Below is a preview of my latest work, still in progress.

Abstract

This project investigates artificial intelligence's (A.I.) 'insatiable hunger' for data, trained by labelling and describing this data, often carried out unknowingly or seemingly innocuously by Internet users.

Through photographs, video frames, and images generated with A.I., I explored how systems designed for the security of web users and services (such as reCAPTCHAs) contribute to improving A.I. systems, even in the military sphere, generating a short circuit between what is supposed to be for protection and security purposes and what instead exploits human skills to train this technology; between what is used to recognise a human being from a bot and what instead helps bots to imitate human beings, in an increasingly accurate and alarming manner.

From all this, critical questions arise about ethics, transparency, the unconscious exploitation of people and our future.

Presentation

This project investigates artificial intelligence's (A.I.) inexhaustible hunger for data and its need to be trained, by labelling and describing this data, repeated millions of times by underpaid workers or by the online activities of Internet users, often without their knowledge.
This work - consisting of original photographs, archive photographs, video game frames, video frames from the perspective of war drones and generated images - explores how the I.A. feeds on this information, even in a devious way, for instance through the so-called CAPTCHA (Completely Automated Public Turing-test-to-tell Computers and Humans Apart), which requires the user connecting online to a site or service to write down what letters or numbers are present in a sequence, often distorted or blurred on the screen, that in theory would not be recognisable by an automated system (or bot).

In later and more advanced versions, such as reCAPTCHA, users began to be asked, in a seemingly innocuous way, to identify objects within images, such as cars, traffic signs, traffic lights, people or animals, which, in addition to recognising whether the user is a human being, provide useful information for training artificial intelligence systems (1), improving their ability to recognise and understand visual content. It goes without saying that this information, which is repeated countless times every day all over the world, can also be an important resource for improving many A.I. based technologies, such as the autonomous driving systems of certain car models, but also military technologies used in warfare. Drones - which have become one of the main weapons in the war in Ukraine - especially the most advanced aerial models, can learn to move autonomously, to recognise obstacles to avoid, but also targets to hit.

In past years, it has emerged how some multinationals, which have invested more in research in this area, have started to collaborate with the US Department of Defence (2,3) in order to optimise its tools and technologies. Google's 'Project Maven' provoked much criticism and concern from the employees themselves, to the point of pushing the company to abandon it. The project did not die, however, but merely passed on to other contractors(4).

The images in this work aim to show that the act of ensuring the security of users and online services by providing information is part of a larger mechanism in which users' privacy and awareness are often overlooked. This system generates a short circuit between what would serve a security purpose and what instead exploits human skills to train an A.I.; between what serves to recognise a human being from a bot and what instead helps bots to imitate humans in an increasingly accurate and alarming manner.

This project questions issues such as transparency, ethics and the future of the interaction between humans and machines, inviting the viewer to reflect on the unconscious role each of us plays in fuelling artificial intelligence.

1 By Typing Captcha, you are Actually Helping AI’s Training (apnews.com)
2 Google Is Helping the Pentagon Build AI for Drones (theintercept.com)
3 Google is quietly providing AI technology for drone strike targeting project (gizmodo.com)
4 In Ukraine, New American Technology Won the Day. Until It Was Overwhelmed (nytimes.com)

Tower of Babel by Filippo Venturi

(english below)

Forse non sarà necessario attendere che le immagini e i video generati con l'intelligenza artificiale sommergano le fotografie e i video di documentazione, per alterare in modo irreparabile la narrazione/rappresentazione della realtà.

Già oggi le persone sono estremamente polarizzate e ogni elemento o notizia che ricevono viene digerita, modellata e subito sputata fuori per combaciare con la propria visione delle cose.

Prendiamo l'attentato al Crocus City Hall di Mosca.
Nell'istante in cui è uscita la notizia — quando ancora l'attentato era in corso e non si avevano abbastanza informazioni per comprendere cosa stava succedendo — chi già aveva una certa posizione ha stabilito che dietro c'erano gli USA e/o l'Ucraina.
Quando, poi, è uscita la rivendicazione dell'ISIS, ha stabilito che il mandante erano gli USA e/o l'Ucraina.
Quando i terroristi sono stati arrestati a poca distanza dal confine ucraino e bielorusso, ha deciso che stavano fuggendo in Ucraina.
E quando Lukashenko ha detto che hanno tentato di entrare in Bielorussia, ha pensato che avessero sbagliato strada.

Chi invece aveva la posizione opposta, ha creduto alla rivendicazione dell'ISIS e all'estraneità degli ucraini.
Ha bollato i sospetti russi verso gli ucraini come propaganda finalizzata ad accrescere l'odio dei russi verso gli ucraini.
Ha pensato che i terroristi stessero fuggendo in Bielorussia perché il confine ucraino è pieno di militari russi che lo sorvegliano.
E così via.

E per fare questo non sono serviti fotografie o video generati con l'IA.

A volte diventiamo le cose che sosteniamo pubblicamente, sui social network, e anche se, ad un certo punto, dovesse sfiorarci il dubbio, continuiamo a difenderle perché ormai la strada è stata tracciata.

Il "forse", il "non lo so" e il "mi sono sbagliato" sono diventati sintomi di debolezza.

Questo approccio così ottuso — che esclude il dubbio perché richiederebbe una sospensione sull'interpretazione dei fatti e della realtà e quindi il non poter prendere posizione sui social network, di fatto scomparendo nel silenzio dei prudenti — si ripete ogni giorno per decine di notizie e non può che portare ad una sorta di torre di Babele in cui nessuno capisce più l'altro se non ha una visione del mondo che combacia completamente.


Perhaps it will not be necessary to wait for artificial intelligence-generated images and videos to overwhelm photographs and documentation videos to irreparably alter the narrative/presentation of reality.

Already today, people are extremely polarised and every item or piece of news they receive is digested, shaped and immediately spat out to fit their own view of things.

Take for example the attack on Crocus City Hall in Moscow.
The instant the news came out — when the bombing was still in progress and not enough information was available to understand what was going on — those who already had a certain position established that it was the work of the US and/or Ukraine.
When, then, the ISIS claim came out, they established that the US and/or Ukraine were behind it.
When the terrorists were arrested a short distance from the Ukrainian and Belarusian borders, they decided they were fleeing to Ukraine.
And when Lukashenko said they tried to enter Belarus, they thought the terrorists had taken a wrong turn.

Those who took the opposite position believed the ISIS claim and the extraneousness of the Ukrainians.
They branded Russian suspicions of Ukrainians as propaganda aimed at increasing Russian hatred of Ukrainians.
They thought the terrorists were fleeing to Belarus because the Ukrainian border is full of Russian soldiers guarding it.
And so on.

And to do this we did not need AI-generated photographs and videos.

Sometimes we become the things that we publicly support, on social networks, and even if, at some point, doubt should touch us, we continue to defend them because by now the path has been traced.

The 'maybe', the 'I don't know' and the 'I was wrong' have become symptoms of weakness.

This obtuse approach — which excludes doubt because it would require suspending the interpretation of facts and reality and therefore not being able to take a position on social networks, in fact disappearing into the silence of the doubters — is repeated every day for dozens of news items and can only lead to a sort of tower of Babel in which no one understands the other anymore if they do not have a completely matching worldview.

20 Days in Mariupol by Filippo Venturi

[english below]

Dopo una scorpacciata di film natalizi e spensierati, con cui ho alleviato nei giorni scorsi una febbre che sembrava non finire mai, ieri notte mi sono fatto coraggio e ho guardato "20 Days in Mariupol", il documentario di Mstyslav Chernov.

La vicenda era in gran parte già nota, dato che Associated Press ha vinto un premio Pulitzer per il giornalismo di servizio pubblico, grazie al lavoro svolto proprio da Mstyslav Chernov e i suoi colleghi Evgeniy Maloletka, Vasilisa Stepanenko e Lori Hinnant. A sua volta, Evgeniy Maloletka è stato premiato col World Press Photo of the Year. Quindi avevo già letto e visto parte della loro documentazione.

Arrivando al punto, il documentario si focalizza sulla città di Mariupol ma racconta situazioni, paure e drammi che hanno toccato tutta l'Ucraina nei mesi seguenti. La lucidità e consapevolezza con cui i giornalisti decidono di recarsi a Mariupol fin dall'inizio e di restarci fino a quando si ritroveranno a essere fra i principali bersagli dei russi, ormai padroni della città, è ammirevole.

Alcune sequenze, come quella dello scantinato dell'ospedale improvvisato, sono dei veri e propri incubi a occhi aperti.

Il documentario quindi mostra la tragedia della guerra che lentamente si insinua nella vita degli ucraini (inizialmente convinti che almeno i civili fossero al sicuro) fino a smontarla pezzo per pezzo, ma mostra anche le difficoltà nel lavorare di chi fa informazione, con l'aggiunta di ricevere non di rado offese e sfoghi da parte della popolazione, alla vista delle loro fotocamere e videocamere. Una delle parti più toccanti, fra le tante, è il momento in cui alcuni ucraini, cittadini semplici ma anche dottori, chiedono ai giornalisti di continuare a documentare perché convinti che il mondo debba vedere cosa stanno subendo.

Il documentario è un capolavoro già di suo e dovrebbe essere visto a prescindere, ma in qualche modo ho avvertito anche il dovere di guardare e ascoltare quelle persone che, davanti alle proprie vite distrutte, hanno pensato a noi spettatori e a metterci in guardia su cosa sia la guerra.

https://20daysinmariupol.com/


After a binge of Christmas and light-hearted films, with which I have been relieving a fever that never seemed to end over the past few days, last night I plucked up courage and watched Mstyslav Chernov's documentary '20 Days in Mariupol'.

The story was largely already known, since Associated Press won a Pulitzer Prize for public service journalism, thanks to the work of Mstyslav Chernov and his colleagues Evgeniy Maloletka, Vasilisa Stepanenko and Lori Hinnant. In turn, Evgeniy Maloletka was awarded the World Press Photo of the Year. So I had already read and seen some of their documentation.

Getting to the point, the documentary focuses on the city of Mariupol but recounts situations, fears and dramas that touched the whole of Ukraine in the following months. The lucidity and awareness with which the journalists decide to go to Mariupol from the very beginning and to stay there until they find themselves among the main targets of the Russians, now masters of the city, is admirable.

Some sequences, such as the one in the basement of the makeshift hospital, are real waking nightmares.

The documentary therefore shows the tragedy of the war slowly creeping into the lives of Ukrainians (initially convinced that at least the civilians were safe) until it is dismantled piece by piece, but it also shows the difficulties in the work of those who report, with the addition of not infrequently receiving insults and outbursts from the population, at the sight of their cameras and video cameras.

One of the most touching parts, among many, is the moment when some Ukrainians, ordinary citizens but also doctors, ask the journalists to continue documenting because they are convinced that the world should see what they are suffering.

The documentary is a masterpiece in itself and should be seen regardless, but somehow I also felt a duty to watch and listen to those people who, in the face of their own shattered lives, thought of us viewers and warned us about what war is.

https://20daysinmariupol.com/