Ghòstati!
Esperimenti di trucco avversariale per ingannare il riconoscimento facciale
L’implementazione del riconoscimento facciale negli spazi pubblici e privati rappresenta oggi una delle più subdole e pervasive minacce alle nostre libertà civili. Questa tecnologia, calata dall’alto e dispiegata senza alcun reale consenso democratico o trasparenza, trasforma i nostri corpi e i nostri tratti in merce estraibile, alimentando un’infrastruttura di sorveglianza di massa che normalizza il controllo istituzionale in tutta Europa. Abbiamo provato a resistere con i percorsi istituzionali, e visti i loro limiti, iniziamo a sperimentare pratiche di autodifesa…
Campagne di attivismo come Reclaim Your Face1 denunciano da anni questa deriva tecno-autoritaria, hanno spinto il Parlamento Europeo a prendere in considerazione il problema, e si è anche arrivati ufficialmente ad una messa al bando di questa pratica.
Divieto che viene puntualmente messo in discussione per grandi eventi, casi speciali, esperimenti, e ogni altra giustificazione che dimostra l’interesse ad erodere questa tutela.
Per questo serve continuare ad organizzare una reazione radicale e dal basso contro la biometria di massa2.
L’approccio: resistenza attraverso il trucco e i metodi avversariali
Di fronte all’arroganza della sorveglianza algoritmica, l’autodifesa digitale evolve dalle piazze ai nostri stessi volti attraverso le pratiche avversariali: atti di hacking fisico e visivo progettati per ingannare e sabotare i modelli di sorveglianza illegale.
Utilizzando tecniche di trucco (anche note come adversarial make-up), pattern geometrici, o tessuti fashion-tech anti-riconoscimento, possiamo alterare in modo strategico i punti di repere del volto, mandando in cortocircuito i sistemi di computer vision. Queste perturbazioni sfruttano le vulnerabilità intrinseche e le scorciatoie matematiche delle reti neurali: applicando ombretti specifici sulle regioni orbitali o blocchi di “rumore” visivo, trasformiamo il nostro aspetto in dati illeggibili per la macchina, restituendoci l’opacità necessaria per sottrarci alla cattura predatoria dei rilevatori34.
Lo strumento in supporto
Ghòstati! e diventa un fantasma agli occhi della Computer Vision
Software libero, che funziona su ogni browser e non riceve alcun dato relativo ai tuoi esperimenti.
I trucchi di successo possono essere condivisi come immagini a chi vuoi tu, o programmati sotto forma di codice, così che altre possano replicare i successi.
Mappare un ecosistema di silenzi
Non possiamo sapere con precisione se questi sistemi funzionano su tutte le tecnologie di riconoscimento facciale. Con la convinzione che chi lavora in quel settore e con quegli strumenti non per forza sposi la causa della sorveglianza indiscriminata, abbiamo aperto questo canale anonimo di raccolta informazioni:
Il riconoscimento facciale negli spazi pubblici è vietato
Sai di qualche luogo in cui questo avviene? conosci il fornitore, la tecnologia utilizzata, chi ha accesso ai dati, quanti limiti e abusi porta con se?
Raccontacelo: è fondamentale per aggiornare le forme di resistenza
Eventi in arrivo al NINA Festival
Con noi ci sarà Michelle Tylicki
Milano, 9 Maggio 2026, vieni con trucchi o con un volto pulito, e prova con noi quanto è facile ingannare il riconosciento facciale
Roma, 10 Maggio 2026, vieni con trucchi o con una faccia tua disposizione, per provare quanto è facile ingannare la sorveglianza
-
Iniziativa dei cittadini europei Reclaim Your Face (2021), Per il divieto delle pratiche di sorveglianza biometrica di massa. ↩︎
-
Privacy Network SARI enterprise, rapporto. ↩︎
-
Yinpeng Dong et al. (2021), Adv-Makeup: A New Imperceptible and Transferable Attack on Face Recognition. ↩︎
-
Adversarial Robustness Toolbox (ART), Documentazione ufficiale sulle tecniche di Evasione Spaziale e DPatch, IBM. ↩︎