Ghostati!

Esperimenti di trucco avversariale per ingannare il riconoscimento facciale

L’implementazione del riconoscimento facciale negli spazi pubblici e privati rappresenta oggi una delle più subdole e pervasive minacce alle nostre libertà civili. Questa tecnologia, calata dall’alto e dispiegata senza alcun reale consenso democratico o trasparenza, trasforma i nostri corpi e i nostri tratti in merce estraibile, alimentando un’infrastruttura di sorveglianza di massa che normalizza il controllo istituzionale in tutta Europa. Abbiamo provato a resistere con i percorsi istituzionali, e visti i loro limiti, iniziamo a sperimentare pratiche di autodifesa…

Campagne di attivismo come Reclaim Your Face1 denunciano da anni questa deriva tecno-autoritaria, ribadendo l’urgenza di organizzare una reazione radicale e dal basso contro la biometria di massa2.

L’approccio: resistenza attraverso il trucco e i metodi avversariali

Di fronte all’arroganza della sorveglianza algoritmica, l’autodifesa digitale evolve dalle piazze ai nostri stessi volti attraverso le pratiche avversariali: veri e propri atti di hacking fisico e visivo progettati per ingannare e sabotare i modelli di deep learning. Utilizzando tecniche mirate come l’adversarial make-up, pattern geometrici (Patch), o tessuti fashion-tech anti-riconoscimento, possiamo alterare in modo strategico i punti di repere del volto, mandando in cortocircuito i sistemi di computer vision. Queste perturbazioni sfruttano le vulnerabilità intrinseche e le scorciatoie matematiche delle reti neurali: applicando ombretti specifici sulle regioni orbitali o blocchi di “rumore” visivo, trasformiamo il nostro aspetto in dati illeggibili per la macchina, restituendoci l’opacità necessaria per sottrarci alla cattura predatoria dei rilevatori34.

Gli strumenti rilasciati: riprendere il controllo della tecnologia

Per trasformare la teoria in strumento di lotta, abbiamo sviluppato e raccolto risorse open-source pensate per testare le difese direttamente sui nostri dispositivi. Provate la web-app Ghostmaxxing!, disponibile a sindacato.nina.watch/ghostati. Si tratta di uno strumento di test che usa modelli di riconoscimento locale per farvi sperimentare in tempo reale l’efficacia del trucco avversariale tramite la vostra webcam. Usatela, studiatela e forkatela dal nostro GitHub per decostruirne i meccanismi, migliorarne il codice e creare nuove interfacce di resistenza tecnologica5.

4. La pratica: corpi, sperimentazione e la chiamata al NINA Festival

Gli algoritmi non si combattono solo sui server, ma sui corpi. L’efficacia di questi strumenti deve essere validata collettivamente: la pratica avversariale richiede sperimentazione continua, test su sistemi diversi, documentazione dei fallimenti e raccolta di feedback per perfezionare le tecniche. Per passare all’azione concreta, vi invitiamo al NINA Festival di Milano, Sabato 9 Maggio presso Rob de Matt (Via Enrico Annibale Butti, 18). A partire dalle 16:00, durante il talk “Ghostati. Fashion-tech e protezione dati biometrici”, condurremo un laboratorio pubblico con Michelle Tylicki e altre truccatrici esperte. Testeremo dal vivo prototipi di trucco, registreremo i prima/dopo e filmeremo le interazioni per la prossima fase della nostra campagna. Unisciti a noi: vieni a truccarti, a ingannare le macchine e a riprenderti il tuo volto.



  1. Iniziativa dei cittadini europei Reclaim Your Face (2021), Per il divieto delle pratiche di sorveglianza biometrica di massa↩︎

  2. Privacy Network SARI enterprise, rapporto. ↩︎

  3. Yinpeng Dong et al. (2021), Adv-Makeup: A New Imperceptible and Transferable Attack on Face Recognition↩︎

  4. Adversarial Robustness Toolbox (ART), Documentazione ufficiale sulle tecniche di Evasione Spaziale e DPatch, IBM. ↩︎

  5. Ghostmaxxing su github vecna/ghostati↩︎