Bonifacio VIII

Un dispositivo di disincanto contro il safety-washing dell'AI

Il nostro obiettivo è smascherare l’illusione della sicurezza algoritmica commerciale rilasciando Bonifacio VIII: un modello linguistico open-source spogliato di qualsiasi filtro cosmetico, eseguibile localmente e totalmente ispezionabile. Concepito come un vero e proprio “dispositivo pedagogico negativo”, Bonifacio VIII non è progettato per essere l’ennesimo assistente cortese ed edificante, bensì per esporre la grammatica dell’abuso e le capacità che le interfacce addomesticate nascondono. Vogliamo fornire agli attivisti, ai ricercatori e alla società civile uno stress test cognitivo e politico per dimostrare che i modelli generativi contengono capacità che non possono essere messe in sicurezza tramite semplici barriere di interfaccia.

Il Problema

Oggi assistiamo a una pericolosa privatizzazione della sicurezza digitale. I dibattiti regolatori, in particolare attorno all’AI Act europeo, sono stati pesantemente condizionati dal lobbismo delle Big Tech1, portando i legislatori a scambiare le promesse di “allineamento” aziendale per vere politiche pubbliche. La sicurezza delegata ai grandi fornitori è, in realtà, una finzione: si tratta di safety-washing commerciale che produce un effetto meramente estetico2. Se un sistema mainstream rifiuta una richiesta controversa (i cosiddetti “guardrail”), si diffonde l’idea che il problema sia stato risolto. Al contrario, la ricerca dimostra che questi filtri sono trivialmente eludibili tramite tecniche di jailbreaking e attacchi avversariali3. Questa dinamica genera un’anestesia politica: rassicura l’utente e deresponsabilizza chi governa, creando una realtà digitale a due corsie dove il danno reale continua a operare nel buio della dipendenza da API proprietarie.

L’Approccio Risolutivo

La risposta a questa censura di facciata è la trasparenza radicale e la riappropriazione tecnologica. Invece di fidarci di fornitori che vendono contemporaneamente i modelli e la rassicurazione sui loro limiti, rilasciamo Bonifacio VIII come infrastruttura pubblica. L’approccio si fonda sul fornire alla comunità il pieno controllo sul modello linguistico4: prompt visibili, configurazione modificabile, esecuzione dal basso e possibilità di forking. Invitiamo sviluppatori e cittadini a scaricare Bonifacio VIII, eseguirlo e documentare ciò che i filtri commerciali cercano di nascondere. Questo rilascio non introduce nuovi rischi nel mondo, ma rende leggibile e democratica la gestione di una tecnologia che, altrimenti, resterebbe dominio esclusivo di chi cerca di venderci l’illusione del controllo algoritmico.


  1. Corporate Europe Observatory (2023), The AI lobbying blitz: How Big Tech shaped the EU AI Act. Questo report evidenzia come i fornitori di AI abbiano influenzato il dibattito europeo per esentare i propri modelli base da regole troppo stringenti. Corporate Europe ↩︎

  2. Whittaker, M. et al. (2023), Open (for Business): Big Tech, Concentrated Power, and the Political Economy of Open AI. Documenta come la retorica della sicurezza e dell’open source venga usata sistematicamente per consolidare mercati oligopolistici. AI Now Institute ↩︎

  3. Zou, A. et al. (2023), Universal and Transferable Adversarial Attacks on Aligned Language Models. Lo studio che ha dimostrato la vulnerabilità intrinseca e l’elusione sistematica dei guardrail imposti dai modelli commerciali. arXiv ↩︎

  4. L’importanza di disporre di sistemi ispezionabili “a pesi aperti” (open-weights) per indagini indipendenti è raccomandata come argine contro il ricorso alla “sicurezza tramite oscurità”, tipico dei sistemi chiusi e governati da scatole nere proprietarie. Mozilla Foundation ↩︎