Il manifesto rende espliciti i principi che orientano l'adozione
dell'AI e la collocano dentro una traiettoria strategica, etica e
organizzativa leggibile.
Atlante dei principi
Otto blocchi per leggere il framework
L'intelligenza artificiale non è un aggiornamento tecnologico: è una leva strategica che modifica il posizionamento competitivo, il modello operativo e il valore generabile nel tempo. Adottare l'AI senza una visione strategica coerente porta a iniziative frammentate, investimenti dispersivi e rischi difficili da controllare. Il manifesto parte da qui: l'AI deve essere letta come parte integrante della strategia di business, non come un progetto IT separato.
Principi operativi:
Definire esplicitamente le aree di business in cui l'AI crea valore misurabile — crescita dei ricavi, riduzione dei costi, miglioramento della qualità — e prioritizzare gli investimenti di conseguenza.
Integrare la roadmap AI nella pianificazione strategica annuale e pluriennale, con KPI dedicati e revisioni periodiche.
Coinvolgere il vertice aziendale nella governance dell'AI: le decisioni su investimenti, rischi e confini etici non sono delegabili solo al team tecnico.
Costruire una narrativa interna coerente che colleghi i progetti AI agli obiettivi di business, evitando il rischio di "AI washing" interno.
Misurare il ROI delle iniziative AI con la stessa disciplina riservata agli altri investimenti strategici, includendo i costi nascosti (dati, formazione, governance, rischio reputazionale).
L'adozione responsabile dell'AI richiede che i valori etici siano incorporati sin dalle fasi di progettazione, non aggiunti ex post come misura di conformità. Trasparenza, rispetto della persona, equità e fiducia non sono vincoli all'innovazione: sono le condizioni che rendono l'innovazione sostenibile nel tempo. Un'organizzazione che usa l'AI ignorando le implicazioni etiche espone se stessa a rischi reputazionali, legali e relazionali difficili da recuperare.
Principi operativi:
Adottare il principio di "AI by design": ogni progetto AI deve includere una valutazione etica esplicita nella fase di definizione, non come step finale di approvazione.
Garantire che i sistemi AI siano spiegabili agli utenti che ne subiscono le decisioni, in particolare quando queste hanno impatto su diritti, opportunità o accesso a servizi.
Non utilizzare l'AI per sostituire completamente il giudizio umano in decisioni ad alto impatto sulle persone: occupazione, credito, salute, formazione.
Monitorare attivamente i bias nei dati di addestramento e negli output dei modelli, con correzioni documentate quando emergono discriminazioni sistematiche.
Costruire una cultura interna in cui segnalare un problema etico su un sistema AI sia normale e valorizzato, non percepito come ostacolo al progresso.
La governance dell'AI non è una questione tecnica: è una questione organizzativa. Definire chi decide, chi supervisiona, chi risponde degli errori e chi coordina l'evoluzione dei sistemi è la precondizione per qualsiasi uso responsabile su scala. Senza strutture di governance chiare, i progetti AI proliferano in modo incontrollato, le responsabilità si disperdono e i rischi restano invisibili fino a quando non diventano incidenti.
Principi operativi:
Istituire un Comitato Strategico AI con mandato esplicito, composizione multifunzionale (business, legal, compliance, IT) e cadenza di riunione definita.
Creare un AI Center of Excellence (CoE) con ruolo di presidio metodologico, supporto ai team e gestione degli standard di sviluppo e deployment.
Assegnare un AI Owner a ogni sistema in produzione: una persona identificata che risponde del funzionamento corretto, dei rischi e degli aggiornamenti del sistema.
Definire un processo formale di approvazione per nuovi use case AI, con criteri espliciti di rischio, impatto e conformità normativa.
Istituire una revisione periodica del portfolio AI per identificare sistemi obsoleti, ridondanti o che hanno superato il loro perimetro originario di utilizzo.
I sistemi di AI introducono categorie di rischio nuove rispetto al software tradizionale: deriva dei modelli nel tempo, amplificazione di bias nei dati, comportamenti inattesi in contesti edge, difficoltà di audit e spiegabilità delle decisioni. Un framework di risk management specifico per l'AI non è opzionale per le organizzazioni che operano in contesti regolati o che usano l'AI in processi decisionali rilevanti: è un requisito operativo e sempre più normativo.
Principi operativi:
Classificare ogni sistema AI secondo il livello di rischio (AI Act: inaccettabile, alto, limitato, minimo) e applicare le misure di controllo proporzionate alla classificazione.
Implementare monitoraggio continuo delle performance dei modelli in produzione, con soglie di alert definite per deriva, degradazione e comportamenti anomali.
Documentare formalmente i rischi identificati, le misure di mitigazione adottate e i residui accettati, aggiornando la valutazione a ogni modifica sostanziale del sistema.
Prevedere procedure di gestione degli incidenti AI specifiche, distinte da quelle IT generali, con escalation chiara e obbligo di notifica interna ed esterna dove previsto.
Includere il rischio reputazionale nelle valutazioni: l'impatto di un errore AI sui clienti, sulla stampa e sulle autorità può essere sproporzionato rispetto all'entità tecnica del problema.
La fiducia degli stakeholder esterni — clienti, partner, regolatori, comunità — nell'uso dell'AI da parte dell'organizzazione si costruisce attraverso la trasparenza proattiva, non attraverso la comunicazione reattiva dopo un problema. Dichiarare come si usa l'AI, per quali scopi, con quali garanzie e con quali limiti è un atto di responsabilità che rafforza la relazione con gli interlocutori e previene crisi reputazionali.
Principi operativi:
Informare esplicitamente i clienti quando interagiscono con sistemi AI, in modo chiaro e non eludibile, come previsto dall'Art. 50 AI Act per i sistemi conversazionali.
Pubblicare una sintesi della policy di utilizzo dell'AI accessibile agli stakeholder esterni, aggiornata almeno annualmente o a ogni modifica sostanziale.
Gestire le richieste di informazione da parte di clienti, partner o regolatori sull'uso dell'AI con trasparenza e tempestività, senza attendere che diventino formali contestazioni.
Comunicare proattivamente ai partner contrattuali l'utilizzo di AI in processi che li riguardano, verificando la coerenza con le clausole contrattuali esistenti.
Evitare qualsiasi forma di greenwashing o AI washing nelle comunicazioni esterne: dichiarare solo capacità reali e documentabili dei sistemi AI adottati.
L'AI cambia il modo in cui le persone lavorano. Ignorare questa dimensione — o gestirla solo come comunicazione interna di facciata — è una delle cause più frequenti di fallimento nei progetti di adozione. Le persone devono essere coinvolte, formate e accompagnate nel cambiamento: non come destinatari passivi di una trasformazione decisa altrove, ma come agenti attivi che portano competenza di dominio essenziale per far funzionare bene l'AI nel contesto reale.
Principi operativi:
Investire in percorsi di formazione differenziati per livello: AI literacy per tutti, competenze operative per chi usa strumenti AI nel lavoro quotidiano, competenze avanzate per chi sviluppa o supervisiona sistemi.
Coinvolgere i team operativi nella definizione dei requisiti dei sistemi AI che li riguardano: nessuno conosce meglio il processo di chi lo esegue ogni giorno.
Identificare e valorizzare gli AI Champion interni — persone entusiaste e competenti che possono accelerare l'adozione nei loro team attraverso l'esempio e il supporto informale.
Comunicare con onestà sull'impatto dell'AI sui ruoli e sulle mansioni, evitando sia i toni catastrofisti sia quelli ingenuamente ottimisti: la chiarezza genera più fiducia dell'eufemismo.
Misurare l'engagement e la soddisfazione delle persone rispetto ai sistemi AI che usano, con meccanismi di feedback strutturati e risposte concrete ai problemi segnalati.
L'efficacia operativa dell'AI si misura sulla capacità di migliorare processi reali, ridurre attività a basso valore aggiunto e liberare tempo per il lavoro cognitivo più complesso. Ma l'efficienza non è l'unico obiettivo: la democratizzazione delle capacità analitiche — rendere accessibili a tutti i collaboratori strumenti prima riservati a specialisti — è una delle trasformazioni più profonde e meno discusse dell'AI nel contesto lavorativo.
Principi operativi:
Identificare i processi con maggiore potenziale di automazione o augmentation AI attraverso un assessment sistematico, non basato su entusiasmo o pressione commerciale.
Privilegiare gli use case AI che aumentano le capacità delle persone rispetto a quelli che le sostituiscono, in particolare nelle fasi iniziali di adozione per costruire fiducia interna.
Definire standard operativi per l'uso degli strumenti AI approvati: chi può usarli, per quali task, con quale supervisione e come documentare l'utilizzo.
Valutare il costo operativo reale dell'AI: licenze, energia, infrastruttura, tempo di supervisione e correzione degli errori, non solo il beneficio atteso.
Revisionare periodicamente gli use case attivi per verificare che i benefici attesi si stiano realizzando e che non siano emersi effetti collaterali non previsti in fase di progettazione.
L'AI ha un impatto ambientale concreto e misurabile: l'addestramento di modelli large-scale consuma quantità significative di energia elettrica e acqua per il raffreddamento dei datacenter. Ignorare questa dimensione è incompatibile con qualsiasi impegno credibile sugli obiettivi ESG. Ma la sostenibilità dell'AI non è solo ambientale: include la sostenibilità economica degli investimenti, la sostenibilità sociale dell'impatto sui lavoratori e la sostenibilità normativa dei sistemi rispetto all'evoluzione regolatoria.
Principi operativi:
Misurare e rendicontare il consumo energetico dei sistemi AI in produzione, includendo questa metrica nei report ESG e negli obiettivi di riduzione delle emissioni.
Privilegiare provider e infrastrutture cloud alimentati da energia rinnovabile per i workload AI più intensivi, verificando le certificazioni ambientali dichiarate.
Evitare l'over-engineering: modelli più piccoli e specializzati consumano meno energia e sono spesso più performanti dei modelli generalisti per task specifici.
Usare l'AI come strumento per monitorare e ottimizzare la sostenibilità dei processi aziendali (consumo energetico, efficienza logistica, riduzione degli scarti), capitalizzando il potenziale analitico della tecnologia per gli obiettivi ambientali.
Includere la valutazione di sostenibilità nel processo di approvazione di nuovi use case AI: impatto ambientale, impatto sui lavoratori e compatibilità con gli impegni ESG dell'organizzazione.