- Rozes Ratio
- Posts
- Geopolitica degli algoritmi
Geopolitica degli algoritmi
Obiettivi di oggi:
— Algoritmi, sovranità e potere: la nuova competizione dell’AI
— Garbage in: garbage out
— Dati, dati ovunque
Numero 6
Ratio vos salutat.
"Ciò che gli esseri umani sono e diventeranno viene deciso attraverso la forma dei nostri strumenti non meno che attraverso l'azione di statisti e movimenti politici. La progettazione della tecnologia è quindi una decisione ontologica ricca di conseguenze politiche" Andrew Feenberg in Transforming Technology.
In questa citazione, Feenberg annienta il semplicismo con cui spesso si parla delle implicazioni sociali di una tecnologia o di un’altra. Suggerendo quindi di osservare a questi prodotti dell’ingegno umano non come semplici artefatti ma come sistemi. L’intelligenza artificiale è un sistema più complesso e unico di altri, in cui esiste un'interazione semiautonoma con la società in cui noi, esseri umani, lasciamo alla tecnologia la libertà di capire come adattarsi e gestire tali interazioni.
Da questa interazione semiautonoma dipende la capacità adattiva che rende queste tecnologie sostanzialmente inseparabili e dipendenti dalla società umana. L’IA, infatti, non incorpora solo le proiezioni e le intenzioni degli esseri umani: ne è completamente plasmata, assimilando cultura, valori e pregiudizi in un processo di progettazione continuo, che va dal design iniziale all'utilizzo finale.
Questa osmosi comporta rischi strutturali. Ad esempio, lo studio Towards Measuring the Representation of Subjective Global Opinions in Language Models rileva marcati bias geografici: i modelli linguistici standard replicano opinioni e stereotipi tipici di USA, Canada e Australia, anche se interrogati in lingue diverse, sovrascrivendo le prospettive locali con una visione occidentale generalizzata.
L'affidabilità richiede dunque iperspecializzazione. Per abbattere bias e falsi positivi occorre focalizzarsi sulla qualità del dato: preprocessing, pulizia, normalizzazione delle scale e rimozione di duplicati o anomalie. Solo il rigore nel trattamento degli input garantisce l'equità dell'output.
In questo numero approfondiremo il tema facendoci dare una panoramica generale dei blocchi di potere algoritmici globali da Beniamino Irdi, la nostra bussola geopolitica, e un tuffo nei dettagli tramite l’occhio scientifico della dottoressa Lisa Milan, del team Rozes.
Buona lettura.
Kevin Carboni | Ufficio stampa Rozes |
Grandi numeri
380.000.000
Si tratta del totale di persone che usano quotidianamente strumenti basati sull’intelligenza artificiale nel 2025, quasi 70 milioni in più rispetto all’anno precedente, secondo AltIndex.
Algoritmi, sovranità e potere: la nuova competizione dell’Ai

Mentre l'Occidente delega al mercato, Pechino ha trasformato l'intero stack tecnologico in una dottrina di Stato. Beniamino Irdi, Non Resident Fellow presso l’Atlantic Council e CEO di High Ground, political risk consultancy partner per Rozes, disseziona per noi lo scontro geopolitico innescato dalla corsa mondiale agli algoritmi, offrendo una panoramica su due metodi contrapposti, in cui il modello neoliberale fatica a pareggiare un sistema pianificato.
La competizione globale sull’intelligenza artificiale non si gioca più soltanto sul piano dell’innovazione, ma sull’intero AI stack: dalla raccolta e organizzazione dei dati al loro stoccaggio, dalla potenza di calcolo ai modelli di base, fino all’integrazione nei prodotti, nei servizi e nei sistemi decisionali. La sfida non riguarda solo la qualità degli algoritmi ma il controllo end-to-end dell’infrastruttura che li regge: gestione dei dati, produzione di semiconduttori, disponibilità energetica e capacità di cloud computing. È in questo spazio che si definisce una nuova declinazione della sovranità nazionale, non più ancorata soltanto a confini e risorse fisiche ma a modelli, dati, standard e capacità computazionale. Rafforzare il controllo sugli ecosistemi algoritmici diventa così un imperativo strategico per contenere dipendenze critiche e prevenire vulnerabilità strutturali.
Lungo questa nuova linea di faglia si confrontano Stati Uniti e Cina, secondo modelli molto diversi. Washington continua a privilegiare un approccio trainato dal settore privato, dall’innovazione delle big tech e dall’afflusso di capitali, mentre Pechino persegue una strategia di pianificazione statale, basata su investimenti diretti, integrazione civile-militare, costruzione di una filiera domestica autosufficiente e promozione di modelli open-source a basso costo nei Paesi in via di sviluppo. Questa differenza riflette due visioni opposte di potere, controllo e legittimità. Gli algoritmi diventano così uno strumento di soft power, veicolo non solo di sviluppo tecnologico, ma anche di norme implicite, criteri di classificazione, priorità informative e logiche decisionali.
Sebbene le democrazie occidentali abbiano storicamente beneficiato di un vantaggio strutturale fondato su libertà, pluralismo e competizione, questo assetto sembra oggi meno adatto a rispondere a una competizione che premia coordinamento strategico, velocità decisionale e integrazione verticale tra pubblico e privato. Quel modello, che per secoli ha garantito alle società democratiche un ambiente fertile per la ricerca e l’innovazione grazie allo stato di diritto e alla tutela della proprietà, appare oggi in rapido assottigliamento, soprattutto in Europa, dove la frammentazione dei dati, la dispersione delle risorse e l’assenza di una visione strategica unitaria stanno progressivamente erodendo la nostra capacità di competere.
Nel frattempo, ha preso forma una “formula” alternativa che combina strumenti della libertà economica con un dirigismo top-down capace di garantire coerenza e allineamento strategico tra pubblico e privato: una prima grande asimmetria nella competizione tra i due modelli di governance. I dati dell’Hamilton Index, un indice che monitora la quota di mercato per Paese in dieci settori industriali strategici, mostrano chiaramente questo scarto: dal 1995 la quota cinese della produzione industriale in questi comparti è cresciuta dal 3 al 25%, mentre quella dei Paesi OCSE è scesa dall’85 al 58%. La Cina oggi domina 7 dei 10 settori chiave dell’indice e presenta un tasso di specializzazione superiore del 70% rispetto agli Stati Uniti, segnalando una capacità significativamente maggiore di orientare la propria economia verso ambiti coerenti con i propri obiettivi strategici.
In sintesi, la Cina si è dimostrata molto più efficace rispetto ai Paesi OCSE nel dirigere la propria economia verso settori funzionali al proprio interesse nazionale. E tutto questo è avvenuto prima ancora dell’esplosione dell’intelligenza artificiale. Oggi, la capacità di raccogliere dati su scala massiva - dai flussi commerciali tracciati nei porti, alla salute individuale, fino alle abitudini di consumo rilevate da app e social media - apre a un ulteriore salto di qualità: quei dati possono essere trasformati in inferenze macro, a loro volta traducibili in politiche industriali di lungo periodo.
Alcuni dei nostri competitor sembrano aver dunque trovato una soluzione gerarchica ed “elegante” al rapporto tra pubblico e privato, capace di garantire un vantaggio strutturale ma incompatibile con i principi dei sistemi democratici. Questo ci costringe a individuare un modello alternativo, mentre il crescente peso delle grandi piattaforme tecnologiche occidentali tende più a spostare potere dalle istituzioni che a rafforzarle. Ridefinire in profondità le relazioni tra Stato e mercato nelle democrazie avanzate diventa quindi una questione urgente e centrale, destinata a incidere non solo sulla sicurezza nazionale, ma sulla stessa sostenibilità del modello democratico così come lo conosciamo.
Garbage in: garbage out

La dottoressa Lisa Milan, sociologa e data scientist di Rozes, decostruisce il mito dell'infallibilità algoritmica: nutrire modelli avanzati con dati "sporchi" significa soltanto automatizzare il pregiudizio su larga scala. La vera innovazione non risiede nella potenza di calcolo generalista, ma nella maniacale pulizia del dato e nella necessaria, insostituibile, supervisione umana.
C’è una regola aurea che, dalla prima lezione, viene tramandata a chiunque si avvicini al mondo dell’analisi dati: “garbage in, garbage out”. In altre parole una macchina che riceve dati di scarsa qualità restituirà inevitabilmente risposte di valore altrettanto scarso. Questo concetto si applica a tutti i processi che coinvolgono algoritmi statistici, i quali devono basarsi su informazioni adeguate per fornire risposte precise e affidabili.
Questo principio non fa eccezione nemmeno per le "Intelligenze Artificiali", inclusi i Large Language Models, essenzialmente modelli computazionali addestrati a generare sequenze di parole basandosi su probabilità statistica e relazioni semantiche appresi da enormi quantità di testo. Tutti questi meccanismi, per quanto avveniristici, risentono dello stesso punto debole: dati incompleti, mal compilati, sbilanciati.
Se utilizzati senza contromisure, rischiano di trasferire i propri difetti sotto forma di bias. Guardando ai risvolti pratici e sociali, è inevitabile pensare che un modello AI per la selezione del personale allenato su curriculum di assunzioni passate possa perpetuare discriminazioni storiche, favorendo candidati con profili simili a quelli già privilegiati in precedenza. (Si veda come caso studio l’esempio dell’algoritmo addestrato da Amazon per la selezione del personale che ha escluso di default tutte le candidate donne)
È proprio qui che emerge l'importanza cruciale del data preprocessing e della pulizia del dato, operazioni che devono precedere qualsiasi implementazione algoritmica. Identificare valori mancanti, normalizzare le scale, rimuovere duplicati e osservazioni anomale sono passaggi che trasformano dati grezzi in informazioni utilizzabili. Senza questo lavoro preparatorio, anche l'algoritmo più sofisticato è destinato a fallire.
Risulta dunque necessario demistificare l'aura di “tuttologia” che circonda i sistemi di AI e comprendere come possano essere realmente utili ai processi decisionali. Per limitare le loro fragilità e costruire sistemi affidabili, occorre passare da modelli generalisti a sistemi verticali, specializzati e addestrati su domini ristretti.
In questo contesto, l'approccio di supervisione e controllo decisionale umano (human-in-the-loop) riscopre il suo valore attraverso l'iniezione di conoscenze pregresse e del capitale scientifico presente in ciascun settore. Nel campo della medicina, ad esempio, l'integrazione dell'esperienza umana nel processo diagnostico è fondamentale: sebbene gli algoritmi siano in grado di analizzare i dati sanitari con notevole efficienza, i medici forniscono il contesto necessario, tengono conto della storia clinica del paziente e disambiguano dettagli difficili da cogliere per le macchine.
Lo stesso principio si applica al settore finanziario e alla prevenzione del rischio, dove gli esperti interpretano segnali ambigui, considerano fattori macroeconomici in evoluzione e riconoscono quando un'operazione apparentemente sospetta è in realtà legittima. Questa collaborazione tra capacità computazionale e giudizio umano garantisce non solo accuratezza, ma anche conformità normativa e responsabilità verso clienti ed enti regolatori.
Statistiche sull’AI

Un numero ve lo abbiamo già dato, ora ne daremo degli altri. Eccovi 10 statistiche sull’AI da tenere bene a mente.
244 miliardi di dollari: dimensione del mercato. Rappresenta un incremento del 31% rispetto all'anno precedente, con una previsione di crescita fino a 1.000 miliardi di dollari entro il 2031.
Il 78% delle organizzazioni utilizza l'AI. In crescita dal 55% dell'anno precedente, secondo lo Stanford HAI 2025 AI Index.
Il 90% degli ospedali usa l'AI per diagnosi e monitoraggio.
Il 92% degli studenti usa l'AI generativa. Un balzo netto dal 66% del 2024; il 18% ammette di aver consegnato lavori contenenti testo generato dall'AI.
Il 51% dei marketer usa l'AI generativa. Secondo un sondaggio Salesforce, con un ulteriore 22% che prevede di iniziare a breve.
Aumento del 56,4% degli incidenti dannosi legati all'AI.
Il 60% della popolazione mondiale vive in giurisdizioni coperte da legislazione sull'AI. Grazie all'approvazione di leggi in un numero crescente di paesi, il dato è salito dal 10-15% del 2020.
23 Gigawatt di elettricità per alimentare l'AI nel 2025. Un consumo equivalente a quello dell'intero Regno Unito.
Donne 3 volte più esposte al rischio di perdere il lavoro a causa dell’AI.
Rerum Publicarum

Iscriviti a Rozes|Publica:
il nostro canale divulgativo su WhatsApp dove ricevere i migliori aggiornamenti, notizie, report istituzionali o paper scientifici su AML, criminalità finanziaria, analisi del rischio, evasione fiscale e molto altro.
Il sondaggio del venerdì
Ti fidi dell'AI? |
Risultati dell’ultimo sondaggio: Che impatto ha l’IA nel contesto delle sanzioni internazionali?
💡Maggiore efficienza nella compliance (screening più rapidi, riduzione dei falsi positivi e analisi del rischio predittiva per le aziende) (100%)
🏴☠️Aumento del rischio di evasione (IA usata da attori sanzionati per mascherare transazioni, reti di proprietà o l'origine delle merci) (0%)
Iscriviti a Rozes|Ratio
Se hai ricevuto questa newsletter da amici, amiche, colleghi o colleghe clicca qui sotto per poterla di riceverla direttamente: