“È ovunque. Nella stanza dove stai leggendo queste righe. Nella tua casella email, nei consigli di Netflix, nelle notifiche di Instagram. L’intelligenza artificiale non è un futuro che arriverà, ma un presente che ci abita già.” Come in Matrix, il film cult degli anni Duemila, è un mondo che ci è stato messo davanti agli occhi: è intorno a noi, invisibile eppure onnipresente.
Ma prima ancora di interrogarci su cosa può fare l’IA, forse dovremmo chiederci che cos’è davvero, come funziona, da dove nasce e quali implicazioni comporta. Perché solo con uno sguardo critico, solo ponendoci le domande giuste, possiamo sperare di utilizzarla in modo consapevole.
Le radici dell’intelligenza artificiale
Per capire l’IA bisogna tornare indietro, alle sue origini, o meglio alla sorgente principale da cui si alimenta: il web. E qui entra in gioco un nome fondamentale, quello di Tim Berners-Lee, l’inventore del World Wide Web. Il web, nella visione originaria, era uno spazio aperto, collettivo, pensato per condividere conoscenza. Oggi, invece, quell’enorme patrimonio di dati è diventato la miniera da cui le intelligenze artificiali generative estraggono valore.
Non è la macchina a creare dal nulla. È l’uomo, sono milioni di persone che negli anni hanno scritto articoli, post, guide, riflessioni. Tutto questo materiale è stato raccolto attraverso tecniche di scraping, cioè l’estrazione automatica di dati dal web. Una prassi tecnicamente efficace ma eticamente ambigua: chi ha scritto quei contenuti non lo ha fatto per “nutrire” un algoritmo, e ancor meno per generare profitto altrui.
Chi crea valore? E chi lo cattura?
Qui nasce una frizione: un bene comune è diventato carburante per il profitto privato. L’intelligenza artificiale sfrutta dati pubblici senza (ancora) meccanismi equi di compensazione o redistribuzione. Questo modello estrattivo, più simile a una miniera che a una comunità, pone una domanda centrale: chi sta guadagnando da tutto ciò? Chi viene lasciato fuori? Chi viene compensato e chi no?
La questione diventa ancora più evidente nel mondo delle arti visive. Le AI riescono a replicare stili di pittori e illustratori con tale precisione da confondere persino gli autori originali. Se posso generare un’immagine “alla Van Gogh” o “alla Zerocalcare“, cosa ne è del concetto di proprietà intellettuale? Di originalità? Di identità creativa?
La disparità informativa e il mito della trasparenza
Uno dei paradossi più inquietanti è che mentre a noi utenti si chiede massima trasparenza (accettare cookie, firmare privacy policy, condividere opinioni), le AI non condividono nulla del proprio funzionamento. Gli algoritmi sono black box: opachi, inaccessibili, governati da logiche interne ignote a chi li utilizza.
E così, mentre noi clicchiamo “accetta”, la responsabilità viene scaricata sull’utente, che diventa bersaglio del paradosso: sei tu che hai deciso, sei tu che hai scelto. Ma quanto è reale questa libertà? Possiamo davvero parlare di scelta se l’alternativa è tra accettare o rinunciare del tutto a un servizio?
L’illusione della semplicità
Le interfacce delle AI sono sempre più amichevoli, intuitive, “umane”. Ma questa semplicità maschera una realtà intricata. Più un’app è facile da usare, meno ci interroghiamo su cosa accade dietro le quinte. Questo ci porta a confondere l’efficienza con la neutralità. Ma l’IA non è un martello. Non è uno strumento inerte. Cambia, evolve, muta comportamento anche mentre lo utilizziamo, senza avvisarci.
E allora una domanda sorge spontanea: se l’IA cambia ogni giorno, se ogni sua risposta è diversa, come possiamo fidarci, comprenderla, governarla?
Obiettivi invisibili, scelte automatiche
La maggior parte delle intelligenze artificiali che usiamo ogni giorno non è costruita per i nostri interessi, ma per massimizzare l’attenzione, aumentare l’engagement, monetizzare il tempo. Nei social media, ad esempio, l’IA è progettata per tenerci dentro la piattaforma il più a lungo possibile. Il prezzo? Dipendenza, distrazione, omologazione.
Nel marketing digitale, l’algoritmo è re. Ma questo re non risponde al popolo, risponde all’azienda che l’ha costruito. E se questo algoritmo diventa l’unico accesso a contenuti, opportunità, informazioni, allora stiamo barattando la nostra autonomia cognitiva con qualche like in più.
Non è (solo) un problema ambientale
Spesso si critica l’IA per il suo impatto energetico, per la scarsa sostenibilità ambientale. Ma il nodo più urgente non è questo. O almeno, non solo. Il vero rischio è l’effetto sulle nostre relazioni, sulla nostra capacità di distinguere il vero dal falso, sull’identità personale e collettiva.
L’IA non è uno strumento neutro. Non è un oggetto passivo. È un artefatto di potere. E come tale va trattato. Va interrogato, regolato, discusso pubblicamente.
Il falso mito della responsabilità individuale
C’è chi sostiene che la responsabilità dell’uso dell’IA ricada solo sull’utente. Ma questa è una narrazione comoda, che sposta il peso dal sistema al singolo.
Chi sviluppa modelli di IA ha una responsabilità progettuale. Se un algoritmo propaga stereotipi o diffonde fake news, non è colpa dell’utente che ha digitato una domanda, ma del sistema che ha addestrato quel modello.
Allora la vera domanda è: con quali regole stiamo costruendo questo nuovo mondo? Perché il digitale non è uno strumento tra i tanti. È il contesto in cui viviamo. È una città, una cultura, un ambiente.
Una cittadinanza digitale consapevole
In questa città digitale, abbiamo bisogno di cittadini consapevoli, non solo di utenti passivi. Abbiamo bisogno di spirito critico, di disobbedienza costruttiva, di capacità di immaginare alternative.
L’intelligenza artificiale non può essere trattata come un oggetto. È un soggetto con cui convivere. Non possiamo rimuoverla dalla stanza, ma possiamo decidere come relazionarci con lei.
Più domande, meno risposte
Forse la più grande differenza tra noi e le macchine sta qui: loro offrono risposte, noi siamo capaci di fare domande. E l’umanità, la vera umanità, risiede proprio in questo.
Non serve una risposta per tutto. Anzi, talvolta è proprio nella domanda senza risposta che si cela il senso più profondo della nostra esistenza.
Allora continuiamo a porci domande. A sfidare la logica binaria del “accetta o lascia”. A immaginare alternative, anche imperfette. Perché solo così possiamo restare umani in un mondo di macchine.





