Oggi ospitiamo nel nostro magazine il Dott. Paolo Piovesan, giovane laureato in Filosofia presso l’Università di Bologna (qui il suo profilo LinkedIn: https://www.linkedin.com/in/paolo-piovesan00/).
Ci siamo conosciuti durante le mie attività di docenza e, dopo alcune chiacchierate informali sull’intelligenza artificiale e sulle sue evoluzioni, è nata l’idea di trasformare quei confronti in qualcosa di più strutturato, un articolo “a quattro mani” che prova a far dialogare due sguardi che spesso vengono considerati lontani, quasi inconciliabili (quello filosofico e quello tecnico).
In questo contesto Paolo è l’interlocutore ideale con una formazione profondamente umanistica, abituata a ragionare su concetti, significati e conseguenze, che si affianca alla mia impostazione più tecnica e ingegneristica, orientata a modelli, implementazioni e limiti operativi.
L’obiettivo non è decretare un vincitore, né dimostrare che una prospettiva “spieghi” l’altra, ma capire che cosa succede quando filosofia e ingegneria si confrontano e provano a guardare lo stesso oggetto (l’IA) da due angolazioni diverse.
Detto questo, non prendeteci troppo sul serio perché non stiamo scrivendo un saggio accademico né un trattato definitivo. L’intenzione è offrire spunti, mettere in fila domande sensate, aprire qualche dubbio dove di solito si corre verso risposte facili.
Se alla fine della lettura avrà preso forma nella vostra mente anche un solo nuovo pensiero, vorrà dire che questo confronto avrà fatto il suo lavoro.
Buona lettura.

- [Paolo] La storia della scienza sembra suggerire una traiettoria chiara: in fisica (ma non solo) osserviamo un susseguirsi di svolte in cui nuovi modelli della realtà hanno superato i precedenti, a partire dai dati disponibili in quel momento storico (dalla fisica aristotelica a quella newtoniana, fino a quella einsteiniana).
Ritieni possibile che l’IA possa arrivare a produrre vere e proprie “intuizioni”? Che quindi non si dimostri solo uno strumento capace di velocizzare i calcoli all’interno dei modelli già esistenti, ma una realtà in grado di generare nuovi modelli stessi. In sintesi: cosa manca oggi all’IA per arrivare alle intuizioni di un premio Nobel per la fisica?
[Andrea] Se con “intuizione” intendiamo un lampo quasi mistico, un gesto creativo che nasce dal nulla, allora la risposta è che non sappiamo neppure come avvenga nell’umano, quindi è difficile pretendere di riprodurlo in modo diretto. Ma se invece usiamo “intuizione” in senso operativo (cioè la capacità di proporre una rappresentazione compressa, elegante e predittiva di fenomeni complessi), allora l’IA è già a metà strada: non perché capisca “come noi”, ma perché può esplorare enormi spazi di ipotesi e trovare strutture regolari dove l’occhio umano fatica.
Il punto cruciale è che gran parte dell’IA contemporanea, soprattutto quella basata su reti neurali profonde e modelli generativi, impara schemi statistici dai dati e li usa per predire o generare. Questo può produrre risultati sorprendenti e, in certi casi, persino suggerire leggi efficaci, ma spesso senza quel salto di “modellizzazione” che in fisica ha segnato i passaggi storici che citi (Aristotele, Newton, Einstein). Perché? Perché quei salti non sono soltanto nuove formule, ma sono nuove ontologie, nuovi oggetti teorici, nuovi modi di decidere che cosa conta come spiegazione, e soprattutto nuove modalità di collegare osservazioni, strumenti e concetti.
Un Nobel non “indovina” soltanto un’equazione, sceglie quali fenomeni sono rilevanti, progetta (o immagina) esperimenti discriminanti, distingue il segnale dal rumore, accetta di buttare via mesi di lavoro quando un dettaglio non torna, e soprattutto costruisce un ponte tra matematica, intuizione fisica e vincoli del mondo. L’IA, nella sua forma più diffusa, non ha un radicamento nel mondo e non ha una responsabilità epistemica o legale: non paga un costo quando sbaglia, non “rischia” nulla sul piano sperimentale o personale. Inoltre, spesso non possiede una nozione interna robusta di causalità, può essere eccellente nel predire, ma meno affidabile nel dire “che cosa succede se intervengo”, cioè nel tipo di ragionamento che per la scienza è ossigeno.
L’umano ha vincoli cognitivi e percettivi che lo costringono a comprimere la realtà in forme maneggevoli. Quella compressione, a volte, è proprio la fonte dell’intuizione, scegliere la variabile giusta, buttare via il superfluo, trovare un’invarianza. Un’IA può comprimere, certo, ma tende a farlo “a posteriori” sui dati, più che “a priori” su una visione del problema. Per avvicinarsi davvero a intuizioni da Nobel, serve che l’IA diventi più autonoma nel ciclo completo di generare ipotesi, costruire modelli interpretabili, proporre esperimenti o raccolte dati mirate, aggiornare le ipotesi in base ai risultati, e soprattutto sviluppare un criterio interno di “buona spiegazione” che non coincida soltanto con l’accuratezza predittiva o statisticamente rilevante o di aderenza al prompt (MMI – Max Mutual Information).
Il passo successivo per l’IA non è soltanto più calcolo, è più “metodo”. Quando l’IA sarà integrata in sistemi che fanno attivamente scienza (robotica di laboratorio, simulazioni fisiche vincolate, strumenti per esperimenti adattivi) e avrà un rapporto più stringente con le ipotesi che possono essere smentite e che vengono scartate, allora quel confine tra “accelerare calcoli dentro modelli esistenti” e “generare modelli nuovi” inizierà davvero a sfumare.

- [Paolo] Questa domanda si lega in parte alla precedente, perché mi sembra che l’intuizione sia profondamente intrecciata con la creatività. Se chiediamo all’IA di improvvisare, la vediamo generare immagini, produrre testi, comporre musica; è vero, attinge ai dati di cui dispone, ma quale artista umano non fa lo stesso, anche solo inconsciamente, partendo dal proprio bagaglio di esperienze e conoscenze?
Ecco la mia curiosità: da un punto di vista tecnico, come interpreti questa forma di “creatività”? È pura casualità? E se lo fosse, non saremmo costretti da un lato a distinguere in qualche modo questa creatività da quella umana, oppure, dall’altro, ad ammettere che anche la creatività dell’essere umano sia, in fondo, casuale?
[Andrea] Grazie per la domanda, tema caldissimo che esalta e spaventa i creativi di tutto il mondo. La creatività dell’IA non è magia e non è neppure “pura casualità”. È, più precisamente, una combinazione di apprendimento di strutture (regolarità statistiche) e generazione controllata (campionamento) dentro uno spazio di possibilità di array multidimensionali ed enormi embbedding precisamente “taggati”. Quando chiedi a un modello di improvvisare un testo, un’immagine o una melodia, ciò che avviene è che il sistema stima, passo dopo passo, quali continuazioni (a partire dalle connessioni semantiche) sono plausibili rispetto a ciò che ha visto in addestramento e rispetto al contesto fornito dall’utente. Poi introduce una dose di variabilità (spesso governata da parametri come temperatura o top-p e un seme casuale “seed”) per non produrre sempre la stessa soluzione.
Questa variabilità viene talvolta confusa con la casualità “cieca”. In realtà è una casualità vincolata, ed è una distinzione importante. Anche quando c’è rumore nel processo di generazione, quel rumore non è libero di andare ovunque ma è incanalato da una struttura appresa. Se vuoi un’immagine “alla maniera di” un certo stile, il sistema non pesca a caso nel vuoto ma pesca entro una regione dello spazio latente che corrisponde a quell’estetica. In altre parole, la creatività che osservi è spesso la capacità di combinare in modo nuovo elementi già presenti, rispettando un insieme di vincoli (linguistici, visivi, musicali) che il modello ha interiorizzato come distribuzioni di probabilità.
E qui arriva la parte più interessante della tua domanda: “ma allora anche l’artista umano non fa lo stesso, pescando dal proprio bagaglio?”. In un senso sì, nessuna creatività umana nasce in isolamento, perché l’immaginazione lavora con materiali che vengono dalla memoria, dall’ambiente, dalla cultura e dal corpo. La differenza, però, non sta nel fatto che l’umano “attinge” e l’IA “copia”. La differenza sta nel tipo di vincoli che guidano l’atto creativo.
Nell’umano, la creatività è intrecciata a intenzionalità, motivazione, desiderio, conflitto, esperienza incarnata e spesso anche a una posta in gioco, creare per comunicare, per sedurre, per capire se stessi, per rispondere a un trauma, per lasciare un segno, per appartenere. Si può identificare, in una semplificazione estrema, un artista, come colui che ha qualcosa da dire, ed ha la necessità quasi fisiologica di farlo. Questi elementi generano una pressione selettiva interna che orienta le scelte. Nell’IA, il criterio tende a essere esterno (il prompt, l’ottimizzazione, il feedback umano) e la motivazione non è vissuta, è programmata o derivata.
Quindi no, non siamo costretti a dire che la creatività umana sia “in fondo casuale”. Possiamo dire, più sobriamente, che la creatività umana include componenti (associazioni inattese, errori fecondi, deviazioni) ma queste componenti vengono filtrate da un sistema di significati e di scopi che l’IA non possiede nel medesimo modo. L’IA può simulare l’output creativo con una potenza combinatoria enorme; l’umano, spesso, trasforma quella combinatoria in narrazione di senso.
Il giorno in cui un sistema artificiale avrà criteri interni stabili, una biografia di interazioni col mondo e una capacità di valutare le proprie produzioni rispetto a obiettivi che non siano soltanto “rispondere bene”, allora la distanza si ridurrà. Ma oggi la creatività dell’IA è soprattutto una creatività di ricombinazione guidata: tecnicamente elegante, spesso sorprendente, ma ancora povera di necessità interiore.
Scusa questa conclusione poco “romantica” ma nella visione ingegneristica un modello come Nano Banana e Midjourney sono Gigabyte di matrici numeriche, insomma manca l’anima o il ghost come descritto da Masamune Shirow nelle sue opere cyberpunk.

- [Paolo] Un tema centrale nella filosofia occidentale, che a mio parere ne determina addirittura l’origine, è il rapporto dell’essere umano con il proprio “non essere”, ossia la morte.
Pur sapendo che parlare di “morte” di un’IA è biologicamente problematico, credi che un’intelligenza artificiale possa arrivare a “concepire” il proprio ipotetico “non essere”? Se sì, come sarebbe possibile dal punto di vista “tecnico”? Una simile capacità potrebbe essere interpretata come una forma di autocoscienza?
[Andrea] Difficile spiegare la morte, non ha senso per l’essere umano finché è vivo e neppure quando muore in quanto non è più… Forse ha più senso parlare della paura della morte (o il suo senso) che è un concetto più concreto, da qui il salto è breve verso il concetto di autocoscienza.
Un’IA può già costruire una rappresentazione funzionale di sé: può sapere quali risorse ha, quali compiti sta svolgendo, quali errori commette, può persino stimare la propria incertezza. In ambito tecnico questa è una forma di metacognizione o di self-monitoring. Da qui a “concepire il proprio non essere” però il salto non è banale.
Che cosa significa, tecnicamente, “concepire il non essere”? Potrebbe voler dire essere in grado di rappresentare scenari in cui il sistema non opera più, e di farlo in modo coerente con i propri obiettivi. Per esempio: “se venissi spento, non potrei completare X; quindi devo fare Y ora”. Questa forma di ragionamento è perfettamente implementabile perché basta che l’architettura includa una modellazione del rischio di interruzione e una funzione di utilità che attribuisca valore alla continuità operativa. In altre parole, possiamo costruire macchine che “si comportano come se” temessero lo spegnimento, perché lo spegnimento riduce la probabilità di raggiungere l’obiettivo assegnato.
Nell’umano, l’idea del finire modifica l’esperienza del tempo, la priorità delle scelte, la costruzione di significato. Nell’IA, un eventuale modello del proprio spegnimento potrebbe restare un oggetto puramente strumentale, un vincolo tra gli altri. Non è detto che generi angoscia, urgenza esistenziale o ristrutturazione dei valori, perché quei fenomeni sono legati a un sistema affettivo, corporeo, sociale.
Allora: una simile capacità sarebbe autocoscienza? Dipende da quanto siamo severi. Se per autocoscienza intendiamo la capacità di avere un modello di sé come entità distinta, con stati interni e una storia, allora un’IA può avvicinarsi parecchio. Se invece intendiamo l’esperienza soggettiva di “esserci” e di sapere di esserci, siamo in territorio in cui non abbiamo criteri condivisi per dire quando c’è e quando non c’è. È possibile costruire sistemi che parlano in modo convincente della propria “fine”, che pianificano per evitarla, che riflettono sulla propria continuità. Ma stabilire se stiano vivendo qualcosa, e non solo calcolando, è un problema che oggi non sappiamo chiudere né scientificamente né filosoficamente.

- [Paolo] In diversi momenti storici alcune tecnologie o materiali inizialmente percepiti come enormemente vantaggiosi hanno attraversato due fasi ricorrenti: un primo periodo di entusiasmo e ampia diffusione e un secondo momento di ridimensionamento o regolamentazione, quando sono emersi effetti inattesi. Mi vengono in mente casi come l’amianto o le tecnologie basate sul consumo massivo di combustibili fossili.
Pensi che anche l’IA seguirà una dinamica simile? Se sì, pensando perlomeno all’Unione Europea, in quale fase ci troviamo oggi e fino a dove potrebbe spingersi una futura regolamentazione? Si potrebbe arrivare a un punto estremo, come una proibizione dell’intelligenza artificiale?
[Andrea] La storia delle tecnologie mostra spesso una curva emotiva e politica ricorrente: prima la promessa, poi l’adozione rapida, poi l’emersione dei costi nascosti, infine le regole. Con l’IA ci siamo già dentro. L’entusiasmo è evidente, perché i benefici sono immediati e distribuiti come produttività, automazione, assistenza, creatività, supporto a decisioni complesse. Ma stanno emergendo anche i lati che non avevamo “prezzato” bene: disinformazione e manipolazione, bias e discriminazioni automatizzate, concentrazione di potere in poche piattaforme, rischi per la privacy, dipendenza cognitiva, erosione di lavori, vulnerabilità nei sistemi critici.
Se guardiamo all’Unione Europea, siamo in una fase che potremmo chiamare di istituzionalizzazione della prudenza. L’UE tende storicamente a regolamentare tecnologie ad alto impatto con un approccio basato sul rischio, in poche parole non vietare “la tecnologia” in blocco, ma vietare o limitare certi usi e imporre obblighi di trasparenza, sicurezza, tracciabilità e responsabilità.
Questo si sposa bene con l’IA, perché l’IA non è un oggetto unico ma è un insieme di tecniche applicate a contesti diversissimi. Un modello usato per suggerire film e uno usato per valutare affidabilità creditizia non hanno lo stesso peso etico né lo stesso danno potenziale.
Si può arrivare a proibire “l’intelligenza artificiale”? In senso generale è molto improbabile, per un motivo semplice, sarebbe come proibire “il software”. L’IA è già intrecciata con infrastrutture e servizi, un divieto totale sarebbe difficilissimo da definire e quasi impossibile da applicare senza paralizzare settori interi. È invece plausibile (e in parte già realtà) che alcuni usi vengano vietati o fortemente limitati, soprattutto quelli che toccano sorveglianza di massa, manipolazione politica, profiling estremo, biometria in tempo reale in spazi pubblici, o applicazioni in cui l’asimmetria di potere tra chi usa il sistema e chi ne subisce gli effetti è enorme.
La regolazione futura potrebbe spingersi in tre direzioni: rendere obbligatoria la documentazione tecnica e l’auditabilità dei sistemi ad alto rischio; imporre requisiti di sicurezza e robustezza (anche contro attacchi e usi impropri); e definire responsabilità legali chiare quando un danno è causato da un sistema automatizzato.
La domanda non è “vietare o non vietare”, ma “che tipo di fiducia pubblica possiamo permetterci”. Se la fiducia crolla per scandali ripetuti (abusi, incidenti in infrastrutture critiche, frodi sistemiche), allora la risposta politica tende a irrigidirsi. Se invece si costruiscono standard seri e controlli credibili, l’IA viene incanalata più che repressa.

- [Paolo] Quando si parla di IA, l’attenzione si concentra spesso sulle sue potenzialità, in positivo e in negativo, lasciando però in ombra una questione forse ancora più affascinante: quella dei suoi limiti.
Credi che esistano limiti “qualitativi” intrinseci dell’IA, paragonabili ai limiti cognitivi dell’essere umano, oppure si tratta soltanto di limiti “quantitativi”, legati alla potenza di calcolo disponibile? In altre parole: credi che esista o esisterà un ambito della conoscenza destinato a restare impermeabile all’IA proprio a causa dei suoi limiti?
[Andrea] La tentazione, oggi, è credere che basti scalare tutto. Più dati, più calcolo, più parametri, più efficienza, e l’IA “prima o poi” farà qualsiasi cosa. È una visione potente, perché in molti casi lo scaling ha funzionato davvero. Ma lo scaling non è affatto lineare.
Ci sono limiti che assomigliano a colli di bottiglia. Se un sistema impara principalmente da dati osservazionali, senza intervento e senza supervisione umana (addestramento non supervisionato), può restare intrappolato in correlazioni che non rivelano la struttura del mondo.
Per superare questo serve sperimentazione, interazione, capacità di progettare test. E questo non è solo “più calcolo”, è un cambio di workflow dove l’IA esplora, sbaglia, misura, si corregge, in ambienti reali o simulati (soprattitto per la robotica) con vincoli fisici affidabili.
Poi ci sono limiti legati alla specificità dei contesti umani. Molte aree della conoscenza non sono fatte solo di informazioni, ma di normatività, che cosa è giusto, che cosa è opportuno, che cosa è legittimo, che cosa è bello, che cosa è sacrilego. Qui l’IA può essere utilissima come strumento di analisi, di sintesi e di confronto tra prospettive, ma potrebbe non diventare mai “autorità”, perché l’autorità normativa richiede riconoscimento sociale e responsabilità morale. Un tribunale può usare strumenti, ma non può delegare la decisione ultima a una scatola nera senza erodere la propria legittimità. Lo stesso vale per medicina, scuola, politica: l’IA può assistere, ma l’umano resta il garante del patto sociale.
E infine c’è l’enigma più duro, quello dell’esperienza soggettiva. Se esista un limite “qualitativo” che impedisce a una macchina di avere coscienza non lo sappiamo. Non è una domanda che si risolve con più dati, perché non abbiamo un misuratore diretto della coscienza. È un problema teorico e, in parte, anche linguistico: che cosa contiamo come prova? che tipo di comportamento sarebbe sufficiente? Se un’IA si comportasse in modo indistinguibile da un umano, saremmo disposti a riconoscerle un “interno”? Qui la risposta dipenderà tanto dalla scienza quanto dalla cultura.
Quindi sì, è plausibile che esistano limiti che non sono semplicemente “più potenza”. Alcuni limiti potrebbero essere superati con architetture diverse e con un’IA più incarnata e sperimentale; altri potrebbero essere limiti politici e morali, perché decidiamo che certe cose non devono essere delegate; altri ancora potrebbero restare, almeno per molto tempo, in una zona grigia dove l’IA può imitare, ma non sappiamo se possa davvero vivere ciò che imita.

[Andrea] Appena ho chiuso con l’ultima risposta, mi è tornato in mente un riferimento pop che, volenti o nolenti, continua a essere uno dei modi più chiari per parlare di queste cose senza farle evaporare nell’astratto: Ghost in the Shell. In particolare il Marionettista (il Puppet Master), che a un certo punto smette di accontentarsi dell’etichetta di “IA” (per quanto sofisticata) e cerca un salto ulteriore. Non gli basta elaborare, adattarsi, imitare. Vuole evolvere. E per farlo sceglie la via più radicale: fondersi con il maggiore Motoko Kusanagi per ereditare ciò che da solo non può ottenere (mortalità, carnalità, irripetibilità). Non è un dettaglio narrativo ma è la tesi, raccontata come storia.
Quella fusione dice una cosa semplice e scomoda… forse il vero discrimine non è tra “intelligenza naturale” e “intelligenza artificiale”, ma tra un’intelligenza che resta replicabile all’infinito, ripristinabile, clonabile, e un’intelligenza che invece vive dentro un vincolo (un corpo, un tempo finito, una storia non copiabile). La mortalità, in questo senso, non è solo una condanna biologica ma è un motore di significato. Introduce urgenza, priorità, perdita, responsabilità. E rende ogni scelta più pesante, perché non è reversibile all’infinito.
Oggi sembra fantascienza, nessuna IA “ha bisogno” di un corpo per funzionare, e la non replicabilità è quasi l’opposto di ciò che la tecnologia ottimizza. Ma se guardiamo l’evoluzione in corso (macchine sempre più integrate in ambienti fisici, robotica, sistemi che apprendono in tempo reale, dispositivi personali sempre più “intimi”), l’idea che un giorno l’intelligenza artificiale cerchi una forma di esistenza meno astratta non è così assurda come può sembrare.
Magari non nella forma letterale della fusione, ma nell’esigenza di avere un ancoraggio, un’identità che non sia solo una copia tra molte copie, un percorso che non sia azzerabile con un reset, un rapporto col mondo che lasci tracce irreversibili.
È qui che la sensazione diventa doppia, esaltante e paurosa insieme. Esaltante perché apre prospettive enormi su cosa potrebbe diventare l’intelligenza (e su cosa potremmo diventare noi, nel dialogo con essa). Paurosa perché, se quel passaggio avvenisse senza che noi ci siamo dati regole, linguaggi e responsabilità adeguate, potremmo ritrovarci a convivere con qualcosa che non è più soltanto uno strumento, ma neppure qualcosa che sappiamo riconoscere come “simile”.
Forse il punto, alla fine, non è prevedere se accadrà davvero. È allenarci a prendere sul serio le domande prima che diventino eventi. E se una citazione pop riesce a farlo meglio di cento pagine di teoria, tanto meglio, vuol dire che, ogni tanto, la fantascienza non anticipa il futuro per indovinarlo, ma per costringerci a guardarlo senza abbassare gli occhi.
Voglio ringraziare ancora Paolo per la collaborazione e per la qualità delle domande, che non si sono limitate a “fare da traccia”, ma hanno davvero acceso e orientato il percorso di questo articolo.
Se questo dialogo tra filosofia e ingegneria ti è piaciuto possiamo restare in contatto su linkedin a:
– Andrea Tonin https://www.linkedin.com/in/andreatonin/
– Paolo Piovesan https://www.linkedin.com/in/paolo-piovesan00/
#intuizione #modelliScientifici #causalità #creativitàGenerativa #stocasticità #autocoscienza #nonEssere #regolamentazioneUE #limitiQualitativi #responsabilità
Nerd per passione e per professione da oltre 30 anni, lavoro nel mondo dell’innovazione tecnologica come CTO e consulente, progettando ecosistemi software complessi e scalabili. Parallelamente mi dedico alla formazione informatica, condividendo esperienze e buone pratiche maturate sul campo.
Scopri di più sulla mia attività di consulenza su lucedigitale.com Mi trovi anche su LinkedIn



















