Convivere con l’AI grazie alla formazione tecnico-umanistica

Image

Convivere con l’AI grazie alla formazione tecnico-umanistica

Negli ultimi tempi, partecipando come relatore a diversi dibattiti pubblici sull’intelligenza artificiale, mi è capitato spesso di confrontarmi con il lato più umano e culturale di questa trasformazione tecnologica.

Proprio da questi scambi è nata l’esigenza di mettere ordine nei pensieri, raccoglierli e provare a condividerli in questo articolo, non con l’ambizione di offrire risposte definitive, ma con la speranza di stimolare riflessioni utili, dubbi, magari nuove domande.

Perché convivere con la AI non è solo una questione tecnica ma è una questione profondamente umana.

L’intelligenza artificiale non è più soltanto uno strumento da usare… sta diventando qualcosa di più… intendo un’infrastruttura invisibile che modella il nostro modo di lavorare, comunicare, apprendere, persino di decidere. In poche parole un nuovo ambiente in cui viviamo.

Ho visto e vissuto appieno il cambiamento sociale e culturale trasportato da tutto quello che definiamo informatica. Che ci crediate o meno, ricordo ancora chiaramente, come fosse ieri, la prima volta che vidi un Commodore 64. Era in un negozio della via principale della mia città, dove il proprietario aveva esporto quella magica macchina ad incantare (forse) per primi noi bambini. Il mio primo PC arrivò a 14 anni, in occasione della mia entrata all’istituto tecnico superiore della mia città, immediatamente da bravo NERD ho iniziato a fare le prime nottate di programmazione in QBasic su MSDOS. Poi internet ha cambiato tutto, il nostro rapporto con le informazioni e la facilità nel reperirle. Adesso tocca all’AI che sta cambiando il nostro rapporto con la conoscenza e con le scelte.

Ora dobbiamo convivere con la AI e per gestire uno strumento così ingombrante serve una formazione diversa, una formazione che metta insieme competenze tecniche e umanistiche, scienza e coscienza, codici e valori.

Perché non basta solo la tecnica

Chi lavora con l’intelligenza artificiale deve certamente conoscere dati, algoritmi, modelli. Ma non è sufficiente. È altrettanto importante chiedersi chi controlla questi strumenti? A chi portano vantaggi? Quali valori incorporano? E quali disuguaglianze potrebbero accentuare?

Mentre alcuni di noi raggiungono livelli di produttività impensabili spendendo pochi dollari al mese su strumenti AI avanzati, molte persone non sanno nemmeno cosa sia, davvero, l’intelligenza artificiale. E non parliamo solo delle zone del mondo prive di infrastrutture. Il divario è anche sotto casa. È il nostro vicino con l’iPhone di ultima generazione che sa usare solo WhatsApp e TikTok. È il collega che lavora con strumenti digitali senza comprenderne il funzionamento. È il nuovo “gap tecnologico” che non si vede, ma che cresce ogni giorno. Silenzioso, trasversale, inedito.

Ecco perché serve una visione più ampia. Ogni tecnologia, anche la più sofisticata, non è mai neutrale. Riflette scelte, priorità, visioni del mondo. Senza una base umanistica fatta di etica, filosofia, sociologia, pensiero critico rischiamo di vedere solo la superficie, di progettare strumenti “efficienti”, ma socialmente ciechi, di costruire soluzioni brillanti, ma profondamente ingiuste.

Perché non basta solo l’umanesimo

Dall’altro lato, parlare di AI solo in termini astratti senza conoscere un minimo di come funziona è altrettanto pericoloso. Si rischia di cadere in miti e paure infondate, oppure di restare fuori dai luoghi dove si prendono decisioni importanti come le aziende e le istituzioni.

Chi ha una formazione umanistica oggi deve anche saper dialogare con ingegneri, data scientist, programmatori. Capire i limiti e le possibilità della tecnologia, distinguere tra realtà e finzione, tra ciò che la AI può davvero fare e ciò che ancora resta (e forse resterà sempre) umano.

Cos’è una formazione tecnico-umanistica?

Non è solo mettere un corso di etica accanto a uno di informatica ma è imparare a pensare in modo integrato. Significa, ad esempio, che chi progetta un’app basata su AI si chiede fin dall’inizio che impatto sociale avrà! Quali valori promuove? I valori che promuove sono sostenibili? Sostenibili come?

È un’educazione che sviluppa doppie competenze, tecniche (sapere come funziona una AI), critiche (sapere quando e come usarla) ed etiche (sapere cosa è giusto fare). Voglio aggiungere anche la parola: ‘relazionali‘ (saper lavorare con gli altri, anche con chi ha visioni diverse).

Il ruolo di scuola, università e lavoro

Le istituzioni educative devono cambiare passo. La scuola dovrebbe proporre progetti interdisciplinari, in cui si intrecciano tecnologia e riflessione critica. Valutare non solo il risultato, ma anche il processo, in particolare come uno studente usa una AI, come ne discute, come la migliora.

L’università dovrebbe diventare un laboratorio di incontro tra saperi. Non bastano più percorsi separati, servono formazioni ibride, in cui chi studia informatica si confronta anche con l’etica, la filosofia e le scienze sociali. Chi proviene dal mondo umanistico acquisisce familiarità con la logica del codice, con i dati e con il funzionamento degli algoritmi.

Allo stesso tempo, il mondo del lavoro deve riconoscere che la formazione non può essere una tappa che si esaurisce prima di entrare in azienda. Le tecnologie evolvono rapidamente, ma i principi etici e i valori fondamentali restano, la formazione continua serve a tenere insieme questi due ritmi diversi, aggiornando le competenze tecniche senza perdere la direzione umana.

Certo, non è solo una questione di offerta formativa o di strategie aziendali, ci sono anche le attitudini individuali. Non è scontato che un informatico si appassioni alla filosofia, né che un umanista si metta a studiare linguaggi di programmazione. Spesso si tratta di mondi con interessi diversi, quando non proprio divergenti.

Ma le cose possono cambiare. Magari questa generazione è ancora figlia della separazione tra “scienza” e “umanesimo”, ma la prossima se accompagnata da un’educazione più integrata potrebbe crescere più curiosa, più trasversale, più capace di abitare i confini tra i saperi invece di evitarli.

Perché sì, un umanista può imparare a scrivere codice, e un informatico può scoprire una passione per la filosofia a condizione che non siano costretti a scegliere tra percorsi separati e incompatibili, ma messi nelle condizioni di coltivare entrambi gli sguardi, senza rinunciare né alla profondità né alla concretezza.

Convivenza, non sudditanza

C’è chi immagina un futuro in cui l’intelligenza artificiale prenderà tutte le decisioni al posto nostro. E c’è chi, al contrario, la demonizza come una minaccia da cui difendersi a ogni costo. Entrambe le visioni sono pericolose, perché si basano su reazioni estreme, la delega cieca o il rifiuto totale.

La vera sfida, invece, è convivere con la AI in modo critico. E questo richiede una cosa che oggi sembra rivoluzionaria: pensare. Pensare è faticoso (sì lo voglio scrivere senza filtri), ma indispensabile. Pensare a quando e come usare l’intelligenza artificiale, dove può davvero essere utile, e dove invece va rifiutata con fermezza, nel caso metta a rischio diritti, dignità o giustizia.

Non basta affidarsi alla classificazione dei rischi prevista dall’AI Act europeo. È un passo importante, certo, ma non sostituisce il giudizio umano. Alla fine, tutto torna lì, al ruolo dell’essere umano, che dovrebbe restare “al centro” non solo nei confronti della tecnologia, ma anche nella relazione con gli altri.

E forse, in fondo, questa non è una novità. È un principio che sentiamo ripetere da millenni, ben prima dell’arrivo del primo Commodore 64.

Già nella Grecia antica, filosofi come Platone e Aristotele si interrogavano sul rapporto tra strumenti e fini, tra mezzi e valori. L’arte del fare, era considerata nobile solo se al servizio di un fine giusto, non quando diventava fine a sé stessa. Non bastava saper costruire ma bisognava anche chiedersi perché, per chi, con quali conseguenze.

L’idea che la tecnologia debba servire l’uomo, e non il contrario, è dunque antica. Ma proprio per questo va ripresa, riletta, aggiornata. E soprattutto, va praticata oggi, nell’epoca in cui la potenza degli strumenti rischia di offuscare la centralità della persona.

Riflettiamoci, forse la vera innovazione oggi non è nella potenza di calcolo, ma nella qualità delle nostre scelte.

Se questo articolo ti è piaciuto restiamo in contatto su linkedin a: https://www.linkedin.com/in/andreatonin/

Banner

Releated Posts

Prompt che mettono la AI in discussione

Il problema raramente è “non avere informazioni”, ma averle giuste, coerenti e verificabili. Una fattura letta male, una…

DiByAndrea Tonin Apr 15, 2026

Bologna Children’s Book Fair: dove il libro incontra licenze, creatività e il digitale

Anche quest’anno siamo tornati alla Bologna Children’s Book Fair con quello sguardo un po’ doppio di chi ha…

DiByAndrea Tonin Apr 15, 2026

ComfyUI – Reference Conditioning

In ComfyUI (soprattutto con modelli come Flux) il Reference Conditioning è un nodo che permette di usare una…

DiByAndrea Tonin Apr 9, 2026

ComfyUI per generare anime: NewBie Image Exp0.1

NewBie Image (spesso indicato come NewBie-image-Exp0.1) è un modello text-to-image in stile anime/ACG pensato per generare illustrazioni con…

DiByAndrea Tonin Apr 9, 2026