Conoscere come l’uomo, conoscere come la macchina

Una rilettura kantiana dell’intelligenza artificiale

Teresa Paciariello
Teresa Paciariello
Teresa Paciariello è docente di Filosofia e Storia al Liceo Scientifico “G. Marconi” di Parma. Si occupa di didattica interdisciplinare, filosofia dei valori ed educazione etica dei giovani nell’epoca della digitalizzazione, con particolare attenzione alle sfide poste dalla tecnologia alla formazione delle nuove generazioni.

La domanda filosofica di fronte all’intelligenza artificiale

Nel dibattito contemporaneo sull’intelligenza artificiale (AI) non è in gioco soltanto un problema tecnico o ingegneristico, ma una questione filosofica di fondo: che cosa significa conoscere? Le straordinarie capacità delle macchine nell’elaborare dati, generare testi, apprendere da esempi e interagire linguisticamente con gli esseri umani ci pongono di fronte a un interrogativo radicale: siamo davvero in presenza di una nuova forma di intelligenza, oppure di una simulazione sofisticata di processi umani?

Per affrontare questo interrogativo, è necessario tornare a uno dei momenti centrali della filosofia moderna: la riflessione di Immanuel Kant sul conoscere. Con la sua Critica della ragion pura (1781/87), Kant non si limita a descrivere ciò che l’uomo conosce, ma si interroga su come sia possibile la conoscenza in generale. Egli inaugura la filosofia trascendentale, ossia un’indagine sulle condizioni che rendono possibile ogni esperienza significativa.

Kant rivoluziona il paradigma gnoseologico affermando che la conoscenza non è una semplice impressione ricevuta dal mondo esterno, né una proiezione arbitraria del pensiero sul reale. Essa è il risultato di un’interazione strutturata tra intuizioni sensibili e forme pure del pensare, che risiedono nel soggetto stesso. In altre parole, il soggetto non si adatta passivamente al mondo, ma organizza attivamente l’esperienza secondo forme e categorie a priori, che precedono ogni dato empirico.

Conoscere, per Kant, significa costruire un mondo fenomenico, cioè un mondo come appare alla coscienza, e non come è in sé. La mente non è una finestra trasparente sulla realtà, ma un dispositivo sintetico che ordina, unifica e interpreta il molteplice dell’intuizione. Questo implica che ogni atto conoscitivo è anche un atto costitutivo del senso: senza il soggetto non vi è esperienza, e senza esperienza non vi è oggetto conosciuto.

La gnoseologia kantiana: strutture a priori e unità dell’esperienza

La forza della gnoseologia kantiana sta nell’aver mostrato che la conoscenza è possibile soltanto grazie a un insieme di strutture trascendentali, invarianti e universali, che appartengono al soggetto e non dipendono dall’esperienza. La mente umana, secondo Kant, non è una tabula rasa su cui il mondo scrive le sue tracce, né un intelletto puro che deduce la realtà dai concetti: è piuttosto un principio attivo che condiziona ogni esperienza possibile. È questa la celebre rivoluzione copernicana del pensiero kantiano: non è il soggetto a doversi conformare agli oggetti, ma gli oggetti — in quanto fenomeni — a essere resi possibili dalle forme del soggetto.

Kant distingue con chiarezza tra ciò che è dato (intuizioni sensibili) e ciò che è posto dal soggetto (categorie dell’intelletto). La sensibilità è la facoltà di ricevere passivamente le impressioni dall’esterno, organizzandole secondo le forme pure di spazio e tempo, condizioni a priori che rendono ogni percezione possibile. Lo spazio e il tempo non sono proprietà delle cose, ma modalità soggettive attraverso cui le cose ci appaiono. L’intelletto, invece, è la facoltà di pensare, che applica alle intuizioni le categorie universali come causalità, sostanza, unità e pluralità, trasformando il caos delle sensazioni in oggetti conoscibili. Infine, la ragione interviene come facoltà superiore, fornendo un orientamento sistematico all’intelletto grazie alle idee regolative di anima, mondo e Dio, pur non conoscibili empiricamente.

Questa architettura dà luogo alla “deduzione trascendentale delle categorie”: ogni esperienza è pensabile solo in quanto unificata nell’Io penso, cioè in un soggetto che, pur non essendo empirico, rende possibile la sintesi delle rappresentazioni. La conoscenza è quindi un atto intenzionale, sintetico e normativo, che presuppone autocoscienza, unità della percezione e condizioni universali della mente.

Questa unità, centrale per Kant, è ciò che manca radicalmente all’intelligenza artificiale. Per quanto sofisticati, i sistemi di AI non possiedono un soggetto trascendentale, né forme pure dello spazio e del tempo, né categorie universali. Essi producono correlazioni tra dati, ma non costruiscono fenomeni significativi. La macchina calcola senza conoscere; l’uomo conosce costruendo.

L’intelligenza artificiale: apprendimento statistico e assenza di soggettività

I sistemi di intelligenza artificiale contemporanei, specialmente quelli basati su reti neurali profonde e algoritmi di machine learning, mostrano una capacità impressionante di elaborare informazioni, individuare schemi ricorrenti e generare previsioni. Essi apprendono tramite l’elaborazione di enormi quantità di dati, regolando i propri parametri interni per minimizzare l’errore predittivo e massimizzare la coerenza degli output. Ma questa capacità di apprendimento rimane puramente statistica, priva di comprensione e intenzionalità.

In un sistema di AI, l’elaborazione dell’informazione è il risultato di una complessa funzione matematica che associa input e output. Durante la fase di addestramento, le reti neurali imparano a “riconoscere” pattern e a riprodurli, ma ciò avviene senza che la macchina sappia cosa sta facendo. Le sue categorie non sono a priori né universali, ma empiriche e derivate dai dati. Ogni modello è contingente rispetto al dataset che lo ha generato e non è in grado di generalizzare al di là di ciò che è contenuto in esso.

Questa mancanza di soggettività e di forme universali è esattamente ciò che distingue la macchina dall’essere umano. Nella prospettiva kantiana, l’intelletto non è un semplice meccanismo associativo: esso ordina il molteplice secondo leggi universali che rendono possibile l’esperienza. L’AI, invece, è incapace di sintesi trascendentale: essa non unifica le rappresentazioni sotto un Io penso, ma si limita a manipolare segni e dati. Il suo “sapere” è frammentario, privo di senso per il sistema stesso.

Già negli anni Settanta, Hubert Dreyfus aveva criticato la pretesa dell’AI simbolica di replicare la mente umana. Secondo Dreyfus, le macchine possono seguire regole formali, ma non possono comprendere perché la comprensione richiede un essere incarnato, situato in un mondo carico di significato. Questa critica è stata successivamente confermata da John Searle, che con il celebre esperimento della stanza cinese dimostrò che un sistema può manipolare simboli in modo coerente senza avere alcuna comprensione semantica di essi: la macchina è una sintassi senza semantica.

Anche le neuroscienze contemporanee ribadiscono che la mente umana non è solo calcolo predittivo, ma anche interpretazione situata. Teorie come quella del free energy principle di Karl Friston e del predictive coding di Andy Clark spiegano che il cervello umano anticipa la realtà e corregge i propri errori, ma sempre all’interno di un orizzonte di senso incarnato. L’AI, al contrario, opera nel vuoto semantico di relazioni statistiche: essa funziona, ma non comprende.

Neuroscienze, AI e la tensione tra previsione e intenzionalità

Un confronto particolarmente illuminante tra intelligenza artificiale e mente umana emerge dalle ricerche neuroscientifiche più recenti, che hanno indagato la dimensione predittiva del cervello. La teoria del cervello predittivo, elaborata da Karl Friston e sviluppata ulteriormente da Andy Clark, propone che la mente sia un sistema dinamico di inferenza bayesiana: il cervello costruisce continuamente modelli interni del mondo, anticipa gli stimoli sensoriali e corregge gli errori tra ciò che si aspetta e ciò che riceve. Questa continua minimizzazione dell’errore di previsione permette di generare un’esperienza coerente e un comportamento adattivo.

Questa prospettiva, inaspettatamente, sembra rispecchiare in parte l’intuizione kantiana che la mente non sia un mero specchio passivo della realtà, ma una struttura attiva che organizza il fenomeno. Le forme pure dello spazio e del tempo e le categorie dell’intelletto possono essere lette come schemi predittivi fondamentali che rendono possibile l’esperienza. La mente umana, così concepita, è già predisposta a costruire una rappresentazione significativa del mondo, senza mai accedere alla cosa in sé.

Ma proprio qui si colloca la distanza essenziale tra il cervello e la macchina. Le neuroscienze, pur riconoscendo la dimensione predittiva della mente, sottolineano che questo processo è sempre radicato in un corpo incarnato, situato in un ambiente e orientato a scopi che vanno oltre la semplice ottimizzazione di un algoritmo. Il sistema predittivo umano è attraversato da emozioni, desideri, finalità che la pura previsione algoritmica non può riprodurre.

Questo limite dell’AI è stato analizzato acutamente da Hubert Dreyfus, che, richiamandosi a Martin Heidegger e a Maurice Merleau-Ponty, ha affermato che la conoscenza non è un insieme di regole esplicite, ma una pratica pre-riflessiva, incarnata e contestuale. Il corpo, come “essere-nel-mondo”, è la condizione di possibilità per qualsiasi esperienza di senso. L’AI, per quanto potente, opera in un dominio puramente formale e astratto, senza alcun rapporto esistenziale con ciò che elabora.

In questa prospettiva, anche la mente predittiva, per quanto simile nelle apparenze a un algoritmo di machine learning, si distingue radicalmente: essa non è solo previsione statistica, ma anche comprensione intenzionale. La macchina può calcolare, ma non può vivere; può prevedere, ma non può orientarsi nel mondo come un soggetto incarnato.

Tra calcolo e senso: l’intelligenza come orientamento etico

Una distinzione ancora più netta tra conoscenza umana e intelligenza artificiale emerge se si considera la finalità del conoscere. In Kant, la ragione non è solo la facoltà che unifica il fenomeno sotto concetti e categorie, ma anche quella che orienta l’azione verso fini morali. La conoscenza umana è sempre inserita in un orizzonte etico: essa non si limita a descrivere e prevedere, ma giudica, attribuisce valore, definisce scopi. È la ragione pratica a fondare l’autonomia del soggetto e la sua capacità di agire secondo principi universali, sintetizzati nell’imperativo categorico: “Agisci in modo che tu possa volere che la massima della tua azione diventi una legge universale.”

L’intelligenza artificiale, al contrario, è progettata per ottimizzare. I sistemi di AI minimizzano errori, massimizzano performance, ma non si interrogano sul senso di ciò che fanno né sul valore delle loro azioni. Le decisioni che produce non sono espressione di un giudizio morale, ma di una funzione obiettivo definita dall’esterno. La macchina può simulare un ragionamento morale, ma non ne coglie il fondamento: le manca la coscienza normativa che caratterizza la ragione umana.

Luciano Floridi, uno dei più autorevoli filosofi contemporanei dell’informazione, ha sottolineato la necessità di sviluppare un’etica dell’infosfera, una serie di regole per governare l’uso delle tecnologie digitali e garantire che esse restino strumenti a servizio dell’uomo. Per Floridi, il rischio non è tanto che le macchine “diventino coscienti”, quanto che l’uomo deleghi loro la propria responsabilità, trattandole come soggetti invece che come mezzi. La pretesa di attribuire all’AI una coscienza o una volontà propria è, in realtà, una rinuncia alla nostra autonomia morale.

La filosofia kantiana ricorda che l’essere umano deve restare fine e mai solo mezzo, e che la libertà e la responsabilità sono inalienabili. In un mondo pervaso da algoritmi sempre più potenti, occorre riaffermare che il calcolo non sostituisce il senso e che la previsione non è ancora comprensione. Il soggetto morale rimane insostituibile perché è l’unico in grado di attribuire significato agli atti e di rispondere delle proprie azioni davanti a un orizzonte universale.

Conoscere come libertà: la centralità del soggetto nell’epoca dell’AI

La riflessione sulla gnoseologia kantiana e le critiche fenomenologiche e contemporanee all’intelligenza artificiale convergono su un punto essenziale: la macchina non conosce. Essa è capace di elaborare dati, riconoscere schemi, simulare linguaggio, ma non di unificare le rappresentazioni sotto un io penso, né di costruire fenomeni significativi. La sua “conoscenza” resta un’elaborazione funzionale priva di soggettività, una sintassi senza semantica, un calcolo senza comprensione.

Il conoscere umano, invece, è sempre un atto di libertà. La ragione, nella sua dimensione pratica e teoretica, è ciò che consente all’uomo di attribuire senso alla propria esperienza, di orientare la conoscenza verso il bene e di giudicare eticamente le proprie azioni. Questa libertà non è un accessorio, ma la condizione stessa della conoscenza: senza la possibilità di scegliere, interpretare e finalizzare, il conoscere si riduce a mera registrazione di correlazioni, cioè a ciò che fa una macchina.

In un mondo in cui le tecnologie intelligenti sono sempre più pervasive e sofisticate, il compito della filosofia è riaffermare la distinzione tra simulazione e realtà, tra calcolo e senso, tra funzione e significato. Affidare all’algoritmo compiti decisionali senza consapevolezza critica significa abdicare alla nostra responsabilità morale e rinunciare alla nostra umanità.

Kant, nella Critica della ragion pratica, ci ammonisce: “Agisci in modo che tu possa volere che la massima della tua azione diventi una legge universale.” Questa massima, oggi, ci invita a non illuderci che la conoscenza possa essere esternalizzata a sistemi automatici, ma a mantenere la consapevolezza che conoscere è sempre un atto che ci impegna in quanto persone, libere e responsabili.

Conoscere non è solo prevedere, ma comprendere; non è solo correlare, ma interpretare; non è solo funzionare, ma vivere. Nessuna macchina potrà mai sostituire la libertà che fonda il soggetto umano e fa della conoscenza un’esperienza di senso e di verità.

Bibliografia

Testi classici sulla gnoseologia

  • Kant, I. (1781/1787) Critica della ragion pura. Ed. italiana a cura di P. Chiodi, 2006, UTET, Torino
  • Kant, I. (1788), Critica della ragion pratica, Ed. italiana a cura di P. Chiodi, 2006, UTET, Torino
  • Husserl, E. (1913). Idee per una fenomenologia pura, 2002, Einaudi, Torino.
  • Heidegger, M. (1927), Essere e tempo, 2005, Longanesi, Milano
  • Merleau-Ponty, M. (1945), Fenomenologia della percezione, 2003, Bompiani, Milano 

Filosofia della mente e critica all’AI

  • Dreyfus, H. L. (1972), What Computers Can’t Do: A Critique of Artificial Reason, MIT Press.
  • Dreyfus, H. L. (1992), What Computers Still Can’t Do: A Critique of Artificial Reason, MIT Press.
  • Searle, J. R. (1980), “Minds, Brains and Programs”, Behavioral and Brain Sciences, 3(3), 417–457.
  • Dennett, D. (1991), Consciousness Explained, Little, Brown.
  • Chalmers, D. J. (1996) The Conscious Mind: In Search of a Fundamental Theory, Oxford University Press.

Neuroscienze e intelligenza predittiva

  • Friston, K. (2010), “The free-energy principle: a unified brain theory?”, Nature Reviews Neuroscience, 11(2), 127–138.
  • Clark, A. (2016), Surfing Uncertainty: Prediction, Action, and the Embodied Mind, Oxford University Press.

Filosofia dell’informazione e etica dell’AI

  • Floridi, L. (2014), The Fourth Revolution: How the Infosphere is Reshaping Human Reality. Oxford University Press, trad. Ita. La quarta rivoluzione: come l’infosfera sta trasformando il mondo, 2017, Raffaello Cortina Editore, Milano
  • Floridi, L. (2016), The Ethics of Information, Oxford University Press.
  • Bostrom, N. (2014), Superintelligence: Paths, Dangers, Strategies, Oxford University Press.
Teresa Paciariello
Teresa Paciariello
Teresa Paciariello è docente di Filosofia e Storia al Liceo Scientifico “G. Marconi” di Parma. Si occupa di didattica interdisciplinare, filosofia dei valori ed educazione etica dei giovani nell’epoca della digitalizzazione, con particolare attenzione alle sfide poste dalla tecnologia alla formazione delle nuove generazioni.
spot_img
spot_img

Ultimi articoli