L’Intelligenza Artificiale, o più semplicemente IA, sta rivoluzionando il modo in cui pensiamo, apprendiamo e interagiamo con la realtà.

Una delle ultime frontiere di questa trasformazione è la nascita di un nuovo tipo di pensiero, chiamato “sistema 0”, che potrebbe rappresentare un cambiamento epocale. Questo concetto, discusso sulla rivista Nature Human Behaviour da un gruppo di esperti coordinato dall’Università Cattolica di Milano e Brescia, suggerisce un sistema di pensiero ibrido che si posiziona accanto ai modelli mentali umani già noti: il pensiero rapido e intuitivo (sistema 1) e il pensiero lento e analitico (sistema 2).

Intelligenza Artificiale come funziona

L’Intelligenza Artificiale funziona grazie a tecniche avanzate come il Machine Learning (apprendimento automatico), che permette alle macchine di “imparare” dai dati.

Attraverso l’uso di algoritmi complessi, l’IA analizza enormi quantità di informazioni, individuando schemi e correlazioni che le consentono di migliorare progressivamente le proprie performance.

Un’evoluzione significativa è rappresentata dall’IA generativauna tecnologia capace di creare nuovi contenuti, come testi, immagini e persino musica, a partire da modelli appresi. Questa tipologia di IA è ormai presente anche negli smartphone, dove facilita la personalizzazione dell’esperienza utente e l’assistenza nelle attività quotidiane, trasformando gli smartphone in veri e propri compagni digitali capaci di rispondere in modo sempre più intelligente e naturale alle richieste degli utenti.

Intelligenza Artificiale ricerca: il sistema 0 come estensione del pensiero umano

Il “sistema 0” si configura come un nuovo strato di cognizione non biologica, integrato dai sistemi di IA.

A differenza dei modelli di pensiero umano già noti, il sistema 0 è una struttura artificiale che non attribuisce significato intrinseco alle informazioni, ma svolge il compito di calcolare, prevedere e generare output su ampia scala.

Come spiega Giuseppe Riva, direttore dello Humane Technology Lab, “il termine sistema 0 è stato scelto per sottolineare il ruolo fondamentale di questa IA distribuita nella cognizione moderna”. In effetti, a differenza dei modelli di pensiero umano, il sistema 0 si configura come un’integrazione di intelligenze artificiali distribuite, capaci di collaborare con l’essere umano senza sostituirne completamente le capacità di riflessione e giudizio.

Ricerca Intelligenza Artificiale: i vantaggi del sistema 0

La forza del sistema 0 risiede nel potenziale di “esternalizzare” alcuni processi mentali: attività come l’analisi di dati complessi, la pianificazione e la predizione possono essere delegate a queste intelligenze artificiali, liberando risorse cognitive per altre attività.

Ad esempio, nel settore della sanità, il sistema 0 potrebbe assistere medici e ricercatori nell’identificare correlazioni tra dati clinici e trend epidemiologici difficili da individuare manualmente. Nell’implementare l’IA in azienda, tale sistema potrebbe migliorare la produttività, aiutando manager e dirigenti a prendere decisioni supportate da dati più precisi.

In particolare, la capacità di elaborare grandi volumi di dati a velocità senza precedenti rende il sistema 0 uno strumento potente per la trasformazione digitale. Pensiamo ai campi come il marketing, dove il sistema 0 può analizzare le preferenze di milioni di consumatori in tempo reale, o al settore finanziario, dove può supportare decisioni di investimento basate su calcoli e simulazioni a lungo termine.

I limiti del sistema 0

L’uso dell’Intelligenza Artificiale solleva questioni etiche, legali e sociali che hanno portato l’Europa a regolamentare la materia con l’EU AI Act. Tale normativa prevede ambienti di sperimentazione regolamentati, o sandbox, per permettere di testare in modo sicuro le applicazioni IA mantenendo un controllo sui rischi etici e tecnologici, assicurando che soluzioni avanzate rispettino l’autonomia umana e la trasparenza.

Anche il sistema 0 solleva importanti questioni etiche. Tra queste, la possibilità di un’erosione delle capacità di pensiero critico. Se gli individui si affidano eccessivamente all’IA senza mettere in discussione i risultati, potrebbero perdere la capacità di valutare in modo indipendente le informazioni e formare giudizi autonomi.

La nostra preoccupazione”, sottolinea Riva, “è che ci sia un rischio di dipendenza cognitiva, simile a quello osservato nel passaggio da mappe cartacee a Google Maps, che ha diminuito le nostre abilità di orientamento spaziale”.

La questione si fa ancora più complessa quando si considera il futuro delle generazioni più giovani. La cosiddetta generazione Alpha, i nati tra il 2010 e il 2025, rischia di vedere il sistema 0 come una realtà normale e integrata fin dalla prima infanzia. Crescere con un sistema esterno che supporta ogni fase decisionale potrebbe ridurre la curiosità naturale e la capacità di problem-solving, elementi fondamentali per l’innovazione.

Un nuovo equilibrio tra umano e macchina

Per affrontare queste sfide, è essenziale che il rapporto tra esseri umani e IA sia impostato su un equilibrio dinamico e responsabile. Gli esseri umani devono mantenere un ruolo di supervisione e controllo sui risultati generati dal sistema 0, per garantire che le decisioni siano prese in modo informato e indipendente. Non si tratta di una semplice delega di compiti: il pensiero analitico umano rimane indispensabile per interpretare e attribuire significato alle informazioni che l’IA elabora.

Inoltre, per evitare una completa dipendenza cognitiva, è cruciale promuovere una maggiore alfabetizzazione digitale e abilità di pensiero critico. Educare gli individui a comprendere e valutare i risultati del sistema 0 li aiuterà a utilizzarlo come uno strumento di supporto, piuttosto che come un sostituto della propria capacità decisionale.

Verso un futuro di cognizione ibrida

Nel futuro dobbiamo attenderci un sistema di cognizione ibrida, in cui IA e mente umana lavorano in sinergia. La possibilità di delegare alcune attività cognitive a un’Intelligenza Artificiale esterna offre l’opportunità di accedere a nuove prospettive, oltre i limiti della nostra mente. Questo concetto potrebbe diventare particolarmente utile in campi come la previsione dei disastri naturali, le emergenze sanitarie e le sfide ambientalidove la mole di dati e la complessità delle variabili superano spesso le capacità di calcolo umane.

Come sottolinea Riva, “il vantaggio del sistema 0 è quello di aiutare l’essere umano a vedere scenari nascosti all’interno di vasti insiemi di dati”. Tuttavia, questa potenza computazionale richiede anche la capacità di valutare con attenzione i rischi. Occorre, infatti, stabilire criteri etici per evitare che l’IA influenzi in modo negativo le decisioni e le convinzioni personali.

In un mondo sempre più dominato dai dati e dalla IA Generativa, la strada da seguire passa attraverso una riflessione profonda su come bilanciare l’innovazione tecnologica con il mantenimento delle nostre capacità cognitive essenziali.