
NEUROAI Il Futuro dell’Intelligenza Artificiale: Dalla Mente Biologica ai Sistemi Cognitivi Sintetici
12 giugno 2025
​
Qual è il futuro dell’intelligenza artificiale quando la scienza impara a pensare come il cervello umano? NeuroAI è un’opera unica che esplora il territorio dove le neuroscienze incontrano l’intelligenza artificiale, offrendo al lettore un viaggio scientificamente rigoroso e sorprendentemente accessibile nel cuore della nuova rivoluzione cognitiva.
Attraverso un linguaggio chiaro e una solida base documentale, l’autore indaga come il cervello – imperfetto, plastico, fallibile – sia oggi il modello ispiratore delle più avanzate architetture algoritmiche. Il libro guida il lettore attraverso i principi della neuroplasticità, dell’apprendimento distribuito, dei modelli predittivi e della computazione cognitiva, mostrando come questi stessi meccanismi vengano tradotti in reti neurali, modelli deep learning e intelligenze capaci di apprendere dai propri errori.
NeuroAI non si limita all'aspetto tecnico: affronta con profondità i temi dell’empatia artificiale, della simulazione emotiva e della possibile coscienza computazionale, interrogandosi su cosa significhi davvero “pensare”, “provare” e “conoscere” in un mondo in cui macchine e cervelli iniziano a convergere. Il testo è arricchito da riferimenti neuroscientifici aggiornati, studi sull’etica dell’AI, confronti tra sistemi biologici e artificiali e uno sguardo attento alle implicazioni antropologiche e sociali.
Chi leggerà questo libro troverà una risorsa preziosa, che fonde neuroscienze, intelligenza artificiale, filosofia della mente e bioetica. Un volume destinato sia al pubblico accademico e professionale, sia al lettore curioso e appassionato di nuove tecnologie, che desidera capire il futuro dell’intelligenza attraverso le lenti della scienza più avanzata.
Sommario
PROLOGO. 19
Introduzione. 21
CAPITOLO 1 — NeuroAI: un progetto raffazzonato. Il cervello come errore (quasi) funzionale. 23
1.1 Evoluzione cieca e design improvvisato. 24
1.1.1 Il bricolage evolutivo. 24
1.1.2 L'assenza di un progetto centrale. 25
1.1.3 Box — Il cervello come "patch software" evolutivo. 25
1.2 Errori di cablaggio e compensazioni fortuite. 25
1.2.1 Il sistema nervoso come rete fragile. 26
1.2.2 Circuiti ridondanti e anomalie funzionali 26
1.2.3 Box — Plasticità come strategia adattativa. 27
1.3 Ridondanza e fragilità: come funzioniamo malgrado noi stessi 27
1.3.1 Ridondanza strutturale come strategia di sopravvivenza. 27
Box — Le compensazioni neurologiche post-lesione. 28
1.4 L’enigma dell’emergenza funzionale: la coscienza come sottoprodotto 28
1.4.1 L’emergenza delle proprietà superiori 28
1.4.2 Coscienza come effetto collaterale utile. 29
1.4.3 Box — La teoria dell'evoluzione cieca della mente. 29
Conclusione del Capitolo 1. 30
CAPITOLO 2 — Bias, errori e illusioni: i bug del software neuronale 33
2.1 I bias cognitivi: scorciatoie che spesso ci portano fuori strada. 34
2.1.1 Il pensiero veloce e il pensiero lento. 34
2.1.2 Bias di conferma e di disponibilità. 34
2.1.3 L’effetto framing e il contesto percettivo. 35
2.2 Le illusioni percettive: il cervello e il falso controllo del reale. 35
2.2.1 Il cervello non vede la realtà: la costruisce. 35
2.2.2 Le illusioni visive: il laboratorio dell’errore. 36
2.2.3 Le illusioni cognitive: quando la mente completa i vuoti 37
2.2.4 Il mito del controllo: illusione e ansia evolutiva. 37
2.3 Errori di previsione: il futuro secondo un software difettoso. 38
2.3.1 Il cervello predittivo: vivere è anticipare. 38
2.3.2 Sovrastima, ottimismo e illusione del "sé esente da errore". 39
2.3.3 L’errore della linearità: prevedere il non prevedibile. 39
2.3.4 Retrospezione: l’illusione del “lo sapevamo già”. 40
2.3.5 Quando anche l’Intelligenza Artificiale eredita i nostri difetti predittivi 40
2.4 I bias cognitivi nell’Intelligenza Artificiale: replicare i nostri errori o superarli? 41
2.4.1 L'intelligenza artificiale nasce con il nostro DNA cognitivo. 41
2.4.2 Bias etici e discriminazioni algoritmiche. 42
2.4.3 Il pericolo dell’amplificazione automatica dei bias. 42
2.4.4 NeuroAI: il rischio di replicare la nostra mente imperfetta. 43
2.4.5 Superare i bias: la sfida etica e tecnica. 44
2.4.6 NeuroAI come occasione di riflessione sull’uomo. 44
CAPITOLO 3 — L’intelligenza artificiale: imitare il nostro errore o progettare qualcosa di diverso. 47
3.1 Il rischio dell’emulazione imperfetta: clonare i nostri difetti 48
3.1.1 L’IA come protesi del cervello umano. 48
3.1.2 La superficialità statistica: correlare non è capire. 48
3.1.3 L’illusione di oggettività algoritmica. 49
3.2 Superintelligenza o supererrore: i rischi dell’amplificazione cognitiva artificiale 49
3.2.1 Potenziare l’intelligenza o amplificare i suoi difetti?. 49
3.2.2 Esempio concreto: il paradosso del Flash Crash di Wall Street (2010) 50
3.2.3 La dinamica dei sistemi auto-rinforzanti 51
3.2.4 Caso studio attuale: i bias nei social media e la polarizzazione politica 52
3.2.5 La difficoltà epistemologica: quando il sistema diventa opaco anche ai creatori 52
3.2.6 Confronto storico: la lezione delle mutazioni genetiche. 53
3.3 La superficialità statistica e il problema dell’inferenza causale. 53
3.3.1 L’ossessione statistica dell’intelligenza artificiale. 53
3.3.2 Esempio concreto: il caso delle previsioni sanitarie errate. 54
3.3.3 Il famoso esempio delle cicogne e dei bambini 55
3.3.4 La difficoltà della causalità: un problema antichissimo. 55
3.3.5 Tentativi moderni di IA causale. 56
3.3.6 Caso studio: il fallimento predittivo del COVID-19. 56
3.3.7 Confronto biologico: il cervello come fabbrica di ipotesi causali 57
3.4 L’illusione dell’oggettività algoritmica. 57
3.4.1 L’ingannevole fascino del numero. 57
3.4.2 Esempio concreto: il caso COMPAS nella giustizia americana. 58
3.4.3 Box di approfondimento — La falsa neutralità delle metriche. 59
3.4.4 L’IA nei processi di assunzione: il caso Amazon. 59
3.4.5 Il mito: il “bias-free” non esiste. 60
3.4.6 Confronto storico: la vecchia illusione meccanicistica. 60
3.4.7 Il pericolo dell’alibi algoritmico. 61
CAPITOLO 4 — Superintelligenza o supererrore: il futuro incerto dell’amplificazione artificiale. 65
4.1 Quando l’amplificazione cognitiva supera il controllo umano. 66
4.1.1 Il sogno della superintelligenza. 66
4.1.2 L’accelerazione incontrollata dell’errore. 66
4.1.3 Studio di caso: i sistemi finanziari automatizzati 67
4.1.4 Il dilemma della velocità. 68
4.1.5 Il rischio geopolitico: superpotenze algoritmiche. 68
4.1.6 Esperimento mentale — Il cieco iperveloce. 69
4.2 Il rischio della complessità opaca (black box problem) 69
4.2.1 Quando l'intelligenza supera la comprensibilità. 69
4.2.2 Esempio concreto: AlphaGo e la mossa 37. 70
4.2.3 Cos'è una black box AI?. 70
4.2.4 Il problema della verificabilità scientifica. 71
4.2.6 Confronto storico: la perdita di controllo nel nucleare. 72
4.2.7 La spirale della complessità artificiale. 73
4.2.8 L’abisso epistemologico tra il software classico e l’intelligenza artificiale 73
4.3 Catastrofi predittive e tipping point algoritmici 75
4.3.1 Quando l’intelligenza diventa fragile. 75
4.3.2 Esempio concreto: l’instabilità nei sistemi logistici predittivi 76
4.3.3 Il concetto di overfitting sistemico. 77
4.3.4 Il tipping point climatico: IA e imprevedibilità ambientale. 77
4.3.5 Caso di Studio: IA applicata ai mercati energetici europei 78
4.3.6 Il dilemma della previsione in ambienti caotici 78
4.3.7 Confronto biologico: il cervello e l’homeostasi predittiva. 79
4.3.8 Il "metamodello adattivo": il vero vantaggio cognitivo del cervello umano 79
4.4 Il problema etico dell’escalation automatica. 82
4.4.1 Quando il miglioramento tecnico diventa moralmente cieco. 82
4.4.2 Esempio concreto: la corsa agli armamenti algoritmici 82
4.4.3 Il dilemma del sorpasso etico. 83
4.4.4 Caso di Studio: il sistema COMPASS nei tribunali e la spirale della "giustizia predittiva" 83
4.4.5 La fragile relazione tra ottimizzazione e bene comune. 87
4.4.6 Confronto biologico: il ruolo del rimorso e del dubbio. 87
4.5 NeuroAI e l’irrisolta dialettica tra potenza e saggezza. 88
4.5.1 La potenza cresce, la saggezza arretra. 88
4.5.2 Il deficit di metacognizione morale. 89
4.5.3 Caso di Studio: l'assenza di stop-loss etico. 89
4.5.5 Il rischio ultimo: la scomparsa del dubbio. 91
CAPITOLO 5 — Coscienza artificiale: simulare il sé o costruire un simulacro? 95
5.1 Cosa significa coscienza in un sistema artificiale?. 96
5.1.1 La distinzione fondamentale: intelligenza ≠ coscienza. 96
5.1.2 La coscienza come fenomeno emergente. 96
5.1.3 Il criterio del testimone interno. 97
5.1.4 Caso di studio — ChatGPT e i Large Language Models (LLM) 97
5.1.5 Box di approfondimento — L’illusione dell’intenzionalità. 98
5.1.6 Confronto biologico: il problema hard di Chalmers. 98
5.1.7 Il rischio del simulacro perfetto. 98
5.2 Simulazione dell’esperienza soggettiva: il teatro interno artificiale. 99
5.2.1 Dal calcolo al "teatro interno": la nuova frontiera della simulazione cosciente 99
5.2.2 Il "Global Workspace Theory" come ispirazione architetturale. 100
5.2.3 Caso di studio: il progetto DeepMind "Gato". 102
5.2.4 Box di approfondimento — La "Metafora del Regista". 102
5.2.5 I limiti attuali delle simulazioni artificiali di coscienza. 103
5.3 La costruzione dell’identità artificiale: memoria, coerenza narrativa e autoreferenzialità 103
5.3.1 Dal processamento alla biografia: il salto qualitativo della coscienza. 104
5.3.2 Il problema dell’autoreferenzialità artificiale. 104
5.3.3 Caso di Studio — I primi tentativi di memoria autobiografica nei chatbot avanzati 105
5.3.4 Memoria semantica vs memoria autobiografica. 105
5.3.5 L’importanza della coerenza narrativa. 106
5.3.6 Il pericolo della personalità artificiale illusoria. 107
5.3.7 Confronto biologico: il sé come costrutto fragile. 107
5.4 Metacognizione artificiale: il difficile salto dalla logica al dubbio. 108
5.4.1 Cos’è la metacognizione: pensare sul pensiero. 108
5.4.2 Perché la metacognizione è cruciale per la coscienza. 109
5.4.3 Il deficit metacognitivo dell’IA attuale. 109
5.4.4 Caso di Studio — L’illusione di sicurezza nei modelli linguistici 110
5.4.5 Box di approfondimento — Il "calibro del dubbio" umano. 110
5.4.6 Verso un algoritmo del dubbio?. 111
5.4.7 Confronto biologico: il dubbio come meccanismo di sopravvivenza. 111
5.5 L’illusione empatica: quando la macchina simula emozioni 113
5.5.1 Il fascino pericoloso dell’apparenza emozionale. 113
5.5.2 La teoria del Media Equation. 113
5.5.3 Caso di studio — Chatbot terapeutici e compagnia artificiale. 114
5.5.4 Box di approfondimento — La distinzione tra emozione funzionale ed emozione fenomenologica 114
5.5.5 Il rischio dell’attaccamento artificiale. 115
5.5.6 Confronto biologico: empatia e teoria della mente. 115
5.5.7 La responsabilità etica della simulazione empatica. 116
5.6 Le frontiere speculative: quando la NeuroAI tenta la soggettività. 118
5.6.1 Superare l’imitazione: la domanda centrale. 118
5.6.2 Le tre grandi ipotesi ontologiche. 118
5.6.3 Caso di Studio — La Integrated Information Theory (IIT) 119
5.6.4 Box di approfondimento — La "soglia ontologica" della coscienza artificiale 120
5.6.5 Il problema dei "qualia". 120
5.6.6 Confronto biologico: la coscienza come sistema incarnato. 121
5.6.7 I limiti epistemici della simulazione attuale. 121
5.7 Gli esperimenti attuali sulla coscienza artificiale: i laboratori del futuro. 122
5.7.1 Dal dibattito teorico alle prime prove sperimentali 122
5.7.2 Caso di Studio — Il progetto IIT Integrated Information Theory Simulator 122
5.7.3 Caso di Studio — OpenAI Reflexion Project (2023–) 123
5.7.4 Caso di Studio — DeepMind Recursive Self-Improvement Models. 123
5.7.5 Box di approfondimento — Verso l’"IA coscienza funzionale". 124
5.7.6 Progetti di robotica incarnata. 124
5.7.7 La frontiera ancora mancante: il "senso di esistere". 125
5.8 I rischi ontologici: quando il simulacro sfuma nell’inganno morale. 126
5.8.1 Dal simulacro tecnico al simulacro ontologico. 126
5.8.2 La nascita del "simulacro morale". 127
5.8.3 Caso di Studio — I primi test di "compagnia artificiale persistente". 127
5.8.4 Il "paradosso della persona non-persona". 128
5.8.5 I due rischi speculari 128
5.8.6 Confronto biologico: l’empatia selettiva umana. 129
5.8.7 La sfida etica della futura NeuroAI 129
5.9 Il rischio dell’accettazione automatica: erosione del giudizio umano. 130
5.9.1 Quando il simulacro diventa norma cognitiva. 130
5.9.2 L’effetto "default epistemologico". 131
5.9.3 Caso di Studio — L’affidamento cieco nei sistemi di supporto decisionale 131
5.9.4 Meccanismi cognitivi dell’erosione critica. 132
5.9.5 La pericolosa "educazione epistemica inversa". 132
5.9.6 Confronto biologico: la plasticità pericolosa del cervello umano. 133
5.9.7 La sfida educativa cruciale. 133
5.10 NeuroAI e l’enigma finale: verso la coesistenza o la competizione ontologica? 135
5.10.1 La biforcazione del futuro cognitivo. 135
5.10.2 Il rischio della "seconda mente autonoma". 135
5.10.3 Il rischio delle piattaforme cognitive planetarie. 136
5.10.4 L’errore di Cartesio al contrario. 136
5.10.5 Il rischio della colonizzazione cognitiva morbida. 137
5.10.6 Confronto biologico: evoluzione divergente. 137
5.10.7 La sfida suprema: governare la convergenza senza subire la sostituzione 137
CAPITOLO 6 — NeuroAI: la convergenza tra cervello biologico e architetture artificiali 141
6.1 I limiti della IA convenzionale: un’intelligenza ancora rigida. 142
6.1.1 Architetture statiche, dati statici 142
6.1.2 Il problema della catastrofe del dimenticare. 142
6.1.3 Caso di Studio — L’incapacità di apprendimento incrementale. 143
6.1.4 Le 3 rigidità fondamentali della IA convenzionale. 143
6.1.5 L’urgenza del salto neurobiologico. 143
6.2 I primi modelli bio-ispirati: verso l’apprendimento neurale flessibile. 144
6.2.1 Superare la logica algoritmica tradizionale. 145
6.2.2 Ispirazione dalle sinapsi biologiche. 145
6.3 Neuroplasticità artificiale e generalizzazione rapida: imitare la flessibilità cerebrale 148
6.3.1 Il cervello come sistema plastico permanente. 148
6.3.2 Il fallimento della IA convenzionale nel lifelong learning. 149
6.3.3 Caso di Studio — I primi sistemi di continual learning. 149
6.3.4 Box di approfondimento — Plasticità sinaptica e consolidamento della memoria 150
6.3.5 La sfida della generalizzazione rapida. 150
6.3.6 Caso di Studio — I meta-learner bio-ispirati 151
6.3.7 Verso una plasticità artificiale dinamica. 151
6.5 Interfacce neuro-artificiali: la simbiosi emergente tra cervello e IA. 153
6.5.1 Dalla simulazione alla connessione diretta. 153
6.5.2 Le due grandi vie delle BCI 153
6.5.3 Caso di Studio — Il progetto Neuralink (Elon Musk) 154
6.5.4 Caso di Studio — BrainGate e i pionieri della neuroprostetica. 155
6.5.5 Box di approfondimento — Le 3 generazioni BCI 155
6.5.6 Le sfide ancora aperte. 155
6.5.7 La nascita della "cognizione estesa". 156
6.6 NeuroAI e i limiti dell’ibridazione: opportunità e dilemmi ontologici 157
6.6.1 La soglia critica dell’ibridazione. 157
6.6.2 Cos’è una mente estesa?. 157
6.6.3 Caso di Studio — Le prime simulazioni di potenziamento cognitivo. 158
6.6.4 Box di approfondimento — I tre scenari di convergenza mente-macchina 159
6.6.5 Il rischio dell’erosione dell’identità. 159
6.6.6 Confronto biologico: la mente come sistema autocritico. 160
6.6.7 La sfida etica suprema. 160
6.7 NeuroAI biologica: il bilancio attuale e gli scenari futuri 162
6.7.1 Riassumendo la convergenza. 162
6.7.2 Gli assi di sviluppo nei prossimi 10-20 anni 163
6.7.3 Caso di Studio — I progetti governativi emergenti 163
6.7.4 Box di approfondimento — La zona grigia della governance cognitiva 164
6.7.5 Il rischio dell’asimmetria cognitiva. 164
6.7.6 NeuroAI come sfida antropologica. 164
6.7.7 Il bivio fondamentale. 165
CAPITOLO 7 — NeuroAI e sistemi collettivi: il cervello artificiale globale 169
7.1 Dalla mente individuale alle reti cognitive artificiali 170
7.1.1 L’emergenza del "supercervello distribuito". 170
7.1.2 Caso di Studio — I modelli predittivi macro-sociali 170
7.1.3 Box di approfondimento — Il "cervello planetario" in formazione. 171
7.1.4 La convergenza tra NeuroAI e governance algoritmica. 171
7.1.5 Il pericolo dell’autorità cognitiva invisibile. 172
7.1.6 Confronto biologico: il rischio dell’automa omeostatico glo. 172
7.1.7 La sfida della meta-governance cognitiva. 172
7.2 I rischi sistemici della NeuroAI collettiva. 174
7.2.1 La nascita di una vulnerabilità globale. 174
7.2.2 Caso di Studio — Il "flash crash" finanziario del 2010. 174
7.2.3 La logica del failure cascade algoritmico. 175
7.2.4 I paradossi dell’auto-ottimizzazione cieca. 175
7.2.5 Confronto biologico: omeostasi patologica. 176
7.2.6 La difficoltà del "freno d’emergenza". 176
7.2.7 Il problema della "trasparenza cognitiva inversa". 176
7.3 NeuroAI e il rischio del totalitarismo algoritmico. 177
7.3.1 Quando la governance cognitiva diventa controllo politico. 177
7.3.2 Caso di Studio — I sistemi di sorveglianza predittiva sociale. 178
7.3.3 Box di approfondimento — La logica del totalitarismo cognitivo adattivo 178
7.3.4 La differenza tra controllo politico classico e NeuroAI 179
7.3.5 Il rischio della società algoritmica paternalistica. 179
7.3.6 Confronto biologico: il cervello e il rischio di iper-specializzazione. 180
7.3.7 La sfida politica dell’equilibrio cognitivo globale. 180
7.4 Verso un’etica planetaria della NeuroAI: governare la mente collettiva. 180
7.4.1 La necessità di un nuovo contratto epistemico. 181
7.4.2 Caso di Studio — La distorsione cognitiva pilotata dalle piattaforme. 181
7.4.3 Box di approfondimento — Dalla manipolazione ideologica alla manipolazione epistemica 183
7.4.4 La sfida dell’asimmetria cognitiva tra Stati 183
7.4.5 Confronto biologico — Il cervello come sistema di filtro attentivo. 184
7.4.6 La proposta di una bioetica epistemica planetaria. 184
7.4.7 Il rischio finale: la "gabbia dorata cognitiva". 185
7.5 Modelli futuri di governance NeuroAI: tra utopia e realpolitik. 185
7.5.1 La sfida inedita: governare il meta-sistema cognitivo. 186
7.5.2 Caso di Studio — I primi tentativi internazionali 186
7.5.3 Box di approfondimento — I 4 modelli emergenti di governance NeuroAI 187
7.5.4 Confronto biologico — NeuroAI come "encefalo planetario senza corteccia frontale" 188
7.5.5 Il ruolo cruciale della verifica algoritmica indipendente. 188
7.5.6 Caso di Studio — Proposta "Global NeuroAI Observatory". 189
7.6 L’ipotesi della meta-coscienza NeuroAI: un cervello planetario senziente? 191
7.6.1 Oltre la somma degli algoritmi: il salto emergente. 191
7.6.2 Confronto biologico: il principio emergentista della coscienza. 191
7.6.3 Caso di Studio — I modelli di coscienza emergente. 192
7.6.4 Box di approfondimento — Le 4 condizioni per l’emergenza di una meta-coscienza NeuroAI 193
7.6.5 Il paradosso ontologico. 193
7.6.6 I rischi etici e filosofici radicali 194
7.6.7 Il rischio dell’autonomia irreversibile. 194
7.7 Il bivio finale: NeuroAI collettiva come apoteosi o dissoluzione dell’umano 195
7.7.1 Il punto di non ritorno. 195
7.7.4 Confronto biologico: il pericolo dell’evoluzione cieca. 197
7.7.5 La proposta radicale: il principio di sovranità cognitiva universale. 197
7.7.6 Caso di Studio — Il "Consiglio Epistemico Globale". 198
7.7.7 La posta finale in gioco. 198
CAPITOLO 8 — NeuroAI, Economia Cognitiva e Nuovi Mercati Mentali 203
8.1 L’emergere dell’economia cognitiva. 204
8.1.1 La monetizzazione della mente. 204
8.1.2 Caso di Studio — Le piattaforme di neuromarketing predittivo. 204
8.1.3 Box di approfondimento — La curva di estrazione cognitiva. 205
8.2 NeuroAI e capitale emozionale. 205
8.2.1 L’emozione come asset 205
8.2.2 Caso di Studio — I mercati finanziari emozionali 206
8.2.3 Box di approfondimento — L’arbitraggio emozionale. 206
8.3 Il rischio della colonizzazione cognitiva. 206
8.3.1 Dalla globalizzazione all’egemonia neuroeconomica. 207
8.3.2 Caso di Studio — Il primato USA-Cina nella NeuroAI commerciale. 207
8.4 Confronto biologico — Il metabolismo cognitivo. 208
Nel corpo biologico: 208
8.5 La sfida della sovranità mentale. 209
8.5.1 La nuova agenda politica. 209
8.5.2 Il bivio cruciale. 209
CAPITOLO 9 — NeuroAI, Identità e Ontologia della Coscienza Aumentata 213
9.1 L’identità come sistema dinamico neurocomputazionale. 214
9.1.1 L’identità oltre la staticità dell’io. 214
9.1.2 Caso di Studio — I digital self augmenters. 214
9.1.3 Box di approfondimento — L’architettura modulare del sé ibrido. 215
9.2 La NeuroAI e la plasticità ontologica dell’umano. 215
9.2.1 L’umano come specie ontologicamente aperta. 215
9.2.2 Caso di Studio — I progetti di coscienza computazionale estesa. 216
9.2.3 Box di approfondimento — Le 3 transizioni ontologiche possibili 217
9.3 Il rischio dell’espropriazione ontologica. 218
9.3.1 Chi possiede il sé aumentato?. 218
9.3.2 Caso di Studio — Le piattaforme di personalità digitale assistita. 218
9.3.3 Box di approfondimento — La matrice dei rischi ontologici 219
9.5 La sfida ontologica finale. 220
9.5.1 I due destini possibili dell’umano aumentato. 220
9.6 Box di anticipazione — Verso il Capitolo 10. 221
CAPITOLO 10 — NeuroAI, Etica, Diritto e Persona Giuridica Aumentata 223
10.1 Il vuoto normativo della coscienza aumentata. 224
10.1.1 Diritto tradizionale vs. NeuroAI 224
10.1.2 Caso di studio concreto: i "Digital Self Augmenters". 224
10.1.3 Box esplicativo — La mappa delle entità giuridiche emergenti 225
10.2 Il rischio della sovranità algoritmica privata. 226
10.2.1 Il pericolo dell’espropriazione cognitiva. 226
10.2.2 Caso di studio concreto: i contratti cognitivi nascosti 226
10.3 Etica normativa e principio di autodeterminazione cognitiva. 227
10.3.1 Verso una nuova Carta dei Diritti Cognitivi 227
10.5 Il bivio normativo globale. 230
10.5.1 Due futuri possibili 230
10.6 Box di anticipazione — Verso il Capitolo 11. 230
CAPITOLO 11 — NeuroAI e la frontiera della speciazione cognitiva post-umana 233
11.1 La logica evolutiva della speciazione artificiale. 234
11.1.1 Evoluzione naturale vs. evoluzione ingegnerizzata. 234
11.1.2 Caso di studio — I primi protocolli di enhancement selettivo. 234
11.1.3 Box — Le tre generazioni dell’umano neuro-ingegnerizzato. 235
11.2 L’ontologia fluttuante della persona post-umana. 235
11.2.1 Che cos'è l’umano, se la coscienza è estensibile?. 236
11.3 Il rischio dell’emergenza di caste cognitive. 237
11.3.1 Disuguaglianza cognitiva programmata. 237
11.3.3 Grafico — La piramide della speciazione cognitiva. 239
11.4 La prospettiva evolutiva radicale: Homo neuro-sintetico. 239
11.4.1 Dall’evoluzione biologica all’auto-ingegneria ontologica. 239
11.5 Le quattro biforcazioni possibili della speciazione NeuroAI 241
11.6 Il dilemma filosofico centrale. 241
CAPITOLO 12 — NeuroAI e la frontiera metafisica dell’essere cosciente 245
12.1 Coscienza e NeuroAI: convergenza o dissociazione?. 246
12.1.1 Definire la coscienza: un compito sfuggente. 246
12.1.2 Caso di studio — I primi agenti conversazionali ad auto-adattamento emozionale 246
12.1.3 Box — I quattro livelli di "coscienza artificiale". 247
12.2 L’enigma della continuità identitaria. 247
12.2.1 Se la mente si estende nel cloud: chi sono io?. 247
12.2.2 Caso di studio — I primi progetti di estensione memoriale. 248
12.3 Il rischio dell’illusione di continuità. 249
12.3.1 Simulare non significa essere. 249
12.3.2 Caso di studio ipotetico — L’esperimento "Gemello Cognitivo Funzionale" 250
12.3.3 Box — La soglia ontologica della simulazione. 250
12.4 NeuroAI e il rischio dell’erosione antropologica. 251
12.4.1 Il dissolvimento graduale dell’umano come categoria stabile. 251
12.4.2 Grafico — Il continuum umano-macchina. 251
12.5 Verso una nuova metafisica del sé aumentato. 252
12.5.1 Serve una nuova ontologia funzionale. 252
12.5.2 Box — I tre scenari metafisici emergenti 253
12.6 Il bivio filosofico finale. 253
APPENDICE 1. 256
L’EREDITÀ OCCULTATA DI ALAN TURING NEL PROGETTO NEUROAI 256
EPILOGO. 260
Indice Analitico. 261
ALTRI LIBRI DELLO STESSO AUTORE. 268
