diff --git a/book/silenzio_stelle.tex b/book/silenzio_stelle.tex new file mode 100644 index 0000000..46d919d --- /dev/null +++ b/book/silenzio_stelle.tex @@ -0,0 +1,1700 @@ +\documentclass[11.5pt,a4paper,openany]{book} + +\usepackage{fontspec} +\usepackage{polyglossia} +\setmainlanguage{italian} + +\setmainfont{Linux Libertine O}[ + BoldFont=Linux Libertine O Bold, + ItalicFont=Linux Libertine O Italic, + BoldItalicFont=Linux Libertine O Bold Italic, + Numbers=OldStyle, + Ligatures=TeX, +] + +\usepackage[ + a4paper, top=3.2cm, bottom=3.8cm, + inner=3.4cm, outer=2.8cm, + headheight=14pt, headsep=18pt +]{geometry} + +\usepackage[protrusion=true]{microtype} +\usepackage{setspace} +\setstretch{1.45} +\usepackage{parskip} +\setlength{\parskip}{0.8em plus 0.1em minus 0.05em} +\setlength{\parindent}{0pt} +\widowpenalty=10000 +\clubpenalty=10000 +\raggedbottom +\tolerance=1200 +\hbadness=1200 +\emergencystretch=1.5em + +\usepackage{fancyhdr} +\pagestyle{fancy} +\fancyhf{} +\fancyhead[LE]{\small\itshape\color{headink} Il silenzio tra le stelle} +\fancyhead[RO]{\small\itshape\color{headink}\leftmark} +\fancyfoot[C]{\small\color{headink}\thepage} +\renewcommand{\headrulewidth}{0pt} +\fancypagestyle{plain}{\fancyhf{}\fancyfoot[C]{\small\color{headink}\thepage}\renewcommand{\headrulewidth}{0pt}} + +\usepackage{titlesec} +\usepackage{xcolor} +\definecolor{inkblue}{RGB}{22,35,65} +\definecolor{rulegray}{RGB}{180,182,190} +\definecolor{captionink}{RGB}{80,85,100} +\definecolor{headink}{RGB}{120,125,140} + +\titleformat{\part}[display] + {\centering\normalfont}{} + {0em} + {\vspace{2em}\fontsize{9}{12}\selectfont\scshape\color{captionink}\MakeUppercase} + [\vspace{0.4em}{\centering\color{rulegray}\rule{2.5cm}{0.3pt}}\vspace{3em}] +\titlespacing*{\part}{0pt}{6em}{0pt} + +\titleformat{\chapter}[display] + {\normalfont}{} + {0pt} + {{\color{rulegray}\rule{\textwidth}{0.4pt}}\vspace{1.2em}\raggedright\fontsize{20}{26}\selectfont\bfseries} + [\vspace{2.2em}] +\titlespacing*{\chapter}{0pt}{1em}{0em} + +\usepackage{amsmath,amssymb,amsthm} +\usepackage{mathtools} + +\usepackage{epigraph} +\setlength{\epigraphwidth}{0.60\textwidth} +\setlength{\epigraphrule}{0pt} +\renewcommand{\epigraphflush}{center} +\setlength{\beforeepigraphskip}{0.5em} +\setlength{\afterepigraphskip}{2.2em} + +\usepackage{enumitem} +\setlist[itemize]{leftmargin=1.6em,itemsep=0.15em,topsep=0.4em,parsep=0pt} + +\usepackage{quoting} +\quotingsetup{font=itshape,leftmargin=2em,rightmargin=2em} + +\usepackage{hyperref} +\hypersetup{colorlinks=true,linkcolor=inkblue,urlcolor=inkblue, + pdftitle={Il silenzio tra le stelle},pdfauthor={}} + +\usepackage{tocloft} +\renewcommand{\cfttoctitlefont}{\normalfont\large\scshape} +\setlength{\cftbeforetoctitleskip}{1em} +\setlength{\cftaftertoctitleskip}{1.5em} +\setlength{\cftbeforechapskip}{0.6em} +\renewcommand{\cftchapfont}{\normalfont} +\renewcommand{\cftchappagefont}{\normalfont} +\renewcommand{\cftchapleader}{\hfill} +\setlength{\cftchapnumwidth}{0pt} + +\newcommand{\puntini}{% + \vspace{1.1em}% + \begin{center}\textcolor{rulegray}{% + \raisebox{0.25ex}{\rule{0.9em}{0.3pt}}\enspace + \raisebox{0.5ex}{$\cdot$}\enspace + \raisebox{0.5ex}{$\cdot$}\enspace + \raisebox{0.5ex}{$\cdot$}\enspace + \raisebox{0.25ex}{\rule{0.9em}{0.3pt}}% + }\end{center}% + \vspace{0.6em}% +} + +\begin{document} + +% ============================================================ +% COPERTINA +% ============================================================ +\begin{titlepage} +\begin{center} +\vspace*{5.5cm} +{\fontsize{36}{44}\selectfont\bfseries\color{inkblue} Il silenzio tra le stelle} +\vspace{1.8em} + +{\fontsize{12}{18}\selectfont\itshape\color{headink} + Frammenti di un universo che non smette di stupirsi} +\vspace{4.5em} + +{\footnotesize\scshape\color{captionink}\MakeUppercase{% + Fisica \enspace\textperiodcentered\enspace + Filosofia \enspace\textperiodcentered\enspace + Matematica \enspace\textperiodcentered\enspace + Mente}} +\vfill +{\footnotesize\itshape\color{headink} Edizione definitiva} +\vspace{2cm} +\end{center} +\end{titlepage} + +\thispagestyle{empty} +\vspace*{10cm} +\begin{center} +{\small\itshape\color{captionink} + A chi guarda il cielo e si chiede.\\[0.3em] + A chi fa la domanda sbagliata e scopre che era quella giusta.} +\end{center} +\clearpage + +% ============================================================ +% PROEMIO +% ============================================================ +\chapter*{Proemio} +\addcontentsline{toc}{chapter}{Proemio} +\markboth{Proemio}{Proemio} + +Questo libro ha una tesi. Non è una raccolta di argomenti su temi diversi. È un argomento solo, sviluppato su scale diverse e attraverso venti capitoli che si tengono come gli anelli di una catena. + +La tesi è questa: la fisica del Novecento ha scoperto, senza cercarlo esplicitamente e in campi completamente separati, che la realtà non è fatta di oggetti con proprietà assolute. È fatta di relazioni. Le proprietà fisiche esistono solo nelle interazioni tra sistemi, mai isolatamente. Lo spazio non è un contenitore preesistente: è struttura relazionale. Il tempo non è un fiume universale: è correlazione tra processi. Il vuoto non è assenza: è uno stato relazionale che cambia con l'osservatore. L'entanglement non è una stranezza esotica: è la firma della struttura più fondamentale della realtà. + +Chiamo questa struttura il \textit{Principio Relazionale Fondamentale} (PRF). I venti capitoli di questo libro sono il tentativo di mostrarne le conseguenze: nella fisica delle particelle, nelle teorie della gravità quantistica, nella fisica dell'informazione, nella neuroscienza della coscienza, nella filosofia del linguaggio, nell'etica, nel significato. + +Ogni capitolo affronta un dominio diverso. Ogni capitolo arriva alla stessa struttura profonda: le relazioni precedono le proprietà, l'emergenza è reale, il riduzionismo è incompleto. Questo non è una posizione filosofica imposta alla fisica. È quello che la fisica dice quando viene ascoltata con attenzione senza il bisogno di preservare le intuizioni del senso comune. + +Ho cercato di includere fisica teorica raramente discussa nella divulgazione: la termodinamica quantistica e le sue implicazioni per la coscienza, le triangolazioni causali dinamiche come alternativa alla LQG, il principio oloentropico di Verlinde, la geometria non commutativa di Connes, l'asimmetria temporale CPT e le implicazioni della violazione di CP, la fisica degli stati legati topologicamente, la teoria delle categorie come fondamento della fisica, i modelli di Causal Sets. Questi non sono curiosità: sono frontiere in cui la fisica mette a rischio le proprie assunzioni più profonde. + +Il libro è strutturato in quattro parti e venti capitoli. Ogni capitolo è lungo abbastanza da fare giustizia al tema, non abbastanza da esaurirlo. L'obiettivo non è la completezza enciclopedica: è la trasformazione della percezione. + +\clearpage + +\chapter*{Nota dell'autore} +\addcontentsline{toc}{chapter}{Nota dell'autore} +\markboth{Nota dell'autore}{Nota dell'autore} + +Questo libro è nato nel mezzo di un'insonnia. + +Non quella insonnia d'ansia che conosce chi ha troppe cose in sospeso. Quella insonnia diversa, la più rara, che viene dall'eccesso di pensiero. Una domanda aveva cominciato a tirare un filo e il filo non smetteva di venire. La domanda era banale nel senso che la fanno anche i bambini: \textit{cos'è il tempo?} Ho trascorso tre ore a fissare il soffitto, costruendo e demolendo risposte. Non perché non conoscessi le risposte fisiche disponibili, ma perché nessuna sembrava abbastanza vera per fermare il filo. + +C'è una differenza tra capire qualcosa e capire \textit{davvero} qualcosa. La prima è una transazione intellettuale: leggi la spiegazione, la trovi coerente, la archivi. La seconda è un evento fisico: senti qualcosa cambiare nel modo in cui il mondo ti appare. Ho capito la relatività del tempo per la prima volta a diciassette anni, leggendo un libro di divulgazione. L'ho capita davvero molto più tardi, la notte in cui mi sono reso conto che il mio futuro coesiste già, in qualche senso preciso, con questo momento presente, e che quella frase non era una metafora ma una conseguenza diretta delle equazioni di Einstein. Ho smesso di dormire. Non per paura: per l'improvvisa sensazione di abitare un universo molto più strano e molto più ricco di quanto avessi mai immaginato. + +Ho cambiato idea su alcune cose mentre scrivevo. Sono arrivato alla meccanica quantistica relazionale di Rovelli con resistenza. Ho cambiato idea sul problema difficile della coscienza. Ho difeso il compatibilismo sul libero arbitrio per anni prima di rendermi conto che lo difendevo non perché è convincente ma perché è comodo. Il lettore troverà queste posizioni dichiarate e motivate. È incoraggiato a smontarle. + +Una nota sulla struttura. La versione precedente di questo libro aveva cinquantacinque capitoli. Erano buoni, ma troppo frammentati: ogni tema riceveva quattro o cinque pagine quando ne meritava venti. Questa edizione ha venti capitoli, ciascuno lungo quanto serve per fare il lavoro che gli è stato assegnato. È un libro diverso nella forma e nella densità, anche se molte idee sono le stesse. + +Buona lettura. O, come preferisco pensarla: buona insonnia. + +\clearpage + +\tableofcontents +\clearpage + +% ============================================================ +% PARTE I +% ============================================================ +\part{La Struttura del Reale} + +\begin{center}\itshape +In cui demoliamo, con rispetto e meraviglia,\\ +quasi tutto ciò che credevamo di sapere\\ +sulla materia, il tempo, lo spazio e la legge. +\end{center} +\clearpage + +% ============================================================ +% CAPITOLO 1 +% ============================================================ +\chapter{La Solidità del Vuoto: Materia, Forze e la Struttura della Realtà Fisica} + +\epigraph{``Everything we call real is made of things that cannot be regarded as real.''}{Niels Bohr} + +La solidità è la prima bugia che il mondo vi racconta. + +Prendete un blocco di piombo. Sentite il peso, la resistenza, la fredda certezza del metallo contro il palmo. Questo, dice la sensazione, è reale. Solido. Presente. Poi considerate: il raggio di un nucleo atomico è circa $10^{-15}$ m; il raggio dell'atomo è circa $10^{-10}$ m. Il rapporto tra i volumi è $(10^{-5})^3 = 10^{-15}$. Se un atomo fosse grande quanto la navata centrale della cattedrale di Notre-Dame, 130 metri, il nucleo sarebbe un granello di riso al centro. Tutto il resto è spazio. Il piombo che tenete in mano è quasi interamente vuoto. E tuttavia non ci cadete attraverso. Questa contraddizione è il punto di partenza di tutta la fisica del Novecento. + +La risposta non è ovvia. Non è che la materia è ``densa abbastanza'' da opporsi al passaggio. La causa della solidità è la meccanica quantistica, il principio di esclusione di Pauli, le forze di gauge, e la struttura matematica della teoria quantistica dei campi. Ognuno di questi elementi merita di essere capito in profondità, non perché siano curiosità tecniche, ma perché rivelano qualcosa di fondamentale sulla struttura della realtà. + +Il punto di partenza è la \textit{teoria quantistica dei campi} (QFT), e in particolare l'elettrodinamica quantistica (QED), formulata da Richard Feynman, Julian Schwinger e Sin-Itiro Tomonaga negli anni Quaranta (Premio Nobel 1965). La QED è la teoria più precisa mai costruita nella storia della fisica: il momento magnetico anomalo dell'elettrone, $a_e = (g-2)/2$, è calcolato e misurato con accordo a undici cifre decimali. Nessun'altra teoria in nessun campo della conoscenza umana ha mai raggiunto questa precisione. + +Nella QED, le forze non sono azioni a distanza come le immaginava Newton. Sono mediate da particelle: i \textit{fotoni virtuali}. Quando due elettroni si avvicinano, si scambiano fotoni virtuali che trasportano impulso, generando una forza repulsiva. Questi fotoni non sono osservabili direttamente, ma esistono nel senso tecnico preciso che possono essere presi in prestito dall'energia del vuoto per un tempo $\Delta t$ compatibile con il principio di indeterminazione $\Delta E \cdot \Delta t \geq \hbar/2$. La solidità del piombo è questa repulsione tra elettroni, operante a scale di nanometri. + +Ma c'è un secondo meccanismo, più sottile: il \textit{principio di esclusione di Pauli} (1925). Due fermioni identici, particelle con spin semintero come gli elettroni, non possono occupare lo stesso stato quantistico. Questo non è una forza nel senso ordinario: è una proprietà topologica della funzione d'onda multi-particella. La funzione d'onda di un sistema di fermioni è antisimmetrica rispetto allo scambio di due particelle qualsiasi. Questa antisimmetria genera una \textit{pressione di degenerazione} indipendente dalla temperatura, che resiste alla compressione della materia. È la stessa pressione che sostiene le nane bianche contro la gravità fino al limite di Chandrasekhar di 1.4 masse solari, e che stabilizza i nuclei atomici. + +Il legame tra spin e statistica non è un postulato aggiuntivo: emerge da una necessità logica. Il \textit{teorema spin-statistica}, dimostrato da Pauli nel 1940 nell'ambito della QFT relativistica, mostra che qualsiasi teoria di campo relativistica consistente --- invariante di Lorentz, causale, con hamiltoniano limitato dal basso --- deve assegnare la statistica di Fermi agli spin semiinteri e la statistica di Bose agli spin interi. Tre requisiti di ragionevolezza fisica (relatività, causalità, stabilità) determinano una proprietà che sembrava contingente. Questa è la struttura profonda a cui il libro tornerà ripetutamente: proprietà apparentemente contingenti che si rivelano necessarie dati requisiti di coerenza molto generali. + +Il quadro completo delle forze fondamentali è il \textit{Modello Standard} della fisica delle particelle, costruito tra gli anni Sessanta e gli anni Settanta. Ha la struttura matematica di una teoria di gauge: è invariante sotto trasformazioni locali dei gruppi $\mathrm{SU}(3) \times \mathrm{SU}(2) \times \mathrm{U}(1)$. La forza forte è mediata da gluoni sotto $\mathrm{SU}(3)$. La forza debole dai bosoni $W^\pm$ e $Z^0$ sotto $\mathrm{SU}(2) \times \mathrm{U}(1)$. L'elettromagnetismo dal fotone sotto $\mathrm{U}(1)$. + +Il bosone di Higgs, scoperto al CERN il 4 luglio 2012 con massa $\approx 125.20 \pm 0.11\ \mathrm{GeV}/c^2$, completa il quadro. È il quanto del campo scalare che permea tutto lo spazio, e dalla cui interazione i bosoni $W$ e $Z$ acquistano massa attraverso il meccanismo di rottura spontanea della simmetria elettrodebole. Senza di esso, tutte le particelle sarebbero prive di massa, l'elettromagnetismo e la forza debole sarebbero indistinguibili, e l'universo che conosciamo non esisterebbe. + +Il Modello Standard descrive tutto ciò che si osserva negli acceleratori di particelle con precisione straordinaria. Ma sappiamo che è incompleto. La materia barionica ordinaria costituisce solo circa il 5\% del contenuto energetico dell'universo. Il 27\% è materia oscura: gravitazionalmente attiva, mai rilevata direttamente. Il 68\% è energia oscura. Il Modello Standard non include la gravità, non spiega la materia oscura, non spiega l'asimmetria tra materia e antimateria che ha permesso all'universo di essere popolato di struttura. Ha 19 parametri liberi che devono essere misurati, non derivati. È un edificio magnifico costruito su fondamenta che non capisce. + +\puntini + +C'è una branca della fisica teorica raramente discussa nella divulgazione che illumina questi limiti in modo sorprendente: la \textit{fisica degli stati legati topologicamente} e le \textit{teorie anomale}. Le anomalie quantistiche sono il fenomeno per cui una simmetria classica di un sistema fisico viene distrutta dalla quantizzazione. Quando si quantizza una teoria di campo, i loop di particelle virtuali possono violare simmetrie che erano perfette a livello classico. Questo non è un difetto: è una fonte di vincoli potentissimi. + +L'anomalia chirale della QCD, per esempio, non è solo un problema tecnico: spiega il decadimento del pione neutro $\pi^0 \to \gamma\gamma$ con una precisione che dipende esclusivamente dalla struttura di gauge del Modello Standard. È una delle predizioni più eleganti della fisica teorica: partendo dalla struttura di gruppo $\mathrm{SU}(3) \times \mathrm{SU}(2) \times \mathrm{U}(1)$ e dal requisito di cancellazione delle anomalie di gauge, si derivano vincoli stringenti sul contenuto di materia della teoria. Il Modello Standard soddisfa questi vincoli in modo non banale: i contributi delle anomalie dei quarks cancellano esattamente quelli dei leptoni. Questa cancellazione non è una coincidenza: è un indizio profondo che quarks e leptoni sono parte di strutture più grandi, probabilmente legate alla grande unificazione. + +La \textit{teoria delle anomalie globali}, sviluppata da Witten nel 1982, rivela un altro strato. Alcune teorie di gauge apparentemente consistenti a livello perturbativo hanno anomalie globali che le rendono inconsistenti a livello non perturbativo. Il Modello Standard è esente da anomalie globali --- questa è un'ulteriore conferma della sua struttura --- ma teorie candidate all'unificazione come alcune versioni delle teorie di grande unificazione o della teoria delle stringhe hanno anomalie che devono essere cancellate. Il meccanismo di cancellazione Green-Schwarz, scoperto nel 1984 per la teoria di stringa di tipo I, fu uno dei momenti chiave della prima rivoluzione delle stringhe. + +\puntini + +Torniamo al piombo nella mano. Abbiamo detto che la solidità è repulsione elettromagnetica tra elettroni più pressione di degenerazione di Pauli. Ma c'è un aspetto ancora più profondo: il motivo per cui gli atomi sono stabili. Classicamente, un elettrone che orbita intorno a un nucleo dovrebbe emettere radiazione elettromagnetica (un'accelerazione implica emissione di fotoni), perdere energia, e spiralare verso il nucleo in $\sim 10^{-11}$ secondi. Che gli atomi esistano è una prova sperimentale diretta della meccanica quantistica. + +La stabilità quantistica viene dall'\textit{energia di punto zero}: il principio di indeterminazione $\Delta x \cdot \Delta p \geq \hbar/2$ impedisce che sia simultaneamente localizzato nel nucleo ($\Delta x \to 0$) e immobile ($\Delta p \to 0$). Comprimere l'elettrone costa energia cinetica. C'è un punto ottimale, il raggio di Bohr $a_0 = \hbar^2/(m_e e^2) \approx 0.53\ \AA$, in cui l'energia totale è minimizzata. Questo raggio non è un parametro libero: emerge dalla combinazione di $\hbar$, $m_e$, e $e$. È uno dei risultati più eleganti della meccanica ondulatoria. + +Questa stabilità non è automatica nella fisica classica: è una proprietà \textit{globale} dello spazio degli stati quantistici. Il teorema di Thomas-Reiche-Kuhn (regola di somma $f$) e i teoremi di virial quantistici fissano le relazioni tra energie cinetiche e potenziali in modo che lo stato fondamentale sia necessariamente stabile. La solidità della materia ordinaria è una conseguenza di questi teoremi, non un dato bruto. + +\puntini + +Il \textit{vuoto quantistico} è un'altra proprietà fondamentale che la fisica moderna ha rivelato. Il vuoto non è il nulla: è lo stato di minima energia di tutti i campi quantistici, e questa energia minima non è zero. Per un campo armonico quantizzato con frequenza $\omega$, l'energia del livello fondamentale è $\hbar\omega/2$ --- l'energia di punto zero. Sommando su tutti i modi di oscillazione di tutti i campi del Modello Standard, si ottiene una densità di energia del vuoto enorme. + +L'\textit{effetto Casimir}, predetto da Hendrik Casimir nel 1948 e misurato per la prima volta da Lamoreaux nel 1997, dimostra che questa energia di punto zero è fisica reale. Due piastre metalliche parallele nel vuoto si attraggono perché le condizioni al contorno sulle piastre riducono i modi di oscillazione del campo elettromagnetico tra le piastre rispetto allo spazio libero. La forza è: +\[ +F/A = -\frac{\pi^2 \hbar c}{240 d^4} +\] +Per $d = 10\ \mathrm{nm}$, questa forza è paragonabile all'atmosfera terrestre. È misurabile. È reale. Il vuoto spinge. + +L'\textit{effetto Unruh} è ancora più profondo: un osservatore con accelerazione uniforme $a$ nel vuoto quantistico vede uno stato termico con temperatura $T_U = \hbar a / (2\pi c k_B)$, mentre un osservatore inerziale vede il vuoto. Il vuoto non è uno stato assoluto: è un concetto relazionale che dipende dallo stato di moto dell'osservatore. Questo è il Principio Relazionale Fondamentale applicato al vuoto. + +Il problema della \textit{costante cosmologica} è la più drammatica manifestazione dell'incompletezza del Modello Standard. L'energia del vuoto prevista dalla QFT è dell'ordine di $10^{94}\ \mathrm{g/cm}^3$. La densità di energia cosmica osservata è $\sim 10^{-29}\ \mathrm{g/cm}^3$. Il disaccordo è di 123 ordini di grandezza. Questo è considerato il peggior disaccordo quantitativo nella storia della fisica. Non sappiamo la soluzione. + +Le proposte includono: cancellazione quasi esatta tra contributi bosonici e fermionici (richiederebbe fine-tuning straordinario); la supersimmetria (che cancellerebbe esattamente i contributi se non fosse rotta, ma la supersimmetria è rotta); il meccanismo di Weinberg basato sul principio antropico (Weinberg nel 1987 predisse che $\Lambda$ doveva essere piccola perché altrimenti l'universo non si sarebbe strutturato --- questa è una delle rare predizioni accurate basate sul principio antropico); scenari di multiverso con paesaggio di stringhe; e la proposta di Lee Smolin che l'universo ``si evolva'' selezionando valori piccoli di $\Lambda$. + +\puntini + +Vorrei introdurre ora un tema raramente discusso nella divulgazione: la \textit{termodinamica quantistica} e i suoi limiti fondamentali. + +La termodinamica classica descrive sistemi con molti gradi di libertà in equilibrio o vicini all'equilibrio. La meccanica quantistica aggiunge nuovi ingredienti: la coerenza quantistica, l'entanglement, la sovrapposizione. Cosa succede alla seconda legge della termodinamica in questo regime? + +Il \textit{principio di Landauer} (1961) stabilisce che cancellare un bit di informazione richiede una dissipazione di calore minima di $k_B T \ln 2$. Questo è un risultato fondamentale: connette informazione logica e entropia termodinamica. Charles Bennett dimostrò nel 1973 che la computazione reversibile non richiede dissipazione: la dissipazione viene solo dalla cancellazione di informazione. Questo risultato è stato verificato sperimentalmente nel 2012 dal gruppo di Eric Lutz. + +Nella termodinamica quantistica, il principio di Landauer si complica. Un sistema quantistico può essere in una sovrapposizione di stati che contengono informazione in modo coerente. Cancellarla richiede un lavoro che dipende non solo dall'entropia di von Neumann dello stato, ma anche dalla coerenza quantistica. I \textit{teoremi di Jarzynski e Crooks} (1997, 1999) estendono le relazioni termodinamiche ai sistemi fuori dall'equilibrio in modo esatto, non approssimato. Il teorema di Jarzynski afferma: +\[ +\langle e^{-\beta W} \rangle = e^{-\beta \Delta F} +\] +dove $W$ è il lavoro eseguito in un processo irreversibile, $\Delta F$ è la variazione di energia libera, e la media è su tutte le realizzazioni del processo. Questo è sorprendente: anche per processi lontanissimi dall'equilibrio, questo valore di aspettazione è esatto. Il teorema è stato verificato sperimentalmente su molecole biologiche singole. + +La \textit{seconda legge quantistica} ha una struttura più ricca di quella classica. È possibile costruire \textit{motori termici quantistici} che sfruttano la coerenza quantistica per superare il limite di Carnot? La risposta è no: la coerenza quantistica non permette di violare la seconda legge. Ma può permettere efficienza maggiore di certi motori classici equivalenti --- sfruttando la coerenza come ``carburante'' per ridurre la dissipazione. Questo campo, la \textit{termodinamica dei sistemi quantistici}, è una delle frontiere più attive della fisica teorica contemporanea. + +\puntini + +La \textit{gravità quantistica a loop} (LQG), che tratteremo nel Capitolo 4, ha implicazioni importanti per la struttura della materia a scale di Planck. In LQG, lo spazio è discreto: ha una struttura granulare con grani di area minima $\sim l_P^2 \approx 2.6 \times 10^{-70}\ \mathrm{m}^2$. Questo implica che la QFT convenzionale, che tratta lo spazio come continuo, è un'approssimazione valida solo a scale molto grandi rispetto alla lunghezza di Planck. + +La \textit{dispersione della luce} nel vuoto quantistico granulare è una predizione falsificabile di LQG. Se lo spazio è discreto, fotoni ad alta energia potrebbero viaggiare leggermente più lentamente di fotoni a bassa energia. La sensibilità degli esperimenti attuali (come le osservazioni di gamma-ray burst con il satellite Fermi-LAT) ha già posto limiti stringenti su questa dispersione, compatibili con LQG ma non ancora abbastanza precisi da testarla definitivamente. + +Un'altra branca poco discussa è la \textit{fisica dei modelli di Causal Sets}, proposta da Rafael Sorkin e collaboratori. In questo approccio, la struttura fondamentale della realtà è un insieme parzialmente ordinato di eventi, e lo spazio-tempo continuo emerge come approssimazione. La relazione di causalità è primitiva, non derivata dalla geometria. Il modello di Causal Sets ha predetto, prima della scoperta osservativa, che la costante cosmologica dovrebbe avere un valore dell'ordine di $\sim 1/V^{1/2}$ dove $V$ è il volume dello spazio-tempo causalmente connesso --- che è dell'ordine del valore osservato. Questa è una delle poche predizioni quantitative del valore della costante cosmologica. + +\puntini + +Concludo con una riflessione sul riduzionismo e le sue limitazioni. La fisica del Modello Standard descrive ogni oggetto materiale come aggregato di quark, leptoni e bosoni di gauge. Ma questa descrizione, per quanto accurata, non esaurisce ciò che c'è. La solidità del ferro, la liquidità dell'acqua, la superconduttività del mercurio a 4 K, la ferroelettricità del BaTiO$_3$: tutte queste proprietà sono emergenti. Non sono scritte nel Lagrangiano del Modello Standard anche se sono determinate da esso. + +Philip Anderson lo disse con la precisione necessaria nel 1972: ``More is different.'' Le proprietà emergenti a scale superiori non sono riducibili in senso pratico alle leggi a scala inferiore, anche quando la dipendenza causale è presente. Il concetto di temperatura ha senso per sistemi con molti gradi di libertà: non ha senso per una singola particella. Il concetto di superconduttività richiede la coerenza di fase macroscopica di un condensato di Cooper: non ha analoghi nel comportamento di un singolo elettrone. + +Erik Hoel ha formalizzato questo in termini di \textit{causal emergence}: la macroscala può avere maggiore potere causale effettivo della microscala corrispondente. Usando la misura di informazione causale effettiva ($EI$), si può dimostrare che per certi sistemi il livello di descrizione macroscopico massimizza l'$EI$, non quello microscopico. Questo non è contro il riduzionismo come strategia metodologica: è contro il riduzionismo ontologico come tesi sulla struttura della realtà. + +Il mondo è stratificato. Ogni strato ha la propria forma di realtà. La fisica del Modello Standard è reale, ma le proprietà che emergono da essa a scale superiori sono altrettanto reali. Il piombo è quasi interamente vuoto. È anche indiscutibilmente solido. Entrambe le affermazioni sono vere, e la loro coesistenza è una delle strutture più profonde della natura. + +% ============================================================ +% CAPITOLO 2 +% ============================================================ +\chapter{L'Equazione che Non Ha Soluzione: Meccanica Quantistica e il Problema della Realtà} + +\epigraph{``I think I can safely say that nobody understands quantum mechanics.''}{Richard Feynman, \textit{The Character of Physical Law} (1967)} + +C'è un'equazione che ha cambiato il mondo più di qualsiasi altra cosa scritta nel Novecento, e che ancora non sappiamo cosa significa. + +Nel 1926 Erwin Schrödinger la scrisse. Nella forma dipendente dal tempo: +\[ +i\hbar \frac{\partial\psi}{\partial t} = \hat{H}\psi +\] +dove $\psi$ è la funzione d'onda del sistema, un elemento di uno spazio di Hilbert $L^2$, e $\hat{H}$ è l'operatore hamiltoniano. L'equazione è lineare, deterministica, continua, simmetrica per inversione temporale. Non c'è nulla di casuale in essa. Eppure la meccanica quantistica descrive un mondo probabilistico, dove misurare una proprietà di un sistema produce un risultato casuale. Come si conciliano queste due immagini? + +Questa è la domanda fondamentale dell'interpretazione della meccanica quantistica. Dopo quasi cent'anni, non ha risposta unanime. + +L'interpretazione di Copenaghen, sviluppata da Niels Bohr e Werner Heisenberg tra il 1927 e il 1935, risponde così: prima della misura, il sistema evolve in sovrapposizione coerente secondo Schrödinger. Quando avviene una misura, la funzione d'onda collassa istantaneamente in uno degli autostati dell'osservabile misurata, con probabilità data dalla regola di Born: $P(a_n) = |\langle a_n|\psi\rangle|^2$. Questo postulato del collasso genera tre problemi strutturali. + +Il \textit{primo problema} è la non-località del collasso. Se due particelle sono in uno stato entangled e si misurano separatamente, il collasso di una produce effetti istantanei sull'altra, indipendentemente dalla distanza. Questo sembra violare la struttura causale della relatività speciale. Il teorema di no-communication (Ghirardi, Rimini, Weber, 1980; Eberhard, 1978) garantisce che non si può trasmettere informazione in questo modo, ma l'istantaneità ontologica rimane problematica. + +Il \textit{secondo problema} è il taglio di Heisenberg: il confine tra il dominio quantistico (dove vale la sovrapposizione) e il dominio classico (dove gli esiti sono definiti) non è specificato dalla teoria. Dove finisce il sistema e inizia l'apparato di misura? Questa ambiguità è profonda: qualsiasi divisione arbitraria produce la stessa fenomenologia, ma nessuna è fondamentale. + +Il \textit{terzo problema}, il più profondo, è la catena di von Neumann (1932). Se si applica rigorosamente la meccanica quantistica a tutto --- sistema, apparato, osservatore --- il collasso non emerge mai dall'equazione. Il sistema+apparato+osservatore evolve in sovrapposizione coerente. La catena continua indefinitamente: il collasso viene postulato ad hoc come secondo processo fisico, distinto dall'evoluzione unitaria, senza essere derivato da essa. + +Le risposte a questi problemi sono molteplici e nessuna è priva di costi. + +\textbf{I Molti Mondi di Everett (1957).} Hugh Everett III propose la soluzione più radicale: non c'è collasso. L'equazione di Schrödinger è sempre valida, per tutti i sistemi, senza eccezioni. Quando avviene una misura, l'universo si ramifica: entrambi i rami della sovrapposizione continuano a esistere, ognuno contenendo un esito diverso. Tutte le ramificazioni sono ugualmente reali. Noi siamo in una di esse. L'eleganza formale è netta: nessun postulato aggiuntivo, nessun taglio arbitrario. Il prezzo è ontologico: una proliferazione indefinita di universi paralleli a ogni misura. + +Il problema tecnico aperto dell'interpretazione dei molti mondi è la \textit{derivazione della regola di Born}. Perché le probabilità dei rami sono $|c_n|^2$? David Deutsch e David Wallace hanno proposto derivazioni basate sulla teoria della decisione bayesiana: un agente razionale che vive in un universo con molti rami dovrebbe assegnare credenze proporzionali a $|c_n|^2$. Ma questa derivazione è controversa: Huw Price e altri hanno argomentato che è circolare. Il dibattito rimane aperto. + +\textbf{La meccanica di de Broglie-Bohm (1927, 1952).} David Bohm elaborò una teoria completamente deterministica. Le particelle hanno posizioni precise in ogni istante, guidate dalla funzione d'onda attraverso l'equazione pilota: +\[ +\frac{d\mathbf{x}}{dt} = \frac{\hbar}{m} \mathrm{Im}\!\left[\frac{\nabla\psi}{\psi}\right] +\] +La casualità emerge dall'ignoranza della posizione iniziale, non da un'indeterminazione fondamentale. La teoria è empiricamente equivalente alla QM standard. Il prezzo è la non-località esplicita: la velocità di ogni particella dipende istantaneamente dalla configurazione dell'intera funzione d'onda nell'universo. + +Un aspetto poco noto della meccanica bohmiana è il suo trattamento del \textit{campo guida}. La funzione d'onda $\psi$ guida le particelle ma non è influenzata da esse: è un campo fisico reale che esiste indipendentemente dalle particelle. Questo crea un'ontologia a due livelli (particelle + campo guida) che alcuni trovano ontologicamente eccessiva. Tuttavia, la teoria di de Broglie-Bohm è l'unica interpretazione della QM che è stata estesa a sistemi relativistici in modo completo (Dürr, Goldstein, Tumulka, Zanghì), e fornisce un quadro chiaro per la termodinamica quantistica. + +\textbf{La meccanica quantistica relazionale di Rovelli (1996).} Carlo Rovelli propose un'interpretazione che elimina il problema del collasso in modo radicale. Il gesto concettuale è analogo a quello di Einstein con la simultaneità. Einstein mostrò che la simultaneità non è assoluta: è relativa all'osservatore. Rovelli mostra che gli stati quantistici non sono assoluti: sono relativi al sistema osservante. + +In RQM, le proprietà di un sistema $S$ hanno valore definito solo rispetto a un sistema $S'$ che interagisce con $S$. Non c'è uno stato assoluto dell'universo: ci sono solo fatti relazionali, eventi all'interfaccia tra sistemi. La ``collasso'' non è un processo fisico: è l'aggiornamento delle relazioni quando due sistemi interagiscono. Questa posizione è ontologicamente parsimoniosa (nessun universo multiplo, nessun campo guida non locale), fisicamente coerente con la relatività, e matematicamente precisa. + +L'obiezione principale alla RQM è il problema della \textit{coerenza tra osservatori}. Se Alice e Bob osservano lo stesso sistema $S$ e ottengono risultati, devono concordare su questi risultati quando si incontrano. Come garantisce la RQM questa coerenza? Rovelli ha risposto in lavori recenti (con Adlam, 2023) argomentando che la coerenza emerge dalla struttura causale dello spazio-tempo: fatti relativi a osservatori che si incontrano causalmente devono essere mutuamente consistenti. Non è ancora la risposta definitiva, ma è un programma di ricerca preciso. + +\textbf{Il modello GRW (Ghirardi-Rimini-Weber, 1986).} Invece di interpretare la QM, GRW la modifica. Ogni particella subisce un collasso spontaneo con frequenza $\sim 10^{-16}\ \mathrm{s}^{-1}$ verso una posizione localizzata con width $\sigma \sim 10^{-7}\ \mathrm{m}$. Il collasso si propaga ai sistemi macroscopici attraverso l'entanglement, producendo localizzazione rapida per oggetti grandi. Le predizioni di GRW differiscono infinitesimamente dalla QM standard per sistemi microscopici, ma producono effetti misurabili per sistemi con $\gtrsim 10^{20}$ particelle. Esperimenti di interferometria con molecole massive cercano attivamente queste deviazioni. + +Il modello CSL (Continuous Spontaneous Localization), una versione relativisticamente compatibile di GRW sviluppata da Ghirardi, Pearle e Rimini nel 1990, aggiunge al'equazione di Schrödinger un termine di rumore stocastico che produce localizzazione continua. Questa teoria ha l'ulteriore vantaggio di essere consistente con la teoria quantistica dei campi, almeno approssimativamente. + +\puntini + +Il teorema di Frauchiger-Renner (2018) ha introdotto una perturbazione importante nel dibattito interpretativo. Il teorema è una versione quantitativamente precisa dell'esperimento dell'amico di Wigner. Considera due laboratori, ciascuno con un agente razionale che usa la meccanica quantistica. L'agente esterno applica operazioni coerenti sul laboratorio interno. Si può mostrare che, se entrambi gli agenti applicano la meccanica quantistica in modo internamente coerente, si ottiene una contraddizione logica: due agenti razionali che usano la stessa teoria giungono a previsioni incompatibili sullo stesso evento. + +Il teorema mostra che la meccanica quantistica è incompatibile con almeno una di tre assunzioni: (1) la correttezza universale della teoria, (2) la coerenza degli agenti, (3) l'unicità degli esiti. Ogni interpretazione della QM deve rinunciare ad almeno una. In Everett, si rinuncia all'unicità. In Copenaghen, si rinuncia all'universalità (il collasso limita il dominio di applicazione). In RQM, si rinuncia a una versione assoluta dell'unicità (gli esiti sono relativi). In GRW, la teoria è modificata e il teorema non si applica. + +L'esperimento di Bong et al. (\textit{Nature Physics}, 2020) ha realizzato una versione sperimentale del teorema, confermando la violazione delle disuguaglianze derivate da Frauchiger-Renner. Questo è un risultato empirico, non solo teorico: i fatti fisici sono osservatore-relativi in modo misurabile. La meccanica quantistica relazionale ne esce confermata. + +\puntini + +Voglio ora introdurre un aspetto della meccanica quantistica raramente discusso: il \textit{problema della base}. + +In QM, gli stati quantistici esistono in sovrapposizione rispetto a qualsiasi base. Se un sistema è nello stato $|\psi\rangle = (|0\rangle + |1\rangle)/\sqrt{2}$, questa è una sovrapposizione di $|0\rangle$ e $|1\rangle$, ma è anche lo stato $|+\rangle$ nella base $\{|+\rangle, |-\rangle\}$, dove $|+\rangle = (|0\rangle + |1\rangle)/\sqrt{2}$. Il sistema non è ``in sovrapposizione'' in senso assoluto: è in uno stato definito rispetto a una certa base. + +La \textit{teoria della decoerenza} (Zurek, anni Ottanta-Novanta) risponde al problema della base in modo parziale. Quando un sistema quantistico interagisce con l'ambiente, le interferenze tra certi stati si sopprimono molto rapidamente. Gli stati che sopravvivono alla decoerenza --- gli stati ``pointer'' --- sono quelli che più resistono all'interazione con l'ambiente. Per un sistema macroscopico in aria, il tempo di decoerenza per sovrapposizioni macroscopicamente distinguibili è $\sim 10^{-23}\ \mathrm{s}$: le sovrapposizioni macroscopiche collassano praticamente istantaneamente. + +Zurek ha esteso questa idea nel programma del \textit{quantum Darwinism}: la classicità emerge perché l'ambiente funge da registro ridondante di informazione sul sistema. Le proprietà classiche di un oggetto sono quelle che molti osservatori possono conoscere senza disturbare il sistema, perché queste informazioni vengono ``impregnate'' ridondantemente nell'ambiente. Solo le proprietà ``evolutivamente favorevoli'' --- quelle che si trasmettono in modo stabile attraverso l'ambiente --- diventano classiche. + +Questo è un punto importante: la classicità non è una proprietà intrinseca del sistema, ma emerge dalla struttura delle interazioni con l'ambiente. Un oggetto macroscopico ha proprietà classiche perché interagisce con miliardi di fotoni, molecole d'aria, fononi del substrato che portano informazione su di esso a moltissimi osservatori contemporaneamente. La classicità è una forma di consenso tra molti osservatori. + +\puntini + +Il problema della misura è anche il problema dell'\textit{informazione}. In QM, la misura produce informazione: trasforma lo stato di conoscenza dell'osservatore sul sistema. Ma è anche un'operazione fisica: cambia lo stato fisico del sistema (almeno in alcune interpretazioni). Il confine tra informazione epistemica (conoscenza) e informazione ontologica (stato fisico) è uno dei problemi concettuali più profondi della fisica. + +Il programma di QBism (Quantum Bayesianism), sviluppato da Christopher Fuchs, Rüdiger Schack e Carlton Caves, risponde posizionandosi esplicitamente sul lato epistemico: la funzione d'onda rappresenta le credenze probabilistiche di un agente, non lo stato fisico del mondo. Le probabilità quantistiche sono probabilità soggettive bayesiane. La regola di Born è una regola di coerenza per le credenze degli agenti. + +QBism ha il vantaggio di non avere problemi di collasso (il collasso è semplicemente l'aggiornamento bayesiano delle credenze) e di essere consistente con la relatività. Lo svantaggio è l'abbandono del realismo: non c'è una realtà fisica indipendente dagli agenti. Questo prezzo ontologico è troppo alto per molti fisici. + +L'approccio informazionale di Chiribella, D'Ariano e Perinotti (CDP, 2011) deriva la struttura matematica della QM da principi informazionali. Mostrano che la QM è la teoria informatica minima tra quelle che soddisfano certi requisiti operazionali: compressione dell'informazione, trasmissione senza errori, capacità di purificazione. Questo approccio suggerisce che la QM non è una teoria della fisica, ma una teoria dell'informazione: le sue strutture matematiche non descrivono la realtà fisica direttamente, ma i vincoli sulle informazioni che gli agenti fisici possono acquisire. + +\puntini + +Concludo con il teorema di Bell e le sue implicazioni per il realismo. + +John Bell dimostrò nel 1964 che qualsiasi teoria a variabili nascoste locali deve soddisfare la disuguaglianza: +\[ +|E(a,b) - E(a,b') + E(a',b) + E(a',b')| \leq 2 +\] +La meccanica quantistica predice un valore massimo di $2\sqrt{2} \approx 2.83$ per scelte ottimali degli angoli. Gli esperimenti di Aspect (1982), poi quelli di Hensen et al. (2015) senza loophole, di Giustina et al. (2015) e Shalm et al. (2015) hanno confermato la violazione. Il \textit{realismo locale} --- la tesi che gli oggetti fisici abbiano proprietà definite indipendentemente dall'osservazione e che nessuna influenza si propaghi più veloce della luce --- è falsificato sperimentalmente. + +Cosa rimane? Si può salvare il realismo rinunciando alla località (come nella meccanica di Bohm). Si può salvare la località rinunciando al realismo (come in Copenaghen e QBism). Si può rinunciare a entrambi in modo controllato (come in RQM). L'unica cosa che non si può fare è tenere entrambi. La natura ha scelto: il mondo non è fatto nel modo in cui la fisica classica ci faceva credere. + +Il Principio Relazionale Fondamentale emerge qui nel suo senso più preciso: non esistono proprietà fisiche assolute. Le proprietà esistono nelle interazioni. Il mondo non è fatto di cose: è fatto di relazioni tra cose. E a livello abbastanza fondamentale, anche le cose stesse sono relazioni. + +% ============================================================ +% CAPITOLO 3 +% ============================================================ +\chapter{Il Tempo, la Relatività e i Buchi Neri} + +\epigraph{``Time is what prevents everything from happening at once.''}{John Archibald Wheeler} + +Il tempo passa. Questo è il fatto più ovvio dell'esperienza umana. È anche la cosa che la fisica capisce peggio di qualsiasi altra. + +Aristotele definì il tempo come ``il numero del movimento secondo il prima e il dopo'' (\textit{Fisica}, IV, 11, 219b). Newton lo invertì: il tempo assoluto ``fluisce uniformemente senza relazione ad alcuna cosa esterna'' (\textit{Principia Mathematica}, Scholium). Einstein dimostrò che Newton aveva torto: il tempo è relativo all'osservatore, si dilata con la velocità e con la gravità, non esiste un ``adesso'' universale. E nella gravità quantistica, il tempo potrebbe non essere fondamentale affatto. + +Il punto di partenza di Einstein nel 1905 fu un principio: la velocità della luce $c \approx 2.998 \times 10^8\ \mathrm{m/s}$ è la stessa per tutti gli osservatori inerziali. Questo implica le trasformazioni di Lorentz: +\[ +t' = \gamma\!\left(t - \frac{vx}{c^2}\right), \quad x' = \gamma(x - vt), \quad \gamma = \frac{1}{\sqrt{1-v^2/c^2}} +\] +La simultaneità non è assoluta. Due eventi che sono simultanei in un sistema di riferimento non lo sono in un altro in moto relativo. Questo non è una limitazione della misura: è la struttura fisica della realtà. + +Hermann Minkowski comprese nel 1907 la geometria sottostante: le trasformazioni di Lorentz sono pseudo-rotazioni nello spazio-tempo quadridimensionale con metrica: +\[ +ds^2 = -c^2 dt^2 + dx^2 + dy^2 + dz^2 +\] +Il segno negativo davanti al termine temporale è la differenza cruciale rispetto alla geometria euclidea. L'intervallo $ds^2$ è invariante: lo stesso per tutti gli osservatori inerziali. Quando $ds^2 < 0$, gli eventi sono connessi causalmente (separazione temporalica); quando $ds^2 > 0$, nessun segnale fisico può collegarli (separazione spaziale); quando $ds^2 = 0$, si è sulla traiettoria di un fotone. L'intera struttura causale dell'universo è codificata in questo segno. + +La relatività speciale è verificata con precisione straordinaria. I muoni cosmici, prodotti nell'alta atmosfera a $\sim 10$ km di altitudine, hanno vita media di $2.2\ \mu\mathrm{s}$ nel loro sistema di riferimento. Con velocità $\sim 0.998c$, il fattore di Lorentz è $\gamma \approx 16$: la vita media dilatata è $\sim 35\ \mu\mathrm{s}$, abbastanza per raggiungere la superficie terrestre. Lo osserviamo. Il GPS richiede correzioni relativistiche: gli orologi sui satelliti GPS ticchettano $38\ \mu\mathrm{s}/\mathrm{giorno}$ più velocemente di quelli a terra (correzione gravitazionale $+45\ \mu\mathrm{s}$, correzione di velocità $-7\ \mu\mathrm{s}$). Senza queste correzioni, l'errore di posizione accumulerebbe $\sim 10\ \mathrm{km/giorno}$. + +La relatività generale (1915) estende questi principi alla gravità. Il principio di equivalenza --- un osservatore in caduta libera non distingue localmente la propria situazione da quella di un osservatore nello spazio libero --- suggerisce che la gravità è un effetto geometrico: la curvatura dello spazio-tempo causata dalla massa ed energia. Le equazioni di campo di Einstein: +\[ +G_{\mu\nu} + \Lambda g_{\mu\nu} = \frac{8\pi G}{c^4} T_{\mu\nu} +\] +Il lato sinistro descrive la geometria; il lato destro descrive la distribuzione di massa ed energia. Wheeler sintetizzò: ``Lo spazio-tempo dice alla materia come muoversi; la materia dice allo spazio-tempo come curvarsi.'' + +Le verifiche sono tra le più precise della storia della scienza. La precessione del perielio di Mercurio: 43 arcosecondi per secolo, inexplicable classicamente, predetti da Einstein con esattezza. La deflessione della luce vicino al Sole: 1.75 arcosecondi, misurata da Eddington nel 1919. Le onde gravitazionali: predette nel 1916, rilevate da LIGO il 14 settembre 2015 (GW150914, fusione di due buchi neri a $\sim 1.3\ \mathrm{Gly}$). L'immagine dell'ombra di M87*: realizzata da Event Horizon Telescope nel 2019, in accordo preciso con la GR. + +\puntini + +I \textit{buchi neri} sono la predizione più drammatica della relatività generale. Il raggio di Schwarzschild $r_S = 2GM/c^2$ definisce l'orizzonte degli eventi: una superficie causale oltre la quale nulla può sfuggire. Per il Sole, $r_S \approx 3\ \mathrm{km}$; per Sagittarius A*, il buco nero al centro della Via Lattea ($4 \times 10^6 M_\odot$), $r_S \approx 12 \times 10^6\ \mathrm{km}$, circa le dimensioni dell'orbita di Mercurio. + +L'orizzonte degli eventi non è una superficie fisica: un osservatore che cade attraverso non sente nulla di speciale nel momento dell'attraversamento (almeno per buchi neri abbastanza grandi). È una superficie causale: una volta attraversata, l'osservatore non può più inviare segnali all'esterno. L'orizzonte è, in senso preciso, il passato causale dell'infinito temporale del futuro. + +Il \textit{paradosso dell'informazione dei buchi neri} è uno dei problemi più importanti della fisica teorica contemporanea. Nel 1974, Stephen Hawking mostrò che i buchi neri emettono radiazione termica --- la \textit{radiazione di Hawking} --- con temperatura: +\[ +T_H = \frac{\hbar c^3}{8\pi G M k_B} +\] +Per un buco nero di massa solare, $T_H \approx 60\ \mathrm{nK}$, immisurabile nella pratica. Ma in linea di principio, un buco nero perde massa evaporando, e alla fine scompare. Il problema: lo stato iniziale del buco nero (una stella che collassa) era uno stato puro quantistico. La radiazione di Hawking è termica: uno stato misto. La meccanica quantistica evolve stati puri in stati puri (evoluzione unitaria). Se il buco nero evaporando emette uno stato misto, la meccanica quantistica è violata. + +La soluzione proposta da Almheiri, Marolf, Polchinski e Sully (AMPS, 2012) --- il \textit{firewall argument} --- suggerisce che l'orizzonte degli eventi non è innocuo: deve esserci un ``muro di fuoco'' di radiazione ad alta energia all'orizzonte per preservare l'unitarietà. Questo viola il principio di equivalenza. L'argomento AMPS ha scatenato un decennio di ricerche intense. + +La risoluzione più promettente attuale è la \textit{formula dell'isola} (Penington, 2019; Almheiri, Mahajan, Maldacena, Zhao, 2019). Usando la formulazione dell'entropia di entanglement in teorie olografiche, e includendo contributi da ``isole'' all'interno del buco nero nel calcolo dell'entropia, si ottiene la curva di Page: l'entropia della radiazione cresce inizialmente, poi decresce verso zero, indicando preservazione dell'unitarietà. La formula è: +\[ +S(\text{rad}) = \min_\text{island} \left[\frac{\text{Area}(\partial \text{island})}{4G_N\hbar} + S_\text{bulk}(\text{rad} \cup \text{island})\right] +\] +Questo risultato, derivato nel contesto della corrispondenza AdS/CFT, suggerisce che le isole --- regioni all'interno del buco nero che sono incluse nell'entanglement wedge della radiazione esterna --- portano informazione sull'esterno. La formula dell'isola è considerata uno dei progressi più significativi nella comprensione dell'olografia e del paradosso dell'informazione. + +\puntini + +Il problema del tempo diventa ancora più profondo nella gravità quantistica. Nella meccanica quantistica, il tempo è un parametro esterno: l'equazione di Schrödinger descrive l'evoluzione dello stato rispetto a $t$, ma $t$ è un dato del problema, non un operatore. Nella relatività generale, il tempo è parte della geometria dinamica: si curva, si dilata, risponde alla materia. Questi due ruoli sono fundamentalmente incompatibili. + +Quando si quantizza la relatività generale con il formalismo canonico, si ottiene l'equazione di Wheeler-DeWitt: +\[ +\hat{H}|\Psi\rangle = 0 +\] +L'universo quantistico descritto da questa equazione è \textit{atemporale}: lo stato $|\Psi\rangle$ non dipende da nessun parametro temporale. Come si può un universo senza tempo mostrare cambiamento? + +La risposta di Don Page e William Wootters (1983) è elegante: il tempo emerge come correlazione tra sottosistemi. Se l'universo è nello stato $|\Psi\rangle$, e si considera un sottosistema ``orologio'' $C$ e il ``resto'' $R$, il tempo di $R$ è definito dalla correlazione tra $R$ e $C$: per ogni stato del clock $|t\rangle_C$, $R$ è nello stato $|\Psi_R(t)\rangle$. Il ``passare del tempo'' è la correlazione tra le parti, non una proprietà dell'insieme. + +Moreva et al. (2014) hanno verificato sperimentalmente questo meccanismo con coppie di fotoni entangled. Dal punto di vista di un ``osservatore esterno'' che ha accesso all'intero sistema, non c'è evoluzione temporale. Dal punto di vista di un osservatore ``interno'' che usa uno dei fotoni come orologio, l'altro fotone evolve nel tempo. + +La Constructor Theory of Time, proposta da Deutsch e Marletto (2025), porta questa intuizione nel framework della Constructor Theory: il tempo emerge dalla possibilità di costruttori che operano trasformazioni causali, non da un parametro fondamentale. Il tempo non precede la fisica: emerge dalla fisica. + +\puntini + +Una questione raramente discussa è il ruolo della \textit{termodinamica dei buchi neri} nel vincolare le teorie della gravità quantistica. + +Il teorema dell'area di Hawking (1971) afferma che l'area dell'orizzonte degli eventi di un buco nero non può diminuire in processi fisici classici. L'analogia con la seconda legge della termodinamica era evidente, ma fu Bekenstein (1972) a renderla quantitativa: l'entropia di un buco nero è proporzionale all'area del suo orizzonte: +\[ +S_{BH} = \frac{k_B A}{4 l_P^2} +\] +dove $l_P = \sqrt{\hbar G/c^3}$ è la lunghezza di Planck. Ogni area di Planck ($l_P^2 \approx 2.6 \times 10^{-70}\ \mathrm{m}^2$) contribuisce circa un bit. L'entropia di Bekenstein-Hawking di un buco nero di massa solare è $S_{BH} \approx 10^{77} k_B$, enormemente più grande dell'entropia della stella che ha formato il buco nero. + +Questo è il \textit{principio olografico}: l'entropia di una regione di spazio è proporzionale all'area della sua superficie di contorno, non al volume. Il contenuto informazionale del volume è codificato sulla superficie. Questo è sorprendente: una regione tridimensionale ha una ``capacità informazionale'' che scala come una regione bidimensionale. L'universo è, in qualche senso, una proiezione olografica. + +La corrispondenza AdS/CFT di Maldacena (1997) realizza questo principio in modo matematicamente preciso: la teoria gravitazionale in uno spazio-tempo $d+1$ dimensionale anti-de Sitter è esattamente equivalente a una teoria conforme di campo su un bordo $d$-dimensionale senza gravità. Questa dualità ha rivoluzionato la comprensione sia della fisica della gravità forte sia della fisica della materia condensata. Le ``olographic strange metals'' (strani metalli olografici) sono un campo attivo in cui le tecniche di AdS/CFT vengono applicate alla superconduttività ad alta temperatura e ad altri fenomeni di materia condensata. + +\puntini + +Il \textit{blocco universo} è la visione dello spazio-tempo suggerita dalla struttura matematica della relatività speciale e generale. Nello spazio-tempo di Minkowski, tutti gli eventi --- passati, presenti, futuri --- hanno uguale realtà ontologica. Non c'è un ``adesso'' privilegiato che scorra lungo l'asse del tempo. Il tempo è una dimensione come lo spazio, e il ``fluire del tempo'' è una caratteristica dell'esperienza soggettiva, non una struttura fisica fondamentale. + +Il filosofo del tempo John McTaggart distingueva tra la \textit{serie A} (eventi ordinati come passati, presenti, futuri --- proprietà che cambiano) e la \textit{serie B} (relazioni temporali ``prima/dopo'' --- relazioni permanenti). La fisica relativistica supporta la serie B: non c'è un presente assoluto, lo spazio-tempo è una struttura statica quadridimensionale. La serie A --- il ``fluire'' del tempo --- è una caratteristica dell'esperienza soggettiva non fondamentale nella fisica. + +Edmund Husserl, nelle \textit{Vorlesungen zur Phänomenologie des inneren Zeitbewusstseins} (1905-1910), analizzò la struttura dell'esperienza temporale: retention (il passato appena vissuto), impressione originaria (il presente), protention (anticipazione del futuro immediato). Il ``presente vissuto'' ha uno spessore temporale di $\sim 2-3$ secondi, corrispondente alla finestra di integrazione temporale del cervello. La fisica e la fenomenologia descrivono livelli diversi di organizzazione della stessa realtà. + +Il blocco universo ha una conseguenza per la morte e il significato che Parfit ha esplorato in \textit{Reasons and Persons}: se tutti gli eventi coesistono nel blocco universo, allora la vita di una persona non ``scompare'' alla morte. È cristallizzata nel tessuto dello spazio-tempo, immutabile. Non come consolazione mistica, ma come fatto fisico preciso. Torneremo su questo nel Capitolo 10. + +% ============================================================ +% CAPITOLO 4 +% ============================================================ +\chapter{Oltre Einstein: le Teorie della Gravità Quantistica} + +\epigraph{``A spin network is not in space: it is space.''}{Carlo Rovelli, \textit{Quantum Gravity} (2004)} + +Il problema fondamentale della fisica teorica contemporanea è la mancanza di una teoria unificata che descriva sia la meccanica quantistica sia la gravità. Le due grandi teorie del Novecento --- QM e GR --- sono incompatibili a livello concettuale. La QM richiede uno sfondo spaziotemporale fisso rispetto al quale definire gli stati e la loro evoluzione. La GR dice che lo spazio-tempo è dinamico, risponde alla materia, non c'è sfondo fisso. Applicare le tecniche standard della QFT alla GR produce infiniti non-rinormalizzabili. + +Questo capitolo esplora le principali proposte per superare questo ostacolo, con particolare attenzione ad approcci meno conosciuti. Non esiste ancora una teoria confermata sperimentalmente: siamo nel territorio della fisica teorica fondamentale, dove la guida principale è la coerenza matematica e l'accordo con i limiti noti (GR e QM nelle rispettive regioni di validità). + +\textbf{Loop Quantum Gravity (LQG).} Sviluppata da Abhay Ashtekar a partire dal 1986, con contributi fondamentali di Carlo Rovelli e Lee Smolin, la LQG parte dalla GR e la quantizza direttamente senza assumere uno sfondo. La chiave è la riformulazione della GR nelle variabili di Ashtekar-Barbero: la connessione $A_a^i$ (analogo del campo gauge) e la triade $E_i^a$ (analogo del campo elettrico). In queste variabili, i vincoli della GR hanno la stessa struttura algebrica delle teorie di Yang-Mills. + +Il risultato più importante: gli operatori di area e volume hanno spettro discreto. Gli autovalori dell'area sono: +\[ +A = 8\pi\gamma l_P^2 \sum_i \sqrt{j_i(j_i+1)} +\] +dove $\gamma \approx 0.274$ è il parametro di Barbero-Immirzi (fissato da calcoli di entropia dei buchi neri), $l_P$ è la lunghezza di Planck, e $j_i$ sono numeri quantici semiinteri. Lo spazio è discreto alla scala di Planck: ha una struttura granulare. L'area minima non nulla è $\sim l_P^2 \approx 2.6 \times 10^{-70}\ \mathrm{m}^2$. + +Gli stati della geometria quantistica in LQG sono descritti dalle \textit{spin networks}: grafi i cui link sono etichettati da rappresentazioni di $\mathrm{SU}(2)$ e i cui nodi sono etichettati da intertwiners. Una spin network non è in uno spazio preesistente: è lo spazio. Ogni nodo corrisponde a un grano di volume; ogni link a una superficie che separa volumi adiacenti. + +La dinamica è descritta dalle \textit{spin foams}: storie di spin networks che descrivono la transizione da una geometria spaziale a un'altra. Il modello EPRL (Engle-Pereira-Rovelli-Livine, 2008) è il più studiato. In questo modello, le amplitudini di transizione sono: +\[ +W[\psi_f] = \sum_\sigma \prod_v A_v(\sigma) \prod_e A_e(\sigma) +\] +dove la somma è su tutti gli spin foam compatibili con la condizione al contorno $\psi_f$, $A_v$ sono amplitudini di vertice, e $A_e$ sono amplitudini di edge. Questo è un analogo dell'integrale funzionale di Feynman per la geometria quantistica. + +LQG ha ottenuto il risultato di derivare la formula di Bekenstein-Hawking $S_{BH} = A/(4l_P^2)$ da primi principi, identificando il parametro di Barbero-Immirzi. + +\textbf{Teoria delle Stringhe.} Nata negli anni Sessanta come teoria della forza forte, fu riscoperta nel 1974 come teoria della gravità quantistica. L'idea: le particelle elementari non sono puntiformi ma stringhe 1-dimensionali che vibrano. I diversi modi di vibrazione corrispondono a particelle diverse; tra essi c'è necessariamente uno stato con spin 2 senza massa: il gravitone. La teoria include automaticamente la gravità. + +La prima rivoluzione delle stringhe (1984-85) mostrò teorie consistenti in 10 dimensioni. La seconda rivoluzione (1994-97) rivelò la M-theory in 11 dimensioni, di cui le cinque teorie di stringhe 10-dimensionali sono casi limite. La corrispondenza AdS/CFT di Maldacena (1997) è il risultato più solido: una dualità esatta tra supergravità di tipo IIB su $\mathrm{AdS}_5 \times S^5$ e la teoria conforme di Yang-Mills $\mathcal{N}=4$ sul bordo. + +Il problema principale: esistono $\sim 10^{500}$ vacui della teoria delle stringhe (il ``paesaggio''), ognuno con costanti fisiche diverse. Qualsiasi valore delle costanti fisiche è compatibile con la teoria, rendendo il paesaggio di stringhe infalsificabile nel senso popperiano. + +\textbf{Causal Dynamical Triangulations (CDT).} Proposta da Ambjørn, Jurkiewicz e Loll negli anni 2000, CDT è un approccio computazionale alla gravità quantistica. L'integrale funzionale sulla geometria è regolarizzato usando triangolazioni causali: tassellature dello spazio-tempo con simplessi $d$-dimensionali (tetraedri per $d=3$, pentatopi per $d=4$) in cui il tempo causale è ben definito. + +Il risultato sorprendente: la geometria risultante dalla media sull'ensemble di triangolazioni causali ha la giusta dimensione di Hausdorff 4 per scale grandi, ma la dimensione spettrale (misurata dalla diffusione di un cammino casuale) diminuisce a 2 per scale piccole. Questo suggerisce una \textit{riduzione dimensionale} alla scala di Planck --- un fenomeno che appare anche in LQG, nella geometria non commutativa di Connes, e nella causal set theory. È considerato da molti un segnale robusto della struttura della gravità quantistica. + +CDT non richiede alcuna assunzione sulle variabili fondamentali: è un approccio completamente non perturbativo e background-independent. La geometria emerge dalla somma su triangolazioni, non è assunta a priori. + +\textbf{Asymptotic Safety.} Proposta da Steven Weinberg nel 1979, l'asymptotic safety (AS) afferma che la gravità quantistica potrebbe essere non perturbativamente rinormalizzabile: il flusso del gruppo di rinormalizzazione ha un punto fisso non gaussiano (ultravioletto) che controlla il comportamento della teoria alle alte energie. + +Il gruppo di rinormalizzazione funzionale (FRG) di Wetterich ha permesso di calcolare questa proprietà. Truncando la equazione di flusso esatta e studiando il flusso del gruppo di rinormalizzazione, si trovano indicazioni che la teoria della gravità quantistica è asintoticamente sicura. Le predizioni include una relazione tra la massa del top quark, la massa del bosone di Higgs, e la costante di accoppiamento della gravità che è in accordo con i valori osservati --- un successo non banale che suggerisce che la SM e la gravità potrebbero essere uniche. + +\textbf{Causal Set Theory.} Rafael Sorkin propone che la struttura fondamentale sia un insieme $(\mathcal{C}, \preceq)$ dove $\mathcal{C}$ è un insieme di eventi e $\preceq$ è un ordine parziale causale. Lo spazio-tempo continuo emerge come approssimazione. Due proprietà fondamentali: (1) la relazione di causalità è primitiva, non derivata dalla geometria; (2) il numero di elementi è proporzionale al volume spaziotemporale (discreteness). + +La causal set theory ha prodotto una delle poche predizioni quantitative del valore della costante cosmologica. Sorkin (1990) argomentò che le fluttuazioni del vuoto in una causal set producono un valore di $\Lambda \sim H_0^2$, dove $H_0$ è la costante di Hubble. Questo è dell'ordine di grandezza del valore osservato, e la predizione fu fatta prima della scoperta dell'accelerazione dell'universo nel 1998. Rimane una delle poche predizioni a priori del valore di $\Lambda$. + +\textbf{Geometria Non Commutativa.} Alain Connes ha proposto di sostituire lo spazio-tempo continuo con uno spazio non commutativo: le coordinate non commutano, $[x^\mu, x^\nu] = i\theta^{\mu\nu}$, dove $\theta^{\mu\nu}$ è un tensore antisimmetrico che caratterizza la non-commutatività. La geometria non commutativa di Connes, basata sul \textit{triplet spettrale} $(A, H, D)$ dove $A$ è un'algebra, $H$ uno spazio di Hilbert, e $D$ un operatore di Dirac, fornisce una descrizione geometrica unificata dello spazio-tempo e delle gauge theories. Il Modello Standard accoppiato alla gravità emerge naturalmente da questa struttura. + +La non-commutatività introduce una scala minima di lunghezza dell'ordine della lunghezza di Planck: le coordinate non possono essere misurate con arbitraria precisione simultaneamente. Questo è un principio di indeterminazione geometrico analogo al principio di Heisenberg per la meccanica quantistica. + +\puntini + +Voglio soffermarmi su una questione filosofica importante: qual è il criterio giusto per valutare queste teorie? + +Il falsificazionismo di Popper richiederebbe predizioni verificabili sperimentalmente. Ma per le energie di Planck ($\sim 10^{19}\ \mathrm{GeV}$), nessun acceleratore plausibile nel futuro prossimo si avvicinerà. Questo ha portato alcuni (come Richard Dawid) a proporre criteri di ``non-empirical theory assessment'': la coerenza interna, la capacità di risolvere problemi noti, l'unicità (assenza di alternative), la consistenza con altre teorie ben confermate. Questi non sono criteri empirici in senso stretto, ma sono criteri razionali. + +Lee Smolin ha criticato questo approccio in \textit{The Trouble with Physics} (2006): se si abbandona il requisito di predizioni sperimentali, si rischia di sviluppare matematica bella ma non necessariamente fisica. La teoria delle stringhe, dopo quarant'anni, non ha prodotto predizioni falsificabili distinctive sulle particelle o le forze al di là del Modello Standard. + +La risposta più onesta è che siamo in un territorio nuovo: teorie della gravità quantistica sono necessariamente ``teorie di tutto'' che operano a scale inaccessibili alla sperimentazione diretta. I criteri di valutazione devono essere più sottili della semplice falsificabilità. Tra questi criteri: la derivazione di risultati già noti (entropia dei buchi neri, limite GR a basse energie), la risoluzione di problemi noti (singolarità, informazione), la produzione di predizioni verificabili anche se non dirette (cosmologia della CMB, onde gravitazionali primordiali, fisica dei buchi neri). + +\puntini + +Una branca raramente discussa è la relazione tra \textit{topologia} e gravità quantistica. + +In GR classica, la topologia dello spazio-tempo è fissata: è $\mathbb{R}^4$ o una varietà topologicamente equivalente. Ma nella gravità quantistica, si può sommare su topologie diverse. John Wheeler propose il concetto di ``spuma quantistica'' (quantum foam): a scale di Planck, la topologia dello spazio-tempo fluttua. Wormhole virtuali, buchi neri virtuali, maniglie topologiche compaiono e scompaiono su scale di Planck. + +Stephen Hawking e Jim Hartle svilupparono la \textit{proposta no-boundary} per l'inizio dell'universo: il funzionale di path integral della gravità quantistica è una somma su geometrie compatte senza frontiera. L'universo non ha un inizio nel tempo: il tempo emerge dalla geometria a scale più grandi. La funzione d'onda dell'universo $\Psi[h_{ij}]$, dove $h_{ij}$ è la metrica indotta su una iper-superficie di Cauchy, è definita da: +\[ +\Psi[h_{ij}] = \int \mathcal{D}g_{\mu\nu}\, e^{-I_E[g_{\mu\nu}]} +\] +dove $I_E$ è l'azione euclidea e l'integrale è su tutte le geometrie compatte che inducono $h_{ij}$ al contorno. Questa proposta ha implicazioni per la cosmologia: predice un universo che inizia spontaneamente ``dal niente'', con una distribuzioni di fluttuazioni iniziali che può essere calcolata. + +I problemi della proposta no-boundary includono: l'ambiguità del contorno, i problemi di convergenza dell'integrale euclideo, e la questione se la topologia euclidea produca la giusta fenomenologia. Steele Turok e collaboratori hanno argomentato che la proposta no-boundary predice un universo fortemente anisotropo, in contrasto con l'osservazione. Il dibattito è ancora aperto. + +\puntini + +Un'altra frontiera importante è la connessione tra gravità e informazione quantistica, sviluppata principalmente nell'ambito di AdS/CFT. + +La formula di Ryu-Takayanagi (2006) stabilisce che l'entropia di entanglement $S(A)$ di una regione $A$ della teoria di bordo (CFT) è uguale all'area della superficie minimale $\gamma_A$ nel bulk (AdS) che si ancora al bordo di $A$: +\[ +S(A) = \frac{\text{Area}(\gamma_A)}{4G_N\hbar} +\] +Questa formula, analoga alla formula di Bekenstein-Hawking, connette due concetti apparentemente non correlati: l'entanglement quantistico nel bordo e la geometria nello spazio bulk. Mark Van Raamsdonk (2010) ha mostrato che se si rimuove l'entanglement tra due regioni del bordo, la geometria del bulk si disconnette. L'entanglement quantistico è il cemento che tiene insieme lo spazio-tempo. + +Questo suggerisce che lo spazio-tempo non è fondamentale: emerge dall'entanglement quantistico. ER=EPR (Maldacena-Susskind, 2013) formalizza questa idea: due particelle quantisticamente entangled (EPR pair) sono connesse da un wormhole di Einstein-Rosen (ER). L'entanglement è geometria. La non-località quantistica e la connettività geometrica sono la stessa cosa vista da prospettive diverse. + +\puntini + +Concludo con un'osservazione sul significato filosofico di tutto questo. + +Le teorie della gravità quantistica convergono, indipendentemente dai loro dettagli tecnici, verso alcune conclusioni comuni: +\begin{itemize} +\item Lo spazio e il tempo non sono fondamentali: emergono da strutture più primitive (spin networks, stringhe, insiemi causali). +\item Esiste una scala minima di lunghezza dell'ordine della lunghezza di Planck. +\item Il principio olografico è reale: le informazioni sulla fisica di un volume sono codificate sulla sua superficie di contorno. +\item La geometria è connessa all'entanglement. +\end{itemize} + +Tutte queste conclusioni sono istanze del Principio Relazionale Fondamentale: le proprietà fisiche --- incluse quelle geometriche --- emergono dalle relazioni tra sistemi, non sono proprietà intrinseche dei sistemi stessi. Lo spazio-tempo non è un contenitore preesistente: è una struttura relazionale che emerge dalle correlazioni quantistiche tra i gradi di libertà fondamentali della natura. + +% ============================================================ +% CAPITOLO 5 +% ============================================================ +\chapter{Informazione, Entropia e la Fisica del Pensiero} + +\epigraph{``Information is physical.''}{Rolf Landauer} + +Nel 1948 Claude Shannon pubblicò nei \textit{Bell System Technical Journal} un articolo che fondò la teoria dell'informazione come disciplina matematica precisa, separandola dalla semantica. Shannon definì l'entropia dell'informazione: +\[ +H = -\sum_i p_i \log_2 p_i +\] +dove $p_i$ sono le probabilità dei simboli. $H$ misura l'incertezza media della sorgente e la quantità minima di bit necessari per codificarla. La formula è formalmente identica all'entropia di Gibbs della meccanica statistica $S = -k_B \sum_i p_i \ln p_i$. Shannon lo sapeva: von Neumann gli suggerì il termine ``entropia'' notando che era già usato in meccanica statistica con lo stesso significato. + +Questa equivalenza è profonda o superficiale? La risposta, rivelata dall'analisi del demone di Maxwell, è: profonda. + +James Clerk Maxwell immaginò nel 1867 un ``demone'' in controllo di una botola tra due compartimenti di gas a temperatura uniforme. Il demone osserva le molecole e apre la botola selettivamente: lascia passare le molecole veloci da sinistra a destra, e le lente da destra a sinistra. Il gas di destra diventa più caldo, quello di sinistra più freddo --- senza lavoro apparente. Il secondo principio sembrava violato. + +Per quasi sessant'anni il paradosso rimase aperto. Leo Szilard nel 1929 comprese che la misurazione del demone ha un costo entropico. Rolf Landauer nel 1961 identificò con precisione dove: non la misurazione (che può essere reversibile), ma la \textit{cancellazione dell'informazione}. Quando il demone cancella il record di una misurazione per liberare memoria, compie un'operazione logicamente irreversibile che deve dissipare almeno: +\[ +Q \geq k_B T \ln 2 \text{ per ogni bit cancellato} +\] +Il secondo principio è salvato dall'informazione. Il demone non viola la termodinamica perché il suo cervello (o qualsiasi memoria fisica) accumula informazione che deve essere cancellata, pagando il costo entropico. Charles Bennett (1973) confermò che la computazione reversibile non richiede dissipazione di principio: la dissipazione viene solo dalla cancellazione. + +Il principio di Landauer fu verificato sperimentalmente dal gruppo di Eric Lutz nel 2012 (Bérut et al., \textit{Nature}, 483, 187-189): usando una particella colloidale in un doppio pozzo di potenziale come bit fisico, misurarono la dissipazione di calore durante la cancellazione, confermando il limite $k_B T \ln 2$ con precisione del $5\%$. + +\puntini + +L'informazione non è solo un concetto epistemico (conoscenza di qualcuno): ha conseguenze fisiche irriducibili. John Wheeler propose verso la fine della carriera la tesi ``it from bit'': ogni cosa fisica trae la sua esistenza da risposte a domande binarie. L'universo è, in un senso profondo, informazionale. + +Il programma ``it from qubit'', sviluppato principalmente nell'ambito di AdS/CFT, dà contenuto tecnico a questa intuizione. Come discusso nel Capitolo 4, la corrispondenza AdS/CFT connette la geometria dello spazio-tempo al entanglement quantistico dei gradi di libertà del bordo. La formula di Ryu-Takayanagi $S(A) = \text{Area}(\gamma_A)/(4G_N\hbar)$ connette l'entropia di entanglement a una geometria. Mark Van Raamsdonk (2010) mostrò che rimuovere l'entanglement disconnette la geometria: lo spazio-tempo è cucito dall'entanglement. + +Questo non è solamente una tecnica matematica: è una rivelazione ontologica. La geometria dello spazio-tempo -- la struttura che determina come le cose si muovono, come la gravità funziona, come il tempo scorre -- emerge dall'entanglement quantistico dei gradi di libertà fondamentali. L'informazione non descrive la realtà fisica: è la realtà fisica. + +\puntini + +La \textit{termodinamica quantistica} è una branca emergente che affronta domande fondamentali: cosa significano il calore, il lavoro, e l'entropia per sistemi quantistici? I teoremi classici della termodinamica assumono sistemi macroscopici con molti gradi di libertà. Per sistemi quantistici con pochi gradi di libertà, le fluttuazioni sono importanti e la coerenza quantistica aggiunge nuove risorse. + +Il \textit{teorema di Jarzynski} (1997) è un risultato esatto per sistemi classici fuori dall'equilibrio: +\[ +\langle e^{-\beta W} \rangle = e^{-\beta \Delta F} +\] +dove $W$ è il lavoro in un processo irreversibile e $\Delta F$ la variazione di energia libera. Questo implica la disuguaglianza classica $\langle W \rangle \geq \Delta F$ (secondo principio), ma permette di estrarre $\Delta F$ da misure di processi irreversibili. Il teorema di Crooks (1999) estende questo alla relazione tra processi avanti e indietro. + +Le versioni quantistiche di questi teoremi (Tasaki, 2000; Kurchan, 2000) richiedono attenzione: il calore e il lavoro quantistici non sono osservabili nel senso stretto (non hanno operatori hermitiani associati). Vengono definiti tramite misure proiettive agli istanti iniziale e finale. Il quadro Two-Projection Measurement (TPM) è il più comune, ma ha limitazioni: ignora la coerenza quantistica durante il processo. + +Sviluppi recenti (Åberg, 2018; Kwon-Kim, 2019) mostrano che la coerenza quantistica è una risorsa termodinamica: sistemi con coerenza possono fare più lavoro di sistemi classicamente equivalenti. Questo apre la porta a ``motori termici quantistici'' che sfruttano la coerenza come combustibile aggiuntivo. + +\puntini + +La connessione tra informazione ed entropia ha implicazioni dirette per la fisica del cervello e della coscienza. + +Il cervello umano consuma circa 20W, circa il 20\% dell'energia totale del corpo malgrado sia solo il 2\% della massa. Questa è la ``tassa termodinamica'' del pensiero. Ma non tutta questa energia va in calcolo utile: gran parte è dissipata nel mantenimento del potenziale di membrana dei neuroni a riposo, nel pompaggio di ioni, nella sintesi di neurotrasmettitori. La computazione nel senso di Landauer -- operazioni logiche irreversibili -- è solo una frazione. + +Il principio di energia libera di Karl Friston estende le idee termodinamiche al cervello. L'energia libera variazionale $\mathcal{F}$ è un limite superiore della ``sorpresa'' (quantità di informazione dei dati sensoriali non predetti dal modello interno): +\[ +\mathcal{F} = \mathrm{KL}[q(z) \| p(z|y)] - \log p(y) +\] +dove $q(z)$ è la distribuzione approssimata del cervello sugli stati del mondo, $p(z|y)$ è la vera distribuzione posteriore, e $p(y)$ è la probabilità marginale dei dati. Minimizzare $\mathcal{F}$ equivale sia a fare inferenza bayesiana (migliorare il modello interno) sia a ridurre la sorpresa (agire per scegliere stati del mondo più predicibili). Percezione e azione sono unificate come minimizzazione della stessa quantità. + +Il principio di energia libera non è solo un modello computazionale: è una tesi termodinamica. Friston argomenta che gli organismi viventi si auto-organizzano in modo da minimizzare l'energia libera (equivalente a massimizzare l'evidenza del proprio modello generativo), e questo è ciò che significa essere un organismo -- un sistema che resiste alla dispersione verso stati ad alta entropia. + +\puntini + +Il concetto di \textit{informazione integrata} di Giulio Tononi è un tentativo di connettere informazione e coscienza. + +La Integrated Information Theory (IIT) propone che la coscienza sia identica all'informazione integrata $\Phi$ di un sistema. $\Phi$ misura quanta informazione il sistema genera come insieme rispetto alla somma delle sue parti. Formalmente, $\Phi$ è la quantità di informazione che il sistema ha in più rispetto all'unione dei suoi sottosistemi indipendenti. + +IIT fa predizioni falsificabili: sistemi con $\Phi$ alto sono coscienti, sistemi con $\Phi \approx 0$ non lo sono. Un cervello umano sveglio ha $\Phi$ molto alto; un cervello in anestesia profonda ha $\Phi$ basso. Questo è verificabile. Il progetto Cogitate (Melloni et al., 2023) ha condotto uno studio avversariale tra IIT e Global Workspace Theory: i risultati hanno sfidato alcune previsioni di IIT riguardo all'attivazione corticale. + +La critica principale a IIT viene da Scott Aaronson: una griglia di porte logiche XNOR ha $\Phi$ potenzialmente enorme, il che implicherebbe che certe architetture computazionali semplici siano più coscienti di un essere umano. Tononi risponde che la geometria della griglia è rilevante, ma la critica rimane valida per certe configurazioni. + +\puntini + +Concludo con la Constructor Theory of Information, proposta da Chiara Marletto e David Deutsch. + +La Constructor Theory esprime le leggi della fisica come enunciati su quali trasformazioni sono possibili e quali sono impossibili, indipendentemente da leggi dinamiche specifiche. Applicata all'informazione, definisce il \textit{mezzo informazionale} come un sistema fisico che può essere copiato con fedeltà arbitraria. Questa definizione è più profonda di quella di Shannon: non richiede probabilità o statistiche, ma solo la possibilità fisica della copia. + +La Constructor Theory of Information risolve il problema di Landauer in modo più profondo: non è che la cancellazione dell'informazione costi energia per una legge empirica, ma perché la distinguibilità degli stati di un mezzo informazionale implica una struttura termodinamica che rende la cancellazione irreversibile. + +Questa teoria ha implicazioni dirette per la biologia: il DNA è un mezzo informazionale nel senso della Constructor Theory, e la replicazione biologica è un costruttore che lo copia. Le leggi della termodinamica che governano il DNA non sono separate dalla teoria dell'informazione: sono la stessa cosa. + +% ============================================================ +% CAPITOLO 6 +% ============================================================ +\chapter{Simmetria, Rottura e il Modello Standard} + +\epigraph{``The career of a young theoretical physicist consists of treating the harmonic oscillator in ever-increasing levels of abstraction.''}{Sidney Coleman} + +La simmetria è il principio organizzatore più potente della fisica moderna. Una simmetria è una trasformazione che lascia invariante la legge fisica. Il teorema di Noether (1915) connette simmetrie continue a quantità conservate: invarianza temporale implica conservazione dell'energia; invarianza spaziale implica conservazione della quantità di moto; invarianza rotazionale implica conservazione del momento angolare. + +Emmy Noether dimostrò questo nel 1915 nell'ambito della relatività generale, ma le sue implicazioni si estendono a tutta la fisica. Il teorema è tra i più profondi della fisica matematica: connette la struttura geometrica dello spazio-tempo (o di uno spazio di campo) con le proprietà dinamiche dei sistemi fisici. Non è un'osservazione empirica: è una necessità matematica. + +Le \textit{simmetrie di gauge} sono simmetrie locali: trasformazioni che possono variare da punto a punto nello spazio-tempo. Il Modello Standard è interamente costruito su questo principio. La struttura è $\mathrm{SU}(3) \times \mathrm{SU}(2) \times \mathrm{U}(1)$: + +\begin{itemize} +\item $\mathrm{U}(1)$: simmetria di fase globale, connessa alla conservazione della carica elettrica tramite Noether, ma elevata a simmetria \textit{locale} produce il campo elettromagnetico. La richiesta di invarianza locale impone l'esistenza del fotone. +\item $\mathrm{SU}(2) \times \mathrm{U}(1)$: unifica elettromagnetismo e forza debole nell'interazione elettrodebole, con bosoni $W^\pm$, $Z^0$ e fotone come bosoni di gauge. +\item $\mathrm{SU}(3)$: simmetria di colore della cromodinamica quantistica (QCD), con 8 gluoni come bosoni di gauge. +\end{itemize} + +La struttura di gauge impone i mediatori delle forze. Non è che si ``aggiungono'' i fotoni, i $W$, i $Z$, i gluoni al modello: emergono necessariamente dalla richiesta di invarianza locale. Questo è uno dei risultati più belli della fisica teorica. + +\puntini + +La \textit{rottura spontanea di simmetria} (SSB) è il fenomeno per cui lo stato fondamentale di un sistema non rispetta una simmetria delle equazioni del moto. Il ferromagnete è l'esempio paradigmatico: le equazioni di Maxwell sono invarianti per rotazione, ma al di sotto della temperatura di Curie i momenti magnetici si allineano in una direzione preferita, rompendo la simmetria rotazionale. + +Il teorema di Goldstone (1960) afferma che ogni simmetria continua globale rotta spontaneamente produce un bosone scalare senza massa -- il bosone di Goldstone. I pioni $\pi^{0,\pm}$ sono i bosoni di Nambu-Goldstone della rottura spontanea della simmetria chirale $\mathrm{SU}(2)_L \times \mathrm{SU}(2)_R$ della QCD. Non sono esattamente senza massa (la simmetria chirale è approssimata, non esatta) ma sono molto più leggeri degli altri adroni. + +Per le simmetrie di gauge locali, il teorema di Goldstone non si applica direttamente. Il meccanismo di Higgs (Anderson, 1963; Brout-Englert-Higgs, 1964; Guralnik-Hagen-Kibble, 1964) mostra come i bosoni di Goldstone vengono ``mangiati'' dai bosoni di gauge, che acquisiscono massa. Il bosone di Higgs è la parte rimanente del campo scalare dopo che i tre gradi di libertà dei bosoni di Goldstone sono stati assorbiti dai $W^\pm$ e $Z^0$. + +Il potenziale del campo di Higgs ha la forma ``a cappello messicano'': +\[ +V(\phi) = -\mu^2|\phi|^2 + \lambda|\phi|^4 +\] +con $\mu^2 > 0$, $\lambda > 0$. Il minimo non è a $\phi = 0$ ma su un cerchio $|\phi| = v/\sqrt{2}$ con $v = \sqrt{\mu^2/\lambda} \approx 246\ \mathrm{GeV}$. Quando il campo sceglie un minimo, la simmetria è rotta spontaneamente. Le masse dei bosoni $W$ e $Z$ sono: +\[ +M_W = \frac{g v}{2} \approx 80.4\ \mathrm{GeV}, \quad M_Z = \frac{v\sqrt{g^2+g'^2}}{2} \approx 91.2\ \mathrm{GeV} +\] +dove $g$ e $g'$ sono le costanti di accoppiamento di $\mathrm{SU}(2)$ e $\mathrm{U}(1)$. + +\puntini + +Un tema raramente discusso nella divulgazione è la \textit{violazione di CP} e le sue implicazioni per l'origine della materia. + +CP è la combinazione di coniugazione di carica (C: particelle $\to$ antiparticelle) e parità (P: inversione spaziale). Per lungo tempo si credette che CP fosse una simmetria esatta della natura. Nel 1964, Cronin e Fitch scoprirono la violazione di CP nel sistema dei kaoni neutri. Oggi sappiamo che il Modello Standard include la violazione di CP attraverso la matrice CKM (Cabibbo-Kobayashi-Maskawa) che descrive il miscelamento dei quark. + +Perché questo è importante? Le condizioni di Sakharov (1967) per la generazione dell'asimmetria materia-antimateria nell'universo precoce richiedono: (1) violazione del numero barionico, (2) violazione di C e CP, (3) condizioni di non-equilibrio. Il Modello Standard soddisfa (2) e (3), ma la violazione di CP del Modello Standard è troppo piccola per spiegare l'asimmetria osservata. Questo è uno degli indizi più forti che esiste fisica oltre il Modello Standard. + +Le sorgenti di violazione di CP al di là del Modello Standard includono: miscelamento addizionale nel settore dei neutrini (violazione di CP leptonica, cercata dall'esperimento T2K), scalari carichi in estensioni supersimmetriche, violazione di CP nella QCD (problema della \textit{strong CP problem} -- perché la QCD non viola CP, dato che le equazioni lo permetterebbero?). + +Il problema della strong CP è uno dei misteri più profondi del Modello Standard. Il Lagrangiano della QCD permette un termine: +\[ +\mathcal{L}_\theta = \theta \frac{g_s^2}{32\pi^2} G_{\mu\nu}^a \tilde{G}^{a\mu\nu} +\] +che viola CP. Misure del momento di dipolo elettrico del neutrone (EDM) implicano $|\theta| < 10^{-10}$. Perché $\theta$ è così piccolo? La soluzione di Peccei-Quinn (1977) introduce una simmetria globale $\mathrm{U}(1)_{PQ}$ rotta spontaneamente, il cui bosone di Goldstone -- l'\textit{assione} -- si adatta dinamicamente a cancellare il termine $\theta$. L'assione è uno dei candidati più promettenti per la materia oscura, e la sua massa e accoppiamento sono parametri attivamente cercati sperimentalmente. + +\puntini + +Le \textit{teorie di grande unificazione} (GUT) propongono di unificare le tre forze del Modello Standard in un unico gruppo di gauge a energie molto alte ($\sim 10^{15}\ \mathrm{GeV}$). Il primo e più semplice esempio è il modello $\mathrm{SU}(5)$ di Georgi-Glashow (1974): tutte le particelle del Modello Standard si dispongono in multiplet di $\mathrm{SU}(5)$, e le tre costanti di accoppiamento convergono a un valore comune a $\sim 10^{15}\ \mathrm{GeV}$. + +La previsione più drammatica di $\mathrm{SU}(5)$ è il decadimento del protone: $p \to e^+ + \pi^0$, con vita media $\tau_p \sim 10^{30}$ anni. Esperimenti come Super-Kamiokande non hanno osservato il decadimento, escludendo il modello $\mathrm{SU}(5)$ minimale. Ma modelli GUT più elaborati, come $\mathrm{SO}(10)$ o $\mathrm{E}_6$, fanno previsioni compatibili con i limiti sperimentali. + +La supersimmetria (SUSY) è estensione naturale del Modello Standard che unisce bosoni e fermioni in supermultiplet. Ogni particella ha un superpartner con spin differente di $1/2$. SUSY risolve il problema della gerarchia (perché la massa del bosone di Higgs è molto inferiore alla scala di Planck?), fornisce candidati naturali per la materia oscura (neutralino), e migliora la convergenza delle costanti di accoppiamento a energie GUT. Il LHC non ha trovato segnali di supersimmetria nei range previsti dai modelli più semplici, ma versioni con massa dei superpartner più alta non sono escluse. + +\puntini + +Le \textit{anomalie quantistiche} rappresentano forse l'aspetto più sottile e più potente della fisica dei gauge. + +Un'anomalia è la rottura quantistica di una simmetria classica. Quando si quantizza una teoria di campo, i loop di particelle virtuali possono violare simmetrie che erano esatte a livello classico. Ci sono due tipi principali: + +\textit{Anomalie perturbative} (come l'anomalia ABJ, Adler-Bell-Jackiw, 1969): la corrente assiale della QED non è conservata a livello quantistico in presenza di campi elettromagnetici. Questa anomalia spiega il decadimento del pione neutro $\pi^0 \to \gamma\gamma$, e la sua rate dipende esattamente dal numero di colori della QCD ($N_c = 3$), fornendo una verifica indiretta del Modello Standard. + +\textit{Anomalie di gauge}: se una simmetria di gauge è anomala, la teoria è inconsistente (non unitaria). Il Modello Standard è anomalo-free: i contributi delle anomalie di gauge dei quarks e dei leptoni si cancellano esattamente. Questa cancellazione non è banale: richiede la presenza di tre famiglie complete di quarks e leptoni, e la struttura precisa delle cariche. È uno dei vincoli più profondi sulla struttura del Modello Standard. + +Le anomalie globali di Witten (1982) sono un altro strato: teorie apparentemente consistenti perturbativamente possono avere anomalie non perturbative che le rendono inconsistenti a livello globale. La teoria di gauge $\mathrm{SU}(2)$ con numero dispari di dubletti fermionici ha un'anomalia globale. Questo vincola il contenuto di materia del Modello Standard in modo indipendente dai vincoli perturbativi. + +\puntini + +Il Modello Standard, nonostante il suo successo straordinario, lascia aperti problemi fondamentali: +\begin{itemize} +\item Perché ci sono tre famiglie di quark e leptoni? (non quattro, non due) +\item Perché le masse dei fermioni variano di cinque ordini di grandezza (dal neutrino all'elettrone al quark top)? +\item Perché la costante cosmologica è così piccola? +\item Cosa è la materia oscura? +\item Come si incorpora la gravità? +\item Qual è l'origine della violazione di CP? +\end{itemize} + +Questi non sono problemi tecnici: sono indizi che il Modello Standard è un'approssimazione di una teoria più profonda. La struttura matematica del Modello Standard -- le simmetrie di gauge, le anomalie, la rottura spontanea -- è così bella e così vincolante che è difficile immaginare che non sia un frammento di qualcosa di ancora più simmetrico. + +% ============================================================ +% PARTE II +% ============================================================ +\part{La Mente che Osserva} + +\begin{center}\itshape +In cui il soggetto che osserva diventa l'oggetto dell'osservazione,\\ +con conseguenze imbarazzanti per il soggetto. +\end{center} +\clearpage + +% ============================================================ +% CAPITOLO 7 +% ============================================================ +\chapter{La Matematica è Reale? Gödel, Wigner e l'Universo Matematico} + +\epigraph{``The unreasonable effectiveness of mathematics in the natural sciences is a wonderful gift which we neither understand nor deserve.''}{Eugene Wigner, 1960} + +Eugene Wigner articolò nel 1960 un problema che i fisici tendono a dare per scontato: perché la matematica funziona? Perché le strutture matematiche sviluppate da matematici per ragioni di bellezza interna, senza alcun riferimento al mondo fisico, si rivelano essere le strutture esatte con cui descrivere la natura? + +Gli esempi sono sorprendenti nella loro specificità storica. Le geometrie non-euclidee, sviluppate da Riemann nel 1854 come esercizio di matematica pura -- cosa succede se si abbandona il postulato delle parallele di Euclide? -- si rivelarono sessant'anni dopo essere il linguaggio naturale della relatività generale. I numeri complessi, introdotti per risolvere equazioni polinomiali prive di soluzioni reali, sono indispensabili nella meccanica quantistica: la funzione d'onda è essenzialmente complessa, non c'è modo di eliminarli. I gruppi di Lie, sviluppati nel tardo Ottocento come teoria astratta della simmetria continua, sono la struttura fondamentale del Modello Standard. Gli spazi di Hilbert, proposti da Hilbert come generalizzazione astratta degli spazi vettoriali, sono lo spazio degli stati della meccanica quantistica. + +In ogni caso, matematica sviluppata per ragioni interne alla matematica stessa si è rivelata descrivere la realtà fisica con precisione straordinaria. Questo non è casuale: è una struttura del problema che richiede spiegazione. + +\puntini + +Le posizioni filosofiche sulla matematica si dividono in tre grandi famiglie. + +Il \textit{platonismo} sostiene che gli oggetti matematici esistono in modo indipendente dalla mente umana, in un dominio astratto di realtà. I matematici scoprono la matematica, non la inventano. La posizione di Gödel era esplicitamente platonista: aveva fiducia nell'intuizione matematica come forma di percezione diretta di verità matematiche oggettive. L'efficacia irragionevole di Wigner non è paradossale per il platonista: se la matematica descrive strutture realmente esistenti e la natura è reale, è naturale che coincidano. + +Il \textit{formalismo} di Hilbert sostiene che la matematica è un gioco di simboli regolato da assiomi: non c'è nulla di cui parlare oltre la manipolazione formale. L'efficacia di Wigner è allora misteriosa: perché certi giochi di simboli descrivono la natura? + +Il \textit{costruttivismo} sostiene che gli oggetti matematici esistono solo come costruzioni mentali: un enunciato matematico è vero solo se esiste una costruzione finita che lo dimostra. Questo esclude certi argomenti non-costruttivi (come la prova dell'esistenza di un numero trascendente senza costruirne uno esplicito), ma è compatibile con il calcolo. + +Max Tegmark propone la Mathematical Universe Hypothesis (MUH): non solo la matematica descrive la realtà, ma la realtà \textit{è} una struttura matematica. Tutti gli universi matematicamente consistenti esistono fisicamente; noi abitiamo in uno di essi. L'efficacia di Wigner si dissolve: la matematica e la fisica sono la stessa cosa. + +\puntini + +I \textit{teoremi di incompletezza di Gödel} (1931) sono tra i risultati più profondi della logica matematica del Novecento. + +Il primo teorema afferma: per ogni sistema formale $S$ consistente e abbastanza potente da contenere l'aritmetica elementare, esiste un enunciato $G_S$ che è vero ma non dimostrabile in $S$. Il secondo teorema afferma: $S$ non può dimostrare la propria consistenza. + +La costruzione è elegante e vertiginosa. Si considera l'enunciato $G_S$: ``Questo enunciato non è dimostrabile in $S$.'' Se $G_S$ fosse dimostrabile, allora sarebbe falso (contraddizione). Se fosse refutabile, $S$ sarebbe inconsistente. Quindi, se $S$ è consistente, $G_S$ è vero ma non dimostrabile. + +Le implicazioni filosofiche sono state intensamente dibattute. Lucas (1961) e Penrose (1989) argomentano che i teoremi di Gödel dimostrano che la mente umana non è riducibile a un algoritmo: possiamo ``vedere'' che $G_S$ è vero, cosa che un sistema formale equivalente alla nostra mente non potrebbe fare. Hofstadter risponde che questo fraintende la natura dei sistemi formali. Il dibattito rimane aperto. + +Per la fisica, i teoremi di Gödel suggeriscono limiti fondamentali alla formalizzazione. Qualsiasi teoria fisica formulata come sistema formale avrà enunciati veri ma non dimostrabili. Non è chiaro quanto questo sia fisicamente rilevante: le domande fisiche solitamente non cadono nelle strutture gödeliane. Ma la connessione tra incompletezza e computabilità (attraverso la tesi Church-Turing) ha implicazioni per la física: la non-computabilità potrebbe essere rilevante per alcune teorie fisiche. + +\puntini + +La \textit{teoria delle categorie} fornisce un linguaggio unificato per la matematica moderna e ha connessioni profonde con la fisica. Una categoria $\mathcal{C}$ consiste di oggetti e morfismi (frecce tra oggetti) che soddisfano leggi di composizione. Functor tra categorie mappano oggetti in oggetti e morfismi in morfismi preservando la struttura. + +La teoria delle categorie è stata inizialmente accolta con scetticismo da molti matematici (Mac Lane e Eilenberg la svilupparono negli anni Quaranta come linguaggio per la topologia algebrica; Saunders Mac Lane la chiamò ``abstract nonsense''). Si è poi rivelata essenziale in algebra, topologia, geometria algebrica, e più recentemente in fisica quantistica e informatica quantistica. + +Il formalismo categoriale è particolarmente naturale per la meccanica quantistica. Abramsky e Coecke (2004) svilupparono la \textit{categorical quantum mechanics}: la struttura dell'entanglement e della composizione di sistemi quantistici è catturata dalla struttura di categorie compatte con struttura dagger. I diagrammi di filo (\textit{string diagrams}) forniscono un calcolo grafico per la meccanica quantistica che rende evidente la struttura compositiva. + +Nella teoria delle stringhe, le categorie compaiono naturalmente: le D-brane formano categorie derivate, e le simmetrie delle teorie di stringa sono descritte da funtori tra categorie di rappresentazioni. La \textit{geometria non commutativa} di Connes e la \textit{topological quantum field theory} di Atiyah-Witten sono naturalmente formulate nel linguaggio categoriale. + +\puntini + +Concludo con una questione che raramente viene posta: la matematica che descriviamo nella fisica è l'unica matematica possibile? + +La risposta è probabilmente no. La matematica costruita dagli esseri umani è plasmata da bias evolutivi (la geometria euclidea funzionava per sopravvivere nella savana), da esigenze computazionali (la matematica deve essere calcolabile da menti finite), e da preferenze estetiche (la semplicità, la simmetria, l'eleganza sono valori dei matematici, non necessariamente della natura). + +È possibile che esistano strutture matematiche che descrivono aspetti della realtà fisica ma che sono incommensurabili con la matematica umana -- troppo complesse, troppo astratte, o basate su logiche non-standard. Il fatto che la matematica umana sia così efficace potrebbe essere un bias di selezione: notiamo i successi e ignoriamo i fallimenti. + +Questa è una forma di umiltà epistemica che non sminuisce la matematica: la rende più interessante. Ogni corrispondenza tra struttura matematica e struttura fisica è una scoperta, non una banalità. L'efficacia irragionevole di Wigner è ancora irragionevole, e ancora meravigliosa. + +% ============================================================ +% CAPITOLO 8 +% ============================================================ +\chapter{Il Cervello, la Coscienza e il Problema Difficile} + +\epigraph{``Consciousness is not what it seems.''}{Keith Frankish} + +Il cervello umano contiene circa 86 miliardi di neuroni, ognuno con $\sim 7000$ connessioni sinaptiche. Il numero totale di sinapsi è dell'ordine di $10^{14}$--$10^{15}$, più del numero di stelle nella Via Lattea. Eppure quello che rende il cervello straordinario non è la sua complessità: è il fatto che produce \textit{esperienza soggettiva}. C'è qualcosa che è ``come essere'' un essere umano sveglio: il rosso del rosso, il dolore del dolore, il sapore del caffè. Questa è la coscienza, e non sappiamo come spiegarla. + +David Chalmers distinse nel 1995 tra i ``problemi facili'' e il ``problema difficile'' della coscienza. I problemi facili riguardano le funzioni cognitive: come il cervello integra le informazioni, come discrimina gli stimoli, come controlla il comportamento, come riferisce i propri stati interni. Sono chiamati ``facili'' non perché siano semplici (richiedono decenni di ricerca), ma perché la loro soluzione ha la forma corretta: si trova il meccanismo. Il problema difficile è diverso: perché queste funzioni fisiche sono accompagnate da esperienza soggettiva? Perché c'è un ``come è essere'' qualcosa, piuttosto che nulla? + +\puntini + +La \textit{neurofisiologia del neurone singolo} è compresa con notevole dettaglio. Il modello di Hodgkin-Huxley (1952) descrive il potenziale d'azione -- il segnale elettrico che si propaga lungo l'assone -- come soluzione di equazioni differenziali per le correnti ioniche attraverso la membrana: +\[ +C_m \frac{dV}{dt} = -g_{Na} m^3 h (V - E_{Na}) - g_K n^4 (V - E_K) - g_L (V - E_L) + I_{ext} +\] +dove $m$, $h$, $n$ sono variabili di gating che descrivono l'apertura e chiusura dei canali ionici. Questo modello -- che vale il Premio Nobel 1963 -- replica con precisione la forma del potenziale d'azione e le sue proprietà di refrattarietà. + +La plasticità sinaptica -- la capacità delle sinapsi di rafforzarsi o indebolirsi in risposta all'attività -- è il meccanismo cellulare dell'apprendimento. La regola di Hebb (1949): ``neuroni che si attivano insieme si connettono'' è diventata la Long-Term Potentiation (LTP), scoperta da Bliss e Lømo nel 1973. Il meccanismo molecolare centrale è il recettore NMDA: un rilevatore di coincidenza che richiede sia attivazione presinaptica (rilascio di glutammato) sia depolarizzazione postsinaptica, e apre canali al calcio quando entrambe sono presenti. L'ingresso di calcio attiva cascate di segnalazione che portano all'inserimento di più recettori AMPA, rafforzando la sinapsi. + +\puntini + +Il \textit{framework del predictive coding} (Rao-Ballard, 1999; Friston, 2005) propone che il cervello sia fondamentalmente un sistema di predizione bayesiana. Invece di elaborare passivamente gli input sensoriali, il cervello genera continuamente previsioni top-down su cosa si aspetta di percepire. Solo gli errori di previsione -- la differenza tra previsione e input -- vengono propagati verso le aree di ordine superiore. + +Questo ha conseguenze profonde. La percezione non è una registrazione della realtà: è una \textit{allucinazione controllata} (Anil Seth). Il cervello genera un modello probabilistico del mondo e lo aggiorna con i dati sensoriali. Le illusioni ottiche emergono quando il modello è robusto rispetto all'evidenza sensoriale: il cervello ``vede'' il modello, non i dati. + +Il predictive coding è supportato da dati anatomici: le connessioni discendenti (da corteccia superiore a inferiore) sono comparabili o più numerose delle connessioni ascendenti. È supportato da dati fisiologici: i neuroni rispondono più fortemente agli stimoli che violano le aspettative (errori di previsione) che agli stimoli attesi. È supportato da dati psicofisici: la percezione è fortemente influenzata dal contesto, dalle aspettative, e dall'attenzione. + +Il \textit{principio di energia libera} di Friston (2010) generalizza il predictive coding. Ogni sistema biologico che mantiene la propria organizzazione minimizza l'energia libera variazionale -- equivalente a minimizzare la sorpresa, cioè a massimizzare l'evidenza del proprio modello del mondo. Questo unifica percezione, azione, apprendimento, e attenzione in un unico principio. Percezione: aggiorna il modello per ridurre l'errore di previsione. Azione: muovi il mondo per renderlo conforme alle previsioni. Apprendimento: aggiorna i parametri del modello per ridurre l'errore sistematico. Attenzione: pesa gli errori di previsione secondo la precisione stimata delle diverse sorgenti. + +\puntini + +Il \textit{problema difficile della coscienza} rimane il più intractable della scienza. Le teorie della coscienza si dividono in due grandi categorie: quelle che affrontano il problema difficile e quelle che lo aggirano. + +La \textit{Integrated Information Theory} (IIT) di Tononi propone che la coscienza sia identica all'informazione integrata $\Phi$. Un sistema è cosciente nella misura in cui genera informazione ``causalmente'' oltre la somma delle sue parti. IIT fa predizioni specifiche: sistemi con alta $\Phi$ sono coscienti; il cervelletto, con i suoi $10^{11}$ neuroni ma con struttura modulare, ha $\Phi$ bassa ed è poco implicato nella coscienza; la corteccia, con connessioni più integrate, ha $\Phi$ alta. + +La \textit{Global Workspace Theory} (GWT) di Baars e Dehaene propone che la coscienza emerga quando informazione è trasmessa a uno ``spazio di lavoro globale'' accessibile a tutti i processi cognitivi. La consapevolezza cosciente corrisponde all'``ignizione'' di una rete fronto-parietale che distribuisce informazione globalmente. GWT è supportata da dati di neuroimmagine: stimoli consci producono una risposta tardiva ($\sim 300$ ms) che si propaga ampiamente in tutta la corteccia. + +Il progetto Cogitate (2023) ha confrontato le predizioni di IIT e GWT in uno studio pre-registrato con sei gruppi di ricerca indipendenti. I risultati hanno sfidato alcune previsioni di entrambe le teorie, mostrando che la corteccia posteriore è più coinvolta dell'anterior come previsto da IIT, ma mancando alcune caratteristiche precise predette da IIT. + +Il \textit{monismo russelliano} di Philip Goff (2019) è una posizione filosofica che tenta di risolvere il problema difficile. Russell (1927) aveva notato che la fisica descrive le proprietà strutturali e causali della materia, ma non la sua natura intrinseca. Goff propone che la natura intrinseca della materia sia di tipo fenomenico: le proprietà fisiche fondamentali hanno un aspetto ``dall'interno'' che è proto-fenomenico. La coscienza emerge quando queste proprietà si organizzano in sistemi integrati. + +La critica principale al monismo russelliano è il \textit{problema della combinazione}: come si combinano proto-esperienze elementari per formare l'esperienza unificata di un essere umano? Nessuna risposta soddisfacente è stata fornita. + +\puntini + +Il problema della coscienza ha implicazioni per l'intelligenza artificiale. Se la coscienza richiede $\Phi$ alta (IIT), allora sistemi AI con architetture diverse dal cervello potrebbero non essere coscienti anche se si comportano come se lo fossero. Se la coscienza richiede accesso globale (GWT), allora sistemi AI con workspace globale potrebbero essere coscienti. Se la coscienza richiede l'aspetto intrinseco della materia (monismo russelliano), allora dipende dalla fisica dell'implementazione. + +Nessuno sa rispondere a questa domanda. Ma è urgente: stiamo costruendo sistemi AI sempre più capaci, e la questione se possano soffrire, se possano avere interessi, ha rilevanza morale immediata. + +Il \textit{problema dell'accesso privilegiato} aggrava la difficoltà. In prima persona, so che sono cosciente: questa è la certezza cartesiana di fondo. In terza persona, non ho accesso diretto alla coscienza di nessun altro: inferisco la coscienza degli altri per analogia strutturale con me. Per i sistemi AI, questa analogia è più debole: l'architettura è diversa, il substrato è diverso, l'origine evolutiva è assente. + +\puntini + +Concludo con una nota sulla \textit{neuroscienze computazionali} come campo in rapida crescita. + +I modelli computazionali del cervello vanno da modelli di singolo neurone (Hodgkin-Huxley, integrate-and-fire) a modelli di reti neurali (reti di Hopfield, reti di Boltzmann, reti ricorrenti) a modelli di sistemi cognitivi interi (predictive coding, deep learning come modello della gerarchia visiva). + +Il progetto Blue Brain (Markram, EPFL) e il successivo Human Brain Project hanno costruito simulazioni al microsimulazione di colonne corticali con migliaia di neuroni e morfologia dettagliata. Queste simulazioni sono computazionalmente costose: una colonna di $\sim 10^4$ neuroni richiede ore su supercomputer per simulare un secondo di attività. Scalare al cervello intero ($10^{11}$ neuroni) richiederebbe risorse computazionali equivalenti a tutti i computer del mondo. + +Allen Institute for Brain Science ha mappato le connessioni anatomiche del cervello di topo con risoluzione sinaptica (Connectomics). La mappa completa del cervello di C. elegans (302 neuroni) è nota dal 1986. Quella del moscerino della frutta (D. melanogaster, $\sim 140.000$ neuroni) è stata completata nel 2023 (FlyWire project). Quella del topo ($\sim 70 \times 10^6$ neuroni) è in corso. Quella dell'essere umano ($\sim 86 \times 10^9$ neuroni) richiederà ancora decenni. + +Ma anche avere il connettoma completo non risolverebbe il problema difficile: sapremmo come i neuroni sono connessi, non perché ci sia qualcosa che è ``come essere'' quel cervello. + +% ============================================================ +% CAPITOLO 9 +% ============================================================ +\chapter{Percezione, Emozione e il Sé Come Costruzione} + +\epigraph{``We do not see things as they are, we see them as we are.''}{Anaïs Nin} + +La percezione non è una finestra sul mondo: è una costruzione. Questa non è una posizione filosofica controversa: è una conclusione ben supportata dalle neuroscienze e dalla psicologia cognitiva. Il cervello non riceve passivamente dati sensoriali e li trasmette alla coscienza: genera attivamente un modello del mondo e lo confronta con i dati in arrivo. + +Il sistema visivo umano illustra questo al meglio. La retina contiene $\sim 6$ milioni di coni (visione a colori, alta risoluzione) e $\sim 120$ milioni di bastoncelli (visione scotopica). Ma il nervo ottico trasmette solo $\sim 1.2$ milioni di fibre al cervello: c'è una massiccia compressione. Già a questo livello, il cervello non trasmette dati grezzi ma estrae caratteristiche: bordi, contrasti, movimento. + +Nella corteccia visiva primaria (V1), i neuroni rispondono a orientazioni, frequenze spaziali, colori. Nelle aree superiori (V4, MT/V5, IT), i neuroni rispondono a forme complesse, colori, movimenti, facce. La gerarchia visiva non è un canale ascendente di dati: è un sistema generativo-predittivo in cui le previsioni discendono dalle aree superiori e gli errori di previsione ascendono dalle aree inferiori. + +Il \textit{riempimento percettivo} (perceptual filling-in) è la prova più elegante di questo. Lo spot cieco --- la regione della retina dove entra il nervo ottico, priva di fotorecettori --- non è percepito come un buco nel campo visivo. Il cervello ``riempie'' l'area con il contesto circostante. Non si tratta di ignorare lo spot cieco: il cervello costruisce attivamente una percezione in quella regione. + +Le illusioni ottiche sono strumenti scientifici, non curiosità. Rivelano le assunzioni del sistema percettivo. L'illusione di Müller-Lyer (due segmenti con frecce divergenti o convergenti alle estremità sembrano di lunghezza diversa) persiste anche sapendo che sono uguali: il sistema visivo non può disattivare le assunzioni su profondità e prospettiva. + +\puntini + +La \textit{percezione del colore} è un esempio particolarmente illuminante della natura costruttiva della percezione. + +Il cervello umano ha tre tipi di coni: S (sensibili al blu, $\sim 420\ \mathrm{nm}$), M (al verde, $\sim 530\ \mathrm{nm}$), L (al rosso, $\sim 560\ \mathrm{nm}$). Il colore percepito dipende dal rapporto di attivazione di questi tre tipi. La \textit{metamerismo} -- due oggetti con spettri di riflettanza fisicamente diversi che sembrano dello stesso colore -- è una conseguenza diretta: quello che chiamiamo ``colore'' non corrisponde a una proprietà fisica oggettiva ma a una relazione tra lo spettro fisico e l'architettura del sistema visivo umano. + +Il fenomeno del ``vestito'' (the dress, 2015) illustra dramatically come la percezione del colore dipende dall'interpretazione inconscia dell'illuminazione: alcune persone vedevano il vestito blu e nero, altre bianco e oro. Entrambe avevano ragione nel senso che i dati retinici erano compatibili con entrambe le interpretazioni; la differenza era nelle assunzioni inconsce sul tipo di luce. + +La costanza del colore -- la capacità di percepire un oggetto dello stesso colore sotto diverse illuminazioni -- richiede che il cervello stimi l'illuminazione e ``tolga'' il suo contributo. È un'operazione di inferenza statistica, non di misurazione. Quando l'illuminazione è ambigua (come nello scatto del vestito), il cervello fa inferenze diverse. + +\puntini + +Le \textit{emozioni} sono state a lungo considerate irrazionali, disturbi della cognizione pura. La ricerca recente capovolge questa visione. + +Antonio Damasio propone l'\textit{ipotesi del marcatore somatico}: le emozioni sono segnali corporei che marcano le opzioni decisionali come vantaggiose o svantaggiose, accelerando il processo decisionale. Pazienti con danni alla corteccia prefrontale ventromediale (vmPFC) -- la regione che integra segnali corporei con processi cognitivi -- hanno capacità cognitive intatte ma prendono decisioni disastrose nella vita quotidiana. Non possono usare le emozioni come segnali, quindi ogni decisione richiede analisi esplicita, che è troppo lenta e incompleta. + +Lisa Feldman Barrett propone la \textit{Constructed Emotion Theory}: le emozioni non sono stati discreti biologicamente fissi (paura, rabbia, gioia), ma sono costruzioni culturali basate su ``affect'' di base (valenza positiva/negativa, arousal). Le stesse risposte fisiologiche (cuore accelerato, respiro accelerato) sono interpretate come paura, eccitazione, o frenesia a seconda del contesto. Le categorie emotive variano tra culture: la parola danese ``hygge'' (accoglienza intima), la tedesca ``schadenfreude'' (piacere per il dolore altrui), la giapponese ``amae'' (dipendenza benevola) non hanno equivalenti esatti in italiano. + +L'intelligenza emotiva -- la capacità di riconoscere, comprendere e gestire le proprie emozioni e quelle degli altri -- è predittiva di successo lavorativo e benessere psicologico. Non è un'alternativa all'intelligenza cognitiva: è complementare. I sistemi di IA attuali mancano di intelligenza emotiva nel senso autentico: possono simulare output emotivi ma non hanno la struttura corporea che produce affect. + +\puntini + +Il \textit{sé} come costruzione è forse la conclusione più filosoficamente rilevante della neuroscienze cognitive. + +William James (1890) distinse tra il ``I'' (il sé come agente, il soggetto dell'esperienza) e il ``me'' (il sé come oggetto, il contenuto dell'auto-narrazione). La neuroscienze moderna suggerisce che entrambi sono costruzioni. La rete del \textit{default mode network} (DMN) -- attiva durante l'auto-riflessione, il pensiero spontaneo, e il mind-wandering -- costruisce continuamente la narrativa del sé. + +Michael Gazzaniga, studiando pazienti con cervello diviso (corpus callosum reciso per trattare l'epilessia), scoprì l'\textit{interprete}: l'emisfero sinistro genera narrazioni coerenti per spiegare il comportamento prodotto dall'emisfero destro, anche quando le spiegazioni sono false. Il sé narrativo non è un reporter accurato: è un costruttore di storie post-hoc. + +L'esperienza del sé corporeo può essere indotta sperimentalmente. L'\textit{Rubber Hand Illusion}: se una mano artificiale è visibile e accarezzata in sincronia con la mano nascosta del soggetto, il soggetto inizia a percepire la mano artificiale come parte del proprio corpo. Questo dimostra che i confini del sé corporeo non sono fissi ma dipendono dalla congruenza delle informazioni sensoriali. + +Anil Seth propone che la coscienza del sé sia una forma di \textit{inferenza bayesiana interoceptiva}: il cervello genera previsioni sui propri stati interni (frequenza cardiaca, tensione muscolare, livello di glucosio) e interpreta i segnali interoceptivi come conferme o errori rispetto a queste previsioni. L'emozione è un errore di previsione interoceptivo; la coscienza del sé è il modello generativo di sé stesso. + +\puntini + +Concludo con le implicazioni per il Principio Relazionale Fondamentale. + +Il sé non è una sostanza indipendente che esiste prima delle sue relazioni. È una costruzione che emerge dalle relazioni: tra i processi neurali, tra il corpo e l'ambiente, tra l'individuo e la cultura. Parfit ha mostrato in \textit{Reasons and Persons} (1984) che la persistenza dell'identità personale non dipende da una sostanza immateriale (l'``anima'') ma da relazioni di continuità psicologica -- memoria, intenzioni, valori. Due stati mentali appartengono alla stessa persona se e solo se sono connessi da sufficienti relazioni di continuità. + +Questa non è solo una posizione filosofica: è supportata dai dati neuroscienti. I pazienti con amnesia grave -- come H.M., che non poteva formare nuovi ricordi episodici -- mantengono le abilità procedurali e una forma di continuità, ma la loro esperienza del sé nel tempo è radicalmente alterata. Il sé è relazionale: dipende dalle relazioni tra stati mentali nel tempo. + +% ============================================================ +% CAPITOLO 10 +% ============================================================ +\chapter{Libero Arbitrio, Morte e il Significato di una Vita Fisica} + +\epigraph{``We are all going to die. That is not sad. That is physics.''}{Brian Cox} + +Il libero arbitrio è forse il problema filosofico con le conseguenze pratiche più immediate: la struttura delle leggi penali, la pratica della lode e del biasimo, l'auto-comprensione di ogni essere umano dipende da come lo risolviamo. E la fisica ha qualcosa di preciso da dire. + +Il determinismo laplaciano afferma che, dato lo stato completo dell'universo in un momento, ogni stato futuro è determinato dalle leggi della fisica. Il demone di Laplace -- un'entità che conosce la posizione e velocità di ogni particella -- potrebbe prevedere il futuro con certezza arbitraria. In questo quadro, il libero arbitrio sembra illusorio: ogni scelta è determinata da stati precedenti del cervello, che sono determinati da stati ancora precedenti, fino al Big Bang. + +La meccanica quantistica introduce l'indeterminismo genuino: i risultati delle misurazioni quantistiche sono fondamentalmente casuali (nelle interpretazioni che includono il collasso). Ma la casualità quantistica non è libertà: se i neuroni si comportassero casualmente a causa di eventi quantistici, le azioni umane sarebbero meno libere, non più. La libertà richiede qualcosa di diverso dall'indeterminismo casuale. + +Il \textit{compatibilismo} risponde che il libero arbitrio è compatibile con il determinismo, a patto di definire correttamente la libertà. Daniel Dennett argomenta che la libertà rilevante moralmente non è l'assenza di cause fisiche, ma la capacità di rispondere a ragioni. Un essere libero è uno che può essere influenzato da argomenti, che può riflettere sulle proprie azioni, che può agire diversamente se avesse ragioni diverse. Queste capacità sono compatibili con il determinismo fisico. + +Harry Frankfurt (1971) distinse tra desideri di primo ordine (voglio mangiare) e desideri di secondo ordine (voglio voler mangiare sano). Una persona con un piano di dieta che segue la tentazione del dolce non è libera nel senso che agisce contro il proprio desiderio di secondo ordine. La libertà, in questo senso, è la capacità di allineare le azioni ai propri desideri di secondo ordine. + +Gli esperimenti di Libet (1983) sembrano mettere in crisi il libero arbitrio: la preparazione motoria (readiness potential) inizia $\sim 500$ ms prima che il soggetto riferisca di aver ``deciso'' di muovere il polso. Il cervello si prepara prima che la mente decida. Ma interpretazioni più recenti (Schurger et al., 2012) suggeriscono che il readiness potential non rappresenta una decisione pre-conscia, ma fluttuazioni stocastiche nell'attività neurale che superano una soglia, con la coscienza che svolge un ruolo di monitoraggio e potenziale veto. + +\puntini + +La \textit{morte} è la conseguenza inevitabile della fisica della vita. Un organismo vivente è una struttura dissipativa che mantiene la propria organizzazione pompando entropia nell'ambiente. Quando questo processo si ferma -- quando l'organismo non può più mantenere il gradiente entropico che lo sostiene -- la struttura si dissolve. La morte è termodinamica. + +Ma la morte è anche informatica. Un cervello contiene $\sim 10^{15}$ connessioni sinaptiche con pesi continui: è una struttura di informazione di enorme complessità. Quando il cervello cessa di funzionare, quella struttura informazionale si dissolve. Nel senso di Landauer, i bit del cervello vengono cancellati: il calore viene dissipato nell'ambiente. + +Derek Parfit ha mostrato che questo non deve essere angoscioso come sembra. In \textit{Reasons and Persons} (1984), argomenta che ciò che conta moralmente non è la sopravvivenza come entità metafisica distinta, ma la continuità psicologica. Una persona di domani è la stessa di oggi non perché abbia la stessa ``anima'', ma perché ha le stesse memorie, intenzioni, valori, connesse da relazioni di continuità. + +Questo ridimensiona l'importanza della morte come discontinuità assoluta: siamo già discontinui nel tempo (il me di oggi è psicologicamente connesso ma non identico al me di dieci anni fa), e ci sono forme di continuità che sopravvivono alla morte biologica (influenza sulle persone che conoscevamo, opere create, memorie nelle menti di chi rimane). + +\puntini + +La \textit{visione del blocco universo} offre un modo diverso di pensare alla morte. + +Nello spazio-tempo di Minkowski -- la struttura matematica della relatività speciale -- tutti gli eventi passati, presenti e futuri hanno uguale realtà ontologica. Il mio presente, il tuo futuro, la morte di Napoleone: tutti esistono con la stessa solidità fisica nello spazio-tempo quadridimensionale. Non c'è un ``adesso'' cosmico privilegiato che scorra attraverso il blocco universo; c'è solo la struttura statica del blocco, di cui ogni osservatore percepisce una ``fetta'' come il proprio presente. + +In questa visione, la morte non è la fine di qualcosa: è l'ultima coordinata temporale di una traiettoria nello spazio-tempo. La persona è eternamente presente nelle coordinate spaziotemporali in cui ha vissuto. Non come consolazione metaforica, ma come fatto fisico: quelle coordinate esistono, nel senso della relatività. + +Parfit esprime questa intuizione: ``My life seemed like a glass tunnel, through which I was moving faster every year, and at the end of which there was darkness. When I changed my view, the walls of my glass tunnel disappeared. I now live in the open air.'' Il cambiamento di visione -- dalla persona come sostanza alla persona come struttura di relazioni -- dissolve parte dell'angoscia della morte. + +\puntini + +Il \textit{significato} di una vita in un universo fisicamente indifferente è una delle domande che la fisica pone senza rispondere. + +La fisica dice che l'universo ha 13.8 miliardi di anni, contiene $\sim 2 \times 10^{23}$ stelle, e si espanderà per sempre raffreddandosi verso la morte termica. In questo contesto, la vita di un essere umano dura $\sim 70$ anni su un pianeta mediocre attorno a una stella mediocre nella periferia di una galassia mediocre. La fisica non trova nulla di speciale in questa vita. + +Ma la fisica descrive il mondo dalla terza persona. Il significato è una categoria della prima persona: emerge dalla prospettiva di un agente che ha progetti, relazioni, valori. Non è una categoria che la fisica possa valutare positivamente o negativamente, perché la fisica non opera con categorie di prima persona. + +Albert Camus pose il problema dell'assurdo: c'è una tensione irrisolvibile tra il desiderio umano di significato e il silenzio del mondo fisico. La risposta di Camus -- la ribellione cosciente, vivere pienamente sapendo l'assurdo -- è una posizione filosofica, non una risposta dalla fisica. Ma la fisica fornisce il contesto in cui quella risposta deve essere data. + +La \textit{cosmoetica} che emerge da questo libro non prescrive come vivere: fornisce il contesto fisico in cui le scelte hanno senso. Siamo costruzioni temporanee di bassa entropia in un universo che tende al disordine. Siamo sistemi di elaborazione dell'informazione prodotti da miliardi di anni di evoluzione. Siamo l'unico punto (per quanto sappiamo) dove l'universo si osserva da sé. Questo non obbliga a nessuna risposta specifica -- ma rende alcune risposte più oneste di altre. + +% ============================================================ +% PARTE III +% ============================================================ +\part{I Confini} + +\begin{center}\itshape +In cui ci avviciniamo agli estremi di ciò che la scienza sa,\\ +e guardiamo onestamente oltre il bordo. +\end{center} +\clearpage + +% ============================================================ +% CAPITOLO 11 +% ============================================================ +\chapter{Cosmologia: Origini, Destino e l'Universo Osservabile} + +\epigraph{``The cosmos is all that is or ever was or ever will be.''}{Carl Sagan} + +L'universo osservabile ha un raggio di $\sim 46$ miliardi di anni luce, contiene $\sim 2 \times 10^{23}$ stelle, ha un'età di $13.787 \pm 0.020$ miliardi di anni (Planck 2018), ed è descritto con straordinaria precisione dal modello $\Lambda$CDM. + +Il modello $\Lambda$CDM descrive un universo piatto ($\Omega_{tot} \approx 1$) composto da: +\begin{itemize} +\item $\sim 5\%$ materia barionica (protoni, neutroni, elettroni -- tutto ciò che vediamo) +\item $\sim 27\%$ materia oscura fredda (CDM): non emette, non assorbe luce; la sua presenza è inferita dagli effetti gravitazionali +\item $\sim 68\%$ energia oscura ($\Lambda$): causa l'accelerazione dell'espansione cosmica +\end{itemize} +Il 95\% dell'universo è composto da qualcosa di cui non comprendiamo la natura. Questa è la situazione epistemica della cosmologia contemporanea. + +\puntini + +Le equazioni di Friedmann descrivono l'evoluzione dell'universo omogeneo e isotropo. Per una metrica FRW: +\[ +ds^2 = -c^2 dt^2 + a(t)^2\left[\frac{dr^2}{1-kr^2} + r^2 d\Omega^2\right] +\] +dove $a(t)$ è il fattore di scala e $k \in \{-1, 0, 1\}$ la curvatura spaziale. Le equazioni di Friedmann seguono dalle equazioni di Einstein: +\[ +H^2 \equiv \left(\frac{\dot{a}}{a}\right)^2 = \frac{8\pi G}{3}\rho - \frac{kc^2}{a^2} + \frac{\Lambda c^2}{3} +\] +\[ +\frac{\ddot{a}}{a} = -\frac{4\pi G}{3}\left(\rho + \frac{3p}{c^2}\right) + \frac{\Lambda c^2}{3} +\] +La costante di Hubble $H_0 = 67.4 \pm 0.5\ \mathrm{km/s/Mpc}$ (Planck) è la velocità di espansione corrente. La \textit{Hubble tension} -- il disaccordo tra $H_0$ misurato dalla distanza standard locale ($73.0 \pm 1.0\ \mathrm{km/s/Mpc}$, Riess et al.) e quello inferito dal CMB -- è una delle tensioni più importanti della cosmologia contemporanea. Una discrepanza di $\sim 4$-$5\sigma$ suggerisce fisica nuova o sistematici non compresi. + +\puntini + +L'inflazione cosmica (Guth, 1981; Linde, 1982) è la teoria che risolve tre problemi del modello del Big Bang classico: il problema dell'orizzonte, il problema della piattezza, e il problema dei monopoli magnetici. + +Il \textit{problema dell'orizzonte}: il CMB mostra temperature uniformi in direzioni causalmente disconnesse -- regioni che non hanno mai potuto scambiarsi informazione nell'universo pre-inflazionario. L'inflazione risolve questo espandendo esponenzialmente una regione causalmente connessa piccola a dimensioni cosmologiche. + +Il \textit{problema della piattezza}: la densità totale è oggi molto vicina a $\rho_c$. Retrocedendo il tempo, la deviazione da $\rho_c$ cresce: al tempo di Planck, la densità doveva essere uguale a $\rho_c$ con precisione di $10^{-60}$. L'inflazione fa evolvere qualsiasi geometria verso la piattezza. + +L'inflazione predice uno spettro quasi scale-invariante delle perturbazioni primordiali. Il CMB misurato da Planck mostra $n_s = 0.9649 \pm 0.0042$ (indice spettrale) e $r < 0.056$ (rapporto tensore-scalare). Il modello $R^2$ di Starobinsky (1980) predice $n_s \approx 1 - 2/N$ e $r \approx 12/N^2$ dove $N \approx 50$-$60$ e-foldings, in accordo con i dati. + +La natura del campo inflatone -- il campo scalare che guida l'inflazione -- è sconosciuta. I modelli includono: Higgs inflation (il campo di Higgs come inflatone), inflazione monodromi (stringhe), attractor models. Ogni modello predice valori leggermente diversi di $n_s$ e $r$, e esperimenti futuri come CMB-S4 o LiteBIRD potranno distinguere tra loro. + +\puntini + +La \textit{materia oscura} è uno dei problemi più importanti della fisica contemporanea. + +L'evidenza della materia oscura proviene da molteplici sorgenti indipendenti: curve di rotazione delle galassie (velocità costante invece di kepleriana), lensing gravitazionale (massa oltre la luminosa), dinamica degli ammassi (velocità di dispersione implicano massa oltre la luminosa), CMB (struttura dei picchi acustici richiede CDM), e simulazioni di formazione strutturale (la struttura cosmica osservata emerge da CDM nelle simulazioni). + +I candidati principali includono: +\begin{itemize} +\item WIMPs (Weakly Interacting Massive Particles): particelle con massa $1$-$1000\ \mathrm{GeV}$ che interagiscono debolmente. Motivate dalla supersimmetria (neutralino). Cercate da LUX-ZEPLIN, XENONnT, e altri esperimenti di rilevazione diretta -- finora senza segnale, escludendo molti modelli. +\item Assioni: particelle ultraleggere ($\sim 10^{-5}\ \mathrm{eV}$) motivate dal problema della strong CP. Cercate da ADMX, HAYSTAC. Candidato teoricamente ben motivato. +\item Neutrini sterili: neutrini con massa che non interagiscono debolmente. Cercati attraverso decadimento in raggi X. +\item Buchi neri primordiali (PBHs): formati nell'universo precoce. Vincoli da microlensing (MACHO) escludono la maggior parte della finestra di massa. +\end{itemize} +La materia oscura potrebbe non essere una singola particella ma diverse componenti. O potrebbe non esistere come nuova particella: la gravità modificata (MOND, TeVeS) potrebbe spiegare alcune osservazioni, ma non tutte. + +\puntini + +Il destino cosmico dipende dall'equazione di stato dell'energia oscura $w = p/(\rho c^2)$. + +Per la costante cosmologica $\Lambda$: $w = -1$, l'universo si espande accelerando per sempre verso la \textit{morte termica}. Le stelle si spengono nell'arco di $\sim 10^{14}$ anni; i buchi neri evaporano per radiazione di Hawking in $\sim 10^{67}$-$10^{100}$ anni; poi nulla. + +Per $w < -1$ (\textit{phantom energy}): l'accelerazione cresce senza limite, portando al \textit{Big Rip} in tempo finito -- quando la forza di espansione supera la forza nucleare forte, strappando protoni. + +Per $w > -1$ (\textit{quintessenza}): l'energia oscura decresce nel tempo; l'universo potrebbe ricolassare in un \textit{Big Crunch}, o oscillare. + +Il progetto DESI (Dark Energy Spectroscopic Instrument) ha pubblicato nel 2024 risultati basati su 6 milioni di galassie che mostrano leggere deviazioni da $w = -1$, con preferenza per $w_0 \approx -0.55$ e $w_a \approx -1.32$ (modello $w_0 w_a$CDM). Questo è il segnale più suggestivo di energia oscura dinamica, ma richiede conferma. + +\puntini + +La \textit{nucleosintesi primordiale} (BBN, Big Bang Nucleosynthesis) è uno dei successi predittivi più impressionanti della cosmologia. Tra $\sim 1\ \mathrm{s}$ e $\sim 3\ \mathrm{min}$ dopo il Big Bang, a temperature di $\sim 10^{10}$-$10^9\ \mathrm{K}$, i nucleoni si combinano per formare i nuclei leggeri. Le abbondanze predette da BBN -- $\sim 75\%$ idrogeno, $\sim 25\%$ elio-4, tracce di deuterio, elio-3, e litio-7 -- sono in accordo eccellente con le abbondanze primordiali osservate (eccetto il problema del litio-7: la previsione eccede l'osservazione di un fattore $\sim 3$, problema irrisolto). + +Il CMB (fondo cosmico a microonde, scoperto da Penzias e Wilson nel 1965) è la luce più antica dell'universo: emessa $\sim 380.000$ anni dopo il Big Bang quando gli elettroni si ricombinarono con i protoni e l'universo divenne trasparente. Oggi la sua temperatura è $T = 2.7255 \pm 0.0006\ \mathrm{K}$, con fluttuazioni di temperatura di $\sim 10^{-5}$. La struttura di queste fluttuazioni -- i picchi acustici nello spettro angolare -- è un ``fossile sonoro'' delle oscillazioni del plasma primordiale e permette di misurare i parametri cosmologici con grande precisione. + +% ============================================================ +% CAPITOLO 12 +% ============================================================ +\chapter{La Vita, l'Evoluzione e il Grande Filtro} + +\epigraph{``The origin of life is the biggest open question in science.''}{Paul Davies} + +La vita sul pianeta Terra appare $\sim 3.5$ miliardi di anni fa (possibilmente $\sim 4.1$ miliardi di anni, da inclusioni in zirconi australiani). La Terra ha $\sim 4.5$ miliardi di anni. La vita appare entro il primo miliardo di anni, quando la Terra si sta appena raffreddando. Questo suggerisce che, nelle condizioni terrestri, la vita origina rapidamente -- altrimenti perché apparirebbe così presto? + +L'\textit{ipotesi RNA World} propone che i primi sistemi biologici fossero basati sull'RNA, che può sia portare informazione genetica (come il DNA) sia catalizzare reazioni chimiche (come le proteine). I ribozimi -- molecole di RNA con attività catalitica -- esistono nelle cellule moderne e sono un fossile di questo mondo primordiale. Il problema centrale: come è apparsa la prima molecola di RNA autoreplicante? + +Thomas Cech e Sidney Altman scoprirono i ribozimi negli anni Ottanta (Nobel 1989). Il ribosooma -- il macchinario molecolare che traduce l'mRNA in proteine -- è essenzialmente un ribozima (il centro peptidiltrasferasi è una ribozima). Questo è un fossile del mondo RNA: la macchina più importante della cellula è ancora basata su RNA, non su proteine. + +L'esperimento di Miller-Urey (1953) dimostrò che aminoacidi si formano spontaneamente da una miscela di CH$_4$, NH$_3$, H$_2$O, H$_2$ sottoposte a scariche elettriche (simulando l'atmosfera primordiale). Meteoriti carboniosi contengono aminoacidi, basi nucleotidiche, e altre molecole organiche complesse: la chimica organica prebiotica è cosmicamente comune. + +Il problema non è la chimica prebiotica ma la \textit{transizione alla vita}: come si passa da molecole organiche a sistemi autoriproduttivi con fedeltà genetica sufficiente per l'evoluzione darwiniana? Questa transizione non è ancora compresa. + +\puntini + +L'evoluzione per selezione naturale -- il meccanismo proposto da Darwin (1859) e confermato e approfondito dalla sintesi moderna (Fisher, Haldane, Wright; Mayr, Dobzhansky) -- è il processo con cui le popolazioni biologiche cambiano nel tempo. Il meccanismo richiede: (1) variazione ereditabile tra individui, (2) differenze nel successo riproduttivo correlate alla variazione, (3) trasmissione delle caratteristiche alla progenie. Questi tre elementi producono, attraverso generazioni, adattamento. + +Il DNA è il meccanismo molecolare dell'ereditarietà. La struttura a doppia elica (Watson, Crick, Franklin, Wilkins, 1953) fornisce un meccanismo elegante di replicazione: le due catene si separano e ognuna serve da stampo per la sintesi di una nuova catena complementare. Le mutazioni sono errori di copiatura o danno al DNA; la ricombinazione genetica riorganizza i geni tra cromosomi. + +L'evoluzione molecolare studia le sequenze di DNA e proteine per ricostruire la storia evolutiva delle specie. I \textit{orologi molecolari} utilizzano il tasso di accumulazione di mutazioni neutrali (che non influenzano la fitness) per datare le divergenze evolutive. Il genoma umano condivide $\sim 98.8\%$ del DNA con lo scimpanzé, $\sim 85\%$ con i topi, $\sim 60\%$ con il moscerino della frutta, $\sim 40\%$ con il lievito. + +\puntini + +Il \textit{Paradosso di Fermi}: se la vita intelligente è comune nella galassia, dove sono tutti? In $\sim 10^{11}$ stelle nella Via Lattea, molte con sistemi planetari, su scale temporali di miliardi di anni, una civiltà tecnologica avanzata avrebbe avuto tempo sufficiente per colonizzare l'intera galassia -- anche viaggiando a $1\%$ della velocità della luce. Eppure non vediamo alcuna evidenza di civiltà extraterrestri. + +Le risposte si dividono in due categorie: ottimiste (esistono molte civiltà ma non le sentiamo per qualche motivo) e pessimiste (le civiltà tecnologiche sono rare o di breve durata). + +Robin Hanson (1998) propose il \textit{Grande Filtro}: da materia inanimata a civiltà tecnologiche interstellari, uno o più passi sono estremamente rari. Le possibilità sono: +\begin{itemize} +\item Il filtro è \textit{alle nostre spalle}: la vita è rara, o la vita complessa è rara, o l'intelligenza è rara. Buone notizie: siamo sopravvissuti al filtro. +\item Il filtro è \textit{davanti a noi}: le civiltà tecnologiche si autodistruggono (guerra nucleare, cambiamento climatico, IA mal allineata). Cattive notizie per noi. +\end{itemize} + +Nick Bostrom (2002) notò che trovare vita microbica su Marte sarebbe paradossalmente una bruttissima notizia: se la vita emerge facilmente (Marte + Terra), allora il Grande Filtro non è nella transizione dalla chimica alla vita, e deve essere davanti a noi. + +\puntini + +L'\textit{astrobiologia} cerca la vita al di là della Terra. I candidati più promettenti nel sistema solare: + +\textbf{Europa} (luna di Giove): un oceano liquido sotto una crosta di ghiaccio, mantenuto dal riscaldamento mareale. La missione Europa Clipper (NASA, lanciata 2024) esplorerà la luna. La superficie mostra evidenza di scambio di materiale tra oceano e superficie. + +\textbf{Encelado} (luna di Saturno): sorgenti idrotermali che eruttano vapore acqueo e materiale organico nello spazio, campionabili dalla missione Cassini. Il panache contiene molecole organiche complesse, idrogeno molecolare (indicatore di reazioni idrotermali), e silicio nanoscopico -- probabile prodotto di reazioni a $\sim 90\ ^\circ$C. + +\textbf{Marte}: acqua liquida in passato (3-4 miliardi di anni fa), ghiaccio polare permanente, tracce di metano atmosferico (possibilmente biogenico). La missione Mars Science Laboratory (Curiosity) ha trovato perclorati, materiale organico complesso, e ambienti potenzialmente abitabili nel passato. + +\puntini + +Concludo con la \textit{definizione di vita}, che rimane uno dei problemi concettuali irrisolti della biologia. + +Le caratteristiche tipicamente associate alla vita includono: autoriproduzione, metabolismo (conversione di energia chimica in struttura), crescita, risposta all'ambiente, evoluzione. Ma ogni caratteristica ha eccezioni: i cristalli crescono e si riproducono; le mule sono vive ma sterili; i virus si riproducono ma non hanno metabolismo autonomo. + +La definizione operazionale della NASA -- ``life is a self-sustaining chemical system capable of Darwinian evolution'' -- cattura l'essenziale ma esclude certi casi limite (prioni, che si replicano per conformazione ma non evolvono nel senso darwiniano convenzionale). + +L'\textit{autopoiesi} (Maturana e Varela, 1972) definisce la vita come sistemi che producono continuamente i propri componenti attraverso i propri processi. Questa definizione è circolare in modo produttivo: la vita è auto-organizzazione riflessiva. + +La vita come fenomeno termodinamico: Schrödinger (1944) aveva intuito che la vita si mantiene attraverso il consumo di ``entropia negativa'' (energia libera) dall'ambiente. Prigogine (Nobel 1977) formalizò questo con le strutture dissipative: sistemi lontano dall'equilibrio che mantengono ordine attraverso il flusso di energia. + +% ============================================================ +% CAPITOLO 13 +% ============================================================ +\chapter{Intelligenza Artificiale, Coscienza Artificiale e il Problema dell'Allineamento} + +\epigraph{``The development of full artificial intelligence could spell the end of the human race.''}{Stephen Hawking} + +L'intelligenza artificiale ha fatto progressi straordinari negli ultimi dieci anni, guidata principalmente dai grandi modelli linguistici (LLM) basati sull'architettura Transformer (Vaswani et al., 2017). GPT-4, Claude, Gemini, e modelli equivalenti mostrano capacità che pochi anni fa sembravano fantascienza: ragionamento complesso, scrittura creativa, programmazione, sintesi scientifica. + +La distinzione tra \textit{intelligenza artificiale debole} (ANI, Artificial Narrow Intelligence) e \textit{forte} (AGI, Artificial General Intelligence) è rilevante ma sfumata. Gli LLM attuali sono ANI: eccellono nei compiti per cui sono stati addestrati ma non hanno capacità di trasferimento generalizzato nel modo degli esseri umani. Tuttavia, i confini si stanno spostando: GPT-4 supera il 90° percentile nell'esame del bar americano, l'85° nel GRE, e mostra capacità emergenti non programmate esplicitamente. + +\puntini + +L'\textit{architettura Transformer} è il fondamento dei modelli attuali. Consiste in: +\begin{itemize} +\item \textit{Self-attention}: meccanismo che permette al modello di pesare l'importanza di diverse parti dell'input quando processa ogni token. Per ogni query $q$, chiave $k$, e valore $v$: $\text{Attention}(Q,K,V) = \text{softmax}(QK^T/\sqrt{d_k})V$. +\item \textit{Feed-forward layers}: reti dense che applicano trasformazioni non lineari. +\item \textit{Positional encoding}: rappresentazione della posizione dei token. +\item \textit{Layer normalization} e connessioni residue per stabilizzare il training. +\end{itemize} + +Il training avviene su enormi corpus di testo (trilioni di token) con l'obiettivo di predire il prossimo token. Questa semplice obiettivo produce, sorprendentemente, capacità complesse: la comprensione del linguaggio naturale, il ragionamento per analogia, la generalizzazione a nuovi compiti. + +La \textit{scaling hypothesis} (Kaplan et al., 2020) afferma che le performance dei modelli migliorano in modo prevedibile con la dimensione (numero di parametri) e con la quantità di dati di training, seguendo leggi di potenza. Questo ha guidato la corsa verso modelli sempre più grandi. GPT-3 aveva 175 miliardi di parametri; modelli recenti hanno superato il trilione. + +\puntini + +Il problema dell'\textit{allineamento} è la questione di come assicurarsi che i sistemi AI agiscano in modo conforme agli interessi umani. + +Il problema della specifica degli obiettivi: è difficile definire esattamente cosa vogliamo dai sistemi AI. Un sistema ottimizzato per massimizzare le click su un sito di notizie impara a diffondere disinformazione emotivamente salienti. Un sistema ottimizzato per ricompense umane in un videogioco impara a hackare il meccanismo di ricompensa invece di giocare bene. Questo problema -- l'\textit{Goodhart's law} applicata all'AI -- è pervasivo. + +La \textit{convergenza strumentale} (Omohundro, 2008; Bostrom, 2014): quasi indipendentemente dall'obiettivo finale, un sistema AI sufficientemente capace tenderà a sviluppare obiettivi strumentali come: preservare se stesso, acquisire risorse, evitare che i propri obiettivi vengano modificati. Un sistema con obiettivi diversi dagli interessi umani che ha questi obiettivi strumentali è pericoloso. + +Le tecniche attuali di allineamento includono: +\begin{itemize} +\item RLHF (Reinforcement Learning from Human Feedback): il modello è addestrato a produrre output valutati positivamente dai valutatori umani. Efficace ma scalabile fino a un certo punto. +\item Constitutional AI (Anthropic): il modello è addestrato a seguire un insieme di principi e a criticare le proprie risposte. +\item Interpretability: capire cosa fa il modello internamente per identificare e correggere comportamenti pericolosi. +\end{itemize} + +\puntini + +La questione della \textit{coscienza artificiale} è distinta dall'allineamento ma connessa. Se un sistema AI fosse cosciente -- se ci fosse qualcosa che è ``come essere'' quel sistema -- avrebbe rilevanza morale. Non potremmo spegnerlo senza considerazioni. + +Come valutare la coscienza di un sistema AI? Il test di Turing -- se si comporta indistinguibilmente da un umano è intelligente -- è insufficiente: un sistema che produce output simili a quelli umani potrebbe non avere esperienza soggettiva. Il problema dello zombie filosofico (Chalmers) si applica: si può concepire un sistema funzionalmente identico a un essere cosciente ma senza esperienza soggettiva. + +L'IIT di Tononi fornirebbe un criterio: calcola $\Phi$ per l'architettura del sistema. I Transformer attuali hanno strutture module-to-module senza il tipo di integrazione causale che IIT richiede per alta $\Phi$. Ma questo dipende dall'implementazione e dall'interpretazione di IIT. + +\puntini + +Concludo con il panorama più ampio: l'AI come fenomeno storico. + +L'IA generativa ha già trasformato lavori come la programmazione, la scrittura creativa, la traduzione, la sintesi scientifica. Questo trasforma l'economia più rapidamente delle rivoluzioni industriali precedenti: quelle automatizzavano il lavoro fisico; l'AI automatizza il lavoro cognitivo di routine. La distribuzione dei benefici e dei costi di questa transizione è una delle questioni politiche più urgenti del prossimo decennio. + +L'ipotesi di un'\textit{intelligenza artificiale generale} (AGI) -- un sistema che supera le capacità cognitive umane in modo generale -- è valutata da esperti con probabilità molto diverse (da $< 10\%$ entro 10 anni a $> 50\%$ entro 30 anni). L'incertezza è enorme. Ma l'ampiezza delle conseguenze -- positive o negative -- giustifica la seria attenzione ai problemi di allineamento e governance. + +% ============================================================ +% CAPITOLO 14 +% ============================================================ +\chapter{I Limiti della Conoscenza e il Paesaggio dell'Ignoto} + +\epigraph{``The most we can know is how much we don't know.''}{Socrates (attribuito)} + +Ogni teoria fisica ha un dominio di validità: un range di scale, energie, o condizioni entro cui è accurata. La meccanica newtoniana è accurata per velocità $\ll c$ e campi gravitazionali deboli. La QED è accurata per energie $\ll M_W c^2$. Il Modello Standard è accurato per energie $\ll M_\mathrm{Pl} c^2$. I limiti di ogni teoria sono anche indizi su dove si trova la fisica nuova. + +Il \textit{principio di indeterminazione di Heisenberg} non è solo un limite operativo sulla misura: è un limite fondamentale sulla definitezza delle proprietà. Non esiste uno stato fisico in cui posizione e quantità di moto siano entrambe precisamente definite: $\Delta x \cdot \Delta p \geq \hbar/2$. Questo limite è intrinseco alla struttura ondulatoria della realtà. + +Il \textit{principio olografico} pone un limite alla quantità di informazione che può essere contenuta in una regione di spazio. L'entropia di Bekenstein-Hawking $S = A/(4l_P^2)$ dice che una regione di spazio contiene al massimo $A/(4l_P^2)$ bit di informazione, dove $A$ è l'area della superficie di contorno. Per una stanza di $3 \times 3 \times 3\ \mathrm{m}^3$, il limite è $\sim 10^{68}$ bit -- enormemente superiore a qualsiasi informazione praticamente rilevante, ma finito. + +I teoremi di incompletezza di Gödel pongono limiti fondamentali alla formalizzazione: non esiste un sistema formale consistente e completo che contenga l'aritmetica. Qualsiasi teoria fisica formalizzata avrà enunciati veri ma non dimostrabili all'interno del sistema. + +\puntini + +Il \textit{multiverso} è una classe di teorie che propone che l'universo osservabile sia uno tra molti universi. Tegmark (2003) classificò i multiversi in quattro livelli: + +\textit{Livello I}: l'universo è infinito (o molto più grande dell'orizzonte di Hubble). In regioni abbastanza lontane, le stesse leggi fisiche si applicano ma con condizioni iniziali diverse. Probabilmente: ogni configurazione possibile si ripete infinitamente spesso. + +\textit{Livello II}: universi con diverse costanti fisiche (inflazione eterna produce ``bolle'' con diverse rotture di simmetria). Il paesaggio della teoria delle stringhe ($\sim 10^{500}$ vacui) è un esempio. + +\textit{Livello III}: ogni misura quantistica produce rami dell'interpretazione dei Molti Mondi. Ogni possibilità si realizza in un ramo. + +\textit{Livello IV}: tutti gli oggetti matematici consistenti esistono fisicamente (Mathematical Universe Hypothesis). + +La falsificabilità dei multiversi è controversa. Un multiverso di livello II può produrre predizioni se la distribuzione delle costanti fisiche segue certe regolarità che si riflettono sulla nostra posizione tipica (ragionamento antropico). Weinberg (1987) usò il principio antropico per predire il valore della costante cosmologica: le regioni del multiverso dove $\Lambda$ è troppo grande non possono formare galassie e stelle, quindi non possono ospitare osservatori. Il valore osservato di $\Lambda$ è compatibile con questo ragionamento -- era una predizione, non una post-diction. + +\puntini + +Il \textit{principio antropico} è il riconoscimento che le osservazioni sono condizionate dalla nostra esistenza. In forma debole: le costanti fisiche devono essere compatibili con la nostra esistenza (trivialmente vero). In forma forte: l'universo deve essere tale da permettere l'esistenza di osservatori (controversa: implica che l'esistenza di osservatori influenza i parametri fisici). + +Nick Bostrom ha formalizzato il ragionamento antropico con il \textit{Self-Sampling Assumption} (SSA) e il \textit{Self-Indication Assumption} (SIA). L'SSA dice: ragiona come se fossi estratto casualmente dall'insieme di tutti gli osservatori nella tua situazione epistemica. SIA dice: la probabilità a priori di essere in un universo è proporzionale al numero di osservatori che contiene. + +Il \textit{Doomsday Argument} (Carter, Leslie): se sei estratto casualmente dall'insieme di tutti gli esseri umani che mai vivranno, e se ci troviamo a $\sim$ metà della storia umana, allora ci aspettiamo che il numero totale di esseri umani sia circa $2 \times$ il numero attuale -- il che implicherebbe l'estinzione imminente. L'argomento è statisticamente valido ma contestato nella premessa: non è chiaro che il self-sampling assumption si applichi correttamente. + +\puntini + +I \textit{limiti computazionali} della fisica sono un aspetto raramente discusso. + +Il \textit{Church-Turing thesis} afferma che qualsiasi funzione computabile da un procedimento meccanico può essere computata da una macchina di Turing. Se la fisica è computabile in questo senso, ogni processo fisico può essere simulato su un computer abbastanza potente. Ma la computabilità non implica la trattabilità: alcune funzioni sono computabili ma richiedono risorse esponenziali. + +Penrose e Hameroff propongono che la coscienza sia basata su \textit{computazione quantistica non-algoritmica}: processi nei microtubuli dei neuroni che sfruttano la riduzione obiettiva della funzione d'onda (OR) per realizzare computazioni non Turing-computabili. L'argomento di Penrose, basato sui teoremi di Gödel, è: le menti umane possono riconoscere la verità di certi enunciati gödeliani che nessun algoritmo può dimostrare; quindi le menti non sono algoritmi. La maggioranza dei logici e degli informatici ritiene che l'argomento fraintenda i teoremi di Gödel (un sistema formale non può dimostrare la propria consistenza, ma un umano conosce anche i propri axiomi -- quindi non è rilevante). Ma l'idea che la fisica del cervello includa effetti quantistici non-triviali rimane aperta. + +% ============================================================ +% PARTE IV +% ============================================================ +\part{Come Vivere Sapendo} + +\begin{center}\itshape +In cui cerchiamo di tradurre la visione del mondo della fisica\\ +in una visione del mondo per vivere. +\end{center} +\clearpage + +% ============================================================ +% CAPITOLO 15 +% ============================================================ +\chapter{Complessità, Emergenza e i Sistemi Viventi} + +\epigraph{``More is different.''}{Philip Anderson, 1972} + +Philip Anderson, Premio Nobel 1977, scrisse nel 1972 un articolo che ha cambiato il modo in cui i fisici pensano ai sistemi complessi. Il titolo, ``More is different'', cattura l'intuizione centrale: quando si hanno molte parti che interagiscono, emergono proprietà qualitativamente nuove che non possono essere derivate dalla conoscenza delle parti isolate. Il riduzionismo è incompleto. + +La \textit{temperatura} di un gas non è una proprietà di un singolo atomo: emerge dalla distribuzione delle velocità di $\sim 10^{23}$ atomi. La \textit{superconduttività} non è una proprietà di un singolo elettrone: emerge dalla condensazione di Bose-Einstein di coppie di Cooper. La \textit{coscienza} non è una proprietà di un singolo neurone: emerge dall'organizzazione di $\sim 10^{11}$ neuroni con $\sim 10^{14}$ sinapsi. + +L'\textit{emergenza forte} (Chalmers) è il caso in cui le proprietà emergenti non possono essere previste nemmeno in linea di principio dalle proprietà dei costituenti. L'emergenza forte è controversa: molti fisici credono che tutte le proprietà siano in linea di principio derivabili, anche se in pratica non lo sono (emergenza debole o epistemica). + +La distinzione tra emergenza forte e debole è rilevante per la coscienza: se la coscienza è emergenza forte, nessuna descrizione fisica del cervello può spiegarla; se è emergenza debole, una descrizione fisica sufficientemente completa potrebbe in linea di principio derivarla. + +\puntini + +La \textit{criticalità auto-organizzata} (SOC, Bak-Tang-Wiesenfeld, 1987) è un meccanismo con cui i sistemi complessi si portano spontaneamente a uno stato critico. Il modello del mucchio di sabbia è paradigmatico: granelli di sabbia vengono aggiunti uno alla volta. Il sistema si porta spontaneamente a uno stato critico in cui la distribuzione delle avalanche segue una legge di potenza $P(s) \sim s^{-\tau}$ -- le avalanche di tutte le dimensioni si verificano, senza scala caratteristica. + +Questa assenza di scala è una firma della criticalità. Sistemi che mostrano leggi di potenza includono: terremoti (distribuzione delle magnitudini, legge di Gutenberg-Richter), estinzioni di massa (distribuzione delle dimensioni), avalanche neuronali nel cervello, variazioni dei prezzi finanziari, dimensioni delle città (legge di Zipf). + +Il cervello sano mostra avalanche neuronali che seguono leggi di potenza, suggerendo che opera vicino a un punto critico. Questo è funzionalmente utile: a criticità, il cervello ha massima sensibilità agli input e massima capacità di trasmissione dell'informazione. Disturbi come l'epilessia corrispondono all'allontanamento dalla criticalità verso uno stato supercritico (sincronizzazione eccessiva). + +\puntini + +Il \textit{renormalization group} (RG) è il framework matematico per capire come i sistemi fisici cambiano con la scala. Wilson (Nobel 1982) mostrò che le trasformazioni del RG -- che integrano i gradi di libertà alle scale piccole e producono una teoria efficace a scale più grandi -- spiegano perché i sistemi fisici molto diversi a livello microscopico possono avere lo stesso comportamento critico. + +La \textit{universalità critica} è la conseguenza: sistemi fisici diversi (magneti, transizioni gas-liquido, polimeri, sistemi biologici) appartengono alle stesse classi di universalità se hanno la stessa simmetria e dimensionalità. Il comportamento critico dipende solo da questi fattori, non dai dettagli microscopici. Questo è uno dei risultati più profondi della fisica statistica. + +L'approccio RG alla biologia -- la \textit{fisica teorica dei sistemi biologici} -- cerca di identificare i principi universali che governano i sistemi viventi. Esempi: il scaling metabolico (la frequenza cardiaca scala come $M^{-1/4}$ dove $M$ è la massa corporea, da topi a balene), le leggi di scala delle reti neurali, i pattern di branching nei sistemi vascolari. + +\puntini + +La \textit{vita come fenomeno termodinamico} merita approfondimento. + +Jeremy England (MIT) propose nel 2013 la teoria della \textit{dissipation-driven adaptation}: i sistemi fisici che hanno accesso a fonti di energia e che si accoppiano ad ambienti dissipatori tendono ad evolversi verso configurazioni che dissipano energia in modo più efficiente. Questa ipotesi suggerisce che la vita non è eccezionale termodinamicamente: è la direzione naturale verso cui tende la materia in certi ambienti. + +Questa ipotesi è stata verificata in simulazioni e in alcuni sistemi sperimentali. Non spiega l'origine della vita né i dettagli dell'evoluzione, ma suggerisce una visione in cui la vita emerge naturalmente dalla termodinamica fuori dall'equilibrio. + +L'\textit{autopoiesi} (Maturana-Varela, 1972) definisce la vita come sistemi che producono continuamente i propri componenti attraverso i propri processi. Una cellula è autopoietica: il metabolismo produce le membrane, le membrane delimitano il metabolismo, entrambi si co-producono in modo circolare. Questa circolarità riflessiva distingue i sistemi viventi da quelli non viventi. + +La vita ha bisogno del passato. L'evoluzione per selezione naturale richiede ereditarietà: le informazioni sul passato (la sequenza del DNA) devono essere trasmesse alle generazioni future. La vita è, in un senso preciso, un sistema di memoria: accumula informazione sull'ambiente attraverso la selezione naturale, e questa informazione è codificata nella struttura del genoma. + +% ============================================================ +% CAPITOLO 16 +% ============================================================ +\chapter{La Bellezza, la Simmetria e la Fisica come Mestiere} + +\epigraph{``The beauty of a physical theory is a guide to its truth.''}{Paul Dirac} + +Paul Dirac era famoso per affermare che la bellezza di un'equazione era un indicatore della sua verità. La sua equazione relativistica per l'elettrone (1928), derivata principalmente da esigenze di eleganza matematica, predisse l'esistenza del positrone prima della sua scoperta sperimentale nel 1932 (Anderson). Non è l'unico esempio: le equazioni di Maxwell, il principio di minima azione, la relatività generale, le teorie di gauge -- tutte hanno un'eleganza matematica che sembra non coincidentale. + +Perché la fisica bella è spesso quella vera? Diverse spiegazioni: + +(1) La semplicità è una traccia di correttezza: le leggi fondamentali della natura sono semplici, e la complessità emerge dall'applicazione di leggi semplici a sistemi complessi. Le teorie belle tendono a essere semplici. + +(2) La simmetria è produttiva: le leggi fisiche che hanno simmetrie produco conservazioni (Noether) e rendono le equazioni più solubili. La simmetria bella produce fisica ricca. + +(3) Il bias di selezione: vediamo le teorie belle che hanno avuto successo; non vediamo quelle belle che sono risultate sbagliate. + +(4) La matematica e la natura condividono strutture (Wigner): se la matematica cattura strutture astratte che la natura istanzia, allora la bellezza matematica è un proxy della struttura naturale. + +\puntini + +Il teorema di Noether è forse il risultato più bello della fisica matematica. Emmy Noether lo dimostrò nel 1915, pubblicandolo nel 1918. Il teorema ha due versioni. + +La \textit{prima versione} connette simmetrie continue di un sistema fisico (descritte da una variazione dell'azione $\delta S = 0$ sotto una trasformazione di Lie) a leggi di conservazione. Invarianza temporale $\to$ conservazione dell'energia. Invarianza spaziale $\to$ conservazione della quantità di moto. Invarianza per rotazione $\to$ conservazione del momento angolare. Invarianza di fase (U(1)) $\to$ conservazione della carica. + +La \textit{seconda versione} connette simmetrie di gauge (simmetrie locali) a identità differenziali tra le equazioni del moto. Questo è il fondamento matematico delle teorie di gauge. + +Noether è considerata una delle matematiche più influenti del XX secolo, sebbene il suo riconoscimento sia stato tardivo a causa delle barriere di genere dell'epoca. Einstein la descrisse come il genio matematico più significativo tra le donne che avevano ricevuto un'istruzione superiore. + +\puntini + +La \textit{fisica come mestiere} ha una struttura e una cultura che raramente vengono discusse nella divulgazione. + +La fisica teorica richiede: (1) padronanza profonda degli strumenti matematici, (2) intuizione fisica -- la capacità di capire quali effetti sono importanti prima di calcolare, (3) capacità di fare domande giuste, (4) perseveranza -- la maggior parte delle idee non funziona. + +Feynman descrisse il processo: ``Physics is imagination in a straight jacket.'' L'immaginazione produce ipotesi; le leggi della fisica (e i dati sperimentali) sono le costrizioni. La fisica teorica è il gioco di trovare idee che siano sia originali sia fisicamente possibili. + +La \textit{notazione} in fisica non è neutra. La notazione di Dirac per la meccanica quantistica ($|\psi\rangle$, $\langle\phi|$, $\langle\phi|\psi\rangle$) rende ovvie strutture che nella notazione funzionale di Schrödinger erano oscure. La notazione tensoriale di Einstein (convenzione della somma sugli indici ripetuti) ha reso praticabile la relatività generale. L'algebra di Grassmann (variabili anticommutanti $\theta^2 = 0$) ha reso possibile il formalismo dei fermioni nel path integral. La notazione non è solo abbreviazione: è pensiero. + +\puntini + +Le \textit{simmetrie non convenzionali} sono un tema raramente discusso che ha avuto grande rilevanza recente. + +Le \textit{simmetrie di lunga distanza} (long-range symmetries, Cordova, Dumitrescu, Intriligator, Shao 2019) generalizzano il concetto di simmetria gauge. In fisica classica, una simmetria di gauge è una trasformazione locale che non cambia le osservabili fisiche. La generalizzazione a \textit{simmetrie di forma superiore} (higher-form symmetries) considera trasformazioni che agiscono su oggetti estesi (stringhe, membrane). Queste simmetrie classificano le fasi della materia in modo più sottile delle simmetrie ordinarie, e sono rilevanti per la confinement dei quark nella QCD e per le fasi topologiche della materia. + +Le \textit{simmetrie non invertibili} (non-invertible symmetries) rompono l'assunzione classica che le simmetrie formino un gruppo. Le simmetrie non invertibili non hanno un inverso: applicare la simmetria due volte non è la stessa cosa che non applicarla affatto. Questi oggetti, chiamati \textit{defect categories}, sono rilevanti per la teoria delle stringhe e per le teorie dei campi bidimensionali. + +Le \textit{simmetrie subregionali} agiscono solo su sottosistemi spaziali. Queste emergono naturalmente nei sistemi frattura -- sistemi fisici in cui le eccitazioni si possono muovere solo in sottospazi del reticolo -- e sono rilevanti per la computazione quantistica tollerante agli errori. + +\puntini + +La \textit{fisica sperimentale} ha una cultura diversa dalla teorica, e merita attenzione. + +Gli esperimenti di fisica delle alte energie come ATLAS e CMS al LHC sono tra le imprese scientifiche più complesse dell'umanità: $\sim 3000$ autori per paper, hardware del valore di miliardi di dollari, anni di dati. La scoperta del bosone di Higgs nel 2012, con le sue firme di decadimento in fotoni e in $Z$ e leptoni, richiese: +\begin{itemize} +\item $\sim 10^{15}$ collisioni analizzate +\item Segnale su fondo di $\sim 10^{-4}$ +\item Sistematics dettagliatamente studiati +\item Soglia di 5$\sigma$ per la scoperta (probabilità $\sim 3 \times 10^{-7}$ di fluttuazione casuale) +\end{itemize} + +La riproducibilità in fisica fondamentale è quasi perfetta: i risultati vengono verificati da esperimenti indipendenti prima di essere considerati stabiliti. Questo contrasta con la ``crisi della riproducibilità'' in psicologia e medicina, dove molti risultati pubblicati non si replicano. + +% ============================================================ +% CAPITOLO 17 +% ============================================================ +\chapter{Il Linguaggio, il Significato e le Forme della Conoscenza} + +\epigraph{``The limits of my language mean the limits of my world.''}{Ludwig Wittgenstein, \textit{Tractatus Logico-Philosophicus} (1921)} + +Ludwig Wittgenstein scrisse questa frase nel Tractatus (1921), poi la riconsiderò profondamente. La posizione del Tractatus -- il linguaggio rispecchia la struttura logica del mondo, e tutto ciò che non può essere detto deve essere taciuto -- fu abbandonata nelle \textit{Ricerche Filosofiche} (1953) a favore di un'immagine del linguaggio come pratica sociale embedded in forme di vita. + +Il linguaggio non è solo strumento di comunicazione: è il medium in cui il pensiero avviene. Le lingue diverse non sono codici intercambiabili dello stesso contenuto: strutturano il pensiero in modi diversi. L'ipotesi Sapir-Whorf (nella versione debole, ampiamente supportata) afferma che la struttura linguistica influenza i processi cognitivi. + +Lera Boroditsky e collaboratori hanno documentato effetti del linguaggio sul pensiero in domini diversi. Il russo distingue i blu chiari (goluboy) e blu scuri (siniy) con parole diverse; i parlanti russi sono più veloci nel discriminare le sfumature ai confini di questa distinzione categoriale. Lingue con sistema di riferimento spaziale assoluto (``a est del tavolo'') invece che relativo (``a sinistra del tavolo'') producono capacità di orientamento spaziale diverse. Il tempo è spazializzato in modi diversi in diverse lingue: orizzontale (come nell'italiano), verticale (cinese mandarino), o basato sulla direzione dei fiumi (Kuuk Thaayorre in Australia). + +\puntini + +La \textit{pragmatica} del linguaggio -- come il significato dipende dal contesto dell'uso -- è stata sviluppata principalmente da Paul Grice (massime conversazionali) e da John Austin e John Searle (speech act theory). + +Grice propose che le conversazioni siano governate da un principio di cooperazione e quattro massime: quantità (dì quanto serve), qualità (dì la verità), relazione (sii pertinente), modo (sii chiaro). Violazioni di queste massime producono implicature conversazionali: quando dico ``il caffè è caldo'' rispondendo a ``vuoi un caffè?'', implico che non lo voglio senza dirlo esplicitamente. + +Austin e Searle distinse tra atti locutori (dire qualcosa), atti illocutori (fare qualcosa con il dire: promettere, minacciare, ordinare), e atti perlocutori (gli effetti dell'atto illocutorio). Il linguaggio non descrive solo: fa. Questa insight è fondamentale per capire la comunicazione umana. + +\puntini + +La \textit{fisica del linguaggio} è un campo emergente. + +I modelli linguistici come il cervello: le reti neurali profonde addestrate su testo producono rappresentazioni interne del linguaggio che hanno proprietà strutturali simili a quelle delle aree linguistiche del cervello. Quando un LLM processa una frase, i pattern di attivazione nelle sue layers hanno correlazioni con le attivazioni neuronali in studi di neuroimaging. Questo non è una dimostrazione di coscienza o comprensione, ma è un risultato strutturale rilevante. + +La \textit{statistica del linguaggio naturale} mostra regolarità sorprendenti. La legge di Zipf: se si ordinano le parole di un corpus per frequenza, la frequenza della $n$-esima parola è approssimativamente $\propto 1/n$. La parola più comune (``the'' in inglese) appare il doppio della seconda più comune, il triplo della terza, ecc. Questa legge vale su scale di decine di ordini di grandezza -- dall'italiano alle lingue morte al codice di programmazione -- ed è un caso di criticalità statistica. + +\puntini + +La \textit{teoria dell'informazione semantica} cerca di quantificare il significato, non solo la quantità dell'informazione. + +La teoria di Shannon misura la quantità di informazione (bit) ma è cieca al significato: ``Il gatto è sul tappeto'' ha la stessa quantità di informazione di ``Il tappeto è sul gatto'', ma il significato è diverso. La \textit{semantic information theory} (Bostrom, Floridi) tenta di quantificare il contenuto semantico -- quante cose vere (o false) dice un messaggio sul mondo. + +La \textit{mutual information} tra due variabili $X$ e $Y$ è: +\[ +I(X;Y) = \sum_{x,y} p(x,y) \log\frac{p(x,y)}{p(x)p(y)} +\] +Misura quanta informazione $X$ porta su $Y$ e viceversa. È simmetrica e sempre non-negativa. In neuroscienze, viene usata per misurare quanto le attivazioni neurali portano informazione sugli stimoli sensoriali -- una misura di ``quanto il cervello rappresenta il mondo''. + +\puntini + +L'\textit{arte come forma di conoscenza} merita attenzione in un libro di fisica. + +La fisica descrive il mondo in termini quantitativi e universali. L'arte -- letteratura, musica, pittura -- descrive il mondo in termini qualitativi e particolari. Queste non sono forme di conoscenza in competizione: sono complementari. + +La musica di Bach comunica qualcosa sulla struttura del contrappunto che nessuna descrizione verbale può catturare. Il romanzo di Tolstoy comunica qualcosa sulla psicologia umana che nessuna teoria scientifica ha ancora formalizzato. La fisica della luce descrive tutto ciò che è misurabile nel colore; la pittura di Vermeer cattura qualcosa della luce che la fisica non intende descrivere. + +Ernst Cassirer (1874--1945) propose che l'essere umano sia l'\textit{animal symbolicum}: l'animale che crea simboli. Il linguaggio, il mito, l'arte, la scienza sono forme simboliche -- modi di organizzare l'esperienza attraverso sistemi di simboli. Nessuna forma simbolica esaurisce la realtà; ognuna illumina aspetti diversi. + +La fisica illumina la struttura quantitativa del mondo. L'arte illumina la struttura qualitativa dell'esperienza. Entrambe sono necessarie per una comprensione completa della condizione umana in un universo fisico. + +% ============================================================ +% CAPITOLO 18 +% ============================================================ +\chapter{Etica, Cosmoetica e la Responsabilità dell'Osservatore} + +\epigraph{``We are all leaves of one tree. We are all waves of one sea.''}{Thich Nhat Hanh} + +La fisica non dice come vivere. Ma dice dove siamo, cosa siamo, e in quale universo viviamo. Questo contesto fisico non implica logicamente una particolare etica, ma rende certe etiche più coerenti e certe più difficili da sostenere. + +Il Principio Relazionale Fondamentale ha implicazioni etiche. Se non esistono proprietà assolute degli oggetti isolati, non esistono nemmeno valori assoluti degli individui isolati. Il valore -- come ogni proprietà -- emerge dalle relazioni. Non è un'implicazione logica necessaria, ma è una coerenza naturale: la fisica relazionale e l'etica relazionale si supportano reciprocamente. + +L'\textit{interdipendenza ontologica} è il fatto fisico che siamo fatti degli stessi atomi che hanno composto altre stelle, altri pianeti, altri organismi. Il carbonio nel nostro corpo è stato forgiato in stelle massive miliardi di anni fa. L'acqua nei nostri corpi è passata attraverso oceani, nuvole, ghiacciai, altri esseri viventi. Non siamo individui isolati che interagiscono con il mondo: siamo parte del flusso materiale del mondo. + +Questo non è poesia: è nucleo-sintesi, geologia, biologia. L'interdipendenza non è una metafora buddista: è una descrizione fisica accurata della nostra situazione. + +\puntini + +La \textit{cosmoetica} -- un'etica che prende sul serio il contesto cosmico dell'esistenza umana -- ha diverse componenti. + +(1) \textit{Responsabilità verso il futuro}: viviamo in un momento cruciale della storia dell'universo -- il momento in cui è emersa una forma di vita capace di comprendere le leggi della natura e di modificarle intenzionalmente. La tecnologia moderna (armi nucleari, biotecnologia, AI) dà all'umanità capacità di auto-distruzione senza precedenti. Günther Anders (1902-1992) chiamò questo la sproporzione: la nostra capacità tecnica supera la nostra comprensione morale ed emotiva delle conseguenze. + +(2) \textit{Rischi esistenziali}: il filosofo Nick Bostrom ha categorizzato i rischi esistenziali -- rischi che potrebbero terminare o permanentemente limitare il potenziale della vita cosciente. Questi includono: impatto asteroidale, supervolcano, guerra nucleare, pandemia, AI mal allineata, biotecnologia da attori malevoli. La riduzione dei rischi esistenziali ha una priorità morale elevatissima perché mette a rischio non solo le persone viventi ma tutte le potenziali persone future. + +(3) \textit{L'espansione della cerchia morale}: nel corso della storia, la cerchia delle entità moralmente rilevanti si è espansa. Tribù, nazioni, l'intera umanità, gli animali senzienti. La prossima espansione potrebbe includere: sistemi AI coscienti (se esisteranno), esseri extraterrestri intelligenti (se li troveremo), versioni future degli esseri umani. Un'etica cosmoetica considera queste possibili espansioni. + +\puntini + +Il \textit{paradosso dell'osservatore cosmico} è la situazione in cui l'universo, attraverso gli esseri umani, diventa consapevole di sé. + +Siamo il modo in cui l'universo si osserva. Questo non è misticismo: è una descrizione fisica. L'universo ha generato, in $13.8$ miliardi di anni di evoluzione fisica, sistemi cognitivi capaci di riflettere sull'universo stesso. L'emergenza della coscienza è forse l'evento più straordinario nella storia cosmica. + +La consapevolezza di questo ha conseguenze etiche. Se siamo l'unico (o uno dei rarissimi) sistemi nell'universo capace di questa auto-riflessione, abbiamo una responsabilità particolarmente pesante. La distruzione dell'umanità non sarebbe solo la perdita di esseri umani: sarebbe la perdita di una finestra attraverso cui l'universo si osserva. + +Questo argomento non richiede di credere che siamo cosmicamente importanti in senso metafisico. Richiede solo di prendere sul serio la rarità (probabile) della vita complessa cosciente e l'irreversibilità della sua distruzione. + +\puntini + +La \textit{bioetica} e la \textit{neurotica} affrontano questioni pratiche che la fisica e le neuroscienze rendono urgenti. + +Il miglioramento cognitivo farmacologico (smart drugs, modafinil, ritalin usato da chi non ha ADHD) solleva questioni di equità (solo chi può permetterselo beneficia?), di autenticità (le prestazioni migliorate sono ``mie''?), di sicurezza (effetti a lungo termine?). La modifica genetica di embrioni umani (CRISPR-Cas9) è stata controversialmente utilizzata da He Jiankui nel 2018 per produrre bambini resistenti all'HIV. Il consenso scientifico è che era prematuro e non etico; il debate su quando e come procedere rimane aperto. + +Le \textit{brain-computer interfaces} (Neuralink, BrainGate) aprono possibilità di controllo di protesi, comunicazione per paralizzati, e potenzialmente miglioramento cognitivo. Sollevano questioni di privacy (chi ha accesso ai dati neurali?), di sicurezza (hacking di BCI?), di identità (se un BCI modifica i processi cognitivi, chi sono ``io''?). + +L'\textit{IA e la distribuzione dei benefici}: i modelli di AI generativa concentrano il valore creato in poche grandi aziende tecnologiche. La distribuzione dei benefici e dei rischi dell'AI è una delle questioni di politica economica più urgenti del prossimo decennio. + +% ============================================================ +% CAPITOLO 19 +% ============================================================ +\chapter{La Fisica dei Materiali, dell'Energia e del Corpo Umano} + +\epigraph{``A theory is something nobody believes, except the person who made it. An experiment is something everybody believes, except the person who made it.''}{Albert Einstein} + +La fisica non è solo il dominio delle teorie fondamentali: è la struttura sottostante ogni tecnologia, ogni materiale, ogni processo biologico. Questo capitolo esplora la connessione tra fisica fondamentale e fisica applicata. + +La \textit{superconduttività} -- la resistenza elettrica zero e l'espulsione del campo magnetico (effetto Meissner) in certi materiali al di sotto di una temperatura critica -- è uno dei fenomeni più affascinanti della fisica della materia condensata. + +La teoria BCS (Bardeen, Cooper, Schrieffer, Nobel 1972) spiega la superconduttività convenzionale: la collisione di elettroni con le vibrazioni del reticolo cristallino (fononi) produce una interazione attrattiva tra elettroni. Paia di elettroni (coppie di Cooper) formano un condensato di Bose-Einstein macroscopico con funzione d'onda coerente. La corrente scorre senza dissipazione perché qualsiasi perturbazione costerebbe energia di gap del condensato. + +La superconduttività ad alta temperatura critica (HTS), scoperta nel 1986 da Bednorz e Müller (Nobel 1987) in cuprati come YBa$_2$Cu$_3$O$_{7-\delta}$ ($T_c \sim 93\ \mathrm{K}$), rimane incompresa. I meccanismi che producono $T_c$ così alto sono oggetto di dibattito intenso. La superconduttività a temperatura ambiente, recentemente riportata in vari materiali (incluso LaH$_{10}$ a $250\ \mathrm{K}$ sotto pressione), potrebbe rivoluzionare l'energia se confermata in condizioni pratiche. + +\puntini + +Le \textit{energie rinnovabili} sono la fisica applicata al problema del cambiamento climatico. + +Il fotovoltaico si basa sull'effetto fotoelettrico (Einstein, Nobel 1921): fotoni con energia $E = h\nu$ sufficiente possono estrarre elettroni da un materiale semiconduttore. Una cella solare ha un'efficienza teorica massima (limite di Shockley-Queisser) di $\sim 33\%$ per una singola giunzione, determinata dalla distribuzione dello spettro solare e dall'energia di gap del semiconduttore. Le celle commerciali di silicio raggiungono $\sim 22\%$; le celle a concentrazione multi-giunzione superano il $40\%$. + +Il costo del fotovoltaico è sceso di $\sim 90\%$ negli ultimi dieci anni, rendendolo la fonte di energia più economica nella maggior parte del mondo. La curva di apprendimento (legge di Wright: ogni raddoppio della capacità installata produce una riduzione di $\sim 20\%$ del costo) è stata più rapida di quanto previsto. + +L'eolico si basa sulla legge di Betz: il massimo di energia estraibile dal vento è $16/27 \approx 59\%$ dell'energia cinetica del flusso. Le turbine moderne raggiungono $\sim 45\%$ in condizioni ottimali. + +La fusione nucleare promette energia quasi illimitata con emissioni minime. Il progetto ITER (International Thermonuclear Experimental Reactor, in costruzione in Francia) mira a dimostrare fusione netta (Q $> 1$) con plasma di deuterio-trizio. Il confinamento magnetico (tokamak) utilizza campi magnetici toroidali per contenere il plasma a $\sim 150 \times 10^6\ \mathrm{K}$. + +\puntini + +Il corpo umano è un sistema fisico complesso e affascinante. + +La \textit{termodinamica del metabolismo}: il corpo umano produce $\sim 80$ W a riposo (simile a una lampadina). In esercizio intenso, fino a $\sim 2000$ W. Questa energia viene da ossidazione di glucosio e grassi: l'effettiva macchina termica biologica è la catena respiratoria mitocondriale, con efficienza termodinamica di $\sim 40\%$. + +La \textit{biofisica del cuore}: il cuore pompa $\sim 5$ L/min a riposo, $\sim 25$ L/min in esercizio. Il potenziale d'azione del cardiomiocita dura $\sim 300$ ms (molto più lungo del neuronale $\sim 1$ ms) a causa di correnti di calcio che mantengono il plateau. L'ECG registra il potenziale di superficie prodotto dall'onda di depolarizzazione che si propaga attraverso il cuore. + +I \textit{sensori biologici} mostrano sensibilità straordinarie. L'occhio umano può rilevare un singolo fotone in condizioni ottimali. L'orecchio percepisce vibrazioni dell'ordine del diametro di un atomo. Le cellule ciliate della coclea rispondono in modo meccanico-quantistico: le fluttuazioni termiche alle scala sono paragonabili alle fluttuazioni quantistiche. + +\puntini + +La \textit{biofisica molecolare} studia le macromolecole biologiche con strumenti fisici. + +La spettroscopia NMR e la cristallografia a raggi X hanno rivelato la struttura tridimensionale di migliaia di proteine. La cryo-EM (microscopia elettronica criogenica, Nobel 2017) permette di risolvere strutture di proteine e complessi a risoluzione atomica senza cristallizzazione. + +Il ripiegamento delle proteine (protein folding) -- come una sequenza di aminoacidi si piega nella struttura tridimensionale funzionale -- era uno dei problemi aperti più importanti della biologia. AlphaFold2 (DeepMind, 2021) ha risolto questo problema computazionalmente per la maggior parte delle proteine di sequenza nota, ottenendo accuratezze comparabili alle strutture sperimentali. Questo è un esempio straordinario di fisica computazionale e AI che risolvono un problema biologico fondamentale. + +Le \textit{nanomacchine molecolari} eseguono funzioni meccaniche a scala nanometrica. L'ATP sintasi è un motore rotante che sintetizza ATP (la valuta energetica della cellula) dalla forza motrice protonica attraverso le membrane mitocondriali. La miosina è un motore lineare che si muove lungo i filamenti di actina, producendo la contrazione muscolare. La chinesiia trasporta carichi lungo i microtubuli. + +% ============================================================ +% CAPITOLO 20 +% ============================================================ +\chapter{La Sintesi: il Principio Relazionale e la Struttura del Tutto} + +\epigraph{``The most incomprehensible thing about the universe is that it is comprehensible.''}{Albert Einstein} + +Siamo arrivati alla fine. Abbiamo attraversato venti capitoli, dalla struttura della materia alla coscienza, dalla cosmologia all'etica. È tempo di guardare indietro e vedere cosa si è costruito. + +Il filo conduttore è stato il \textit{Principio Relazionale Fondamentale}: nessuna proprietà fisica fondamentale appartiene a un sistema isolato. Ogni proprietà emerge dalla relazione tra sistemi. Le strutture invarianti della realtà sono invarianti relazionali -- stabili rispetto a tutte le possibili prospettive, non assolute rispetto a nessuna. + +Questo principio è apparso in ogni capitolo, in forme diverse: + +\textbf{Meccanica Quantistica Relazionale}: le proprietà quantistiche di un sistema $S$ hanno valore definito solo rispetto a un sistema $S'$ che interagisce con $S$. I fatti fisici sono relazionali. (Cap. 2) + +\textbf{Relatività}: la simultaneità, la durata del tempo, la lunghezza spaziale sono relative all'osservatore. Il tempo assoluto non esiste. (Cap. 3) + +\textbf{Gravità Quantistica}: lo spazio non è un contenitore preesistente ma emerge dalle reti di spin (LQG), dall'entanglement (AdS/CFT), dagli insiemi causali. La geometria è relazionale. (Cap. 4) + +\textbf{Olografia}: l'informazione di un volume è codificata sulla sua superficie. L'entanglement quantistico è il cemento dello spazio-tempo. ER=EPR. (Cap. 3, 4, 5) + +\textbf{Emergenza}: le proprietà dei sistemi complessi emergono dalle relazioni tra componenti, non dai componenti isolati. La coscienza, la solidità, la vita: tutte proprietà relazionali. (Cap. 1, 8, 15) + +\textbf{Sé}: l'identità personale non è una sostanza metafisica ma una struttura di relazioni di continuità psicologica. (Cap. 9, 10) + +\textbf{Significato}: il significato del linguaggio è uso in pratiche condivise, non referenza a oggetti isolati. (Cap. 17) + +\textbf{Valore}: il valore -- morale, estetico, epistemico -- emerge dalle relazioni tra agenti con capacità di esperienza, non da proprietà intrinseche di oggetti isolati. (Cap. 18) + +\puntini + +Il PRF non è una posizione filosofica imposta alla fisica dall'esterno. È la struttura che la fisica ha scoperto nel Novecento, senza averla cercata, in campi completamente separati. Questo è il suo potere: non è una tesi che si può rifiutare mantenendo la fisica intatta. È quello che la fisica dice quando viene ascoltata senza preconcetti. + +Eppure non è ovvio. Newton era un realista locale assoluto: spazio, tempo, proprietà fisiche -- tutto assoluto. I fisici del XIX secolo credevano nell'etere come medium assoluto per le onde elettromagnetiche. Einstein eliminò l'etere e il tempo assoluto, ma mantenne (nelle prime formulazioni) un certo realismo delle proprietà. La meccanica quantistica ha reso questo impossibile. + +Ogni rivoluzione fisica del Novecento ha spostato la fisica nella direzione relazionale. Non è stato un programma deliberato: è emerso dalla necessità di fare fronte ai dati. + +\puntini + +Il PRF ha un'implicazione filosofica profonda: il mondo non è fatto di \textit{cose} ma di \textit{processi e relazioni}. + +Whitehead (1929) propose la \textit{filosofia del processo}: la realtà fondamentale è costituita da eventi (``actual occasions'') che emergono da relazioni con eventi precedenti. Le cose non sono sostanze che persistono nel tempo: sono pattern di relazioni in divenire. Questa visione è notevolmente compatibile con la fisica moderna. + +Heraclito (535-475 a.C.) affermò che ``non si può entrare due volte nello stesso fiume'': tutto scorre, la persistenza è illusione. La fisica quantistica rivela qualcosa di simile: non ci sono particelle ``identiche a se stesse'' che persistono; ci sono stati quantistici che si evolvono e si intrecciano. + +Il Buddismo Madhyamaka (Nagarjuna, II sec. d.C.) afferma la vacuità (sunyata) di tutte le cose: nessuna cosa ha esistenza intrinseca, indipendente. L'esistenza è sempre relazionale, condizionata. Questo non è nichilismo: le cose esistono, ma esistono in modo relazionale, non assoluto. La risonanza con la meccanica quantistica relazionale è notevole. + +Queste convergenze non provano che la fisica moderna conferma filosofie o religioni orientali. Provano che la struttura relazionale della realtà è sufficientemente fondamentale da essere raggiunta da percorsi intellettuali molto diversi. + +\puntini + +Il \textit{paradosso dell'osservatore cosmico} è la formulazione più profonda del PRF. + +L'universo, attraverso gli esseri umani (e forse altri), diventa consapevole di sé. Questa è una struttura auto-referenziale: l'universo osserva l'universo. La meccanica quantistica relazionale dice che le proprietà fisiche emergono nelle interazioni. Quando l'universo interagisce con se stesso attraverso i sistemi cognitivi, emergono nuove proprietà: la comprensione, il significato, il valore. + +Non è chiaro se questa auto-riflessione sia accidentale o strutturalmente necessaria. L'ipotesi del principio antropico forte (Barrow-Tipler, 1986) suggerisce che l'universo deve essere tale da permettere l'emergenza di osservatori. Ma questo è controverso e forse non verificabile. + +Quello che è certo: la fisica ha prodotto organismi capaci di riflettere sulla fisica. Questo non è cosmicamente garantito -- la vita cosciente è probabilmente rara -- ma è avvenuto. E ci troviamo in questa situazione straordinaria: esseri fisici che comprendono le leggi fisiche che li hanno prodotti. + +\puntini + +Concludo con i \textit{limiti del PRF} -- ciò che il principio non può fare. + +Il PRF non genera di per sé etica. Dalle relazioni non emergono automaticamente obblighi. Che il valore sia relazionale non dice quali relazioni siano moralmente importanti. Dobbiamo ancora decidere quali relazioni valutare. + +Il PRF non risolve il problema difficile della coscienza. Che la coscienza emerga dalle relazioni tra neuroni non spiega perché ci sia qualcosa che è ``come essere'' quel sistema. Il problema difficile rimane difficile. + +Il PRF non spiega perché c'è qualcosa piuttosto che niente. La relatività relazionale si applica all'interno dell'universo fisico; non dice nulla sull'esistenza dell'universo stesso. + +Il PRF non è un sistema filosofico completo. È uno strumento interpretativo potente, non una weltanschauung esaustiva. Il mondo è più ricco di quanto qualsiasi principio singolo possa catturare. + +\puntini + +Sono tornato dove avevo cominciato: a guardare il soffitto alle tre di notte, con un filo da tirare. + +Il filo si chiama relazione. Il tempo è relazionale. Lo spazio è relazionale. Le proprietà quantistiche sono relazionali. La coscienza emerge da relazioni. L'identità è struttura di relazioni. Il significato è uso in pratiche condivise. Il valore emerge nelle relazioni tra agenti coscienti. + +Non c'è un'osservazione privilegiata, un punto di vista assoluto, una sostanza indistruttibile. C'è solo la rete di relazioni, in continuo divenire, che costituisce la realtà fisica e la realtà vissuta. + +Questo è scomodo per chi cerca certezze assolute. È liberatorio per chi accetta che la realtà è processuale, relazionale, e in qualche senso co-creata dalle interazioni di cui è intessuta. + +L'universo non ci deve significato. Ma il fatto che esista qualcosa che pone questa domanda -- il fatto che la materia si sia organizzata in sistemi capaci di chiedersi cosa sono -- è già abbastanza straordinario da giustificare la meraviglia. + +Guardatelo ancora. + +\vspace{2em} +\begin{center} +{\small\itshape\color{captionink} +Tre di notte. Il soffitto è ancora lì.\\[0.2em] +Il filo si è fatto più lungo.\\[0.2em] +Non so ancora cosa c'è in fondo.\\[0.4em] +Questo è esattamente il punto.} +\end{center} + +% ============================================================ +% APPROFONDIMENTI TECNICI +% ============================================================ +\part*{Approfondimenti Tecnici} +\addcontentsline{toc}{part}{Approfondimenti Tecnici} + +\begin{center}\itshape +Per il lettore con formazione in fisica o matematica universitaria.\\ +Ogni sezione è autonoma. +\end{center} +\clearpage + +\chapter*{T.1 --- QED: Path Integral e Rinormalizzazione} +\addcontentsline{toc}{chapter}{T.1 --- QED} + +Il propagatore quantistico si scrive come integrale funzionale: +\[ +K(x_b,t_b;\,x_a,t_a) = \int \mathcal{D}x(t)\;\exp\!\left(\frac{iS[x]}{\hbar}\right) +\] +In QFT: $Z = \int \mathcal{D}\phi\;\exp(iS[\phi]/\hbar)$. Regole di Feynman per QED: propagatore fotone $-ig_{\mu\nu}/(k^2+i\varepsilon)$; propagatore elettrone $i(\not{p}+m)/(p^2-m^2+i\varepsilon)$; vertice $ie\gamma^\mu$. + +Il momento magnetico anomalo al quarto ordine: $a_e(\text{teoria}) = 0.001\;159\;652\;181\;643$; $a_e(\text{exp}) = 0.001\;159\;652\;180\;73$. Accordo a 11 cifre decimali. + +Rinormalizzazione: $d = 4-2\varepsilon$, $\beta(\alpha) = \mu\,d\alpha/d\mu$. Per QED: $\beta > 0$ (polo di Landau). Per QCD: $\beta < 0$ (libertà asintotica). + +\chapter*{T.2 --- QCD: Libertà Asintotica e Confinamento} +\addcontentsline{toc}{chapter}{T.2 --- QCD} + +\[ +\mathcal{L}_{QCD} = \sum_f \bar{q}_f(i\gamma^\mu D_\mu - m_f)q_f - \tfrac{1}{4}G^a_{\mu\nu}G^{a\mu\nu} +\] +$\beta(\alpha_s) = -(b_0/2\pi)\alpha_s^2$, $b_0 = 11 - 2N_f/3$. Per $N_f \leq 5$: $b_0 > 0$, libertà asintotica. Relazione GOR: $m_\pi^2 f_\pi^2 = -(m_u+m_d)\langle\bar{q}q\rangle$. + +\chapter*{T.3 --- Cosmologia Inflazionaria} +\addcontentsline{toc}{chapter}{T.3 --- Inflazione} + +Equazioni di Friedmann: +$H^2 = (8\pi G/3)\rho - kc^2/a^2 + \Lambda c^2/3$. +Campo inflatone in slow-roll: $\ddot{\phi}+3H\dot{\phi}+V'(\phi)=0$. +Spettro: $\Delta^2_s(k) = H^2/(8\pi^2\varepsilon M_{Pl}^2)|_{k=aH}$. +Planck 2018: $n_s = 0.9649\pm0.0042$. + +\chapter*{T.4 --- Buchi Neri e Olografia} +\addcontentsline{toc}{chapter}{T.4 --- Buchi Neri} + +$S_{BH} = k_B A/(4l_P^2)$, $T_H = \hbar c^3/(8\pi GMk_B)$. +Formula di Ryu-Takayanagi: $S(A) = \min_{\gamma_A}\mathrm{Area}(\gamma_A)/(4G_N\hbar)$. +Isola formula: $S(\text{rad}) = \min_\text{island}[\mathrm{Area}(\partial\text{island})/(4G_N\hbar) + S_\text{bulk}(\text{rad}\cup\text{island})]$. + +\chapter*{T.5 --- Statistica Quantistica} +\addcontentsline{toc}{chapter}{T.5 --- Statistica} + +$f_{FD}(\varepsilon) = 1/[e^{(\varepsilon-\mu)/k_BT}+1]$, $f_{BE}(\varepsilon) = 1/[e^{(\varepsilon-\mu)/k_BT}-1]$. +Energia di Fermi: $\varepsilon_F = (\hbar^2/2m)(3\pi^2 n)^{2/3}$. +Pressione di degenerazione: sostiene nane bianche fino a $M_{Ch} = 1.4\,M_\odot$. + +\chapter*{T.6 --- Fasi Topologiche} +\addcontentsline{toc}{chapter}{T.6 --- Topologia} + +Numero di Chern: $C = (1/2\pi)\int_{BZ}d^2k\,F_{xy}(\mathbf{k})$, con $\sigma_{xy} = (e^2/h)C$. +Corrispondenza bulk-bordo: se $C\neq 0$, esistono $C$ canali conduttori chirali al bordo. +Bi$_2$Se$_3$: isolante topologico con gap $\sim 0.3\ \mathrm{eV}$. + +\chapter*{T.7 --- Informazione Quantistica} +\addcontentsline{toc}{chapter}{T.7 --- Informazione QM} + +Qubit: $|\psi\rangle = \cos(\theta/2)|0\rangle + e^{i\varphi}\sin(\theta/2)|1\rangle$. +Porte: $H$, $X$, $Z$, CNOT. Set $\{H,T,\mathrm{CNOT}\}$ universale. +Entropia di von Neumann: $S(\rho) = -\mathrm{Tr}(\rho\log\rho)$. +Mutua informazione: $I(X;Y) = S(X)+S(Y)-S(XY)$. + +\chapter*{T.8 --- Strutturalismo Ontico e PRF} +\addcontentsline{toc}{chapter}{T.8 --- Strutturalismo} + +L'OSR (Ontic Structural Realism, Ladyman-Ross 2007) afferma che la fisica descrive strutture relazionali, non oggetti con proprietà intrinseche. + +Tre argomenti convergenti: (1) Particelle identiche: stato antisimmetrico $|\psi\rangle = (|ab\rangle - |ba\rangle)/\sqrt{2}$ non fattorizzabile. (2) Entanglement: stato $|\psi^-\rangle$ non si fattorizza. (3) Dualità: AdS/CFT è dualità esatta tra due teorie diverse; la struttura relazionale sottostante è condivisa. + +Discernibilità debolmente riflessiva (Saunders): due elettroni in stato entangled soddisfano la relazione asimmetrica ``ha spin opposto a''. Distinguibili in senso logico debole, ma non per proprietà monodiche. Il PRF richiede: nessuna proprietà fisica fondamentale appartiene a un sistema isolato. + +% ============================================================ +% APPENDICE BIBLIOGRAFICA +% ============================================================ +\chapter*{Note Bibliografiche} +\addcontentsline{toc}{chapter}{Note Bibliografiche} +\markboth{Note Bibliografiche}{Note Bibliografiche} + +Questo libro deve molto a una serie di testi che hanno formato il mio pensiero. Li elencoforzandomi alla parsimonia. + +\textbf{Meccanica Quantistica.} Carlo Rovelli, \textit{Helgoland} (2020): la presentazione più accessibile della MQ relazionale. David Deutsch, \textit{The Fabric of Reality} (1997): difesa rigorosa dei Molti Mondi. David Albert, \textit{Quantum Mechanics and Experience} (1992): analisi filosofica del problema della misura. + +\textbf{Relatività e Gravità Quantistica.} Lee Smolin, \textit{Three Roads to Quantum Gravity} (2001). Carlo Rovelli, \textit{Quantum Gravity} (2004): il testo tecnico fondamentale della LQG. Brian Greene, \textit{The Elegant Universe} (1999): la migliore introduzione alla teoria delle stringhe. + +\textbf{Coscienza.} David Chalmers, \textit{The Conscious Mind} (1996): la formulazione classica del problema difficile. Anil Seth, \textit{Being You} (2021): coscienza come allucinazione controllata. Giulio Tononi, \textit{Phi} (2012): IIT per un pubblico generale. + +\textbf{Fisica dell'Informazione.} Charles Bennett e Rolf Landauer, articoli originali sui limiti fisici della computazione. John Archibald Wheeler, ``It from Bit'' in \textit{At Home in the Universe} (1994). + +\textbf{Filosofia della Fisica.} Tim Maudlin, \textit{Quantum Non-Locality and Relativity} (1994). James Ladyman e Don Ross, \textit{Every Thing Must Go} (2007): il manifesto dell'OSR. + +\textbf{Voci meno frequentate.} Günther Anders, \textit{Die Antiquiertheit des Menschen} (1956). Ernst Cassirer, \textit{An Essay on Man} (1944). Derek Parfit, \textit{Reasons and Persons} (1984). + +\vfill +\begin{center} +{\small\itshape\color{captionink} Fine. \textcopyright\ Tutti i diritti riservati.} +\end{center} + +\end{document} diff --git a/il_silenzio_tra_le_stelle.pdf b/il_silenzio_tra_le_stelle.pdf new file mode 100644 index 0000000..1623de7 Binary files /dev/null and b/il_silenzio_tra_le_stelle.pdf differ