1)

Abbreviazione di «California Institute of Technology». [N.d.T.] 

2)

Acronimo di «Quantum Electro-Dynamics». [N.d.T.] 

3)

Come faceva a saperlo? Newton, che era un genio, annotò: «Perché il vetro può essere lucidato». Chiederete: come diavolo faceva a concludere da ciò che il vetro non è fatto di buchi e di chiazze riflettenti? Ebbene, Newton si faceva da solo le lenti e gli specchi, e sapeva in che cosa consiste questa operazione: si graffia la superficie di un pezzo di vetro con polveri fatte di granuli sempre più fini. Via via che i graffi diventano più sottili, la superficie del vetro cambia aspetto e passa dal grigio spento (dovuto al fatto che i graffi profondi diffondono la luce) a una limpidità trasparente (perché invece i graffi estremamente sottili lasciano passare la luce). Newton vide quindi che è impossibile ammettere che la luce venga influenzata da irregolarità molto piccole quali graffi, buchi o chiazze; anzi, come lui sapeva, è vero il contrario. Graffi molto sottili, e perciò anche chiazze altrettanto piccole, non disturbano il cammino della luce. La teoria dei buchi e delle chiazze non può dunque funzionare. 

4)

È una vera fortuna per noi che Newton fosse convinto della natura «corpuscolare» della luce, perché questo ci permette di vedere tutte le contorsioni di una mente intelligente e non condizionata da preconcetti che si sforza di spiegare la riflessione parziale da parte di due o più superfici. (I sostenitori della teoria ondulatoria non hanno mai dovuto fare nessuna fatica per spiegare questo fenomeno). Newton ragionò come segue: nonostante le apparenze, la superficie frontale in realtà non riflette nessuna luce. Infatti, se così fosse, come potrebbe tale luce riflessa essere ricatturata allorché lo spessore è tale da non produrre nessuna riflessione? Quindi la luce deve essere riflessa dalla seconda superficie. Per spiegare il fatto che la quantità di luce riflessa dipende dallo spessore del vetro, Newton propose la seguente idea: la luce che urta la prima superficie produce una specie di onda o di campo che viaggia con essa e ne determina la predisposizione a riflettersi o no sulla seconda superficie. Egli chiamò questo processo «fasi di riflessione facile o di trasmissione facile» e suppose che esso accada ciclicamente, a seconda dello spessore del vetro. 

Questa ipotesi incontra due difficoltà; la prima è l'effetto delle superfici addizionali: ogni nuova superficie modifica la riflessione, come ho spiegato nel testo. La seconda è che la luce viene innegabilmente riflessa da un lago, dove non esiste una seconda superficie, quindi la superficie riflettente deve essere quella frontale. Nel caso di un'unica superficie, Newton disse che la luce ha una predisposizione a riflettersi. È accettabile una teoria in cui la luce sa che tipo di superficie sta urtando, e sa che si tratta di una superficie unica? 

Newton non mise in evidenza queste difficoltà della sua teoria sulle «fasi di trasmissione e di riflessione», pur rendendosi conto, è chiaro, che la teoria non era soddisfacente. Ma ai tempi di Newton si tendeva a sorvolare sui punti carenti di una teoria; oggi invece uno scienziato tende a mettere egli stesso in evidenza i punti in cui la sua teoria non si accorda con i dati dell'osservazione. Dico questo non per criticare Newton, ma per far notare un aspetto positivo del modo di comunicare della scienza d'oggi. 

5)

Questa teoria sfruttava il fatto che le onde si possono sommare o cancellare tra loro, e i calcoli basati su questo modello riproducono i dati delle osservazioni di Newton e di quelle seguite per centinaia d'anni successivi. Poi divenne possibile costruire strumenti abbastanza sensibili da rivelare un singolo fotone: la teoria ondulatoria prevedeva che, rendendo più fioca la luce, il ticchettio del fotomoltiplicatore si sarebbe dovuto indebolire sempre più, mentre in realtà resta della stessa intensità, solo che si dirada. Nessun modello ragionevole era in grado di spiegare questo fatto, e per un certo periodo bisognò far lavorare di più il cervello: per dire se la luce era fatta di onde o di particelle era necessario sapere quale esperimento si stesse analizzando. Questo stato di confusione venne chiamato «dualità ondulatorio-corpuscolare» della luce, e qualche bello spirito dichiarò che la luce era onda di lunedì, mercoledì e venerdì, e particelle di martedì, giovedì e sabato; quanto alla domenica, bisognava pensarci su. Scopo di queste lezioni è di raccontare come è stato «risolto» questo enigma. 

6)

1. Anche le parti dello specchio corrispondenti a frecce dirette prevalentemente verso sinistra danno luogo a una forte riflessione, una volta eliminate le parti le cui frecce puntano nella direzione opposta. Solo quando sono presenti parti a cui corrispondono sia frecce dirette a sinistra sia frecce dirette a destra i contributi si cancellano. La situazione è analoga al caso della riflessione parziale da due superfici: ciascuna riflette la luce, ma la riflessione complessiva si annulla se lo spessore è tale che le corrispondenti frecce hanno direzioni opposte. 

7)

Non resisto alla tentazione di descrivere un reticolo fatto dalla Natura: i cristalli di sale sono costituiti da atomi di sodio e di cloro disposti secondo uno schema regolare. La loro disposizione alternata, come i solchi a cui accennavo prima, agisce come un reticolo se il cristallo è illuminato da luce del colore giusto (raggi X, in questo caso). Individuando con precisione le posizioni in cui al rivelatore arriva la massima quantità della luce che ha subito questo particolare tipo di riflessione (detto diffrazione), è possibile determinare esattamente quanto distano tra loro i solchi, e quindi la distanza tra gli atomi (fig. 28). È un metodo bellissimo, che permette di determinare la struttura di tutti i tipi di cristalli e altresì di confermare che i raggi X hanno la stessa natura della luce. I primi esperimenti di questo tipo furono fatti nel 1914 e furono molto emozionanti: era la prima volta che si vedeva nei particolari la disposizione degli atomi nelle varie sostanze. 

8)

Questo è un esempio del «principio di indeterminazione»: vi è una sorta di «complementarità» tra quello che si sa del percorso della luce tra i due blocchi e quello che si sa del suo percorso successivo: è impossibile avere conoscenza esatta di entrambi. Inquadriamo il principio di indeterminazione nel suo contesto storico: nel periodo in cui si stavano affermando le idee rivoluzionarie della meccanica quantistica, si cercava ancora di interpretarle sulla base di vecchi concetti, quale quello della propagazione rettilinea della luce. Ma, arrivati a un certo punto, i vecchi concetti cessavano di funzionare, per cui fu sviluppato un avvertimento che in sostanza diceva: «I vecchi concetti non servono più quando…». Ma se si buttano via tutti i concetti vecchi e si usano le idee esposte in queste lezioni, sommando le frecce per tutti i modi in cui un evento può accadere, non c'è necessità alcuna di un principio di indeterminazione! 

9)

I matematici hanno cercato di individuare tutte le possibili quantità che obbediscono alle regole dell'algebra (A + B = B + A, A × B = B × A, ecc.). In principio queste regole erano state trovate per i numeri interi positivi, usati per contare cose come le persone o le mele. I numeri vennero arricchiti dall'introduzione dello zero, delle frazioni, degli irrazionali (numeri che non si possono esprimere come rapporto tra due interi) e dei numeri negativi, ma sempre continuando a obbedire alle stesse regole dell'algebra. Alcuni dei numeri introdotti dai matematici all'inizio posero delle difficoltà alla gente comune — ad esempio risultava difficile cogliere l'idea di mezza persona — ma oggi non vi sono più problemi e la notizia che in una regione vi è una media di 3,2 persone per km quadrato non desta né indignazione morale né raccapriccio. Nessuno cerca di immaginarsi le 3,2 persone; quel 3,2, come ben si sa, se moltiplicato per 10, dà 32. Pertanto grandezze che verificano le regole dell'algebra possono risultare interessanti anche se non rappresentano sempre situazioni reali. Le frecce su un piano possono essere «sommate» ponendo la coda di una sulla punta di un'altra, e «moltiplicate» con contrazioni e rotazioni successive. Poiché queste frecce verificano le stesse regole dell'algebra dei soliti numeri, i matematici le chiamano numeri. Ma per distinguerle da quelli usuali le chiamano «numeri complessi». Per quelli di voi che hanno studiato abbastanza matematica da sapere che cos'è un numero complesso, avrei potuto dire semplicemente: «La probabilità di un evento è data dal modulo quadrato di un numero complesso. Se un evento può avvenire in più modi alternativi, i rispettivi numeri complessi vanno sommati; se può avvenire come successione di passaggi, i numeri complessi vanno moltiplicati». L'effetto è più solenne, ma non ho detto nulla che non avessi detto anche prima: ho solo usato un linguaggio diverso. 

10)

Avrete notato che per riuscire a dar conto del 100% della luce, 0,0384 è stato cambiato in 0,04 e si è usato 84% come quadrato di 0,92. Ma quando si somma veramente tutto non c'è bisogno di arrotondare 0,0384 e il quadrato di 0,92: tutti i pezzettini di freccia corrispondenti ai vari percorsi possibili per la luce si combinano tra loro dando sempre la risposta esatta. Per coloro che amano questo genere di cose, la fig. 46 illustra un altro possibile percorso della luce dalla sorgente al rivelatore in A: una successione di tre riflessioni e due trasmissioni che danno luogo a una freccia risultante di lunghezza 0,98 × 0,2 × 0,2 × 0,2 × 0,98, ossia circa 0,008, una freccia decisamente molto piccola. Perché il calcolo della riflessione parziale su due superfici sia completo, bisogna aggiungere anche questa minuscola freccia, più un'altra ancor più piccola corrispondente a cinque riflessioni, e così via. 

11)

Tale regola concorda con quello che insegnano a scuola, ossia che la quantità di luce che attraversa una superficie è inversamente proporzionale al quadrato della distanza dalla sorgente, perché se una freccia si riduce a metà, il suo quadrato si riduce a un quarto. 

12)

Questo fenomeno, noto come effetto Hanbury-Brown-Twiss, è stato usato per distinguere sorgenti singole da sorgenti doppie di onde radio nello spazio cosmico, anche quando le due sorgenti sono estremamente vicine tra loro. 

13)

Tener chiaro questo principio dovrebbe aiutare gli studenti a non lasciarsi confondere dalla «riduzione del pacchetto d'onde» e da altre magie analoghe. 

14)

L'analisi completa di questa situazione è molto interessante: se i rivelatori in A e in B non sono perfetti e pertanto rivelano i fotoni solo alcune volte, vi sono tre condizioni finali distinguibili: 1) scattano i rivelatori in A e in D, 2) scattano quelli in B e in D, 3) scatta solo quello in D, mentre A e B restano nello stato iniziale. Per i primi due eventi le probabilità vanno calcolate come illustrato nel testo (a parte un nuovo passo: non essendo i rivelatori perfetti, vi è un'ulteriore contrazione connessa alla probabilità che il rivelatore in A, o in B, non scatti). Quando scatta solo D, non è possibile distinguere i due casi e la Natura gioca con noi facendo intervenire l'interferenza, lo stesso peculiare effetto che si verifica quando non vi sono rivelatori in A e in B (solo che la freccia finale è contratta dell'ampiezza relativa al fatto che i rivelatori non scattino). Il risultato finale è una mescolanza, la semplice somma dei tre casi (fig. 51). Al crescere della sensibilità dei rivelatori si produce sempre meno interferenza. 

15)

Questi grafici sono poi diventati uno strumento matematico corrente nella fisica con il nome di «diagrammi di Feynman» [N.d.T.]. 

16)

In queste lezioni considero che la posizione di un punto abbia una sola dimensione spaziale. Per individuare un punto nello spazio tridimensionale si deve fare riferimento a una «stanza» e misurare la distanza del punto dal pavimento e da due pareti adiacenti (tutti ad angolo retto tra loro). Si chiamino X1, Y1 e Z1 questi tre valori. La distanza del nostro punto da un altro con valori X2, Y2 e Z2 è data dal «teorema di Pitagora tridimensionale» in base al quale il quadrato di tale distanza risulta 

(X2-X1)2 + (Y2-Y1)2 + (Z2-Z1)2

L'eccesso tra tale valore e il quadrato della differenza di tempo, cioè

(X2-X1)2 + (Y2-Y1)2 + (Z2-Z1)2 - (T2-T1)2

viene a volte chiamato «intervallo», o I, e la teoria della relatività di Einstein afferma che F(da A a B) dipende solo da I. Il contributo principale a F(da A a B) si ha, come ci si aspetterebbe, quando la distanza spaziale è uguale a quella temporale (cioè quando I è zero). Ma ci sono anche contributi per I non nullo, che sono inversamente proporzionali ad I e puntano nella dire­zione delle 3 per I positivo (quando la luce va più veloce di c) e verso le 9 per I negativo. Tali contributi si elidono tra loro in molte circostanze (fig. 56). 

17)

La formula che esprime E(da A e B) è complicata, ma c'è un modo interessante per spiegarne la struttura. Si può rappresentare E(da A a B) come somma dell'enorme numero di modi differenti in cui l'elettrone può andare dal punto A al punto B (fig. 57). L'elettrone può fare «un solo salto» andando direttamente da A a B, può fare «due salti» fermandosi prima in C, oppure «tre salti» fermandosi in D e in E e così via. L'ampiezza per un salto diretto da F a G è data da F(da F a G), cioè è la stessa dell'ampiezza per un fotone che vada tra gli stessi due punti. Ogni «fermata» introduce un'ampiezza n2, dove n è il numero che abbiamo appena visto e che serve per ottenere il risultato giusto. 

L'espressione di E(da A a B) è dunque una somma del tipo: F(da A a B) [cioè «un salto»] + F(da A a C) × n2 × F(da C a B) [«due salti» con fermata in C] + F(da A a D) × n2 × F(da D a E) × F(da E a B) [«tre salti» con fermata in D e E] + … per tutte te possibili posizioni dei punti C, D, E, ecc. 

Si osservi che al crescere di n i percorsi meno diretti danno un contributo maggiore alla freccia finale. Se n = 0 (come per il fotone) tutti i termini che contengono n sono nulli e resta solo il primo, cioè F(da A a B). Dunque E(da A a B) e F(da A a B) sono strettamente connesse. 

18)

Questo numero, l'ampiezza per emettere o assorbire un fotone, è talvolta chiamato «carica» della particella. 

19)

Includendo gli effetti della polarizzazione dell'elettrone, la «seconda» freccia andrebbe «sottratta», cioè ruotata di 180° e sommata. (Ma su questo tornerò più avanti). 

20)

Le condizioni finali dell'esperimento in questi due casi più complicati sono le stesse che nei casi più semplici: gli elettroni partono dai punti 1 e 2 ed arrivano in 3 e 4. Non essendo quindi tali alternative distinguibili dalle precedenti, le frecce relative a questi modi vanno sommate a quelle dei primi due. 

21)

Questi fotoni scambiati, che non appaiono mai nelle condizioni iniziali e finali di un esperimento, sono a volte chiamati «fotoni virtuali». 

22)

Dirac propose l'esistenza di «antielettroni» nel 1931; l'anno successivo essi furono rivelati sperimentalmente da Carl Anderson che li battezzò «positroni». Oggi è facile produrre positroni, ad esempio facendo urtare tra loro due fotoni, e conservarli per settimane in un campo magnetico. 

23)

L'ampiezza per lo scambio di un fotone è (-j) × F(da A a B) × j: due fattori di accoppiamento moltiplicati per l'ampiezza di propagazione del fotone da un punto a un altro. L'ampiezza di accoppiamento di un protone a un fotone è -j

24)

Il raggio dell'arco dipende evidentemente dalla lunghezza della freccia relativa a ciascuna sezione, determinata a sua volta dall'ampiezza di diffusione di un fotone da parte di un elettrone appartenente a un atomo del vetro, che è stata indicata con S. È possibile calcolare tale raggio applicando le formule per i tre eventi base all'enorme numero di scambi di fotoni che si verificano e sommando le ampiezze così ottenute. Si tratta di un problema estremamente complesso, ma nel caso di sostanze molto semplici si è riusciti a calcolare il raggio con notevole successo, e le sue variazioni da sostanza a sostanza sono descritte in maniera ragionevole dall'elettrodinamica quantistica. Tuttavia occorre ammettere che non si è mai tentato questo calcolo a partire dai princìpi primi per sostanze complesse come il vetro. In tali casi il raggio viene determinato sperimentalmente. Per il vetro gli esperimenti hanno dato il valore di circa 0,2 (per luce che incide perpendicolarmente). 

25)

Le frecce dovute alla riflessione sulle varie sezioni (che formano un «cerchio») hanno la stessa lunghezza di quelle che provocano la rotazione in più della freccia finale relativa alla trasmissione. Vi è dunque una relazione tra coefficiente di riflessione parziale e indice di rifrazione di una sostanza. 

Può sembrare che la freccia finale sia più lunga di 1, il che vorrebbe dire che dal vetro esce più luce di quanta ne entri! Tale impressione è però dovuta al non aver considerato l'ampiezza per i percorsi in cui il fotone raggiunge una sezione, un nuovo fotone rimbalza fino a una sezione precedente e infine un terzo fotone attraversa il vetro, o altre possibilità ancora più complicate. Il loro effetto è di ruotare leggermente le frecce secondarie mantenendo la lunghezza di quella finale tra 0,92 e 1, così che la somma delle probabilità di trasmissione e di riflessione è sempre il 100%. 

26)

Tale difficoltà può essere considerata da un altro punto di vista: forse è errata l'idea che due punti possano essere infinitamente vicini, è falsa l'assunzione che la geometria continui a valere invariata fino in fondo. Tuttavia, se si ammette che la minima distanza possibile tra due punti sia 10-100 cm. (la più piccola distanza misurata fino ad oggi in un esperimento è 10-16 cm.), scompaiono gli infiniti ma nascono altre incoerenze: ad esempio la probabilità totale di un evento risulta un po' più grande o un po' più piccola del 100%, oppure compaiono infinitesime quantità di energia negativa. È stato proposto che queste difficoltà siano dovute al non aver preso in considerazione gli effetti della gravità, di solito debolissimi, ma che diventano importanti a distanze così piccole. 

27)

Mentre negli esperimenti di alta energia vengono fuori dai nuclei molte particelle, alle basse energie, cioè in condizioni più normali, i nuclei risultano costituiti solo da protoni e neutroni. 

28)

Un MeV è una quantità molto piccola, adatta quindi a questi tipi di particelle: vale circa 1,78 × 10-27 grammi. 

29)

Si osservino i nomi: «fotone» viene dalla parola greca per luce, «elettrone» dalla parola greca per ambra, le cui proprietà elettriche furono le prime ad essere conosciute. Ma con lo sviluppo della fisica moderna l'interesse per il greco antico è andato scemando, e si è arrivati a coniare nomi come «gluoni» (dalla parola inglese glue, «colla»). Anche d e u stanno al posto di nomi, ma non vorrei fare troppa confusione: un quark d non è più down, «giù», di quanto un quark u sia up, «su». La proprietà di essere d o u di un quark viene chiamata «sapore». 

30)

Dopo la conclusione di questo ciclo di conferenze, sono state raggiunte energie sufficientemente elevate per produrre dei W, e la massa misurata è risultata molto vicina a quella predetta dalla teoria. 

31)

Il momento magnetico del muone è stato misurato con grande accuratezza e risulta 1,001165924 (con un'incertezza di +9 sull'ultima cifra), mentre quello dell'elettrone risulta 1,00115965221 (con un'incertezza di 3 sull'ultima cifra). Ci si chiederà come mai il momento magnetico del muone risulti leggermente maggiore di quello dell'elettrone. In uno dei nostri grafici (fig. 89) un elettrone emette un fotone che si trasforma in una coppia elettrone-positrone. C'è anche la possibilità che il fotone si trasformi in una coppia muone-antimuone, più pesanti dell'elettrone iniziale. Se invece è un muone ad emettere il fotone, questo può sempre trasformarsi in coppia elettrone-positrone, più leggeri del muone iniziale, mentre la coppia muone-antimuone avrebbe la stessa massa. 

L'elettrodinamica quantistica descrive accuratamente tutte le proprietà elettriche del muone, oltre che dell'elettrone. 

32)

Successivamente a queste lezioni è stato osservato qualche indizio dell'esistenza di un quark t con massa molto alta, circa 40.000 MeV. 

33)

Quando Einstein ed altri provarono a unificare la gravitazione con l'elettrodinamica, entrambe le teorie erano ancora approssimazioni classiche. In parole povere erano sbagliate. Nessuna di esse era ancora fondata sullo schema delle ampiezze che è risultato così essenziale.