Libri di testo e memorie originali

March 20, 2018 | Author: Anonymous | Category: Scienza, Fisica, Quantum Physics
Share Embed


Short Description

Download Libri di testo e memorie originali...

Description

Libri di testo e memorie orignali: sui rapporti tra scienza normale e scienza straordinaria di Fabio Bevilacqua, Università di Pavia

1. In due famosi volumi, che oramai appartengono alla storia della filosofia della scienza, Thomas Kuhn ha stabilito una distinzione fondamentale tra due aspetti dell'impresa scientifica: la scienza normale e la scienza straordinaria. La prima è intesa come un patrimonio di conoscenze condiviso dalla comunità scientifica in una data epoca; sulla base di queste conoscenze si sviluppa un tipo di ricerca volto alla soluzione di problemi ben definiti. Per scienza straordinaria invece Kuhn intende quella fase della ricerca scientifica in cui i fondamenti del sapere sono messi in discussione e non c'è accordo sulla definizione stessa dei problemi da affrontare. Risultati ben noti della riflessione kuhniana sono l'avere identificato nel libro di testo lo strumento di raccolta e trasmissione della scienza normale e nella memoria originale, pubblicata sulle riviste specialistiche, lo strumento fondamentale del dibattito «straordinario» all'interno della comunità scientifica. Tutto ciò è ben noto da oltre venti anni, ma, per quanto io sappia, non è mai stato analizzato in dettaglio il rapporto tra lo sviluppo di un dibattito scientifico e la trasposizione della sua soluzione in un libro di testo. A me sembra che manchi un'analisi specifica delle relazioni tra memorie originali e libri di testo che di quelle memorie sono il risultato finale, come anche che manchi un'analisi dell'evoluzione dei libri di testo di una determinata disciplina, ove qui i libri di testo sono intesi come documenti storici per la comprensione della visione «normale» di quella determinata disciplina in una determinata epoca. É noto infatti, almeno in termini generali, che le teorie sono costantemente sottoposte ad un processo di revisione ed inglobamento in teorie più sofisticate. Le tappe specifiche con cui la comunità scientifica affronta questo processo restano però piuttosto oscure. Sembra quasi che storici e filosofi della scienza siano soddisfatti dal sapere che la «massa» newtoniana è deducibile quantitativamente ma non qualitativamente da quella einsteiniana (1). Ma qual è, oggi, la concezione «normale» della meccanica newtoniana classica? In che rapporti specifici è con la teoria della relatività ristretta, con la teoria della relatività generale, con la meccanica quantistica? Questa concezione «normale» ha avuto un suo sviluppo storico, documentato attraverso l'analisi di successivi libri di testo? I principi di corrispondenza quantitativi che stabiliscono un elemento di continuità tra teorie successive sono utilizzati dagli scienziati solo per andare avanti verso maggiori approssimazioni o sono dei ponti percorsi anche all'indietro per «normalizzare» continuamente le teorie precedenti? Questo percorso all'indietro viene effettivamente realizzato? Un'analisi delle influenze che successivi dibattiti scientifici hanno sull'evoluzione della concezione «normale» di un determinato campo del sapere scientifico a me sembra un compito rilevante non solo per lo storico ma anche per il filosofo della scienza. Qualora infatti la trasposizione della soluzione di un dibattito scientifico nei libri di testo e la ristrutturazione di questi libri di testo alla luce di successivi dibattiti non siano fatte in maniera univoca, la stessa concezione di scienza normale verrebbe ad essere indebolita. Questo lavoro si propone di portare un contributo alla definizione dei problemi su indicati in un caso specifico della storia della fisica, quello dell'elettromagnetismo classico.

Tra il 1785, anno in cui fu pubblicata la legge dell'inverso del quadrato di A. Coulomb, ed il 1909, anno della pubblicazione del libro di H.A. Lorentz sulla teoria dell'elettrone, l'elettromagnetismo si sviluppa in maniera straordinariamente vivace. Ad una iniziale affermazione del modello di azione a distanza di stampo newtoniano con le leggi di Coulomb, Biot-Savart e Ampère, si contrappone lo sviluppo del modello di azione a contatto di Faraday-Maxwell, con le rispettive equazioni. L'azione a distanza, nelle sue varie versioni, rimase però la concezione più sviluppata fino agli inizi degli anni '90. Essa era legata ad un modello discreto della materia e della carica elettrica ed a forze agenti nello spazio vuoto, istantaneamente o con ritardi. L'azione contigua era invece caratterizzata da una concezione continua della materia e della carica e da interazioni agenti con velocità finita in uno spazio pieno. Nessuna delle due concezioni ebbe un successo completo: il risultato ottenuto alla fine dell'Ottocento fu una mediazione tra le due. Le particelle cariche furono considerate le sorgenti delle interazioni, successo questo della teoria di azione a distanza, ma le interazioni stesse vennero definite dal modello di azione contigua. All'azione a distanza bisogna inoltre riconoscere il merito di aver contributo, con la formula della forza di Lorentz, a definire l'effetto dei campi sulle particelle cariche. Lo stesso Lorentz realizzò la sintesi tra le due teorie, sintesi che costituisce un buon esempio di scienza «normale»: una teoria molto solida, che diede per alcuni anni l'illusione di poter fondare una visione «elettromagnetica>) della natura, e che è tutt'oggi in gran parte oggetto di insegnamento. La teoria della relatività e la meccanica quantistica dovevano rapidamente infrangere queste aspettative. Ma, come nel caso della meccanica newtoniana, le caratteristiche di unità ed omogeneità della teoria dell'elettrone sopravvivono, nonostante le successive reinterpretazioni nell'ambito di teorie più sofisticate. Il nostro primo problema è pertanto il seguente: esiste oggi una versione «normale» dell'elettromagnetismo classico? In che libri di testo è esposta? 2. Una prima risposta si può trovare confrontando cinque libri di testo, tutti ovviamente successivi alla sintesi di Lorentz e tutti indirizzati allo stesso tipo di pubblico (studenti universitari «avanzati»), i cui autori sono fisici molto famosi (quasi tutti premi Nobel). Mi riferisco ai manuali di elettromagnetismo classico di M. Planck (1922), A. Sommerfeld (1948), W. Pauli (1949), L. Landau e E. Lifchitz (1956), R. Feynman (1963). Il confronto presenta alcune sorprese. É immediato notare infatti che le cinque trattazioni presentano delle differenze notevolissime di impostazione. Le stesse formule matematiche e gli stessi risultati quantitativi sono descritti, inquadrati e sistemati in contesti teorici e metodologici differenti. Grande ad esempio il contrasto sul problema delle dimensioni in Planck e Sommerfeld. Planck, al termine di una dettagliata discussione su diversi possibili sistemi di unità di misura asserisce che: «Il fatto che quando una specifica quantità fisica è misurata in due differenti sistemi di unità essa non soltanto ha valori numerici differenti, ma ha anche dimensioni differenti, è stato spesso interpretato come un'inconsistenza che richiede una spiegazione, ed ha dato luogo al problema delle dimensioni "reali" di una quantità fisica. Dopo la precedente discussione è chiaro che questo problema non ha maggior senso di quello di indagare sul nome "reale" di un oggetto» (2).

Del tutto opposta è la posizione di Sommerfeld nella prefazione al suo testo di elettrodinamica: «Il carattere dimensionale delle entità di campo è preso sul serio ovunque. Noi non accettiamo la posizione di Planck, secondo la quale il problema della dimensione reale di una entità fisica è senza senso; Planck asserisce nel par. 7 delle sue Lezioni di Elettrodinamica che questo problema non ha maggiore significato che quello del nome “reale” di

un oggetto. Invece noi deriviamo dalle equazioni fondamentali di Maxwell la basilare distinzione tra entità di intensità ed entità di quantità, che è già stata applicata consistentemente negli eccellenti libri di testo di G. Mie» (3).

Tale distinzione risale alla fattorizzazione dell'energia di W. Rankine (1853) ed è proprio la fattorizzazione dell'energia elettromagnetica una delle applicazioni dell'approccio di Sommerfeld. La posizione di Planck sull'energia elettromagnetica è estremamente sofisticata, indipendente dai classici dualismi (intensità/quantità, potenziale/cinetica, libera/vincolata), ed è esposta con dettaglio in un trattato pubblicato ben cinque volte senza sostanziali modifiche tra il 1887 ed il 1924. Le diverse interpretazioni del concetto di energia elettromagnetica di Planck e di Sommerfeld riflettono quindi lo stesso contrasto che qui emerge sul problema delle dimensioni. Più in generale si nota che nei cinque libri di testo oggetto di questa analisi i «fondamenti» posti alla base della teoria sono in larga misura differenti. In due dei cinque casi si parte da principi fondamentali per ricavare le equazioni base (le equazioni di Maxwell e la forza di Lorentz): Planck parte dal principio di conservazione dell'energia e Landau dal principio di minima azione. Sommerfeld invece assume le equazioni stesse come base assiomatica della teoria, mentre Feynman sostiene l'equivalenza formale delle equazioni di Maxwell, tradizionalmente interpretate come il paradigma dell'azione a contatto, con equazioni che si basano su un'azione a distanza (ritardata). Egli pertanto mette in discussione le priorità della tradizionale interpretazione concettuale basata sulla teoria del campo maxwelliano. Pauli infine si esprime a favore di una giustificazione induttiva delle leggi fondamentali e sostiene, come vedremo, di ripercorrere con la sua esposizione lo sviluppo storico. Questo panorama lascia a dir poco interdetti: la scienza normale dovrebbe avere dei fondamenti ben definiti e universalmente condivisi, soprattutto se ci si riferisce ad una teoria molto sviluppata già all'inizio di questo secolo e quindi abbastanza matura oggi. Val la pena di andare in qualche dettaglio: la sottolineatura kuhniana dell'assenza dai manuali di riferimenti al contesto della scoperta ed al contesto della corroborazione ci aveva portato a ritenere che i manuali fossero il luogo naturale del contesto della giustificazione. Kuhn ne aveva persino tracciato una simpatica caricatura stabilendo un'analogia tra le funzioni logico-matematiche dei manuali stessi e quelle meccaniche di un macinino da caffè (4). Ora però ci troviamo di fronte ad una serie di importanti manuali che offrono giustificazioni alternative: sorge il dubbio che questa presenza di metafisiche differenti e talvolta contrapposte nei libri di testo possa rendere problematica la distinzione netta tra i tre contesti su menzionati e indebolire fortemente il concetto di scienza normale. Per esaminare in dettaglio il nostro caso occorre abbandonare la dicotomia kuhniana e adottare un approccio differente, che permetta di considerare gli elementi logico-matematici delle esposizioni manualistiche insieme a e non indipendentemente da quelli metafisici ed extralogici. Il problema della ricerca di una tale metodologia fu affrontato nel 1952 da A. Einstein e poi ripreso da G. Holton, che ha sviluppato uno schema a tre componenti dell'impresa scientifica. Un approccio simile, ancora con uno schema a tre componenti ma con un accento più specificamente filosofico, è quello suggerito in numerosi lavori da G. Buchdahl. Per i nostri scopi si rivela molto utile un'analisi di questi basilari libri di testo attraverso una metodologia a quattro componenti: i principi regolativi, principi cioè con valore euristico oltre che giustificativo; i modelli concettuali, in elettromagnetismo soprattutto quello di azione a contatto e azione a distanza; le strutture matematiche: nel nostro caso la teoria matematica del potenziale, con i teoremi che mettono in corrispondenza formale le leggi differenziali con quelle integrali; ultima componente infine è quella delle pratiche sperimentali. Esaminiamo dunque i nostri libri di testo alla luce di queste quattro componenti. A) Planck: in questo manuale l'esposizione della teoria dell'elettricità e del magnetismo è

accompagnata da considerazioni metodologiche di grande interesse. Planck infatti già dalla Prefazione asserisce che la sua scelta espositiva è a favore del metodo deduttivo e che il principio di conservazione dell'energia è posto come fondamento. Questo è il miglior punto di partenza per un'esposizione sistematica anche se non esaustiva della teoria: «non ci può essere dubbio che esiste un solo punto di partenza fisso e certo per la nostra esposizione—specificamente il concetto e principio dell'energia» (5). Questo principio preso da solo però non è sufficiente. Varie contrapposte teorie dell'elettricità si basano su di esso. Il principio va legato ad una seconda componente: uno specifico modello fisico, che Planck individua nell'idea maxwelliana di azione a contatto. Merito fondamentale di questa non è l'aver affermato l'esistenza dell'etere bensì l'idea di contiguità: «tutto ciò che avviene in un dato luogo ad un dato tempo è completamente ed unicamente definito dagli eventi che sono avvenuti in un tempo immediatamente precedente nelle immediate vicinanze di quel luogo» (6). L'importanza di questa considerazione è straordinaria e Planck ne è pienamente consapevole. L'azione a distanza infatti richiede la contemporanea considerazione delle interazioni di tutto l'universo mentre quella a contatto restringe l'analisi solo alle interazioni degli elementi contigui. «Questo conferma il fatto che più una teoria è ristretta, e non più una teoria è generale, tanto più saranno specifiche le risposte che essa darà a tutte le domande fondamentali...» (7). Secondo Planck questo è un punto centrale: le teorie dell'azione a distanza non erano meno precise di quella di Maxwell ed anch'esse poggiavano su una qualche versione del principio di conservazione dell'energia. La differenza è che la forma che questo principio di conservazione assume nella teoria di Maxwell, la conservazione locale e non globale, è «più specifica e più semplice». Questo è il senso attribuito da Planck al termine semplicità. Le teorie da preferire sono quelle più specifiche e non quelle più generali, le prime hanno un'euristica più potente. Planck pertanto individua nella particolare versione che il principio di conservazione dell'energia assume nella teoria di Maxwell l'elemento euristico di superiorità di questa teoria nei confronti delle teorie dell'azione a distanza che pur erano quantitativamente ugualmente corrette. Questo principio è poi posto alla base della deduzione della teoria, deduzione che è concretizzata con l'aiuto di alcuni risultati «sperimentali»: lo stesso teorema della conservazione locale di Poynting viene considerato come un risultato sperimentale che concretizza l'idea teorica di conservazione locale. Parte di qui dunque la trattazione di Planck che si sviluppa secondo la distinzione classica tra statica, teoria degli stati stazionari, quasi stazionari e dinamici. Alla fine della trattazione vengono fatti dei brevi cenni alla teoria dell'elettrone di Lorentz, che supera i limiti della teoria di Maxwell ed Hertz, ed alla relatività ristretta di Einstein che a sua volta supera la teoria di Lorentz. Planck dunque pone fortemente l'accento in questa trattazione sul ruolo dei principi regolativi in connessione a particolari modelli concettuali. B) Sommerfeld: nell'introduzione ai sei volumi in cui sono raccolte le sue lezioni di fisica teorica, Sommerfeld fa un breve commento sulla differenza tra la propria impostazione e quella di Planck: «Mentre le lezioni di Planck sono impeccabili in quanto a formulazione sistematica, io credo di poter affermare per le mie una maggior varietà della materia ed un uso più flessibile dell'apparato matematico» (8). Sommerfeld pone infatti decisamente l'accento sulla componente delle strutture matematiche e su quella dei modelli concettuali. Nella prefazione all'ultimo volume delle Lezioni asserisce infatti che: «la spesso menzionata “armonia prestabilita” tra ciò che è matematicamente interessante e ciò che è fisicamente rilevante si incontra ad ogni passo ed offre un'attrazione estetica — mi piacerebbe dire metafisica — al nostro soggetto» (9).

Questa sottolineatura del ruolo della matematica è esplicito nel caso delle equazioni differenziali alle derivate parziali note come equazioni del potenziale. Esse si applicano ad un numero straordinariamente grande di branche della fisica e per Sommerfeld ciò è dovuto al successo del modello concettuale della teoria dell'azione contigua, e cioè dei campi maxwelliani. Questa opinione, che non è condivisa da tutti, ci introduce alla trattazione che Sommerfeld fa dell'elettromagnetismo: una deduzione che parte dalle equazioni di Maxwell poste come assiomi: «la totalità dei fenomeni elettromagnetici è derivata sistematicamente da esse per deduzione» (l0). L'impostazione si richiama esplicitamente alla interpretazione data da Hertz al lavoro di Maxwell, ed alla conseguente «purificazione» delle equazioni stesse dai termini riferentisi ai potenziali. Il richiamo alla famosa frase di Hertz: la teoria di Maxwell sono le equazioni di Maxwell, va quindi intesa come una sottolineatura, anche questa non unanimemente condivisa, del concetto di campo. I lavori di Hertz erano stati come una rivelazione per Sommerfeld studente che, nato a Konigsberg, studiava sotto la guida di fisici-matematici come F. Neumann, Jacobi e Bessel, all'epoca prevalentemente orientati verso la teoria elettrodinamica dell'azione a distanza. L'impostazione del volume risente esplicitamente dell'approccio di Hertz, ma con importanti aggiornamenti: la prima parte è dedicata alla esposizione dei fondamenti della teoria di Maxwell, la seconda alla deduzione dei «fenomeni» seguendo la classica distinzione tra statica, correnti stazionarie, quasi stazionarie e rapidamente variabili. Nella terza parte invece si fa riferimento alla teoria della relatività ristretta ed alla teoria dell'elettrone (singolo), seguendo la formulazione quadrivettoriale di Minkowski; in questa parte trova spazio il principio d'azione di Schwarzschild che lega la parte corpuscolare e quella ondulatoria della teoria. Nella quarta parte infine viene sviluppata l'elettrodinamica dei corpi in moto sempre seguendo l'impostazione relativistica di Minkowski. C) Pauli: a differenza del suo maestro Sommerfeld, Pauli scelse di insegnare l'elettrodinamica in modo induttivo. Questa attitudine era tipica di Pauli ed esprime il suo particolare approccio e interesse nella formazione dei concetti scientifici e nella loro articolazione in una struttura logica e coerente. Pauli infatti sostiene che il metodo induttivo di esposizione corrisponde più strettamente allo sviluppo storico. Egli sottolinea fortemente la componente dei modelli concettuali nella sua trattazione ma, a differenza di Sommerfeld, nota immediatamente che l'approccio dei campi alla Maxwell non ha affatto trionfato sulla concezione corpuscolare, «come si vede dal fatto che l'elettricità è atomistica in natura» (ll). Il fatto che esista una carica elementare non è stato ancora spiegato ed è ancora un problema aperto nella fisica teorica. Un altro problema aperto è che sebbene il campo maxwelliano possa essere descritto matematicamente senza l'aiuto di cariche di prova, non può però essere misurato senza di queste. Secondo Pauli esiste quindi una dualità che rende l'elettrodinamica rilevante per l'epistemologia della fisica. La struttura del libro segue, come già rilevato, uno sviluppo storico induttivo: dai fenomeni statici, a quelli stazionari, quasi stazionari e rapidamente variabili. Pochi gli accenni alla teoria della relatività, e come nel caso di Sommerfeld, la teoria del singolo elettrone è inclusa, mentre viene rimandata ad altri volumi la considerazione di un insieme statistico di elettroni. D) Feynman: nel testo di Feynman la componente matematica giuoca un ruolo notevolissimo. In analogia alle considerazioni di Sommerfeld viene evidenziata la straordinaria quantità di applicazioni delle equazioni della teoria matematica del potenziale. A differenza di Sommerfeld, però, tale circostanza non viene attribuita né ad un'armonia prestabilita né all'azione contigua, bensì all'assunzione di un riferimento spaziale continuo ed isotropo(12). Lo strumento matematico viene inoltre utilizzato per un'impostazione assolutamente originale e molto rilevante per i nostri scopi: la dimostrazione dell'equivalenza formale delle teorie dell'azione contigua e dell'azione a distanza

ritardata. Feynman infatti, di nuovo a differenza di Sommerfeld, reputa che i potenziali e non i campi siano le quantità fondamentali dell'elettromagnetismo e riesce a formulare una teoria dell'azione a distanza ritardata, in cui le forze dipendono dalle velocità e dalle accelerazioni oltre che dalle posizioni delle cariche, che viene ad avere le stesse soluzioni delle equazioni di Maxwell (13). L'interpretazione fisica delle due teorie è ovviamente completamente diversa, ma la possibilità di un'equivalenza formale testimonia che ancora oggi il dibattito tra le due concezioni base dell'elettromagnetismo è presente all'interno addirittura di quella che dovrebbe essere la scienza normale. Il testo di Feynman dà molto più spazio alla relatività speciale degli altri fin qui esaminati, anche se rifiuta di derivare tutto l'elettromagnetismo dall'insieme delle trasformazioni di Lorentz e della legge di Coulomb (l4). E) Landau, Lipschitz: in questo caso si ritorna di nuovo a dare un ruolo molto importante alla deduzione da principi regolativi, ma il principio usato non è quello della conservazione dell'energia, ma questa volta è quello della minima azione. Le equazioni di Maxwell e quella della forza di Lorentz vengono infatti da questo dedotte, con l'aiuto di alcune considerazioni sperimentali 15. La trattazione è profondamente originale e innovativa rispetto ai testi già menzionati: la relatività è posta alla base e nello stesso volume la teoria del campo viene sviluppata per l'elettromagnetismo (relatività ristretta) e per la gravitazione (relatività generale). É da notare che i potenziali sono considerati grandezze necessarie allo sviluppo della teoria e utilizzati nella derivazione delle equazioni di Maxwell.

3. Mi sembra evidente che le differenze di impostazione tra questi libri di testo non siano differenze di secondo piano. Sebbene, come è ovvio, i risultati quantitativi esposti siano gli stessi o siano espressi in formalismi matematicamente equivalenti notiamo che: a) differenti componenti sono poste come fondamento della teoria (risultati sperimentali, Pauli; modelli concettuali, Sommerfeld e Feynman; principi regolativi, Planck e Landau); b) i modelli e i principi in gioco sono diversi e talvolta contrapposti. Val la pena di ricordare come nel 1873 Maxwell si esprimeva sul dibattito in corso tra le scuole dell'azione a distanza e dell'azione a contatto: «Da un punto di vista filosofico, inoltre, è estremamente importante che i due metodi siano confrontati. Entrambi hanno avuto successo nello spiegare i principali fenomeni elettromagnetici ed entrambi hanno tentato di spiegare la propagazione della luce come un fenomeno elettromagnetico ed hanno effettivamente calcolato la sua velocità, mentre nello stesso tempo le concezioni basilari su ciò che effettivamente ha luogo, come pure la maggior parte delle concezioni secondarie delle quantità implicate sono radicalmente differenti» (16).

A me sembra che queste affermazioni possano essere applicate alla nostra analisi dei libri di testo e che mantengano tutta la loro importanza. C'è però una differenza rilevante tra le due situazioni: nel 1873 Maxwell si riferiva al dibattito nel suo pieno svolgimento e cioè alla scienza straordinaria, oggi invece ci riferiamo ad un confronto tra libri di testo, e quindi alla scienza normale; la distinzione tra le due pertanto si indebolisce. Questo risultato potrebbe apparire come una limitazione posta all'analisi storico-epistemologica; in realtà l'approccio a quattro componenti che ha rilevato questi limiti della dicotomia kuhniana, permette, io credo, anche di superarli. Nel seguito tenterò di mostrare che i legami tra sviluppo del dibattito nell'Ottocento e presentazione dei risultati nei libri di testo del Novecento può essere

messo, ora, in rapporti ben più stretti e approfonditi. Infatti la nostra analisi dei libri di testo contemporanei si rivela di grande utilità per un riesame della storiografia standard sullo sviluppo del dibattito ottocentesco. Vorrei dapprima evidenziare il ruolo che nel lavoro dello storico della scienza svolge la concezione fisica che egli adotta. Sebbene sia oramai quasi universalmente accettato, come risultato dei dibattiti sul realismo degli ultimi decenni, che esista un principio di non privilegio «in accordo al quale le nostre stesse teorie scientifiche sono soggette agli stessi cambiamenti concettuali radicali come sembrano esserlo le teorie del passato» (l7), pur tuttavia bisogna riconoscere che le teorie contemporanee sono necessarie al lavoro dello storico. Infatti io credo che debba essere accettato che «lo studio storico e sociologico da solo non rivela alcuno scopo nettamente definito e criterio di inferenza per qualcosa chiamato scienza, sia nella nostra cultura che nella cultura del passato»18; inoltre per quanto lo storico cerchi di ricostruire ciò che è avvenuto dal lavoro stesso dello scienziato oggetto di indagine e da altri documenti dell'epoca, sarebbe assurdo suggerire che egli finga di ignorare ciò che sa della conoscenza contemporanea del dominio in esame. «Opportunamente usata una tale conoscenza aumenta la nostra comprensione» (l9). Pertanto pur riconoscendo che l'approccio cumulativo alla storia della scienza è ingenuo e dogmatico, io credo che uno sforzo vada fatto per evidenziare i problemi storici sulla base di un moderno punto di vista scientifico. In ogni contributo di storia della fisica è presente un aspetto storiografico ed un aspetto epistemologico, ma è pure ben presente, anche se molto spesso solo implicitamente, un aspetto fisico. Le idee che lo storico ha dell'argomento che sta studiando differiscono ovviamente da quelle dello scienziato oggetto di analisi ed è necessario che queste idee dello storico siano esplicitate e che lo storico abbia piena consapevolezza del suo approccio fisico così come ne ha, o dovrebbe averne, del suo approccio storiografico ed epistemologico. Ciò è tanto più importante in quanto, come abbiamo visto nel caso dell'elettromagnetismo classico, non si può a rigore parlare di una scienza normale che sia generalmente condivisa. Il precisare il proprio punto di vista fisico, anche se questo non è il più moderno né necessariamente il «migliore», permette di esplicitare tutta una serie di ipotesi che influenzano in ogni caso la ricerca. E senz'altro molto diverso il partire per una ricerca storica con un'idea dell'elettromagnetismo classico data da Sommerfeld o da Feynman. Ciò è particolarmente evidente nel nostro caso: la storiografia sull'elettromagnetismo classico è stata a lungo dominata dalla ricerca delle origini e degli sviluppi del concetto di campo, in conseguenza del valore attribuito a questo concetto dalla fisica di Einstein. I contributi dedicati alla teoria dell'azione a distanza sono stati molto meno numerosi, sebbene sia in termini generali ben noto che le due teorie abbiano avuto un'importanza storica equivalente: «... Non è un esercizio molto utile discutere quale scuola abbia maggiormente contribuito alla teoria elettromagnetica, ma è storicamente e filosoficamente importante dimostrare che due teorie possano essere differenti in aspetti essenziali nonostante l'equivalenza della forma e l'identità del contenuto sperimentale... » (20).

Questo compito è in larga misura ancora da svolgere. Non si può infatti dire che il panorama odierno degli studi di elettromagnetismo classico sia particolarmente soddisfacente. Le storie standard possono essere schematizzate in tre gruppi: tentativi di scrivere una storia totale, senza criteri di selezione; ricostruzione di visioni del mondo, connesse con una specifica concezione storiografica; ricostruzione dell'origine e sviluppo di particolari concetti. Nel primo caso l'apparente mancanza di criteri selettivi sia a un livello storico che a un livello

fisico implica una totale accettazione di ciò che è avvenuto senza giudizi di valore (vedi ad esempio i due pur indispensabili volumi del Whittaker). Nel secondo caso (vedi ad esempio i lavori di McCormmach e di Berkson) specifici modelli fisici (la teoria dell'elettrone e la teoria di Faraday-Maxwell rispettivamente) sono privilegiati e sono analizzati alla luce di precise storiografie, quelle dei paradigmi kuniani e della logica della scoperta popperiana, rispettivamente. Nel terzo caso un determinato concetto fisico viene privilegiato, e spesso viene usata una storiografia linearmente cumulativa per seguirne lo sviluppo (vedi Hirosige). Una lettura più accurata dei libri di testo contemporanei sull'elettromagnetismo classico ci dà nuovi punti di partenza per l'analisi storica. Non si tratterà ora di ricostruire in forma più o meno cumulativa lo sviluppo della teoria del campo, ma di capire che l'elettromagnetismo classico odierno è il risultato di due filoni teorici distinti, che esso porta ancora le traccie di questo dibattito e che è necessario riesaminare lo sviluppo del dibattito stesso in maggiore dettaglio. Da quanto detto finora sorge una domanda: è possibile che l'inadeguatezza della storiografia sull'elettromagnetismo classico dipenda in notevole misura dall'inadeguatezza della concezione storiografica e fisica adottata? Io credo di sì: se si assume il concetto di scienza normale e si considera il concetto maxwelliano di campo come la base dell'elettromagnetismo classico «normale» si commette un duplice errore di prospettiva, che impedirà di analizzare il dibattito storico nei suoi dettagli. Partendo invece da una concezione storiografica più duttile, come quella qui proposta delle quattro componenti, ed analizzando con questa i libri di testo, si scoprono e si esplicitano degli aspetti della teoria in esame molto vari e talvolta contrapposti. Con l'aiuto di questi ultimi e applicando la metodologia delle quattro componenti non più ai libri di testo ma alle memorie originali si può, senza peccare di linearismo cumulativo, ricostruire un dibattito storico particolarmente complesso. 4. Gli strumenti con cui affrontare la nostra analisi storica sono dunque i seguenti: i principi regolativi di minima azione e di conservazione dell'energia, ove quest'ultimo può essere interpretato in maniera locale o globale a seconda del modello prescelto; i modelli concettuali di azione a contatto ed azione a distanza, ove quest'ultima può essere interpretata sia come istantanea che come ritardata; le strutture matematiche della teoria del potenziale, cioè un importante capitolo delle equazioni differenziali alle derivate parziali e gli importanti teoremi del calcolo vettoriale che ci permettono di passare dalla formulazione integrale (tipica dell'azione a distanza) a quella differenziale (tipica dell'azione a contatto) di importanti leggi fisiche; i risultati sperimentali di Coulomb, Oersted, Ampère, Faraday, Weber e Kohlrausch, Hertz che insieme a molti altri costituiscono ormai un patrimonio che almeno a livello quantitativo è stabilmente condiviso dai vari approcci. Questi strumenti ci consentono di ottenere i seguenti risultati 2l: A) Tra il 1845 ed il 1903 gli scienziati europei che diedero i maggiori contributi al dibattito sull'elettromagnetismo classico si possono dividere in sei gruppi, che possiamo far corrispondere a sei «scuole» con differenti modelli concettuali: la scuola tedesca dell'azione a distanza, con F. Neumann, W. Weber, R. Kohlrausch, G. Kirchhoff, K. Gauss; la scuola tedesca dell'azione a distanza ritardata, con B. Riemann, L. Lorenz, K. Schwarzschild; la scuola tedesca dell'azione a distanza in presenza di un dielettrico (etere), con H. Helmholtz, R. Clausius, H. Hertz, M. Planck; la scuola britannica dell'azione a contatto, con M. Faraday, W. Thomson, J.C. Maxwell, J. Poynting, J.J. Thomson; la scuola matematica del francese Poincaré che svolse un preciso compito di analisi delle varie teorie proposte; la scuola olandese di H.A. Lorentz, che diede una sintesi del

dibattito, accettando la propagazione alla Maxwell e le particelle cariche alla Weber. B) I risultati sperimentali non furono decisivi per lo sviluppo del dibattito e per l'affermarsi dell'una o dell'altra concezione: ogni scuola era in grado di tradurre i risultati sperimentali che via via si ottenevano nel proprio linguaggio e di includerli nel proprio programma di ricerca. La citazione di Maxwell riportata in un paragrafo precedente esemplifica bene questo tipo di situazione. Altrove ho tentato di dimostrare che anche nel famoso caso delle esperienze di Hertz (1888-90) non si può parlare di esperimenti cruciali a favore di una particolare teoria22. C) Nello stabilire quest'equivalenza, matematica ma non concettuale, giustificativa ma non euristica, tra le teorie un ruolo notevolissimo svolge la teoria matematica del potenziale che, partita dalla meccanica newtoniana, si sviluppa in stretta interazione con lo stesso elettromagnetismo classico: basti pensare ai lavori di Poisson, Green, Gauss, Stokes, W. Thomson. L'attribuire ai potenziali scalari e vettoriali (ritardati e non) un ruolo di grandezze fisiche o semplicemente di ausili matematici fu oggetto di costante dibattito. D) Notevolissimo, sebbene fino ad oggi trascurato dall'analisi storica, fu il ruolo del principio di conservazione dell'energia. Alla fine di un aspro dibattito si raggiunse una quasi completa unanimità sul riconoscere che tutte le teorie in competizione obbedivano all'una o all'altra versione del principio stesso. Una scelta tra modelli alternativi non sembrava dunque possibile né dal punto di vista sperimentale né da quello teorico. Eppure una scelta fu fatta: nel 1887, subito dopo la pubblicazione del teorema di Poynting sulla conservazione locale dell'energia, M. Planck asserì che non la teoria di Maxwell tutta intera ma la propagazione contigua andava preferita perché la conservazione locale connessa con essa offriva una migliore euristica 23. Ad un dibattito scientifico particolarmente sofisticato corrispose quindi una soluzione altrettanto sofisticata: non un risultato sperimentale crucialmente definitivo ma un complesso giudizio sulle capacità di futuri sviluppi. Il giudizio di Planck, espresso prima dei risultati sperimentali di Hertz, fu accettato agli inizi degli anni novanta dalla comunità scientifica (Lorentz si convinse su questa base della validità dell'azione a contatto) e fu confermato in seguito a più riprese dallo stesso Planck, anche dopo l'avvento della teoria della relatività ristretta e della meccanica quantistica. Le citazioni, riportate all'inizio, del testo di elettromagnetismo di Planck ne sono una conferma definitiva, a dibattito «straordinario» ormai esaurito. 5. L'applicazione della nostra metodologia a quattro componenti all'analisi sia dei libri di testo che delle memorie originali ci porta a stabilire dei legami sempre più stretti tra scienza «straordinaria» e scienza «normale»: I'impostazione data da Planck al suo libro di testo trova infatti una esplicita e profonda radice nella sua stessa opera del 1887; I'approccio di Sommerfeld si richiama, come già ricordato, alla rielaborazione di Hertz della teoria di Maxwell, tendente ad eliminare i potenziali da una formulazione delle equazioni in puri termini di campo; la giustapposizione dei modelli concettuali delle due principali scuole, parzialmente risolta dalla sintesi di Lorentz, trova un'eco nell'analisi di Pauli; I'azione a distanza di Weber, le cui forze dipendono non solo dalla posizione ma anche dalla velocità ed accelerazione delle particelle interagenti trova, con l'aggiunta dei potenziali ritardati proposti da C. Neumann e L. Lorenz, un più che puntuale riscontro nella formula di Feynman; infine la derivazione di Landau rispecchia molto fedelmente il lavoro del 1903 di Schwarzschild, in cui per la prima volta da un principio di minima azione vennero derivate sia le equazioni di Maxwell che la forza di Lorentz, pur in un contesto di azione a distanza ritardata. Il risultato di questo contributo è pertanto il seguente: nel caso dell'elettromagnetismo classico non si può stabilire una distinzione precisa tra scienza straordinaria e scienza normale; una metodologia a quattro componenti applicata ai libri di testo ed alle memorie originali permette

un'analisi storica più dettagliata di quelle fornite dalla storiografia standard: emergono il ruolo determinante svolto dalla conservazione locale dell'energia nel dibattito ottocentesco, le differenti impostazioni dei principali libri di testo del Novecento, nonché gli specifici legami tra queste due fasi dello sviluppo dell'elettromagnetismo classico.

Note

1. Kuhn (1970), pp. 101-102. 2. Planck (1932), p. 19. 3. Sommerfeld (1952), p. VI. 4. Kuhn (1977), p. 181; Bevilacqua (1983a), pp. 17-18. 5. Planck (1932), p. VIII. 6. Id., p. 2. 7. Id., p. 2. 8. Sommerfeld (1950), p. VI. 9. Id. (1949), p. V. 10. Id. (1952), p. 2. 11. Pauli (1973), p. 2. 12. Feynman (1963), 11, 12, 18. 13. Id., II, 21, 23 14. Id., II, 26, 3. 15. Landau, Lipschitz (1970), p. 65. 16. Maxwell (1873), p. X. 17. M. Hesse (1980), p. 144. 18. Id., p. 160. 19. Id., p. 162. 20. Id. (1961), p. 222. 21. Bevilacqua (1983b). 22. Id. (1984). 23. Planck (1887), pp. 271-278.

Bibliografia

W. Berkson, Fields of Force, Routledge and Kegan Paul, Londra 1974. F. Bevilacqua, Storia della Fisica e Didattica, pp. 11-30, in F. Bevilacqua (a cura di) Storia della Fisica, Angeli, Milano 1983. Id., The Principle of Conservation of Energy and the History of Classical Electromagnetic Theory, pp. 267 + XIV, La Goliardica Pavese, Pavia 1983. Id, H. Hertz's Experiments and the Shift Towards Contiguous Propagation in the Early Nineties in «Rivista di Storia della Scienza», vol. I, n. 2, 1984, pp. 239-256. G. Buchdahl, Metaphysics and the Philosophy of Science, Basil Blackwell, Oxford 1969. Id., New Transcendental Approaches Towards Scientific Theory Appraisal in D.H. Mellor (a cura di), Science, Belief and Behaviour, pp. 1-21, Cambridge U.P., Cambridge 1980. Id., Reduction-Realization a Key to the Structure of Kant's Thought, in «Philosophical Topics», vol. 12, n. 2, 1981, pp. 39-98. R. Feynman, The Feynman Lectures on Physics, Addison Wesley, Londra 1963. M. Hesse, Forces and Fields, Nelson and Sons, Edimburgo 1961. Id., Revolutions and Reconstructions in the Philosophy of Science, Harvester Press, Brighton 1 980. T. Hirosige, Origins of Lorentz Theory of Electrons and the Concept of Electromagnetic Field, in «Historical Studies in the Physical Sciences» vol. I, 1969, pp. 151-209. G. Holton, The scientific imagination, Cambridge U.P., Cambridge 1978. Id., Einstein's Model for Constructing a Scientific Theory, in Aichelburg and Sexl (eds.), A. Einstein: his influence on physics, philosophy and politics, F. Vieweg and Sohn, Braunschweig 1979 . T. Kuhn, The Structure of Scientific Revolutions, Chicago U.P., Chicago 19702. Id., The Essential Tension, Chicago U.P., Chicago 1977. L. Landau, E. Lifchitz, Théorie des Champs, MIR, Mosca 19703. H.A. Lorentz, The theory of electrons and its applications to the phenomena of Light and Radiant Heat, Teubner, Lipsia 1909; Dover reprint, New York 1952.

J.C. Maxwell, A Treatise on Electricity and Magnetism, 2 vol., 3a ed., a cura di J.J. Thomson (1891); Dover reprint, New York 1954. R. McCormmach, H.A. Lorentz and the Electromagnetic View of Nature, in «Isis», 61, 1970, pp. 459-497. W. Pauli, Electrodynamics, The MIT Press, Cambridge (MA) 1973. M. Planck, Das Prinzip der Erhaltung der Energie, Teubner, Lipsia 1887. Id., Theory of electricity and magnetism, Macmillan, Londra 1932; tr. inglese della 2a ed. tedesca nel 1928; prima ed. tedesca nel 1922. W.J.M. Rankine, On the general law of the Transformation of Energy, in «Proceedings of the Philosophical Society of Glasgow», vol. III, n. 5, 1853. A. Sommerfeld, Partial Differential Equations in Physics, Academic Press, New York 1949. Id., Mechanics of Deformable Bodies, Academic Press, New York 1950. Id., Electrodynamics, Academic Press, New York 1952. E. Whittaker, A history of the theories of aether and electricity, Harper and Brothers, New York 1960.

View more...

Comments

Copyright © 2017 DOCUMEN Inc.