Cosa già sappiamo oggi dalla Fisica.

Il suicidio della Fisica Classica

Alla fine dell’800 la termodinamica classica incontrò una grossa crisi: secondo la legge classica di Doulong-Petit, il calore specifico dei corpi è costante ed indipendente dalla temperatura, questo significa che quando la temperatura scende a livelli prossimi allo zero, la variazione di entropia tenderebbe all’infinito1, il che costituirebbe una vera e propria catastrofe in quanto significa che sarebbe necessaria un’infinita quantità di energia per riportare il sistema a temperatura non nulla: impossibile. Walther Nernst, chimico tedesco, fortunatamente, tramite accurate misure, alla fine dell’800, provò che tale legge non è valida a temperature più basse dei 20 K e che può, al più, essere una buona approssimazione per i regimi in “alta” temperatura. Infatti verificò che il calore specifico, col decrescere della temperatura diminuisce sempre più, in ragione del cubo della stessa (C~T3), tale legge andò a costituire il terzo principio della termodinamica. Essendo il calore specifico misura della quantità di energia che bisogna fornire dall’esterno ad una data quantità di materia per farle variare la propria temperatura di un grado, resta da chiedersi, dato che la temperatura è l’espressione dell’energia cinetica posseduta dagli oscillatori riconoscibili in quella quantità di materia, perché a parità di salto di temperatura, se si effettua il passaggio da 3 a 4 gradi K, l’energia da fornire è minore di quella per effettuare il passaggio da 300 a 301 gradi K. Se davvero la differenza in energia che interessa gli oscillatori del corpo, dopo il salto di un grado, fosse diversa nei due casi (a 4 o a 301 K), la legge di conservazione dell’energia non sarebbe rispettata. Sarebbe altrettanto una catastrofe! Allora significa che esiste “qualcosa”, il cui contributo si fa notabile a basse temperature, che riesce a fornire “di nascosto” energia alla materia, in quantità pari a quella corrispondente alla diminuzione che il calore specifico mostra col decrescere della temperatura di partenza, avvicinandosi allo zero.

Nel 1947, Lamb [17] osservò che l’energia di un elettrone ruotante intorno al nucleo di H difetta di alcuni percentili da quella teoricamente attesa sulla base delle leggi accettate delle fisica atomica, dimostrando che la materia (in quel caso gli atomi di H tenuti “isolati”) sta interagendo sempre e comunque con un oggetto fisico che è in grado di scambiare energia ed impulso con essa. Questo oggetto, protagonista dei due brevi aneddoti appena accennati, è il campo quantistico di fluttuazione del vacuum, ossia il vuoto. Al concetto di vuoto, non va sovrapposta l’idea di “assenza di materia” nello spazio, bensì un livello logicamente antecedente alla materia, quindi (per la Relatività Ristretta di Einstein) antecedente anche a spazio e tempo.

Il paradigma quantistico, con l’esistenza del vuoto, sperimentalmente provata, ci fa quindi comprendere che:

  • nulla è in condizione statica e tutto oscilla, da qui il Principio di Indeterminazione di Heisemberg

  • nulla è isolabile nello spazio e nel tempo

  • nulla ha una necessità ontologica in quanto ente, ma solo come relazione a un tutto che con se stesso (olografia) interagisce, in altre parole, nulla è in sé.

Alternativamente, si può dire che il vuoto è l’insieme di tutte le oscillazioni della materia. E la materia nella sua espressione non è altro che il risultato delle fluttuazioni del campo quantistico di base, il vacuum appunto.

A differenza della meccanica quantistica, di fatto, una semplificazione semiclassica non esauriente dell’omonimo paradigma, nella più completa QFT, il concetto di “livello di zero” (di vuoto) anziché essere fisso ed unico, indistintamente, è funzione del “contesto termodinamico” in oggetto ed in relazione ad esso. Nella QFT si parla, infatti, di vacua e non di vacuum (Von Neumann). In questa prospettiva, edemerge molto più chiaro se si analizza più in dettaglio la condensazione dell’acqua, le transizioni di fase sono, nella QFT, cambiamenti del livello di vuoto che il sistema sceglie come livello di minima energia, il più favorevole tra i vacua possibili.

Se tutto è connesso dal vuoto quantistico (misurabile) NON esistono i sistemi isolati, perché nulla è isolabile dal vuoto che è in grado di scambiare impulso ed energia con la materia. Fuori dall’approssimazione classica, ogni sistema è aperto. Nei sistemi aperti l’entropia non è una funzione di stato (a differenza dell’energia): non produce un differenziale esatto (analiticamente), ma risulta di importanza vitale per comprendere l’evoluzione degli stessi.

Ma è vero che in natura avviene sempre e solo un aumento spontaneo di entropia e mai viceversa? Tale constatazione empirica corrisponde al cosiddetto «Secondo Principio della Termodinamica» e si tradurrebbe nel fatto che le configurazioni “disordinate” sono le più probabili..

Non è sempre vero. Ci sono molti fenomeni che denunciano l’infrazione di questa prospettiva, proprio perché il secondo principio risulta un «postulato» incompleto in quanto l’universo non è un sistema chiuso. Alcuni esempi: i fenomeni coerenti, la vita, i gradienti di densità nello spazio siderale, la gravità, i sistemi costantemente fuori equilibrio (come le reazioni di Belousov-Zhabotinsky), l’evoluzione delle specie, la gravità, i buchi neri.

Anche dalla definizione di entropia data nella meccanica statistica discende la necessità della intrinseca fluttuazione di ogni ente e da ciò emerge che il principio di indeterminazione di Heisemberg è una necessità termodinamica e non un postulato quantistico. Boltzmann ha messo in evidenza come l’entropia di un sistema sia proporzionale al logaritmo del volume (Ω) occupato nello spazio delle fasi: , ove Ω è il volume nello spazio delle fasi del sistema e KB è la costante di Boltzmann, avente le dimensioni di Joule/Kelvin.

Lo spazio delle fasi è quel dominio d’esistenza matematico in cui sono rappresentati i microstati del sistema dati dalla posizione e dall’impulso di ogni particella: in coordinate cartesiane, è uno spazio a 6 dimensioni perché vi sono 3 coordinate per la posizione e 3 componenti per la velocità (impulso). Si consideri il caso più elementare possibile, quello di una sola particella isolata in grado di muoversi in una sola dimensione: lo spazio delle fasi sarà dato da un piano (una coordinata per la posizione e una per il valore della velocità) quindi Ω, in tal caso semplificato, è un’area .

IndeterminazioneQuando la T= 0 K, se la variazione delle grandezze è continua (cioè l’unità di misura è piccola a piacere), si otterrà che l’area Ω nello spazio delle fasi è un punto, quindi la sua estensione è nulla. Allora di nuovo si ha che al tendere a zero della T, l’entropia diverge, tendendo ad infinito perché il log(0) = – ∞. Allora si capisce che l’unita elementare che costituisce la minima variazione tra un valore e l’altro delle variabili/grandezze non può essere infinitamente piccola (cioè nulla). Ecco la quantizzazione: i salti da un valore all’altro (da uno stato all’altro) devono essere discreti e finiti (realtà fisica granulare). Ogni salto deve essere almeno di una unità elementare (naturale) della grandezza considerata, in tal modo, a T=0 K, quando il volume/area nello spazio delle fasi collassano in un unico stato, esso non è più un punto (in senso strettamente matematico), ma ha un estensione unitaria, vale una unità (1): il log(1) = 0 e l’entropia non diverge, S=0. Quanto possono essere piccoli i salti discreti? Tanto piccoli da far sì che il prodotto tra i salti delle varie grandezze nello spazio delle fasi (per esempio posizione e impulso) valga h, la costante di Plank.

Si vede che il Principio di Indeterminazione di Heisemberg è la traduzione della quantizzazione nello spazio delle fasi e che discende come necessario dal III Principio della TD introdotto da W. Nernst (1886).

Da quanto finora detto deriva che il concetto di corpo/sistema ISOLATO non è fisicamente sostenibile: tutto è connesso da un campo continuo, il vuoto quantistico (vacuum), che è un qualcosa non analizzabile in termini di materia classica. Così come il mare non è analizzabile in termini di barche. Il vacuum è a sua volta modificato dalle fluttuazioni dei componenti elementari (quark, atomi a seconda del livello) così come i moti del mare sono influenzati dalle barche che esso connette. Questo significa che il comportamento di atomi e molecole non è indipendente dal contesto in cui si trovano. Cioè dipende dal livello di vuoto che può assumere infinità di livelli in quanto non pre-esistente in sé, ma sua volta modificato dalle dinamiche della materia. Lo si vede bene nelle transizioni di fase e nella coerenza della materia condensata. Significa che se si vuole dare reale corso ad una rivoluzione (quella quantistica) iniziata alla fine dell’800 ed espressasi solo nei suoi connotati più superficiali ed immediatamente spendibili in ambito tecnologico, è necessario un cambiamento d’approccio dell’indagine scientifica e del concetto di Realtà.

Nulla è isolabile. Tutto è interagente.

Fisicamente, questa affermazione è profondamente validata dall’esistenza e natura del vuoto, oggetto fisico antecedente allo spazio, al tempo, alla materia ed intimamente interpenetrante e costitutivo quest’ultima. Seppur apparentemente bizzarro, questo elemento fondamentale e primario della physis, già acutamente intuito dal premio Nobel per la Chimica 1933, Walther Nernst, e contemplato poi dal modello quantistico (come Campo di Punto Zero o Campo di Plank), è stato individuato tramite due precisi esperimenti:

  • Lo shift di Lamb: in Risonanza Magnetica Nucleare in alto vuoto, l’atomo di Idrogeno ha mostrato uno shift energetico dell’ordine di 1 ppm, attribuibile alle fluttuazioni quantistiche di un campo virtuale, come insegna Feynman, associabile solo al vuoto [Lamb, 1947]

  • L’effetto Casimir: tramite l’esperimento in cui si misuravano le micro variazioni di forza e posizione tra due piastre metalliche poste in alto vuoto ad una certa distanza; nuovamente tali oscillazioni per frequenza ed ampiezza, sono attribuibili esclusivamente al vuoto.[Feng, Li, 2002]

Da entrambi gli esperimenti emerge che è più corretto intendere il vuoto in primis come campo di informazione in grado di trasdursi in fluttuazioni energetiche da cui originano le variabili fisiche causali (materia, tempo, spazio, forza, energia).

Questo è molto interessante, infatti, come già ci fa notare la Relatività Generale (riguardo alla deformazione del cronotopo a causa del campo gravitazionale prodotto dalle masse),senza la materia, non esistono nemmeno spazio e tempo:“prima” vi è il vuoto, il campo, l’informazione-energia … e solo da esso,“poi”, si gemmano le altre grandezze fisiche come spazio, tempo, massa e quelle che conosciamo come le forze fondamentali (che “fondamentali” non sono, in quanto poietiche rispetto all’originario campo primario, nominabile anche come Campo Unificato). Essendo il vuoto quantomeccanico antecedente alla materia, è antecedente anche a spazio e tempo. Quindi non si tratta di recuperare il concetto di etere, in quanto esso risultava comunque un “fluido” separabile dai corpi e che, muovendosi all’interno del tempo, obbedisce al principio di causalità. Il Vuoto, inteso in senso quantistico, invece, è il campo da cui la materia, lo spazio ed il tempo sono originati e dal quale la prima non è in alcun modo isolabile. Quindi il Campo Unificato, o di Punto Zero, o di Plank, il Vuoto appunto, non è soggetto al principio di causalità, in quanto quest’ultimo è un principio poietico che pertiene ed agisce solo su materia, spazio e tempo.

Il dialogo informazionale tra due corpi quindi, se avviene tramite il vuoto,è fisicamente possibile ed assolutamente istantaneo anche se essi sono separati da milioni di chilometri o da decine di millenni.

Non Località ed Entanglement

Ben noto a tal proposito è l’esperimento mentale EPR (Enstein, Podolsky, Rosen), in cui si ipotizza di agire sul momento angolare di una di due particelle i cui stati quantistici sono tra loro correlati. La correlazione non dipende da alcuna distanza spaziale. Quindi l’ipotesi viene postulata supponendo le due particelle separate da grande distanza (per esempio 1000 km). Essendo il momento angolare una grandezza che deve assolutamente conservarsi (a meno di non veder accadere inimmaginabili catastrofi nell’universo), risulterebbe,che per almeno una delle due particelle (quella su cui non si è intervenuti con una misura od un’azione diretta)il momento angolare è una variabile non dipendente da cause nel qui ed ora, ma solo dal fatto che l’informazione sottesa alla sua conservazione è unica e la sua presenza ed azione prescindono da distanze spazio-temporali. Tale ipotesi, riguardante l’entanglement, lungi dall’essere un paradosso, è una legge costitutiva della realtà fisica, intrinsecamente non-locale. Infatti tale prova è stata poi realmente condotta in varie modalità e ha confermato che istantaneamente la correlazione influenzava lo stato quantistico di uno dei due membri entangled (per es. elettroni, fotoni, ecc)2.

Dal punto di vista della teoria dei campi elettromagnetici, si può dire che l’informazione “viaggi” alla velocità di fase che può essere maggiore di quella della luce (c ~ 300000 Km) senza violare la Relatività Ristretta (secondo le stime più conservative tale velocità si aggira intorno a 20000 volte c, secondo le stime più possibiliste essa è dell’ordine di 100000 volte c.

Altra prospettiva, in accordo a quanto detto sul vuoto, in quanto antecedente al tempo ed allo spazio, è che l’informazione non “viaggi” affatto, ma semplicemente sia presente e dinamica.

Questi concetti di vuoto e di non-località sono ben sovrapponibili a quanto sostenuto da David Bohm in relazione allo scaturire del Piano Esplicato (la realtà fisica tangibile e sensibile) dal Piano Implicato (il vuoto, il Campo di Punto Zero). L’equazione di Schroedinger è stata da Bohm riscritta introducendo nel potenziale un termine non dipendente dalle coordinate spaziotemporali, definito “Potenziale Quantico”, che esprime esattamente la natura non-locale delle interazioni quantistiche. Per Bohm l’informazione è presente nel Piano Implicato, che non è un metafisico e separato livello dell’ essere statico, parmenideo, immutabile, quanto piuttosto un vibrante ed inarrestabile (eracliteo)divenire, a prescindere da spazio, tempo e materia (come un eterno presente, per provare a verbalizzarlo sul piano logico-descrittivo). Il processarsi di tale informazione-divenire può svolgersi non soltanto nelregno implicato” del noumeno, ma anche, e soprattutto, esplicandosi nel piano dell’esistenza (ex-ire, “venir fuori da”) del piano generato-poietico in cui si emana e manifesta il fenomeno (come direbbe Platone).

Il ruolo del vuoto come campo, capace quindi di dare origine a oscillazioni (le cosiddetteparticelle virtuali), e come elemento costitutivo della realtà fisica, ha fornito un acuto spunto al grande fisico teorico Giuliano Preparata (1942-2000) per dire che “la Natura non ha l’horror vacui, ma l’horror quietis”.

L’universo come profonda Unità: l’olonomia di Bohm ed il problema della conoscenza razionale

La non isolabilità delle “parti” è una delle principali caratteristiche della realtà messe in luce dal paradigma quantistico moderno, che non va limitato al modello semi-classico della Meccanica Quantistica la quale, pur di conservare il concetto di isolabilità, perde la possibilità dell’esistenza di una realtà oggettiva. Infatti nella espressione discorsiva del Teorema di Bell, in cui sono presenti 3 proposizioni che non possono valere tutte contemporaneamente, la scuola di Copenaghen ha considerato falsa la possibilità di avere una realtà indipendente dall’osservatore e cioè oggettiva. Mentre Einstein considerò falsa l’ipotesi che la realtà seguisse le (paradossali) leggi della fisica quantistica (per lui terribilmente aleatorie: “Dio non gioca a dadi!” sostenne). Bohm fece decadere la terza proposizione, secondo cui i fenomeni sono vincolati al principio di località spazio-temporale.

Nel panorama quantistico vi sono almeno due macro divisioni interpretative di ciò che è il verificarsi di un evento reale. Nell’approccio della meccanica quantistica,di fatto ancora semi-classico,ed in particolare secondo l’interpretazione di Copenaghen (della “scuola” di Niels Bohr) tale “emergere a realtà” da parte dell’energia-onda-informazione corrisponderebbe al collasso della funzione d’onda. In tale modello il collasso dipende esclusivamente dalla misura, dall’ osservazione cosciente, dalla modalità e tecnica conoscitivaper parte di un soggetto (già implicitamente reciso dall’osservato, dall’oggetto) che, in accordo all’indeterminazione intrinseca e costitutiva la realtà, permette l’esistenza di molti universi paralleli ed egualmente probabili in funzione di quale sia l’atto d’osservazione e di possibili esiti, duali o multipli (Everett e Wheeler)3. Nell’interpretazione transazionale (di John Cramer, 1986), invece, si considera il collasso della funzione d’onda, ossia il verificarsi di un fenomeno in un dato tempo presente, come il convergere nel “qui ed ora” di potenziali retro-causali e potenziali causali, introducendo quindi il principio di super-causalità (cioè di una causalità bidirezionale rispetto alla freccia del tempo). Spieghiamoci meglio. La nota equazione della relatività ristretta E=mc2 (in realtà pubblicata per la prima volta da Oliver Heaviside nel1890 e poi corretta prima da H. Poincré nel 1900 e poi da Olinto de Pretto nel 1903), è una soluzione parziale di quella equazione che venne integrata da Einstein facendola divenire l’equazione “energia-momento-massa” che è un’espressione quadratica4. Come ad ogni quadrato, ad essa sono associate due soluzioni che, nel caso, corrispondono ad energie di segno algebrico sia positivo che negativo. Inserendo questa forma quadratica dell’energia nell’equazione di Schroedinger, come fecero Klein e Gordon nel 1926, al fine di renderla un’espressione quanto-relativistica, si otteneva che anche le soluzioni di tale equazione (le funzioni d’onda) fossero di due tipologie: onde progressive (che dal passato viaggiano verso il futuro, a cui sono associati potenziali ritardati) ed onde regressive (che dal futuro viaggiano verso il passato, a cui sono associati potenziali anticipati). Anche tentando di ovviare al “problema” elevando il tutto al quadrato e giungendo così ad un operatore che lega le derivate seconde del tempo e dello spazio (l’operatore d’Alambertiano, “□”), la duplice soluzione non si eliminava in quanto lo stesso operatore d’Alambertiano dipende da una radice quadrata. L’equazione di Klein-Gordon era riferita alle particelle a spin intero (bosoni), Dirac, nel 1928, la applicò ai fermioni (particelle a spin semi-intero, come l’elettrone), ma ottenne nuovamente lo stesso esito, da cui conseguiva che ci dovessero essere anche elettroni con energia negativa e che viaggiassero a ritroso nel tempo. Questo fatto era assolutamente anti-intuitivo ed inammissibile per il substrato scientifico del tempo e così, semplicemente, si decise di considerare solo le soluzioni “fisicamente sensate”: quelle algebricamente positive, distinguendo tra “possibilità matematica” e “realtà fisica”. Ma nel 1932, C. Anderson rilevò tra i raggi cosmici quella particella dalle esatte caratteristiche, previste dalla soluzione algebricamente negativa: l’anti-elettrone o positrone (anti-materia). Nonostante questo, il Modello Standard è basato sulle soluzioni positive delle equazioni quanto relativistiche, anche se l’anti materia è pure utilizzata in alcune applicazioni tecnologiche (per esempio, in biomedica esiste la PET: Positron Emission Tomography che si basa sul rilevamento di coppie di fotoni generate dall’annichilazione tra gli elettroni degli atomi del paziente ed i positroni generati dal decadimento di isotopi, a breve tempo di emivita, introdotti tramite liquido di contrasto nel corpo dello stesso). La duplice soluzione dell’equazione di Schroedinger in forma quanto-relativistica è stata dimostrata essere sensata fisicamente fornendo la possibilità di spiegare in modo molto semplice e consistente sia i fenomeni accordabili alla classica termodinamica, per i quali vige il principio di causalità e di entropia crescente, sia i fenomeni per i quali si ha una tendenza all’ordine ed alla complessazione, tipici delle dinamiche biologiche e che sembrano “attratti da fini” piuttosto che “spinti da cause”5. Infatti, vissuto nella prima metà del ‘900, Luigi Fantappiè (1901-1956), importante studioso italiano ed illustre matematico, autore della famosa “teoria dei funzionali analitici” e, in un certo periodo, vicepresidente dell’Istituto Nazionale di Alta Matematica dell’Università di Roma, nel 1942, completò un miliare trattato che, esposto nel ’44, si condensava nei “Principi di una Teoria Unitaria del Mondo Fisico e Biologico” ove si esprimono, sulle basi della fisica relativistica (a proposito dell’unità spazio-tempo) e quantistica (a proposito del dualismo onda-corpuscolo), le differenze tra due categorie di fenomeni della realtà, contemplabili già nella meccanica classica. Si espone infatti, tramite una rigorosa trattazione matematica, che nell’equazione delle onde di D’Alambert sono possibili due tipi di soluzioni:

  • Quelle dei potenziali ritardati, che descrivono onde divergenti da una sorgente posta nel passato e a cui corrispondono i fenomeni entropici, prodotti da cause, riproducibili e che tendono verso il disordine ed il livellamento semplificante e

  • Quelle dei potenziali anticipati, che descrivono onde convergenti verso una “sorgente” posta nel futuro (intendibili altrimenti come onde divergenti dal futuro al passato) e a cui corrispondono i fenomeni sintropici, retti da fini, non riproducibili e che tendono verso l’ordine e la differenziazione complessante.

Anche se le dinamiche dell’entanglement non erano ancora state trattate in profondità e anche se riteniamo che ad oggi la dimensione temporale vada riconsiderata alla luce del ruolo del vuoto, come abbiamo scritto più sopra, è straordinario quanto tale teoria sia moderna ed indichi un modo preciso per superare il meccanicismo cartesiano, di fatto ancora “vivo”, per passare ad una comprensione di un universo a struttura cibernetica, formato da sistemi che scambiano materia, energia e, soprattutto, informazione. Tale teoria si rivela incredibilmente coerente con le progressioni compiute dalle ricerche sulla Biologia dei Sistemi, sull’informazione, la non località e la termodinamica dei sistemi aperti e dei processi irreversibili (studiati a fondo da Ilya Prigogine, Premio Nobel per la Chimica 1977).

Fantappiè sottolinea chiaramente come nella realtà tangibile vi sia un’enorme quantità di fenomeni che vanno in direzione contraria a quanto prevedibile dal solo secondo principio della termodinamica (detti fenomeni sintropici) come rispondenti, ad una principio di causalità inversa, retro-causalità cioè, di fatto, ad un principio di finalità che viene seguito con la stessa necessità logica con cui i fenomeni entropici seguono quello di causalità. Per fare alcuni esempi di fenomeni sintropici: la formazione di un embrione dalla divisione cellulare e differenziazione del primario zigote, in cui tutte le cellule arrivano a disporsi con una precisa configurazione, ben lontana dal disordine associato all’aumento di entropia di una trasformazione termodinamica; il processo clorofilliano che, di fatto, è un processo di combustione svolgentesi a ritroso nel tempo; l’ascesa della linfa delle piante che va contro il gradiente di concentrazione a cui possa verificarsi un osmosi dal terreno alla pianta e, ancor più, che permette l’assorbimento dei Sali, oltre che del solo solvente (acqua), e di mantenere la terra nell’intorno delle radici più umida di quella circostante, anche se fortemente arida, andando contro al gradiente di concentrazione o di potenziale chimico; o ancora i fenomeni psichici di ordinamento e formulazione di processi, ipotesi, percezione, ecc.

La caratteristica di tale tipologia di fenomeni è l’impossibilità di “riprodurli”, di “causarli” (in laboratorio, o arbitrariamente), ma non per difficoltà di ordine tecnico, quanto piuttosto per una radicalmente diversa legge che li sottende, ossia un principio di finalità in luogo di una “causabilità”. Il potere sperimentale del metodo Galileiano ha accesso soltanto alla parte entropica e causale della realtà che è ben lungi dal costituirne la totalità. Interessante, quindi, diventa la distinzione tra causare e provocare. Oltre che precisare la differenza tra causa e correlazione, troppo spesso sovrapposte6, Fantappiè ci sottolinea che alcuni fenomeni sono solo provocabili, in quanto non possiamo controllare il processo, passo per passo, che porta d a A a B. Per esempio il crescere una pianta o il concepire una neonato: noi possiamo solo creare ed agire sulle condizioni (causabili) atte al manifestarsi di tali fenomeni, ma non ne siamo i “causatori”. Un seme di pesco, potrà dare origine solo ad un pesco, non ad una quercia; di un neonato non possiamo deciderne arbitrariamente il genere, o il peso, né i tratti somatici7. Riprenderemo l’importante lavoro di Fantappiè quando tratteremo dell’evoluzione delle specie e delle interazioni ecosistemiche. Abbiamo voluto citare la problematica relativa alla retro-causalità per far presente che, anche senza un maturo approccio fisico includente la non-località, vi sono le basi per riflettere su quanto sia effettiva la superiorità del Modello Standard rispetto ad altri che tengano presente che, a livello intimo, in regime sub-nanometrico, spazio e tempo sono sempre meno definiti come “estensioni fenomeniche” della realtà e che quindi hanno ancor meno un “verso” di svolgimento univoco. Per riferirsi al concetto di storia a cui abbiamo accennato nella premessa, è interessante considerare che lo svolgimento dell’evoluzione scaturisce prima da un eterno presente (ex ternum: fuori dal tempo) che contiene la potenza e poi fuoriesce, attuandosi, in una dimensione, poietica, spazio-temporale e materica. Lo vediamo tra breve nell’Olonomia di David Bohm.

L’approccio transazionale non include spontaneamente l’Unità della Realtà poiché, in funzione del libero arbitrio del “singolo osservatore”, permane la possibilità di creare equi-probabilisticamente vari “mondi” in funzione di quale scelta si opera ed in tale cornice non emerge spontaneamente la possibilità della relazione sincronica e non-locale tra le “parti” (e gli “individui”), a meno di non essere soggetti ad un fine predeterminato ineludibile, in quanto sarebbero esistenti molteplici volontà indipendenti.

A nostro avviso l’ipotesi olonomica di David Bohm appare tra le più mature e coerenti, ed impone una rivisitazione dei concetti come “processo conoscitivo”, “individualità” e “libero arbitrio”, riconducendoli ad un’originaria comunione ed Olonomia che è trascendente ed immanente insieme, così da non costituire né un meta-livello di cui si subiscono “le ineluttabili meccaniche”, né un materialistico ed insuperabile stocasticismo incosciente ed incoerente, retto da una caotica e monadica moltitudine di scorrelate volontà, producenti altrettanti (o più) possibili mondi. La Realtà, in tale valenza, sarebbe, secondo noi, “drammaticamente” frammentata ed incapace di ospitare un’intrinseca capacità di coerenza ed autoorganizzazione estensibile fino alle macro-scale cosmiche.

Nel paradigma bohmiano, infatti, non manca una base deterministica della realtà che però nulla ha a che fare con il meccanicismo causalistico della fisica classica. Quello che per Bohr (e Cramer) era il collasso della funzione d’onda, causato dall’osservatore, per Bohm è il fluttuante ”entrare ed uscire” dei fenomeni dal Piano Implicato in cui il Potenziale Quantico non-locale giuda e “causa” il divenire ed emergere della realtà esplicata (concetto, comune a De Broglie, di onda pilota associata alla particella). In tale modello, nella misura o nell’interazione osservativa cosciente, l’elettrone(per esempio) emerge “qui ed ora” come particella nel Piano Esplicato, guidato dal suo corrispondente ondulatorio, sempre presente e globale in tutto il reale, del Piano Implicato. Come vedremo tra poche righe, questa esplicazione (abbinabile al sopracitato collasso) non è “una delle tante possibilità che potevano verificarsi in funzione della modalità o tecnica d’osservazione”. Infatti, secondo Bohm, la Realtà è Una e si costituisce di un’unità soggetto-oggetto che si auto-elabora e conosce ed il cui principio motore-agente-scopo è la Coscienza. Quindi il determinismo bohmiano riguarda il fatto che, a livello primario, non vi è nessun probabilismo che equipotenzialmente possa generare una realtà piuttosto che un’altra, in funzione di quale atto d’osservazione venga svolto,facendola quindi collassare-esplicare a livello fenomenico in una modalità piuttosto che in un’altra. Essendo tutta un’unica entità, è essa stessa che segue il suo unico possibile divenire, in quanto essa stessa è l’unico Soggetto che si auto esperisce. Infatti essendo il Piano Implicato sottendente ogni manifestazione esplicata ed essendo esso antecedente a spazio e tempo ed indipendente da essi (cioè non-locale), cessa il susseguirsi temporale e meramente logico di cause ed effetti, in quanto tutto già è e diviene insieme. Tutto è auto-connesso e retroattivo:autoconsistente, appunto. Si rientra così in un paradigma intrinsecamente analogico, ove il determinismo è solo quello del libero arbitrio dell’unico soggetto-oggetto-cosciente in divenire realmente esistente: il Tutto, di cui ogni individualità rappresentata è “parte”. Approfondiremo questo aspetto tra alcuni capoversi.

Il modello cosmologico di Bohm è davveroolonomico, in quanto la Realtà intesa come un Tutto (olos), si processa ed evolve in un olomovimento. Questi concetti verranno approfonditi nella sezione in cui si proporràcome la prospettiva della Nuova Biologia possa giustificatamente considerare l’intera biosfera come un unico grande organismo, e quando si accennerà al cervello olonomico di Karl Pribram da cui nascono nuove possibili definizioni di memoria, apprendimentoe processi cognitivi.

Questa unità (quasi inquietante, forse meravigliosa) tra osservante ed osservato emerge in maniera davvero paralizzante, oltre che dall’esperimento della doppia fenditura di Thomas Young, soprattutto dalle ricerche condotte sull’entanglement negli ultimi 60 anni. Feynman sostenne che l’esperimento di Young racchiude in sé il più complesso ed ampio mistero dell’universo. Esso, oltre che aver rivelato la natura ondulatoria della luce, nelle versioni più moderne a singolo fotone ha evidenziato per la prima volta il problema dell’entanglement ed ha sottolineato quanto l’influenza dell’osservazione (come atto, non tanto come tecnica) sia condizionante il manifestarsi e la “lettura” della realtà).

In questa trattazione profondamente interdisciplinare, vogliamo far considerare la possibilità di leggere tali fenomeni fisici come concreta rivelazione di quanto la Realtà sia un’unica entità informazionale in autoelaborazione.

In fisica, due o più particelle, due o più stati, si dicono entangled quando sono associati ad un’unica funzione d’onda. Questo significa che un sistema entangled non è totalmente determinato, e tanto meno conoscibile-descrivibile, se si distinguono e scindono gli stati quantistici possibili, che in forma ondulatoria sono sovrapposti. Secondo l’approccio semi-classico della meccanica quantistica, la separazione degli stati avviene nell’atto di osservare il sistema, provocando così il collasso della funzione d’onda a particella in una configurazione piuttosto che in un’altra, a seconda della tecnica di misura.

Se però ci limitiamo a questa prima evidenza, rimaniamo confinati nell’interpretazione semi-classica di Copenaghen in cui la realtà è meramente probabilistica. Analizzando le versioni più sofisticate e precise dell’esperimento di Young e di quelli successivi condotti per confermare definitivamente la presenza dell’entanglement, ci accorgiamo che il problema non è tanto l’osservazione, intesa come “modalità di misura”, ma l’oggettivazione che essa comporta, intesa come processo conoscitivo logico implicante la separazione tra un soggetto conoscente ed un oggetto conosciuto. Prima di sviluppare e chiarire questo punto cruciale, è necessario conoscere quali esiti possono dare certe procedure sperimentali.

Consideriamo dapprima l’esperimento ideato da J.A.Wheeler e W.H. Zurek, in cui si usa come sorgente di fotoni un laser il cui fascio viene scisso da un divisore semi-riflettente (beamsplitter) che genera due porzioni di fotoni, una riflessa, l’altra trasmessa, che, a seguito di riflessione su specchi argentati e incrociando i loro cammini,andranno a finire ognuna sul proprio rivelatore specifico [Akzel, 2006]. Lavorando a bassissime intensità si riesce ad avere l’emissione di un singolo fotone pervolta.

È possibile settare due configurazioni:

  • quella in cui il fotone, incontra il beamsplittere, percorrendo un cammino o l’altro (a seconda che sia stato riflesso o trasmesso), incide su uno dei due rivelatori; questa configurazione è detta del tipo “quale cammino?” perché consente di sapere da quale parte il fotone sia passato

  • quella in cui, in corrispondenza dell’incrocio dei due fasci (riflesso e trasmesso) viaggianti verso i rispettivi rivelatori, viene posizionato un secondo beamsplitter che li faccia tra loro interferire, ricomponendoli in un unico fascio che giungerà solo su uno dei due rivelatori a seconda che venga riflesso o trasmesso dal suddetto secondo beamsplitter; questa configurazione è detta del tipo “entrambi i cammini” perché impedisce di sapere quale cammino il fotone abbia percorso prima di giungere al detector, ma come vedremo tra poco questo ”impedimento”, in realtà, non è una perdita.

Gli aspetti interessanti sono i seguenti:

  • nella configurazione “per quale cammino?”, con un solo divisore di fascio, lo sperimentatore è in grado di sapere quale è stato il percorso intrapreso dal fotone: se questo accade, l’interferenza non si verifica. Questo perché nell’atto di conoscere il singolo cammino per una delle due vie, si distrugge la sovrapposizione di stati del fotone che passa per entrambe i cammini e che quindi poteva compiere interferenza con se stesso. Quando l’interferenza non si verifica, significa che l’informazione dell’unità del sistema entangled viene perduta, o meglio, rimane inaccessibile. Questa unità è conservata finché si resta nell’ambito ondulatorio, che secondo Bohm appartiene al livello implicato in cui il potenziale quantico guida l’onda pilota (come insegna De Broglie) associata alla particella. Quando si distinguono e separano gli stati, il sistema prima sovrapposto e correlato, ora collassa e si esplica come particella che in quanto tale è passata per una sola via.

  • quando dal setting sperimentale, in configurazione “per entrambe i cammini”, non si è in grado di distinguere i due percorsi (in presenza anche del secondo beamsplitter, che ora funge da ri-compositore di fascio), chiedersi per quale via il fotone sia passato è privo di senso perché, ondulatoriamente, e nel piano implicato, esso le ha percorse entrambe, creando l’interferenza tra i due stati quantistici e le due “porzioni” d’onda. La presenza di un’interferenza esprime che la natura ondulatoria è conservata e significa che la sovrapposizione dei due stati entangled (“il fotone che passa da A” e “il fotone che passa da B”) è ancora presente. Questo implica il fatto che se gli stati quantistici, di fatto e fisicamente correlati, non vengono distinti si mantiene accessibile l’informazione che assegna ad ogni elemento del sistema entangled profonda unità con gli altri.

  • La questione si fa interessante quando si vede cosa accade quando, con sofisticati sistemi ottici, si cambia la configurazione del setting sperimentale dal tipo “per quale cammino?” al tipo “entrambe i cammini” (deviando il percorso ottico sul secondo beamsplitter con un operazione della durata di pochi millisecondi), mentre, il fotone è già in viaggio lungo il percorso ottico. Appare comunque la figura d’interferenza. Si noti che l’interferenza, implicante il passare del fotone da entrambe le vie, avviene nel secondo beamsplitter, che nel percorso è incontrato dopo che il fotone sia partito e che possa aver già intrapreso solo l’una o l’altra via. Questo significa che l’informazione, che in natura ondulatoria è presente nel piano implicato, è intrinsecamente non-locale, infatti il porre in tempi successivi il secondo beamsplitter retroagisce su ciò che deve ancora verificarsi, cioè il passare per entrambe le vie anziché da una sola. Questo perché nel piano implicato tutto già è e diviene e tutto è immediatamente (prima di spazio e tempo, e materia) connesso in quanto unica entità.

Da quanto detto più sopra e da queste ultime conclusioni, si propone, ovviamente ed in modo pungente, il problema del libero arbitrio. In un paradigma olonomico infatti, il determinismo di fondo implica un’esclusione del probabilismo che permetta l’esistenza di multi-realtà in cui ogni evento può prendere un andamento piuttosto che un altro, in funzione della modalità di osservazione. Questo tipo di determinismo però, non ha nulla ha che fare con il meccanicismo classico che, di fatto si riferirebbe ad un’ineluttabilità del principio di causalità e sulla sola realtà esplicata, negando ogni possibilità di libero arbitrio. Nel paradigma olonomico bohmiano, il libero arbitrio è anch’esso Uno, quello del Tutto, già presente a livello implicato come potenzialità pura che si sviluppa in una storia unica e continua. In questo Tutto, le “singole” azioni e decisioni degli apparenti “individui”, portatori delle loro apparentemente “individuali coscienze”, sono concetti sovrastrutturali nella proposizione personale o di possesso e poietici in quanto implicano la pretesa di distinzione dal “resto” che è inconsistente ed impossibile (esiste il vuoto). In un foglio di carta a quadretti, ogni quadretto può sì considerarsi una “porzione di foglio”, ma ancor prima ed ancor di più esso è costituente il foglio e non ha un destino differente da quest’ultimo a meno di non esserne separato. Ma nulla può “separarsi” dalla Realtà in quanto essa è tutto ciò che, nel divenire, è. In pratica le “nostre” azioni e “nostre” prese di coscienza, così come ogni evento di qualunque tipologia, sono quelle della Grande Coscienza che “scrive” la propria Storia. Non vi è distinzione originaria, ma solo al livello logico, poietico. Riconoscendo questo, ci si ritrova a disporre del libero arbitrio, ma non come “singoli”, quanto piuttosto in un’olisticità che trascende il costrutto individuale e rende ogni “individuo” un “quadretto del grande foglio”.

Una volta preso atto di questo, ci si può chiedere: “perché la realtà fisica è strutturata e funzionante in modo che se conosciamo il cammino percorso dal fotone, necessariamente perdiamo la possibilità di apprendere che solo entrambi gli stati, sovrapposti, costituiscono davvero quell’entità fisica in modo completo?”.

Prima di esporre la risposta che secondo noi apre notevoli prospettive sul processo di conoscenza della realtà, vogliamo brevemente citare anche un’altra classe di esperimenti del genere, quelli condotti negli anni ‘80 da L. Mandel e R. Ghosh. In queste prove si provocava l’emissione di due fotoni entangled tramite il decadimento degli stati elettronici in un cristallo ottico non lineare che, eccitato via laser da un fotone incidente, emette per conversione spontanea parametrica verso il basso (spontaneous parametric down-conversion, SPDC), due fotoni entangled la cui somma energetica equivale all’energia del fotone entrante. L’emissione non è direzionale, ma radiante in tutto lo spazio, quindi si selezionano due cammini ottici tramite due aperture. I fasci passanti, vengono poi riflessi e ricombinati su uno schermo. In una prima esperienza, un piccolo rilevatore viene fatto scorrere lungo lo schermo su cui giungono i fotoni provenienti dai due cammini. In questo modo, sorprendentemente, non si riscontrava nessuna figura di interferenza, e si registrava solo la macchia luminosa dove l’intensità d’incidenza era massima. Utilizzando due rilevatori, accadeva lo stesso. Ma quando questi venivano collegati ad un contatore di coincidenze, ossia un dispositivo che faceva registrare l’evento solo quando il segnale era colto contemporaneamente da entrambi i rilevatori, ecco che la figura di interferenza appariva chiara e nitida. Questo cosa vuol dire? Che due particelle entangled sono un’unica entità e la funzione d’onda ad esse associata è unica e comune. Nell’esperimento della doppia fenditura di Young, il fotone interferisce con se stesso. Con due fotoni entangled, è l’intera entità non disgiunta che interferisce con se stessa. Ecco perché la figura d’interferenza appare solo quando si osservano entrambi i fotoni simultaneamente in due punti dello schermo[Akzel, 2006].

A questo punto, tornando alle domande, perché tutto funziona in tal modo? Com’è possibile che il sistema sappia cosa e quanto noi sappiamo? La risposta, a nostro parere, è sempre riconducibile all’originaria unità che sottende la realtà nel piano implicato.

Infatti l’informazione agente sul fotone è la stessa che muove e guida lo sperimentatore e l’esperimento. È solo nel poietico livello esplicato che si perde di vista questa fondamentale ed originaria unità e risulta, quindi, paradossale quanto descritto. In vero, il fatto che ciò accada, secondo noi, è profondamente naturale. Quello che si verifica nel separare due stati entangled, per esempio misurando solo uno dei due fotoni correlati, è il perdere l’unione globale della realtà.

Allo stesso modo, nell’esperimento di Thomas Young, quando l’osservatore conosce la via per la quale il fotone, prima in sovrapposizione di stati ondulatoria, ora è passato, si mette in luce la vera grave separazione: quella tra soggetto conoscente ed oggetto conosciuto. Questa lacerazione (falsante, illusoria) è tipica del processo conoscitivo logico, che implica il dividere la realtà osservata dal soggetto che cerca di descriverla.

In tal modo la verità a cui si giunge non è olistica e primaria, incondizionata ed assoluta, perché manca una parte: l’osservatore stesso, il soggetto. Questo crea una scissione tra verità e Realtà, analoga a quella che sussiste tra mappa e territorio. Il processo di indagine empirica deve essere fatto con una consapevolezza profonda di star occupandosi della mappa, in tal modo vi è la sensibilità per capire che la conoscenza razionale (e perciò oggettiva, in quanto crea gli ob-jecta, cioè le cose messe “di contro”), seppur molto spinta ed approfondita, sarà comunque un’approssimazione del territorio, un’approssimazione della Realtà.

Quanto detto, a nostro parere, implica due cose importanti:

  • Ogni volta che si cerca di separarsi tramite la logica dall’oggetto, si incorre nell’impossibilità di conoscere completamente, in quanto la Verità è la Realtà e pertanto quando questa viene privata di una parte nel percorso logico di ricerca (il soggetto) la verità (ora “trovata”) non è più ultima. Il processo conoscitivo razionale è un percorso che risulta possibile ed utilesolo se adottato come via tramite cui il Tutto ritorna al Tutto dopo essersi esperito e percepito, e solo se completato ed implementato tramite l’annichilazione della gerarchica distinzione soggetto-oggetto, per permettere un panico sentire, in luogo di un parziale com-prendere.

  • La forma di conoscenza più profonda ed intima, non è quella dialettica (dianoia), ma quella intuitiva (nous) perché essa non implica la separazione tra conoscente e conosciuto.

Le società non occidentalizzate attingono maggiormente a questa modalità e approccio.

Crediamo sia interessante fare un commento su quanto la Psicologia, intesa come indagine di se stessi e viaggio nel mondo interiore (Piano Implicato), sia forse la più alta forma di Scienza e Conoscenza, in quanto, come ci ricorda C.G. Jung (e come già Kant ci allertò nella Critica della Ragion Pura), soggetto e oggetto coincidono in un armonioso snodarsi nella ricomposizione analogica (di episteme e doxa, di logos e follia)8.

Per avvicinarsi ad un paradigma scientifico che possa protendersi all’olismo analogico, costitutivo la Realtà, un buon inizio è rivolgersi almeno alla Teoria Quantistica dei Campi (TQC) che, seppur ancora nella cornice del Modello Standard, non considera mai il singolo elemento, ma l’insieme degli elementi analoghi, il sistema complessivo, studiando le relazioni tra gli stessi.

La TQC, inoltre, mette in luce un’altra forma del principio di indeterminazione di Heisemberg (già noto per impulso-posizione ed energia-tempo) che correla altre due variabili coniugate: il numero di quanti oscillanti (N) e la fase (il ritmo, φ) a cui essi oscillano: . Significa che, se si arriva a conoscere con grande precisione il numero degli oscillatori vibranti ad una certa fase, non si riesce più ad individuare precisamente (sentire, sintonizzarsi su) quella fase e, viceversa, per avere un oscillazione “pulita” e ben definita, il numero degli “orchestrali” deve essere ignoto.

Questo fatto conduce ad alcuni concetti importanti:

  • Come abbiamo già illustrato ed approfondiremo in seguito, nella sezione relativa al problema e limite del pensiero logico, se si cerca di indagare la realtà in maniera analitica ed oggettivante, si perde la globale essenza della stessa, il suo senso, quindi la Verità

  • Come vedremo meglio nella sezione relativa all’acqua, emerge che primario risulta essere il dialogo informazionale e la relazione di fase tra gli “oggetti” ed il loro ordinamento spontaneo, correlante e funzionale, ben più che le dinamiche collisive e disgreganti

  • Questo è commovente: come ci indica Bohm, proprio perché l’universo è olonomicamente un unico soggetto che si esperisce ed elabora, in particolare nella Vita. La tendenza alla risonanza, all’empatia, alla condivisione ed in fine all’ Amore, è un Grande Principio intrinseco della Physis che ne sorregge e guida il Divenire.

Tutto ciò che si allontana da questa linea, seppur funzionale e parte integrante del percorso di autocoscienza dell’Universo, è una sovrastruttura, un condizionamento dovuto fondamentalmente all’inganno della separazione poietica, propria del pensiero logico e va perciò riconosciuto come tale e non de-responsabilmente attribuito alla “natura crudele” del Mondo (o dell’uomo).Svilupperemo meglio di seguito questo aspetto e quanto la nuova biologia stia meravigliosamente dandoci molti strumenti per sfuggire anche al determinismo etologico e sociologico.

Perché la mentalità scientifica di mainstream nella ricerca e nella didattica, non è attraversata ed intrisa da queste profondità, sfumature ed aperture a collegamenti che esulino dal becero sperimentalismo?

Ci pare, e ne discuteremo a fondo nelle prossime sezioni sul paradigma analogico, che attualmente la situazione culturale e sociale non si discosti molto da questo preoccupante quadro.

Un acuto fisico italiano, Massimo Corbucci, già alla fine degli anni ’70 fece comprendere agli illustri studiosi del G.I.S. di Darmstad, Germania, con un nuovo modello di Tavola Periodica degli Elementida lui composto, che non si può “montare” un atomo con più di 112 protoni. Nella sua Nuova Tavola Periodica degli Elementi, oltre a dare continuità sia al riempimento orbitalico (secondo il modello classico di Bohr supposto poter arrivare fino a 126 elettroni), siaall’inserimento di attinidi e lantanidi;gli elementi sono divisi in due gruppi (il cui spartiacque è costituito dai Gas Nobili) ove a sinistra ci sono gli elementi “leggeri” e a destra quelli “pesanti” e compaiono 4 caselle nere corrispondenti al vuoto quantomeccanico9. La Tavola si conclude con l’ultimo elemento (il 112) portante il nome ebraico dei due rishoni dei quali uno impedisce l’esistenza di “muri”(Vavohu) e l’altro eroga la massa (Tohu). Inoltre, in perfetta sincronia con la Tavola degli Elementi, M. Corbucci ha completato la Tavola della Disposizione Barionica da cui si può risalire al contenuto ed alla numerazione barionica di tutti gli elementi della Tavola Periodica (gli elementi “leggeri” hanno il nucleo composto da barioni a spin totale 1/2, dato dalla somma degli spin antiparalleli dei 3 quark costitutivi; gli elementi “pesanti” hanno il nucleo composto da barioni a spin totale 3/2, dato dalla somma degli spin paralleli dei 3 quark costitutivi).

Questo modello è significativo, in quanto anch’esso fa emergere strettamente plausibile (e necessario) che la massa (e di conseguenza, lo spazio ed il tempo) debba originarsi da un oggetto fisico che per forza di cose sia un “connettivo” della realtà “antecedente” alle grandezze poietiche e causali, non metafisicamente, bensì intrinseco alla realtà stessa. Tale elemento connettivo, che genera spazio, massa, tempo, ecc. e che giustifica la sperimentata non-località propria dell’intera Realtà, non può essere qualcosa che si “estrae” tramite le collisioni adroniche in un acceleratore.

Infatti viene proposto ragionevolmente che la gravità (elemento di estremo conflitto tra Relatività Generale e Modello Quantistico in quanto non quantizzabile) non sia affatto una forza e quindi che ad essa non sia associato nessun “campo gravitazionale”. Questo è molto coerente col fatto che gli effetti gravitazionali si “propagano” a velocità enormemente superiori a quella della luce, come già s’è descritto sopra per l’informazione, a proposito dell’entanglement. Gli influssi gravitazionali delle masse astrali sono immediatamente agenti sui corpi celesti e, se “viaggiassero”, è come se prendessero una “scorciatoia”, attraverso il vuoto, appunto. Altrimenti, e più semplicemente, emerge che la gravità è un elemento fondamentalmente non-locale, infatti si snoda nel regno del vuoto quantomeccanico.

A sostegno di questa teoria vi sono dati sperimentali derivanti da esperimenti accurati riproponenti la caduta dei gravi, condotti in diversi laboratori nel mondo. Facendo cadere da pari altezza, sottovuoto, una massa di Ferro ed una di Alluminio (più leggero del primo), si è visto che quest’ultima tocca il suolo alcune frazioni di secondo prima di quella di Ferro. Questo è coerente col fatto che la gravità scorra attraverso il vuoto quantomeccanico e che atomi con “carrozzeria” più grande offrano maggiore inerzia all’accelerazione impressa dalla gravità.

In pratica, se si mettessero sul davanzale di una finestra degli elementi, in fila dal più leggero (per es. l’Idrogeno) al più pesante (per es. l’Uranio), in vuoto, facendoli cadere insieme, l’Uranio toccherebbe terra per ultimo e l’Idrogeno per primo.

La grande perplessità e sorpresa che esprimiamo è dovuta alla quasi totale assenza di discussioni su queste acquisizioni nella cultura scientifica, accademica, divulgativa, e persino nei convegni internazionali.

Per dirla francamente, così come è uscito su tutti i giornali l’annuncio della scoperta del Bosone di Higgs (a nostro parere estremamente dubbia e sospetta fisicamente per le ragioni sopra accennate), dovrebbe accadere lo stesso con le questi temi. Ciò che vogliamo dire è che un domani tutto ciò potrà essere tranquillamente confutato o integrato, corretto, ampliato, rivisto, negato … non importa. Ma almeno che sene parli!! Che le persone sappiano che cosa si muove nella nostra epistemologia!!In merito al procedimento scientifico di valutazione che porta a poter decidere in maniera rigorosa cosa è “vero” o meno, crediamo sia giusto riconsiderare alcuni aspetti.

In una Realtà in cui nulla è isolabile ed in cui tutto diviene, c’è da chiedersi fino a che punto la ripetibilità e la riproducibilità siano categorie necessarie, o univoche, per validare l’indagine e la ricerca.

Si deve senz’altro riconoscere che il metodo empirico Galileiano-Baconiano, fondato sulla riproducibilità di un evento, sia una metodica che ha permesso, e permette, di acquisire delle verità molto fini ed intime del mondo “intorno a noi”. I problemi si fanno certamente consistenti per tutto ciò che riguarda il “dentro di noi”. Qualcuno potrebbe dire che questo non è “affar di Scienza”. “Perché mai?”, chiederemmo noi, dato che la Scienza è qualcosa che tende a farci scoprire e comprendere la Realtà,se il mondo è Uno e non ha senso fisico supporre una distaccata metafisica, tutto ciò che accade è “affar di Scienza”.

Quello che si vuole tentare di proporre è che, a livelli d’indagine molto profondi, ci si avvicina sempre più a quel piano in cui l’unità conoscente-conosciuto si fa talmente concreta, invadente, quasi violenta, che ignorarla ci farà rimanere solo in una conoscenza parziale. Un esempio semplice è fattibile considerando sensazioni, desideri, emozioni e sentimenti che si alternano in un perenne fluire nelle nostre coscienze. Se qualcuno per esempio dicesse di “sentirsi innamorato”, assumendo certa la buonafede del dichiarante, chi e come potrebbe “verificare” tale stato? È sensato ridurre una tale raffinata articolazione dell’esistere come un semplice e riduzionistico prodotto della biochimica? Si perderebbe gran parte della verità su ciò che si cerca di indagare, infatti identificare una precisa configurazione biochimica in un soggetto, associata al suo “sentirsi innamorato”, non equivale a conoscere quel “sentirsi. Significa che il dato scientifico va riconciliato con una dimensione del sentire che non può essere oggettiva, nel senso di unificabile, onnivalente o scontatamente condivisibile. Il criterio popperiano secondo cui una teoria è scientifica solo se falsificabile si dimostra inconfutabilmente incapace e “piccino” quando ci si spinge oltre un certo grado finezza ed intimità, oltre cioè quel “limite” a cui anche un elettrone (per fare solo un banale esempio) non ha una posizione precisa ed è contemporaneamente “qui e lì”. Il criterio della falsificabilità funge finché si resta nel recinto isolante della logica. Ma la realtà fisica è intrinsecamente analogica, ora possiamo certamente riconoscerlo.

Quanto detto potrà sembrare al di sotto dell’ovvio, eppure ci sembra molto meno ovvio quanto nella nostra cultura sia presente una profonda lacerazione (di matrice cartesiana), tra ciò che la Scienza prova, dimostra, valida e ciò che le persone invece provano, sentono, che però non viene assunto come elemento di cui tener conto per comporre il “panorama quantitativo del mondo”. Se tutto ciò che non si può misurare e ripetere viene escluso dai degni tasselli su cui fondare una Realtà a tutto tondo, ci si perde un dominio di indagine scientifica a nostro parere enorme.

Solo che la Scienza per “addentrarsi” nel dominio del non ripetibile deve maturare un metodo non isterilito e ridotto al mero empirismo.

Non si sta proponendo nulla che si avvicini ad un’anarchia epistemologica, semplicemente si tenta di invitare l’uso del pensiero razionale e del metodo empirico ad accompagnarsi con un’umiltà che permetterebbe una produttiva ed egualitaria integrazione di tutte le conoscenze e discipline umane, quindi tra Scienza (nel senso tradizionale di “metodo di ricerca causalistico”) e ciò che di ripetibile ha ben poco, ma che non per questo deve essere considerato d’inferiore dignità.

Biologia, Medicina, Psicologia, Spiritualità vanno ad occuparsi (in ordine crescente) di “qualcosa” sempre meno ripetibile, perché sempre più “vicino” all’originario divenire del Piano Implicato che appartiene alla realtà fisica e non è un remoto “Dio” in un remoto “al di là”. Come possiamo escludere dalla Nostra ricerca una tale “fetta” di mondo, quando la Fisica stessa ci indica che tutto ciò non solo appartiene alla Realtà quanto “le cose che si misurano”, ma addirittura ne è il costituente forse più fondamentale?

Paolo Renati

Materials Scientist & Engineer

1 Il calore specifico, C, equivale all’energia che si deve fornire ad una mole (o un Kg) di materia per fare aumentare la sua temperatura di un grado, C ha perciò le dimensioni [Joule/molK] o [Joule/KgK]. Se si considera la definizione della variazione di entropia in un sistema chiuso, , ove Q è il calore e T è la temperatura, si deduce facilmente che per T0 si ha che ΔS[30]. Se ciò si verificasse, sarebbe un’autentica catastrofe dato che equivarrebbe al fatto cheil sistema necessiti di una quantità infinita di energia per essere riportato a temperature maggiori di zero; in pratica si avrebbe che la materia diventa come l’essere parmenideo, immutabile e perfettamente statica (“sluggish”, come direbbero gli anglosassoni), cioè incapace di divenire. Questo “paradosso” concettuale della termodinamica classica, riferito allo spettro di emissione del corpo nero è anche noto come catastrofe ultravioletta.

 

2 Un aspetto “spinoso” dell’entanglement, è il fatto che esso implichi l’elusione del principio di Indeterminazione di Heisemberg, infatti, se consideriamo il suddetto esperimento mentale EPR, noi siamo in grado di conoscere con una precisione assoluta il valore e l’orientazione del vettore momento angolare della particella lontana dalla “gemella” su cui abbiamo effettuato la misura o l’azione diretta: per semplice aritmetica, la prima dovrà assumere un ben preciso valore affinché la conservazione del momento totale sia rispettata.

 

 

3Questo, effettivamente, è comunque ancora includibile nel paradigma olonomico (il quale vanta la più significativa ed auto-consistente necessità) in quanto nell’esplicarsi dei molteplici e paralleli multiversi essi sono “coerenti” tra loro e con un percorso che sottende il loro svolgersi; come si vede, comunque, nuovamente si ricade in una questione di limite di rappresentazione del linguaggio: non è infatti scorretto considerare l’universo unico (come dice il nome) e costituito in modo tale da potervi “riconoscere” delle rappresentazioni fenomeniche nominabili come “realtà parallele”, esse sono di nuovo comunque riconducenti a quel “Tutto” che esiste, si esplica ed esperisce, eventualmente, anche in tal modo.

 

4 La forma completa dell’equazione sarebbe , in cui m è la massa della particella, p è il momento o impulso (se la particella possiede una velocità non nulla) e c è la velocità della luce nel vuoto. Ponendo per semplicità il termine , considerando quindi la particella in quiete, si vede che per trovare i valori dell’energia bisogna porre una radice, che dà origine, per algebra, a due soluzioni, ed , cosi come .

 

5 In questo senso, la scelta del Modello Standard non è consistente rispetto al rasoio di Ockham in quanto, a parità di efficacia descrittiva, non è la possibilità più semplice, sintetica ed elegante.

 

6 Possiamo infatti con certezza dire che A è causa di B solo se a nostro discernimento, producendo A, si genera di seguito B; infatti sarebbe mistificante dire che la notte è causa del giorno, o viceversa, solo perché tali fenomeni si susseguono temporalmente.

 

7 Nei capitoli successivi, in realtà vedremo che ad oggi con la tecnologia informazionale si sta arrivando ad interagire con piani estremamente “sottili” della realtà che hanno a che fare con la morfogenesi della stessa, i campi morfogenetici, come vedremo, per dirla con Rupert Shaldrake, sono i responsabili “sottili” dell’azione olografica che interessa l’ontogenesi di una essere vivente e non solo. Interessante sarà considerare il ruolo inaspettato delle interazioni elettromagnetiche od elettroacustiche sulla funzionalità olografica del DNA. Per ora, asseriamo che intervenendo sull’aspetto informazionale della realtà si è in grado di interagire anche con le dinamiche retrocausali.

 

8 Si approfondirà questa tematica sotto il profilo filosofico alla sezione sul paradigma analogico

 

9Pare che M. Corbucci abbia tenuto a precisare che il vuoto quantomeccanico da Lui inteso, non ha nulla a che fare con il vuoto quantistico, a cui si “riferiscono solitamente i fisici”; eppure nelle trattazioni di Teoria dei Campi e di Elettrodinamica Quantistica di E. Del Giudice e G. Preparata, emerge un concetto chiaramente sovrapponibile a quello evidenziato da M. Corbucci, in quanto anche in questi ambiti si sottolinea la “precedenza logica” del vuoto rispetto alla materia, allo spazio e al tempo.