venerdì 31 luglio 2009

Sbagliando non s’impara perché ripetiamo gli errori.


Segnalato da Marì Si apprende più dai successi che dai fallimenti. Una ricerca del Mit sulle cellule cerebrali di ELENA DUSI Meglio il bastone della carota. A osservare bene il nostro cervello, sembra infatti che impari più dai propri successi che non dagli errori. E che anzi tenda a tornare spesso sui propri passi, se portano nella direzione sbagliata. "Abbiamo studiato il comportamento delle scimmie - spiega Earl Miller, che insegna neuroscienze al Massachusetts Institute of Technology e pubblica oggi la sua ricerca su Neuron - e abbiamo visto che quando un animale dà la risposta corretta al test cui lo sottoponiamo, nel suo cervello risuona il messaggio "hai fatto la cosa giusta". Dopo una risposta positiva, i neuroni memorizzano l'informazione in maniera più efficace e persistente e la scimmia tende la volta successiva a rispondere ancora correttamente. “Dopo un errore invece non assistiamo ad alcun miglioramento". Il test per le scimmie consisteva in una sorta di videogioco: se appariva una figura sullo schermo di un computer (un uomo con la pipa) gli animali dovevano voltarsi verso sinistra. Se ne appariva un'altra (un semaforo), dovevano voltarsi a destra. L'unico modo per imparare l'associazione giusta era provare e riprovare, attraverso una serie di successi ed errori. Nel frattempo Miller e i suoi colleghi misuravano l'attivazione dei neuroni delle scimmie in due aree come la corteccia prefrontale (che armonizza pensieri e azioni) e l'area dei gangli basali (che controllano i movimenti). Voltandosi dal lato sbagliato, le scimmie non ricevevano nessun premio, l'"accensione" dei loro neuroni durava meno di un secondo e nei tentativi successivi non compariva alcun miglioramento. Mentre in caso di risposta corretta e di "carota" offerta in premio, l'attivazione delle cellule celebrali durava molto a lungo: cinque secondi circa, il tempo necessario per arrivare alla domanda successiva. "Questo dimostra - spiega Miller - che almeno a livello dei neuroni impariamo più dai nostri successi che dai fallimenti". Scimmie a parte, uno studio non troppo diverso è stato condotto sugli uomini a settembre dell'anno scorso, pubblicato sul Journal of Neuroscience. Evelin Crone dell'università di Leida, ha misurato delle differenze assai fini a seconda dell'età dei suoi volontari. Nei bambini tra 8 e 9 anni funziona molto bene il meccanismo dell'apprendimento attraverso i successi. A 12 anni anche i fallimenti cominciano a lasciare il segno sulla memoria del cervello. Da adulti invece si impara in maniera altrettanto efficiente sia con il bastone che con la carota. (30 luglio 2009) da Quantico gio 30 lug 2009 tratto da: http://www.altrogiornale.org/news.php

Violata la legge di Planck su piccole distanze


Violata la legge di Planck su piccole distanze

Il Giornale Online
A distanze di separazione dell'ordine dei 10 nanometri (10 miliardesimi di metro) o meno il trasferimento di calore può essere 1000 volte più intenso di quanto previsto dalle leggi di Planck.
Il trasferimento di calore su piccole distanze è 1000 volte più intenso di quanto previsto dalla legge del corpo nero di Planck: è quanto hanno scoperto i ricercatori del MIT di Boston in base a
un ingegnoso apparato sperimentale.
La legge di radiazione del corpo nero, formulata da fisico tedesco Max Planck nel 1900, descrive in che modo si dissipa il calore in forma di differenti lunghezze d'onda della radiazione da un corpo non riflettente ideale chiamato appunto corpo nero.
La legge dice che l'emissione termica relativa a differenti lunghezze d'onda segue un preciso schema che varia con la temperatura dell'oggetto: l'emissione di corpo nero è considerata il livello massimo della radiazione di un corpo.
La legge funziona in modo affidabile nella maggior parte dei casi, ma lo stesso Planck aveva suggerito che quando gli oggetti sono molto vicini tra loro, le previsioni della sua legge avrebbero dovuto cessare di valere. Purtroppo, il controllo delle condizioni sperimentali per verificare la violazione della legge sono molto difficili da ottenere.
"Planck fu molto preciso, affermando che la sua teoria era valida solo per sistemi più grandi”, ha spiegato Gang Chen, professore di ingegneria del MIT e direttore dei Pappalardo Micro and Nano Engineering Laboratories. "Perciò esisteva già una previsione, che nessuno però sapeva in quali condizioni si sarebbe verificata.”
Chen e colleghi sono partiti considerando la difficoltà di mantenere meccanicamente due oggetti molto vicini, senza farli toccare.
Il problema è stato risolto, come descritto sulle pagine della rivista “Nano Letters”, utilizzando, invece di due superfici metalliche, una superficie metallica e una perlina di vetro molto piccola, più facile da controllare.
Inoltre, è stata utilizzata la tecnologia del cantilever bimetallico di un microscopio a forza atomica per misurare le variazioni di temperatura con grande precisione.
Si è così trovato che a distanze di separazione dell'ordine dei 10 nanometri (10 miliardesimi di metro) o meno il trasferimento di calore può essere 1000 volte più intenso di quanto previsto
dalle leggi di Planck.

da Richard ven 31 lug 2009

Tratto da: http://www.altrogiornale.org/news.php

domenica 26 luglio 2009

BOSONE di HIGGS


Il Bosone di Higgs

Bosone di Higgs

Composizione:

Particella elementare

Famiglia:

Bosone

Interazione:

Gravità, Debole

Status:

ipotetica

Teorizzata:

P. Higgs, F. Englert, R. Brout (1964)

Simbolo:

H0)

Massa:

sconosciuta

Carica elettrica:

0

Spin:

0

Il bosone di Higgs sarebbe una ipotetica particella elementare, massiva, scalare, prevista dal modello standard della fisica delle particelle.

Nell'ipotesi che questa esista, essa sarebbe l'unica particella del modello standard a non essere stata ancora osservata.

Questa particella giocherebbe un ruolo fondamentale all'interno del modello: la teoria la indica come portatrice di forza del campo di Higgs che si ritiene permei l'universo e dia massa a tutte le particelle.

Il campo di Higgs, mediante rottura spontanea della simmetria elettrodebole del modello standard, è coinvolto nel dare la massa alla particelle mediante il meccanismo di Higgs e l'interazione di Yukawa. In particolare il meccanismo di Higgs predice la massa dei bosoni vettori, ossia delle particelle responsabili delle interazioni mentre l'interazione di Yukawa riproduce le masse dei campi di materia, ossia i fermioni.

Rispetto al meccanismo di Higgs in cui i parametri hanno chiare interpretazioni teoriche, il meccanismo di Yukawa risulta essere molto meno predittivo , infatti i parametri di questo tipo di interazione risultano introdotti ad hoc nel modello standard.

L'importanza del bosone di Higgs nel modello standard è anche dovuta al fatto che esso può garantire la consistenza di questo modello: altrimenti, senza riconoscere l'esistenza di tale bosone, il modello standard si rivelerebbe inefficace, poiché descriverebbe i processi con una probabilità maggiore di uno. In particolare, l'ipotetico scambio di bosoni di Higgs potrebbe virtualmente correggere il vigente cattivo andamento dell'ampiezza di probabilità nello scattering elastico delle componenti longitudinali di due bosoni vettori di tipo W ad alte energie.

Al giorno d'oggi la presunta particella non è mai stata osservata, ma secondo una parte della comunità scientifica vi sarebbero alcuni indizi riguardo alla sua eventuale esistenza.



La formulazione di un'ipotesi

Il bosone di Higgs fu teorizzata nel 1964 dal fisico scozzese Peter Higgs, insieme a François Englert e Robert Brout, mentre stavano lavorando su un'idea di Philip Anderson, e indipendentemente da G. S. Guralnik, C. R. Hagen, e T. W. B. Kibble.

Esso sarebbe dotato di massa propria.

La "Particella Dio"

Nel 1993 il bosone di Higgs, data la sua importanza nella teoria del modello standard, è stato soprannominato dal Premio Nobel per la Fisica, Leon Max Lederman, come la "Particella Dio".

Alla ricerca del Bosone di Higgs

Il bosone di Higgs non è stato ad oggi mai osservato sperimentalmente e la sua massa non è prevista dal Modello Standard. Ricerche dirette effettuate al LEP hanno permesso di escludere valori della massa inferiori a 114,5 GeV, e misure indirette dalle determinazioni dei parametri elettrodeboli danno indicazioni che i valori più probabili della massa siano comunque bassi, in un intervallo che dovrebbe essere accessibile ad LHC.

La teoria dà un limite superiore per questa massa di circa 200 GeV (≈3,5×10-25 kg). Al 2002 gli acceleratori di particelle hanno raggiunto energie fino a 115 GeV.

Benché un piccolo numero di eventi che sono stati registrati potrebbero essere interpretati come dovuti ai bosoni di Higgs, le prove a disposizione sono ancora inconcludenti.

A partire dal 2001, la ricerca del bosone di Higgs si e' spostata negli Stati Uniti studiando le collisioni registrate all'acceleratore Tevatron presso il Fermilab.

I dati li' raccolti hanno consentito di escludere l'esistenza di un bosone di Higgs con massa compresa tra 160 e 170 GeV.

Ci si aspetta che il Large Hadron Collider, presso il CERN, che inizierà a raccogliere dati a partire dell'autunno del 2009, sia in grado di confermare l'ipotetica esistenza di tali bosoni.

Poiché il campo di Higgs è un campo scalare, i bosoni di Higgs avrebbero spin zero.

Critiche: gli scettici

Il fisico Vlatko Vedral ha tuttavia avanzato la supposizione che l'origine della massa delle particelle sia dovuta all'entanglement quantistico tra i bosoni, analogamente a quanto espresso dalla sua teoria sull'effetto Meissner nei superconduttori da parte degli elettroni entangled. Vari altri ipotetici modelli fisici, tra cui il modello dinamico della superunificazione e del dualismo onda-particella elaborato dal fisico Alex Kaivarainen dell’Università di Turku in Finlandia, parimenti rifiutano implicitamente l'esistenza del bosone di Higgs.

Recentemente, si è sviluppata una teoria in cui molte delle buone caratteristiche teoriche del settore di Higgs nel modello standard posso essere riprodotte, per particolari valori dei parametri del modello, dall'introduzione di un settore extra dimensionale, o comunque da una estensione della simmetria elettrodebole.

Tali modelli in cui si cerca di trovare giustificazioni alternative al meccanismo di Higgs, sono noti come modelli Higgsless.

Teoria

La particella nota col nome di Bosone di Higgs è il quanto di uno dei componenti del campo di Higgs. Nello spazio vuoto, il campo di Higgs acquisisce un valore non-zero (detto valore atteso del vuoto non-zero) che permea tutto lo spazio dell'universo in qualsiasi istante. L'esistenza di questo valore gioca un ruolo fondamentale: esso darebbe massa a tutte le particelle elementari, incluso lo stesso bosone di Higgs. In particolare, l'acquisizione di un valore non-zero romperebbe la simmetria di gauge elettrodebole, un fenomeno conosciuto come meccanismo di Higgs. Esso è il meccanismo più semplice in grado di dare massa ai bosoni di gauge compatibile anche con le teorie di gauge.

Nel Modello Standard, il campo di Higgs consiste in campi con due componenti neutri e due componenti carichi. Entrambi i componenti carichi ed uno dei campi neutri sono bosoni di Goldstone, che sono privi di massa e divengono, rispettivamente, le componenti longitudinali tri-polarizzate dei bosoni massivi W + , W , e Z0. Il quanto del restante componente neutro corrisponde al bosone di Higgs. Poiché il campo di Higgs è un campo scalare, il bosone di Higgs ha spin zero e non ha momento angolare intrinseco. Il bosone di Higgs è anche la sua stessa antiparticella ed è CP-even.

Il Modello Standard non predice il valore della massa del bosone di Higgs. Se la massa del bosone di Higgs risultasse compresa tra 115 e 180 GeV, allora il Modello Standard potrà essere valido a tutte le scale di energia fino alla scala di Planck (1016 TeV). Molti fisici teorici si aspettano che una nuova fisica emerga oltre il Modello Standard alla scala del TeV, a causa di alcune proprietà insoddisfacenti del Modello Standard stesso. Il valore più elevato della massa del bosone di Higgs (o di qualche altro meccanismo di rottura della simmetria elettrodebole) è ipotizzabile intorno ad un TeV; oltre questo punto, il Modello Standard diventerebbe inconsistente senza tale meccanismo poiché l'unitarietà è violata in certi processi di scattering. Molti modelli supersimmetrici predicono che il valore più basso possibile della massa del bosone di Higgs è ipotizzabile appena al di sopra degli attuali limiti sperimentali, intorno a 120 GeV o meno.

Articolo preso da Wikipedia.it

CONSIDERAZIONE DI UNO STUDIOSO IN MATERIA


La Percezione del Tempo

di Giuseppe Bonaccorso. In questo articolo viene esposta una visione del tempo percepito legata al concetto di entropia termodinamica e informatica. Si discute inoltre del ruolo del metabolismo cerebrale nell'attività cosciente delle sequenze temporali. Stephen Hawking, in una delle sue più affascinanti opere divulgative, ha affermato che la freccia del tempo psicologica, ovvero la consapevolezza percettiva della direzione di “scorrimento” degli eventi temporali, è necessariamente orientata con verso concorde a quello della sua omologa termodinamica. Egli basa la sua dimostrazione sul fatto che qualsiasi sistema di memorizzazione delle informazioni (ad esempio la memoria RAM di un computer o il cervello di un animale) debba spendere una certa quantità di energia al fine di conseguire lo scopo prestabilito e, in accordo al secondo principio della termodinamica, gli elementi deputati allo “stoccaggio” dei dati, una volta completato il processo, degradano parte di questa energia dissipando sotto forma di calore gli scarti del loro lavoro. Questa condizione, secondo Hawking, rappresenta l'elemento naturale che governa la consapevolezza della direzionalità del tempo; tuttavia, come lo stesso autore ammette, la nostra conoscenza sul funzionamento del cervello umano è ancora troppo misera per poter affermare con certezza che esso funzioni allo stesso modo di una cella di memoria a semiconduttore, anche se è ragionevole supporre che ogni struttura biologica, dal più elementare microorganismo unicellulare all'uomo, sia soggetta alle stesse leggi che governano l'universo. In realtà, anche senza conoscenze approfondite, secondo quanto riportato nella nota 1, è possibile constatare cha la natura evolve sempre verso direzioni privilegiate che conducono inesorabilmente verso l'equilibrio inteso come morte termica, ma il fenomeno della vita sembra non rispettare questa condizione! Il premio Nobel Erwin Schrödinger afferma che gli esseri viventi mostrano un comportamento opposto a quello sancito dal secondo principio, in quanto essi nascono e vivono mantenendo internamente un livello di ordine e organizzazione estremamente elevato. Per farsi un'idea basti pensare che il cervello di un uomo giovane contiene circa un centinaio di miliardi di cellule neurali, le quali sono collegate tra di loro da una rete in cui il singolo nodo può contenere anche diecimila o duecentomila nel caso delle cellule di Purkinje interconnessioni. Schrödinger da buon fisico teorico, per giustificare la stranezza di tale fenomeno avanzò l'ipotesi che gli esseri viventi, pur essendo costretti a degradare energia come ogni altra macchina termica, “assorbano” negentropia (ovvero entropia con il segno meno) dall'ambiente per compensarne l'aumento a cui altrimenti andrebbero inevitabilmente incontro. Egli dice: "Meno paradossalmente si può dire che l'essenziale nel metabolismo è che l'organismo riesca a liberarsi di tutta l'entropia che non può non produrre nel corso della vita". Ovvero, in parole povere, lo scopo primario delle cause della vita non è certo obbedire ciecamente al secondo principio della termodinamica, ma piuttosto di contrastarlo con tutti i mezzi necessari. L'essenza vitale di un essere scaturisce dal continuo rapporto-scontro con le leggi della natura. Alla luce di questa semplice teoria io credo l'affermazione di Hawking non sia del tutto corretta e in questo breve articolo cercherò di spiegare la mia posizione. Per contatti: webmaster@neuroingegneria.com Per chi non lo sapesse ricordo che in termodinamica viene definita una grandezza di particolare importanza chiamata entropia e indicata convenzionalmente con la lettera latina S. Essa, che è legata al secondo principio, viene calcolata integrando lungo una linea relativa ad una trasformazione di stato il differenziale non esatto dQ (Calore scambiato) diviso per la temperatura assoluta alla quale avviene lo scambio. Clausius dimostrò -tralascio in questa sede il significato energetico - che l'entropia di un sistema isolato (ad esempio l'universo) non può mai diminuire, al massimo essa può restare costante nel caso in cui le trasformazioni siano reversibili (situazione puramente teorica). Successivamente Boltzmann, inaugurando la meccanica statistica, associò l'entropia di un sistema macroscopico alla probabilità di una determinata configurazione microscopica; in questo modo gli stati più vicini all'equilibrio, che risultano molto più probabili, hanno associata un'entropia molto maggiore di quella relativa agli stati con un livello di ordine più elevato. Tenuto conto che la natura evolve sempre verso l'equilibrio termodinamico è possibile affermare che il tempo, rappresentato come una freccia, punti sempre nella direzione di aumento dell'entropia e quindi verso gli stati più disordinati. Ad esempio, un cubo di ghiaccio tende spontaneamente a sciogliersi perdendo la “memoria” della sua struttura volumica (ordinata) per raggiungere uno stato (liquido) caratterizzato da un'organizzazione molecolare molto più “libera”. La freccia del tempo termodinamica sancisce l'impossibilità che la trasformazione inversa possa avvenire naturalmente con carattere deterministico. Per approfondimenti cfr. M.W. Zemansky, M.M. Abbot, H.C. Van Ness, “Fondamenti di termodinamica per ingegneri”, Zanichelli. Gli esseri viventi, pur essendo costretti a degradare energia come ogni altra macchina termica, “assorbono” negentropia (ovvero entropia con il segno meno) dall'ambiente per compensarne l'aumento a cui altrimenti andrebbero inevitabilmente incontro. In [2] a pag.123 egli dice: "Meno paradossalmente si può dire che l'essenziale nel metabolismo è che l'organismo riesca a liberarsi di tutta l'entropia che non può non produrre nel corso della vita". Ovvero, in parole povere, lo scopo primario delle cause della vita non è certo obbedire ciecamente al secondo principio della termodinamica, ma piuttosto di contrastarlo con tutti i mezzi necessari. L'essenza vitale di un essere scaturisce dal continuo rapporto-scontro con le leggi della natura. Alla luce di questa semplice teoria io credo l'affermazione di Hawking non sia del tutto corretta e in questo breve articolo cercherò di spiegare la mia posizione. Ammettendo che i processi biochimici che regolano il metabolismo cerebrale siano in grado di “rivelare” la direzione naturale del tempo, bisogna anche accettare che la minima attività nervosa sia sufficiente a garantire il contatto costante con la realtà dell'universo. In un certo senso si può affermare, seguendo gli insegnamenti di Immanuel Kant 3, che il tempo, qualunque cosa esso sia, precede sempre l'esperienza e quindi esso deve essere intuito a priori e senza intervento della percezione sensibile. Però, se così fosse, non sarebbe assolutamente necessaria la coscienza, in quanto basterebbe il normale lavoro cellulare del cervello (che può prescindere da tutti e cinque i sensi e manifestarsi anche in una persona in coma) a dare la consapevolezza del susseguirsi dei singoli istanti temporali. Tuttavia, analizzando la questione dal punto di vista non delle cause ma degli effetti, l'elaborazione e la memorizzazione di informazioni (che rappresentano il risultato dell'attività cerebrale) portano un neonato da un livello di immaturità totale ad un essere adulto sempre più cosciente di sé e dell'ambiente esterno, quindi, in ultima analisi, si può affermare che lo “spostamento” lungo l'asse dei tempi (la vita) guida la ragione e la coscienza verso una direzione che è frutto non della normale tendenza naturale al disordine, ma piuttosto, per dirla come Schrödinger, della continua acquisizione di negentropia. Io credo che l'attività neurale di natura elettrochimica contribuisca alla costruzione di una immagine mentale del tempo che è opposta a quella della freccia termodinamica e che siano le percezioni sensoriali a costringere il cervello ad un “lavoro controcorrente”. In questa maniera il susseguirsi dei singoli campioni di segnali tattili, ottici ed acustici guida l'evoluzione della conoscenza nella medesima direzione che assicura l'aumento costante di entropia, forzando quindi la coscienza a seguire il contenuto informativo del processamento cerebrale il quale acquista coerenza razionale solo se evolve in modo concorde a qualsiasi altro fenomeno naturale. L'uomo s’interfaccia con la natura, la osserva e la rende ambiente privilegiato, ma l'apparenza del moto temporale che ne ottiene non è la conseguenza logica della sua appartenenza alla medesima realtà (in senso condizionale), ma il risultato di un processo di adattamento. Anche se ciò può sembrare poco scientifico, credo che il concetto di tempo, così come le leggi della fisica lo mostrano, sia del tutto estraneo alla mente umana4, ed è questo forse il motivo per cui ancora oggi non si riesce a fornire una descrizione adeguata di tale elemento. Io sostengo, probabilmente per povertà intellettuale, che sia molto più onesto affermare che tutti i risultati matematici inerenti al campo fisico abbiano una dipendenza da una variabile reale che, per ragioni sperimentali e di coerenza, può essere chiamata tempo, ma non esiste alcuna giustificazione razionale al suo utilizzo indiscriminato5. Ad esempio, quando in matematica si tracciano diagrammi. E' interessante notare come il cervello umano abbia una discreta capacità di elaborare parallelamente più flussi d’informazioni provenienti da sorgenti diverse (multitasking) garantendo sempre alla coscienza un'evoluzione coerente e senza “salti”. Ad esempio se osserviamo un'automobile che percorre una strada e, contemporaneamente, udiamo le parole di una persona accanto a noi, riusciamo (con un certo livello di attenzione) a percepire il moto regolare della prima e la sequenzialità logica delle parole della seconda. Una posizione simile (anche se non del tutto equivalente) è assunta da Julian Barbour in “La fine del tempo – La rivoluzione fisica prossima ventura”, Einaudi. E' interessante confrontare questa opinione con quella del premio Nobel Percy Bridgman che, afferma: <>.

Per cominciare possiamo dire che misuriamo il tempo con orologi.

Il tempo della fisica è essenzialmente il tempo degli orologi, che a sua volta è il cartesiani di una funzione del tempo y = f(t) si fornisce un'immagine dell'evoluzione temporale di una grandezza (y) lasciando intendere che sia possibile assegnare qualsiasi valore t appartenente al dominio di f ottenendo così il risultato dell'operazione f(t).

E' chiaro che questo procedimento perde qualsiasi significato se applicato in campo fisico per la semplice ragione che il calcolo f(t) non potrà mai corrispondere a realtà se non quando effettivamente t assume il valore desiderato.

Secondo la visione meccanicistica di Laplace la conoscenza delle leggi e delle condizioni iniziali è sufficiente a predire il futuro, anche se egli stesso si rifugiò nel calcolo delle probabilità quando i problemi divenivano troppo complessi per essere affrontati.

(Non è necessario riferirsi a sistemi con qualche numero di Avogadro di particelle: il problema dei tre corpi è già un esempio lampante delle difficoltà risolutive che si incontrano usando un approccio deterministico. Se oltre alla soluzione del sistema di equazioni differenziali si associa la totale incapacità di conoscere le condizioni iniziali e al contorno, l'ostacolo diventa realmente insormontabile)

L'entropia è frutto di tale approccio e, in un certo senso, definisce il concetto di tempo senza riferimento alcuno alla variabile reale t.

Non ha importanza quando e come essa vari poiché ciò che è certo è che a fronte di un cambiamento DS la mente umana percepisce sempre ciò che usualmente viene definito tempo.

Di conseguenza, tenuto conto che l'obiettivo ultimo della vita è basato sull'organiz-zazione e sull'ordine nel cervello e che tale risultato scaturisce dall'acquisizione di negentropia (-DS) si può dedurre che il tempo umano non potrà mai essere rappresentato da una variabile matematica (che per la sua natura scalare non contiene alcuna informazione sulla direzione delle variazioni ed inoltre è perfettamente simmetrica) e la coscienza di esso può manifestarsi in un essere vivente solo a fronte di un cambiamento nelle sequenze percettive, le quali producono un corrispondente incremento nei collegamenti sinaptici tra neuroni e quindi aumentano direttamente la complessità della rete neurale naturale.

Kant, nell'esposizione trascendentale del concetto di tempo, afferma: "Il concetto del cangiamento, e con esso il concetto del movimento, è possibile solo mediante la rappresentazione del tempo; che se questa rappresentazione non fosse intuizione (interna) a priori, nessun concetto, quale che sia, potrebbe rendere intelligibile la possibilità d'un cangiamento, cioè dell'unione in uno e medesimo oggetto di predicati opposti contraddittori.

Solo nel tempo, ossia una dopo l'altra, possono incontrarsi insieme in una cosa due determinazioni opposte contraddittorie.

Il nostro concetto del tempo spiega dunque la possibilità di tante conoscenze sintetiche a priori, quante ce ne propone la teoria generale del moto, che non ne è poco feconda".

A questo punto mi chiedo se Kant, certamente a conoscenza del lavoro di Newton, non si sia lasciato influenzare dal fatto che in ogni equazione meccanica compaia implicitamente o esplicitamente la variabile t, senza la quale non è possibile definire alcuna legge oraria di moto e, partendo da questa constatazione, abbia decretato l'esistenza pura e a priori di un'essenza autonoma, assoluta (almeno sino all'avvento della relatività generale di Einstein) e immutabile chiamata definitivamente tempo.

Non credo che possa esistere una giustificazione accettabile di codesta realtà, nemmeno nelle sagge parole di Kant e non posso che prendere atto, insieme a Schrödinger, che la vita, indipendentemente da qualsiasi legge fisica, si nutre di significanti e di significati e che la freccia del tempo termodinamica la investe in pieno viso senza tuttavia influenzarne l'evoluzione.

Può darsi che se un giorno si arriverà alla GTU (Grande Teoria Unificata), ogni costante e ogni variabile utilizzata acquisteranno un significato preciso che la mente umana potrà comprendere ed accettare senza dover inevitabilmente lasciare dietro di sé un lungo percorso disseminato di fossi e baratri, ma sino ad allora è molto meglio non azzardare ipotesi che solo nell'astrazione della tempo delle equazioni della fisica.

Quando si chiede al fisico di definire il tempo, egli potrebbe rispondere: “Adopero la parola 'tempo' quando ho a che fare con quegli aspetti temporali di una situazione” (ndA: Non ho idea a cosa si riferisca Bridgman usando tale accezione.), “che si possono descrivere con misurazioni per mezzo di orologi.”

I numeri ottenuti con orologi, possono, com'è noto, venir trattati matematicamente allo stesso modo di qualsiasi altro numero.

Ma si deve notare che i numeri ottenuti per mezzo di operazioni con orologi non sono in grado di descrivere tutti gli aspetti dell'esperienza che il senso comune riunisce sotto il termine “temporale”.

Il tempo dell'esperienza è irreversibile e irrecuperabile: non possiamo riprodurre l'ora di ieri per riesaminarla oggi, anche se l'orologio segna la stessa ora. >> matematica pura possono trovare un'appropriata collocazione logica.

Ma allora come giustificare la sensazione di avanzamento temporale che tutti noi sperimentiamo ogni giorno?

Poco sopra ho detto, forse con troppa arroganza, che sia l'adattamento alla realtà a determinare questa particolare consapevolezza e che quindi, tornando sempre a Kant, essa nasce dall'analisi implicita di un vero e proprio giudizio analitico a posteriori e, per supportare questa tesi, ho fatto riferimento al continuo processo elaborativo che il cervello (e quindi la mente) opera.

Esso punta al raggiungimento di un'organizzazione sempre più fine ed articolata e per fare ciò “combatte” costantemente una battaglia contro l'universo, il quale al contrario corre verso l'equilibrio termico.

Esistono quindi due moti relativi, entrambi nella stessa direzione, ma con versi opposti: l'uomo viaggia su un sistema di riferimento che, senza fare arrabbiare i cosmologi, può considerarsi in moto verso il big-bang, mentre l'universo, secondo le teorie di Friedman, tende, come obiettivo ultimo, ad un probabile bigcrunch.

Lo stesso Hawking in si pone il problema del perché la freccia del tempo termodinamica coincide in direzione con quella che segna l'espansione dell'universo e afferma basandosi sul principio antropico che: "Le condizioni nella fase di contrazione non sarebbero idonee all'esistenza di esseri intelligenti in grado di porsi la domanda: perché il disordine cresce nella stessa direzione del tempo in cui si sta espandendo l'universo?", ma in realtà, anche ammettendo che la vita non si sarebbe potuta manifestare se la velocità di espansione fosse stata opposta a quella attuale (collasso), non si può non tenere in conto che l'osservazione intelligente (quale essenza della vita stessa) è frutto proprio di un'ipotetica inversione dell'asse dei tempi che mira all'ordine e non di una naturale tendenza all'aumento di entropia.

E' vero che tutte le cellule devono obbedire alle leggi della termodinamica e il loro metabolismo è perfettamente analogo al risultato conseguito dalla rete di alimentazione di un circuito elettronico, ma è anche vero che esse hanno costantemente bisogno di una sorgente quasi illimitata (non sarebbe inappropriato parlare di serbatoio) di negentropia, la quale non potrebbe aver luogo in un universo in contrazione.

In questo senso concordo pienamente con l'opinione di Hawking, ammettendo, nel frattempo, che se la freccia del tempo psicologica reale punta in verso opposto a quella termodinamica (la mia posizione), essa deve essere opposta anche a quella cosmologica e quindi, come ho detto prima, il moto del tempo legato all'acquisizione e all'elaborazione d’informazioni deve avvenire come se ci si muovesse verso il big - bang.

Naturalmente in assenza di sorgenti d’informazione il cervello perde la capacità percettiva del tempo e non è più in grado di concordare nemmeno approssi-mativamente con un orologio.

Un classico esempio di ciò è il sonno: non credo che esista persona capace di stimarne la durata, anche se il suo sistema nervoso è rimasto parzialmente attivo (specialmente nelle fasi REM).

Qualora L'economista Francesco Rizzo dell'Università di Catania, in usa sua opera di carattere epistemologico - estimativo, in un capitolo dedicato al tempo afferma: "L'indeterminismo o probabilismo è un effetto composito e complesso della combinazione dell'asimmetria e della imprevedibilità che impedisce di potere misurare e correlare con precisione matematica i fenomeni che si verificano nel corso dei processi temporali perché la conoscenza (sempre incompleta, non a causa dell'ignoranza colmabile col passare del tempo, ma a causa del passare del tempo che non lascia intatte le cose e non le rende mai assolutamente conoscibili) delle condizioni di partenza iniziali di una certa successione di fatti non permette di percepire tutti gli eventi che si verificano né ex-ante né ex-post"..

Io interpreto quest’affermazione dicendo che qualora il tempo fosse realmente un'intuizione pura a priori non ci sarebbe alcuna necessità di valutarne gli effetti poiché questi ultimi diverrebbero anch'essi talmente scontati da non suscitare alcuna reazione.

La nostra consapevolezza del mutevole è invece una conseguenza della contrapposizione tra esperienza (freccia del tempo termodinamica) e processamento cerebrale (freccia del tempo psicologica), e quindi non può che nascere solo dopo un concreto relazionamento con la natura e con le sue leggi.

Friedman, matematico e fisico russo, fu il primo ha fornire un modello dell'universo in espansione considerando tre possibili varianti: la prima prevedeva un'espansione con velocità sempre crescente, la seconda una velocità monotona, ma asinto-ticamente limitata superiormente e la terza infine contemplava la possibilità del big-crunch, in altre parole dell'inversione della direzione della velocità una volta raggiunto un punto di massimo.

Qualche tempo fa mi è capitato di riflettere sulla dinamica di un sogno nel quale mi trovavo in una strada e desideravo ardentemente accelerare il passo senza tuttavia riuscirci.
La prima cosa che mi venne in mente al risveglio fu quella di domandarmi perché mai la mia volontà non era riuscita ad assecondare il mio desiderio; dopo aver consultato – invano – alcuni testi di psicoanalisi sono arrivato alla conclusione che in assenza di percezione sensibile il cervello non è più in grado di rappresentarsi autonomamente una successione temporale.

Il sogno, che fosse sufficiente “percepire” la freccia del tempo termodinamica per farsi un'idea del susseguirsi di eventi dovrebbe anche essere possibile mantenere un contatto con l'universo anche durante le fasi di perdita parziale o totale di coscienza.

Con ciò non voglio dire che un uomo adulto, al risveglio, potrebbe dubitare di essere nel futuro rispetto al momento dell'addormentamento – egli sarà più che certo di aver trascorso un breve periodo della sua vita dormendo -, ma ciò non è una conseguen-za del suo metabolismo ma, lo ripeto, dell'abitudine a vivere in una realtà che obbedisce al secondo principio della termodinamica.

D'altronde, come fa notare Julian Barbour, il cervello è un macchina basata essenzialmente su un tipo di processamento seriale (solo in riferimento allo stesso flusso di dati) e, di conseguenza, i singoli “fotogrammi mentali” si succedono in una serie ordinata che rispecchia i movimenti naturali.

Inoltre i canali percettivi, come gli occhi, hanno un potere risolutivo temporale limitato; se, ad esempio, si mostrano ad una persona due immagini in rapida successione, esiste un limite inferiore allo scarto minimo al di sotto del quale non si è più in grado di distinguere quale delle due figure è apparsa per prima.

In codeste situazioni il cervello interpreta il risultato operando una sorta di soppressione effettiva del tempo.

Da un punto di vista fisico i due fotogrammi sono temporalmente spaziati e il processo che li rende visibili è senza dubbio in accordo con il secondo principio, ma l'apparenza (e quindi la percezione) lo viola senza alcuna remora.

Anche i neuroni impegnati nella “cattura” delle informazioni spaziali e cromatiche si nutrono di energia e producono materiali di scarto, ma il risultato non cambia in alcun modo.

E' allora possibile affermare che basta il metabolismo a giustificare la direzionalità del tempo?

Se fosse così, a prescindere dalle capacità risolutive, si dovrebbe avere sempre la certezza che un'immagine è posteriore o anteriore ad un'altra, anche senza riuscirne a carpire il messaggio trasmesso.

Inoltre in i due autori riferiscono di recenti ricerche in campo neuroscientifico che hanno svelato nuove importanti realtà funzionali del cervelletto: "Nel 1989, Richard B. Ivry e Steven W. Keele dell'Università dell'Oregon hanno notato che i pazienti che presentavano danni cerebellari non erano in grado di quantificare con precisione la durata di un particolare suono, o il tempo intercorso tra due suoni vicini".

Nello stesso articolo gli scienziati espongono il punto di vista più corretto (e moderno) riguardo a quest'organo e la sorpresa maggiore scaturisce dal fatto che tutti gli studi confermano la grande partecipazione attiva del cervelletto nell'operazioni percettive.

Secondo quanto ho precedentemente esposto, gli eventi spazio-temporali vengono finemente analizzati ed elaborati dal cervello (con l'importantissimo ausilio del cervelletto) e se questi, per ragioni patologiche non riescono a svolgere il loro lavoro correttamente, l'interpretazione delle variazioni nel dominio del tempo (ma non solo) viene fortemente penalizzata.

Ancora una volta l'attività trofica dei neuroni, giacché elementi computazionali, perde quella priorità informativa (in relazione alla percezione cosciente del tempo) che spetta solo ed esclusivamente al processamento delle informazioni in ingresso.

In virtù di quanto affermato sono altresì convinto che un neonato non abbia alcuna capacità intrinseca di valutare la differenza che sussiste tra passato e futuro e questo non perché il suo livello intellettivo è ancora troppo limitato (al massimo ciò potrebbe essere un ostacolo per la comprensione e per l'espressione verbale), ma perché la sua esperienza è minima.

Dal suo primo istante di vita extra-uterina, il bambino inizia a osservare l'evoluzione dei fenomeni, in scaturisce dall'auto-eccitazione dei neuroni rievoca immagini mentali già “assorbite” e che hanno contribuito in precedenza all'organizzazione cerebrale, tuttavia, senza informazioni reali, il cervello si limita a una sorta di “auto-osservazione” delle sue funzioni e perde ogni capacità di “vivere” il tempo in senso termodinamico.

Un'interpretazione alternativa e/o complementare può scaturire da quanto affermato nell'articolo di Jerome Siegel, “Perché dormiamo?”, Le Scienze 12/2003.

In esso l'autore afferma che recenti scoperte in campo neurofisiologico hanno mostrato che durante le fasi REM del sonno avviene la disattivazione di parecchi recettori sinaptici, in particolare quelli riguardanti i motoneuroni (eccetto che per gli occhi).

Tale condizione assicura un ri-sensibilizzazione delle strutture in modo che l'organismo mantenga un elevato livello di efficienza.

Da queste considerazioni si può concludere che il cervello non è in grado di “immaginare” incoscientemente un'attività che richiede particolari comunicazioni neurali.

Durante il sogno gli stimoli endogeni prodotti dall'eccitazione cerebrale non riescono a giungere alle destinazioni deputate all'attuazione (anche virtuale) di un determinato compito e ciò compromette del tutto la capacità di immaginare un'evoluzione temporale che richiede l'interazione (percettiva) con l'ambiente naturale.

Particolar modo quelli che lo interessano in prima persona; ad esempio egli pian piano si rende conto che la sensazione della fame esiste prima di aver succhiato il latte, subito dopo egli raggiunge un livello di appagamento soddisfacente e smette di piangere.
La sua percezione del tempo comincia a modellarsi sulla base dell'ordine naturale che esiste nella categoria degli stimoli fisiologici e, lentamente si sviluppa estendendo “l'universo conosciuto” al microcosmo che lo circonda.

Tuttavia dicendo queste cose non vorrei che la mia posizione apparisse come un'implicita tendenza allo spiritualismo; io sono del parere che la mente, ovvero l'effetto più manifesto e straordinario della vita, sia il risultato (misterioso) dell'attività cerebrale, la quale obbedisce alle medesime leggi che regolano il comportamento della materia, tuttavia a differenza di una montagna, di una stella o di un pianeta, un uomo sviluppa le sue capacità con una sorta di intenzionalità che prescinde dalle condizioni iniziali e al contorno.

Al contrario l'universo, pur essendo descritto da rigorose relazioni matematiche, non può percorrere alcuna traiettoria nello spazio-tempo se prima non vengono definite accuratamente le condizioni iniziali.

D'altronde ciò non dovrebbe stupire più di tanto perché nel calcolo infinitesimale la soluzione di un'equazione differenziale acquista unitarietà soltanto nel contesto di un cosi detto problema di Cauchy.

E' chiaro allora che l'uomo non può essere “modellato matematicamente” in questa maniera perché altrimenti si rischierebbe di pensare ad esso come un mero automa programmato per conseguire determinati scopi, cadendo inevitabilmente sotto il peso delle critiche sollevate da moltissimi filosofi (tra cui John Searle dell'Università della California) contro una visione algoritmica della mente (tesi dei Churchland); di conseguenza, se si ammette il libero arbitrio in senso lato (che distrugge ogni possibilità di pensare l'attività cerebrale come un programma per calcolatore) si deve anche ammettere che lo stesso concetto di legge (nella sua accezione più formale) perde ogni generalità in questo contesto.

Esiste quindi una risposta soddisfacente alla domanda: cos'è il tempo?

Sinceramente non lo so, ma credo che un ruolo fondamentale nella definizione di questa grandezza sia giocato proprio dall'informazione che, insieme alla massa, all'energia e alla carica elettrica, costituisce un ingrediente essenziale non soltanto per la vita, ma piuttosto per l'esistenza dell'intero universo.

Tenuto conto che nella definizione di dato informativo è implicitamente contenuto il concetto di sequenza, mi sembra abbastanza naturale associare la variabile t proprio all'esplorazione della suddetta sequenza.

In sintesi possiamo dire che gli esseri umani percepiscono l'esistenza di informazioni e, grazie all'apparato sensitivo, riescono ad “impossessarsi” di esse; nel compiere quest'operazione (anche involontaria) viene fuori spontaneamente il risultato del lavoro sequenziale/parallelo cerebrale che, fisicamente e matematicamente parlando, possiamo definire tempo.

Per coincidenze ancora del tutto ignote esiste una relazione sperimentale tra la variazione di grandezze fisiche impercettibili e il continuo in evoluzione in cui noi tutti ci troviamo a dover vivere. Forse un giorno anche questo mistero sarà svelato.

LinkWithin

Related Posts Plugin for WordPress, Blogger...