Purché sia accertato

Un vero scienziato accetta qualsiasi fenomeno, anche se inspiegato, purché sia accertato.

Giuliano Toraldo di Francia, "Errori e miti nel concetto comune di scienza", in Pensiero scientifico e pensiero filosofico, Muzzio (1993)

(hat tip al Prof. Sentimento Cuorcontento)

Questo inserimento è stato pubblicato in Scienza e dintorni, Letture e riflessioni e il tag , , . Metti un segnalibro su permalink. Inserisci un commento o lascia un trackback: Trackback URL.

223 Commenti

  1. Pubblicato il 16 aprile 2010 alle 11:39 | Permalink

    Bella citazione!
    Presupposto che concordo con quanto sostiene, come provocazione consiglio vivamente a tutti la lettura di questo articolo: http://berlicche.splinder.com/post/22553736/L'emozione ed in particolare del paragrafo che contiene la frase che riporto di seguito "La scienza ci dice, ancora oggi, che per le loro caratteristiche sono inesplicabili".

  2. Pubblicato il 16 aprile 2010 alle 11:41 | Permalink

    Link rotto a causa di un apostrofo, ecco qua quello accorciato che dovrebbe funzionare http://goo.gl/tu9v

  3. wimp
    Pubblicato il 16 aprile 2010 alle 13:23 | Permalink

    mmmh... come mai hai scritto questo post Marco? potrebbe essere un impulso inconscio di fronte a qualcosa che avete rilevato e della quale ancora non puoi/potete parlare? 🙂
    Ovviamente scherzo ma mi farebbe piacere se fosse così perché significherebbe che siamo di fronte ad una nuova grande scoperta e gli italiani sarebbero in prima linea! 😉

  4. Pubblicato il 16 aprile 2010 alle 13:37 | Permalink

    Wimp, wimp, non volare troppo con la fantasia 🙂

    Ho citato questa frase perché la trovo appropriata e densa di significato rispetto a come funziona la scienza, e in parte stimolato dalla discussione con Max negli commenti a questo post:

    http://www.borborigmi.org/2010/04/13/lhc-qa-1-quanto-idrogeno-come-si-compensa-leffetto-della-gravita/

    Niente di esotico, dunque.

  5. GIGI
    Pubblicato il 16 aprile 2010 alle 13:44 | Permalink

    Vedi come gira il mondo !
    Il nostro Stefano parte da Torino, si sposta a Ginevra, preferisce Sacramento, vola nell'ULTRAmodo e (passando dal di Francia) finisce a Firenze.
    Abbasso Voyager e Viva il CICAP !

  6. Pubblicato il 16 aprile 2010 alle 13:46 | Permalink

    Ah! Se sapessi dove altro ancora è passato Stefano, e quali misteriosi legami ci legano, rabbrividiresti. Sempre abbasso Voyager!

  7. Cla
    Pubblicato il 16 aprile 2010 alle 16:19 | Permalink

    Spero di aggiungere uno spunto di riflessione...
    in che modo uno scienziato può accertare senza spiegare? Che cosa si intende con accertare? Il verificarsi di un qualsiasi evento è un accertare?

    ciao ciao!

  8. Pubblicato il 16 aprile 2010 alle 16:54 | Permalink

    Beh, al solito: solo se l'evento, oltre ad essere osservato, è riproducibile e statisticamente significativo.

  9. Cla
    Pubblicato il 16 aprile 2010 alle 17:29 | Permalink

    Ma se è inspiegato non è detto che sia sempre riproducibile dallo scienziato... che ne pensi? ho detto una stupidaggine? 🙂

  10. GIGI
    Pubblicato il 16 aprile 2010 alle 18:05 | Permalink

    Ah, Marco, Marco!
    Io ho visto cose che voi (giovani)umani non potete nemmeno immaginare.
    Ho visto la terra -in Italia - arata da un paio di buoi e pochissimi anni dopo il lancio dello Sputnik, e ho visto i dodici anni successivi che portarono Armstrong sulla Luna, e la prima TV in mondovisione trasmessa dal satellite Telstar, e la Cometa di Halley ...E’ difficile farmi rabbrividire!
    Sempre viva il CICAP ed il tuo blog!

  11. Pinco Pollino
    Pubblicato il 17 aprile 2010 alle 01:58 | Permalink

    Mi permetto di porre all'attenzione un punto di vista diverso con cui rivolgersi al problema.
    Che i fatti "accertati" siano anche "accettati" da uno scienziato, mi sembra abbastanza pacifico.
    Il problema sorge con i cosiddetti "Sistemi a conoscenza incompleta", in cui è possibile accertare soltanto alcuni fatti e per quanto possano essere numerosi non si riesce a capire come funziona il sistema.
    L'esempio della "scatola nera" mi sembra calzante.

    C'è una scatola "nera", di cui non conosciamo il funzionamento interno, nella quale possiamo introdurre degli elementi di "input" e da cui corrispondentemente ricaviamo degli elementi di "output". Tuttavia la scatola è "nera" perché, appunto, non vediamo, né sappiamo come la macchina funziona al suo interno, per produrre, a partire da quegli elementi di input, quegli elementi di output.
    Il problema è, dalla sola conoscenza di quegli elementi di input e di output è possibile riuscire a capire come funziona la scatola al suo interno?

    In generale la risposta è: dipende!
    A volte sì, a volte no!
    O, se volete: in generale no, a parte alcuni casi particolari!

    Nel caso specifico: La scatola chiusa è la Natura o la Fisica di base.
    E la domanda è: dagli elementi a disposizione di input e di output che abbiamo a nostra conoscenza sulla Natura o sulla Fisica di Base (o Fisica delle interazioni fondamentali), riusciamo a capire come la stessa Natura funziona? La risposta allo stato attuale è: NO!

    E allora il problema che si pone è: come procedere?
    Le modalità possono essere tante, per esempio:
    a) accantonare per il momento il problema e dedicarsi ad altro in attesa di tempi migliori.
    b) costruire nuovi strumenti di elementi di input da cui ricavare nuovi elementi di output e da questo processo immaginare che si possano ricavare ulteriori informazioni utili per capire il funzionamento interno della scatola nera.
    c) immaginare e/o costruire nuove "procedure" elaborative, estremamente complesse, con cui cercare nuove relazioni, finora rimaste nascoste, tra gli elementi di input e di output, in grado di gettare nuova luce sul funzionamento interno della scatola;
    d) aspettare che passi di là un omino, magari dal tono dimesso, abbastanza anonimo, forse anche improbabile, che fornisca un modello della scatola nera che si accorda con tutti gli elementi di input e di output già noti, e ne indichi anche di nuovi, che straordinariamente si dimostrano concordare con quel modello.
    e) ...
    f) ...

    La modalità a) a volte può rivelarsi una necessità.
    Le modalità b) e c) possono anche essere molto costose, procedere all'infinito e forse anche essere improduttive.
    Verso quale modalità io personalmente propenda non è difficile immaginare. E' ovviamente la modalità d), quella dell'omino.
    Anche perché storicamente così è stato in molti casi e fra i più fondamentale: Newton, Einstein, Fermi, Giordano Bruno, Gesù Cristo, Spartaco, lo stesso Cesare, Leonida, Alessandro Magno, Socrate,...
    E Storicamente il problema è anche e soprattutto: come dare spazio a quell'omino, prima che venga completamente distrutto e il suo contributo perduto?
    Deve sottostare Lui alle nostre regole con cui fornirci la sua illustrazione del contenuto della scatola, o dobbiamo essere noi a sottostare alle sue regole?
    Deve scrivere secondo i nostri criteri, deve essere inserito nelle organizzazioni che diciamo e regoliamo noi, oppure dobbiamo essere comunque noi ad essere disponibili alle sue modalità?
    E se l'omino fosse un truffatore?
    E se l'omino fosse un benefattore?
    Per porre alcune questioni mi pare che ce ne sia abbastanza, per ora!
    🙂

  12. Pinco Pollino
    Pubblicato il 17 aprile 2010 alle 02:05 | Permalink

    Ah, dimenticavo, tra gli omini: Charlie Chaplin, Totò, Pasteur, Darwin, ...

  13. Max
    Pubblicato il 17 aprile 2010 alle 11:50 | Permalink

    @Pinco pollino : mi trovo d'accordo con te sul punto dell' atteggiamento verso chi espone un qualcosa di alternativo.
    Secondo me stiamo ricadendo nell' errore che si faceva nel medioevo, e cioè di essere troppo scettici riguardo a qualcosa che non corrisponde pienamente alle linee della scienza attuale.
    Ovviamente, non sto dicendo che bisogna bersi tutto indistintamente, di ipotesi assurde ce ne sono fin troppe in giro.... però a volte un pò più di apertura mentale non guasterebbe.
    Se poi si becca il truffatore.... beh, tanto peggio, soprattutto per il truffatore in questione. Meglio bersi una castronata in più che perdere qualcosa di valido, no ?

    Faccio un banale esempio (Marco, non inorridire ! ) ; la "solita" fusione. Da decenni si cerca di far funzionare la cosiddetta fusione calda senza risultati mirabolanti.... e ormai appare chiaro che anche se funzionasse con le tecnologie previste avrebbe costi spropositati e sarebbe tutt'altro che un' energia "pulita".
    Fleischmann e Pons hanno fatto una "sparata" troppo precipitosa, e la comunità scientifica se l'è pure bevuta in modo precipitoso, all'inizio, coi risultati che conosciamo : la cosa è caduta nel dimenticatoio e, nonostante "qualcosina" succeda, nessuno o quasi ha più proseguito su quella strada. Entrambe le cose sbagliate, a mio parere... un qualche millesimo degli investimenti destinati ai vari Tokamak potrebbero essere dirottati su qualche studio approfondito della questione, magari usando il trizio al posto del deuterio, in modo da dare una conclusione definitiva alla questione.
    Discorso analogo per il Fusor (per chi non sa cosa sia, wikipedia &c).
    Quello "funziona", nel senso che la fusione la produce eccome, ci sono un sacco di esperimenti soprattutto (ma non solo) amatoriali in giro in grado di produrre una discreta quantità di neutroni tramite il confinamento elettrostatico. Ovviamente si è ben lontani da una generazione netta di energia (siamo intorno allo 0.000001 dell' energia consumata). Il suo utilizzo pratico per ora è limitato alle sorgenti portatili di neutroni.
    Anche qui però, secondo me, si sbaglia; finanziamenti risibili, i pochi studi fatti sono su piccolissima scala con budget ridicoli, alcune proposte assai interessanti (le quali avrebbero potuto molto probabilmente dare una risposta definitiva alla questione) sono finite nel dimenticatoio principalmente xchè la via "ufficiale" è quella degli esperimenti da miliardi di euro con i Tokamak.
    Ovvio che l' esperimento "fatto nel garage di casa" ha zero possibilità di una produzione di energia netta (a meno che il garage non appartenga a Bill Gates, penso...), ma un test, ad esempio, con il fusore tipo Polywell, che ha già dato risultati interessanti su piccola scala, sarebbe auspicabile, e a costi di qualche milione di euro, non miliardi.....

    Max

  14. Fabio
    Pubblicato il 17 aprile 2010 alle 13:18 | Permalink

    @ pinco pollino
    quello che dici può anche essere condivisibile,ma hai tralasciato un punto fondamentale sul quale difficilmente si può negoziare:come tutti i giochi, anche il metodo scientifico ha le sue regole. Per la verità non sono nemmeno numerose,ma in compenso sono molto rigide.
    Ogni teoria deve necessariamente sottostare alla verifica sperimentale: se fallisce nello spiegare fenomeni già noti deve essere scartata,al di là della sua bellezza matematica o del nome di chi la propone; se invece introduce fenomeni nuovi (ad esempio su altre scale di energia) essi devono essere osservabili e soprattutto "misurabili" e "quantificabili".
    Se l'omino gioca secondo le regole sono certo che sarebbe il benvenuto in qualsiasi dipartimento di fisica teorica di qualsiasi università (dove tra l'altro è pieno di persone dimesse dall'aspetto un po' anonimo:D).
    Altrimenti uno può anche scegliere di non seguirle certe regole,per carità,ma allora "non è lo stesso campo da gioco,non è lo stesso campionato,non è nemmeno lo stesso sport" [citazione:P]

  15. wimp
    Pubblicato il 17 aprile 2010 alle 14:33 | Permalink

    @Max: se mi consenti degli esperimenti fatti "in casa" con i cosiddetti fusor ho i miei seri dubbi. Prima di tutto per i neutroni: ma siamo sicuri che davvero siano prodotti? come li rilevano il più delle volte?
    Ebbene da quello che so questi neutroni vengono rilevati indirettamente con uno strumento buono ma obsoleto come il RAM63 che è fortemente sensibile e soggetto a disturbi di diversa natura.
    Questo strumento essendo uno scintillatore è adatto soprattutto a rilevare radiazioni di tipo alfa mentre per le beta e gamma sono probabilmente più adatti i geiger/muller. La mia domanda a riguardo è:
    siamo sicuri che questo strumento sia davvero in grado di rilevare, sebbene indirettamente, con sicurezza la produzione di neutroni?
    Siamo sicuri che il tutto non sia frutto di un errato funzionamento e/o interpretazione dello strumento? dopo anni di esperimenti con il fusor le relative "presunte" emissioni neutroniche non avrebbero dovuto attivare buona parte dei materiali dei laboratori "amatoriali"?
    Se la risposta a quest'ultima domanda fosse affermativa allora questa radioattività non sarebbe dovuta essere rilevabile anche con un comune geiger da 4 soldi russo basato su geiger/muller? 🙂

  16. Max
    Pubblicato il 17 aprile 2010 alle 17:30 | Permalink

    @wimp : beh, non so che strumento usino, da quel che ho visto in giro che ne sono di diversi tipi, e non so un granchè sull' affidabilità.
    Sembra che molti utilizzino tubi al BF3 + un mezzo per moderare i neutroni, visto che questo funzia solo con quelli a bassa energia, ma non ne so molto di più.
    Sta di fatto che il fusor è stato sperimentato anche da laboratori non caserecci e funziona, tant'è che viene commercializzato come sorgente di neutroni da un produttore.
    Altra cosa da dire è che, giustamente, molti dei costruttori amatoriali NON vanno fino in fondo, nel senso che o hanno un giusto timore dei neutroni (http://www.diane-neisius.de/fusor/index.html ad esempio) o hanno una qualche difficoltà a procurarsi l' acqua pesante necessaria (e questo vale per molti in italia...)
    Tieni conto che già schermare i raggi x a 70-100 KV di potenziale non e' uno scherzo, per i neutroni ci vuole acqua, paraffina e piombo in abbinamento, se vuoi essere un po' tranquillo.
    Per la tua ultima domanda.... credo che se produci tanti neutroni da attivare significativamente parte dell' attrezzatura di laboratorio, credo sia meglio fare una corsetta al pronto soccorso, sempre che tu sia ancora in tempo 🙂

    Comunque, il punto non è se gli esperimenti "da garage" funzionino o meno, ma che, visto che il fusor FUNZIONA, nel senso che la fusione la produce eccome (e questo è un dato di fatto e riproducibile, a differenza della fusione fredda) non sia previsto nessun esperimento in scala più grande, sulla base, ad esempio, del Polywell di cui sopra che pare abbia dimostrato una notevole produzione di neutroni già in piccola scala e con differenze di potenziale intorno ai soli 20 KV.

    Ciao

    Max

  17. Pinco Pollino
    Pubblicato il 17 aprile 2010 alle 22:09 | Permalink

    Fabio, non sto parlando di "quelle" regole scientifiche.
    Ovviamente bisogna che ogni teoria deve essere sottoposta a verifica sperimentale!
    E non può essere certo la "bellezza matematica", per quanto comunque importante, a dare valore a un modello.

    Ci sono però altre regole che con la scienza hanno ben poco a che fare, ma sono comunque importanti per arrivare a un qualche risultato, o comunque, non dimostrarsi disponibile verso di loro, possono ostacolarlo.
    Per esempio, le regole di accesso, di permanenza, di complicità o di sopravvivenza nelle varie comunità scientifiche, o di ricerca o di formazione.
    Si tratta per lo più di seguire i campi di lavoro già individuati da altri, i suggerimenti indicati da altri, bisogna dimostrare ad altri di aver inteso bene quello che passa in testa a qualcun altro.
    D'altronde se non si dà questa disponibilità è facile rimanere fuori dalle informazioni utili se non indispensabili per la formulazione di nuovi modelli o teorie.
    Con che cosa si vive nel frattempo?!
    Non soltanto è difficile avere le informazioni utili per formulare una teoria delle particelle fondamentali se ci si alza alle 4 del mattino, 5 giorni alla settimana, per andare a pescare spigole in adriatico, o cozze nel tirreno, ma lo è altrettanto se si passa le proprie giornate a sviluppare programmi di gestione di Data Base in ambito economico finanziario per negozi e agenzie bancarie.
    Acquisire le informazioni sugli elementi di input e di output della scatola nera, come anche sulle teorie interpretrative finora elaborate e che si sono dimostrate inadeguate, costa tempo e fatica.
    E chi paga per quella fatica?
    Si potrebbe sempre rispondere, o paghi da solo oppure ti adatti ad inserirti nelle regole di gruppi già esistenti.
    Ma c'è anche una terza alternativa, l'omino non paga da solo, non si adatta a sottostare alle regole di relazione con cui inserirsi nelle attività di gruppi già esistenti (scrivere articoli su argomenti di interesse di qualcun altro, studiare fenomeni indicati da qualcun altro, fare concorsi, accettare sistemi di valutazione e di valorizzazione escogitati da qualcun altro, decidere di scegliere se seguire le ricerche di un dato gruppo piuttosto che di un altro, contribuire a rendere più forte un determinato gruppo piuttosto che un altro, condividere le conseguenze di scelte "politiche" di un gruppo di ricerca piuttosto che di un altro, che non c'entrano magari nulla con i propri interessi verso una certa teoria piuttosto che un'altra) e si dedica a qualcosa d'altra, con cui tentare di sopravvivere.
    E l'Umanità rimane senza la teoria che era in grado di spiegare tutti gli elementi di input e di output, perché l'omino capace di elaborarla non che non fosse disponibile a sottoporre le proprie teorie al riscontro sperimentale, ma perché non aveva nessuna voglia di mettersi a disposizione di quanto di arbitrario passava per la testa di qualcun altro e ha preferito mandare tutti a fare una passeggiata.
    Certo non è dimostrato che quell'omino esista e fosse capace di tanto.
    Ma non è neppure dimostrato che questi scienziati attuali siano i migliori in senso assoluto e ci si debba mettere a loro disposizione comunque, anche soltanto per sopravvivere. Anzi, visto come siamo messi, magari c'è da avere qualche dubbio!

  18. Pubblicato il 18 aprile 2010 alle 20:26 | Permalink

    @Cla: se non è riproducibile allora c'è un problema. Si tratta di una fluttuazione, di una svista, di una presa in giro, di un'allucinazione? La riproducibilità sta alla base di qualunque indagine (che è anche la ragione, divagando un po', per cui in ambiti in cui riprodurre in casa non è possibile - come per esempio nel caso di LHC - metti sempre almeno sue gruppi diversi a sperimentare indipendentemente le stesse cose con strumenti differenti).

  19. GIGI
    Pubblicato il 18 aprile 2010 alle 21:54 | Permalink

    Ciao Marco, così passi la domenica a seguire il tuo blog? Depravato!
    Di tutte le cose da far rabbrividire che ho visto nella mia vita queste due sono le più stupefacenti.
    1- Oggi è la più banale: questo blog e quello che lo permette. Alla fine dei '60 e nei '70 il Club di Roma (ho letto anche il libro di fantascienza di Roberto Vacca) vaticinava il collasso della organizzazione delle informazioni, poi è arrivato il digitale, e ora siamo qui. Inimmaginabile!
    2- Da sempre la cosa più stupefacente dell' Universo o dei Multiversi (se ci credi) è la mente umana. In questo senso anche il tuo blog, con tutti i commenti che vi giungono, è meraviglioso. Hai notato come si scatena la verve di chi ti segue appena tralasci fatti e cifre e apri uno spiraglio alla "metafisica"?

  20. GIGI
    Pubblicato il 18 aprile 2010 alle 22:08 | Permalink

    BIS
    C'è un altro mistero da brividi, che forse mi puoi spiegare.
    In http://www.gravita-zero.org/2010/04/blogs-scientifici-e-divulgazione.html ci sono 2 video di Tommaso Dorigo.
    Da quello che ho capito sono stati girati a un paio d'anni di distanza e questo spiega perchè sembrino due persone diverse.
    Inoltre io soffro di una leggera forma di prosopoagnosia (cioè faccio fatica a riconoscere le persone) e quindi posso accettare che si tratti della stessa persone e non di due diverse.
    Ma come è possibile che ci sia sul tavolo lo stesso laptop e alle spalle la lavagnetta di sughero con i post-it nella stessa posizione?
    Spiegamelo se puoi, perchè temo sempre che sia uno scherzo di quel medico tedesco che mi sta sempre dietro... come si chiama pure? Al... Alz...Alzhei... boh. non mi viene.

    Dai un bacio alla tua bimba.

  21. Pubblicato il 19 aprile 2010 alle 08:49 | Permalink

    @Gigi: Tranquillo, prosopoagnosia o meno, si tratta della stessa persona. Forse Tommaso non usa spesso la bacheca 🙂 però i libri sullo scaffale sono cambiati. In ogni caso, io preferisco la versione con la barba lunga e la maglietta ;-P

  22. wimp
    Pubblicato il 19 aprile 2010 alle 13:46 | Permalink

    @gigi: riguardo alla frase su voyager e cicap devo dire e senza provare un briciolo di vergogna che spesso guardo voyager così come ancora più spesso seguo il cicap ed ebbene si ehm.. do uno sguardo anche ad alcuni siti millenaristi per curiosità. Avendo una mentalità scientifica tutto quello che viene letto viene filtrato allo scopo di formare una mia idea o opinione precisa. Il "meccanismo mentale" di questo mio "filtro" principalmente si basa proprio sull'ottima frase citata da Marco in questo topic o almeno in un principio molto simile visto che non ne ero a conoscenza prima. 🙂 IMHO ciò che rende poco scientifica una trasmissione o una qualsiasi associazione che vuole smentire o avvalora determinati fenomeni è proprio l'attenersi o meno a questo "filtro". Ora se mi consentite (premetto che non voglio offendere nessuno e se qualcuno dovesse sentirsi offeso me ne scuso in anticipo) non di rado il cicap al pari di siti e trasmissioni millenaristiche per avvalorare o smentire le proprie tesi ha calpestato questa chiamiamola regola fondamentale.
    Cito solo un esempio perché altrimenti dovrei dilungarmi troppo e occupare in modo improprio gran parte dello spazio messo a disposizione da Marco. Il miracolo di San Gennaro: un ricercatore del cicap ha scritto molto riguardo questo fenomeno senza a mio parere dimostrare nulla alla pari di molte trasmissioni di voyager.
    OK questo tipo di fenomeno si può spiegare con le proprietà dei cosiddetti sistemi tissotropici ma prima di giungere in modo serio ad una simile conclusione a mio modesto parere occorrerebbe:
    1) dimostrare con prove valide che possa essere creata una sostanza tissotropica capace di rimanere attiva per centinaia di anni.
    2) dimostrare con altrettante prove valide che questa sostanza in anni particolari non passa allo stato liquido nemmeno agitandola violentemente.
    In assenza di questo qualsiasi asserzione va contro il principio che da il titolo a questo topic e la differenza tra cicap e voyager rischia di sfuggirmi...

  23. GIGI
    Pubblicato il 19 aprile 2010 alle 18:08 | Permalink

    @wimp e @tutti. In gioventù ho letto le quartine di Nostradamus e i libri di Peter Colosimo, ora non ho più tempo da perdere e quasi non guardo più nemmeno SuperQuark, che con quel nome fa vedere solo documentari su animali e sugli alimenti. Non c'è più la divulgazione di una volta, non ci sono più le mezze stagioni !
    Per quanto riguarda il CICAP (sempre viva !), lascerei perdere la religione.
    Date a Cesare quel che è di Cesare ecc. ecc. . Sindone, San Gennaro, apparizioni varie non interessano la scienza. Chi ci vuol credere, ci creda; la fede aiuta chi ne ha bisogno.
    Poi c'è una cosa che mi diverte: gli scienziati che non vogliono credere e lasciar credere al soprannaturale ci spiegano che i fotoni sono paticelle che si comportano da onde e viceversa, poi ci raccontano del gatto di Schroedinger e l'entanglement, e via così. Non saranno loro in ritardo di un secolo ? Adesso basta "metafisica", Marco dacci il nostro pane quotidiano: esperimenti riproducibili e teorie verificabili.

  24. Xisy
    Pubblicato il 20 aprile 2010 alle 02:16 | Permalink

    Due osservazioni.

    1) La citazione... non mi piace molto: è quasi tautologica. Un fenomeno viene "accertato" con modalità e metodi interni della scienza, cioè condivisi dalla comunità degli scienziati. Per cui il fatto che un vero scienziato accetti i fenomeni accertati è solo un modo di ribadire la comune pratica scientifica.

    2) La riproducibilità è un elemento importantissimo, ma non indispensabile della ricerca scientifica. Esiste una vasta classe di fenomeni non riproducibili in maniera controllata -o semplicemente non riproducibili e basta- che però non ci impedisce di portare avanti l'indagine scientifica, anche su di essi.

  25. Pubblicato il 20 aprile 2010 alle 09:00 | Permalink

    @Xisy: rispetto alla tua prima osservazione, secondo me dai molto per scontato (ed è magari anche normale), ma non dimenticare che ci sono molti ambiti - anche (quasi) scientifici, come la medicina - in cui "modalità e metodi interni della scienza" vengono presi con una certa leggerezza, e per cui dunque non fa male ricordare i fondamentali. Per non parlare poi dei ricercatori della domenica o i complottisti. Riguardo al secondo punto, di nuovo hai ragione ma stai veramente andando a cercare il pelo nell'uovo: la "vasta classe di fenomeni non riproducibili in maniera controllata" in fondo non è così vasta, e sicuramente non comprende le cosette che ogni tanto saltano fuori nei commenti di questo blog (e.g. reattori nucleari in giardino, o cure miracolose con acqua e zucchero).

  26. wimp
    Pubblicato il 20 aprile 2010 alle 12:20 | Permalink

    @Marco: a proposito di reattori in giardino non hai idea delle cose che vengono fuori lurkando nei forum di appassionati del settore... dai fusor ai laboratori nel sottoscala per la fusione a freddo (di cui ho sempre avuto diversi dubbi ma vabbè) a collezioni di materiali radioattivi tenuti magari in camere dove si dorme !
    Io appartengo alla sponda contraria e cioè di quelli che della radioattività hanno quasi una fobia e per questo spesso mi assicuro che a casa non entrino cose potenzialmente pericolose come vecchie sveglie, bussole ecc. e cerco di arieggiare spesso le stanze anche in inverno per evitare eventuali accumuli di radon... qualcuno dice che sono esagerato e forse ha ragione però mi interesserebbe conoscere il parere di voi scienziati. Non pensate anche voi che la gente andrebbe informata con opportune campagne sui rischi che si corrono "giocherellando" troppo con certi minerali o oggetti che in passato venivano trattati con radon o uranio (es. lancette, ceramiche ecc.) ?

  27. wimp
    Pubblicato il 20 aprile 2010 alle 12:23 | Permalink

    errata corrige nell'ultima frase: era ovviamente radio e uranio non radon e uranio sorry 🙂

  28. Max
    Pubblicato il 20 aprile 2010 alle 16:58 | Permalink

    @Marco e Wimp : sul fusor, se ti riferivi a quello, esiste un' ottima (e documentata) serie di esperimenti positivi, e cmq ben controllati (e controllabili) anche in laboratorio.
    Il che non vuol ovviamente dire che si è arrivati ad ottenere una fusione con bilancio positivo di energia, ma solo una fusione con produsione di neutroni.
    Tra parentesi, parlando di bilancio energetico, il fusor esce con circa un milionesimo di watt per un centinaio di watt di input, la fusione a confinamento magnetico sempre intorno al milionesimo di watt, ma con un qualche megawatt in input, quindi allo stato attuale il bilancio mi sembra a favore del fusor 🙂

    @Wimp : sul Radon secondo me hai molta piu' ragione che sul pericolo del fusor. Il Radon e' radioattivo e si accumula, specie ai piani bassi e con certi materiali da costruzione, quindi hai un' esposizione continua che alla lunga e' pericolosa anche se la radiazione e' bassa.
    Con il fusor.... depende. Dipende da quanti neutroni e da quanti raggi x fai (e quindi dalla tensione di lavoro).
    Se fai l' esperimento con un fusor in acciaio, ti fermi a 20 KV, usi aria al posto del deuterio, hai un bell' effetto ottico con rischi zero (e nessuna fusione...). Se gia' usi il vetro e superi di poco i 25000 volt, ti fai un bagnetto di raggi X che e' poco piacevole alla lunga. Se poi superi i 50'000 volt, il bagnetto a raggi x te lo fai anche se il contenitore e' d' acciaio, se non lo schermi con piombo.
    Se poi ci metti il deuterio, fai le cose per benino, e viaggi sui 50-100 KV, oltre allo schermo in piombo ci devi mettere acqua, paraffina e, ancora meglio, cemento speciale, altrimenti ti fai pure una bella dose di neutroni che bene non fanno.....

    Tra parentesi, ci sono tanti luoghi comuni sbagliati sui materiali radioattivi e i loro effetti : c'e' chi crede che l' acqua pesante sia radioattiva, che il plutonio e l' uranio ti uccidano solo a guardarlo, ecc ecc... L' acqua pesante la puoi bere tranquillamente, finchè nel tuo corpo non raggiunge il 50% (e ce ne vuole tanta...), poi muori per problemi cellulari. Ma vuol dire bersene qualche ettolitro e con quel che costa la vado dura 🙂
    Il plutonio e' tossico perche' si lega alle cellule, se imbustato in plastica lo puoi anche prendere in mano che per breve tempo non fa nulla, idem per l' uranio. Altri materiali più attivi sono pericolosi anche per breve esposizione.

    Ciao

    Max

  29. Max
    Pubblicato il 20 aprile 2010 alle 17:09 | Permalink

    p.s. : ci sono in corso ricerche nelle quali un po' di D2O in sostituzione all' H2O nella dieta quotidiana allunghi la vita causa diminuzione di efficienza dei meccanismi cellulari ossidativi... 🙂
    Testato, pare, su insetti e piccoli animali.

    Ciao

    Max

  30. wimp
    Pubblicato il 20 aprile 2010 alle 18:13 | Permalink

    @max: quando ho scritto di "avere dubbi" più che al fusor mi riferivo ad altri esperimenti casalinghi che riguardano la cosiddetta fusione fredda: lurkando nei forum del settore l'idea che mi sono fatto è che spesso si interpretano male i dati forniti da strumentazione non adatta allo scopo.
    Per quanto riguarda la radioattività come ha anche scritto Marco da qualche parte si sa che i professionisti si attengono a determinate procedure che tengono conto del tempo massimo di esposizione per limitare (in questo campo io non userei la parola azzerare) i rischi ma io mi riferivo a quelli che Marco ha definito ricercatori della domenica che a volte potrebbero essere ragazzi che non sono bene consapevoli dei rischi che si corrono anche a lungo termine giocando con la radioattività o tenendo ad esempio nella loro stanza (dove dormono) bacheche con minerali da collezione tipo autunite e altri.
    In questo senso una breve campagna informativa nei TG, in spot o in documentari non farebbe male e sarebbe secondo me più utile di molti programmi pseudoscientifici e millenaristi attuali... 😉

  31. Cla
    Pubblicato il 20 aprile 2010 alle 19:42 | Permalink

    @Max
    non per essere indiscreta... ma che lavoro fai??? giri abitualmente con plutonio e uranio in buste di plastica??? 🙂

    ciao, buona serata

  32. Max
    Pubblicato il 20 aprile 2010 alle 21:46 | Permalink

    @Cla : no, uso esclusivamente buste in carta riciclata 🙂

  33. Max
    Pubblicato il 21 aprile 2010 alle 11:18 | Permalink

    @wimp : beh, la fusione fredda purtroppo ha scatenato un cancan inenarrabile con i risultati che si conoscono.... Tra l' altro, dal poco che ne so, doveva essere abbastanza ovvio che l' energia dichiarata da Fleischmanne Pons era esagerata, altrimenti non sarebbero sopravvissuti per raccontarla causa bombardamento di neutroni 🙂
    Certo, qualche reazione stramba è sempre possibile, ma quello avrebbe dovuto essere un buon campanello d' allarme anche x le riviste autorevoli che han pubblicato senza controllare (questo tornando al discorso di ripetibilità ecc ecc).
    Siccome la reazione D-D ha 2 percorsi possibili, ognuno (se non ricordo male) con circa il 50% di probabilità, dei quali uno genera un neutrone ad alta energia, la produzione dichiarata di cui sopra avrebbe sparato neutroni sufficienti a sterminare un' allevamento bovino.

    Il fusor è un' altra faccenda, la generazione di neutroni è reale, le potenze prodotte sono (per ora) microscopiche, appunto sul milliwatt per un centinaio di watt in input. Il polywell poi sembra molto promettente e qualcuno afferma che basterebbe un' aggeggio sui 2 m di diametro per produrre più energia di quella consumata. Peccato che nessuno abbia ancora investito in proposito, e servirebbe poco. Ovviamente non alla portata dell' hobbista, a meno che non abbia vinto al superenalotto.
    Per contro, gli esperimenti più finanziati in proposito sono il Tokamak (e analoghi) che pero' da anni non decollano, la fusione inerziale con i laser (idem come sopra), un qualcosa con i raggi x generati da impulsi immensi di corrente in un conduttore che vaporizza (Z machine, sembra estremamente macchinosa).

    Tornando alla fusione in generale, cmq, altro mito da sfatare : l' energia prodotta e' tutt' altro che pulita. Economica, probabilmente, una volta risolti i problemi tecnici, ma pulita no, probabilmente meno pulita del nucleare tradizionale. Questo perche' l' enorme quantità di neutroni prodotti attiverebbero qualsiasi materiale nel loro percorso, generando una bella gamma di elementi radioattivi.
    Salvo, ovviamente, che si riesca a far fondere nuclei diversi che non hanno quell' effetto collaterale, ma qui siamo lontani anni luce credo.

    Ciao

    Max

  34. Pinco Pollino
    Pubblicato il 21 aprile 2010 alle 13:55 | Permalink

    Si prenda il dott Feynman per esempio, uno dei padri nobili della fisica della particelle e delle interazioni fondamentali, premio Nobel nel 1965.
    Dopo il primo disastro dello shuttle Challenger nel 1986, fece parte della commissione di indagine come esperto scienziato.
    Le sue osservazioni sulla affidabilità dello shuttle nulla riportano sui difetti fondamentali di architettura dello stesso shuttle che portarono alla successiva sciagura del Columbia nel 2003, l'ulteriore perdita di altri 7 astronauti e la definitiva messa a terra dello shuttle entro il 2010. Difetti di architettura riconducibili in sintesi a:
    1) affiancamento dell'orbiter al serbatoio principale di Idrogeno e Ossigeno in fase di decollo con conseguente rischio di disastro in caso di esplosione (come avvenne nel caso del Challenger);
    2) perdita di detriti di ghiaccio dal serbatoio raffreddato a temperature a oltre -150 °C al momento del decollo tali da danneggiare potenzialmente l'orbiter (come nel caso del Columbia), perdita come del tutto evidente dai precedenti lanci Apollo-Saturno)
    3) mancanza di un sistema indipendente di fuga-sicurezza dell'abitacolo degli astronauti in caso di incidente.
    Tra i difetti dello shuttle si potrebbero mettere inoltre quello di aver limitato l'attività spaziale umana all'orbita bassa terrestre per oltre 50 anni (dal 1970 al 2020, data prevista per i futuri lanciatori pesanti).
    Mi ricordo di un omino, allora giocane ingegnere, certamente molto meno quotato e ascoltato e con la possibilità di farsi ascoltare di Feynman che mi predisse l'evidenza di disastri, proprio a causa di tale architettura, al momento del primo lancio del Columbia nel 1981.
    Feynman era ritenuto un grande scienziato e poteva parlare e farsi ascoltare, anche se non ci capiva alcunché in ambito aerospaziale, e come conseguenza ci furono i disastri sopra ricordati.
    L'omino non poteva parlare e non poté farsi ascoltare... e come conseguenza ci furono quei disastri!

    Forse Feynman doveva mostrare collusione, omertà e connivenza con i progetti della tecnologia spaziale, per supportare un settore di punta come poteva esserlo il suo ambiente di Fisica delle particelle. Non poteva certo dire che tutto il progetto shuttle era sbagliato!
    Preferì fare qualche osservazione abbastanza "alla cavolo", senza infamia e senza gloria, per continuare ad avvalorare i progetti degli altri e... i propri.
    Centinaia di miliardi si sono spesi per i voli shuttle e la Stazione Spaziale Internazionale, ideata per essere servita dallo Shuttle.
    Quest'anno la Stazione verrà completata e lo shuttle verrà messo a terra.
    Come il progetto Stazione Spaziale possa continuare in tali condizioni è un bell'enigma.
    Sempre l'omino prevede che la Stazione Spaziale non andrà molto lontano, anche con i voli di servizio di russi, europei, giapponesi ed eventualmente di privati americani (attuale politica NASA).

    Ma non è questo il problema.
    Il problema è quello di persone "forse" espertissime nel proprio campo, che prestano tuttavia la propria autorevolezza in campi dove "ci capiscono ben poco", e si spendono più per collusione e omertà che per reale capacità di comprendere.
    Anche questi sono fatti "accertati", che dovrebbero essere "accettati".

    E poi c'è il discorso dell'intuizione.
    Prima di fare delle misure, o avere il conforto delle misure, bisogna "intuire" o se si vuole "pensare" come effettuare le misure e che cosa si vuol misurare. E questa intuizione è una questione di capacità personali. Alcuni ci prendono, e sono confortati dai fatti, altri... non ci prendono affatto, e le misure ne danno conto.

    Sempre l'omino che conosco, per esempio, senza che le misure siano state ancora effettuate, prevede, o intuisce, che se il vulcano in Islanda continua ad eruttare, e i voli aerei sull'Europa riprenderanno sulla base delle pressioni di compagnie aeree, passeggeri e operatori economici vari, magari i primi cento voli non avranno problemi, magari i primi mille voli andranno senza problemi, ma a forza di 15000 voli al giorno sull'Europa, qualche aereo prima o poi qualche problema ce l'avrà e forse anche grave.
    A quel punto, se proprio le persone non vogliono capire, toccherà ai misuratori dare i numeri!

    Chi vuol capire capisce, chi non vuol capire....
    😐

  35. Fabio
    Pubblicato il 21 aprile 2010 alle 18:06 | Permalink

    @pollino
    "It would appear that [..] the management of NASA exaggerates the reliability of its product, to the point of fantasy."
    "One reason (of that) may be an attempt to assure the government of NASA perfection and success in order to ensure the supply of funds.."
    "the NASA management's space shuttle reliability estimate was fantastically UNREALISTIC"
    e infine la citatissima:
    "For a successful technology, reality must take precedence over public relations, for nature cannot be fooled."
    [R.P.Feynman]

    alla faccia di quello che "doveva mostrare collusione, omertà e connivenza con i progetti della tecnologia spaziale" 😀

  36. Max
    Pubblicato il 21 aprile 2010 alle 20:11 | Permalink

    @Pinco Pollino : daccordo su molti punti, ma....

    1) Guerra fredda + corsa al nucleare. Risultato, miliardi buttati alle ortiche (per essere educato) e tonnellate di Plutonio con cui non si sa che fare.
    2) Scudo spaziale, idem, salvo le tonnellati di cui sopra
    3) Guerra in iraq, sorvoliamo
    4) Abbandono Italiano del nucleare, salvo poi scoprire dopo decenni di aver fatto una ca@@ata, ritrovarsi con una tecnologia obsoleta e per di più con anche delle scorie da smaltire (sigh...)
    5) SSC (http://it.wikipedia.org/wiki/Superconducting_Super_Collider) miliardi buttati in progetti e acquisto/esproprio terreni e scavi, per poi abbandonarlo
    6) Ponte di Messina, con quel che han speso in progetti probabilmente l' avrebbero costruito.

    Non continuo per decenza.... tutto questo per dire che i soldini da destinare a qualche ricerca non proprio "in linea" con l' ufficiale ci sarebbero, anzi, ne avanzerebbero. Ce ne sarebbero anche x l' omino di cui parli, magari per dimostrargli senza ombra di dubbio che non ci capisce nulla o, se si è fortunati, per scoprire che è un genio. E invece si buttano nel wc in cose di cui si sa in partenza che non serviranno a nulla. mah...
    Un esempietto italiano : abbiamo un Nobel, Rubbia, che ha "ideato" il Rubbiatron (http://it.wikipedia.org/wiki/Rubbiatron). Interessante idea, magari non funzia ma, visto che ormai la corsa al nucleare l' abbiamo persa perche' siamo inciampati allo start (grazie, Bettino....) invece di elemosinare tecnologia e tecnici dall' estero potremmo anche tentare una nuova via, no ? No, regaliamo 6 miliardi di Euro all' Alitalia (il costo di un LHC, per inteso), poi ne diamo almeno altrettanti a Paesi per comperare tecnologia, centrali, tecnici e per finire uranio. Mah...
    E dire che è storicamente dimostrato che investire in tecnologia premia....

    Max

  37. Xisy
    Pubblicato il 21 aprile 2010 alle 22:06 | Permalink

    ma figurati... uno brillante come Feynman!

  38. Pinco Pollino
    Pubblicato il 22 aprile 2010 alle 00:55 | Permalink

    Ad ogni modo... Feynman si sofferma a parlare di dettagli come i motori a propellente solido e a propellente liquido (quisquilie, pinzellacchere), ma della "montagna" dell'architettura complessiva del veicolo non ne parla, e che l'architettura dello shuttle fosse una "cag..." e che un tale progetto, per come concepito, non dovesse neanche partire, ci sono voluti gli anni 2000 e il disastro del Columbia per dimostrarlo e mettere lo shuttle definitivamente a terra.

    E comunque, più che di tanti omini dimessi, dall'aspetto un po' anonimo, che girano nelle università e nei centri di ricerca, credo che sarebbe meglio parlare di tanti "omuncoli", intenti soprattutto a pigliare soldi, sempre e comunqnue, tutti i mesi, per il resto della propria vita, piuttosto che di persone intente a far avanzare la cultura umana, anche a rischio di mettere in discussione la propria carriera!
    😐

  39. wimp
    Pubblicato il 22 aprile 2010 alle 01:37 | Permalink

    Che lo shuttle avesse dei possibili difetti è poco ma sicuro ma non dimentichiamoci che il primo incidente mortale è avvenuto non alla missione di inaugurazione ma dopo centinaia di missioni delle diverse navette. Questo gli da una affidabilità sicuro inaccettabile perché è sempre inammissibile perdere vite umane in questo modo ma proviamo a pensare quanto fosse affidabile rispetto ai vettori precedenti. Solo oggi si sta scoprendo quante missioni dell'ex unione sovietica sono finite tragicamente per non parlare poi del fatto che se le missioni lunari non hanno provocato catastrofi è solo grazie alla fortuna e alla bravura degli astronauti di allora (es. apollo 13) che avevano a bordo per i calcoli un elaboratore equivalente ad un vecchio commodore 64 (chi lo ricorda? 🙂 ). Se nelle missioni spaziali "estreme" di oggi si parla poco di catastrofi è perché fortunatamente non sono ancora previsti equipaggi umani visto che sono tante le costosissime missioni sulla luna (satelliti) e su marte (satelliti e robot) che sono finite male e di cui ci si è dimenticati subito. Basta citare la missione europea che doveva inviare dei robot su Marte simili agli americani spirit ed opportunity che non ha avuto successo e i numerosi satelliti che sono andati perduti prima del tempo previsto. La verità è che la tecnologia soprattutto quando è spinta all'estremo non può essere mai subito affidabile al 100% : se tutti i prototipi grazie ai geniali progettisti fossero sistematicamente perfetti dall'inizio i collaudatori sarebbero disoccupati da un pezzo... 🙂

  40. Max
    Pubblicato il 22 aprile 2010 alle 13:06 | Permalink

    Mah.... per me l' affidabilità dello shuttle non era poi così male, tenendo conto dello scopo a cui era destinato.
    Una cosa è un' automobile destinata a essere venduta e usata da milioni di persone (la yaris con i suoi difettucoli recenti è un bell' esempio di scarsa affidabilità), un' altra cosa è un mezzo che è il prototipo di se stesso. Non so la media degli incidenti aerei in percentuale, ma lo shuttle tenendo conto del numero di missioni e della peculiarità del mezzo non lo definirei inaffidabile..... Una percentuale di disgrazie è da mettere in conto in ogni mezzo. Poi, l' 1 per mille può capitare tra i primi voli o magari dopo 2000 voli, e non è che se capita tra i primi il mezzo sia per forza inaffidabile.

    Max

  41. Pinco Pollino
    Pubblicato il 22 aprile 2010 alle 17:43 | Permalink

    Per essere un po' più precisi, la missione del Challenger era la 25-esima del programma shuttle e la numero 10 per lo stesso veicolo.
    Quella del Columbia era la numero 113 di tutto il programma e la numero 28 del Columbia.
    Ad oggi le missioni sono state 131, il che vuol dire una media di un incidente disastroso ogni 65 voli!!!
    (http://it.wikipedia.org/wiki/Lista_delle_missioni_dello_Space_Shuttle)

    Gli attuali voli, sono abilitati solo dopo complicatissime procedure di controllo dello scudo termico una volta in orbita, perché l'eventualità che possa essere danneggiato in maniera definitiva al decollo è data come certa, e l'abbandono al suo destino dopo ricovero dell'equipaggio sulla stazione spaziale e partenza di una missione di recupero è eventualità prevista "normalmente".
    Lo shuttle è stato messo a terra dal 2010 per necessità di bachi nella sua architettura, non ne sono stati sviluppati altri diversamente congegnati, con computer più moderni o diverse soluzioni.
    Il concetto di veicolo o parti importanti riutilizzabili si è dimostrato non praticabile (a parte forse solo le future cabine degli astronauti).
    Le prestazioni sono di gran lunga inferiori alle aspettative, i tempi di approntamento troppo elevati, e così i costi, a causa dei controlli troppo elevati dopo ogni missione.
    Si è detto basta, NON FUNZIONA!
    Si deve tornare alle architetture classiche con cabina in punta, diversi stadi che si susseguono lungo l'asse del veicolo e vengono di volta in volta abbandonati a perdere.
    E questo purtroppo il grande premio Nobel Feynman non lo disse!
    😐

  42. Francesco
    Pubblicato il 22 aprile 2010 alle 21:07 | Permalink

    Marcoooooooooo..................ma dove sei finito?? Immagino che ti stiano facendo un mazzo così, con tutte quelle collisioni da registrare e controllare sarai sicuramente stressato, ma non dimenticare che qui c'è un sacco di gente che pende dalle tue labbra, abbiamo pazienza, ma mica troppa ne? Scherzo naturalmente, se atlas ti tiene così impegnato vuol dire che qualcosa bolle in pentola, ci dai qualche dritta in anteprima?? Buon lavoro a presto
    Francesco

  43. Pinco Pollino
    Pubblicato il 23 aprile 2010 alle 11:22 | Permalink

    Per tornare ad ogni modo, al tema della "Fisica delle Interazioni Fondamentali", tema che è maggiormente attinente a questo blog, e per non essere accusato di fare osservazioni "off topic", mi sono interessato a chiedere presso un certo omino, quale fosse la sua opinione al riguardo.

    L'omino che conosco è del parere che, lo sviluppo degli attuali acceleratori sia un po' qualcosa di paragonabile ad una rilevazione per via sperimentale del noto paradosso di Zenone, vale a dire quel paradosso (in quel caso ideale) per cui nella corsa tra Achille e una tartaruga, partita con qualche metro di vantaggio, Achille non raggiunge mai la tartaruga, perché si troverà sempre (!?) nella condizione di dover fare "ancora" la metà del percorso rimanente che lo separa dalla tartaruga stessa.

    Allo stesso modo, dice l'omino, si sono cominciati a fare, qualche anno fa, i primi acceleratori con cui, con energie di qualche MeV o centinaia di MeV, si riusciva a simulare le condizioni esistenti sulla superficie del sole o al suo interno, poi si è passati ai GeV e si sono simulate le condizioni esistenti al centro delle galassie, poi si è passati ai TeV con cui si sono simulate o si simulano le condizioni esistenti nei primi centomila anni (o giù di lì) dell'Universo.

    Per quanto grandi si potranno costruire acceleratori di particelle con cui simulare quel che avvenne nei primi anni, o giorni, o secondi o miliardesimi di secondo dal Big Bang, l'omino è dell'opinione che, di questo passo, non si riuscirà mai a rispondere alla questione di fondo "Che cos'è o che cosa è stato il Big Bang?", vale a dire il momento in cui Achille "raggiunge", "per dati di fatto" e non "per processo logico", la tartaruga.

    E per rispondere alla domanda "Che cos'è o che cosa è stato il Big Bang?" non servono gli acceleratori, ma serve la capacità di capire, vale a dire l'intelligenza di persone capaci.

    E' un po' il paradosso dei rilievi sperimentali. Se non si ha la capacità di "capire" le misure, le stesse possono anche portare a ben poco.

    L'omino che conosco, ha una qualche idea su questo punto, ma dice di aver bisogno di approfondirla e di doverci spendere sù tempo e risorse, e se non viene pagato per questo, col cavolo che si esprime oltre. Soprattutto, di fronte alla obiezione che verrà sicuramente posta "Eh, ma mancano i rilievi sperimentali!", lui dice, "Beh, pagatemi per pensare su come ideare i rilievi sperimentali, e poi ne parliamo!"

    Io riporto soltanto le chiacchiere dell'omino, e, ...come è noto, "Ambasciator non porta pena!"

    🙂

    Nota - Ah, dimenticavo, l'omino è anche un po' avanti negli anni, e a volte dimentica in fretta quello che può essergli passato per la
    testa. Quindi bisogna cogliere al balzo e in fretta quel che può aver pensato!

    🙂

  44. wimp
    Pubblicato il 23 aprile 2010 alle 13:17 | Permalink

    Su cosa è o cosa è stato il big ban ho da sempre da quando ero un ragazzetto alla scuola media una mia teoria che le nuove scoperte sui buchi neri sembrano confermare: proviamo a pensare ad un formicaio allagato da un idrante e alle formiche che studiano il fenomeno. Qualcuna penserà come è possibile che dal nulla (nel loro sistema di riferimento il tubo era vuoto un attimo prima che apparisse l'acqua) è venuto fuori tutta l'acqua che ha sommerso il loro mondo in un tempo brevissimo ma qualcun altra penserà "non credo proprio che tutto si sia generato dal nulla... ci deve essere un'altra spiegazione... probabilmente quel foro vuoto dal quale è venuta fuori l'acqua è collegato a qualcosa che noi non vediamo e nel quale c'è la sorgente della materia che inonda il nostro habitat!". Tornando al big ban come si potrebbe spiegare ai nostri giorni secondo me? "buco bianco" = cavità che inonda il formicaio + wormhole = tubo dell'idrante + buco nero = cavità del tubo collegata alla fontana sorgente ! 🙂

  45. Fabio
    Pubblicato il 23 aprile 2010 alle 18:36 | Permalink

    mi sorge un dubbio..
    ma non è che l'omino è uno di quelli che dicono sempre che tutto va male,e che di questo passo non si andrà da nessuna parte,e che siamo in ogni caso destinati al fallimento?
    Insomma,uno di quelli che quando poi qualcosa va male per davvero (e statisticamente succede sempre),sorride e dice: "ah..ma io l'avevo detto neh!"

    😀

  46. GIGI
    Pubblicato il 23 aprile 2010 alle 23:10 | Permalink

    Marco, è già sabato. Ti prego, nel week end scrivi qualcosa di nuovo, così cambiamo argomento... 🙂

  47. Pinco Pollino
    Pubblicato il 24 aprile 2010 alle 00:18 | Permalink

    No! L'omino è uno di quelli che, con grande sacrificio e disponibilità e fatica, si spende per fare proposte valide, e vede altri che, senza che se ne capisca bene il motivo, cominciano a gettargli merda addosso. "Ma come", fa l'omino, "io mi impegno per cercare di fare qualcosa che funzioni, che sia utile per tutti, e questi qua mi fanno affogare nella merda, non per motivi validi, se non per ragioni di combutta, comunella mafiosa tra di loro, piccati solo dal fatto che, uno che fa proposte valide, magari costituisce un elemento di lesa maestà verso di loro, verso una loro "supposta" e per nulla comprovata validità! Un attentato a fare i loro propri comodi, pigliando soldi e gestendo risorse senza fare alcunché di valido!"
    L'omino sceglie la propria libertà e coerenza, e manda a passeggiare quei farabutti.
    Poi l'omino vede magari quegli stessi che lo hanno escluso affogare "loro" nella merda, e magari allora effettivamente gongola.
    E si chiede: "Beh, perché quel vostro atteggiamento? Non avevate proprio altro da fare che danni? E alla fine avete fatto soltanto danni a voi stessi? Complimentoni! Bravi davvero! Veramente bravi!"
    "Andate avanti così che andate benissimo!"
    "La terza legge dello stupido è sempre lì a disposizione di tutti!" *
    "Però se un giorno vorrete riprendere seriamente in considerazione le mie proposte", dice l'omino, "sono sempre qui a vostra disposizione!"
    "A disposizione per collaborare, tutti, ad andare avanti insieme"
    "Preferite andare avanti per vostro conto ad affogare nella merda?
    Prego, andate pure avanti voi, la mia strada è diversa dalla vostra! Ed è quella per cui c'è bisogno di tutti" Ognuno è importante""

    Questi sono sempre soltanto discorsi riportati da un semplice ambasciatore!
    🙂

    * Nota - Come noto la prima legge dello stupido recita: "Lo stupido è colui che fa male a se stesso". La seconda legge dello stupido invece recita: "Lo stupido è colui che fa male agli altri"! La terza legge dello stupido a questo punto è banale! 🙂

  48. marco
    Pubblicato il 24 aprile 2010 alle 10:01 | Permalink

    Dico (umilmente ma anche no) la mia su questo argomento trito e ritrito:

    ponderazioni non suffragate da risultati alcuni + fantasia che si autoproclama logica per mancanza di onesta` intellettuale = pippe mentali e basta.

    L'incapacità di accettare regole dettate da millenni di esperienza (ricordiamo che *tutto* parte per prima cosa dall'esperienza, non dalla logica pura; poi puo` divagare fino all'assoluto ma deve sempre tornare per la controprova empirica, senno` e` aria fritta) secondo me e` segno di una malcelata forma di disadattamento, e non di "genio&sregolatezza".

    E non cominciamo con la storia: "e` ora di cambiare le regole perché le vecchie sono vetuste e superate"; le "vecchie" regole hanno dimostrato di cavarsela egregiamente senza "ritocchi di comodo". Coerenza e onesta` intellettuale, ecco cosa mi aspetto io da chiunque, anche dall'"omino".

    * Nota: la terza legge dello stupido e`: "sé stesso = gli altri".
    Ho vinto quacchecosa???

    Ciao

  49. wimp
    Pubblicato il 24 aprile 2010 alle 19:24 | Permalink

    Pollino: A mio parere incidenti mortali nella storia non solo delle missioni spaziali ma anche dell'aviazione ce ne sono state e ce ne saranno sempre quando si parla di progetti altamente sperimentali e/o prototipi. Ho già citato le catastrofi nelle missioni spaziali sovietiche di cui hanno taciuto fino a pochi anni fa, le missioni apollo che erano certamente meno affidabili e rischiose di quelle dello shuttle, ma anche i numerosi incidenti che si sono avuti nei voli di collaudo di velivoli militari (e non solo) con la differenza che in questi casi della tragica fine dei collaudatori spesso l'opinione pubblica non non ha saputo nulla o ha saputo molto poco. Gli astronauti così come i collaudatori di velivoli conoscono molto bene i rischi delle missioni che ci sono e ci saranno sempre. Al contrario ci sono progetti dove i rischi davvero non sono ammissibili nemmeno minimi e tra questi ci sono quelli legati alle centrali atomiche. Credi che la sicurezza della centrale di Chernobyl fosse maggiore di quella dello shuttle? eppure a causa della negligenza dei progettisti sono morte non una decina ma centinaia di migliaia di innocenti che al contrario degli astronauti non avevano calcolato proprio nulla riguardo ai rischi che potevano correre per negligenza altrui... questo si che è davvero inaccettabile 😉

  50. Max
    Pubblicato il 24 aprile 2010 alle 23:27 | Permalink

    @Marco : mica detto, di ponderazioni non suffragate (per secoli) da risultati alcuni e poi rivelatesi esatte ne è piena la storia.
    Secondo me rimane sempre valido un punto :
    "Meglio prendere 100 cantonate che perdere UNA scoperta valida".
    Le cantonate prima o poi si rivelano tali, ma la scoperta valida rimandata magari di secoli è un danno immenso.
    Non sempre la strada "ufficiale" è quella giusta.... un po' di apertura mentale, diamine !

    @Pinco & Wimp : concordo con Wimp. Ci sono dei campi in cui il rischio è inevitabile. Si può ( e si deve) cercare di limitarlo, ma è utopico pretendere di azzerarlo. Ti faccio un banale esempio : la costruzione di una diga. Si calcola (statisticamente) che in ogni costruzione ci sarà una percentuale di morti per metro cubo di calcestruzzo gettato.... e questa si verifica praticamente sempre con uno scarto piuttosto basso.
    L' importante è sempre stimare il rischio come probabilità che avvenga moltiplicato per il numero di incidenti/vittime. In un' esplorazione spaziale la probabilità di incidenti e' alta, che si voglia o meno, e il numero di vittime e' basso. Sta a chi sceglie quel mestiere ponderare la cosa e accettare o meno il rischio.
    In una centrale nucleare la cosa cambia, visto che il numero di vittime in caso di incidente sarebbe enorme, va minimizzata la possibilità dell' incidente, tenendo poi conto che le vittime il "mestiere" non se lo scelgono ma lo subiscono.
    @Wimp : i risci, minimi, ci sono sempre, anche per le centrali. Pretendere che siano nulli è utopia.
    Se poi paragoni i morti di cancro ai polmoni dovuti ad una centrale a carbone rapportati ai KW prodotti, e fai lo stesso col nucleare, vedi subito che il nucleare è GIA' di parecchi ordini di grandezza più sicuro del fossile.....

    Max

  51. Pubblicato il 26 aprile 2010 alle 11:15 | Permalink

    @Max: Acqua pesante come antiossidante? Suon un po' ottocentesca come terapia. Hai una referenza?

    @Francesco e Gigi: sorry, sono veramente pieno, eppoi da giovedì a sabato ero a Madrid per una tesi di dottorato (se trovo il tempo racconto). Ma vedo che andate perfettamente avanti anche senza di me 🙂

    @Pinco Pallino: la storia del ricercatore casalingo che avrebbe tutte le soluzioni ai problemi della fisica moderna ma che non ha fondi o voglia per raccontarli in giro l'ho sentita tante, troppe volte. L'unica cosa che ho ancora voglia di dire è: scrivere costa veramente poco, che questo omino metta insieme almeno piano di ricerca, un qualche genere di proposal da cui si possa valutare quanto sia promettente la strada che propone. Lo sai, facciamo tutti così, mica ci pagano un anticipo senza uno straccio di roadmap e progetto che contenga già un'idea delle conseguenze sperimentali delle nostre idee. Perché - lo sai? - le conseguenze sperimentali alla fine sono l'unica cosa che conta, senza quelle qualunque idea è aria fritta (o pippe mentali, come diceva giustamente qualcuno prima di me).

  52. Max
    Pubblicato il 26 aprile 2010 alle 11:42 | Permalink

    @Marco : giusto un paio.... quella originale non la trovo più 🙂
    Le prime, mostrano l' inibizione di alcuni processi cancerogeni; ovviamente sono in fase di studio sperimentale :

    http://www.ncbi.nlm.nih.gov/pubmed/3037213
    http://ar.iiarjournals.org/content/25/5/3407.abstract

    Questo mostra le ricerche di un russo sull' effetto di moderate percentuali di D2O sulle cellule di piante, insetti e mammiferi minori :

    http://www.sciencedirect.com/science?_ob=ArticleURL&_udi=B6TCW-4PB757R-3&_user=10&_coverDate=09%2F30%2F2007&_rdoc=1&_fmt=high&_orig=search&_sort=d&_docanchor=&view=c&_acct=C000050221&_version=1&_urlVersion=0&_userid=10&md5=22b22c47f6efe0e0e58b571140cb1c4a

    Purtroppo il riferimento più "credibile" me lo sono perso, cmq in sintesi pare che una quantità modesta (comunque non trascurabile, diciamo dal 10 al 20%) di D2O in sostituzione dell' acqua normale rallenti alcuni processi ossidativi cellulari, anche nei mammiferi.
    Valori dal 25 al 50% di contenuto di D2O nel corpo dei mammiferi sono invece mortali causa l' inibizione di un enzima fondamentale.

    Ciao

    Max

  53. Pinco Pollino
    Pubblicato il 27 aprile 2010 alle 11:27 | Permalink

    @Marco Scrivere costa poco, è vero, ma tanto poi le persone capiscono quello che più gli pare! 😐

    L'omino, e io per lui, qualcosa abbiamo scritto.
    Abbiamo descritto le modalità omertose, colluse, mafiose che pervadono, informano (nel senso che danno forma), caratterizzano molte delle attuali strutture organizzative, comprese (e non solo ma anche!) quelle che fanno scienza di base o tecnologia avanzata. Ho parlato di Feynman, luminare della Fisica delle particelle, che non si accorge della montagna costituita dalla architettura sgangherata dello shuttle. Ho detto che l'architettura sgangherata dello shuttle (non i voli spaziali o la tecnologia spaziale nel suo complesso!) ha costituito un problema per lo sviluppo dei progetti spaziali degli ultimi 50 anni, e non averlo visto non può che essere attribuito a comportamenti collusi, omertosi e mafiosi, non di certo alla incapacità di capire!
    Accidenti, l'aveva capito l'omino, un premio Nobel come Feynman non è riuscito a capirlo!
    Non ho detto che tutte le organizzazioni siano mafiose, ho detto che molte delle attuali organizzazioni, comprese quelle che si dedicano alla scienza o alla Fisica delle particelle, hanno evidenti caratteristiche di omertà, di connivenza e di collusione mafiosa.
    E' lecito fare scienza attraverso organizzazioni mafiose, ma dire che le organizzazioni hanno caratteristiche mafiose, non è scienza!?
    Mi suona un po' strano tutto questo!
    Non ho detto che l'omino ha tutte le soluzioni in tasca della Fisica della particelle, ho detto che l'omino ha scelto, per necessità di coscienza, di stare alla larga dalle organizzazioni colluse e mafiose. Ha deciso, per quello che può, di fare da solo, anche se questo presenta delle difficoltà tali per cui, probabilmente non arriverà a nulla, nel campo della Fisica delle particelle e in altri campi, perché non ha disposizione le informazioni necessarie, perché per vivere deve pur occuparsi anche di altro e per mille altre difficoltà.
    E questo è stato scritto. E' stato detto.
    Su questo c'è qualcosa su cui si può concordare?
    Risulta sufficientemente accertato quanto è stato scritto (anche con riferimento ad altre organizzazioni dei settori bancario, amministrativo, politico, medico, farmaceutico, produttivo...), e quindi, come detto nell'introduzione di questa discussione, va accettato da parte di uno scienziato?
    E accettare che cosa vuol dire? Vuol dire accettare la mafia?
    Bene, l'omino ha detto che lui la mafia non l'accetta!
    O forse "accettare" può anche voler dire "sottoporre a un colpo di accetta", magari proprio l'omino?
    Altrove, da parte mia, ci si è chiesto se la democrazia sia scientifica?
    Questo per uno scienziato costituisce un qualche problema?
    Beh, anche soltanto porre delle domande non costituisce un planning di ricerca, un proposal? Perché, allora, questo è già stato fatto!

    Ancora, facciamo l'ipotesi che il bosone di Higgs non salti fuori, che nell'intervallo da 1 a 14 TeV e forse anche da 14 a 50 TeV, non salti fuori nessuna nuova Fisica da far strabuzzare gli occhi!
    Ciò costituisce un qualche problema per la credibilità della ricerca di base per come è stata condotta negli ultimi anni?
    Sono 50 anni che istituti di ricerca ( persone al loro interno) fanno studi, elaborano teorie, sviluppano organizzazioni per gestire immani risorse con cui costruire immensi strumenti con cui poi alla fine verificare che le teorie stesse erano sballate!
    Se così dovesse accadere, tra le tante ipotesi, non c'è anche quella che la Fisica delle particelle degli ultimi 50 anni sia stata, fondamentalmente, tutta una truffa?
    Omertosa, collusa e mafiosa?
    E se così dovesse andare, possibile che nessuno delle migliaia di scienziati, che si sono prestati a pigliare soldi in questi anni, sempre e comunque, non se ne sia accorto? E non abbiano nessuna responsabilità?
    Mentre invece la colpa è tutta dell'omino che non ha elaborato lui, o non ha voluto scrivere il planning per la teoria giusta?
    (Tra l'altro l'omino, ed anche il sottoscritto, sono talmente fuori dalle mafie, che non saprebbero neppure a chi rivolgersi per avere la certezza che quello che scrivono rimanga!)
    Io credo che "fare scienza" sia anche discutere sul "come" si fa scienza.
    E a me, e all'omino, non sembra che i metodi siano molto diversi da quando si faceva scienza mandando al rogo o si costringevano le persone all'abiura. Oggi, molto più prosaicamente, si emargina!
    O si fa finta di nulla! O si capisce qualcosa d'altro rispetto a quanto è stato scritto! O si fa finta di non capire! O quello che è stato detto, non è stato detto!
    In sostanza ci si comporta in maniera mafiosa!

    Questo è stato scritto!
    Su questo c'è qualcosa da concordare, o no?

    Non c'è nulla da concordare e da approfondire, non costituisce nessun planning proposal?
    Bene, l'omino credo proprio che non abbia più nulla da dire!
    Il suo contributo l'ha già dato e basta qui!

    😐

  54. GIGI
    Pubblicato il 27 aprile 2010 alle 12:34 | Permalink

    @ Pinco Pollino. Marco qualche tempo fa mi ha consigliato un libro di Lee Smolin: L'universo senza stringhe. Edizioni Einaudi.
    (Lee Smolin is a theoretical physicist, on the faculty of Perimeter Institute for Theoretical Physics).
    Mi permetto di consigliarlo a te e all'omino.
    Non si parla di mafie (troppi significati per una parola così piccola e così abusata), ma dei problemi della ricerca si dice più di quello che fa protestare il tuo omino. 😉

  55. Pubblicato il 28 aprile 2010 alle 08:41 | Permalink

    @PincoPollino: certo, sulle modalità sociologiche con cui la scienza si organizza potremmo discutere e pure parecchio. Il libro di Smolin che le suggeriva Gigi è certamente una buona lettura: non creda che nell'ambiente non siamo consci delle limitazioni di certe dinamiche. Di qui a estrapolare fino a sostenere la "truffa" generalizzata ce ne passa parecchio, ed è al limite pure offensivo, per cui sorvolo per non incacchiarmi troppo. Mi permetto però di ricordarle l'esperienza di un oscuro impiegato dell'ufficio brevetti di Zurigo all'inizio del secolo scorso: mafia o meno, casta chiusa o meno, quell'omino è riuscito a rivoluzionare la scienza moderna partendo proprio dall'esterno. Credo sappia di chi sto parlando, vero? Dunque non trovi scuse e smetta di lagnarsi, torni a casa al suo tavolino a lavorare se veramente pensa di avere qualcosa da dire. Passo e chiudo.

  56. Pinco Pollino
    Pubblicato il 28 aprile 2010 alle 11:49 | Permalink

    @Marco Vede che allora la storia dell'omino, magari con i baffi e i capelli dritti, che fa boccacce e suona il violino, non è poi così peregrina!
    E per quel che ho visto in alcune fiction, lo dovettero anche sollecitare parecchio per convincerlo a pubblicare le sue riflessioni o studi!
    E le reazioni degli ambienti accademici, in stile asburgico-imperiale, non furono molto favorevoli sulle prime
    D'altronde qualcun altro ha tirato in ballo anche il disadattamento. E chi più disadattato di Enrico Fermi, se dovette espatriare negli USA insieme a tanti altri.
    E le vicende della dottoressa Lise Meitner, stretta collaboratrice di Hahn e Strassman, che al contrario di questi ultimi non ricevette nessun premio Nobel per gli stessi studi e risultati sulla fissione nucleare?

    No, no!
    Meglio approfondire le metodologie sociologiche della scienza (compreso anche il concetto di mafia) prima di esplorare ulteriori sviluppi teorici-sperimentali della stessa.

    Non sono meno importanti.
    Il rischio è di lasciare colossali vuoti dietro cavalieri che si lanciano al galoppo verso il deserto!

    😐

  57. GM
    Pubblicato il 28 aprile 2010 alle 13:24 | Permalink

    Non vedo cosa le faccia dire che Fermi era disadattato. Fermi e` andato in America (e ha fatto benissimo) non perche` non potesse lavorare bene in Italia (e la conferma e` che il suo lavoro gli procuro` il Nobel), ma perche` sua moglie era ebrea. Quindi cerchiamo di non fare di ogni erba un fascio. In piu` e` molto facile esprimere critiche generiche, senza volersi mai esporre con casi concreti. Se lei, o i suoi omini, sapete delle cose, parlate piu` chiaro. In piu` mi pare di capire che il suo omino sia vecchio, e quindi non ha neanche piu` il problema di non compromettersi per non fare carriera. Altrimenti il suo disquisire rischia di non essere di grande aiuto a nessuno.

  58. Pubblicato il 28 aprile 2010 alle 14:30 | Permalink

    Concordo su ogni parola espressa da GM. Mi permetto di aggiungere: l'immagine di Einstein "mattacchione" che fa la lingua e ha i capelli dritti è un'invenzione tutta postuma, che ha riempito l'immaginario con uno stereotipo di scienziato "estemporaneo" che poco o nulla aveva a vedere con lo stesso Einstein, e poco o nulla con le altre grandi menti dell'ultimo secolo. Ho l'impressione che la sua opinione del mondo della ricerca, tanto dal punto scientifico che da quello umano, sia costruita più da stereotipi e luoghi comuni che da una reale conoscenza. Il che non la mette esattamente nella posizione di tranciare giudizi così duri e categorici come sta facendo. Anzi.

  59. GIGI
    Pubblicato il 28 aprile 2010 alle 19:08 | Permalink

    Ho il sospetto che Pinco Pollino si curi con l'omeopatia. 😉

  60. Pinco Pollino
    Pubblicato il 29 aprile 2010 alle 11:06 | Permalink

    Dialogo tra l'omino e uno scienziato dell'LHC del CERN

    L'omino: "Se scoprite qualcosina, come sarà l'LHC?"
    Lo scienziato: "Sarà un successo!"
    L'omino: "E se scoprirete qualcosona?"
    Lo scienziato: "Sarà un grande successo!"
    L'omino: "E se non scoprite nulla?"
    Lo scienziato: "Sarà comunque un successo"
    L'omino: "E il principio di falsificabilità di Popper?"
    Lo scienziato: "Ma questo che le ho detto non è una legge fisica!"
    L'omino: "E che cos'è?"
    Lo scienziato: "E' così, e basta!"
    L'omino: "Ah, beh! Allora!"
    😐

    Nota - Effettivamente, una conoscenza "reale" di Albert Einstein non l'ho mai avuta. Essendo Einstein morto nel 1955, a quel tempo non ero neppure nato!
    😐

    @ Marco Visto che si era riferito ad Einstein in termini non espliciti, mi era parso simpatico riferirmi allo stesso, in maniera analoga, con i riferimenti che gli vengono più di frequente attribuiti in maniera pressoché univoca. Questo deve averLa urtata in maniera per me del tutto imprevista. Einstein è una delle figure che maggiormente apprezzo della Scienza e della Fisica. Difatti parlo in termini critici della Fisica "degli ultimi 50 anni", non di "tutta" la Fisica o Scienza. Ancora di più, quando si confronti la Fisica degli ultimi 50 anni con la Fisica della prima metà del secolo scorso.
    😐

  61. Pubblicato il 29 aprile 2010 alle 13:13 | Permalink

    @Pinco: più che farmi arrabbiare lei mi annoia. Se avessi tempo e voglia di starle dietro, le chiederei cosa diavolo centra il principio di falsificabilità di Popper con LHC, che - fino a prova contraria - è una macchina e non una teoria. Forse le sfugge un dettaglio: LHC e i suoi esperimento servono a osservare il comportamento del mondo in un regime molto particolare. Questo regime e questi comportamenti sono (potenzialmente) descritti da una pletora di teoria, tutte quante ancora da confermare o falsificare. Alcune di queste sopravviveranno, altre moriranno nell'impresa come è giusto che sia. In entrambi i casi, l'esperienza sarà un successo, perché lo scopo della scienza non è mostrare che una certa teoria è corretta, ma osservare e (tentare di) descrivere il modo.

  62. Pinco Pollino
    Pubblicato il 29 aprile 2010 alle 13:51 | Permalink

    @Marco: Non sono d'accordo!

    La scienza " è " osservare, formulare un modello interpretativo e verificare la congruenza tra osservazioni e modello.
    Circa gli scopi, se ne possono fornire diversi: migliorare le condizioni del genere umano (visto che è lo stesso genere umano a "fare" la scienza), fare gli interessi di chi fa scienza "meglio" degli altri, aprire la porta alle applicazioni tecniche e di sfruttamento economico, rallegrare la mente umana (l'art. 33 della Costituzione accosta l'Arte e la Scienza nella loro libertà di essere praticate), qualcuno potrebbe anche dire che la scienza non ha nessuno scopo, del tipo l'Arte per l'Arte, la Scienza per la Scienza, e così via.
    Poi ciascuno ne fa l'uso che vuole, per gli scopi che vuole (entro i limiti del lecito).

    Circa Popper, non è LHC che debba essere falsificabile, ma l'affermazione "LHC è (o sarà) comunque un successo".
    Ecco, mi domando: questa affermazione "LHC è (o sarà) comunque un successo" è falsificabile?
    Se non è falsificabile, secondo Popper, rientra fra le affermazioni che (da un punto di vista scientifico) non hanno alcun senso!

    E questa è un'altra delle pieghe che non mi piacciono che la Fisica degli ultimi 50 anni sta prendendo.
    😐

  63. GM
    Pubblicato il 29 aprile 2010 alle 15:39 | Permalink

    Credo che il successo o l'insuccesso di LHC saranno determinati da quanta "luminosita` integrata" la macchina sara` capace di fornire agli esperimenti (e a quale energia). Solo se la luminosita` sara` sufficiente gli esperimenti potranno scoprire o escludere cose, e quindi estendere le conoscenze attuali. Da un punto di vista piu` terra-terra, avendo pagato per una macchina che dovrebbe fornire una luminosita` istantanea di 10^34 a 7 TeV per fascio, se non si arrivera` almeno a 5x10^33 a 6.5 TeV, ci si potrebbe chiedere se non si siano sprecati dei soldi da qualche parte.
    Ma forse un altro problema (non specifico a LHC) e` che una bouna parte delle teorie attuali sono parametrizzabili in modo piu` o meno arbitrario, in modo da essere adattabili a qualsiasi osservazione (o mancanza di osservazione), senza mai predire niente in modo definitivo.

  64. Max
    Pubblicato il 29 aprile 2010 alle 16:48 | Permalink

    @GM : mah, secondo me se l' LHC e' stato progettato per una certa
    luminosita', quella deve dare, come minimo. Magari non subito, ma
    ci deve arrivare, altrimenti qualcuno ha cappellato.
    Le cappelle del genere sono tutt' altro che rare, tra parentesi, vedi come esempio la bomba H su Bikini. Calcolata per circa 4-5 Megatoni, ne ha tirati fuori 15, oltre a una caterva di inquinamento radiattivo poco previsto.

    Punto secondo, per l' LHC i casi sono 3 :
    1) Trova l' HIGGS. Ottimo per la MQ e servira' come base per risolverne le incongruenze, probabilmente.

    2) Non trova l' HIGGS ma trova "qualcos' altro", ottimo, anche se non per la MQ, ma spronerebbe qualche nuova teoria.

    3) Non trova un tubo. Pessimo per la MQ, e pessimo perche' non vedo nulla di nuovo alla portata di strumenti realizzabili in un nemmeno tanto prossimo futuro. In quel caso ho paura che le "nuove" teorie saranno una pletora, andranno su e giu' come la moda e non saranno ne' dimostrabili ne' falsificabili facilmente nel periodo della mia (nostra) vita.

    Marco, forse non sarai daccordo con me, ma anch'io penso che le teorie odierne siano un po' troppo parametrizzate per adattarle ai risultati sperimentali. Per l' amor del cielo, funzionano, ma come ho gia' detto in un post precedente, non hanno un centesimo dell' eleganza formale della RG di Einstein.
    Sarò pessimista, ma comincio a pensare che se non salta fuori un nuovo "genio" a livello di Einstein una teoria del tutto e' ben lontana dall' essere in vista...

    Ciao

    Max

  65. linuser
    Pubblicato il 29 aprile 2010 alle 19:18 | Permalink

    @ Pinco Pollino

    Non mi sembra che la ISS non abbia futuro con la messa a terra degli Shuttle : http://it.euronews.net/2009/12/10/l-europa-dilaga-in-orbita/

    Inoltre per quanto riguarda lo Shuttle , non credo possa essere considerato esattamente "un fallimento".

    Per quanto riguarda il disastro del Challenger , secondo quanto riportato da Wikipedia ( http://it.wikipedia.org/wiki/Disastro_dello_Space_Shuttle_Challenger ) non è esattamente "esploso" : alcuni sistemi hanno reagito alla situazione anomala , ma in presenza di una catena di eventi non previsti , non correttamente valutati , a cui non si è prestata la dovuta attenzione , che solo dopo averne valutato gli esiti si possono definire come "botta di culo" o , come in questo caso , "disgrazia" è veramente difficile o a volte impossibile far fronte. Inoltre la fase del decollo è una delle parti critiche in cui la missione non può essere tecnicamente annullata per via dell'entità delle grandezze coinvolte ( accelerazione , altitudine, pressione sullo "scafo" , turbolenze generate ... )

    Anche nel caso del disastro del Columbia , Wikipedia sembra essere molto esaustiva a riguardo ( http://it.wikipedia.org/wiki/Disastro_dello_Space_Shuttle_Columbia ) attribuendo la causa dell'incidente non a un difetto specifico o alla deliberata sottovalutazione del rischio o alla mancata gestione della catena distruttiva di eventi ( verificatesi ahime nell'altra fase critica in cui la missione non può essere interrotta ) , ma ancora alla catena di eventi "nefasti".

    "... Il filmato che riprese minuziosamente il decollo fu accuratamente ispezionato due ore dopo il lancio, ma non rivelò nulla di inusuale. Il giorno seguente, un filmato ad altissima risoluzione elaborato durante la notte rilevò che un pezzo di schiuma isolante caduto dal serbatoio esterno 81,9 secondi dopo il lancio era andato ad impattare contro l'ala sinistra della navicella, vicino ai pannelli RCC dal 5 al 9. Poco dopo, ci furono tre richieste distinte in orbita per avere immagini più dettagliate che determinassero l'entità del danno. Secondo il rapporto della commissione, il Mission Management Team dichiarò l'impatto di detriti come un "turnaround" issue e non procedettero ad una richiesta di immagini "

    "... 8:48:39 (EI+270) — un sensore posto su un longherone nel bordo d'attacco dell'ala sinistra mostra un innalzamento superiore a quello del precedente rientro del Columbia. Questo viene registrato solo dal Modular Auxiliary Data System e non viene osservato né dal controllo a terra né dall'equipaggio.

    ...

    8:53:46 (EI+597) — iniziano ad essere avvistati dei detriti. Velocità: 22,8 Mach, Altitudine: 70,2 km
    L'aria surriscaldata che circonda l'orbiter si illumina improvvisamente e crea una scia consistente nella coda luminescente dell'orbiter.
    8:54:24 (EI+613) — il responsabile MMCS (Maintenance, Mechanical and Crew Systems) avverte il direttore di volo che quattro sensori idraulici dell'ala destra sono fuori scala. Le misurazioni indicano off-scale low, ovvero inferiori alla sensibilità del sensore. Fino a questo punto, per il Controllo missione il rientro sta procedendo regolarmente
    La squadra di rientro (Entry Team) sta discutendo i sensori in avaria

    ...

    Dei testimoni osservano un chiaro flash di luce. Ne vedranno altri 18 simili nei successivi quattro minuti

    ...

    8:59:15 (EI+906) — MMACS informa il direttore di volo che sono state perse le letture della pressione di entrambe le ruote principali del carrello di atterraggio. Il direttore di volo avverte il Capsule Communicator (CAPCOM) di informare l'equipaggio che sono stati ricevuti i messaggi, che si stanno valutando le indicazioni e che il controllo di volo non ha compreso l'ultima trasmissione dell'equipaggio
    8:59:32 (EI+923) — Viene registrata l'ultima risposta interrotta dal comandante: "Roger, uh, bu... (parola tagliata)". Questa è l'ultima comunicazione ricevuta dal Columbia.
    9:00:18 (EI+969) — I video ripresi dagli osservatori a terra rivelano in seguito che l'orbiter si sta disintegrando. Al controllo missione, a parte la preoccupazione per la perdita dei contatti, non vengono riscontrati segni di problemi.
    9:05 — I residenti nella regione centro-settentrionale del Texas odono un forte rumore e avvistano tracce di fumo e detriti nel cielo limpido sopra a Dallas.
    9:12:39 (EI+1710) — Dopo aver ricevuto notizia dell'avvistamento dell'incidente al Columbia, il direttore di volo dichiara lo stato di contingency e allerta le squadre di ricerca e recupero nell'area dove sono stati avvistati i detriti. Inoltre avverte il controllore di volo di "chiudere le porte" (lock the doors): ovvero si impone il silenzio sui dati di volo, e si impedisce ai membri dei vari gruppi di comunicare dati e impressioni tra di loro, al fine di evitare condizionamenti tra i controllori di volo. Il 'lock the doors' implica anche che essi oltre a dover conservare tutti i dati della missione per le successive indagini, debbano fare una prima indagine preliminare, solo nella specifica area di cui si occupano e senza comunicare con nessuno come già ribadito, per riscontrare palesi anomalie fra i dati"

    In entrambi i casi non mi sembra siano saltati fuori grossolani errori di progettazione come quelli riscontrati in altri sistemi di dimensioni paragonabili come ad esempio i sistemi di chiusura delle valvole d'emergenza nelle centrali atomiche tipo Three Miles Island o il grossolano difetto di progettazione nei reattori tipo Chernobyl in cui per un preciso stato critico dimostratosi ahime "raggiungibile" non era stato previsto e di conseguenza non era stata prevista alcuna procedura per gestirlo.

    I razzi Saturno ( http://it.wikipedia.org/wiki/Saturn_V ) si sono dimostrati sul campo effettivamente più affidabili , così come la controparte Soyuz ( http://it.wikipedia.org/wiki/Soyuz ) e il razzo Energia del programma Buran : http://it.wikipedia.org/wiki/Categoria:Programma_Buran-Energia .... ma il programma Shuttle non è nato in origine per scopi strettamente scientifici/pacifici. Lo stesso creatore dei razzi Saturno Wernher Von Braun ( http://it.wikipedia.org/wiki/Wernher_Von_Braun ) intuendo la deriva militaristica del programma spaziale americano lasciò la NASA a suo tempo : " ... Con l'interruzione del programma Apollo, von Braun si accorse di avere una visione del futuro della corsa allo spazio profondamente diversa da quella della NASA, quindi nel giugno 1972 rassegnò le sue dimissioni ..."

    Tradotto in parole povere , quando la gestione di un progetto passa in mano ai militari , la missione , specie se strategica , diventa prioritaria rispetto alle questioni di sicurezza e se si tiene conto di questo aspetto sin dalle fasi di ideazione di un dato progetto , diventa difficile se non impossibile apportare le dovute modifiche in seguito sulle macchine già funzionanti.

    Altre considerazioni possono essere fatte per quanto riguarda l'aggiornamento delle dotazioni tecnologiche ( ad esempio : computer più potenti ) : credo proprio che l'abbandono dei Saturno in favore dello Shuttle sia scaturito anche da questa esigenza. Non si può pretendere di aggiornare pesantemente una macchina progettata 20 o 30 anni prima senza rivederne il progetto complessivo.

    Ma rivedere pesantemente un progetto così complesso si traduce nel richiamare in parte o al completo tutto lo staff che vi ha contribuito in origine - sperando che siano tutti ancora vivi ed efficienti - , o trovare comunque persone in grado di interpretare correttamente i progetti originali , modificare le procedure di assemblaggio e le catene di montaggio , verificare singolarmente le parti soggette a modifica , testare nuovamente tutte le componenti assemblate, testare la macchina nel suo complesso.

    Ancora , anche se i Saturno si sono dimostrati più affidabili, di contro la maggior parte delle componenti non erano recuperabili . E inoltre ancora rabbrividisco a guardare il video dell'accensione motori e del distacco dalla piattaforma nei primissimi momenti ( http://www.youtube.com/watch?v=wvWHnK2FiCk ) con dispositivi "primordiali" di automazione di cui alcuni addirittura passivi come ad esempio dei tiranti agganciati direttamente al razzo !!!

  66. GM
    Pubblicato il 29 aprile 2010 alle 22:05 | Permalink

    Max,
    sono d'accordo con te sulle prestazioni richieste ad LHC. Solo, avendolo gia`detto troppe volte in molte sedi, non volevo passare per il solito disfattista, perche`sono praticamente sicuro che le prestazioni nominali non saranno mai raggiunte, ed anche arrivare ai limiti che ho posto sara`molto dura.

  67. Pubblicato il 29 aprile 2010 alle 22:19 | Permalink

    @GM: ovviamente concordo in pieno sulla questione della luminosità integrata, e purtroppo anche con un certo pessimismo sulle performance nominali della macchina: sappiamo entrambi che nella migliore delle ipotesi i quasi 14 TeV nel centro di massa a quasi 10^34 non arriveranno prima del prossimo decennio, upgrade permettendo. Sulle teorie "parametrizzabili" ci sarebbe da discutere a lungo, dunque non adesso e non qui 🙂

    @Max: I tuoi tre casi per LHC vanno quasi bene, se sostituisci a "meccanica quantistica" qualcosa del tipo "teoria di gauge costruita su certi gruppi di simmetria con una certa lagrangiana". La MQ di per sé sta benone e continuerà a stare bene qualunque siano i risultati di LHC! Si tratta di un livello - come dire? - più profondo, una sorta di substrato che sorregge, tra le altre, anche la teoria che descrive le interazioni fondamentali. Se quest'ultima dovesse rivelarsi inadatta o incompleta - come certamente sarà a prescindere dalla presenza o meno di un bosone di Higgs, per ragioni tecniche insite nella teoria stessa su cui sorvolo - la MQ non subirà nessun contraccolpo. E la teoria successiva, almeno per quanto ne sappiamo oggi, sarà a sua volta una teoria "quantistica".

  68. Pinco Pollino
    Pubblicato il 30 aprile 2010 alle 10:54 | Permalink

    @linuser: Lo shuttle verrà comunque messo a terra con la fine del 2010 (o giù di lì), come deciso dopo l'ultimo disastro del Columbia (Febbraio 2003). Ad ogni decollo si vedono pezzi (piccoli o grandi) del serbatoio che si staccano, e che prima o poi non vadano a impattare sullo scudo termico nudo, allo scoperto, senza protezione, rovinandolo, è affidato solo alla fortuna. E nel caso del Columbia la fortuna non c'è stata.
    Che il decollo sia il momento più difficile e pericoloso di ogni volo spaziale è abbastanza pacifico, proprio per questo vanno adottate le misure per cercare di renderlo il più possibile sicuro. L'architettura dello shuttle non va in questa direzione (navetta "in groppa" al serbatoio principale, assenza di protezioni alla partenza dello scudo termico, assenza di un sistema di sgancio della cabina con gli astronauti, ...)

    Dal 2010 la ISS non avrà più un sistema per riportare a terra carichi scientifici "prodotti" in orbita, come invece era inizialmente previsto con lo shuttle per un ammontare di qualche tonnellata ad ogni volo, grazie ai moduli (di costruzione italiana) MPLM. Solo le Soyuz possono attualmente ritornare sulla terra per riportare gli astronauti e qualche decina di chili al massimo di carico ogni volta. I moduli Europei (ATV), russi (Progress) e Giapponesi (HTV) attualmente bruciano al rientro a terra.
    Gli americani dal 2011 non avranno più neppure un sistema per portare astronauti in orbita, se non facendo affidamento alle Soyuz russe (uniche attualmente attive) o ai futuri sviluppi dei lanciatori privati americani, come per esempio il sistema SpaceX-Dragon, ancora tutti da sperimentare.

    Sul concetto di fallimento di un progetto si può sempre discutere e trovare comunque dei pro a favore, però non ci si può esimere dal valutare se i risultati sono alla fine deludenti rispetto alle aspettative originali o se sono necessarie profonde e costose rielaborazioni.

    Attualmente, (cioè dal 2011) c'è in orbita bassa terrestre (circa 400 Km) una stazione del peso di circa 500 tonnellate, costata 100 miliardi di dollari, che si può raggiungere solo con le navicelle russe e da cui non si può riportare indietro quasi nulla in termini di carico utile.

    😐

  69. Max
    Pubblicato il 30 aprile 2010 alle 14:44 | Permalink

    @Marco : per MQ intendevo infatti la teoria attuale che definisce le interazioni fondamentali. Che poi la teoria "definitiva" debba essere o meno una teoria "quantistica".... come dici tu, "per quanto ne sappiamo oggi" dovrebbe essere così, oppure potremmo non saperne abbastanza 🙂
    Forse mi sbaglierò ma le teorie attuali mi sembrano come le interpolazioni polinomiali per una funzione sconosciuta. Si adattano benissimo alla realtà, basta scegliere i parametri giusti e, vista la "regolarità" dei fenomeni naturali, possono arrivare a fare ottime previsioni al di fuori del campo di determinazione dei parametri.
    Ma sono e rimangono approssimazioni che divergono allontanandosi a sufficienza dai campi sperimentali.
    Tornando al fatto che la teoria "definitiva" debba essere una teoria quantistica.... la RG non è quantistica, e corrisponde alla realtà (nel suo ambito) altrettanto bene se non meglio della MQ, ed è come ben si sa assai incompatibile con questa.
    Di teoria quantistica della gravità ancora non si vede l' ombra e, se l' HIGGS non verrà fuori (e da quel che ho capito, se l' LHC non lo trova significa che proprio non c'e', almeno per come lo si è teorizzato), una "spiegazione" delle masse da parte della MQ sarebbe sempre più lontana.
    Per questo spero nel punto 2 del mio post precedente, o al limite nel punto 1, perchè se (come temo....) arriveremo al punto 3 occorrerà rimboccarsi le manice (o i cervelli) e tentare qualcosa di molto nuovo per risolvere il problema.

    Ciao

    Max

  70. Pubblicato il 30 aprile 2010 alle 16:37 | Permalink

    Max, sui fondamenti della MQ, e sul suo ruolo di teoria fondamentale, potremmo parlare per ore. Però potremmo fare lo stesso con la RQ: il fatto che MQ e RQ non siano nella loro forma attuale riconciliabili non ti permette di sceglierne una delle due come fondamentale e rigettare l'altra: sono entrambe estremamente efficaci nel loro dominio di applicazione.

    Sulla predittività sarei più cauto: va bene sottolineare i tanti parametri, ma non estremizziamo fingendo che le teorie attuali siano totalmente prive di potere predittivo. Esempi a caso: le masse dei bosoni Z e W o il numero delle generazioni dei fermioni sono (stati) predetti con precisioni invidiabili.

    Quanto al ruolo dell'Higgs, il discorso diventerebbe veramente troppo tecnico: ci sono altri modi per far saltare fuori le masse in una teoria di gauge senza rovinarne la simmetria interna, ma non è questo il punto. Anche se l'Higgs c'è e viene visto a LHC, il Modello Standard rimarrebbe comunque incompleto e insufficiente (come faccio a dirlo in modo facile? Per esempio, i contributi perturbativi di ordine superiore alla massa dell'Higgs sarebbero comunque divergenti nel solo MS). In sostanza, è per questo che ci si aspetta della nuova fisica intorno al TeV: ci sono troppe cose che falliscono nell'estrapolazione dei modelli attuali così come sono a quelle energie.

    In ogni caso, hai ragione: qualunque cosa salti fuori, ci servono cervelli nuovi e idee nuove per uscire da certe impasse. Ma ti dirò anche altro: io sono uno sperimentale, dunque gioco il ruolo di quello che deve provocare il teorico con qualcosa che non sa (ancora) spiegare o predire.

  71. linuser
    Pubblicato il 30 aprile 2010 alle 19:11 | Permalink

    @Pinco Pollino

    >Lo shuttle verrà comunque messo a terra con la fine del 2010 (o giù di lì), come deciso dopo l’ultimo disastro del Columbia (Febbraio 2003).

    Lo shuttle sarebbe _comunque_ stato messo a terra per fine vita operativa in una data successiva ma non troppo distante da quella attuale. Il disastro del Columbia ha solo accelerato le procedure per il suo pensionamento.
    Sono state progettate e testate negli anni diverse soluzioni sostitutive , dimostratesi ahime tutte fallimentari ( l'ultima si è conclusa con la quasi distruzione dei serbatoi recuperabili dopo l'impatto con la superficie dell'oceano)

    > Ad ogni decollo si vedono pezzi (piccoli o grandi) del serbatoio che si staccano

    Non sono esattamente pezzi di serbatoio , ma pezzi della schiuma isolante che ricopre il serbatoio : in origine il serbatoio non era ricoperto ( come si potrà notare dalla foto della rampa di lancio scattata durante uno dei primissimi lanci : http://it.wikipedia.org/wiki/Space_Shuttle_Enterprise ) , la modifica è stata apportata solo successivamente e presumibilmente per "questioni di sicurezza".

    > Che il decollo sia il momento più difficile e pericoloso di ogni volo spaziale è abbastanza pacifico, proprio per questo vanno adottate le misure per cercare di renderlo il più possibile sicuro.

    Se avesse avuto almeno la premura di leggere con attenzione il resoconto dell'incidente del Challenger dove chiaramente si evince che il gruppo navetta/serbatoio non è esploso , ma si è _disintegrato_ per via degli eccessivi squilibri tra le forze esercitate sulle strutture causate anche dal tentativo di gestire gli eventi "nefasti" , avrebbe già dovuto capire che finchè l'unico metodo per vincere la forza di gravità sarà costituito dall'utilizzo di razzi vettori che letteralmente "sparano in alto" oggetti sottoponendoli a tali accelerazioni, flussi , pressioni ... e che sono costruiti principalmente da "materiali naturali" ( leggi materiali non di sisntesi , non "progettati" per esprimere super-resistenza ) , i margini in cui muoversi per rendere il "tutto" più sicuro sono sensibilmente ristretti.

    > L’architettura dello shuttle non va in questa direzione (navetta “in groppa” al serbatoio principale, assenza di protezioni alla partenza dello scudo termico, assenza di un sistema di sgancio della cabina con gli astronauti, …)

    Ancora , se avesse avuto almeno la premura di leggere con attenzione le pagine di Wikipedia relative al programma Shuttle , alle navette e sopratutto alla storia del programma , dovrebbe aver capito che il programma in origine aveva tutt'altro scopo ( militare ) , che le missioni commerciali/scientifiche sono state ammesse solo _successivamente_ ( in parte per coprire parte dei costi del programma ) e che il programma stesso ha subìto di conseguenza svariate modifiche in corso d'opera.

    Se mette insieme tutte queste variabili , potrà convenire anche lei che il programma si è dimostrato tutto sommato valido se non addirittura un successo.

    E mi creda se le dico che mi costa un po' ammetterlo poiché personalmente dissento totalmente con la politica della militarizzazione dello spazio ( obiettivo non perseguito a mo' di monopolio _solo_ dagli Stati Uniti visto che altri Paesi _autonomamente_ si muovono per un utilizzo dello spazio per scopi militari : http://io9.com/5016092/sarah-connor-has-failed-++-the-british-just-built-skynet )

    Giusto ieri è stato lanciato un mini-shuttle sperimentale in versione drone , sotto la supervisione del Pentagono che ha sottratto a suo tempo il progetto alla NASA con lo scopo di avere a disposizione un sistema sperimentale per simulare interventi militari rapidi in qualsiasi parte del globo direttamente dal territorio americano , senza la necessità di scali intermedi e/o basi militari e logistica "esterne" al territorio americano. Capire le conseguenze di un progetto simile dovrebbe essere a questo punto abbastanza intuitivo.

    Ancora un altro esempio , spero paradossale a questo punto : controllo dello spazio significa che gli USA possono permettersi di affermare tranquillamente che non hanno alcuna intenzione a rivendicare alcuna sovranità sulla superficie lunare anche se le proprie intenzioni fossero totalmente opposte poichè qualora lo spazio fosse sottoposto a totale controllo militare , potrebbero eventualmente e/o eccezionalmente negare l'accesso allo spazio e quindi condizionare e/o impedire future missioni spaziali.

    Non oso neanche pensare a come possa essere condizionata la nostra vita di abitanti della superficie terrestre sotto una eventuale proliferazione della "cappa spaziale".

  72. Max
    Pubblicato il 30 aprile 2010 alle 20:33 | Permalink

    Ciao Marco 🙂
    Discussione interessante cmq !

    Per il primo punto, non penso assolutamente di accettare una delle 2 teorie e rigettare l' altra.... sono entrambe incomplete, due pezzi di una faccia della stessa medaglia.
    E sono davvero efficaci, e pure predittive, ma questo vale per molti modelli basati su dati sperimentali e parametri.
    Quello che mi piace di più della RG è che nel suo ambito predice e di parametri ne ha ben uno solo, che poi è la velocità della luce... come dire nessuno, visto che si può considerare un fattore di scala.
    Le teorie quantistiche funzionano altrettanto bene dal lato sperimentale e pure predittivo, ma sono basate secondo me su troppi parametri. Con questo non voglio criticarne l'utilità, anzi... quello di cui dubito è la loro capacità di effettuare predizioni in campi (vedi energie) troppo lontane da quelle che han permesso di ricavarne i parametri.
    Questo cmq credo ce lo dirà (spero) LHC, almeno in parte.

    Per quanto riguarda il numero di generazioni di fermioni, ok... ma materia e energia oscura (SE esistono) dove le mettiamo ? E sorvoliamo sulla gravita'.

    Per l' HIGGS, effettivamente i discorsi sono troppo tecnici per me (:-) ), ma così' a naso (ma molto a naso...) mi pare una "pezza" messa per cercare di risolvere un problema piuttosto che un qualcosa di autonomo che poi si dimostra un'intuizione geniale. La RG mi affascina proprio per la sua eleganza e la sua origine, infatti.
    Quindi, spero assai nel punto 2 di cui sopra 🙂
    Hai presente l' esempio classico utilizzato per i minimi locali di una funzione, quello con la pallina che si ferma in un minimo locale, la derivata che si annulla, nessun modo per la pallina di capire di essere in un buco che non è quello "giusto" ? Ecco, mi sembra che ci si sia arenati in un minimo locale..... Per uscirne occorrerà probabilmente guardare più lontano.

    Max

  73. Xisy
    Pubblicato il 30 aprile 2010 alle 20:50 | Permalink

    Se i 19 parametri liberi o quelli che sono del modello standard non sono il massimo eleganza, tutta la fenomenologia che uscira' da un'eventuale evidenza di nuova fisica da LHC dovrebbe allora fare rabbrividire.

  74. Pubblicato il 1 maggio 2010 alle 13:34 | Permalink

    @Max: di nuovo, occhio a non confondere certe specifiche teorie quantistiche (la QED, o la QCD) con ma MQ in generale. Lei di parametri piccoli ne ha ben pochi (la costante di Planck, la velocità della luce, e la carica dell'elettrone).

    @Xisy: si, ci sarà da ridere. Ma è un bene: oggi il MS sembra tutto bello tondo e ragionevole, ma tenta di immaginare la fenomenologia degli anni '50 o '60, e la confusione. Mai letto "The Hunting of the Quark" di Riordan? Assolutamente consigliato.

  75. Max
    Pubblicato il 1 maggio 2010 alle 20:11 | Permalink

    @Xisy : a meno che non venga fuori qualcosa di talmente elegante da lasciare allibiti 🙂

    @Marco : hai ragione, comunque parametri liberi, salvo i fattori di scala, non dovrebbero essercene. A Einstein ripugnava l' idea della costante cosmologica piazzata li ad-hoc, e era UNA costante....

    Max

  76. Pinco Pollino
    Pubblicato il 2 maggio 2010 alle 00:49 | Permalink

    @linuser: Non so che cosa intenda Lei per eventi non previsti nel caso del primo incidente del Challenger! Gli eventi all'origine del'incidente sono stati: il freddo del gennaio 1986 e i rinvii del lancio che provocarono una rottura della saldatura fra i segmenti del razzo di destra a propellente solido. Lo stesso freddo fece perdere elasticità agli anelli O-R che dovevano garantire comunque la tenuta e quindi gas cominciò ad uscire dal razzo di destra a propellente solido fin dal momento del decollo. Dopo alcuni secondi il gas si è acceso e ha formato un pennacchio, una specie di getto di fiamma ossidrica diretto proprio contro il serbatoio centrale di idrogeno e ossigeno. A un certo punto il getto ha perforato il serbatoio di idrogeno, l'idrogeno si è incendiato e il serbatoio è esploso (ovvero ha avuto un cedimento strutturale, per essere tecnicamente neutri!).
    Certamente non era previsto che il freddo facesse rompere le saldature e che l'anello di tenuta con il freddo si irrigidisse al punto da non fare più tenuta. Ma perché crede che succedano gli incidenti se tutto si verificasse secondo le previsioni. Necessariamente si verifica qualcosa di imprevisto in un incidente. Si tratta di vedere se il sistema è in grado di gestire un evento imprevisto senza provocare un disastro, ovvero se è possibile mettere rimedio a un evento imprevisto, o anche soltanto non "nominale" (cioè non previsto fra le normali condizioni di progetto), senza che si verifichi un disastro. In quel caso ci fu l'esplosione del serbatoio centrale di idrogeno e non c'era modo di salvare l'orbiter Challenger, che ci sta proprio sopra "a cavalluccio"!

    Lo Shuttle subì allora una serie di revisioni che portarono fra l'altro a una riduzione del carico utile che poteva essere portato in orbita (da circa 30 ton. inizialmente previste a circa 20 ton.)

    Circa l'incidente del Colombia, essendo stato generato da un frammento di ghiaccio staccatosi dal serbatoio centrale (l'umidità dell'aria circostante forma alla partenza degli strati di ghiaccio sul serbatoio dell'idrogeno e ossigeno liquido a circa -200 °C), si è cercato di rimediare, ricoprendo il serbatoio con della schiuma isolante. Attualmente si vede, dalle riprese della telecamera esterna al serbatoio, che, durante il lancio, dal serbatoio centrale si staccano, in misura minore ma comunque si staccano, frammenti di schiuma intrisi di ghiaccio o frammenti di schiuma ghiacciata. Visto il precedente del Columbia, questo non è un buon segno, e dimostra che la schiuma isolante è una "pezza" che non ha risolto il problema, lo ha ridotto ma chissà fino a che punto può valere! Che cosa si aspetta a saperlo un altro incidente disastroso? No, si è deciso di completare i voli di costruzione "fondamentali" della stazione spaziale, di effettuare minuziosi controlli dello scudo termico dopo ogni lancio, e poi di mettere a terra lo shuttle entro il 2010!

    Circa il mini-shuttle (X37B) lanciato in orbita nei giorni scorsi dai militari USA (http://www.spaceflightnow.com/atlas/av012/100422launch/), è da rilevare che è un veicolo molto più piccolo dello shuttle e che essendo coperto dal segreto militare non si sa bene se è una versione in scala di un veicolo futuro più grande o sarà comunque così. Presumibilmente è un "banco di prova" per nuove tecnologie, anche se non si sa di preciso quali. Il suo peso di circa 10 ton. lo rende mooolto diverso dallo shuttle, circa 10 volte più grande, che pesa di suo circa 110 ton. Ad ogni modo la sua architettura di lancio è diversa da quella dello shuttle. Essenzialmente l'X37B non partecipa alla fase di lancio, ma viene portato (in cima al razzo vettore) in maniera passiva, fino all'orbita bassa terrestre come un normale satellite. Invece lo shuttle partecipa con i "suoi" motori anche al lancio e quindi i motori devono "stare in basso" per spingere durante la fase di lancio e l'orbiter deve stare pertanto a cavalcioni del serbatoio (volendo recuperare al rientro a terra anche i motori) fino all'ingresso in orbita. I razzi a propellente solido dello shuttle si sganciano dopo circa 2 minuti dal lancio e servono ad aiutare la fase di partenza.

    Circa la partecipazione dei militari, difficile dire il loro ruolo. Per certi versi si potrebbe anche dire che le applicazioni militari dello shuttle servivano anche a coprire, o distribuire o spalmare costi che altrimenti erano difficilmente giustificati per impieghi solo civili. Dopo alcuni voli iniziali utilizzati anche a scopo militare, gli stessi non si sono detti più interessati allo shuttle, che infatti ha svolto la maggior parte delle missioni degli ultimi 10-15 anni per la stazione spaziale, prima ancora per gli attracchi alla MIR e infine per la manutenzione del telescopio Hubble. La missione dell'incidente del Columbia è stata per certi versi particolarmente sfortunata in quanto voluta, in maniera quasi forzata, proprio dal Congresso USA per fare "qualcosa di diverso" e di autonomo degli USA rispetto alla Stazione spaziale, con esperimenti abbastanza poveri con un modulo SPACE-HUB che è quasi una mini stazione spaziale mooolto povera, e poi è finita come è finita (cioè con un incidente).

    Nelle prossime settimane ci dovrebbe essere il volo inaugurale di un nuovo razzo vettore "privato" SpaceX-Falcon 9 (http://www.spaceflightnow.com/falcon9/001/status.html) che dovrebbe portare nei prossimi anni astronauti alla stazione spaziale e forse anche carico utile con possibilità di ritorno a terra.
    Boh! Vedremo. Forse potrebbe anche essere un buon modo per utilizzare meglio la stazione spaziale, anche se al momento della sua progettazione (fine anni '80, inizio anni '90), non si era certo pensato di utilizzare questo lanciatore "privato".

    🙂

  77. dodo
    Pubblicato il 2 maggio 2010 alle 01:29 | Permalink

    IL MISTERO DEL RUMORE A 8000 HERTZ ???
    Si sta cercando di capire che cosa provoca in LHC un fastidioso rumore di fondo che "inquina" il fascio delle particelle in corsa dentro l'acceleratore. Si tratta di una vibrazione a 8 KHertz osservabile in tutta la macchina ma la cui causa è, per ora, sconosciuta......

    Cioè???possiam stare tranquilli

  78. Ettore
    Pubblicato il 2 maggio 2010 alle 14:41 | Permalink

    @dodo
    Nello specifico, non lo so, ma posso farti un esempio...
    L'altro giorno parlando con un collega al lavoro, mi stava dicendo che su un nostro prodotto aveva notato che dei sensori rilevavano un rumore ad 1hz... e stava indagando... alla fine ha scoperto il problema..., era il pilotaggio di un led che lampeggiava a quella frequenza 😀
    Non credo sia un grosso problema, se continuano a fare collisioni... forse può disturbare le misure ma non credo sia preoccupante.

    P.S: Secondo me è qualche circuito in PWM 😀 😀 😀

  79. Max
    Pubblicato il 2 maggio 2010 alle 16:26 | Permalink

    @dodo : fossero circa 11 KHz si potrebbe pensare che i 27 KM dell' LHC facciano da antenna risuonando a quella frequenza 🙂
    Chissa', magari aggiungendo i percorsi vari oltre all' anello principale il motivo e' quello !

    Max

  80. linuser
    Pubblicato il 2 maggio 2010 alle 22:12 | Permalink

    @Pinco Pollino

    > A un certo punto il getto ha perforato il serbatoio di idrogeno, l’idrogeno si è incendiato e il serbatoio è esploso (ovvero ha avuto un cedimento strutturale, per essere tecnicamente neutri!).

    cit : http://it.wikipedia.org/wiki/Disastro_dello_Space_Shuttle_Challenger

    " ... Lo Shuttle e il serbatoio esterno non "esplosero" effettivamente. Essi vennero rapidamente disintegrati dalle tremende forze aerodinamiche, essendo lo Shuttle vicino al punto Max Q di massima pressione aerodinamica. La cabina dell'equipaggio e gli SRB resistettero alla rottura. Mentre la cabina staccata continuava la sua traiettoria balistica, il carburante immagazzinato nel serbatoio esterno e nell'orbiter bruciarono per alcuni secondi, producendo un'enorme palla di fuoco. Se ci fosse stata una vera esplosione, l'intero Shuttle sarebbe stato distrutto all'istante, uccidendo nello stesso momento l'equipaggio. I due razzi SRB, separatamente, continuarono a volare mentre si allontanavano dalla palla di fuoco. ... "

    Il dopo Challenger ha comunque prodotto una revisione sostanziale del sistema e delle procedure di volo per ampliare i margini di intervento per un eventuale annullamento della missione : http://it.wikipedia.org/wiki/Space_Shuttle_abort_mode

    In particolare interessante il paragrafo che da alcune speigazioni sul perchè non sia stato e non sarà mai aggiunto un sistema di espulsione per l'equipaggio : http://it.wikipedia.org/wiki/Space_Shuttle_abort_mode#Sistema_di_espulsione

    In ogni caso torno a insistere sulla criticità delle procedure di decollo e di rientro , per tempi , stato del sistema , grandezze coinvolte ( accelerazioni e velocità raggiunte , sollecitazioni strutturali ... ) e sui margini di intervento abbastanza stringati.

    > ... si è cercato di rimediare, ricoprendo il serbatoio con della schiuma isolante.

    La schiuma isolante ricopre il serbatoio da sempre : il serbatoio appare , anche visibilmente, scoperto ( bianco ) solo nelle primissime missioni ( la prima operativa è del 1981 : http://it.wikipedia.org/wiki/File:Space_Shuttle_Columbia_launching.jpg )

    > ... si è deciso di completare i voli di costruzione “fondamentali” della stazione spaziale, di effettuare minuziosi controlli dello scudo termico dopo ogni lancio, e poi di mettere a terra lo shuttle entro il 2010!

    Lo Shuttle sarebbe stato messo a terra per fine vita operativa indipendentemente dall'esito nefasto della missione del Columbia ...

    Già negli anni '90 era stato definito un programma per sostituire lo Shuttle , molto prima della definizione del programma Constellation ( http://it.wikipedia.org/wiki/Programma_Constellation )

    Purtroppo gli esiti non sono stati favorevoli sin dai primi tests :
    - http://it.wikipedia.org/wiki/Lockheed_Martin_X-33
    - http://it.wikipedia.org/wiki/VentureStar

    "Abbiamo ottenuto un incredibile bagaglio di conoscenze da questi programmi sperimentali, ma una delle cose che abbiamo appreso è che la nostra tecnologia non è ancora avanzata al punto che possiamo sviluppare con successo una navetta riutilizzabile che migliori in maniera significativa la sicurezza, l'affidabilità e i costi di esercizio"

    Tradotto in termini operativi , lo Shuttle è molto più sicuro , affidabile , concretamente gestibile.

    La messa a terra degli Shuttle non è stata quindi una sorpresa e tenuto conto del fallimento del programma X-33 e dei ritardi sugli altri programmi , qualcuno ha avanzato altre ipotesi :

    - è abbastanza improbabile l'ipotesi di riutilizzare ( allo stato attuale sarebbe più appropriato scrivere resuscitare ) le navette Buran ( http://it.wikipedia.org/wiki/Programma_Buran ) e il razzo Energia ( http://it.wikipedia.org/wiki/Energia_%28razzo%29 ) , sistema molto simile allo Space Shuttle , ma più potente ( per carico trasportabile ) , più recente ( lo Shuttle è un progetto che risale alla prima metà degli anni '70 , mentre il progetto della Buran è dei primissimi anni '80 ) e tecnologicamente più avanzato ( la navetta Buran può essere gestita per tutta la durata della missione senza equipaggio ) : http://www.k26.com/buran/Info/A_Comparison/a_comparison.html

    - probabile è invece un prolungamento della vita operativa degli Shuttle : http://www.nasaspaceflight.com/2008/10/shuttle-extension-white-paper/

    - certo è l'utilizzo dei vettori esistenti in forza all'ESA ( Soyuz e Ariane 5 ) per i rifornimenti alla ISS ( l'ultimo cargo è stato agganciato proprio oggi : http://www.roscosmos.ru/main.php?id=2&nid=9279 ) e per la rotazione degli equipaggi della ISS ( attualmente è in fase di approntamento una seconda piattaforma di lancio per le Soyuz nel cosmodromo dell'ESA nella Guyana francese )

    - quasi certo è l'avvio di un progetto di sviluppo per un lanciatore riutilizzabile made in ESA ( http://www.esa.int/SPECIALS/Launchers_Home/index.html )

    Certissima , shuttle o non shuttle , è la vitalità del progetto ISS : i Paesi partecipanti hanno infatti deciso di prolungarne la vita operativa almeno fino al 2020 ( http://it.euronews.net/2010/03/04/l-iss-lanciata-verso-il-futuro/ )

  81. Ettore
    Pubblicato il 3 maggio 2010 alle 10:47 | Permalink

    @Pinco Pollino
    Riguardo l'X-37B ho letto un articoletto in cui si paventava una possibile (e probabile) ipotesi sul suo uso.
    Entrato in orbita, avrebbe rilasciato un piccolo satellite (come per il fratellone ha un cargo bay), una volta rilasciato, i due, avrebbero iniziato delle simulazioni di attacco-difesa.

    Oggi, tutto quanto passa per satelliti e visto l'ottimo risultato dei cinesi nell'abbattere con precisione un loro vecchio satellite con un razzo lanciato da terra, è ovvio che occorreva creare un sistema di protezione e attacco per i satelliti.

    Ripeto, questo è quanto ho letto in un articolo, se sia vero o no non lo so, sicuramente è una ipotesi realistica, ma pur sempre una ipotesi.

  82. Pinco Pollino
    Pubblicato il 3 maggio 2010 alle 11:05 | Permalink

    @linuser: Faccia lei, gira e rigira si dicono delle cose e poi magari il loro esatto contrario:
    1a) "Lo Shuttle sarebbe stato messo a terra per fine vita operativa indipendentemente dall’esito nefasto della missione del Columbia …"
    1b) "probabile è invece un prolungamento della vita operativa degli Shuttle"
    1c) "lo Shuttle è molto più sicuro , affidabile , concretamente gestibile" .... tant'è che verrà messo a terra dal 2010!
    Bohhh.....!? 😐

    "In ogni caso torno a insistere sulla criticità delle procedure di decollo e di rientro , per tempi , stato del sistema , grandezze coinvolte ( accelerazioni e velocità raggiunte , sollecitazioni strutturali … ) e sui margini di intervento abbastanza stringati."
    Sono d'accordo, quindi è meglio affidarsi ad un sistema più sicuro dello shuttle!!!!! 😐

    "In particolare interessante il paragrafo che da alcune speigazioni sul perchè non sia stato e non sarà mai aggiunto un sistema di espulsione per l’equipaggio :"
    Ottime spiegazioni che confermano come da questo punto di vista la sicurezza dello shuttle sia estremamente carente non potendo far uso di questi sistemi di sicurezza! 😐

    "Certissima , shuttle o non shuttle , è la vitalità del progetto ISS : i Paesi partecipanti hanno infatti deciso di prolungarne la vita operativa almeno fino al 2020"
    Vediamo come si metteranno le cose quando cominceranno a manifestarsi "normali" guasti ai dispositivi esterni, come successo negli anni scorsi (giroscopi, motori e cuscinetti dei pannelli solari, serbatoi e valvole del sistema refrigerante, serbatoi dei gas per le uscite all'esterno, antenne, ecc. ecc.) e non ci sarà più lo shuttle a disposizione per fare la manutenzione e sostituire i componenti in questione (magari anche per dare, insieme a progress, ATV e HTV, una spinta per risollevare l'altezza dell'orbita che si va degradando)!
    😐 😐

  83. Xisy
    Pubblicato il 3 maggio 2010 alle 11:52 | Permalink

    Il mantenimento del programma shuttle è diventato nel tempo sempre piu' costoso rispetto alle previsioni iniziali, questo anche a causa dei vari incidenti di percorso che hanno spinto le agenzie spaziali a garantire livelli di sicurezza e ridondanza sempre più stringenti. E' essenzialmente per questo motivo che si è deciso di interromperlo.

  84. wimp
    Pubblicato il 3 maggio 2010 alle 16:06 | Permalink

    Oltretutto i fondi della Nasa sono stati ridotti di molto rispetto al secolo scorso e la mia opinione è che questo abbia portato alla necessità di utilizzare la tecnologia più economica, sicura ed efficace a seconda dello scopo delle varie missioni:
    - Esperimenti in orbita con equipaggio umano: ISS
    - Invio di personale su ISS: vettori sia privati che non (soyuz,spaceX ecc.)
    - rifornimenti ISS: vettori privati e non e nuove navette senza equipaggio tipo X 37B
    - missioni di tipo militare: navette senza equipaggio tipo X 37B

    Ai nostri tempi una navetta tipo shuttle capace di adattarsi a molti scopi senza essere ottimizzata per nessuno IMHO risulta poco economica, sicura ed efficace 😉

  85. linuser
    Pubblicato il 3 maggio 2010 alle 19:11 | Permalink

    @ Pinco Pollino

    Evidentemente avrei dovuto precisare meglio questi punti :

    in un qualsiasi progetto di una macchina viene stimato un tempo di esercizio , all'avvicinarsi del quale la macchina è di fronte a due destini :
    - essere pensionata nei tempi previsti
    - essere revisionata e aggiornata per prolungarne la vita operativa per un periodo che comunque di solito è ( o dovrebbe essere ) inferiore al periodo di esercizio previsto da progetto ; in questa eventuale fase si può procedere all'aggiornamento di alcuni sistemi e/o delle procedure operative ... quel che non si può fare è modificare radicalmente la macchina.

    Per non andare troppo sull'astratto alcuni esempi di macchine ( tuttavia non paragonabili allo shuttle per ovvi motivi ) a cui è stata prolungata la vita operativa sono l'F-104 ( http://it.wikipedia.org/wiki/F-104 ) i cui ultimi esemplari in forze all'AM sono stati radiati nel 2004 ( quando invece le macchine in forze all'USAF sono state sostituite nei tempi previsti , nella seconda metà degli anni '70 ) , l'incrociatore Vittorio Veneto ( http://it.wikipedia.org/wiki/Vittorio_Veneto_%28550%29 ) varato nel 1969 , aggiornato negli anni 1981-1983 , fuori servizio dal 2003 e ufficialmente in disarmo dal 2006 , Nave Garibaldi ( http://it.wikipedia.org/wiki/Giuseppe_Garibaldi_%28551%29 ) i cui lavori per prolungarne la vita operativa si sono svolti nel 2003.

    Il prolungare o meno la vita operativa di una macchina è influenzato da fattori di tipo economico e tecnico.

    Se si fosse trovato un sistema sostitutivo degli shuttle con costi di gestione minori e di pari affidabilità o superiore , lo shuttle sarebbe stato messo a terra nei tempi previsti indipendentemente dal disastro del Columbia.

    La definizione del prolungamento della vita operativa degli shuttle e l'impostazione del programma Constellation ( che riprende molti dei concetti maturati dall'esperienza con il programma Saturno ) , credo siano diretta conseguenza del fallimento del programma X-33/venture Star che "ha costretto" la NASA a concentrare i propri sforzi su qualcosa che funzioni piuttosto che su qualcosa che sarebbe dovuto risultare più sicuro , più affidabile , più moderno e più economico

    cit : http://it.wikipedia.org/wiki/VentureStar

    "Quando il programma venne cancellato, il 1º marzo 2001, era già in costruzione un prototipo in scala del VentureStar, finanziato dalla NASA e denominato X-33. La costruzione dell'X-33, tuttavia, fu contraddistinta da continui fallimenti nei test, da battute d'arresto al programma e dallo sforamento del budget iniziale. Inoltre, alcune delle nuove tecnologie richieste (come le cisterne di carburante composite e gli scudi termici metallici) non raggiunsero gli standard tecnici necessari. La cisterna di carburante composita esplose durante un test di pressione causando un ritardo nello sviluppo del sistema aerospike e costringendo la NASA e la Lockheed a ricorrere a cisterne in alluminio e a razzi convenzionali. Prima che il programma venisse terminato era già stato speso oltre 1 miliardo di dollari. Dopo la cancellazione, però, gli ingegneri erano in grado di realizzare una cisterna d'ossigeno funzionante dal composto di fibra di carbonio.
    Con la dismissione del programma di test X-33, i successivi piani per la costruzione del VentureStar a grandezza naturale vennero annullati. "

    cit : http://it.wikipedia.org/wiki/Lockheed_Martin_X-33

    "Abbiamo ottenuto un incredibile bagaglio di conoscenze da questi programmi sperimentali, ma una delle cose che abbiamo appreso è che la nostra tecnologia non è ancora avanzata al punto che possiamo sviluppare con successo una navetta riutilizzabile che migliori in maniera significativa la sicurezza, l'affidabilità e i costi di esercizio"

    Insisto nel credere che la vita operativa degli shuttle potrebbe comunque essere estesa :
    1 . perchè la definizione del programma è già pronta per essere messa in pratica.
    2. perchè la decisione di mettere comunque a terra gli shuttle sembra piuttosto dettata da scelte guidate da motivazioni economico-politiche ( le dice nulla la guerra in Iraq ? ) e dalla reazione dell'opinione pubblica al disastro del Columbia.

    @Ettore

    > Oggi, tutto quanto passa per satelliti e visto l’ottimo risultato dei cinesi nell’abbattere con precisione un loro vecchio satellite con un razzo lanciato da terra, è ovvio che occorreva creare un sistema di protezione e attacco per i satelliti.

    Che l'operazione dei cinesi abbia costituito o meno un successo dipende dai punti di vista : si saranno pure liberati di un " ferrovecchio ambulante orbitante" con precisione chirurgica ma hanno prodotto un centinaio di migliaia di detriti spaziali di dimensioni variabili , aggiuntisi alla fitta schiera già orbitante ( http://it.wikipedia.org/wiki/Detriti_spaziali )

    Sul secondo punto ( protezione dei satelliti ) la SkyNet britannica è dotata anche di contromisure per autoproteggersi da attacchi sia balistici che da guerra elettronica , atte quindi a garantire la piena operatività in qualunque condizione.

  86. Ettore
    Pubblicato il 3 maggio 2010 alle 20:14 | Permalink

    @linuser
    ... oltre al fatto che mi sa, siamo andati OT... ed anche di brutto...

    Se si fosse trovato un sistema sostitutivo degli shuttle con costi di gestione minori e di pari affidabilità o superiore , lo shuttle sarebbe stato messo a terra nei tempi previsti indipendentemente dal disastro del Columbia.
    Su questo punto non sono assolutamente d'accordo, nel caso specifico della nasa, ma anche di altre agenzie, conta anche il progresso tecnologico e la ricaduta tecnologica che la ricerca comporta per non parlare poi di quanta economia smuove un nuovo e costoso progetto (vedi LHC, ITER per la fusione nucleare e tanti altri...).

    Che l’operazione dei cinesi abbia costituito o meno un successo dipende dai punti di vista : si saranno pure liberati di un ” ferrovecchio ambulante orbitante” con precisione chirurgica ma hanno prodotto un centinaio di migliaia di detriti spaziali di dimensioni variabili , aggiuntisi alla fitta schiera già orbitante
    Si, ma in campo militare non conta se hai generato detriti, conta se riesci a colpire il bersaglio, con quale precisione ed in quanto tempo tutto il resto "in guerra" non conta... i detriti poi ancora meno (chiamali detriti o macerie... il risultato è il medesimo)

  87. linuser
    Pubblicato il 3 maggio 2010 alle 21:16 | Permalink

    > ... nel caso specifico della nasa, ma anche di altre agenzie, conta anche il progresso tecnologico e la ricaduta tecnologica che la ricerca comporta per non parlare poi di quanta economia smuove un nuovo e costoso progetto (vedi LHC, ITER per la fusione nucleare e tanti altri…).

    certo , un progetto nuovo e costoso ha ricadute tecnologiche ed economiche nel breve e medio periodo , ma se il progetto ha delle specifiche troppo ambiziose ( come nel caso del programma X-33 ) non tecnologicamente supportabili , si può affermare che il medesimo programma avrà ricadute simili o superiori nel lungo periodo ?

    A mio parere la risposta è NO ... nel caso del programma X-33 lo sforzo economico e tecnologico ha di contro provocato uno stallo nel progresso del programma spaziale che continuerà a pesare negli anni a seguire. Magari alla Locked-Martin invece non saranno così dispiaciuti.

    > Si, ma in campo militare non conta se hai generato detriti, conta se riesci a colpire il bersaglio, con quale precisione ed in quanto tempo tutto il resto “in guerra” non conta… i detriti poi ancora meno (chiamali detriti o macerie… il risultato è il medesimo)

    Questo principio in genere non vale per lo spazio , dove la maggior parte dei detriti prodotti continua ad orbitare per periodi più o meno lunghi ad una velocità variabile - fino a 36.000 km all'ora - , costituendo di fatto un pericolo per qualunque satellite , militare o civile , o altro oggetto orbitante - ISS compresa - o veicolo che debba attraversare una regione dello spazio attorno alla Terra.

    Se l'obiettivo di una nazione è usare lo spazio anche a scopi militari , non ha senso contribuire globalmente a restringerne il campo di utilizzo con la produzione di ulteriori detriti. Russi e Americani che hanno più esperienza in questo campo pur avendo un arsenale intero in disuso in orbita , non si sognano nemmeno di usare uno di quegli oggetti come bersaglio per un test balistico.

  88. Pinco Pollino
    Pubblicato il 3 maggio 2010 alle 22:28 | Permalink

    Per tornare più nello specifico all'argomento nel titolo in senso esteso, ma che mi sta maggiormente a cuore, ieri ho visto su RAI NEWS24 satellitare un dibattito sul nucleare in italia alla luce delle nuove decisioni governative.

    Nel dibattito è intervenuto, se non vado errato (perché non è che poi lo conosca bene) il prof. Massimo Scalìa, Fisico della Sapienza di Roma, che ha ritenuto di fare una sorta di mea culpa dei Fisici (di tutto il mondo non solo italiani) circa la loro attività negli ultimi 40 anni.

    In sostanza ha detto il prof Scalìa che i Fisici avrebbero fatto meglio ad occuparsi, negli ultimi 40 anni, non del Modello Standard, le Stringhe, la Grande Unificazione e la Relatività Generale nelle sue relazioni con la Cromodinamica Quantistica o degli acceleratori e super-acceleratori, ma magari di cose un po' più terra-terra come per esempio migliorare la conoscenza della Fisica dei reattori nucleari per quanto riguarda tre aspetti principali (tanto per non essere generici): 1) una migliore efficienza di sfruttamento del combustibile nucleare, 2) un miglioramento della sicurezza intrinseca dei reattori stessi (che più o meno sono uguali a quelli di 40 anni fa) e 3) un miglioramento delle procedure di gestione delle scorie radioattive.

    Ecco forse anche questo è un modo di dire che la fisica degli ultimi 40 anni avrebbe richiesto una diversa impostazione, più orientata verso le esigenze umane complessive che non verso i sogni di "cavalieri senza macchia e senza paura che si lanciano al galoppo verso il deserto lasciandosi alle spalle vuoti enormi".

    Chissà se questo è un fenomeno sufficientemente accertato, anche se inspiegato nel perché si sia verificato, e che dovrebbe quindi essere accettato come tale!

    😐

  89. Pubblicato il 3 maggio 2010 alle 22:48 | Permalink

    Comodo dirlo adesso! Sarebbe stato forse un dito più facile senza la moratoria del referendum del 1987. In Italia da allora i corsi di ingegneria nucleare o di fisica dei reattori sono andati progressivamente estinguendosi, fondamentalmente per totale assenza di sbocchi lavorativi per gl studenti, e si opportunità di ricerca dignitose per i docenti. Oggi gli ingegneri nucleari nei nostri politecnici si occupano di magneti o criogenia, i fisici dei reattori non esistono proprio più. A suo tempo, quando mi sono laureato a Torino, c'era un solo studente del mio anno che ha fatto una tesi in qualche modo legata ai reattori. Dopo di lui, il nulla. Sembrerà banale, ma non si può pretendere la ricerca senza finanziarla e sostenerla (ritornello già sentito, vero?). Nel pur desolante panorama italiano la fisica "generale" ha comunque sempre avuto una vita dignitosa rispetto a molte altre discipline sorelle.

  90. Ettore
    Pubblicato il 3 maggio 2010 alle 23:12 | Permalink

    @Pinco Pollino
    ... forse è sciocco quello che stò per dire, ma è tutto relativo ...

    E' relativo al periodo storico, è relativo alle conoscenze di quel periodo storico e soprattutto dalle persone...
    Quello che per qualcuno è utile per un'altro no... non credo ci sia una equazione che dia una risposta certa...

    Nessuno dice che la fusione non sia un campo "utile" della ricerca, se sia un campo trascurato non lo so (e non mi pronuncio dato che non sono addentro)... ma DEMO ed ITER non credo siano progetti poco costosi o avari di menti e di tecnologia...
    E poi, come ha scritto giustamente Marco, almeno in italia il popolo si è espresso chiaramente a riguardo... Il grosso errore fatto all'epoca è stato quello di azzerare centrali e ricerca, si potevano azzerale le centrali e non la ricerca... ma col senno di poi è facile...
    (Fortunatamente all'epoca avevo 9 anni per cui non ne sono responsabile)

  91. wimp
    Pubblicato il 3 maggio 2010 alle 23:54 | Permalink

    Tornando IT: cosa pensate voi fisici degli enigmi riguardanti la costruzione di mura ciclopiche, di complessi megalitici come stonehenge, piramidi con blocchi enormi costruite lontanissime dalle cave etc. ? Tralasciando ovviamente le cavolate tipo quelle pseudo millenaristiche&alieni una possibile spiegazione di questi fatti accertati (nel senso che i siti archeologici esistono 🙂 ) potrebbe essere che la gravità non sia costante? cosa dicono a riguardo le ultime teorie sulle particelle responsabili della gravità?
    A ben vedere se la gravità non fosse costante si potrebbe anche spiegare l'enigma dell'esistenza dei dinosauri (per il loro peso non potevano deambulare in posizione eretta come invece facevano) e della loro estinzione... 🙂
    Lo so che questa mia domanda è di una assurdità incredibile (scusa Marco 🙂 ) ma mi interessa sapere se ci sono nuove teorie scientifiche riguardo questa possibilità...

  92. linuser
    Pubblicato il 4 maggio 2010 alle 02:22 | Permalink

    @ Pinco Pollino

    In Italia c'è stato un referendum a suo tempo che ha cancellato il nucleare e la ricerca sul nucleare : è persino sparito da alcuni testi di scienze delle scuole medie e di fisica del bienno sperimentale al liceo. Magari l'onda emotiva del dopo Chernobyl ha influito troppo pesantemente sull'esito e sulla conseguente applicazione pratica ( come l'esperienza ha insegnato , spegnere dall'oggi al domani un reattore non significa liberarsi del problema in via definitiva ) , ma non completamente a torto IMHO . L'opinione pubblica era in maggioranza totalmente ignorante sul tema e si preoccupava poco o per nulla dell'impatto del nucleare , degli effetti sulla salute e sull'ambiente in condizioni di esercizio o dei ben più devastanti effetti di un incidente a un reattore nucleare.

    Impressionanti le testimonianze di chi ha vissuto l'incidente di Chernobyl "letteralmente" sulla propria pelle , di chi ha visto , di chi ha partecipato alle operazioni di contenimento del danno e della costruzione del sarcofago ( http://www.lastoriasiamonoi.rai.it/puntata.aspx?id=173 ) o di chi è entrato all'interno del sarcofago per cercare il combustibile residuo e si è trovato di fronte a degli ammassi di grafite e combustibile sotto forma di roccia vulcanica solidificata ( http://www.youtube.com/watch?v=vPyrqRczmQ4 ... documentario della BBC del 1991 suddiviso in dieci spezzoni, ma ci sono comunque molti altri contributi filmati interessanti sul tema ) ; imponente lo schieramento di uomini ( tecnici , minatori e una grossa parte dell'armata rossa ) e mezzi ( per un'idea , provate a puntare Google Earth su queste coordinate : 51° 9'8.36"N , 29°58'56.04"E )

    Comunque l'incidente è servito a capire i rischi intrinsechi del nucleare e a spegnere definitivamente certi facili ottimismi ( sapevate ad esempio che la Ford aveva progettato un prototipo di automobile nucleare sul finire degli anni '50 : http://en.wikipedia.org/wiki/Ford_Nucleon ) e di conseguenza a progettare sistemi più sicuri . Che poi se ne sia costruiti pochi , pochissimi di nuovi e quindi più sicuri e che la maggior parte dei reattori ancora attivi sono stati progettati in "un'altra epoca" è un altro discorso.

    > " 3) un miglioramento delle procedure di gestione delle scorie radioattive."

    Se non mi sbaglio era stato proprio Carlo Rubbia a proporre un sistema di trattamento rivoluzionario per la gestione delle scorie ai tempi dell'Enea ma anche il suo progetto fu una delle vittime dell'esito del referemdum.

  93. linuser
    Pubblicato il 4 maggio 2010 alle 03:33 | Permalink

    Sul tema Chernobyl non potevo non includere anche un altro documentario made in BBC ( The True Battle of Chernobyl in versione non censurata : http://video.google.com/videoplay?docid=-5384001427276447319# ) con le testimonianze dei protagonisti e di personaggi del calibro di Gorbaciov e Hans Blix.

  94. Max
    Pubblicato il 4 maggio 2010 alle 06:00 | Permalink

    @Ettore : Occhio, che il popolo si è si espresso chiaramente, ma dopo essere stato adeguatamente pilotato da una classe politica il cui unico interesse era cavalcare l' onda della paura della gente per raccattare voti. Del referendum sul nucleare il 95% della gente non capiva un tubo se non quello che qualcuno ha voluto fargli credere.
    Che sia stata un'idiozia immensa credo ormai sia chiaro a tutti.

    @Pinco : secondo me stai facendo un minimo di confusione tra fisica e tecnologia. Quel che sarebbe servito (e servirebbe....) è un maggior impegno sulla tecnologia dei reattori a FISSIONE; il discorso fisica teorica c'entra ben poco, quel che serve per il funzionamento di quei reattori c'e' gia' da decenni.
    C'e' da dire, come giustamente sottolinea Marco, che per un Italiano non c'era speranza di far nulla in proposito a meno di non emigrare.

    Un altro grosso errore è stato probabilmente il disperdere gli sforzi della fusione nucleare in una miriade di progetti più o meno piccoli e più o meno costosi.... ma anche questo è senno di poi, misto a motivazioni geopolitiche, ovviamente. Cmq, si tratta per il 90% sempre di tecnologia, dal lato teorico mi sembra ci sia già tutto.

    L' unica cosa che mi lascia perplesso sulla fisica teorica degli ultimi anni (decenni) è che tutto mi sembra focalizzato in un' unica direzione e che il MS, nonostante sia chiaramente incompleto, sia stato assunto come una specie di dogma visto che funziona abbastanza bene.

    Ciao

    Max

  95. Ettore
    Pubblicato il 4 maggio 2010 alle 08:02 | Permalink

    @Max
    Non ho mai detto il contrario, ed anche io penso che quanto fu fatto sia stato totalmente sbagliato sotto molti aspetti, tranne uno, il referendum in se per se, quì concordo appieno dato che giusto o sbagliato la decisione popolare va rispettata (ovviamente, ci deve essere una corretta informazione, ma questa non c'è mai in nessun caso... ma quì andiamo OT).

    Sul fatto di disperdere gli sforzi... be anche quì ci sarebbe tutto un discorso da fare... Tevatron ed Lhc sarebbero da considerare come dispersione di sforzi? Forse si, forse no, dipende dai punti di vista.

    Se non vado errato, ma quì solo Marco o qualche altro fisico può rispondere correttamente, non c'è una teoria che vada bene per tutto, ogni teoria ha pro e contro, il fatto è che il MS è quello che risponde meglio (predice meglio?) alla realtà sperimentale (almeno fino ad ora) e se non c'è un motivo più che valido... perchè cambiare?
    Immagino anche che se la maggioranza dei fisici di tutto il mondo continuano sulla strada del MS ci sarà un perchè... io certo (con le mie infime conoscenze in materia) non mi permetto di giudicare.

    Per la mia piccola esperienza lavorativa... c'è una regoletta che spesso si usa: ciò che funziona non si cambia.
    Non si cambia mai qualcosa che funziona a meno che, il nuovo prodotto non offra funzionalità indispensabili che il vecchio non ha, che il nuovo corregga bug di cui il vecchio è afflitto e quei bug interferiscono pesantemente sulla sua funzionalità e poco altro.
    Spesso, si tende a cambiare qualcosa solo perchè fa figo avere un nuovo giocattolino, senza pensare alle conseguenze e soprattutto senza valutare l'impatto generale che il cambiamento potrebbe apportare.
    Se in alcuni ambiti un siffatto errore non crea pesanti conseguenze, in altre potrebbe, in altre sarebbe distruttivo.
    Essere conservativi non sempre vuol dire arretrati.

  96. Pubblicato il 4 maggio 2010 alle 11:02 | Permalink

    @Max: perdonami, ma quando dici che

    il MS, nonostante sia chiaramente incompleto, sia stato assunto come una specie di dogma visto che funziona abbastanza bene.

    stai decisamente sminuendo la portata e la potenza del MS. Per carità, non te ne faccio mica una colpa, però è importante che sia chiaro: il MS ha dimostrato una potenza unificante e predittiva micidiale.

    Dire che "funziona abbastanza bene" non gli rende giustizia, e lo mette colpevolmente alla stregue di una qualunque altra teoria parametrica efficace, cosa che non è. I suoi "limiti" sono veramente molto tecnici perché li possa discutere in un commento - magari prima o poi in un post - ma diciamolo chiaro: nei regimi energetici attuali il MS funziona benissimo. È quasi sicuramente un'approssimazione di "bassa" energia di una teoria più completa, ma questo mica ne sminuisce la portata (come, per dire, la relatività generale non sminuisce mica la portata della gravitazione newtoniana).

    @Wimp: please, non iniziare nemmeno. Tirare in ballo modifiche alla gravità per giustificare la nostra scarsa comprensione delle capacità tecnologiche di popolazioni antiche è ridicolo e risibile. Non mi ci metto neppure, perché non è serio per niente.

  97. Max
    Pubblicato il 4 maggio 2010 alle 13:51 | Permalink

    @Marco : ma questo e' ovvio ! Lo so che funziona bene e predice, ma NON è la teoria definitiva, e anche questo è ovvio.
    Tra l' altro non sto criticando la capacità o meno di predirre del MS, ma solo il fatto dell' abbondanza di parametri.
    Se io prendo la formula dell' energia di una particella in movimento e me la sviluppo in serie, tenendo una ventina di termini, questa funzionerà benissimo anche a regimi relativistici e fornirà predizioni mirabolanti, ma questo non vuol dire che l' espressione dell' energia ESATTA sia un polinomio con 20 termini...... Ma questo sarebbe il meno. Se si fosse ottenuta quell' espressione sviluppando un polinomio in cui i 20 parametri abbiano un qualche significato fisico (quindi non un semplice sviluppo di Taylor ma un qualcosina di + complicato....), senza conoscere la vera natura dell' espressione, si sarebbe portati a credere erroneamente che la natura dell' energia di cui sopra sia proprio insita in un polinomio.
    Questo non toglierebbe nulla alla sua validità in campo tecnologico, ma toglierebbe tutto per quanto riguarda la comprensione teorica del fenomeno, ed è questo che mi fa pensare.

    Tu mi parli della gravitazione Newtoniana. Hai ragione, e' una teoria con campi di applicazione vastissimi, e in questi funziona eccome.
    Ma è sbagliata, punto e basta. E non parlo solo di errori nei regimi relativistici. E' sbagliata perchè nasconde un qualcosa di ben più fondamentale che ci sta sotto.

    Se io prendo i 90 e passa atomi della tavola periodica e mi determino sperimentalmente un 3-4 parametri per atomo, con questi me la cavo nel calcolo di una miriade di reazioni chimiche, magari rimanendo con la convinzione che gli atomi sono delle palline indivisibili con proprietà determinate come credevano i greci.

    Ciao

    Max

  98. Max
    Pubblicato il 4 maggio 2010 alle 14:03 | Permalink

    @Ettore : purtroppo secondo me un referendum in cui la gente non sia stata informata a dovere, ma DAVVERO a dovere, ha la stessa validità di un 2 di picche a briscola. Anzi, il 2 di picche almeno non fa danni.
    Ti farei l' esempio della fecondazione assistita, ma qui andremmo davvero OT.... per riassumere, credo che quello sia stato lo schifo + grande che un popolo democratico possa subire, con chi governa (e non solo) chiedendo a chi e' contrario di NON andare a votare per poter vincere sfruttando una quota fisiologica di astensioni.

    Per quanto riguarda la dispersione di sforzi.... facciamo un paio di distinzioni.
    Se io sono la FIAT e cerco di inventare un motore che consuma la meta', e tu sei la MERCEDES e fai altrettanto, ognuno con i suoi fondi e ognuno cercando di ricavarsi una fetta di mercato, il fatto che ognuno tenga ben segrete le sue ricerche è giusto e comprensibile. Magari un peccato, perchè riunendo gli sforzi ci si riuscirebbe in metà tempo, ma le leggi del mercato sono quelle.

    Se però io sono uno scienziato finanziato, alla fine, con la vil pecunia di tutti gli europei, e tu idem, la cosa cambia assai.... visto che anche se il nome che appare sulla scoperta e' il mio (o il tuo), la sua proprietà e' di tutti noi. Quindi, se permetti, mi girano gli zebedei vedere 20-30 progetti di TOKAMAK ognuno per i cavoli suoi finanziati con la pecunia di tutti, e senza che nessuno cavi un ragno dal buco, e soprattutto con tutti che ripetono gli stessi errori.
    Il discorso LHC e Tevatron e' un' altra fazenda ancora, qui intanto si tratta di una "competizione" tra USA ed EU, che lo si voglia ammettere o no. E comunque, si tratta di 2 macchine profondamente differenti.
    Ben altro discorso sarebbe stato se gli USA si fossero impuntati a proseguire con la costruzione del SSC togliendo magari l' appoggio finanziario/tecnologico all' LHC del CERN. Credo se ne siano resi conto anche loro (e non solo x problemi economici) che non sarebbe servito a un tubo e che probabilmente partiva già un gradino sotto L' LHC.

    Ciao

    Max

  99. Pubblicato il 4 maggio 2010 alle 14:22 | Permalink

    @Max: senza offesa, magari sbaglio, ma secondo me hai una visione piuttosto offuscata del Modello Standard. Ribadisco (e qui ed ora non ho tempo di andare oltre, e in più non sono sicuro che potrei farlo senza i dettagli tecnici): il MS non è una teoria parametrica efficace che è stata fittata sui dati tanto per riuscire a descriverli. Se lo pensi (e io questo deduco dal tuo ultimo commento sull'argomento) se veramente fuoristrada. Che ti piaccia o meno, il MS ha aumentato la comprensione teorica dei fenomeni che descrive (esempi a caso, l'uso della simmetria SU(3) per la QCD, l'ipotesi della carica di "colore", e la successiva scoperta di questa simmetria "intima" della natura che nessuno avrebbe a suo tempo immaginato. O il fatto che i conti ti portino a scegliere una teoria di gauge non abeliana, cosa che ti predice il fenomeno moooolto contro-intuitivo della libertà asintotica e del confinamenti dei quark, che si rivela anni dopo la scelta della Natura. E potrei continuare).

    A margine (e qui cadiamo nell'epistemologia), la gravitazione newtoniana non è sbagliata, ne lo è la tavola periodica. Le teorie non sono giuste o sbagliate, sono semplicemente falsificate o meno. E la falsificabilità di una teoria non è un attributo assoluto, ma dipende dal regime di applicazione. E` troppo facile dire oggi con il senno di poi che queste teorie "nascondono qualcosa di ben più fondamentale che ci sta sotto": la realtà è che a suo tempo queste teorie hanno invece fatto proprio il contrario, gettando luce su qualcosa di più fondamentale che non era visibile tramite le interpretazione precedenti (rimanendo in tema: la gravita` che tiene insieme il sistema solare è la stessa che fa cadere le mele dagli alberi in terra; tutta la materia è costituita da pochi elementi fondamentali, le cui proprietà hanno certe caratteristiche ripetitive e modellizzabili in termini matematici). Giudicare il passato con gli occhi e le conoscenze di oggi non è molto onesto.

  100. Ettore
    Pubblicato il 4 maggio 2010 alle 14:31 | Permalink

    @Max
    Questo discorso, della condivisione delle info l'ho già affrontato con Marco e Manu in un'altro post... ora senza dilungarmi ... se all'interno dell'LHC stessa, ogni esperimento è separato (in termini di condivisione delle info ma non solo... ATLAS e CMS hanno finalità simili eppure occupano 2 progetti separati...) be... non mi suona strano che ognuno si faccia il proprio tokamak...

    Sia chiaro, io la penso come te riguardo la condivisione di info, di progetti comuni e quant'altro, ma, fino a quando in ballo ci saranno: meriti personali, meriti di gruppo, prestigio delle varie uni o enti di ricerca, know how personale e soprattutto competizione (ma si potrebbe continuare a lungo) non si avrà mai una linea di azione comune anche se... LHC in se per se (esperimenti esclusi) credo sia un buon inizio.

    Purtroppo, visioni (scusa il termine forse non molto appropriato) "socialistiche" non si conciliano molto bene quando ci sono interessi in ballo, appunto perchè ognuno pensa al proprio orticello invece del proprio e di quello del vicino...

    Se si potesse attingere dall'esperienza open source, dove il contributo di ognuno è gratificato dal riconoscimento sulla sua parte di codice ma tutti collaborano in unico progetto (ed anche l'ultimo arrivato senza avere mostri sacri che lo sponsorizzano può aggiungere del suo) ... be... quel giorno farò i salti mortali di gioia!

  101. Max
    Pubblicato il 4 maggio 2010 alle 14:57 | Permalink

    @Marco : son daccordo con te sul senno di poi, ma il problema e' che si tende a "sedersi" su una teoria che dimostra di funzionare bene senza guardare un po' più lontano del necessario.
    Quando ti dico che la gravitazione è "sbagliata" lo faccio senza il senno di poi e con le dovute premesse. E' sbagliata nel senso che NON e' una descrizione completa dei fenomeni sottostanti. Anzi, e' fuorviante, se vogliamo, in certi ambiti. Chiaro che Newton non poteva saperlo, e che nulla va tolto ai suoi meriti.
    Tu mi dici che "nei regimi energetici attuali il MS funziona benissimo". Nessun dubbio. Ma già il fatto che qualche baco c'e' fa pensare che ci sia sotto qualcosa di ben + profondo.
    Quello che voglio dire e' che NON sto criticando il MS in se, ma che mi sembra che, siccome "funziona bene", ci si sia adagiati (dal lato teorico) intorno a quello senza cercare + in la.

    @Ettore : l' Open Source infatti è uno splendido esempio di come le cose possano funzionare bene collaborando. Anche li, purtroppo, ogni tanto c'e' qualcuno che si coltiva il suo orticello personale, ma e' una rarità.
    Infatti, quel che tu dici, cioè che ognuno può aggiungere del suo senza mostri sacri alle spalle è il suo bello. I contributi "cattivi" si eliminano da soli.
    Chiaro che nel caso degli esperimenti di fisica di punta le cose non sono cosi' semplici, viste le somme in gioco....

    Io sono un (piccolo) imprenditore, tra l' altro, e mi sto sempre + rendendo conto che la concorrenza a tutti i costi a volte e' controproducente per tutti. Ci son dei limiti che, se superati, fanno perdere soldini e tempo a tutti, compreso a chi "vince".

    Ciao

    Max

  102. wimp
    Pubblicato il 4 maggio 2010 alle 15:01 | Permalink

    @Marco: Tranquillo non ho intenzione di discutere su quell'argomento poiché la penso esattamente come te. A volte però guardando delle trasmissioni pseudoscientifiche proposte dalla tv nazionale a chi come me non è aggiornato sull'argomento da qualche anno vengono dei dubbi che possono essere fugati solo dal parere di scienziati del tuo calibro ed il tuo parere è stato chiarissimo... grazie 🙂

  103. Ettore
    Pubblicato il 4 maggio 2010 alle 15:42 | Permalink

    @Max
    Ma infatti, questo discorso è (diciamolo pure) utopistico a dir poco... è bello parlare di come ci piacerebbe funzionassero le cose, ma sappiamo tutti che poi bisogna rimettere i piedi a terra.

    Invece per esempio, sarebbe interessante capire perchè sono stati costruiti due esperimenti con finalità simili (se non addirittura uguali), come Atlas e Cms.
    Preso da "The ATLAS Experiment at the CERN Large Hadron
    Collider":
    "Two general purpose detectors, ATLAS (A Toroidal LHC ApparatuS) and CMS (Compact
    Muon Solenoid) have been built for probing p-p and A-A collisions."
    Immagino che la scelta degli esperimenti sia frutto di decisioni ponderate, quindi, se sono stati scelti due progetti simili invece che privilegiare un' altro progetto con finalità diverse dovrebbe avere un suo perchè.

  104. Xisy
    Pubblicato il 4 maggio 2010 alle 15:54 | Permalink

    Max: se guardi sotto, c'è _sempre_ qualcosa più profondo.

    "Theory of today may only be the effective phenomenology of the theory of tomorrow"

    (da "Quark & Lepton", Halzen & Martin, J.Wiley & Sons 1984)

  105. Max
    Pubblicato il 4 maggio 2010 alle 17:07 | Permalink

    @Ettore : probabilmente gli esperimenti simili hanno come finalità un controllo incrociato dei risultati....non conosco i dettagli dei 2.

    @Xisy : e' una possibilità 🙂
    Anzi, io ho la sensazione che alla fine sarà proprio così... una serie infinita di scatole cinesi. Per questo parlavo di universo frattale qualche tempo fa.... fin'ora è sempre andata così.
    Il che non impedisce che si possa sviluppare una teoria che spieghi tutte le scatole cinesi fino all' infinito 🙂

    Ciao

    Max

  106. Xisy
    Pubblicato il 4 maggio 2010 alle 17:15 | Permalink

    Una teoria definitiva è impossibile se non insensata.
    Anche perché i fisici, pur di guadagnarsi il pane, sono bravi a inventarsi il lavoro.

  107. Pubblicato il 4 maggio 2010 alle 21:30 | Permalink

    Non so se sarei così categorico nel definire "impossibile e insensata" l'ipotesi di una "teoria definitiva", ma certamente il punto rimane, e non è qualcosa che si possa liquidare in due righe, perché ci hanno sbattuto la testa e continuano a sbattercela tutti gli epistemologi e i filosofi della scienza (i fisici meno, perché spesso vivono in un bolla. Ma questa è un'altra storia).

    In sostanza: è lecito e sensato pensare che esista una "teoria del tutto" che descrive e regola ogni tipo di fenomeno naturale? Se si, questa teoria è conoscibile oppure no? E invece, quali sono le ragioni per non pensare che quest'ipotesi sia sensata? Qualcuno direbbe per esempio - e io ho tendenza ad accodarmi - che bisogna fare attenzione a confondere i modelli teorici con la realtà che descrivono.

  108. Xisy
    Pubblicato il 4 maggio 2010 alle 22:26 | Permalink

    Penso sia lecito pensare -in astratto- a una teoria definitiva, intesa come obiettivo verso cui indirizzare la ricerca delle leggi della natura, ma dubito assai fortemente che si possa concretamente arrivare a una formulazione unitaria del tutto. E anche se ci si arrivasse in termini generali (leggi generali, simmetrie fondamentali) questo non significherebbe avere la formula per spiegare ogni fenomeno naturale.
    Voglio dire: oggi siamo arrivati ai quarks, ma non e' che la fisica degli atomi (o delle molecole) sia compresa sotto ogni aspetto. La ricerca teorica va tuttora avanti anche su numerosissimi aspetti della fisica classica, per dire.

  109. Pubblicato il 4 maggio 2010 alle 22:31 | Permalink

    Si, certo, per carità, l'imperfezione delle teorie attuali va bene. Ma il punto è più sottile. Per esempio, i quark esistono? 🙂

  110. Max
    Pubblicato il 4 maggio 2010 alle 22:37 | Permalink

    A me pare più insensata l' ipotesi che non esista una teoria del tutto.
    Una "teoria del tutto" non sarebbe ovviamente un modo per predirre il futuro (qualcuno in passato ci credeva, pare....), soprattutto perchè praticamente tutti i sistemi naturali hanno comportamento caotico, ma non vedo il perchè l' universo non debba sottostare a un insieme di relazioni matematiche.
    Che sia conoscibile è un altro paio di maniche.... potrebbe essere così complessa da non essere gestibile dall'intelligenza umana, cosi' come ormai non esiste più la possibilità che un singolo uomo possegga tutto lo scibile umano.
    Credo sia comunque un'ipotesi improbabile. Almeno, se le particelle "scovate" dal MS sono effettivamente un insieme completo. Nel caso delle infinite scatole cinesi credo che la cosa si complicherebbe un po'.

    Tornando all' esempio dei frattali, se immaginassimo di vivere su un "ramo" di uno di questi, cercando le leggi che lo gestiscono potremmo ottenere un' ottima approssimazione di quel che ci sta intorno senza mai coglierne l' essenza complessiva.

    Max

  111. Max
    Pubblicato il 4 maggio 2010 alle 22:43 | Permalink

    @Xisy : la grossa differenza sta tra la spiegazione dei fenomeni naturali e l' utilità pratica di tale spiegazione.
    Il conoscere le leggi del moto dei corpi celesti non ci serve a nulla per calcolarne lo stato su tempi lunghi, se si tratta di più di due corpi che si influenzano mutuamente. E' ben possibile che succeda lo stesso a livello delle particelle elementari. Però e' altrettanto possibile che la conoscenza della teoria del tutto ci permetta di sfruttare alcuni comportamenti subatomici tecnologicamente, così come si fa per sistemi macroscopici.

    @Marco : piuttosto.... di che cosa sono fatti i quark ? Che c'e' "dentro" ? 🙂

  112. Xisy
    Pubblicato il 4 maggio 2010 alle 23:15 | Permalink

    @Marco. Non avevo minimamente colto il tuo punto.
    Da questo punto di vista, comunque, mi definirei pragmatista. Per cui rispondo che per me ha poco senso interrogarsi sull'esistenza di quark o partoni (ma anche propagatori o funzioni d'onda, naturalmente)
    L'unica cosa che chiedo, da una teoria, sono le famose "osservabili". Se ci sono quelle, sono pronto ad accettare ogni formalismo.

  113. Pubblicato il 5 maggio 2010 alle 10:41 | Permalink

    @Max: vedi, nel tuo penultimo commenti fai almeno due affermazioni generalizzate che probabilmente ti paiono vere perché a pelle ti piace pensare che sia così, ma che in un dibattito con un filosofo della scienza o con uno scienziato interessato alla questione dovresti giustificare e supportare, e per le quali temo ti troveresti in difficoltà.

    Per esempio, dire "praticamente tutti i sistemi naturali hanno comportamento caotico" è una bella frase ad affetto, ma dubito possa reggere se analizzata seriamente. Primo, dovresti definire caotico (e non ti sto chiedendo di farlo qui, ti sto solo ricordando che le teorie del caos sono oggetti complessi e non unici); secondo, dovresti quantificare quel "praticamente tutti", provare che la tua ipotesi sta in piedi, e comunque, siccome "praticamente tutti" probabilmente non vuol dire "tutti tutti", discutere le eccezioni.

    Oppure, quando ti chiedi "di che cosa sono fatti i quark?" mi sembra che tu commetta l'errore (frequente) di confondere la rappresentazione qualitativa (le particelle elementari come mattoncini della materia, magari pure sferiche e colorate) con la realtà. Nessun fisico si sognerebbe di pensare che i quark "fatti di qualcosa", certo non in questo termini e non immaginando di poterli poi sezionare con un coltello abbastanza fine.

    Insomma, quello che sto cercando di dirti è che la questione della "teoria del tutto" e della sua conoscibilità ve ben oltre la nostra visione attuale (scientifica e tecnologica) del mondo e la nostra competenza potenziale di singoli, ma tocca dei problemi più profondi, come la relazione tra quello che noi diciamo del mondo (e dunque del linguaggio) rispetto alla realtà del mondo (esiste, o ne esiste solo la nostra rappresentazione? La matematica è solo un linguaggio, o gli enti matematici esistono a priori?).

    @Xisy: infatti, come molti decidi di stare nella "bolla" a cui accennavo, e non c'è (quasi) niente di male in questo. Ma ricorda ti che si può scegliere di attenersi alle sole osservabili perché si è "pragmatici", oppure perché filosoficamente non si ritiene che la fisica possa dire niente altro sul mondo che le sue predizioni.

  114. Max
    Pubblicato il 5 maggio 2010 alle 12:07 | Permalink

    @Marco : beh, ti posso fare ESEMPI di sistemi caotici e di sistemi non caotici, ovviamente, una quantificazione così sui 2 piedi mi sembra difficilina.
    Giusto perchè chi non conosce il problema capisca (alla fine la teoria del caos ha il vantaggio di avere una definizione semplice applicata ad un problema complesso 🙂 ), un sistema caotico è, semplificando, un sistema la cui evoluzione nel tempo dipenda fortemente dalle condizioni iniziali. Il classico "esempio" della farfalla che sbatte le ali in Spagna e crea un uragano 3 mesi dopo in Australia, per intenderci. Esempio di sistema NON caotico : il moto di 2 corpi soggetti ad attrazione gravitazionale. L' andamento del sistema nel tempo non diverge con piccole perturbazioni iniziali. Un sistema caotico è (in generale, non credo sempre, ma non ne sono sicuro) il moto di 3 corpi sotto le forze gravitazionali, quindi sole, terra e luna, ad esempio. Tant'e' che e' impossibile predirre con precisione la posizione della luna a distanza di secoli note le posizioni iniziali. (lasciamo stare tutti i discorsi su attrattori e simili altrimenti non finiamo più 🙂 )

    Tornando a bomba quel che volevo dire (e credo di aver detto, forse male...) è che la conoscenza TEORICA delle equazioni che reggono un sistema, anche "semplice" come quello costituito dai famosi 3 corpi non implica assolutamente che ci possa dare la conoscenza "completa" del sistema stesso e soprattutto il suo andamento nel tempo, specie considerando che per il principio di indeterminazione una conoscenza precisa al 100% dello stato attuale di un sistema non si può avere.
    Certo solitamente, ma non sempre, si può avere una descrizione statisticamente attendibile del sistema, note le equazioni che lo reggono. Il "non sempre" si riferisce ad esempio alle previsioni del tempo che a tutt'oggi hanno una certa attendibilità sui 7 giorni, un po' meno sui 15 giorni e solo di massima (a livello di temperature globali medie, se non ricordo male...) per tempi più lunghi.

    Il discorso su "di cosa son fatti i quark" era un po' provocatorio, ma in effetti, SE esistono come entità fisiche una qualche descrizione fisica la devono pur avere. Che siano "affettabili" o meno secondo me rimane un problema aperto, come lo era prima quello degli atomi e poi quello dei nuclei di questi e ancora dopo quello dei protoni.
    La matematica rimane, secondo me, un nostro tentativo di assegnare una struttura formale a quello che ci circonda; che poi il tentativo sia riuscito o meno è un' altra fazenda. Che gli oggetti matematici esistano a priori sarebbe una cosa interessante ma sinceramente ne dubito. Ci sono anche oggetti matematici/astratti che sono palesemente rappresentazioni "di comodo" senza controparte fisica, per esempio le lacune (e il loro spostamento) nella teoria dei semiconduttori, dove le lacune sono appunto l' assenza di un elettrone considerato come fosse una carica positiva che magari si sposta in un senso mentre, in realtà, è un elettrone che si sposta nel senso opposto lasciando appunto un "buco".
    Non credo che sia il caso delle particelle note, no ? Queste una "fisicità" la dovrebbero avere.....
    Per chiudere, una cosa mi è sempre sfuggita, e cioè il significato "fisico" di campo.

    Ciao

    Max

  115. Marco
    Pubblicato il 5 maggio 2010 alle 12:43 | Permalink

    Max, paradossalmente ti stai rispondendo da solo, o meglio, stai mettendo sul tavolo gli stessi aspetti della questione che cerchi in qualche modo di confutare.

    Provocando deliberatamente: che cosa ti garantisce che un elettrone abbia una controparte fisica e una realtà (qualunque cosa questo voglia dire) maggiore di una lacuna? O degli stessi campi ti sfuggono il significato "fisico" (di nuovo, qualunque cosa questo voglia dire: probabilmente poco!). Occhio, c'è dietro al tuo discorso un bias culturale: quello che riesci in qualche modo ad associare a una rappresentazione riconducibile all'esperienza quotidiana del reale (per esempio i corpi tangibile, il cui stato ti permetti di estendere agli elettroni perché la tua mente - e la mia! - ama dipingerli come i mattoncini di Lego che formano i corpi più grandi) ha diritto alla qualifica di "ente con controparte fisica", il resto apparentemente no perché non ha una rappresentazione nel tuo immaginario. Ma sei sicuro che la divisione valga? Io no.

  116. Xisy
    Pubblicato il 5 maggio 2010 alle 14:05 | Permalink

    @Marco. Ok, allora chiarisco. Sono pragmatista, come tanti, in ambito metodologico (probabilmente sto nella "bolla", come dici) ma non ho una visione puramente "modellistica" della fisica. E' innegabile che la fisica riesca anche a cogliere "elementi di realtà" e miglioare (cambiare) la nostra comprensione (visione) delle cose.
    Per fare un esempio: il passaggio al sistema Copernicano non è stata solo una svolta nella descrizione effettiva delle osservazioni astronomiche (moto dei pianeti) ma anche un cambiamento di prospettiva significativo e rivoluzionario.
    Penso che non pochi fisici sarebbero d'accordo su questo.

  117. Ettore
    Pubblicato il 5 maggio 2010 alle 14:07 | Permalink

    FISICA:
    Scopo della fisica è lo studio dei fenomeni naturali, ossia di tutti gli eventi che possano essere descritti tramite grandezze fisiche.
    GRANDEZZA FISICA:
    Una grandezza è la proprietà di un fenomeno, corpo o sostanza, che può essere espressa quantitativamente mediante un numero e un riferimento.
    RIFERIMENTO:
    Per riferimento si intende un rapporto, una connessione, un rimando tra entità.

    Secondo queste definizioni, sembra inutile che si abbia una rappresentazione grafica o possa essere immaginata, l'importante è che possa essere misurata e che il valore della misura abbia un valore certo.

    Ma quì, entra in gioco un problema che stà alla base di tutto: siamo noi che fissiamo il riferimento, siamo noi che attribuiamo un valore alle cose, le cose non si "auto referenziano" da sole...

    Esempio, partendo dal metro:
    Il metro:
    Un metro è definito come la distanza percorsa dalla luce nel vuoto in un intervallo di tempo pari a 1/299 792 458 di secondo.
    Il secondo:
    Il secondo è definito come la durata di 9 192 631 770 periodi della radiazione corrispondente alla transizione tra due livelli iperfini, da (F=4, MF=0) a (F=3, MF=0), dello stato fondamentale dell'atomo di cesio-133
    Il periodo:
    Il massimo numero quantico principale (n) che è posseduto da elettroni di un dato elemento stabilisce a quale periodo appartiene.
    Il quanto:
    In meccanica quantistica si chiama quanto (dal latino quantum che significa quantità) una quantità discreta ed indivisibile di una certa grandezza.

    Quindi si da come referenza principale che esista qualcosa di indivisibile e misurabile... Ma questo lo abbiamo deciso noi arbitrariamente, non è detto che sia così, e non ci sono prove scientifiche sperimentali che sia così.
    Ci fa comodo questa affermazione perchè se la togliamo cade tutto il castello di carte.

    Quindi a rigor di logica, per far in modo che tutto l'ambaradan abbia un senso e non crolli, occorre trovare qualcosa che si autoreferenzi e da quello partire.

  118. Max
    Pubblicato il 5 maggio 2010 alle 14:09 | Permalink

    @Marco : ok, capisco il tuo punto di vista, ma :
    1) Il discorso "lacuna"-elettrone potrebbe avere una controparte nel mondo macroscopico come una pallina e un buco lasciato da questa, giusto ? Elettrone == Pallina, lacuna == assenza di pallina.
    Per ora sorvoliamo sulla "fisicità" dell' elettrone; parlando di pallina e buco, e' chiaro che la pallina HA un significato fisico (a meno che tutta la realta' non sia il sogno di qualcun' altro, ma qui scendiamo in altri campi 🙂 ), il buco no, o almeno, non è un corpo ma l' assenza di questo.
    Tornando all' elettrone, qualunque cosa sia, una "fisicità" mi sembra che l' abbia, anche se non proprio quella dell' immaginario collettivo di pallina carica. 2 Elettroni non possono occupare lo stesso volume di spazio, 2 buchi si. Lo stesso discorso vale per altre particelle; qualche dubbio l' ho sui Quark, visto che isolati non c'e' verso di averli, potrebbero essere sì solo un' astrazione "di comodo" per qualcosa di cui non si conosce intimamente la struttura.
    Il discorso di campo invece mi sfugge di più, a meno di non considerarlo una variazione fisica dello stato di un "qualcosa" che sarebbe poi lo spazio vuoto, qualunque cosa sia quest'ultimo (e qui credo che ci sia ancora parecchio da scoprire).
    Sta di fatto che la presenza di un campo elettrico, ad esempio, ha effetti fisici misurabili anche macroscopici, quindi una fisicità la deve avere, oppure essere una rappresentazione "di comodo" di un qualcos' altro, in questo caso dei fotoni visti come corpi materiali (qualunque significato abbia questa parola), oppure entrambe le cose, cioè dei corpi "materiali" che si spostano nel vuoto accompagnati da una variazione di stato del vuoto stesso.
    Daltronde il vuoto ha dei valori ben definiti di permeabilita' magnetica e costante dielettrica, come qualsiasi altro materiale...

    Max

  119. Max
    Pubblicato il 5 maggio 2010 alle 14:25 | Permalink

    @Marco : aggiungo che quanto ho detto prima sulla fisicità non implica che sia un qualcosa associabile alle nostre percezioni macroscopiche abituali; che un elettrone non sia una pallina credo sia ormai assodato. Però è altrettanto assodato che esiste, che lo si può "intrappolare" e che si può misurarne alcune sue grandezze. Un campo elettrico mi sembra già più un' astrazione, visto che anche potendone misurare alcune grandezze non si può, ad esempio, intrappolarlo.

  120. Xisy
    Pubblicato il 5 maggio 2010 alle 14:51 | Permalink

    Perché no? I fotoni puoi pensare di intrappolarli in una cavità a pareti riflettenti.

  121. Pubblicato il 5 maggio 2010 alle 15:05 | Permalink

    ... o nel forno di casa (mica deve essere per forza di alta frequenza o visibili) 🙂

    Max, insisto sul bias culturale, e, senza offesa, ogni tuo commento non fa che confermarlo. Tanto per dire, tentare di cavartela dicendo che due buchi posso occupare la stessa porzione di spazio è barare, più o meno consapevolmente: due lacune in un semiconduttore possono? Mica mi verrai a dire che le lacune e i buchi nella sabbia sono la stessa cosa, vero? 🙂 E poi, comunque, sei sicuro che un elettrone occupi un volume? 😛

  122. Ettore
    Pubblicato il 5 maggio 2010 alle 15:55 | Permalink

    @Marco
    "E poi, comunque, sei sicuro che un elettrone occupi un volume?"
    Scusa... questa non l'ho capita... se l'elettrone ha massa (e mi sembra l'abbia) deve occupare un volume... No!?!?

  123. Xisy
    Pubblicato il 5 maggio 2010 alle 16:51 | Permalink

    @Ettore: e perché?

  124. Pubblicato il 5 maggio 2010 alle 16:56 | Permalink

    Beh, per quanto ne sappiamo a oggi l'elettrone non ha una struttura interna, nel senso che nessun esperimento ne ha mai rivelato la presenza. Questo vuol fondamentalmente dire, nel limite della precisione sperimentale attuale, l'elettrone è di fatto puntiforme, ovvero, se vuoi, occupa un volume nullo. Il fatto che abbia massa non c'entra niente: lo so, la fisica è spesso controintuitiva, e troppo spesso le rappresentazioni mentali che ci facciamo dei sui risultati (o del racconto dei sui risultati) sono fuorvianti.

  125. Max
    Pubblicato il 5 maggio 2010 alle 17:08 | Permalink

    @Xisy : infatti parlavo del campo elettromagnetico, non del fotone in se.
    So che il fotone lo puoi intrappolare, cosi' come l' elettrone.
    Quel che non puoi intrappolare e' il campo. L' elettrone non e' il campo elettrico.

    @Marco : le lacune sono l' assenza di un elettrone, come un buco nell' acqua e' l' assenza d' acqua. Ovvio che puoi anche dire che il buco nell' acqua e' reale e si muove, ma in realta' e' l' acqua che si muove attorno al buco. Credo (ma non sono cosi' addentro nella fisica dei semiconduttori) che con particolari arrangiamenti puoi avere 2 "lacune" adiacenti o sovrapposte, dubito che lo si possa fare con 2 elettroni, superconduttività esclusa naturalmente.

    Quel che mi sembra di capire del tuo pensiero e' che dai scarsa importanza al significato "fisico" della rappresentazione matematica della realtà. Nulla di male, ma io non sono di quell' opinione.
    Se non si recepisce il significato oggettivo di una rappresentazione formale, primo ci si allontana dallo scopo principale per cui si e' "creata", secondo esistono infinite rappresentazioni approssimate di un fenomeno (ritorniamo allo sviluppo in serie, per esempio).

    Per quanto riguarda il volume dell' elettrone, credo che nessuno sia sicuro che ne abbia uno, visto che mi par di capire che il raggio sia convenzionale. Anche 1 m3 di ferro e 1 m3 di spugna hanno lo stesso volume ma se li metti in acqua la spugna puo' contenerne quasi altrettanta, il ferro no.

    Tornando all' aspetto formale, ho notato che sei moooolto critico sulle teorie delle stringhe, visto che (se non ricordo male un tuo commento, altrimenti chiedo venia...) fanno previsioni non controllabili attualmente, fuori dalla scala di energia di strumenti attuali e futuri. Qual' e' la differenza allora ? Premesso che io sono assai scettico, nonostante ne sappia poco, sulle stringhe, che differenza c'e' tra un formalismo dell' MS e quello di una teoria delle stringhe, se non puoi validarne o confutarne i risultati ?

    Ah, cmq, non mi offendo, non sono un fisico, quindi chiaramente non ne ho la mentalità 🙂 Ho solo una notevole curiosità....

    Ciao

    Max

  126. Pubblicato il 5 maggio 2010 alle 17:29 | Permalink

    Max, di nuovo credo che tu manchi il punto (e che Xisy ti bacchetterà). E di nuovo, non penso sia colpa tua, ma probabilmente ti mancano alcuni strumenti di fisica probabilmente un po' avanzata per cogliere le sottigliezze. Per esempio, nessun fisico si sognerebbe si dirti che l'elettrone sia il campo elettrico. Quello che Xisy ed io ti stavamo dicendo tra le righe è invece che, semplificando, il fotone è il campo elettrico, e che dunque, se ti va, puoi richiudere il campo elettrico in una scatola. Voilà. E non mi chiedere di andare oltre 🙂

    Sul raggio dell'elettrone sei di nuovo fuori strada. Esiste un numero che si chiama convenzionalmente "raggio classico dell'elettrone", e l'aggettivo "classico" dovrebbe farti rizzare le orecchie, visto che si riferisce a un oggetto squisitamente quantistico: ovviamente non è un numero che descrive una dimensione reale di un oggetto. E anche qui mi fermo.

    Sull'importanza al significato “fisico” della rappresentazione matematica della realtà: non è affatto vero che non le do importanza, anzi. Ho deliberatamente messo il dito sulle contraddizioni semplicemente per farti capire che le cose sono ben più complesse di come pensi.

    Infine, sui formalismi e le teorie delle stringhe: il MS fa previsioni da 40 anni, tutte sottoposte a verifica sperimentale e confermate con enorme successo. È per questo che lo usiamo con tanta allegria: perché funziona ed è potente nei confronti delle realtà sperimentale, mica perché ci piace la sua eleganza matematica. Delle stringhe si può dire esattamente il contrario (eleganti matematicamente, senza nessuna previsione sperimentale testata o testabile a oggi).

  127. Ettore
    Pubblicato il 5 maggio 2010 alle 19:49 | Permalink

    In un altro post parlavi di e = mc2 in cui (se non ricordo male) dicevi si, dalla massa si ricava energia... ma anche dall'energia si ricava massa... e forse è quì la spiegazione del fatto, che l'elettrone ha massa ma non volume...

    Ho detto una eresia?

  128. Max
    Pubblicato il 6 maggio 2010 alle 09:09 | Permalink

    @Marco : ok sulle mie lacune, anche se ho sempre qualche dubbio in proposito.... ma il discorso dell' elettrone mi lascia assai perplesso :
    stai dicendo che l' elettrone è un "oggetto" di dimensione nulla e massa finita, e quindi ha densità infinita ? cos'e', un buco nero microscopico ???
    So che qualcuno ha proposto una teoria simile, ma mi sembra un po' azzardata, no ? Altra cosa, il campo elettrico nel punto di singolarità dovrebbe essere infinito, e anche quello mi sembra un po' strano.

    Altra cosa : il MS presuppone che le masse siano dovute al meccanismo di Higgs, però non è in grado di calcolarle, ma le "impone", se non erro. Why ?

    Max

  129. Xisy
    Pubblicato il 6 maggio 2010 alle 13:06 | Permalink

    La densità è una delta di (non a caso!) Dirac

  130. Xisy
    Pubblicato il 6 maggio 2010 alle 14:42 | Permalink

    anzi mi correggo. La densità, in MQ, è il modulo quadro della sua funzione d'onda: |\psi|^2.

  131. Max
    Pubblicato il 6 maggio 2010 alle 21:19 | Permalink

    Per densità intendo il rapporto tra massa e volume, non so se sia la stessa tua.... Cmq non dovrebbe una sfera con raggio minore del suo raggio di Schwarzschild essere un buco nero per definizione ?

  132. Xisy
    Pubblicato il 6 maggio 2010 alle 23:27 | Permalink

    Ragioni troppo classicamente, Max. Sii quantistico!

  133. Max
    Pubblicato il 7 maggio 2010 alle 18:59 | Permalink

    Beh, beh, Xisy... non mi scadere con risposte stile "e' quantistico, quindi non si può spiegare".... prova invece a spiegarmi come un punto di dimensione nulla può avere massa non nulla e non essere un buco nero.

    @Marco : si sa se un elettrone è soggetto alla forza gravitazionale ?

    Ciao

    Max

  134. Fabio
    Pubblicato il 8 maggio 2010 alle 09:12 | Permalink

    @ Max
    provo a rispondere in base alle mie conoscenze,correggetemi pure:
    Max,hai ragione quando dici che una sfera con raggio minore del suo raggio di Schwartzschild dovrebbe essere,per definizione,un buco nero;il punto però è che l'elettrone semplicemente..non è una sfera! 🙂
    La sue caratteristiche di "particella" si manifestano solamente in alcuni esperimenti,ma non rappresentano la "vera" natura dell'elettrone,nè di nessun altra particella subatomica.
    Inoltre il dualismo onda-particella ti dice che al corpo massivo che noi comunemente chiamiamo "elettrone" è associata una lunghezza d'onda (la lunghezza d'onda di De Broglie) che è l'unica grandezza candidata per esprimere in maniera più completa le "dimensioni" dell'elettrone stesso..e se fai i conti scopri che essa è molto maggiore del raggio di Schwartzschild che calcoli attraverso la formuletta della RG.

    A intuito direi che è questo l'approccio che si intende per "pensare quantisticamente",non certo il fatto che siccome è quantistico non si può spiegare..anzi 🙂

  135. Max
    Pubblicato il 8 maggio 2010 alle 10:13 | Permalink

    @Fabio : grazie per la spiegazione 🙂
    Sapevo già del dualismo, e che l' elettrone non è una sfera (almeno, così pare.....), ma il problema rimane sempre quello : o l' elettrone ha una dimensione o non ce l' ha, o sbaglio ?
    Diciamo pure che il comportamento corpuscolare si manifesta solo in alcuni eventi (come l' effetto fotoelettrico), ma in questi eventi quasta "manifestazione" dovrà ben avere una dimensione, no ?
    Il mio pensiero è questo : in alcuni esperimenti l' elettrone appare delocalizzato e quindi non ha una posizione/dimensione definita, come quando si trova in un orbitale atomico, e va bene.
    Ma quando manifesta le sue proprietà di particella (e credo che è in quei casi che Marco affermava che "Questo vuol fondamentalmente dire, nel limite della precisione sperimentale attuale, l’elettrone è di fatto puntiforme, ovvero, se vuoi, occupa un volume nullo"), l' elettrone continua ad avere una massa. Il suo raggio di Schwartzschild dovrebbe essere quindi (se non ho sbagliato i conticini) 1.352·10^-57 metri. Ora, non so quali siano i suddetti limiti sperimentali......

    Max

  136. Max
    Pubblicato il 8 maggio 2010 alle 10:22 | Permalink

    Uhmm... leggo ora che i limiti sperimentali si aggirano intorno ai 10^-22 metri, quindi ben al di sopra del raggio di Schwartzschild, quindi l' ipotesi della dimensione non nulla rimane in piedi.....

  137. Pubblicato il 10 maggio 2010 alle 11:30 | Permalink

    Max, quello che Xisy (probabilmente con un po' di supponenza) sta cercando di dirti è che non puoi usare dei concetti e degli strumenti teorici classici per tentare di affrontare/descrivere/interpretare il mondo microscopico. La ragione è semplice: ci hanno provato prima di te fior di fisici, più o meno da un secolo fa in avanti, con scarsissimo successo, sbattendo continuamente la testa e in definitiva finendo per inventare una fisica nuova che potesse venire a capo di quello che osservavano.

    Nello specifico:

    - Sei sicuro che un concetto come quello di densità (di materia o di carica) si possa applicare a una particella elementare? Come hai già notato da solo, finisci sempre per cadere in problemi di singolarità e di divergenza. La fisica classica ovviamente non basta a tirartene fuori, mentre ci sono soluzioni eleganti nelle teorie quantistiche. Se la cosa ti intriga, ti consiglio ovviamente di iniziare dal classico ed eccellente "QED. La strana teoria della luce e della materia" di Feynman. Senza un minino di questa base, è veramente impossibile discutere di tutte le tue altre elucubrazioni. Anche se...

    - ... nello specifico dell'ipotesi dell'elettrone-buco-nero, che penso tu abbia tirato fuori un po' per caso, sappi che esistono teorie simili (per esempio, era passato qualcosa sugli arXiv l'anno scorso: http://arxiv.org/abs/0905.1667). Ma ovviamente è bene che tu ti renda conto che, anche volendo seguire questa strada, non si esce da una trattazione almeno in parte quantistica del comportamento di questi oggetti.

  138. Max
    Pubblicato il 10 maggio 2010 alle 17:45 | Permalink

    @Marco : documento interessante, anche se ne ho capito 1/5 del totale 🙂

    Il discorso elettrone/buco nero m'e' venuto in mente quando hai parlato di "particelle puntiformi", ma così a naso non mi sembra da buttare 🙂 Tra l' altro nel paper che mi hai segnalato pare che qualcosa nell' LHC si dovrebbe vedere, nel caso, il che e' assai interessanta.

    Riguardo ai concetti di densità.... uhmmm. No, ovviamente non posso essere sicuro che i concetti valgano anche per le particelle,
    anche se a naso direi di si. Ovvio che potrebbe esistere qualche
    meccanismo per cui la massa di una particella appaia grazie ad interazioni di particelle virtuali del vuoto con la particella stessa, e quindi tutto l' ambaradan della densità cascherebbe.
    Certo che a questo punto nulla vieta il discorso che abbiamo fatto
    tempo fa sulla "compositeness" delle particelle ora pensate come elementari, visto che la più grossa obiezione in proposito è l' impossibilità per queste di contenere particelle più massive 🙂

    Vedrò di pescare il libro che mi hai suggerito !

    Ciao e grazie

    Max

  139. Pubblicato il 11 maggio 2010 alle 10:13 | Permalink

    @Max: sei sicuro che il tuo ragionamento stia in piedi? Pensa per esempio alla carica elettrica, e alla densità di carica. Non credo tu abbia problemi ad accettare che la carica è quantizzata, e che corrisponde a una caratteristica intrinseca di una particella. Da cui non credo che faticherai ad accettare che la densità di carica è un concetto ben valido in un contesto macroscopico, ma che perde di significato (o almeno cambia profondamente) se esteso a una singola particella. Adesso fai uno sforzo di immaginazione (e tieni conto che sto super-approssimando): e se anche la massa fosse una caratteristica "intrinseca" delle particelle come la carica elettrica, o lo spin? Volando un po' di fantasia, potresti per esempio immaginarla come la "carica" del campo gravitazionale. In questo caso, potresti ancora definire una densità di massa? Mmm... temo di no. Se poi la massa si rivelasse essere un'espressione emergente di un meccanismo dinamico (e.g. l'interazione con il campo di Higgs), non saresti messo meglio, anzi.

  140. Max
    Pubblicato il 11 maggio 2010 alle 11:03 | Permalink

    Marco, probabilmente non ho un background sufficiente, ma la cosa mi sfugge. Che la carica sia quantizzata, non ci piove. Ma l' intensità del campo elettrico ? Questo dovrebbe tendere all' infinito SE la carica fosse puntiforme, in corrispondenza della carica stessa, quantizzata o meno. In alternativa ci dovrebbe essere un livello di saturazione proprio del vuoto per il quale il campo elettrico assuma un valore limite. Idem per il campo gravitazionale, SE la particella avesse dimensione nulla e massa non nulla, A MENO CHE la massa non derivi appunto da interazioni della particella con il vuoto.
    Detto questo, bisognerebbe anche definire cosa si intende per un'eventuale "superficie" della particella, se non fosse nulla.
    Esempio che non c'entra un tubo, ma forse chiarisce : la superficie di Giove. Giove e' un pianeta gassoso, quindi di superficie solida non se ne parla, e ha una densità decrescente dal centro fino a... tanto.
    Si parla di superficie DEFINENDOLA come quella a cui il gas ha pressione atmosferica (terrestre), quindi una definizione convenzionale.
    Per l' elettrone, la MQ lo tratta come punto, però la certezza, dovrai convenirne, non c'e'. C'e' solo la certezza che se ha una dimensione, questa deve essere inferiore a 10e-22 (o 24 ??) metri. Da qui al raggio di Schwartschild (10e-56 ?) o anche solo al raggio dell' "orizzonte" di un buco nero rotante di Kerr (10e-32 o simili) c'e' un abisso di ALMENO 8 ordini di grandezza.

    L'unico modo che (intuitivamente) mi viene in mente affinchè le particelle elementari siano prive di dimensione e' che queste siano
    costituite da singolarità dello spazio/tempo, e quindi, appunto, buchi neri microscopici e stabili. In questo caso probabilmente (non sono ovviamente in grado di fare calcoli in proposito 🙂 ) il concetto di campo gravitazionale / elettrico verrebbero influenzati dalla distorsione dello spazio stesso attorno alla carica e quindi l' infinità potrebbe avere un qualche senso.

    Ciao

    Max

  141. Marco
    Pubblicato il 11 maggio 2010 alle 12:13 | Permalink

    Max, Max, che posso dirti? Le parole chiave qui - contro le divergenze a infinito che tanto ti spaventano, come a suo tempo spaventarono i fisici "classici" - sono "rinormalizzazione" e "costanti di accopiamento running". Che sono brutte bestie che difficilmente si afferrano senza un po' di teoria quantistica dei campi. Tutto il resto sono speculazioni che non reggono, perché non sono supportate nei presupposti prima ancora che nelle conseguenze dalla realtà sperimentale. Prova a leggere QED come antipasto, poi magari riprendiamo il discorso.

  142. Max
    Pubblicato il 11 maggio 2010 alle 14:15 | Permalink

    Ehila! 🙂
    Avevo letto (e ho parzialmente approfondito) qualcosina sulla rinormalizzazione ma.... mi era (e adesso ancora di piu'...) sembrato un escamotage "tecnico" che un metodo rigoroso.... Purtroppo mi manca il tempo per approfondire ulteriormente.
    Da quel che ho capito sulla carica dell' elettrone, la carica "reale" viene schermata dalle coppie di particelle/antiparticelle create dal suo campo elettrico in prossimità dell' elettrone stesso, quindi all' "esterno" appare una carica inferiore, giusto ?
    Suppongo quindi che l' integrazione di tutti questi effetti, su una scala sufficientemente grande, abbia un effetto finito sulla carica visibile. Ok. Ma questo cosa vuol dire su scala + piccola ? Avvicinandosi al "centro" gli effetti della nube di particelle compensano esattamente l' infinito della campo elettrico portando il tutto ad un valore finito al centro ? Questo non equivarrebbe a dire che il vuoto ha un limite per l'intensità del campo elettrico ?
    E tutto questo non vale x la gravità visto che non c'e' (almeno fin'ora) una particella antigravitazionale ?

    Cmq, appena ho un attimo leggo, promesso 🙂

    Max

  143. Max
    Pubblicato il 12 maggio 2010 alle 12:57 | Permalink

    Mah, mah... più leggo sulla rinormalizzazione e più mi sembra un metodo "tecnico" per risolvere approssimativamente un problema rognoso. Non dico che non vada bene per tirar fuori numeri e qualche previsione, ma far sparire infiniti a badilate inserendo costanti ad hoc e utilizzando procedimenti semiempirici mi par più un procedimento valido per un Ingegnere che per un teorico.....

    Max

  144. Xisy
    Pubblicato il 13 maggio 2010 alle 20:14 | Permalink

    @ Max,
    hai ragione, ho tagliato corto (col mio think quantum) perché comunque, se le peculiarità quantistiche delle particelle vengono affrontate con argomentazioni classiche (come stai facendo) è inevitabile che si arrivi all'assurdo (es. le divergenze varie).
    Così facendo dimotri -per assurdo- che certi aspetti della MQ non hanno senso... ma in contesto classico!

    Spiegare come un punto materiale possa avere massa e non essere un buco nero?
    Non sono in grado, ma posso dirti che campo elettrico e campo gravitazionale sono entità macroscopiche, che osserviamo solo a scale di distanza relativamente grandi. Nel microscopico le cose cambiano. Se ti avvicini all'elettrone (diciamo ben sotto i 10^-15 metri) non valgono piu' le leggi di Maxwell o Gauss, cioè non puoi applicare la descrizione classica dei campi. A scale ancora minori la struttura stessa dello spazio-tempo è ignota, quindi figuriamoci.
    Aggiungo che anche a larghissima scala (giga-parsec) probabilmente abbiamo bisogno di una fisica diversa per descrivere le interazioni.

  145. Max
    Pubblicato il 13 maggio 2010 alle 21:31 | Permalink

    @Xisy,
    capisco che il comportamento quantistico sia bizzarro e non spiegabile in termini classici, ma..... le tue parole mi fan sempre di più pensare che la fisica moderna in generale ed il MS in particolare siano solo approssimazioni "di tentativo" di un qualcosa che non si è ancora intuìto.

    Mi spiego : da quel che ho afferrato (NON sono un fisico, credo si sia capito 🙂 ) il MS prende un certo modo di calcolare le proprietà delle particelle, integrando nello spazio/tempo gli effetti delle particelle virtuali che circondano quelle reali, e le particelle virtuali che si scambiano quelle reali nelle varie iterazioni. Ok, fin qui tutto bene.
    Però queste integrazioni non funziano perchè parecchi termini portano a risultati infiniti. Quindi, e qui sta la pecca dal lato teorico, anche se funzia bene dal lato pratico, si applica il giochino delle rinormalizzazioni fissando una scala specifica e imponendo alcuni parametri ad-hoc, che in pratica sono le masse delle particelle misurate sperimentalmente.
    Se ho ben afferrato il concetto, e correggimi se sbaglio clamorosamente, si prende una scatola nera, che poi è quel che sta "dentro" la scala di osservazione, si fa finta che sia un blocco del Lego con un tot di parametri indipendenti e si utilizza questo blocco per costruire tutto il castello. Di quel che c'e' "dentro" nel blocco non si sa nulla.
    Mi ricorda assai il metodo degli elementi finiti, come principio, anche se quello viene usato esclusivamente per ottenere numeri e non relazioni tra gli elementi.

    Ora, almeno nel mio settore, gli elementi finiti sono un metodo comodissimo per analizzare un corpo solido e, almeno per quanto riguarda la meccanica ed i materiali isotropi e plausibilmente omogenei sono perfettamente leciti. Riducendo la dimensione degli elementi, le proprietà non cambiano e quello che si ottiene è un aumento della precisione di calcolo.
    Nelle rinormalizzazioni, sempre se ho afferrato il concetto, il "blocco" ha proprietà che dipendono dalla scala in esame, i fattori di accoppiamento cambiano. Quindi, blocco + piccolo, proprietà differenti. E per di più tutto questo ambaradan viene fatto per "scavalcare" un problema, quello degli infiniti, che trascurabile non è....

    Ora, per tornare all' analogia "statica" (ok, lo ammetto, sono un Inge Edile....), immaginiamo di avere un bel blocco di calcestruzzo armato. Questo contiene ghiaia, sabbia, cemento e barre di ferro.
    Se io prendo un blocco sufficientemente grande, ne posso ben definire dei parametri di rigidezza globali. Ok. Il blocco ha un comportamento abbastanza regolare e con una matrice di rigidezza di 6x6 elementi l' ho completamente definito. Ci posso calcolare un condominio ed una diga, con quei parametri. Posso persino dire che una trave costituita da quel blocco e lunga 30 metri sotto il peso di un piccione bello grasso appollaiato in mezzo si abbassa di 2 mm.
    Ora, però, se invece della trave o della diga voglio costruire un modellino delle medesime, ho un problema. Perchè scendendo di scala mi saltan fuori le disomogeneità del materiale, quindi posso incappare in un sasso, in un grumo di sabbia o in un pezzo di acciaio, che hanno parametri immensamente diversi rispetto al blocco sul quale ho costruito tutta la mia teoria.
    Quindi, tutta la mia meravigliosa teoria che mi son costruito misurando i parametri del blocco e' :
    1) Un' approssimazione che funzia alla scala del blocco o a scale mooolto vicine a questo.
    2) Non mi da nessuna informazione su cosa c'e' dentro il blocco
    3.. e soprattutto...) Le equazioni che reggono il blocco non hanno NULLA a che vedere con le equazioni che reggono il suo contenuto.

    Quindi, se quel che ho capito e' giusto, per quanto riguarda l' elettrone, sotto la scala di 10e-22m questo potrebbe anche essere composto da nanetti da giardino microscopici che si tengono per mano.

    Ciao

    Max

  146. Xisy
    Pubblicato il 14 maggio 2010 alle 00:47 | Permalink

    @Max ("le tue parole mi fan sempre di più pensare che la fisica moderna in generale ed il MS in particolare siano solo approssimazioni “di tentativo” di un qualcosa che non si è ancora intuìto.").

    E' la fisica classica che descrive comportamenti macroscopici che sono espressione approssimata di leggi microscopiche più complesse e profonde.
    Se dalle mie parole hai capito l'opposto, allora boh, ci rinuncio.

  147. Max
    Pubblicato il 14 maggio 2010 alle 09:07 | Permalink

    @Xisy : vuoi dirmi che i procedimenti di rinormalizzazione con l' introduzione di costanti arbitrarie e la riduzione delle variabili indipendenti "a capocchia" o quasi sono procedimenti rigorosi e senza perdita di informazioni ? A me pare il contrario.
    Che poi non si riesca (per ora) a fare di meglio, ok.
    Però quando mi dici che "la struttura dello spaziotempo è ignota a scale inferiori a 1e-15m" e che "a larghissima scala (giga-parsec) probabilmente abbiamo bisogno di una fisica diversa per descrivere le interazioni", mi fai pensare che una "reale" teoria del tutto sia molto, ma molto lontana da quel che c'e' adesso.
    Non vedo enormi differenze da quando si faceva fisica classica, abbiamo "solo" migliorato l' approssimazione e siamo scesi a scale più piccole ed energie più grandi con una matematica più raffinata.
    Di quel che c'e' "dentro la scatola nera" non abbiamo idea e, la cosa che mi fa pensare di più, e' che il MS con i procedimenti di rinormalizzazione nasconda la vera fisica che c'e' sotto.

    Tu dici "E’ la fisica classica che descrive comportamenti macroscopici che sono espressione approssimata di leggi microscopiche più complesse e profonde.", io potrei aggiungere :

    "E' il MS che descrive comportamenti microscopici che sono espressione approssimata di leggi fondamentali più profonde ma non necessariamente più complesse."

    Max

  148. My_May
    Pubblicato il 14 maggio 2010 alle 10:34 | Permalink

    Che le cose vadano accertate mi sembra giusto, il problema è stabilire cosa si è accertato, per poi accettarlo.

    Io sono sulla stessa lunghezza d'onda (si fa per dire) di Max, anche se non sono riuscito a seguire tutti i suoi ragionamenti.
    Prendiamo la sua analogia: "scatola nera" è la realtà così com'è! Noi non sappiamo in cosa consiste la scatola nera (che è praticamente, non sempre, infinita), sappiamo solo una parte di ciò che classicamente viene osservato.
    Dal libro di Ghirardi(un' occhiata alla carte di Dio):"...la m.q. si configura come un modello teorico che consente affermazioni probabilistiche circa i possibili esisti di processi di misura, tuttavia affermazioni condizionate al fatto che le misure vengano effettivamente eseguite. Per questa sua caratteristica ... si può affermare legittimamente...che la teoria, per la sua stessa struttura formale, parla solo di ciò troveremo se seguiamo una misura e non di ciò che "esiste la fuori"."

    Invero la m.q. non chiarisce gli infiniti (che pur ci sono) all'interno della "scatola nera" non osservata.

    Qualcuno potrebbe però dire che quella potrebbe essere una domanda filosofica più che fisica. Su questo avrei molti dubbi... ma sorvolo 🙂

  149. My_May
    Pubblicato il 14 maggio 2010 alle 11:51 | Permalink

    Sulla questione principale.
    Xisy ha ragione nel dire che ci sono fenomeni non riproducibili, tuttavia è sempre possibile fare scienza. Però in quel caso non può essere accertato nulla se la scienza non mostrasse nemmeno uno straccio di previsione sui fenomeni (magari diversi da quelli non riproducibili) futuri.
    Ammettiamo che ci siano fenomeni non riproducibili. Come facciamo a comprendere che abbiamo davvero compreso, scientificamente, quel tipo di fenomeno?
    Quindi è basilare non tanto la riproducibilità dei fenomeni, ma la previsione di altri fenomeni... si spera più distante possibile dalle previsioni astrologiche 😛

  150. Pubblicato il 14 maggio 2010 alle 13:35 | Permalink

    Definire la rinormalizzazione come un "escamotage tecnico" piuttosto che un metodo rigoroso è sicuramente riduttivo, ma è certamente vero che il ricorso alle equazioni del gruppo di rinormalizzazione per ottenere predizioni accurate a una certa scala di energia ci sta dicendo, in modo nemmeno troppo nascosto, che la nostra teorie non è una teoria fondamentale, ma soltanto una "approssimazione efficace" di una qualche teoria più completa. Questo fatto è ben chiaro ai fisici, che non tentano minimamente di nasconderlo ne di aggirarlo. Non abbiamo - come in qualche modo dice Xisy - nessuna idea se una teoria quantistica dei campi sia lo strumento adatto per descrivere la natura alla scala di Planck: forse si (e allora forse le divergenze che rimangiamo con la normalizzazione potrebbero trovare un senso in una QFT appropriata) e forse no (e allora le QFT potrebbero semplicemente essere delle teorie "efficaci", approssimazioni di una nuova teoria più completa che, manco a dirlo, ancora non c'è). In questo senso le divergenze assorbite dai processi di rinormalizzazione sono li a ricordarci la nostra ignoranza sul comportamento della natura, ma ci dicono anche - e questo punto è essenziale - che siamo in grado di quantificare e circoscrivere questa ignoranza, e dunque dire con chiarezza in quali regimi e condizioni siamo in grado di descrivere la realtà e fare previsioni. Non solo non è poco, è il punto fondamentale di ogni indagine del mondo fisico! Il resto è metafisica o chiacchiera da bar, per carità entrambe discipline degnissime, ma della cui differenza bisogna essere consci.

  151. Max
    Pubblicato il 14 maggio 2010 alle 14:33 | Permalink

    @Marco : ahhh, finalmente siamo daccordo su quasi tutto 🙂

    Aggiungo solo una cosa : non sto assolutamente criticando la capacità predittiva del MS nel suo ambito. Uso approssimazioni dalla mattina alla sera nel mio settore ed i risultati che forniscono sono mirabolanti e soprattutto le approssimazioni sono l' unico modo per ottenerli.
    Altro esempio, da quel poco che mi ricordo della turbolenza dei fluidi, poi, pensare di analizzare ogni singola molecola per ottenere una descrizione MACROSCOPICA della turbolenza e' un' utopia irrealizzabile.

    Il mio solo grosso dubbio è che il MS, funzionando tanto bene nel suo ambito con le sue approssimazioni, NASCONDA la "vera" teoria fondamentale che potrebbe essere completamente diversa, non quantitativamente ma proprio a livello di interpretazione dei fenomeni di quello che traspare ora.

    Il punto su cui non concordo : lo scopo della fisica TEORICA non dovrebbe limitarsi a fare previsioni IN UN AMBITO, per quanto ampio esso sia.... questo è più un compito dei tecnici. La fisica teorica dovrebbe fornirci una conoscenza completa dei fenomeni alla base di tutto. Che poi questa conoscenza, come nel caso della turbolenza dei fluidi, sia inapplicabile o quasi dal lato pratico è ininfluente. Conoscendo la base teorica, le approssimazioni necessarie alla tecnica devono venire DOPO.
    Partire da un' approssimazione qual'e' il MS può anche essere accettabile per CERCARE di afferrare quel che c'e' sotto, ma NON DEVE essere un dogma nè il punto di arrivo.
    Per questo rimango preplesso quando mi parli degli "infiniti che mi spaventano tanto".... mi spaventano perchè sono indicatori di qualcosa che non va.

    Ciao

    Max

  152. Xisy
    Pubblicato il 15 maggio 2010 alle 02:07 | Permalink

    Io proprio non capisco che problema hai col Modello Standard.
    *Tutte* le teorie ne "nascondono" un'altra (cioè quella successiva che poi la rimpiazza), per cui nulla di sorprendente se il MS è soltanto un paradigma di passaggio...
    Che senso ha criticare il Modello Standar in questo senso?

    E poi, guardando alle teorie proposte che vanno più a fondo del MS, non mi pare proprio che queste contraddicano le idee che sono alla base del successo del MS (es. l'invarianza di gauge, il mixing dei quark, la rottura spontanea di simmetria). Ti sei fissato con questa storia della rinormalizzazione del MS come fosse una cosetta da nulla e priva di rigore (capirai, quello che l'ha realizzata ha soltanto vinto un nobel) quando in realtà anche tra i fisici teorici, credo che ben pochi abbiano la preparazione adeguata per parlarne in maniera critica.

    Insomma, a leggerti, pare di capire che il MS è stato proposto come approssimazione. Boh...

  153. Max
    Pubblicato il 15 maggio 2010 alle 07:19 | Permalink

    @Xisy : l' ho già espresso sopra, la mia critica non va all' approssimazione del modello standard direttamente, ma al fatto che quest'ultimo viene posto (e visto da molti, a mio parere) come la strada giusta per una teoria definitiva.
    Permettimi che un modello basato su un' approssimazione, per quanto astuta, nata per aggirare un problema insormontabile insito dalla stessa teoria può al massimo essere visto come strumento per fare previsioni e calcoli in un ambito ristretto ma NON come strada per una teoria del tutto.
    Il discorso del nobel c'entra poco.... la matematica alla base della rinormalizzazione e' notevole e si presta comunque ad ottenere ottimi risultati in altri campi oltre al MS. Sta di fatto che applicata al MS è un escamotage, secondo me e secondo altri che di fisica ne masticano un bel po' più di me. La RG mi pare assai più rigorosa come teoria.

    Ultima nota : è vero che quasi tutte le teorie in passato sono state estese da teorie successive. Ma, non ricordo di una teoria di cui fosse noto un problema DI BASE nella sua matematica utilizzata per trovare quella successiva. Quando si è presentato un tale problema si e' sempre effettuato un cambio radicale nel modo di vedere i fenomeni.... vedi ad esempio la radiazione del corpo nero.
    Non vedo la stessa cosa succedere adesso.

    Max

  154. Xisy
    Pubblicato il 15 maggio 2010 alle 14:46 | Permalink

    Non ho mai sentito un fisico teorico indicare il MS come la strada giusta per una teoria definitiva (anzi, raramente ho sentito parlare di teoria definitiva). Su questo punto, credo che tu ti sia fatto un film tutto tuo.

    Ma anche seguendoti, il MS non è "basato su approssimazioni", ma semmai sulle simmetrie di gauge; che non sono un escamotage tecnico, anzi sono un punto fondamentale anche per molte teorie che vanno "oltre" il MS.

  155. Pubblicato il 15 maggio 2010 alle 14:48 | Permalink

    Max, nuovamente quando dici che il MS

    viene posto (e visto da molti, a mio parere) come la strada giusta per una teoria definitiva.

    sei decisamente fuori strada. In sostanza, oggi tutti i fisici delle alte energie usano il MS esclusivamente per "calibrare" teorie e esperimenti, ,ma poi vanno alla ricerca di roba detta in gergo BSM (no, non bondage-sado-maso, ma "Beyond the Standanrd Model"). In questa categoria ce n'è per tutti i gusti, scegli la teoria che preferisci, ognuna ha i suoi pregi e i suoi difetti. Ma non ci far passare gratuitamente per dei conservatori.

    Quanti ai "problemi matematici di base", mi sa che anche qui sei un po' fuori strada. L'uso di un'approssimazione perturbativa per risolvere delle equazioni non lineari è decisamente molto più diffuso di quanto pensi (e lo stesso vale per il gruppo di rinormalizzazione) al di fuori della fisica delle particelle. E i principi variazionali sono roba ben più vecchia delle QFT (mai sentito parlare di Hamilton, magari in un buon vecchio corso di meccanica razionale?).

    Infine, rispetto all'esempio del corpo nero, occhi a non fare dell'agiografia con il senno di poi: Planck arrivò alla sua formula più con un trucco per riuscire a fittare i dati sperimentali che con un'idea chiara di che cosa ci fosse veramente sotto. Temo che anche per la fisica delle alte energie sarà facilmente lo stesso, se e quando troveremo qualche evidenza sperimentale che non vada a braccetto con il solo MS. Per adesso, almeno negli esperimenti agli acceleratori, non c'è molto da far girare la testa ai teorici (nello spazio forse si, ma è un'altra storia).

  156. Max
    Pubblicato il 15 maggio 2010 alle 16:54 | Permalink

    @Xisy ; la rinormalizzazione E' un' approssimazione. E non di poco conto, visto che aggira un problema non trascurabile.
    Le simmetrie di gauge vanno benissimo, ma se portano a risultati non fisicamente accettabili come gli infiniti vanno riviste.

    @Marco : guarda che non sto criticando i gruppi di rinormalizzazione in se, e nemmeno la loro applicazione nel MS, se vista come una cosa temporanea per "tirar fuori risultati" in mancanza di meglio.
    Il discorso della rinormalizzazione applicata in altri campi va benissimo, ma che io sappia in quei campi NON viene utilizzata per aggirare i problemi di infiniti.... se sbaglio son pronto a cospargermi il capo di cenere 🙂

    Relativamente al discorso "conservatori" : qualche post fa ho posto (sigh, ripetizione) il problema della compositeness dell' elettrone, dicendo che densità e campo elettrico sarebbero infiniti se considerato un'entità dimensionless. Mi si è detto di ragionare quantisticamente (Xisy) e che gli infiniti "spariscono" grazie alla rinormalizzazione (tu, indirettamente).
    Mi spiace ma non li ritengo argomenti validi. Gli infiniti non spariscono ma "vengono fatti sparire" nel MS. Il problema di fondo rimane e una spiegazione di come una massa carica puntuale possa esistere fisicamente non mi sembra ci sia.
    Che tu sia un conservatore non l' ho mai pensato ( 🙂 ) altrimenti non faresti un blog così ben fatto didatticamente, e soprattutto non risponderesti alle domande di profani come me!
    Ma vedo spesso in altre risposte (e su altri siti) frasi alla "ipse dixit" che sinceramente mi fan pensare ad un ambiente abbastanza conservatore.

    Il corpo nero : si, Planck ha fatto il giochino da cui è poi nato parecchio. Però poi alla sua formula è stata data un' interpretazione teorica di non poco conto. Negli infiniti del MS questa interpretazione per ora non c'e'.... hai perfettamente ragione a dire che probabilmente verrà quando si scopriranno incongruenze, ma la mia paura è che queste incongruenze siano oltre la nostra portata e che la cosa stagni.

    Cmq, credimi, apprezzo enormemente il tuo blog e le tue risposte, e spero che la mia testardaggine non ti abbia offeso 🙂

    Max

    p.s.: della Meccanica Razionale ho vaghe reminescenze... la cosa più divertente che mi ricordo era il tentativo del prof di calcolare le piccole vibrazioni di una roulotte attaccata da un' automobile. 4 lavagne di formule, 2 ore, e alla fine il risultato che non tornava per un errore nelle prime righe 🙂

    p.p.s : ma non era BDSM ? 🙂

  157. Xisy
    Pubblicato il 16 maggio 2010 alle 18:20 | Permalink

    Cioè secondo te una particella elementare di massa *estesa* sarebbe più semplice e meno problematica di una *puntiforme*????
    Ci rinuncio..

  158. Max
    Pubblicato il 16 maggio 2010 alle 18:38 | Permalink

    Dal lato dell' eliminazione delle singolarità sicuramente.
    E cmq, non si parla di più o meno semplice, si parla di più o meno corretto.
    O il fatto che sia più semplice considerarla puntiforme per qualche motivo elimina automaticamente tutte le altre possibilità ?
    Se il sole per comodità nel calcolo delle interazioni terra-sole è più comodo considerarlo puntiforme, che fai, lo consideri puntiforme anche a 10 Km dalla sua "superficie" ????
    Mi sa che ci rinuncio pure io.

  159. Xisy
    Pubblicato il 16 maggio 2010 alle 19:14 | Permalink

    Sulle divergenze dei campi EM o gravitazionale te l'ho già scritto: semplicemente, sbagli.
    Sulla correttezza pure. Nessuna indicazione sperimentale suggerisce una struttura interna nell'elettrone (a quanto ne sappiamo, è puntiforme) e descriverlo in maniera più complicata (es. estesa) non sarebbe di nessun aiuto nel problema delle singolarità. Perché queste singolarità derivano da una tua comprensione errata dei fenomeni quantistici.

    Ogni altra possibilità, ovviamente, non è da eliminare in assoluto, ci mancherebbe.

  160. Pubblicato il 17 maggio 2010 alle 11:23 | Permalink

    Max, mi spiace ma, sebbene non ne condivida il tono, trovo che Xisy abbia ragione, e che tu invece stia andando fuori strada.

    Sul gruppo di rinormalizzazione: se usi una QFT con un sviluppo perturbativo, allora la rinormalizzazione si rimangia praticamente sempre gli infiniti, che tu stia occupandoti di fisica delle particello o di stato solido.

    Sulla compositness dell'elettrone: il problema principale del tuo ragionamento è che, composto o elementare che sia, un elettrone visto da molto vicino non è solo un elettrone, ma un elettrone vestito da una nuvola di fotoni e di coppie elettrone positrone. Aggiungere a questo fatto un'ulteriore struttura interna è sempre possibile, per carità, ma non cambierà di un dito la situazione, al limite la complicherà a dismisura. Come continua a ripeterti Xisy, stai tentando di risolvere con strumenti inadeguati un problema mal posto. In sostanza l'elettrone potrebbe avere una struttura interna, ma dovrebbe essere più "fine" di quanto abbiamo visto finora, e dovrebbe tenere conto degli effetti quantistici che si manifestano ben prima di quelle dimensioni. Se trascuri questi due "dettagli" puoi arrivare a concludere quello che vuoi, ma sarà semplicemente scorretto.

    P.S. la testardaggine non mi offende mai, tanto ho la testa più dura io 😛

    P.P.S. Sul serio, leggiti QED di Feynman...

  161. Max
    Pubblicato il 17 maggio 2010 alle 13:34 | Permalink

    Ciao Marco,
    intanto purtroppo abbiamo mischiato un po' il problema dell'infinito nascente dal fatto che l' elettrone e' considerato puntuale dagli infiniti che nascono nel MS nell' integrazione degli effetti tre particelle virtuali.
    Almeno per me son 2 problemi distinti; quello dell' elettrone puntuale rappresenta, secondo me, una singolarità. Non stavamo parlando di complicazioni di calcolo o altro. E secondo seppur essendo lecitissimo considerarlo puntuale nei calcoli su distanze "grandi" dal suo centro, non c'e' nessuna prova che l'elettrone sia o meno dimensionless. L' unica certezza è che se ha una dimensione finita deve essere minore di 10e-22 (o 24 ?).
    E, se nei calcoli del MS sta benissimo considerarlo puntuale, secondo me dal lato teorico sarebbe fondamentale sapere se lo sia o meno.

    L' altro discorso, gli infiniti rinormalizzati. Nella QFT perturbativa si trascurano volutamente le strutture interne (meglio detto, quelle a scale inferiori/energie maggiori). Il problema che vedo io è che scendendo di scala gli infiniti ritornano e occorre, appunto, cambiare le costanti di accoppiamento al variare della scala. Questa è una palese approssimazione.... non so se nella fisica dello stato solido succeda lo stesso. Tra l' altro, con la gravità gli infiniti non spariscono.
    Questo per dire che, secondo me, se in una teoria occorre ritarare le costanti cambiando la scala qualcosa di profondo proprio non va.
    Forse sbaglio io, ma mi sembra che con queste premesse la teoria "definitiva" non possa essere una teoria quantistica dei campi.

    Cmq.... vedro' di procurarmi il libro di Feynman 🙂

    @Xisy: che nessuna evidenza sperimentale dica che l' elettrone ha una dimensione non lo metto in dubbio. Che il buon senso dica che è POSSIBILE che la dimensione ce l' abbia eccome nemmeno. Quindi l' escluderlo a priori mi pare poco sensato. Cmq, da quel che mi risulta, "a quanto ne sappiamo" l' elettrone NON e' puntiforme, ma ha SICURAMENTE una dimensione superiore limite.
    Avendo spaziato un po' qua e la ( 🙂 ) il discorso che possa essere un buco nero rotante e carico mi pare assai degno di approfondimento.

    Ciao

    Max

  162. Max
    Pubblicato il 17 maggio 2010 alle 20:18 | Permalink

    p.s.: trovato il libro, in inglese... mo' mi faccio una sana lettura 🙂

  163. Xisy
    Pubblicato il 18 maggio 2010 alle 22:34 | Permalink

    Max scusami se ho usato toni inappropriati (anche perché non sono bravo a spiegarmi) ma ciò che volevo dire è che il "problema" dell'elettrone considerato puntiforme è in realtà un problema inesistente.
    Cioè l'hai inventato tu, ma non esiste, se si inquadrano le cose con i giusti strumenti.
    Sulla rinormalizzazione non mi pronuncio anche perché non ne so abbastanza, ma quello che so mi è sufficiente per affermare con certezza che non si tratta di un argomento che si possa criticare con la leggerezza di certi tuoi interventi.

  164. Max
    Pubblicato il 19 maggio 2010 alle 12:21 | Permalink

    @Xisy: non preoccuparti per i toni, l' importante è il contenuto.

    Che il problema dell' elettrone puntiforme sia inesistente è un'opinione tua, condivisibile o meno. Per me non lo è. Se poi volevi dire che il problema è inesistente per quanto riguarda il MS ed il suo ambito, te lo posso concedere. Ma asserire che per un teorico (e comunque per la conoscenza in generale) sia inesistente il problema di com'e' fatta una particella come l' elettrone mi pare un pelin azzardato.
    Sarebbe stata più onesta una risposta tipo "non sappiamo com'e' fatto, ma per il momento non ce ne frega nulla" per dirla in modo forbito ed elegante 🙂

    Sulla rinormalizzazione, vero, non ho gli strumenti adatti per criticarla fino in fondo. Quel che ho afferrato però mi convince assai poco come metodo di soluzione di un problema di fisica teorica.
    Dal lato pratico, nulla da dire.

    Per quanto riguarda l' "inquadrare con i giusti strumenti", se gli strumenti sono una CERTEZZA son daccordo con te, ma se non lo sono, assolutamente no. E, nel caso della fisica fondamentale mi pare che ci sia oggi di tutto meno che certezze. Mi sembra quindi corretto prendere alcune affermazioni con le pinze 🙂

    @Marco: ho iniziato a leggete il QED di Feynman... interessante e scritto in modo scorrevole 🙂
    Sono solo all' inizio, ovviamente, ma già un dubbio m' assale : la natura della luce. Feynman traccia un bel rigo sulla famigerata dualità onda/particella, dicendo che si tratta "solo" di particelle che però si comportano in modo "strano". In effetti, si comportano più da onde che da particelle in molti casi. Non potrebbero essere dei "pacchetti" o "burst" di onde ?

    Max

  165. Xisy
    Pubblicato il 19 maggio 2010 alle 17:21 | Permalink

    Intendevo più o meno quello (“non sappiamo com’e’ fatto, ma per il momento non ce ne frega nulla”). Cioè: avere a che fare con particelle puntiformi non è considerato un problema nella comunità dei fisici.
    Poi sì, è vero, tutto può essere, ma al momento questo tipo di considerazioni (appunto non legittime nel contesto della fisica odierna) sono speculazioni (e non ho niente contrario alle speculazioni).
    Non a caso, l'unico contesto in cui l'elettrone non è puntiforme credo sia proprio la teoria delle stringhe 🙂

  166. Pubblicato il 20 maggio 2010 alle 11:31 | Permalink

    Max, il punto non è se la questione della natura puntiforme sia un problema per te e non per Xisy, il punto è se la cosa crea dei problemi alla teoria con cui stai cercando di lavorare!

    Mettiamo così: la supposta natura puntiforme dell'elettrone è problematica per l'elettrodinamica classica o per la meccanica newtoniana perché ti porta a delle divergenze dei campi a piccolissime distanze. Al che hai (tu oggi, i fisici un secolo fa) due opzioni: dichiarare la tua teoria inadatta a descrivere i fenomeni naturali a piccole distanze, o tentare di modificare la tua ipotesi iniziale per salvare la teoria. Insistendo per la seconda ipotesi - per esempio dicendo che l'elettrone ha una struttura estesa - da una parte non risolveresti il problema (vada per la sua struttura estesa: ma allora deve avere dei costituenti: e per loro, come la mettiamo? Finisci per ritrovarti con una struttura ricorsiva - che non serve a molto, perché sta solo nascondendo il problema - o con un nuovo problema di singolarità per i nuovi ipotetici costituenti), dall'altra al cosa non ti esimerebbe dal testare la validità della tua teoria modificata rispetto alla realtà. Ti ritroveresti comunque nel caso della prima ipotesi: la tua teoria (l'elettrodinamica classica o la meccanica newtoniana) non sono buone a descrivere la realtà microscopica. A quel punto ti toccherebbe inventare una nuova teoria (vediamo un po', che ne dici della meccanica quantistica?) che da una parte descrive il comportamento della realtà in quei regimi bene, dall'altra elimina il problema delle singolarità delle tue teorie classiche precedenti. Se infatti la carica elettrica diventa da una caratteristica estesa di un oggetto (elettrodinamica classica) un numero quantico (meccanica quantistica), non ha più senso parlare di singolarità. Un discorso analogo vale per le masse delle particelle elementari.

    Se non riesci ad afferrare l'ultimo passaggio (in poche parole approssimate: da caratteristica estesa a numero quantico), mi spiace, ma non ci sposteremo di un millimetro. Tu continuerai a pretendere che la tua teoria (fallace in un regime microscopico) possa essere usata per abbordare delle caratteristiche dell'oggetto che studi in un regime in cui non vale, regime in cui invece le stesse caratteristiche assumono valori e significati diversi (sebbene magari controintuitivi) in seno a un'altra teoria che descrive bene quel regime, e io non avrò modo né di convincerti né di spiegarti.

  167. Max
    Pubblicato il 20 maggio 2010 alle 14:01 | Permalink

    @Marco : capisco benissimo il tuo punti di vista, ma purtroppo non lo condivido. Magari sbaglio, ovvio 🙂

    Per l' elettrone, così come siamo messi, ci sono più possibilità, un paio delle quali potrebbero anche coincidere :

    1) E' puntiforme, identificato da un numero quantico, ok. Ma che diamine è allora ? Ci accontentiamo di dire che è un numero quantico e stop ? è una possibilità che non mi soddisfa. Magari sbaglio, come dicevo sopra. Ma allora potrei dirti che avevano ragione i greci a chiamare l' atomo "Atomo" pensando che fosse indivisibile senza conoscerne la natura, oppure quando si pensava che il protone fosse un mattone indivisibile, sempre senza conoscerne la struttura, ecc ecc.

    2) Ha una struttura interna, e qui ci sono 2 possibilità, che le "sottoparticelle" siano puntiformi (e ricaschiamo nel caso 1) o siano a loro volta costituite da sottoparticelle all' infinito (e caschiamo nel caso frattale di cui si parlava tempo fa).

    3) E' una "perturbazione stabile" dello spaziotempo, prendilo a 4, 11 o chissà quante dimensioni. Questa perturbazione potrebbe a sua volta avere dimensione finita o meno, credo dipenda dalla struttura dello spaziotempo a cui il MS, a quanto capisco, ancora non arriva. In questo caso, la sua "struttura" potrebbe benissimo essere espressa in equazioni matematiche.
    Potrebbe essere una specie di onda stazionaria nello spaziotempo.

    Ora, come dicevo a Xisy, il MS assume come IPOTESI il fatto che sia puntiforme ed identificato da numeri quantici. L' ipotesi funziona benissimo nel suo campo di applicazione e mi sta bene.
    La meccanica newtoniana faceva altre ipotesi anch' esse funzionanti benissimo nel loro campo di applicazione.
    La teoria delle stringhe (che a me non convince, ma probabilmente xche' mi sembra molto macchinosa, senza una ragione oggettiva) fa altre supposizioni, anch' esse ragionevoli, a questo punto.

    Affermare la correttezza di un' ipotesi solo perche' la teoria "funziona" mi sembra decisamente azzardato, soprattutto tenendo conto che il MS qualche peccuccia di fondo ce l' ha.....

    Per concludere, il "mio" non è un problema di singolarità tout court, per risolvere quello ci sarebbero milioni di ipotesi plausibili, per la carica elettrica potrebbe essere per esempio un limite di intensità del campo elettrico sostenibile da vuoto. Si tratta invece di definire "cos'e'" la materia come la conosciamo e, sinceramente, dire che e' un'oggetto dotato di "caratteristiche estese" mi sembra alquanto riduttivo.

    Ciao

    Max

    p.s.: lo so, lo so, sono molto testone 🙂

  168. Pubblicato il 20 maggio 2010 alle 14:22 | Permalink

    Oh, mai non affermo mica che l'ipotesi della "puntiformità" delle particelle sia corretta. In generale un fisico non afferma mai che un'ipotesi è corretta oppure sbagliata: un'ipotesi è semplicemente più o meno statisticamente compatibile con quello che misuriamo in natura. Desolato, per quanto ti abbiano raccontato, la scienza non offre certezze, e raramente si pronuncia su quello che le cose sono, ma sono su come le cose si comportano. Tutto il resto sono pippe 🙂

    Ragione per la quale insisto:

    1) Rispetto alle misure sperimentali odierne un elettrone è puntiforme. Se altre misure daranno adito a contraddizioni con le previsioni che dall'ipotesi di puntiformità discendono, cambieremo serenamente idea. In realtà siamo già alla ricerca di prove in questo senso, e abbiamo già teoria di compositness che aspettano di essere provate o falsificate. Per adesso tutte le prove disponibili puntano in senso opposto (e che sia chiaro, non è mica solo un problema di risoluzione delle misure! L'essere l'elettrone un oggetto composto o meno ha altre importanti conseguenze), in attesa di meglio, di nuovo, tutto il resto sono pippe 🙂

    2) L'ipotesi "frattale" gettata lì è metafisica. Ha conseguenze testabili? Se si, prego, fornirle. Se no, tanto vale dire che l'elettrone è verde e abitato da troll. Che - l'ho già detto - è una pippa 🙂

    3) Analoga considerazione del punto (2), a meno che tu sia serio e pensi a una teoria con conseguenze testabili. E occhio, persino le stringhe sono in difficoltà rispetto a questo punto.

    Per tutto il resto che segue, vale l'adagio solito: l'ipotesi ha conseguenze testabili? Contraddice delle evidenze già misurate? Se le riposte sono 'no' o 'non so' alla prima e magari 'si' alla seconda, allora ancora... sono pippe 🙂 Vedi, la scienza divide piuttosto chiaramente il mondo tra la masturbazione intellettuale e quello che si può misurare. Il confine tra le due cose è abbastanza netto.

    (Credimi, sono più testone di te)

  169. Max
    Pubblicato il 20 maggio 2010 alle 15:14 | Permalink

    @Marco :

    1) altolà! Da quel che ne so io, le misure effettuate sul diametro dell' elettrone stabiliscono un limite superiore per questo, e tra l' altro un limite abbastanza grandicello, specie se rapportato al famigerato diametro di un buco nero equivalente, statico o rotante che sia.
    E cmq potrebbe essere di dimensione finita e non composito, vedi ipotesi 3 di cui sopra.
    O sai cose che io non so ? 🙂

    2 e 3) Ocio, io mi guardo bene dall' affermare che siano ipotesi valide, ma le ritengo altrettanto percorribili di quella relativa all' elettrone puntiforme.
    Che lo si voglia o meno, sono 3 ipotesi a mio avviso altrettanto valide.
    Nessuna dovrebbe inficiare il MS, che opera a scale decisamente superiori. Perchè quindi scartare a priori delle alternative ?
    Come dicevo a Xisy, secondo me è più corretta un'ammessa ignoranza sul fatto che un' affermazione più o meno avventata.

    Il MS in particolare e la MQ in generale dipendono forzatamente dalla "puntiformità" delle particelle elementari ?

    Per chiudere.... mi piace questa frase del libro che mi hai consigliato : "....I'm describing to you HOW nature works, you won't understand WHY nature works that way. But you see, NOBODY understands that"
    (vi descriverò COME funziona la natura, non capirete PERCHE' la natura funziona così, ma vedete, NESSUNO lo capisce")

    Secondo me questa frase rappresenta il limite della fisica (e dei fisici) moderni.... un grosso limite a mio parere 🙂

    E' come il toast imburrato che casca sempre sul tappeto dal lato sbagliato (quello, appunto, imburrato), si può credere sia pura e semplice sfiga finchè non si fa un calcolo (peraltro complicatino) e si vede che un motivo c'e'.... 🙂

    Max

  170. Pubblicato il 20 maggio 2010 alle 15:32 | Permalink

    Certo, potrebbe essere di dimensione finita e non composito, e potrebbe essere verde con dei troll che ballano sopra. La domanda giusta rimane comunque sempre: l'ipotesi che stai facendo ha delle conseguenze testabili? Se si, allora valle a testare e verifica l'ipotesi. Se no, l'ipotesi è irrilevante, e stiamo discutendo del sesso degli angeli. Un elettrone con una dimensione finita ma talmente piccola che non è misurabile per gli standard sperimentali attuali e i cui effetti sono trascurabili nei calcoli per la medesima ragione o dire che è puntiforme sono due affermazioni esattamente equivalenti rispetto alla quantità di conoscenza che apportano rispetto alla questione.

    Le 3 ipotesi che proponi non sono affatto altrettanto valide: due di essere sono - come dicevo prima - indistinguibili dal punto di vista sperimentale, tranne che una renderebbe i calcoli molto più complessi per dare gli stessi risultati. La terza rimane un pour-parler, perché magari suona bene detta al bar all'aperitivo ma non porta da nessuna parte. "Frattale" ha infatti un significato ben preciso, e dovresti per prima cosa dimostrami che le strutture ripetitive si vedono anche nelle dimensioni osservabili, altrimenti stiamo di nuovo discutendo di sesso degli angeli e di troll su sferette verdi.

    Sulla frase di Feynman: quello che tu rigetti come limite della fisica moderna è invece uno dei suoi grandi risultati: la consapevolezza di non dover mai confondere le teorie e il linguaggio che usiamo per descrivere il comportamento della realtà con la natura intima della realtà stessa. Anche se conoscessimo tutte le leggi che regolano il comportamento fisico del mondo, pensi che questo ti direbbe molto sul perché sono proprio quelle leggi a governarlo, e non altre?

  171. Max
    Pubblicato il 20 maggio 2010 alle 17:53 | Permalink

    @Marco : sul primo punto, depende. Depende dai tests, innanzitutto.... uno dei tests forse realizzabili (forse, se qualche teoria delle stringhe ha qualche fondamento, appunto....) sarebbe quello dell' energia liberata dall' evaporazione di un buco nero microscopico. Nel caso di "compositeness infinita" pare sia parecchio maggiore che nel caso le particelle elementari oggi conosciute siano effettivamente elementari. Se per caso (ne dubito) l' LHC riesce a produrre qualche buchino nero una risposta l' avremmo.
    Gli "effetti trascurabili" di cui parli sono sempre relativi al MS e alla sua scala di operazione.

    Cmq, ho sempre l' impressione che si parli di 2 cose diverse : tu dell' efficacia del MS e io di qualcosa che l' MS in ogni caso (corretto o meno che sia) non può vedere perchè in una scala di energie ben diversa.

    Per quanto riguarda i frattali, direi che il cosmo sia, a mio avviso, un esempio di frattale. La struttura frattale può ben apparire in scale particolari e non essere evidente in altre. Se poi tu mi dici che non possiamo (tutt'ora) provarlo o confutarlo, daccordo, ma questo vale anche per parecchie altre cose, COMPRESO il fatto che l' elettrone sia o meno puntiforme. Ripeto.... perchè abbracciare quell' ipotesi e non altre altrettanto plausibili ??? Solo perchè quella scelta risulta più semplice nei calcoli ?

    Ultimo punto, la frase di Feynman : io sono fiducioso che la natura sia esattamente descrivibile dalla matematica, alla lunga. Se non lo fosse, che senso avrebbe scendere sempre più a fondo ?
    Limitarsi a "credere" (o constatare, se preferisci) che la natura si comporti in un certo modo arrendendosi sul fatto del PERCHE' lo faccia, secondo me è il grosso difetto della fisica quantistica. Il fatto che non sappiamo esprimere con il linguaggio e/o la matematica certi fenomeni secondo me dev'essere un pungolo per trovare i mezzi per farlo, non un paletto da non oltrepassare.....

    Il discorso (più filosofico che altro) del perchè siano quelle leggi a governare il cosmo invece di altre, lo puoi gestire come credi, dal principio antropico a quello degli infiniti universi ognuno con leggi diverse. Sta di fatto che nel nostro universo le leggi sono quelle che sono e noi cerchiamo di scoprirle..... e cioè di scoprire proprio il PERCHE' la natura si comporta in un certo modo traducendone il comportamento in matematica.

    Ciao

    Max

    p.s.: prima o poi un saltino a Ginevra dovro' farlo 🙂

  172. Pubblicato il 20 maggio 2010 alle 20:19 | Permalink

    Max, di riuscire di spiegarti che la "puntiformità" contro cui ti accanisci è un dettaglio rispetto ai concetti di particella come campo quantizzato delle QFT (siano esse il MS o le sue estensioni o le teorie di UED che prevedono in buchi neri microscopici) ho rinunciato. Di convincerti che il MS non è per i fisici la cattedrale dogmatica che sembri dipingere pure. Cosa mi resta? Ah, si, forse gli aspetti epistemiologici... Ma come faccio se non ci intendiamo nei termini? Quando io (e Feymann) diciamo "perché" intendiamo una dimensione di senso che la fisica non può affrontare. In questo senso, se vuoi, il ruolo della scienza rimane sempre e comunque discutere il "come". Anche nel momento in cui tutte le relazioni che governano questa fetta di universo fossero comprese e formalizzate (e non è detto che sia possibile, sulla tua ipotesi che la natura sia necessariamente descrivibile in toto da una struttura matematica completa resta un'ipotesi molti obietterebbero, ma tralasciamo), non è affatto detto che tu sia in grado di spiegare perché quella struttura matematica viene scelta invece di un'altra, e il ricorso a principio antropico o multiverso non è certo una soluzione, anzi. Amen.

  173. My_May
    Pubblicato il 20 maggio 2010 alle 21:52 | Permalink

    Che la scienza tenti di spiegare come funziona il mondo, di cosa sia fatto ecc. mi sembra banale. Il problema nasce quando di quel mondo non si ha una diretta conoscenza. A quel punto se il modello (fisico-matematico) che abbiamo costruito è utile per le nostre terrene necessità, allora diremo che la scienza non ha come obiettivo comprendere come sia fatto, o come funziona il mondo, ma è stato costruito perchè ci è utile. Se poi dobbiamo metterci a tavolino e discutere a quale obiettivo la scienza deve giungere, allora siamo tutti d'accordo: alla conoscenza del mondo.
    Ok... ma allora l'elettrone è puntiforme o è esteso?
    Perchè questo tipo di domanda sarebbe una domanda di tipo filosofico? E perchè mai? La scienza dovrebbe rispondere alla domanda: come è fatto il mondo?

  174. Xisy
    Pubblicato il 20 maggio 2010 alle 22:27 | Permalink

    Max (io sono fiducioso che la natura sia esattamente descrivibile dalla matematica, alla lunga. Se non lo fosse, che senso avrebbe scendere sempre più a fondo?)

    Come che senso avrebbe? Eddai!
    La meccanica classica non aiuta nei progetti edilizi?
    Senza l'elettromagnetismo, avresti la luce in casa?
    Senza la fisica moderna, credi che esisterebbero i computer e telefonini?
    Oh, tutte queste cose non sono piovute dal cielo. Abbiamo dovuto inventarle.

    Quello che per te è un grosso "limite" della fisica e dei fisici (capire *come* e non *perché* funzionano le cose), è per me il punto di forza che la contraddistingue da altri settori del sapere non scientifici (es. religione).

  175. Max
    Pubblicato il 21 maggio 2010 alle 12:21 | Permalink

    @Xisy : non sono daccordo. Il capire "come" è più una questione di tecnologia, lo scopo della scienza secondo me è soprattutto scoprire il perchè.

    Altra cosa : la luce in casa è nata ben prima di capire cos'è l' elettromagnetismo. I progetti edilizi li facevano anche gli egizi senza sapere un tubero o quasi di statica delle strutture. Ovvio che la scienza ci ha avvantaggiati enormemente.

    La differenza tra scienza e religione, appunto, sta nel sapere ANCHE il perchè delle cose, e non solo il come. Del "come" ci si può accontentare nella tecnologia ed in ambito religioso, nella scienza secondo me no.

    Max

  176. Xisy
    Pubblicato il 21 maggio 2010 alle 13:15 | Permalink

    Lo scopo della scienza, secondo chi fa scienza, è capire il "come".

  177. Max
    Pubblicato il 21 maggio 2010 alle 13:52 | Permalink

    Trovo il "come" molto limitativo. Se sai il "perchè" di "come" ne capisci molti di più.

  178. Max
    Pubblicato il 21 maggio 2010 alle 13:59 | Permalink

    Tra parentesi, il limitarsi a descrivere il comportamento di una particella quantistica (il "come", appunto) trascurando il "perchè" si comporti così (e qui intendo "perchè" come matematica che ne SPIEGHI" il comportamento e non si limiti a descriverlo) secondo me è limitativo.
    E' come dire che la luce si piega attorno a un buco nero dicendo "la luce e' la luce, quindi si comporta così, sappiamo calcolarne la deviazione in prossimità di una massa ma non sappiamo perchè lo fa".
    A questo "perchè" la RG ha dato una risposta ben precisa.

    Max

  179. Xisy
    Pubblicato il 21 maggio 2010 alle 14:02 | Permalink

    A tua confusione, questo punto, è una questione lessicale.

  180. My_May
    Pubblicato il 21 maggio 2010 alle 14:55 | Permalink

    lessicale...mmmhhh

    Ultimamente sto leggendo John S.Bell (a cui corrisponde il famoso teorema) -Dicibili e indicibili in meccanica quantistica-

    Un passo brevissimo sul problema lessicale:

    -In altri contesti i fisici sono stati capaci di prendere le parole dal linguaggio quotidiano e di utilizzarle come termini tecnici senza fare gran danno. Prendiamo ad esempio i termini _stranezza_, _fascino_ e _bellezza_ della fisica delle particelle elementari. Nessuno è tratto in inganno da questo _linguaggio infantile_, come fu chiamato da Bruno Touschek. Lo stesso dovrebbe accadere con la _misurazione_ e la _misura_. Ma in realtà questa terminologia ha avuto un effetto così dannoso sulla discussione che penso dovrebbe essere completamente bandita dalla meccanica quantistica-

    p.s.
    comunque mi trovo più d'accordo con Max, anche se, come dice Bell, bisognerebbe comprendere se e quanto il linguaggio comune svia dal reale problema che stiamo tentanto di comprendere. Se svia del tutto bisogna eliminarlo.

  181. My_May
    Pubblicato il 21 maggio 2010 alle 15:37 | Permalink

    Io tento, scrivendo esattamente ciò che dice Bell, di rispondere al quesito (chiaramente il discorso è ben piu ampio) sulla questione elettrone-materia-meccanica-quantistica.

    ...Poi venne l'interpretazione di Born (nota di chi scrive:precedeva quella di Schrodinger, che però non sopravvisse). La funzione d'onda non fornisce la densità di materia, bensì (elevando al quadrato il suo modulo) la densità di probabilità. Probabilità di che cosa, esattamente? Non la probabilità che l'elettrone sia in un dato punto, bensì la probabilità che l'elettrone trovato la si si _misura_ la sua posizione. Perchè questa avversione per l'_essere_ e l'insistenza sul _trovare_? I padri fondatori non erano in grado di farsi una idea chiara di come stavano le cose a livello di scala atomica. Essi divennero acutamente consapevoli dell'intervento dell'apparato e della necessità di una base _ classica_ da cui intervenire sul sistema quantistico. Di qui la suddivisione sfuggente -

    Questa è una frase molto esplicita e per me che ho letto tanto su questi problemi mi chiarisce tanti dubbi che avevo. Non è importante (per Born) l'essere, ma trovare.

    Chiaramente a ciò che pensava Born si può anche non essere d'accordo, tuttavia tale interpretazione potrebbe essere stata appunto una via di uscita (furbesca) per non rispondere alla domanda. 😛

  182. Max
    Pubblicato il 24 maggio 2010 alle 16:08 | Permalink

    @Xisy : mettiamola così :

    Se tu spieghi COME evolverà un sistema, ne fornisci le equazioni matematiche che lo reggono ma non capisci PERCHE' quelle equazioni lo reggono, secondo me hai risolto 1/5 del problema scientifico e i 5/5 del problema tecnico.
    E, per prevenire una tua (facile) risposta, non sto parlando della differenza che esiste, per esempio, tra il perchè la natura ha scelto una legge quadratica anzichè cubica per l' andamento della forza tre 2 particelle cariche con la distanza, ma della differenza tra una legge espressa come interpolazione polinomiale con N costanti e la legge "esatta" che SPIEGA il fenomeno.

    Indi, tu puoi benissimo descrivere un sistema e una serie di equazioni che lo reggono senza peraltro aver capito un tubo del funzionamento del sistema stesso, ed è questa la differenza a cui mi riferisco.
    Lascio le interpretazioni filosofiche/antropiche ecc ecc ad altri visto che, almeno per il momento, lasciano il tempo che trovano.

    Nella frase di Feynman, il "perchè" l' ho inteso come la nostra ignoranza nella comprensione di "cosa succede", per esempio, nel meccanismo dell'interferenza di un fotone tra 2 fenditure.
    Puoi dirmi quello che vuoi, ma NESSUNO sa cosa succede, nè perchè il fotone interferisce con se stesso; ci si limita a prenderne atto ed a descriverne il comportamento. E NON si tratta di un "perchè la natura ha scelto questa via", ma di un "COSA fa si che il fotone si comporti in questo modo", e c'e' una bella differenza se permetti.
    Non vedo qui nessuna differenza di quando si sono scoperti i rapporti stechiometrici degli elementi nei composti PRIMA di conoscere la struttura dell' atomo e la QED. Ci si limitava a prendere atto di un fenomeno ed a descriverlo in termini matematici, senza sapere il perchè avvenisse, cosa venuta ben dopo.

    Non parlarmi quindi di confusioni lessicali, credo di essermi spiegato a sufficienza adesso.

    Max

  183. Xisy
    Pubblicato il 24 maggio 2010 alle 20:05 | Permalink

    Che la luce faccia interferenza mi sembra pacifico. Sicuro che Feynman parlasse di fotoni e non di elettroni?

  184. Max
    Pubblicato il 24 maggio 2010 alle 22:51 | Permalink

    Nel libro QED, e nella parte che ho letto, si parla di luce, ma non credo ci sia un abisso di differenza. L' interferenza la si ha tanto col fotone che con l' elettrone.
    E che la luce faccia interferenza mi sembra mooolto poco pacifico, visto che viene considerata composta da particelle in grado di interferire con se stesse anche se vengono fatte passare una ad una dalle fenditure.
    Quindi, noi sappiamo che un fotone (e l' elettrone) e' una "particella" (qualsiasi cosa voglia dire, a questo punto....) in grado di passare contemporaneamente attraverso le 2 fenditure interferendo con se stesso. Del PERCHE', o meglio detto (per evitare confusioni lessicali, appunto....) del COME diavolo faccia a farlo non sappiamo un bel nulla.

    Tra parentesi, nell' esperimento di interferenza con elettroni che passano uno alla volta nell' apparecchio (Merli e/o Tonomura) mi sorge un dubbio : non e' possibile che il singolo elettrone lasci una sorta di "perturbazione" nello spazio attraversato che influenza l' elettrone successivo ? Esiste qualche esperimento che elimini totalmente questa possibilità, magari chudendo le fenditure dopo ogni passaggio e "disturbando" lo spazio dell' esperimento con un fascio di elettroni completamente non correlato con il primo, per esempio ?

    Ho letto inoltre che, nonostante quanto si dica spessissimo, si è in grado di determinare DOVE passa l' elettrone incriminato (o il fotone) perturbando solo minimamente la figura di interferenza, e non distruggendola completamente..... solo che non ho trovato nessun risultato in proposito.

    Max

  185. Max
    Pubblicato il 24 maggio 2010 alle 22:57 | Permalink

    p.s.: la domanda sulla "perturbazione" dello spazio m'e' venuta dopo aver letto questa frase... :

    "It was shown experimentally in 1972 that in a Young slit system where only one slit was open at any time, interference was nonetheless observed provided the path difference was such that the detected photon could have come from either slit.[14] The experimental conditions were such that the photon density in the system was much less than unity"

    In sintesi, (se il mio inglese non e' del tutto errato...) l' interferenza si produce anche aprendo UNA SOLA fenditura alla volta e facendo passare i fotoni uno a uno. Questo non potrebbe essere spiegato dalla natura ondulatoria.... o sbaglio ?

    Max

  186. My_May
    Pubblicato il 31 maggio 2010 alle 10:23 | Permalink

    X Max
    Se mi indichi pagina,capitolo, capoverso ecc. potrei tentare di tradurlo in italiano. Avrei anch'io quel libro (in italiano) anche se per mancanza di tempo sono rimasto alle prime pagine.

    Comunque rimango scettico sulla possibilità che un fotone (o quel che è prima della misura) passato da una sola fenditura crei, o possa creare, interferenza.
    ciao 🙂

  187. Max
    Pubblicato il 31 maggio 2010 alle 12:53 | Permalink

    @My_May : quella frase non viene dal libro ma da una ricerca internet.
    Quel che dice NON e' che un fotone da solo crei interferenza passando DA UNA SOLA fenditura, ma che più fotoni, UNO ALLA VOLTA, riescono ad interferire ANCHE SE fatti passare UNO ALLA VOLTA e aprendo le fenditure UNA ALLA VOLTA.
    Quindi mi pare di capire (se la cosa e' vera, beninteso....) che i fotoni non solo riescono a "capire" che ci sono 2 fenditure, anche se queste sono aperte alternativamente, ma anche a "ricordarsi" che sono passati fotoni in precedenza.
    Mah.... avrei una sola spiegazione plausibile per un comportamento simile, e mi verrebbe anche in mente un esperimento "classico" per verificarla, ma mi mancano tempo e soprattutto mezzi 🙂

    Max

  188. My_May
    Pubblicato il 3 giugno 2010 alle 15:42 | Permalink

    Ahhh, ora è chiaro (almeno credo :))! Si, guarda... non credo che Marco possa aiutarti, nessuno fino ad ora è riuscito a comprendere come (e dico "come", ovvero con quale "meccanismo", se ce n'è uno) questi microsistemi riescano ad fregarci 😛

  189. Xisy
    Pubblicato il 3 giugno 2010 alle 16:47 | Permalink

    Non l'ho capito bene questo esperimento... appena posso mi leggo l'articolo di Sillittoa & Wykesa..

  190. Max
    Pubblicato il 3 giugno 2010 alle 22:00 | Permalink

    @Xisy... se hai sottomano una copia dell' articolo, lo leggerei pure io volentieri. Trovo alquanto interessante la cosa.... da quel che ho capito (leggendo qua e la...) hanno fatto l' esperimento con degli shutters aprendo ALTERNATIVAMENTE le 2 fenditure, e l' interferenza c'e' stata ugualmente. Fosse vero, l' unica possibilità che mi viene in mente è qualche sorta di "traccia" lasciata nello spazio dai fotoni precedenti che influenza il comportamento di quelli successivi, visto che in quel caso e' fisicamente impossibile il passaggio del singolo fotone da 2 fenditure contemporaneamente.

    Max

  191. My_May
    Pubblicato il 4 giugno 2010 alle 08:37 | Permalink

    La questione è che un singolo fotone che passa attraverso una sola fenditura non lascia tracce inequivocabili. Per vedere l'interferenza oppure no c'è bisogno di un gran numero di fotoni.
    Il singolo fotone però (e questo mi sembra già accertato con gli esperimenti a chiusura ritardata) si comporta come se sappia, benchè già passato dalle due fenditure, quale delle due verrà chiusa. Questo fenomeno è riconducibile all'entanglement quantistico.
    Se ho ben compreso bene, in questo tipo di esperimento invece, ogni fotone sembra essere entanglement con gli altri fotoni. Una spiegazione più plausibile è che l'informazione onda o particella non è legata al singolo fotone di passaggio ma a un gran numero di fotoni (come dicevo all'inizio). Quindi è chiaro che se l'esperimento prevede di chiudere "alternativamente" entrambe le fenditure, l'intero gruppo di fotoni si comporta di conseguenza mostrando la figura di interferenza.
    Ripeto, questo è legato al fatto che noi realmente non vediamo, con un singolo fotone, la figura di interferenza o un puntino ben distinguibile sulla lastra fotografica. Abbiamo bisogno di molti fotoni.
    Sembra una specie di entaglement quantistico ma questa volta valido per l'intera flotta di fotoni.
    E voi direte...come si spiega? Si spiega con il fatto che loro sono "intelligenti" e si mettono d'accordo per fregarci 😛

  192. Max
    Pubblicato il 4 giugno 2010 alle 10:20 | Permalink

    @My_May : L' esperimento, condotto con elettroni fatti passare uno alla volta lascia eccome tracce inequivocabili per ogni singolo elettrone. Suppongo si sia fatto anche con i fotoni, ma non so quanto siano definite le tracce.
    Indi, gli elettroni quando colpiscono la lastra sono ben visibili come singole particelle.
    L' esperimento di cui sopra, con la chiusura alternativa delle fenditure (se ho capito bene, beninteso.....) dimostrerebbe che hai l' interferenza anche facendo passare gli elettroni uno ad uno avendo aperta UNA SOLA fenditura alla volta.
    Fosse così vorrebbe dire che le particelle riescono ad interferire non solo nello spazio ma anche nel tempo visto che ad ogni passaggio ci sarebbe una sola fenditura aperta in un dato istante.

    Altra cosa che ho letto e' che, nonostante quanto si creda abitualmente, e' possibile mettere un rilevatore che "veda" da dove passa la particella perturbando solo minimamente la figura di interferenza.

    Purtroppo le informazioni sono contrastanti, la rete non è affidabilissima.... per questo mi piacerebbe un approfondimento sulla questione.

    Ciao

    Max

  193. My_May
    Pubblicato il 4 giugno 2010 alle 11:26 | Permalink

    Una cosa che bisognerebbe chiarire è che, rispetto a quello che si poteva presumere in principio, non c'è "indeterminazione" tra la natura corpuscolare e la natura ondulatoria. La complementarietà tra onda e particella non è un principio come lo è il "principio di indeterminazione", il quale vale solo per alcune coppie di osservabili (come posizione-quantità di moto per esempio). Marco mi castigherà se stò affermando cose imprecise o peggio inesatte. 🙂
    Perchè voglio ricordare questo? Perchè sembrerebbe, all'apparenza, che l'esperimento delle due fenditure sia l'esperimento "ideale" per comprendere se ci troviamo difronte o alla natura corpuscolare o a quella ondulatoria.
    Invece non è così...
    Per ulteriori approfondimenti aspetto però il parere di Marco 🙂

  194. Max
    Pubblicato il 4 giugno 2010 alle 12:10 | Permalink

    L' esperimento "ideale" per vedere se si tratta di corpuscoli e' semplicemente quello di spararli uno ad uno contro una pellicola sufficientemente sensibile. Se appaiono i puntini, sono corpuscoli, altrimenti ciccia. E pare siano proprio corpuscoli.
    Quel che non si vede con suddetto esperimento e' se i corpuscoli viaggiano "insieme" ad un' onda.
    Nelle 2 fenditure, si ha un comportamento ondulatorio di interferenza, PERO' le particelle arrivano sempre come corpuscoli.
    Quindi, o le particelle sono SIA un' onda che un corpuscolo, oppure sono dei corpuscoli che viaggiano insieme ad un'onda che li "guida", sempre che Marco non inorridisca ( 🙂 ) per l' espressione.

    A questo punto (orrore, dirà qualcuno....) mi viene in mente un esperimento fattibile in campo macroscopico. Diciamo di ripetere l' esperimento delle 2 fenditure utilizzando NON particelle MA un mezzo (acqua, olio ?) in cui vengono sparate delle palline, diciamo di plastica/acciaio/pongo/mollica di pane, costrette poi a passare x le due fenditure, ovviamente il tutto calibrato in scala macroscopica.
    Le palline provocano, ovviamente, un' onda durante il loro moto nel mezzo liquido, passano attraverso le fenditure e arrivano su un bersaglio. Suppongo che l' onda prodotta dalle palline influenzi in qualche modo il moto delle palline adiacenti/successive.
    Chissà con che distribuzione arrivano le palline sul bersaglio ? 🙂

    Max

  195. Xisy
    Pubblicato il 4 giugno 2010 alle 13:17 | Permalink

    Mmm.. i fotoni sono oggetti di un campo em e in certi contesti (MQ) non ha senso descrivere il fotone singolo classicamente.
    Es. Immagina due rivelatori di fotoni distinti (es. telescopi) che ricevono fotoni dalla stessa sorgente (stella). Ognuno indipendentemente. La probabilità che i due rivelatori rivelino simultaneamente un fotone ciascuno, in coincidenza, dipende dalla posizione della stella rispetto ai due telescopi. Come se un fotone influenzasse l'altro (interferometro di Hanbury-Brown e Twiss). Questo perché i fotoni sono "bosoni", e lo stato di due bosoni è cosa diversa dai due stati di singolo bosone.
    Bisogna considerare un campo em (o funzione d'onda) che contenga entrambi i fotoni.

  196. Max
    Pubblicato il 4 giugno 2010 alle 13:45 | Permalink

    @Xisy : questo xo' non vale nel caso i fotoni passino uno ad uno, e soprattutto nel caso che le fenditure siano aperte alternativamente.
    Nel primo caso il fotone è singolo, nel secondo caso credo sia evidente che ogni fotone viene influenzato da quelli precedenti, o dallo spazio in qualche modo.

    Il discorso dell' entanglement tra fotoni è effettivamente sorprendente, anche se (mi risulta) rimanga aperta la possibilità delle variabili nascoste non locali.

    Max

  197. Pubblicato il 7 giugno 2010 alle 13:02 | Permalink

    @Max: i tuoi esperimenti "ideali" sono decisamente grotteschi 🙂

    Il problema di questa discussione è decisamente un problema storico: come i fisici di inizio secolo scorso, vi state accapigliando nel cercare di rimettere insieme una visione classica della realtà (dove i costituenti hanno una loro fisicità corpuscolare) con le evidenze di comportamento quantistico (dunque ondulatorio, ma in senso probabilistico) che non riuscite a visualizzare. Il punto è che, con l'avvento della cosiddetta "seconda quantizzazione", la questione della dualità corpuscolo/onda semplicemente cade. Sia la "materia" che le "forze" sono composto da campi con certe caratteristiche (fermionici i primi, bosonici i secondi, dunque obbedienti a diverse statistiche; con massa o senza massa; con certe caratteristiche di spin, carica elettrica, colore, sapore, ...) che interagiscono tra loro secondo le regole delle meccanica quantistica. In certe condizioni (e.g. il mondo macroscopico) lo spettro dei comportamenti possibili di questi campi è totalmente dominato da un particolare percorso nello spazio delle fasi, ed è facilmente confondibile con un comportamento "corpuscolare". Ma si tratta di un caso limite in cui l'approssimazione è perfettamente valida, non di una natura alternativa.

  198. Max
    Pubblicato il 7 giugno 2010 alle 15:49 | Permalink

    @Marco : più che ideali, direi realizzabili 🙂
    E ciò non toglie che sarei oltremodo curioso del risultato, che ritengo tutt'altro che scontato. Il comportamento delle "biglie" potrebbe benissimo assumere statisticamente quello di un' interferenza, con un' opportuna scelta dei parametri di fluido e biglie, e senza dubbio ogni biglia avrebbe un percorso pressochè imprevedibile, quindi l' analogia non mi pare da buttare.

    Cmq, mi rendo conto che stiamo sempre parlando di 2 cose diverse. Tu di comportamenti statistici secondo le leggi della fisica quantistica, io di un' eventuale alternativa deterministica o semi-deterministica.
    I campi che tu mi descrivi così bene sono fondamentalmente degli oggetti matematici astratti con cui viene costruita la teoria. Benissimo, nulla da obiettare, ci mancherebbe 🙂
    Solo, non sono pienamente convinto che sia l' interpretazione giusta.... tutto qua.
    Quando qualcuno tirerà fuori dal cilindro una teoria che includa la relatività in maniera completa e sufficientemente elegante, probabilmente mi convincerò.
    Per ora, non prendertela, vedo una teoria che descrive una visione parziale del tutto e soprattutto (giuro, è l' ultima volta che lo dico...) nulla è in grado di dire sulle interazioni gravitazionali, sull' espansione accelerata dell' universo e su cosa diamine sia la massa (Higgs a parte, ma vedremo....) e altre "cosucce".

    Cmq, non ho ancora visto un' interpretazione dell' interferenza con le 2 fenditure aperte alternativamente.... esiste ?
    E un qualche dettaglio sugli esperimenti in cui si riesce a determinare x quale fenditura passa il fotone senza distruggere l' interferenza ? In questo caso dove va a parare il collasso della funzione d'onda e il comportamento quantistico puro ?

    Ciao

    Max

  199. Pubblicato il 7 giugno 2010 alle 15:55 | Permalink

    Ma Max, io lo so bene che la mia teoria non è perfetta. La sola differenza è che non mi permetto di considerare più reali le tue palline dei miei campi: sono entrambe approssimazioni e rappresentazioni per calcolare, che ti piaccia o meno. Non farti ingannare dagli occhi, o dal fatto che tu abbia sensori "naturali" ben tarati per interagire con oggetti di certe dimensioni o lunghezze d'onda: sempre interazioni sono!

    Quanto all'interferenza con le 2 fenditure aperte alternativamente, prima che l'interpretazione io amerei vedere il dato sperimentale, che onestamente non ho mai incrociato.

  200. Max
    Pubblicato il 7 giugno 2010 alle 16:54 | Permalink

    @Marco : appunto, nemmeno io sono riuscito a trovare l' articolo, solo qualche accenno qua e la.....
    Idem per l' esperimento con il "sensore" in grado di rilevare il passaggio del fotone senza distruggere l' interferenza.
    Secondo me sarebbero 2 punti per una discussione interessante 🙂

    Per le "palline" : sono ovviamente approssimazioni, anche senza tirare in ballo i quanti. Sono "pulviscolo in un mare di spazio vuoto" anche se ci appaiono solide.
    La mia era solo l'idea di un esperimento (realizzabile) alla ricerca di un' analogia con l' interferenza quantistica supponendo che il mezzo di propagazione (acqua, olio, etere se esistesse, spazio vuoto, una qualche struttura ignota....) abbia un influenza appunto nella propagazione e nell'interferenza tra le particelle.
    Tradotto : una ricerca di un'eventuale separazione fisica tra particella e onda che sarebbe causata dal movimento della particella stessa 🙂

    Ultima cosa : non faccio fatica a seguire un comportamento statistico di un numero elevato di campioni. La popolazione ne è un buon esempio. Ciò non toglie che sono in grado con un po' di pazienza e entro certi limiti di seguire l' evoluzione di un singolo individuo.... cosa che la MQ nega completamente. Per questo l' interesse sulle fenditure e sul rilevamento "en passant" del fotone.

    Ciao

    Max

  201. Pubblicato il 7 giugno 2010 alle 17:05 | Permalink

    Quello che credo continui a sfuggirti è che la MQ e le teorie dei campi dicono che il comportamento collettivo è dato dalla somma (pesata) di tutte le probabilità, anche su un singolo oggetto. Fino a quando non vai a disturbare il singolo fotone (cambiando gli estremi del problema) con un rivelatore, lui esiste come somma di tutti gli stati possibili. Non è questione di un elemento singolo di una distribuzione: l'oggetto singolo è la distribuzione dei suoi stati possibili nello spazio delle fasi.

  202. Max
    Pubblicato il 7 giugno 2010 alle 18:55 | Permalink

    No, non mi sfugge, ma.....
    L' esperimento delle fenditure, specie se fatto 1 fotone alla volta, tende a dimostrare il comportamento quantistico dello stesso fotone.
    Quindi, il fotone "passa" per le 2 fenditure in contemporanea e interferisce con se stesso, e fin qui tutto bene.
    Si pone sempre l' attenzione che finchè il fotone non ha raggiunto la lastra questi si trova in uno stato "probabilistico" (orrenda definizione, cmq....) indefinito, quindi dalla partenza all' arrivo NON ha una traiettoria precisa, e quindi può passare per entrambe le fenditure e i suoi stati, come li definisci tu, vanno a collassare SOLO al raggiungimento della pellicola, e anche fin qui tutto ok.... strano ma vero.
    MA, se come ho letto, nel suddetto esperimento SI RIESCE a rilevare il fotone determinando DA QUALE fenditura passa, SENZA distruggere la figura di interferenza, come la mettiamo ???
    Cosa fa, il fotone, si fa vedere da una fenditura e poi autointerferisce grazie alla seconda fenditura che manco s'e' sognato di vedere ?
    O e' una bufala il fatto che si riesca a rilevarlo senza distruggere la figura di interferenza ?

    Max

  203. Max
    Pubblicato il 7 giugno 2010 alle 18:58 | Permalink

    p.s.: Marco, stiamo sempre parlando di 2 fazende diverse, tu dell' interpretazione matematica/quantistica della cosa, con il suo spazio delle fasi e la ricombinazione al raggiungimento della pellicola, io, sempre che non sia una bufala, beninteso, di un' apparente incongruenza rilevabile.
    Il tuo e' un discorso puramente teorico di applicazione di una teoria, la mia una domandina su un risultato sperimentale 🙂

    Ciao

    Max

  204. My_May
    Pubblicato il 7 giugno 2010 alle 19:16 | Permalink

    Marco, il problema è che le persone "comuni" (come me) che sente parlare di spazio delle fasi come se si stesse parlando di frittura mista di pesce (assolutamente buona) o di distribuzione di suoi possibili stati nello spazio delle fasi, come se si stesse parlando di vermicelli con le cozze (assolutamente buone), incomincia ad avere dei preconcetti sulla aderenza di questi, pur lodevoli, lavori, con la realtà di tutti i giorni. Insomma noi siamo abituati a raccontare ai bambini che una sedia (che non si sa perchè dovrebbe essere così differente da una "singola particella") è in un posto ben preciso e in un tempo ben preciso. Cos'è allora che ci spaventa dello "spazio delle fasi" o della teoria dei campi sulle particelle? Ci spaventa il non poter parlare più di cose reali che sono qui o li. Ci spaventa dover ammettere che una teoria così folle è giusta...
    Il problema è che la sua follia è giustificata dagli esperimenti, pur tuttavia rimane comunque una follia.

    Lo so, i "prerequisiti"... ma questi non attecchiscono più di tanto. Avessimo tutti la massima conoscenza di base, anzi di più, pensare ad un oggetto che è "distribuito" in uno "spazio fantasma" che nessuno può vedere ne toccare, rimarrà difficile da digerire; è peggio di un'ottima frittura di pesce (che si sa se pur buona è comunque pesante).
    Non so come fate voi fisici a digerirla così bene. Sicuramente avrete uno stomaco fuori dal comune 😛

  205. Pubblicato il 7 giugno 2010 alle 19:34 | Permalink

    @Max: ma di questo fantomatico esperimento, per quello che mi riguarda, hai sentito parlare solo tu. Io, nella mia piccola esperienza, conosco solo esperienze in cui la presenza di un rivelatore in prossimità delle fenditure che identifichi il passaggio di un fotone (o di un elettrone) in una o l'altra fenditura distrugge le figure d'interferenza. Quello che citi tu mi è ignoto, e fino a quando non mi mostri una referenza che possa leggere e valutare rimane, mmm, vediamo, aria fritta? ;-P

    @My_may: mi spiace che la cosa ti disturbi, in realtà lo smarrimento rispetto alla stranezza della natura è il sentimento più condiviso da tutti al primo approccio. Ma vedi, rimane solo e sempre una questione culturale: quale bambino oggi è terrorizzato dall'idea di una terra rotonda immersa nello spazio vuoto? Prova a immaginare di raccontarlo a un bambino (o un adulto) del quinto secolo. La "follia" della fisica moderna non ha ancora penetrato il pensare comune delle popolazioni, o comunque molto meno di quanto non la abbiano fatto a suo tempo la fisica di fine ottocento. Ci sono ragioni intrinseche e ragioni sociali e politiche (ehi! È fisica di un secolo fa!) che potrebbero essere almeno in parte aggirate da una buona educazione scientifica. Per esempio, lo stesso concetto di probabilità di un evento è qualcosa che "l'uomo comune" non ha - colpevolmente, per quanto riguarda la scuola - gli strumenti per capire.Non dare la colpa ai paroloni o al gergo tecnico: dietro c'è una realtà che può essere afferrata a vari livelli. Ci riesce persino Oliver! 😛

  206. My_May
    Pubblicato il 7 giugno 2010 alle 20:49 | Permalink

    Perfino Oliver è riuscito a vedere la Terra "rotonda" in uno spazio tondo dopo l'avvento dei satelliti. 😛
    E' questo che divide... se fosse solo una questione di termini non ci sarebbero problemi. Potrei chiederti, per esempio, di "mostrarmi" uno spazio delle fasi, quello dove si distribuirebbe l'oggetto. Proprio come oggi guardiamo la Terra dallo spazio.

    Sai, il problema è che il concetto "matematico", costruito nella nostra mente, potrebbe effettivamente avere qualche corrispondenza con gli esperimenti, ma esso rimane una "costruzione" mentale. Gli esperimenti poi ci inducono a "credere" che quelle costruzioni siano giuste, ma nessuno ha mai visto tali costruzioni, nè nella nostra mente e ne la fuori, dove crediamo siano esistano per davvero. Io credo che sia proprio questo che dovrebbe dividere la matematica dalla fisica, mentre invece le si confonde. Bisogna dividere le costruzioni mentali (matematiche) da quelle fisiche.

    "Purché sia accertato", quindi, diventa una questione fisica e non matematica... o almeno così io, da persona comune, credo sia più giusto (intuitivamente lo dico :)).

  207. Max
    Pubblicato il 8 giugno 2010 alle 00:13 | Permalink

    @Marco :

    Da Wikipedia (inglese, of course...) :
    "It is a widespread misunderstanding that, when two slits are open but a detector is added to the experiment to determine which slit a photon has passed through, then the interference pattern no longer forms and the experimental apparatus yields two simple patterns, one from each slit, superposed without interference. Such a result would be obtained only if the results of two experiments were superposed in which either one or the other slit is closed. However, there are many other methods to determine whether a photon passed through a slit, for instance by placing an atom at the position of each slit and monitoring whether one of these atoms is influenced by a photon passing it. In general in such experiments the interference pattern will be changed but not be completely wiped out. Interesting experiments of this latter kind have been performed with photons[7] and with neutrons.[8]"

    Ovviamente non ho trovato gli articoli originali.... ma penso varrebbe la pena buttarci un occhio, no ?

    Max

  208. Pubblicato il 8 giugno 2010 alle 09:05 | Permalink

    Trovati, appena ho un minuto 😉 li studio.

  209. Max
    Pubblicato il 10 giugno 2010 alle 23:21 | Permalink

    Fammi sapere che sono molto curioso 🙂
    Anzi, se non sono copyrightati e hai voglia di allungarmeli.....

  210. Pubblicato il 11 giugno 2010 alle 08:39 | Permalink

    Inviati privatamente. Buona lettura, e occhio alle "unsharp observables" 😛

  211. Max
    Pubblicato il 13 giugno 2010 alle 11:52 | Permalink

    Grazie mille davvero, Marco 🙂
    Ho iniziato a leggere velocemente il primo, sembra interessante, anche se da quel che ho velocemente afferrato si tratta sempre di osservare con una certa probabilità il passaggio del fotone e non una "certezza" per mantenere l' interferenza.... ma appena ho un po' di tempo me lo approfondisco 🙂

    Ciao

    Max

  212. Xisy
    Pubblicato il 14 giugno 2010 alle 19:54 | Permalink

    Ho dato un'occhiata a Sillitto 1972 (che faticaccia trovarlo, ho dovuto fare un proxy alla la rete del Cern).. a parte il fatto che non ci ho capito quasi niente, credo che per ogni evento di singolo fotone, sebbene il setup richieda che solo una fenditura alla volta sia aperta (cioe' non si hanno mai due fenditure contemporaneamente aperte), c'è un otturatore rapido che apre e chiude le varie fenditure con tempi molto veloci rispetto a quelli impiegati dal fotone per raggiungere il detector. Per cui, per ogni fotone, i possibili cammini ammessi sono multipli. Questo puo' produrre tranquillamente interferenza.

  213. Pubblicato il 15 giugno 2010 alle 08:38 | Permalink

    Appunto, "unsharp observables" 🙂

    P.S. forse qualcuno dovrebbe prendersi la briga di correggere la voce di Wikipedia che cita questo paper, perché nelle sue conclusioni è decisamente fuorviante (e ha portato fuori strada Max, che ne ha tratto una deduzione che nel paper ovviamente non c'è). Nessun Wikipediano fisico li fuori?

  214. Max
    Pubblicato il 15 giugno 2010 alle 21:53 | Permalink

    Xisy... non e' che x caso potresti mandarmi il Sillitto ? 🙂
    maxx5 at veneto dot com

    Ciao

    Max

  215. Xisy
    Pubblicato il 16 giugno 2010 alle 12:06 | Permalink
  216. Max
    Pubblicato il 16 giugno 2010 alle 13:11 | Permalink

    Grasssie 🙂

  217. Max
    Pubblicato il 18 giugno 2010 alle 20:19 | Permalink

    Mhhhh.... vedo che non sono il solo ad aver pensato ad un' onda "guida" associata alla particella 🙂

    http://it.wikipedia.org/wiki/Interpretazione_di_Bohm

    @Marco : a questo punto il mio "esperimento grottesco" mi pare sempre piu' interessante !

    Max

  218. Pubblicato il 20 giugno 2010 alle 15:21 | Permalink

    Max, due consigli.

    Uno: quando leggi WIkipedia come fonte unica delle tue elucubrazioni, fammi il favore di leggere anche la pagina di discussione della voce che ti solletica, potresti scoprire che le cose scritte li non sono così affidabili, complete o corrette come uno potrebbe essere tentato di pensare a un'occhiata superficiale.

    Due: se la questione dei fondamenti della meccanica quantistica ti tiene sveglio la notte, perché non ti regali "Un'occhiata alle carte di Dio" Giancalo Ghirardi? È uno dei migliori libri divulgativi non semplicistico sull'argomento in circolazione.

  219. Max
    Pubblicato il 20 giugno 2010 alle 19:13 | Permalink

    Uno... non ti seguo. L' interpretazione di Bohm e' non locale, indi il teorema di Bell non ci si applica. E' un' interpretazione che mi sembra altrettanto (se non più) valida di quella di Copenhagen.
    Si baratta il realismo con la non-località della teoria.

    Due... ci butterò un okkio. Non e' che non mi faccia dormire (a dire il vero, il poco che dormo lo faccio bene 🙂 ) ma mi fa pensare parecchio.

    Ciao

    Max

  220. Pubblicato il 21 giugno 2010 alle 08:22 | Permalink

    Quello che volevo dire è che il dibattito tra l'interpretazione di Copenaghen della MQ e quella della teoria dell'onda pilota di Bohm-De Broglie è un soggetto spinoso mica ancora chiuso, e spesso nemmeno ben compreso dai fisici stessi, per cui farei attenzione a usare Wikipedia (e quella voce in particolare) come riferimento per trarre delle conclusioni. Nel libro che ti consigliavo c'è un bel capitolo sulla questione, che penso invece possa essere un'ottima introduzione per masticare della questione senza divagare troppo.

  221. Max
    Pubblicato il 21 giugno 2010 alle 10:24 | Permalink

    Capito, ma infatti non l' avevo presa come conclusione ma solo per il fatto che esisteva un' interpretazione simile a quella che mi era venuta in mente 🙂
    Tra parentesi, non riesco a pensare a nessun esperimento che riesca a stabilire quale delle due sia valida.... E così a naso l'unica cosa che potrebbe giustificare la non-località senza inficiare la RG dovrebbe essere qualche dimensione aggiuntiva, e nemmeno "arrotolata" come si pensa sia nelle teorie delle stringhe.

    Max

  222. wimp
    Pubblicato il 21 giugno 2010 alle 21:36 | Permalink

    Ciao Marco, da quello che leggo in giro vedo che state facendo un ottimo lavoro e state collezionando molti più dati del previsto e ciò è indice del fatto che i nuovi sistemi di sicurezza funzionano alla grande e che tutti voi avete acquisito ormai un'ottima esperienza su come far funzionare nel migliore dei modi questa fantastica macchina. Mi chiedevo visto che ormai siete vicini a "strizzare" i fasci al limite previsto per 7TeV e visto che i sistemi di sicurezza funzionano benone, secondo te c'è la possibilità che a fine anno o comunque qualche settimana prima del lungo stop programmato per salire a 14 TeV, proviate per qualche giorno collisioni vicine ai 10TeV? 🙂

  223. Pubblicato il 23 giugno 2010 alle 14:36 | Permalink

    Wimp, collezioniamo tutto quello che la macchina ci da, che onestamente potrebbe essere ( e spero a breve sarà) molto di più. In ogni caso, per adesso i macchinisti puntano all'aumento della luminosità, e di salire in energia non se n'è ancora parlato. Vedremo, ma personalmente non ci conto molto, sicuramente non quest'anno.

Scrivi un Commento

Il tuo indirizzo email non verrà mai pubblicato o condiviso.

Puoi usare questi tag e attributi HTML <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

  • Mi chiamo Marco Delmastro, sono un fisico delle particelle che lavora all'esperimento ATLAS al CERN di Ginevra.

    Su Borborigmi di un fisico renitente divago di vita all'estero lontani dall'Italia, fisica delle particelle e divulgazione scientifica, ricerca fondamentale, tecnologia e comunicazione nel mondo digitale, educazione, militanza quotidiana e altre amenità.

    Ho scritto un libro, Particelle familiari, che prova a raccontare cosa faccio di mestiere, e perché.

  • feed RSS articoli
  • feed RSS commenti
  • Cinguettii