top of page

I MIEI ARTICOLI

TENERE D’OCCHIO “DANNO OSSIDATIVO” E “RESTRIZIONE CALORICA” PER PROLUNGARE LA VITA

 

Le teorie biologiche della longevità si concentrano sui processi cellulari e molecolari che influenzano il processo di invecchiamento e determinano la durata della vita di un organismo. Una delle teorie più note è la teoria del danno ossidativo, che suggerisce che l'accumulo di danni cellulari causati dai radicali liberi contribuisce all'invecchiamento e alla comparsa di malattie legate all'età. La teoria del danno ossidativo è una delle spiegazioni più approfondite e ampiamente accettate riguardo ai processi biologici che influenzano l'invecchiamento e la longevità degli organismi viventi. Questa teoria si basa sull'idea che l'accumulo di danni cellulari causati dai radicali liberi contribuisca in modo significativo al deterioramento delle cellule e dei tessuti nel corso del tempo, portando all'invecchiamento e alla comparsa di malattie legate all'età.

I radicali liberi sono molecole altamente reattive che contengono un elettrone non accoppiato nel loro struttura molecolare. Essi si formano come sottoprodotti del metabolismo cellulare, ma possono anche essere introdotti nell'organismo da fonti esterne come l'inquinamento atmosferico, il fumo di sigaretta e l'esposi-zione ai raggi ultravioletti. Questi radicali liberi sono instabili e reattivi e possono danneggiare le cellule e i tessuti del corpo at-traverso un processo noto come stress ossidativo.

Il danno ossidativo può verificarsi in varie strutture cellulari, compresi lipidi, proteine, e soprattutto l'acido desossiribonucleico (DNA), il materiale genetico delle cellule. Questo danneggiamento cumulativo nel tempo può compromettere la funzione cellulare e contribuire al deterioramento progressivo dei tessuti e degli organi nel corso dell'invecchiamento.

Un corollario a questa teoria è che il tasso di invecchiamento dovrebbe essere ritardato dall’attenuazione del danno ossidativo. A sostegno di questa ipotesi si è accumulato un ampio corpus di prove. Al contrario, aumenti del danno ossidativo al DNA, alle proteine e ai lipidi sono stati riscontrati con il normale invecchiamento.

La restrizione calorica, come vedremo anche appresso, prolunga invece la durata della vita, e riduce anche lo stress ossidativo. Attraverso la ricerca, gli scienziati hanno identificato una serie di molecole e processi biologici che possono mitigare gli effetti del danno ossidativo e promuovere la longevità. Tra questi vi sono gli antiossidanti, sostanze che neutralizzano i radicali liberi e proteggono le cellule dai danni ossidativi. Alimenti ricchi di antiossidanti, come frutta e verdura, così come l'esercizio fisico regolare e uno stile di vita sano, sono considerati fondamentali nel contrastare il danno ossidativo e promuovere la salute e la longevità.

CONCLUDENDO, la teoria del danno ossidativo fornisce una base scientifica solida per comprendere i processi biologici che sottendono all'invecchiamento e alla longevità.

TRATTO DA:” LONGEVITA’ Decifrare l'Invecchiamento e Prolungare la Vita: Le basi scientifiche e i consigli per stili di vita, nutrizione, esercizio fisico; per vivere a lungo e in forma”

 

ANTROPOLOGIA DIGITALE E INCLUSIONE DIGITALE

 

“tutto il problema della vita è questo: come rompere la propria solitudine, come comunicare con gli altri” (Cesare Pavese)

 

E’ tempo di cominciare a pensare meglio all’ “ inclusione digitale”.

In futuro, chi sarà escluso dal digitale, non potrà solo non comunicare: sarà anche più povero, più malato, più affamato.

***

Mentre gran parte dell'industria delle telecomunicazioni si concentra sulle tecnologie di prossima generazione come 5G e AI, non possiamo trascurare il fatto che ci sono ancora molte persone escluse dal mondo digitale. Ci sono ancora più di 3,8 miliardi di persone che sono offline e un miliardo di persone senza copertura della banda larga mobile.  Qualcuno dirà:” non è grave se non possono usare il telefono cellulare; possono sicuramente comunicare in altro modo”.

E invece è grave:

Chi sarà escluso dal mondo digitale, sarà sempre più escluso dal mondo reale. Sempre più povero, sempre più affamato e sempre più ammalato.

Finora, se si pensava a questa “inclusione” ci si limitava alla connettività (ricordate il “Digital Divide”?); abbiamo oggi, invece, bisogno di espandere la definizione di inclusione digitale oltre quella di connettività per includere anche applicazioni e competenze.

E, tra l’altro, non possiamo solo semplicemente pensare alle persone e alle aziende nel senso di “grandi aziende”; ma dobbiamo pensare anche, con maggiore attenzione, alle piccole imprese. Perché qui, spesso, il digitale è ancora visto come un costo e non come opportunità.

Per espandere  la definizione di inclusione digitale, e per  applicarla, I temi fondamentali da affrontare sono quindi:

 

 

Connettività

Non fraintendetemi: la connettività è ancora importante; è in realtà il fondamento dell'inclusione digitale e bisogna continuare  a innovare su di essa per ridurne le barriere;  abbattendo i costi e migliorando la copertura.

Allo scopo, bisogna assolutamente lavorare con le amministrazioni locali,  a stretto contatto, per offrire una migliore connettività digitale a persone e comunità nelle regioni più remote e nei climi estremi del mondo; quindi non solo nelle città o nelle campagne; ma anche nelle regioni polari e nei villaggi rurali dispersi in foreste o deserti; in tutto il mondo.  Dove spesso si annidano miserie e malattie.

Per raggiungere questo obbiettivo si debbono identificare soluzioni di rete  specificamente progettate per affrontare  sfide regionali orografiche; cito come esempi  la soluzione denominata RuralStar, che aiuta a collegare comunità rurali in Africa, Asia e Sud America e le soluzioni 5G Air Fiber per fornire la banda larga di prossima generazione alle popolazioni Inuit nell’'Artico canadese.

Applicazioni

Si deve potenziare tutto l’ecosistema di base;  fornendo agli sviluppatori e alle PMI piattaforme di sviluppo di facile utilizzo e manutenzione; che consentano loro di creare applicazioni più specializzate per le diverse comunità e industrie loro clienti. Pensando all’ “inclusione” di ogni tipo di cliente; con particolare attenzione agli utilizzatori con qualche disabilità. A questo proposito si debbono focalizzare in particolar modo le disabilità “che impediscono di apprendere”: chi non può apprendere, magari non potendo leggere, non è in grado di entrare facilmente nel mondo digitale.

Un esempio è l’applicazione mobile chiamata StorySign, che un grosso produttore ha sviluppato congiuntamente con l'Unione Europea per i non udenti. Con un avatar di cartoni animati basato su AI, questa applicazione traduce il contenuto dei libri nella lingua dei segni per aiutare i bambini sordi a superare le barriere quando imparano a leggere.

StorySign è attualmente disponibile in 10 lingue diverse e l’obbiettivo è quello di dotare più di 34 milioni di bambini sordi in tutto il mondo degli strumenti necessari per collegare il linguaggio dei segni e la lettura.

Ma ogni comunità  ha esigenze diverse: i governi e le industrie debbono collaborare per assicurare che nessuno rimanga indietro. Per creare valore pratico per più comunità e settori, i governi e i costruttori debbono prevedere investimenti  per promuovere, ad esempio, le capacità open source, fornire gratuitamente (o a basso costo) piattaforme e strumenti di sviluppo, formare gli sviluppatori, incubare grandi idee e finanziare innovazione.

Competenze

E’ fondamentale che le aziende costruttrici e operatrici lavorino a più a stretto contatto con i governi, le comunità locali e altre industrie per migliorare le competenze digitali degli individui e della società nel suo complesso.

Oltre ad aiutare le persone a migliorare le proprie competenze digitali,  è importantissimo migliorare le competenze digitali tra le organizzazioni di piccole e medie dimensioni. Avere il giusto insieme di consapevolezza e competenze è la chiave per lo sviluppo futuro dei paesi e delle comunità locali, e consentirà alle PMI di competere nell'economia digitale.

Costruire competenze digitali tra i giovani e le comunità vulnerabili è anche una delle priorità.  Ma non deve essere fatto solo a livello nazionale;  deve essere  un progetto internazionale; a mezzo, ad esempio, di borse di studio e di gare tra giovani e tra scuole, E le scuole non debbono essere solo università; ma anche scuole superiori. Indubbiamente ciò contribuirà a promuovere uno scambio di conoscenze più approfondito tra scuole e imprese. Interessante l’iniziativa di un costruttore cinese; che ha insegnato le competenze online a 20.000 donne in Bangladesh attraverso la sua scuola di formazione mobile.

La tecnologia è buona. Trasmetterla.

L'inclusione digitale non è un problema che un'azienda può risolvere con la tecnologia e non si può risolverla in isolamento. Ci vorrà uno sforzo coordinato tra governi, scuole, organizzazioni industriali e imprese; in ogni sezione trasversale della società; e,  più persone saranno coinvolte, maggiore sarà l'impatto.

La tecnologia è buona, e deve essere usata anche per il bene degli individui (e non solo per il profitto di impresa);  fortunatamente questo è già chiaro a molti. Speriamo che sia solo l'inizio; speriamo che sempre più persone si uniscano per amplificare questi sforzi; così facendo potremo passare i benefici della tecnologia digitale a ogni persona, casa, e organizzazione:  per aiutare a costruire un mondo non solo pienamente connesso ; ma anche più “intelligente”.

Il cibo genera una “manipolazione genetica”; cui segue un imprinting sociale, che si perpetua per generazioni

giugno 2021

Esistono delle “manipolazioni genetiche”, addirittura definite “manipolazioni selettive” degli esseri viventi. E sono effettuate dalla Natura. Sono la fame e le privazioni storiche, dovute a carestie, guerre, epidemie. Queste manipolazioni alterano la fisiologia e lo status sociale dell’uomo. Queste alterazioni vengono trasmesse per generazioni.

***

Queste “manipolazioni genetiche” hanno un effetto fisiologico deciso e duraturo, non solo sul corpo affamato; ma anche sulla prole nata da una madre privata di alimenti.

Beh, si potrebbe dire, una volta passata la fame e la denutrizione, l’organismo dovrebbe tornare ad un funzionamento normale, no?  Non proprio: i risultati, presi nel loro insieme, hanno suggerito ai ricercatori che i primi ambienti nutrizionali, siano essi in utero o nella prima infanzia, agiscono per "impostare" la gamma di possibilità di espressione genica per la vita dell'organismo e per quella dei suoi discendenti.

La frase “gamma di possibilità” è una parte importante di questo modello: il livello esatto di espressione genica non è necessariamente fissato, ma i parametri più alti o più bassi della sua espressione potrebbero differire da organismo a organismo a causa di fattori epigenetici.

Questo è infatti il modello epigenetico secondo cui il cibo che entra nel corpo non lo lascia mai; perché il cibo trasforma l'essere stesso dell'organismo. E di conseguenza, il suo stato nella società.

Questo ragionamento impatta sul modello sociale; infatti questi risultati implicano che, negli esseri umani, gran parte dei cambiamenti sociali su larga scala possano tradursi (ed essersi tradotti in passato) in cambiamenti fisiologici ereditabili, anche loro su larga scala, a livello di popolazione e attraverso il mezzo del cibo.

Risultati evidenti, e sconvolgenti, di questi studi, in relazione all’epidemiologia, mostrano che la disponibilità di cibo è correlata all'aumentata incidenza di malattie nei discendenti di individui che hanno vissuto una carestia o un periodo di abbondanza: al punto di poter dire non che “tu sei quello che mangi”, ma che “tu sei ciò che mangiava tuo nonno”.

I ricercatori che hanno utilizzato registrazioni dettagliate dei raccolti, dalla fine del diciannovesimo e all'inizio del ventesimo secolo nella Svezia settentrionale, hanno correlato la disponibilità di cibo per i ragazzi in età pre-adolescenziale con la durata della vita dei loro nipoti, scoprendo che la scarsità durante un certo cosiddetto “periodo di crescita lenta”, appena prima della pubertà dei nonni, era associata a una minor longevità nei nipoti.

Poiché una maggiore assunzione di cibo o la sua mancanza può alterare il controllo molecolare del DNA, l'ipotesi verificata è che l'ambiente nutrizionale della madre, del padre, del feto e del bambino possa influenzare quali geni siano espressi e quali geni tacciano nel generare il fenotipo del bambino; e quindi influenzare i suoi discendenti a livello genetico.

Un'altra potente fonte di prove epidemiologiche sono stati, poi, i dati raccolti su individui che erano in utero durante l'inverno della fame olandese del 1944. È noto infatti da tempo come quella carestia abbia avuto un impatto a lungo termine sulla salute di tutta la popolazione nata durante quel periodo, con un'elevata incidenza di malattie complesse come la schizofrenia e il diabete. 

Come ho scritto in un altro articolo, la ricerca dell’Epigenetica è diretta a studiare come le cose al di fuori del corpo (ad esempio, in questo caso, gli alimenti) si trasformino nella biologia del corpo degli esseri viventi. Questa specifica ricerca propone, quindi, un percorso molecolare ben definito, dall'esterno verso l'interno; e suggerisce un meccanismo mediante il quale le guerre, le carestie e gli abbondanti raccolti di una generazione abbiano potuto e possano influenzare i sistemi metabolici di un'altra.

È un modello in base al quale le informazioni sociali organizzate come etnia, classe sociale, genere o status economico, vengano incorporate, non solo nei corpi di coloro che mangiano, ma nella loro capacità di replicare le proprie condizioni di vita.

È stato suggerito che le cosiddette disparità etnico-geografiche nella salute delle popolazioni inizino, quindi, come differenze o eventi socioeconomici, e che si incorporino in seguito, biologicamente, attraverso meccanismi epigenetici. Lo stress e la cattiva alimentazione influenzano, ad esempio, in modo sproporzionato i meccanismi di regolazione genica di alcune persone: donne adulte che erano state compromesse in utero soffrono in modo sproporzionato di diabete, obesità e ipertensione; patologie che, a loro volta, limitano la nutrizione fetale e le dimensioni alla nascita della loro prole, mettendola a maggior rischio di queste malattie, in una perpetuazione biologica della differenza sociale.

Quelle che erano quindi una volta definite come non meglio dimostrate “deficienze genetiche” tra gruppi di persone, ad esempio per l'incidenza del diabete, vengono riformulate come i segni fisiologici di una popolazione che ha, relativamente di recente, subito “gravi interruzioni culturali ed economiche cha hanno causato stress nutrizionali” (trasferimento forzato, lavoro a contratto, povertà, guerre), seguiti magari da rapide transizioni alle diete occidentali e stili di vita sedentari; che hanno modellato il loro metabolismo.

Questa è una forma molto specifica di naturalizzazione del cambiamento umano, che riformula la sofferenza sociale come ereditabile molecolarmente: il passato è portato avanti nel futuro attraverso un'interfaccia metabolica che trasferisce la “segnalazione genetica” alle generazioni successive, sul mondo in cui nasceranno.

Ma queste “segnalazioni genetiche”, e le conseguenti patologie, possono essere reversibili.

Questo può suonare come una forma di fatalismo biologico, ma la grande speranza dell'epigenetica risiede nella plasticità essenziale del corpo umano: se il corpo è aperto all'ambiente, allora è aperto all'intervento ambientale.

Potremmo quindi essere in grado di trattare le malattie metaboliche dell'età adulta, come diabete e obesità, ingegnerizzando le diete di donne incinte, neonati, bambini e adolescenti?  Questa è una prospettiva che vede il cibo come una sorta di sistema di consegna molecolare da incorporare nell'ingegneria sociale; è l'immagine implicita nella questione esplicita della gestione della salute a lungo termine attraverso la dieta; concetto con cui incornicia quasi tutta l’epigenetica nutrizionale. Concetto che è anche oggi condiviso da molti; e lo vediamo rispecchiato nella volontà istituzionale di dare “consigli di dieta”; come quelli, invero un po’ strampalati, dei “semafori di nutrizione” francesi e delle “etichette a batteria” italiane.

Con una possibile necessità di attenzione: sebbene la narrativa dia speranza circa la possibilità di superare le privazioni e le differenze del passato, qualsiasi intervento perseguito - sia attraverso la logica del marketing verso consumatori, che della medicina personalizzata, che della politica sociale o della salute pubblica - sono essi stessi potenziali temi per reinserimenti di differenza sociale, economica e culturale.

Riferimenti:

Glucose metabolism is altered in the adequately-nourished grand-offspring (F 3 generation) of rats malnourished during gestation and perinatal life -DC Benyshek, CS Johnston, JF Martin Diabetologia 49 (5), 1117-1119     182      2006

A reconsideration of the origins of the type 2 diabetes epidemic among Native Americans and the implications for intervention policy - DC Benyshek, JF Martin, CS Johnston Medical anthropology 20 (1), 25-64          121      2001

Exploring the thrifty genotype's food‐shortage assumptions: A cross‐cultural comparison of ethnographic accounts of food security among foraging and agricultural societies - DC Benyshek, JT Watson American Journal of Physical Anthropology: The Official Publication of the …            104      2006

Nutritional origins of insulin resistance: a rat model for diabetes-prone human populations - JF Martin, CS Johnston, CT Han, DC Benyshek The Journal of nutrition 130 (4), 741-744

Fetal origins of developmental plasticity: Are fetal cues reliable predictors of future nutritional environments? - Christopher W. Kuzawa First published: 20 December 2004 https://doi.org/10.1002/ajhb.20091Citations: 241

Developmental origins of life history: Growth, productivity, and reproductionSeptember 2007American Journal of Human Biology 19(5):654-61- DOI:10.1002/ajhb.20659 SourcePubMed Christopher W Kuzawa - Northwestern University

Etichette a semaforo e a batteria: https://www.repubblica.it/economia/diritti-e- consumi/diritticonsumatori/2020/11/03/news/alimenti_approvata_l_etichetta_a_batteria_continua_la_battaglia_con_la_francia-272393179/

Ricercatori hanno dimostrato che i vaccini antitumorali personalizzati realizzati utilizzando il DNA possono programmare il sistema immunitario per attaccare i tumori maligni, compresi i tumori al seno e al pancreas.

23 APRILE 2021

I ricercatori hanno condotto lo studio su topi con cancro al seno e un paziente con cancro al pancreas in stadio avanzato.

I vaccini COVID-19, progettati utilizzando frammenti di informazioni genetiche che preparano il nostro sistema immunitario a riconoscere e combattere le infezioni virali, sono diventati salvavita nella lotta globale per porre fine alla pandemia.

Ora, la nuova ricerca ha dimostrato che un approccio vaccinale simile può essere utilizzato per creare vaccini personalizzati che programmano il sistema immunitario per attaccare i tumori maligni , compresi i tumori al seno e al pancreas.

I vaccini su misura sono progettati per colpire le proteine ​​mutate chiamate neoantigeni che sono uniche per i tumori di un paziente. A differenza dei vaccini COVID-19 prodotti da Moderna e Pfizer / BioNTech che si basano su materiale genetico chiamato mRNA, i vaccini antitumorali personalizzati sono realizzati utilizzando il DNA.

"Abbiamo prelevato un piccolo campione di tessuto da un tumore in un paziente maschio di 25 anni con cancro del pancreas in stadio avanzato e lo abbiamo utilizzato per sviluppare un vaccino personalizzato basato sulle informazioni genetiche uniche di quel tumore", afferma William Gillanders, professore di chirurgia presso la Washington University School of Medicine di St. Louis e autore senior dell'articolo sulla rivista Genome Medicine .

"Riteniamo che questo sia il primo rapporto sull'uso di un vaccino a DNA neoantigene in un essere umano, e il nostro monitoraggio conferma che il vaccino ha avuto successo nel sollecitare una risposta immunitaria mirata a specifici neoantigeni nel tumore del paziente", dice Gillanders.

Lo studio esplora come le tecniche utilizzate per creare vaccini antitumorali personalizzati possono essere migliorate per aiutare il corpo a liberare una risposta immunitaria più efficace, duratura e antitumorale.

I risultati mostrano anche che un vaccino a DNA personalizzato associato ad altre immunoterapie può generare una robusta risposta immunitaria in grado di ridurre i tumori al seno nei topi. Sebbene il vaccino a DNA non abbia ridotto i tumori nel paziente con cancro del pancreas, ha prodotto una risposta immunitaria misurabile che ha mirato al tumore.

Gillanders, che cura i malati di cancro al seno presso il Siteman Cancer Center presso il Barnes-Jewish Hospital e la Washington University School of Medicine, afferma che le piattaforme di vaccini a DNA offrono alcuni importanti vantaggi rispetto ad altre piattaforme di vaccini personalizzate ora nelle prime sperimentazioni cliniche, come quelle che si basano su mRNA, dendritico cellule e peptidi sintetici.

Poiché il vaccino neoantigene DNA concentra la risposta immunitaria sui neoantigeni che esistono solo nelle cellule tumorali, riduce il rischio di pericolosi effetti collaterali, come il danno ai normali tessuti sani o lo scatenamento di un'intolleranza o una cattiva reazione al vaccino.

"I vaccini a DNA sono relativamente facili ed economici da produrre rispetto ad altre piattaforme di vaccini neoantigeni come quelli che utilizzano cellule dendritiche o mRNA, ad esempio, rendendo la piattaforma di vaccini a DNA attraente per i vaccini neoantigeni", afferma Gillanders. “La piattaforma del vaccino a DNA può anche essere prontamente ingegnerizzata per includere più neoantigeni. Ulteriori immunomodulatori possono anche essere integrati nel vaccino per aumentare le risposte immunitarie ".

Come altri vaccini personalizzati attualmente in fase di sviluppo, la piattaforma del vaccino a DNA prende di mira i neoantigeni, frammenti proteici anomali che vengono creati quando le cellule tumorali cancerose mutano e crescono. Poiché ogni cancro genera mutazioni uniche, ogni vaccino a DNA è anche unico e ottimizzato per colpire simultaneamente più neoantigeni.

Ogni neoantigene incluso nel vaccino solleva una bandiera rossa per il sistema immunitario, inviando un esercito di cellule immunitarie specializzate chiamate cellule T per cercare e distruggere il tumore.

Mentre il processo sembra semplice in teoria, il diavolo è nei dettagli, e quei dettagli risiedono nei complessi meccanismi interni di come le cellule elaborano e presentano i neoantigeni al sistema immunitario.

Affinché il vaccino abbia successo, i neoantigeni devono essere presentati alle cellule in un formato preciso che massimizzi le probabilità di innescare una complessa cascata di risposte immunitarie naturali. Qualsiasi passo falso può provocare una risposta immunitaria indebolita o addirittura fallita.

Come documenta il nuovo studio, il vaccino a DNA neoantigenico può essere ottimizzato per migliorare il processo di presentazione. Piccole differenze nella lunghezza di un epitopo (la parte dell'antigene riconosciuta dal sistema immunitario), nella spaziatura e nella sequenza degli amminoacidi possono provocare cambiamenti importanti nel modo in cui i neoantigeni vengono presentati al sistema immunitario. Anche allora, i tumori spesso trovano modi per eludere gli attacchi di successo.

In questo studio, Gillanders e il suo team hanno deciso di affrontare queste sfide utilizzando gli ultimi strumenti di sequenziamento genico di prossima generazione, nuove tecniche di modellazione predittiva e algoritmi computazionali basati sulla bioinformatica, tutti progettati per mettere a punto il processo di creazione del vaccino.

I risultati suggeriscono che frammenti di epitopo più lunghi sono più efficaci nell'innescare una risposta immunitaria più duratura che include sia le cellule T CD8 che quelle CD4; che un marcatore mutante che contrassegna i neoantigeni e viene clonato alla fine di una stringa di epitopo può aumentare significativamente il suo riconoscimento da parte del sistema immunitario; e che anche gli epitopi più ben presentati raramente riescono a ridurre i tumori a meno che non siano accompagnati da uno strumento immunoterapico aggiuntivo, come il blocco del checkpoint anti-PD-L1.

“Sebbene l'esperienza clinica iniziale sia promettente, c'è ancora molto lavoro da fare per perfezionare i vaccini e valutare la loro efficacia in modelli animali e sperimentazioni cliniche. Ma questo è un primo passo importante e ci indica la giusta direzione ", afferma Gillanders.

Il supporto per il lavoro è venuto dall'Alvin J. Siteman Cancer Center; l'Istituto Superiore di Sanità (NIH); il National Cancer Institute; e la Fondazione per il Barnes-Jewish Hospital

Qual è il rapporto tra alimentazione e mal di schiena?
 

Domenico Augello - OSTEOPATA - Gennaio 8, 2020

Molti dei disturbi muscolo-scheletrici, tra cui il mal di schiena, hanno come causa principale una cattiva alimentazione.

Voglio, quindi, spiegarti la stretta correlazione tra la cattiva alimentazione ed i dolori muscolari e scheletrici alla schiena.

Come può l’alimentazione provocare mal di schiena, cervicalgia e dolori muscolo-scheletrici?
 

L’alimentazione scorretta provoca infiammazioni in tutto il tubo digerente, dall’esofago allo stomaco, fino l’intestino (tenue e colon).
Gli organi sono collegati allo scheletro mediante il tessuto connettivo (legamenti e fasce) e, quando questo si muove insieme alla colonna vertebrale, i visceri lo seguono, permettendo i corretti movimenti.

Lo stretto rapporto tra organi e vertebre.

È, quindi, normale e facile da capire che, quando l’organo è infiammato o in disfunzione, ne risente la sua struttura connettivale che lo inserisce allo scheletro, impedendo così un corretto movimento della colonna vertebrale.

L’osteopata, avvalendosi dell’uso di tecniche viscerali, migliora la mobilità e la funzionalità degli organi, favorendo il drenaggio ed il pompaggio emo-linfatico nonché il rilascio delle suddette fasce.

Bisogna tener presente anche il fattore relativo all’idratazione: infatti, i muscoli sono fatti di acqua per il 70%. Ciò significa che se non bevi abbastanza, il corpo preleva l’acqua che gli serve dai tessuti che ne sono più ricchi, ossia proprio dai muscoli: ne consegue che, essendo il tessuto più sacrificabile, diventano dolenti e ipotonici.
Il risultato? Non saranno più in grado di sostenere adeguatamente la colonna vertebrale ed il peso del corpo.

Un’altra ragione per cui l’alimentazione è strettamente collegata al mal di schiena è l’eccessivo consumo di cereali raffinati (pasta, pane bianco), affettati, insaccati e formaggi, che tendono ad aumentare l’infiammazione del nostro organismo, in quanto sono cibi poco naturali che necessitano di processi chimici impegnativi per essere digeriti.

Ho voluto proporti i suggerimenti alimentari che mi ritrovo a dare più spesso a chi soffre di problemi come il mal di schiena lombare, la cervicalgia e l’infiammazione del nervo sciatico.

Il cibo: importante alleato contro il mal di schiena.

Per chiudere, ti lascio una lista dei cibi che possono svolgere un’azione disinfiammante e decontratturante sui muscoli doloranti:

  • frutta;

  • verdura;

  • legumi;

  • cereali;

  • riso;

  • pesce.
     

Come si può evincere, sono cibi che se assunti con regolarità costituiscono le basi di una dieta sana ed equilibrata, ideale per controllare il peso e mantenere sano l’organismo.

Se sei alla ricerca di una soluzione per il tuo mal di schiena e, più in generale, per i tuoi dolori muscolo-scheletrici, ti invito a contattarmi al fine di espormi meglio il tuo problema.

ARTICOLO AL LINK: https://www.osteopatiaaugellodomenico.it/qual-e-il-rapporto-tra-alimentazione-e-mal-di-schiena/

EPIGENETICA
LA SCIENZA PER COSTRUIRE LA NOSTRA SALUTE

 

Fino a poco tempo fa, si pensava che le influenze dei geni fossero fisse e stabilite; e gli effetti delle esperienze e degli ambienti sull'architettura del cervello e sui risultati a lungo termine della salute fisica e mentale rimanevano un mistero. Questa mancanza di comprensione ha portato a diverse conclusioni fuorvianti sul grado in cui fattori ed esperienze ambientali negativi e positivi possono influenzare la vita. L’Epigenetica ci aiuta oggi a risolvere molti di questi misteri. E a curarli.

***

Gli studi sull'epigenoma umano stanno diventando sempre più rilevanti in oncologia, immunologia e malattie infettive. Inoltre, ci sono già molte prove che indicano che i cambiamenti legati all'età, nell'epigenoma dell'ospite, possono compromettere la composizione e la funzione delle cellule immunitarie, influenzando le difese virali, inclusa la risposta immunitaria adattativa.

Ognuno di noi ha però l’opportunità di modificare la propria espressione genica e di cambiare il destino riguardante la propria salute. Le nostre abitudini, la nostra dieta, l’inquinamento,  e il nostro stile di vita in genere, alterano il nostro DNA, e causano patologie; come tumori, diabete, patologie neurologiche e cardiovascolari; invecchiamento precoce.

La buona notizia, infatti, è che alcune di queste alterazioni, oggi, sappiamo che possono essere reversibili; ma, se non curate, possono essere trasmesse non solo ai figli, ma anche a nipoti e pronipoti.  

L’esplosivo aumento di diabete, obesità, ipertensione, malattia di Alzheimer e altre patologie degenerative, non è quindi una manifestazione di qualche cambiamento improvviso nella nostra genetica; ma di parte della sua “espressione”.

Quello che siamo arrivati a comprendere, infatti, è che il nostro codice genetico è in realtà molto dinamico. Gli stessi geni, che si ritenevano serrati in una teca di vetro, sono ora visti in continuo mutare, in risposta alle innumerevoli influenze ambientali.

È questa la scienza dell’epigenetica, che rivela non solo un nuovo modo di concettualizzare il comportamento dei nostri geni, ma, cosa più importante, fornisce anche una nuova prospettiva sulla comprensione delle dilaganti problematiche di salute che caratterizzano il  mondo moderno.

L’ epigenetica ci svela quindi che le nostre scelte, relative al modo di vivere (il cibo che mangiamo, gli integratori che prendiamo, l’esercizio fisico che facciamo e perfino il contenuto emotivo delle nostre esperienze quotidiane; il nostro pensiero positivo o negativo) sono elementi coinvolti nell’orchestrazione delle reazioni chimiche che attivano o disattivano parti del nostro genoma; e  che codificheranno esiti pericolosi per la salute spianando la strada a una patologia; o creeranno un ambiente interno favorevole alla longevità e alla resistenza alle malattie.

Ecco quindi il dono di questa nuova comprensione dei geni e della loro espressione.

 Ma il profondo vantaggio di questo nuovo paradigma sta nella rivelazione che ognuno di noi ha quindi l’opportunità di modificare la propria espressione genica e di cambiare il destino riguardante la propria salute. Nel male, ma anche nel bene.

Le aberrazioni epigenetiche sono, infatti, oggi già trattate con interventi farmacologici e clinici, e molte nuove terapie epigenetiche per il cancro, i disturbi immunitari, i disturbi neurologici e metabolici e malattie dell'imprinting sono all'orizzonte. Ma una ottima cura, e prevenzione, vedremo, risiede anche nell’adottare il giusto stile di vita. E che si tratti di modificare la dieta, riaccogliendo i grassi alla nostra tavola, o di prendere più sole, o di dedicare più tempo al sonno, o perfino di impegnarsi ad andare a piedi nudi di tanto in tanto; ogni raccomandazione può essere studiata per ristabilire la comunicazione con il nostro dono più prezioso: il codice genetico; con l’obiettivo del miglioramento della vita.

L'epigenetica è considerata quindi da molti la "nuova genetica" a causa della schiacciante evidenza del contributo di fattori non genetici come l'alimentazione, l'ambiente e l'esposizione chimica, l’atteggiamento mentale, all'espressione genica.

Entriamo nel merito, iniziando con qualche importante definizione:

Per genotipo si intende la completa costituzione genetica di un individuo o di un organismo vivente, che è solo in parte espressa nel corpo del vivente.

Il fenotipo è l'insieme di tutte le caratteristiche manifestate da un organismo vivente, quindi la sua morfologia, il suo sviluppo, le sue proprietà biochimiche e fisiologiche comprensive del comportamento.

Quindi il fenotipo è ciò che è evidente nel vivente, il suo genotipo invece è la informazione genetica che è in lui contenuta, i mattoncini che la costituiscono, che ha generato il fenotipo.

Orbene, l’epigenetica è la disciplina della genetica che studia l’epigenoma , cioè quel gruppo di informazioni in grado di produrre cambiamenti che influenzano il fenotipo e ne determinano il comportamento funzionale senza alterare il genotipo, cioè senza alterare la sequenza del DNA.

Le modifiche epigenetiche sono specifiche “ impronte” che coinvolgono meccanismi molecolari in grado di alterare o determinare l’attività di un gene ma non la sua sequenza nucleotidica definita nel DNA.

Si definiscono quindi modifiche epigenetiche  quei cambiamenti che influenzano il fenotipo senza alterare il genotipo. Tra i fattori epigenetici maggiormente in studio in questi anni possiamo annoverare:

(a) la metilazione del DNA;

(b) la struttura della cromatina;

(c) la modificazione degli istoni  

(d) l’inattivazione del cromosoma X;

(e) i fenomeni di imprinting;

(f) il silenziamento genico.

il fenotipo è quindi determinato non dal genotipo in sè, ma dalla sovrapposizione ad esso di “un’impronta” che ne influenza il comportamento funzionale. Questa impronta può essere modificata dall’ambiente, dalla dieta, ecc.

Spiegata in questi termini, l'epigenetica può sembrare piuttosto complessa; per meglio comprenderne il concetto, può essere utile aprire una piccola parentesi su com'è fatto il DNA, su come avviene la trascrizione dei geni in esso contenuti e come la metilazione e acetilazione (termini da tenere a mente) influenzino le nostre vite.

Il DNA è contenuto all'interno del nucleo cellulare. Possiede una struttura a doppia elica ed è costituito da unità ripetitive, chiamate nucleotidi. La maggior parte del DNA contenuto all'interno delle nostre cellule è organizzato in particolari sub unità chiamate nucleosomi.    I nucleosomi sono costituiti da una parte centrale (detta core) composta da proteine chiamate istoni, attorno alle quali il DNA si avvolge. L'insieme del DNA e degli istoni costituisce la cosiddetta cromatina.

    

La trascrizione dei geni contenuti nel DNA dipende proprio dall'impacchettamento di quest'ultimo all'interno dei nucleosomi. Infatti, il processo di trascrizione genica è regolato dai fattori di trascrizione; particolari proteine che si legano a specifiche sequenze di regolazione presenti sul DNA e che sono in grado di attivare o reprimere - a seconda dei casi - specifici geni.

Un DNA con un basso livello d'impacchettamento, pertanto, permetterà ai fattori di trascrizione di accedere alle sequenze di regolazione. Al contrario, un DNA con un elevato livello d'impacchettamento non consentirà loro l'accesso. Il livello d'impacchettamento è determinato dagli stessi istoni e dalle modifiche che possono essere effettuate nella loro struttura chimica.

    Più nel dettaglio, l'acetilazione degli istoni (cioè l'aggiunta di un gruppo acetile)   fa sì che la cromatina assuma una conformazione "più rilassata" consentendo l'entrata dei fattori di trascrizione genica. Di contro, la deacetilazione rimuove i gruppi acetili, provocando l'addensamento della cromatina e bloccando così la trascrizione genica.

Ho cercato di semplificare la descrizione di questi processi, che sono molto più complessi; ma la base dei concetti è questa: se il DNA si avvolge strettamente agli istoni, non consente la trascrizione (e viceversa).

Ancora con parole più semplici (anche se non scientificamente precisissime): l’ambiente esterno, la dieta, il nostro stile di vita non intaccano il DNA; ma se questo non è sufficientemente “impacchettato”, entrano nella trascrizione degli istoni e li modificano; ed essi sono responsabili di come “noi appariamo in vita” e della qualità della nostra vita. Il processo è spesso reversibile, se agiamo su di esso; ma può essere altrimenti permanente, e trasmesso agli eredi.

Influenza del cervello

L'epigenetica cattura l'interazione tra geni ed esperienza. L'espressione genetica è necessaria per l'attività cerebrale, ma tale espressione è regolata in parte da ciò che il cervello sperimenta.

L’importanza dell’alimentazione

È stato  dimostrato come diverse componenti bioattive  contenute negli alimenti possono modulare la regolazione epigenetica del DNA e un loro apporto equilibrato è stato associato ad un minor rischio di sviluppare alcune patologie o tumori.

Si conferma quindi il ruolo “preventivo” di una dieta sana ed equilibrata per la salute della persona. A questo scopo, oltre ad essere necessario assumere un apporto di nutrienti bilanciato, è utile verificare che non ci siano carenze di alcune sostanze in quanto questo potrebbe causare problemi seri. È bene pertanto rivolgersi a delle figure esperte come quella del biologo nutrizionista, in grado di elaborare  una dieta personalizzata in base alle singole esigenze,

Le terapie

Le malattie che sono state associate a processi epigenetici vanno dalla schizofrenia al cancro, all’autismo, alle patologie neurologiche, al diabete; e l'elenco di queste malattie è in rapida espansione. Fortunatamente, anche il campo della terapia epigenetica,   si sta espandendo.

I ricercatori, sfruttando le tecnologie di ultima generazione per il sequenziamento del DNA, stanno cercando di raggiungere la TERAPIA MIRATA (“targeted therapy”).

Gli aspetti critici che devono affrontare sono parecchi:

1. I costi poiché le nuove tecnologie hanno costi elevatissimi

2. La disponibilità di personale qualificato, che abbia un forte background scientifico e multidisciplinare,

3.  I tempi: la ricerca scientifica a livelli sperimentali richiede tantissimo tempo per ottenere risultati validi e condivisi

Perché solo oggi?

Perché siamo arrivati solo ora a capire l’epigenetica? Perché una delle principali forze trainanti dell'epigenetica è stato il relativamente recente, eccezionale, sviluppo di nuove tecnologie, che hanno ampliato il campo d’indagine, consentendo nuove scoperte. I progressi, quindi, nell’uso di sistemi computerizzati potenti, hanno dato la possibilità di creare nuovi modelli per la comprensione dei processi epigenetici.

“BUON VENTO”, LUNA ROSSA !

Mentre l’America’s Cup (e tutte le regate della Coppa Prada che hanno portato a questo traguardo) e Luna Rossa trovano poco spazio nella TV italiana, troppo indaffarata con il calcio, noi perdiamo una buona occasione per poter essere orgogliosi non solo dei risultati in questo sport velico, ma anche della tecnologia e dell’esperienza italiana nella nautica. Infatti questa regata ha, tra i tanti, un particolare che la assimila alla formula 1: non si vince solo per la bravura fisica e strategica degli atleti; si vince anche per le innovazioni tecnologiche che si è stati in grado di produrre. Ed essere gli sfidanti dei “defender”, come siamo, significa proprio che in fatto di tecnologia nautica siamo al top.

     

Sfida tecnologica

Infatti l’America’s Cup è soprattutto una sfida tecnologica:  è nata come una sfida tra Yacht Club, 170 anni fa, con una famosa regata intorno all’isola di Wight.  “Questa Coppa viene donata a condizione che venga conservata come Challenge Cup perpetua per competizioni amichevoli tra paesi stranieri.”, così cita il Deed of Gift, che risale al 1852 ed è, insieme al Protocollo, il principale documento che regola da sempre le condizioni della sfida.

Le barche per la “Cup”devono essere progettate e costruite secondo delle regole ben precise: le regole di classe.

Nel marzo 2018 sono state pubblicate le AC75 Class Rules, scritte in comune accordo tra il Defender e il Challenger. Si tratta di un documento di 72 pagine che definisce i parametri entro i quali i design team devono rimanere per progettare uno scafo conforme a competere nella 36^ America’s Cup.

E l’edizione numero 36 resterà nella storia dell’America’s Cup per aver introdotto un’imbarcazione rivoluzionaria: la classe AC75 .  

La classe AC75 trae spunti da molte tecnologie, oltre quella nautica: da quella automobilistica, a quella aereonautica. Infatti questa barca vola, e abbatte molte tradizioni della vela: non ha deriva con bulbo, non ha boma, ha due rande accostate, e queste rande sono quasi permanentemente “cazzate” a tutte le andature; l’equipaggio non si siede fuori bordo per bilanciare, ma rimane rannicchiato, con caschi da pilota, entro due scanalature, i “grinder” non cazzano le vele, ma producono energia con i loro “macinini”; e la barca vola sull’acqua. Vola in tutti i sensi: siamo nell’ordine dei 40 nodi in bolina larga, 50 nodi e più alle andature portanti.  Chi pratica la nautica da diporto sa benissimo che queste velocità sono ambiziose anche per potenti scafi a motore.

Per darvene un’idea vi faccio vedere qui sotto una foto di Luna Rossa affiancata da due “gommoni di addestramento”, che servono per valutare, affiancandosi all’imbarcazione nelle sessioni di prova, le strategie e le tecnologie. Ebbene, ogni gommone, per stare dietro a Luna Rossa, è dotato di motori da 750 hp.

 

La classe AC75 si basa su alcuni numeri fissi: 22,70 metri di lunghezza, bompresso compreso; 5 metri di baglio massimo; 6,5 tonnellate di peso, 26,5 metri di altezza dell’albero dalla coperta; 225-235 mq di superficie velica tra la randa e il fiocco (più i 200 mq del “Code Zero”, che è la vela per le andature portanti). Luna Rossa Prada Pirelli è stata costruita, in fibra di carbonio e alluminio, dalla Persico Marine di Nembro.

La magia del foiling

Ma la vera rottura con il passato è rappresentata dal foiling, l’insieme di appendici che nella configurazione ideale consentono allo scafo di decollare letteralmente dall’acqua e mantenersi sollevato a velocità incredibili.  

I “foil”, sono  due appendici laterali che richiamano delle ali ; l’apertura massima è di quattro metri per ciascuna; pesano ben 500 kg l’una e possono reggere sino a un carico di rottura di 27 tonnellate. Elemento fondamentale: il braccio (o l’ala), nella sua parte terminale, è regolabile ed è dotato di flap; proprio come le ali degli aerei.

 Infatti, quando il flap del foil si piega in basso, si crea il sollevamento, esattamente come fa l’ala di un aereo. Il foil del timone è invece la coda dell’aereo. Più la poppa si avvicina allo specchio di acqua, più viene aumentato l’angolo di attacco dei foil, che provvedono a sollevare lo scafo. Nel momento in cui la barca è ‘in volo’, si cerca di abbassare la prua sull'acqua e si alzano i flap del foil per acquisire più stabilità. Come negli aerei.

Il timoniere di Luna Rossa Prada Pirelli non impegnato alla ruota (i timonieri, come vedremo, sono due), manovra una consolle piena di pulsanti, in misura simile a una consolle di una monoposto da Formula 1 ; egli viene denominato “controllore di volo”: a lui spetta l’assetto. La protezione dal rovesciamento (scuffia) viene garantita dal foil che in quel momento è sollevato; ma questa protezione non è assoluta (come con il bulbo, che in genere pesa una tonnellata).

La doppia randa

Tutto questo non servirebbe a nulla senza la potenza dell’impianto velico, che invece ha chiari legami con il mondo dei multiscafi oceanici che già negli anni ’90 introdussero il concetto di albero alare per aumentare la superficie disponibile e dare più sicurezza all’insieme. Ora più che mai anche nell’America’s Cup, il complesso albero-randa è un elemento fondamentale e la nuova regola di classe ha permesso l’introduzione della cosiddetta soft wing: vela decisamente innovativa; mentre il  fiocco a prua e l’ampio Code Zero – per quanto realizzati in materiali sofisticati – non presentano novità.

Geniale invece la soft wing, costituita da due rande issate parallelamente, all’interno delle quali sono inseriti i controlli della forma della vela: consente di avere un’efficienza pari a un’ala rigida ma con una facilità di utilizzo non lontana da quella di una vela tradizionale. (in uno dei video viene spiegato meglio).

Un pizzico di mistero

Sia chiaro: proprio come all’aprirsi della stagione di Formula 1, Il  funzionamento della barca AC75  non è ancora tutto noto, come vuole l’alone di mistero che pervade la tecnologia dell’America’s Cup: qualcuno sostiene che ‘nasconda’ le volanti dell’albero all’interno, molti altri sono rimasti stupiti dall’assenza del classico boma dove viene infilato il lato inferiore della randa. Il motivo dovrebbe essere quello di poter sfruttare al massimo il profilo alare della vela, “saldandolo” alla coperta e creando un insieme perfetto. Facilmente ne sapremo di più, come sempre, alla fine della manifestazione. Di certo, le nuove soluzioni arriveranno nella vela prima da competizione e poi in quella da diporto. E’ sempre stato così: uno dei tanti meriti della Regata delle regate.

I ruoli nell’equipaggio

In realtà ancora nessuno ha spiegato bene, a noi velisti della domenica, quali siano i compiti di ogni membro dell’equipaggio e qual è l’organizzazione a  bordo. Anche perché la definizione dei ruoli, in questa regata, ha alcune libertà, che, spesso, nascondono la strategia di gara. Raccogliendo vaghe informazioni di qua e di là, mi pare   di aver capito quanto segue: a bordo ci sono 11 persone di equipaggio; con due timonieri che hanno il compito di governare la barca nelle due dimensioni: destra/sinistra e cabrata/picchiata. Luna Rossa sembra orientata a tenere i timonieri ognuno in un lato e quello che non “guida”, da sottovento, è al controllo dei foil, con la sua pulsantiera.

Gli altri team sembrano aver scelto di avere un unico timoniere e la gestione dei foils è lasciata ai due randisti che rimangono ognuno in un lato: quello sopravvento regola la randa, quello sottovento le ali. Questi  personaggi, vista la velocità della barca, hanno anche il compito di gestire la regata dal punto di vista tattico, proprio perchè le decisioni vanno prese in  frazioni di secondo.

Il randista ha un joystick  con cui comanda tutte le regolazioni della vela principale,  utilizzando l’energia pompata nell’impianto idraulico dai grinder. Schiacciando un bottone, il randista, cazza, lasca, sposta carrello, controlla il twist ecc.

 

Le due rande parallele poi nascondono altre regolazioni interne che permettono di ottimizzare ogni metro quadro di tela. Qualche team potrebbe avere la configurazione con due randisti che, come detto prima, si alternano alla randa e ai foils. Nella configurazione con un solo randista, lui è l’unico che si sposta da un bordo all’altro nei cambiamenti di mura (=cambiamento del lato da cui viene il vento). Unica cosa certa è che il randista è il più odiato dai grinders che sono costretti a produrre energia ogni volta che viene richiesta.

Le quattro postazioni dei grinder sono occupate da otto velisti addetti alla produzione di energia. Tranne che per la movimentazione dei bracci dei foils (c’è un motore elettrico), tutto è regolato con l’impianto idraulico e ogni volta che il randista o il trimmer muovono qualcosa, un segnale avvisa i grinder che c’è la necessità di mettere  pressione nell’impianto. Due grinders (uno per lato) hanno il compito di regolare la vela di prua che sembra avere una gestione meno extraterrestre rispetto alla randa, con due winch separati che, per regolamento di stazza, servono per fare le virate “normali”: si molla una scotta e si cazza l’altra, come nelle barche che conosciamo tutti noi.

Ma questa non è vela!

Sicuramente ci sarà qualcuno che inorridirà nel vedere come “la vela sia caduta in basso”, e penserà che la vera vela non si fa con tutta questa elettronica. Io personalmente ne sono affascinato; e risponderei come sarebbe stato opportuno rispondere a coloro che vedevano nelle chitarre elettriche la fine della musica, e nelle fotocamere digitali la fine della fotografia: “Il progresso non si può arrestare”. Il possibile problema sarà, però, quando queste classi di barche “volanti” cominceranno a sfrecciare a 50 nodi tra di noi che facciamo il bagno.

La Regata delle Regate

La 36ma edizione dell’America’s Cup si è aperta ufficialmente mercoledì 10 marzo, quando Luna Rossa sfiderà i detentori del titolo:  Emirates Team New Zealand. La Coppa America si concluderà quando una delle due compagini avrà ottenuto sette vittorie sulle tredici regate previste.

Concludo con una nota: un altro evento sportivo cui può essere assimilata questa regata è il pugilato: quando i due contendenti, prima dell’incontro, si offendono reciprocamente sulla stampa. Ebbene, il team neozelandese ha già tacciato Luna Rossa di essere “senza onore ”, e anche di essere lenta e senza nessuna speranza di vincere.  

Orbene, visto che nella “Prada Cup” abbiamo praticamente demolito gli avversari inglesi con un 7 a 1, ritengo che qualche speranza ce l’abbiamo. E comunque, essere giunti a questo punto ha già il sapore della vittoria. Per la cronaca: mentre scrivo il punteggio è 1-1.

“Buon vento”, Luna Rossa !

 

***

Vi propongo questi due video:

VIDEO: LE REGOLE DEL GIOCO https://www.lunarossachallenge.com/it/news/627_Le-Regole-del-Gioco

VIDEO: TEHNICALITIES OF AC75: https://www.youtube.com/watch?v=H98nH-dvNUE

DAL 2021 SI ENTRA NELL’ERA DEL DVB-T2 HEVC.

DOVREMO TUTTI CAMBIARE TELEVISORE?

 

Gli italiani dovranno cambiare il televisore? “No”. Fu la secca la risposta di Antonello Giacomelli, sottosegretario alle Comunicazioni, ai microfoni di Mix24 a giugno 2016, il programma radiofonico di Giovanni Minoli su Radio 24. La domanda rivolta dal giornalista riguardava la possibilità, ventilata da più parti, che, per poter continuare a vedere la Tv anche dopo il 2020-2022, gli spettatori dovranno essere in possesso di apparecchi aggiornati.

Vedremo che non è esattamente così. E la notizia sta comunque passando abbastanza in sordina, con spot TV del governo lanciati ad orari di minimo ascolto; infatti l’era 2.0 del Digitale terrestre comporterà forse per molte famiglie italiane il cambio del televisore.  E il Governo metterà sul piatto un contributo economico con parecchi vincoli; al resto dovranno pensarci le famiglie.

GENERALITA’

Nel 2022 non si parlerà più di Digitale terrestre ma di Dvb-T2. Si tratta di un’estensione dello standard di trasmissione digitale Dvb-T che oggi utilizziamo per guardare dei programmi televisivi in chiaro.  

Lo “switch-off” è dovuto a una richiesta della Commissione europea, con una direttiva che spinge le tv a lasciare libera le bande attualmente usate, per assegnarle alle telecomunicazioni mobili 4G e 5G.  Infatti, gli attuali canali TV viaggiano sulla cosiddetta «banda 700», cioè sulle frequenze comprese tra 694 e 790 megahertz. Queste frequenze superano gli ostacoli con maggiore facilità, penetrando meglio nelle case degli utenti e garantendo, di conseguenza, per la comunicazione mobile, migliore connettività e maggiore capacità di navigazione su Internet.

La chiusura del Digitale terrestre ed il conseguente passaggio alla nuova tecnologia richiederà agli apparecchi televisivi due caratteristiche essenziali perché possano essere utilizzati:

  1. che l’apparecchio sia dotato del nuovo standard Dvb-T2;

  2. che sia dotato anche del codec HEVC (High efficiency video coding) al posto degli attuali Mpeg2/Mpeg4. Il codec è il sistema che consente una compressione dei dati senza alterare la qualità dell’immagine. L’Hevc garantisce l’ultra definizione delle immagini e, quindi (almeno in teoria), una maggiore qualità.

 

Chi ha acquistato un televisore dal 2017 potrebbe avere già a disposizione un apparecchio con queste caratteristiche: il governo, infatti, ha disposto da gennaio 2017 la vendita esclusiva di televisori con le tecnologie Dvb-T2 e HEVC (tutte e due insieme).   

Quando dovrebbe avvenire lo switch-off? L’Unione europea l’ aveva previsto entro il 2020, con proroga fino al 2022. E sarà proprio il 1 luglio 2022 il giorno in cui dovrebbe avvenire:   In quella data è previsto che tutte le emittenti nazionali siano pronte per trasmettere sulle nuove frequenze, dopo che le tv locali si saranno già spostate a partire dal 2020. Vedi in seguito i dettagli.

Gli aiuti del Governo. Il Governo ha stanziato una cifra (150 milioni circa di euro dal 2019 al 2022) per agevolare chi si troverà costretto a cambiare il televisore per adeguarsi alle nuove tecnologie. Questi soldi andranno però solo a chi oggi è esonerato dal canone tv, cioè chi ha più di 75 anni.  Bisogna poi essere residenti in Italia e appartenere quindi alla I o II fascia dell’Isee (l’indicatore della situazione economica equivalente). Inoltre, solo un utente per nucleo familiare può ricevere questo "sconto" e solamente per un unico apparecchio. Le stime iniziali descrivono che potenzialmente ci sono 3 milioni di persone che potranno usufruire di questo incentivo.

TEMPISTICHE DELLO SWITCH-OFF

Il primo step obbligatorio, dello switch-off” avverrà il 1 settembre 2021. Infatti, in quel giorno si passerà a livello nazionale alle trasmissioni in MPEG-4, ma rimanendo sempre con il "vecchio standard". Questo significa che, in Italia, saranno visibili solamente i canali HD (es. canale 501 per Rai 1 HD, 505 per Canale 5 HD e così via) e chi possiede un vecchio televisore in grado di riprodurre solamente i canali a bassa risoluzione non riuscirà più a ricevere il segnale.

Per verificare se il vostro televisore è in grado di ricevere i canali HD, tutto ciò che dovete fare è provare a digitare il numero 501 sul telecomando e andare avanti con i successivi canali;  se riuscite a visualizzare i contenuti con la dicitura "HD", non ci sono problemi. Se, invece, a schermo compare un messaggio di errore, probabilmente il vostro televisore non è compatibile con le trasmissioni in MPEG-4. Tuttavia, bisogna dire che, anche se il tuo televisore è compatibile con i canali HD, potreste avere problemi con il supporto al DVB-T2, visto che quest’ultimo utilizza il codec HEVC/H.265 (v. in seguito).

Il cambio delle frequenze avverrà poi tra il 1° settembre 2021 e il 31 dicembre 2021 in quelle che il MiSE (1) chiama Aree 2 e 3. Stiamo parlando di Valle d’Aosta, Piemonte, Lombardia, provincia di Trento, provincia di Bolzano, Veneto, Friuli Venezia Giulia ed Emilia Romagna.

L’Area 1, ossia Liguria, Toscana, Umbria, Lazio, Campania e Sardegna, passerà alle nuove frequenze tra il 1° gennaio 2022 e il 31 marzo 2022.

L’Area 4 è, invece, composta da Sicilia, Calabria, Puglia, Basilicata, Abruzzo e Marche ed effettuerà lo "switch off" tra il 1° aprile 2022 e il 20 giugno 2022.

Tuttavia, alcuni servizi nella regione delle Marche potrebbero già passare al nuovo standard nello stesso periodo delle Aree 2 e 3. Il passaggio definitivo e obbligatorio allo standard DVB-T2 con codec HEVC/H.265 avverrà tra il 21 e il 30 giugno 2022. Insomma, la fine dei lavori per far passare completamente l’Italia allo standard DVB-T2 è prevista per il 2022, ma le prime conseguenze si vedranno già a partire dagli ultimi mesi del 2021.

COME CAPIRE SE IL VOSTRO TV È DVB-T2

Un modo immediato per essere certi che il nostro apparato è pronto al futuro dovrebbe essere quello di andare ai canali 100 o 200: se la TV mostra la scritta “Test HEVC Main10" allora è tutto ok, se non mostra niente vuol dire che non è compatibile con il DVB-T2. Se non ricevi i canali 100 e 200 prova a rifare la sintonizzazione automatica del tuo televisore.  

Su questi canali (predisposti rispettivamente da RAI e Mediaset) c’è quindi una semplice scritta informativa. Se riuscite a vedere la scritta, l’apparecchio è già compatibile con il nuovo formato. Se invece  non è visibile vuol dire che bisogna provvedere ad adeguare il tv con un ricevitore esterno aggiuntivo oppure bisognerà cambiare l’apparecchio.

Il segnale viene trasmesso con la modalità High Efficiency Video Coding con Main 10 in definizione 720p ma è sempre in DVB-T dato che non è stato creato un multiplex DVB-T2 per l’occasione. Questo servizio quindi non assicura una risposta sicura al 100% perché il segnale viene trasmesso in codifica  Main 10, ovvero a 10 bit, un formato incompatibile con molti decoder e con alcuni TV pur compatibili con il DVB-T2.

Inoltre non essendo previsto un segnale di non compatibilità ma semplicemente il canale non viene sintonizzato dalle tv non compatibili, resta sempre il dubbio, in quest’ultimo caso, che semplicemente non si è raggiunti dal segnale per problemi con l’antenna o per zone non coperte.

Verifica la scritta sul dispositivo. Innanzitutto, come accennato in precedenza, se il vostro televisore è stato acquistato in Italia dal 2017 in poi, dovreste poter stare tranquilli, in quanto il modello  dovrebbe supportare sia il DVB-T2 che il codec HEVC/H.265. Stesso discorso vale anche per alcuni televisori di fascia alta acquistati prima del 2017, che potrebbero essere altresì compatibili con il nuovo standard. Insomma, l’anno in cui avete acquistato il televisore può essere utile, ma non dev’essere preso come una sicurezza assoluta. (v. anche in seguito)

Per avere una conferma definitiva, il consiglio è quello di utilizzare i metodi forniti dalla DGTVi, l’associazione italiana per lo sviluppo della televisione digitale terrestre nel nostro Paese, che rilascia i bollini dedicati al DVB-T2. In particolare se, quando avete comprato il televisore, su di esso era presente il bollino Platinum DVB-T2 HEVC, significa che il vostro televisore è compatibile con il nuovo standard.

Se, invece, per qualche motivo, non disponete più degli "adesivi" originali che erano presenti nella confezione di vendita (spesso sono applicati direttamente sullo schermo), vi basta recarvi sul sito ufficiale di DGTVi, scorrere la pagina e utilizzare le opzioni presenti sotto alla scritta “Ricerca i prodotti con bollino DGTVi”.

In particolare, premete su SELEZIONA IL BOLLINO (scegliendo la voce PLATINUM), quindi su SELEZIONA IL TIPO (scegliendo la tipologia di televisore/decoder) e su SELEZIONA LA MARCA (scegliendo il brand associato al dispositivo). Se non sapete a quale tipologia appartiene il vostro televisore, vi consiglio di consultare il manuale d’istruzione oppure di cercare il suo modello online.

Il modo “più semplice”, comunque, per sapere se il proprio apparato televisivo, cioè la TV con decoder integrato o il decoder esterno, è compatibile con il nuovo standard DVB-T2, è  semplicemente cercare tale scritta sul dispositivo.

Nel caso in cui tu non conosciate il modello del vostro televisore, spesso puotete trovarlo sull’etichetta posta sul retro del dispositivo. Una volta completati correttamente i vari campi, vi basta premere sul pulsante CERCA e verificare che il numero di modello del vostro televisore sia in lista.

Nel caso il vostro televisore non sia in lista o non compaia la marca che lo ha prodotto (cosa che può succedere, visto che esistono modelli compatibili con il nuovo standard che non hanno il bollino), vi invito a fare un ulteriore controllo digitando il numero di modello del televisore seguito dalla scritta "DVB-T2 HEVC" su Google: in questo modo, dovreste trovare tutte le informazioni del caso (spesso presenti all’interno del sito ufficiale del produttore) e risalire alle specifiche complete del televisore, dove probabilmente ci sarà anche l’informazione che state cercando.

AGGIUNTA DI UN DECODER PER RENDERE IL TV COMPATIBILE CON DVBT2

Ci sono due metodi per farvi trovare preparati all’avvento dello standard DVB-T2 con codec HEVC/H.265: acquistare un nuovo modello di TV oppure aggiornare il vostro "vecchio" televisore tramite un decoder.

Già oggi la legge italiana impone ai negozi la vendita di televisori dotati del supporto allo standard DVB-T2 e al codec HEVC/H.265. Una deroga a questa normativa consente però la vendita di televisori dotati del solo supporto DVB-T, a patto che questi vengano abbinati a decoder esterni con supporto DVB-T2. Quindi accertatevi che il negoziante non cerchi di vendervi un vecchio TV abbinato ad un decoder, affermando che è l’unica soluzione.  Considerate comunque che il decoder esterno, anche se può essere di disturbo per il suo ingombro, può portare i vantaggi che elenco, e che vi consiglio di verificare:

Supporto ai servizi di pay TV

Se siete interessati ai servizi di pay TV digitale terrestre (es. Mediaset Premium), dovete acquistare un decoder dotato di slot per l’inserimento delle smart card. In caso contrario non potrete accedere ai contenuti proposti dai servizi di TV a pagamento.

 

Connessione Internet

Così come i televisori, anche i decoder per il digitale terrestre possono essere smart, cioè possono essere dotati di supporto alla connessione Internet. Acquistando un ricevitore dotato del supporto a Internet, potrete accedere ai servizi interattivi e alle piattaforme di video on-demand offerte dai broadcaster italiani, come RaiPlay, Mediaset Rewind ecc. Alcuni decoder, poi, sono in grado di accedere a servizi aggiuntivi, come Infinity; ma la compatibilità va verificata modello per modello.

Altra cosa molto importante da verificare è il tipo di connessione utilizzabile sul ricevitore, che può essere solo via cavo (Ethernet) o Wi-Fi, grazie al supporto wireless integrato o utilizzando degli adattatori USB da acquistare separatamente. I decoder dotati di supporto Wi-Fi sono quasi sempre in grado di riprodurre i file multimediali ospitati nella rete locale (es. su NAS o hard disk di rete).

Tra i decoder “smart” vanno segnalati anche dei TV Box Android, i quali offrono tutte le funzioni tipiche di questa tipologia di device (riproduzione multimediale, accesso a media center come Kodi, installazione di app per Android ecc.) più l’accesso alle trasmissioni del digitale terrestre.

Funzioni di registrazione e riproduzione multimediale

Alcuni decoder per il digitale terrestre sono dotati di porte USB che permettono di riprodurre i file multimediali e, in alcuni casi, di registrare i programmi TV su chiavette e hard disk esterni. A meno che il ricevitore non includa due tuner (caratteristica assai rara), si possono registrare solo i programmi che si stanno guardando in quel momento.

Collegamento al televisore

La maggior parte dei decoder per il digitale terrestre dispone di porte HDMI e SCART che ne consentono il collegamento a tutti i tipi di televisore. Il collegamento via HDMI permette di fruire dei contenuti in alta definizione ed è consigliabile per tutti i TV recenti. Chi invece possiede un vecchio televisore, magari a tubo catodico, e vuole farlo “rivivere” grazie a un decoder digitale terrestre, può usare la connettività SCART o, se presente, quella composita.

Supporto ai canali satellitari

Esistono dei decoder “combo” che oltre ai canali del digitale terrestre consentono di ricevere anche i canali satellitari (ovviamente se associati a un’antenna parabolica). Si tratta di soluzioni non propriamente economiche, ma che possono rivelarsi estremamente utili.

Sistema operativo e funzioni software

I decoder per il digitale terrestre possono distinguersi anche per il sistema operativo e per le funzioni software che offrono. Il sistema operativo è quasi sempre proprietario e, a seconda dei casi, può essere più o meno intuitivo (e comprensivo o meno della lingua italiana). Alcuni decoder, però, in particolare quelli “combo” che includono anche un tuner satellitare, sono equipaggiati con delle distribuzioni di Linux che sono estremamente flessibili e possono essere personalizzate – dagli utenti che ne sono in grado – in modo da aumentare le potenzialità del decoder.

Per quanto concerne le funzioni, quelle più utili sono la Guida Elettronica per i Programmi (EPG) che permette di avere un quadro completo dei programmi in onda nel corso del giorno, la registrazione (PVR) su USB o hard disk interno, la riproduzione di video e file audio (da USB o dalla rete locale), il timeshift che permette di “congelare” i contenuti che si stanno guardano per poi riprendere la riproduzione in un secondo momento, il controllo genitori per bloccare la visione dei programmi non adatti ai minori e il sempreverde Televideo.

E, SE PROPRIO DOVETE ACQUISTARE UN NUOVO TELEVISORE, ATTENZIONE!

I modelli di Tv acquistati dopo il 1° gennaio 2017 devono essere, come detto, per legge in grado di ricevere il DVB-T2 e di decodificare il formato video HEVC. Quelli venduti fra il 2013 e il 2017 potrebbero essere già in grado di ricevere il DVB-T2 ma ben pochi, al massimo dal 2016 in avanti, supportano il formato HEVC.

Le Tv che avranno bisogno di essere integrate con un decoder, al momento sono di quattro tipi:

  1. Tv antecedenti al 2010. Ricevono il segnale attraverso il digitale terrestre, ma già da ora potrebbero non mostrare i canali in alta definizione perché sprovvisti del supporto al codec MPEG4.

  2. Tv del periodo 2010-2014. Ricevono in digitale terrestre, inclusi i pochi canali in alta definizione codificati in MPEG4.

  3. Tv del periodo 2014-2015. Supportano lo standard DVB-T2, ma non quello più recente codec H265/HEVC.

  4. Tv del periodo 2015-2016. Supportano lo standard DVB-T2 e il più recente codec H265/HEVC.

 

La compatibilità DVB-T2, quindi, non basta: attenti a cosa comprare!

Chi nel 2021 deve cambiare televisione perché il suo apparato non è compatibile con il digitale terrestre di seconda generazione, e non accetta la “scomodità” del decoder, ha di fronte una enorme quantità di modelli tra i quali scegliere.  

Tutte le TV prodotte negli ultimi 4 anni sono in grado di decifrare il segnale digitale terrestre di seconda generazione, ma ciò non vuol dire che siano in grado di sfruttarne le caratteristiche in pieno e di mostrare una immagine in alta qualità e ad alta risoluzione. Né di offrire tutte le caratteristiche tecniche che la tecnologia ha portato negli ultimi anni nel mercato delle smart TV. Ciò vuol dire che non basta andare su Amazon o in un negozio di una grande catena di elettronica e comprare il primo TV che si vede, magari quello in offerta a prezzo scontatissimo: non tutti i TV sono uguali e se vogliamo vedere i canali trasmessi in DVB-T2 alla massima qualità possibile dobbiamo scegliere bene (v. anche nota (2)  ).

Televisori DVB-T2: attenzione alla risoluzione

La prima caratteristica tecnica da controllare in fase di acquisto di una nuova televisione è la risoluzione.   Ricordo che a partire da quest’anno la maggior parte dei canali nazionali è passata all’HD e i rispettivi canali in risoluzione standard sono stati spenti.

La risoluzione minima di uno smart TV a prova di 2021 è quindi 1920×1080 pixel (1080p), mentre vanno scartati quelli in risoluzione 1366×768 o 1280×720 pixel. Il 4K, al momento, è un plus: i contenuti trasmessi con questa risoluzione sono molto pochi e non vale ancora la pena di spendere di più per una TV 4K da mettere, ad esempio, in cucina.

Televisori DVB-T2: l’importanza del codec H.265 HEVC

Accertarsi della presenza del codec. Oltre alla risoluzione, infatti, un altro fattore che ci dice che la televisione che stiamo per acquistare non ci darà problemi per diversi anni, è la capacità di processare i flussi audio/video compressi con il codec H.265, chiamato anche HEVC. H.265/HEVC è il cuore stesso del DVB-T2, perché è molto più efficiente del precedente H.264 e raddoppia il rapporto di compressione di quest’ultimo. Questo, in pratica, vuol dire che sulle stesse frequenze radio del digitale terrestre possono viaggiare adesso il doppio dei canali.

Televisori DVB-T2: le funzioni smart

Infine, un ultimo fattore da valutare sono le funzioni smart della TV. Cioè la possibilità di usare sulla TV app esterne, che girano su Android TV o altri sistemi operativi proprietari. Tra queste app le più famose sono quelle per vedere contenuti in streaming su Internet (la TV, quindi, deve essere connessa tramite WiFi) come YouTube, Netflix, Disney+ o Amazon Prime Video.

Anche in questo caso si tratta di una funzione in più non essenziale, ma utile: un televisore non smart potrà comunque visualizzare senza problemi (se le condizioni precedenti sono rispettate) i canali televisivi in chiaro gratuiti delle emittenti nazionali e locali.

Televisori DVB-T2 e decoder: i suggerimenti del MISE

Come dicevo, la lista dei TV o dei decoder compatibili con il digitale terrestre di seconda generazione è molto lunga. Il Ministero dello Sviluppo economico continua ad aggiornarla nella sua pagina dedicata; la Bonus TV 2021, ed è già arrivata ad oltre 3.000 modelli (decoder compresi) (2).

  1. https://www.mise.gov.it/images/stories/documenti/dm%20calendario%20rilascio%20banda%20700%20MHz%20con%20estremi%20reg%20CdC.pdf

  2. https://bonustv-decoder.mise.gov.it/prodotti_idonei

 

La quinta dimensione aiuterà nella ricerca della materia oscura

 

8 febbraio 2021 

I fisici teorici del PRISMA +  Cluster of Excellence dell'Università Johannes Gutenberg di Mainz (JGU) stanno lavorando a una teoria che va oltre il modello standard della fisica delle particelle e può rispondere a domande su cui il modello standard deve passare - per esempio, rispetto alle gerarchie delle masse di particelle elementari o all'esistenza della materia oscura.

L'elemento centrale della teoria è la ricerca di una dimensione extra nello spaziotempo. 

Fino ad oggi gli scienziati hanno affrontato il problema che le previsioni della loro teoria non potevano essere testate sperimentalmente; tuttavia, ora le speranze non sono perse.

Già negli anni '20, nel tentativo di unificare le forze di gravità e elettromagnetismo, Theodor Kaluza e Oskar Klein ipotizzarono l'esistenza di una dimensione extra oltre le familiari tre dimensioni spaziali e il tempo - che in fisica sono combinate nello spaziotempo quadridimensionale. Se esiste, dicevano, una dimensione così nuova dovrebbe essere incredibilmente minuscola e impercettibile all'occhio umano.

Alla fine degli anni '90, questa idea ha visto una notevole rinascita quando ci si rese conto che l'esistenza di una quinta dimensione poteva risolvere alcune delle profonde questioni aperte della fisica delle particelle. In particolare, Yuval Grossman della Stanford University e Matthias Neubert, allora professore alla Cornell University negli Stati Uniti, hanno dimostrato in una pubblicazione molto citata che l'incorporamento del Modello Standard della fisica delle particelle in uno spaziotempo a 5 dimensioni potrebbe spiegare il misterioso modelli visti nelle masse di particelle elementari.

Altri 20 anni dopo, il gruppo del professor Matthias Neubert ha fatto un'altra scoperta inaspettata: hanno scoperto che le equazioni di campo a 5 dimensioni predicevano l'esistenza di una nuova particella pesante con proprietà simili al famoso bosone di Higgs; ma con una massa molto più pesante - così pesante, infatti, che non può essere prodotto nemmeno dal collisore di particelle a più alta energia al mondo, il Large Hadron Collider (LHC) presso il Centro europeo di ricerca nucleare CERN di Ginevra.

 

'OUMUAMUA:

Il  nostro primo visitatore interstellare ci ha lasciato con più domande che risposte

 

 

È stato nell’ottobre 2017 che gli astronomi, utilizzando il telescopio Pan-STARRS delle Hawaii, hanno scoperto nei cieli un oggetto a forma di sigaro, con caratteristiche senza precedenti, che sfrecciava attraverso il nostro sistema solare.

 

Sorprendentemente, quello che sarebbe stato definito il nostro primo visitatore interstellare è apparso strano, e diverso da tutto ciò che avevamo visto prima. Quando ce ne siamo accorti, però, l’ospite era già fuori dalla portata; con la sua immagine che svaniva senza che potessimo fotografarlo. Quindi non abbiamo avuto la possibilità di dare una seconda occhiata alle sue caratteristiche misteriose.

 

L’oggetto ha  un nome hawaiano, per ricordare i suoi scopritori con sede a Maui;  è stato chiamato "‘OUMUAMUA”, che significa "esploratore"o"messaggero inviato dal lontano passato". 

Trovare il primo oggetto in assoluto ad arrivare dalle stelle sarebbe già un motivo sufficiente per emozionarsi. Ma, si è scoperto, che il divertimento era solo all'inizio.

Innanzitutto, la velocità dell'asteroide indicava che non sarebbe stato catturato dal Sole, ma proiettato di nuovo nello spazio interstellare su una nuova direzione. La sua traiettoria in uscita era inclinata di 66° rispetto alla sua direzione iniziale in entrata, che era in prossimità della stella Vega. 

 

Ad ogni modo, se questo oggetto dalla forma strana, lungo dai 100 ai 1000 metri (l’imprecisione ci fa capire quanto poco ne conosciamo), è di origine naturale, allora può avere un certo senso che provenga  dalla direzione di Vega. Infatti questa stella è solo pochi gradi dall'apice solare, (la direzione verso la quale si sta muovendo il nostro sistema solare) e da questa direzione proviene quindi la maggior parte delle cose che si schiantano addosso al nostro sistema; un po’ come quando si guida sotto la neve.

Il problema è che Vega non si trovava lì 600.000 anni fa; e lo sappiamo usando i moderni sistemi di tracciamento a ritroso con cui possiamo definire la provenienza e il tempo di partenza di un oggetto spaziale. Probabilmente proveniva da una delle quattro stelle rosse nane, che sono lì attorno. Era forse nelle vicinanze di un gruppo di stelle più giovani di circa 45 milioni di anni fa del nostro sole. ’OUMUAMUA potrebbe essere stato espulso durante i primi anni di formazione del suo sistema solare, il che spiegherebbe la sua velocità relativamente bassa per un viaggiatore interstellare.

 

Perché, avevo dimenticato di scriverlo, la velocità di ‘OUMUAMUA, quando si avvicinava a noi era “lenta”, molto più lenta di quella di qualsiasi altro oggetto spaziale similare.

 

 

‘OUMUAMUA è il primo nostro visitatore che venga da un altro sistema solare. Molto più lungo di quanto non sia largo, come raffigurato in questa immagine artistica.

Credito: ESO / M. Kornmesser

 

Ma la cosa più strana di ‘OUMUAMUA è avvenuta dopo che ha girato “lentamente” intorno al Sole e si è allontanato. Quando il telescopio spaziale Hubble lo ha individuato all'inizio di gennaio 2018, era infatti circa 40.000 chilometri “dopo” la posizione prevista. Appariva quindi accelerato! 

La “spiegazione UFO-alieni”, di ciò, sarebbe la più semplice ed entusiasmante: “si tratta di un veicolo spaziale e, quando ha finito di osservarci, ha acceso i suoi razzi e se n’è andato”. Ma ovviamente ci sono state spiegazioni naturali che hanno provato a smontare questa suggestiva ipotesi. 

‘OUMUAMUA potrebbe aver “degassato” come fanno le comete quando si avvicinano al Sole, e tale sfiato agisce come un razzo booster. Abbiamo visto accadere questo nelle comete del sistema solare. Oppure ‘OUMUAMUA potrebbe aver catturato il vento solare come una vela, ottenendo così un aumento di velocità.

Ma il “degassamento” non regge: la forte  spinta extra di ‘OUMUAMUA potrebbe aver avuto origine, hanno calcolato, da un degassamento di tipo cometario se almeno un decimo della sua massa fosse evaporata. Ma un’evaporazione così massiccia avrebbe naturalmente portato alla comparsa di una “coda cometaria”, che nessuno però ha rilevato.

Anche il discorso “vela solare” non funziona: il problema è che, perché l'idea della vela solare funzioni, l’oggetto deve essere molto leggero e non dovrebbe rotolare su se stesso completamente, come fa ‘OUMUAMUA ogni otto ore.

Hanno pensato anche alla frantumazione (la perdita di un pezzo può far accelerare il pezzo principale), ma la spinta extra mostrata dall’orbita di ‘OUMUAMUA non può essere il frutto di una frantumazione, perché un evento simile avrebbe fornito una spinta singola e impulsiva, differente dalla spinta continua osservata.

Alcuni astrofisici pensano che l’accelerazione di ‘OUMUAMUA sia stata dovuta a un fenomeno naturale: che l'idrogeno solido stesse esplodendo in modo invisibile dalla superficie dell'oggetto interstellare; facendolo accelerare. Però, in seguito, con un nuovo articolo pubblicato su The Astrophysical Journal Letters, Thiem Hoang, astrofisico presso il Korea Astronomy and Space Science Institute, sostiene che l'ipotesi dell'idrogeno non funzioni.

‘OUMUAMUA rimane singolare. Ha lo stesso colore rosso scuro di molti oggetti della fascia di Kuiper che ci visitano, eppure le osservazioni di un  telescopio spaziale, quello di Spitzer, mostrano che è "almeno dieci volte più brillante dei tipici asteroidi del sistema solare".

E veniamo a noi: ‘OUMUAMUA è quindi un oggetto inspiegabile. Così inspiegabile, che Loeb e il collega Bialy, entrambi scienziati spaziali di Harward, hanno detto che potrebbe essere un oggetto artificiale: “l'oggetto è spinto da una macchina aliena che è in grado di accelerare usando le radiazioni solari”

Nel frattempo, proprio come la prima cometa periodica conosciuta (Halley) denominata 1P, ‘OUMUAMUA ha ricevuto la nuovissima designazione "I" per "oggetto interstellare" e la sua designazione è quindi stata “1I”. Il primo oggetto interstellare che ci visita.

Riassumendo: Oumuaua non è una vela solare, non ha degassato,  non si è frantumato, non usa idrogeno come propellente e non è luminoso come i suoi analoghi. Aggiungo: per accontentare gli UFO-maniaci dirò che si è cercato persino di dare risposta alla domanda: “‘OUMUAMUA stava trasmettendo al suo pianeta informazioni radio su di noi?”.  Ebbene, il radiotelescopio della Green Bank ha monitorato '‘OUMUAMUA il 13 dicembre 2017, su quattro ampie frequenze radio. Circa due settimane prima, anche l'Allen Telescope Array del SETI Institute aveva iniziato a monitorarlo, per un totale di almeno 60 ore. Il risultato: silenzio.  Ma il mio commento in questo caso è che un qualsiasi buon lettore di fantascienza sa che gli alieni non trasmettono via onde radio hertziane. Tutti sanno che usano trasmissioni quantistiche a positroni, che i terrestri non posseggono ancora.

 

Nel frattempo gli scienziati veri stanno pensando di inviare una sonda per incontrare, tra qualche anno, l’oggetto misterioso nei pressi di Giove, e cercare di svelarne i segreti.

 

Comunque sia, nel contemplare la possibilità di un’origine artificiale, dovremmo tenere a mente ciò che diceva Sherlock Holmes:

“Quando hai escluso l’impossibile, qualsiasi cosa rimanga, per quanto improbabile, dev’essere la verità”.

Foto artistica OUMUAMUA.png
TRAIETTORIA OUMUAMUA.JPG

Realizzato il Teletrasporto Quantistico con una precisione del 90%

 

4 gennaio 2021

 

Il teletrasporto quantistico è un trasferimento di stati quantici da una posizione all'altra. Il teletrasporto quantistico di un qubit si ottiene usando l'entanglement quantistico, in cui due o più particelle sono indissolubilmente legate l'una all'altra: se una coppia di particelle “impigliate” è condivisa tra due posizioni separate, indipendentemente dalla distanza tra loro, le informazioni codificate vengono teletrasportate.

 

 I ricercatori riferiscono di essere riusciti a teletrasportare informazioni quantistiche ad alta fedeltà su una distanza totale di 44 chilometri (27 miglia). Ciò significa che siamo un passo avanti nella costruzione di un Internet quantistico super sicuro e super veloce.

"Siamo entusiasti di questi risultati", ha dichiarato Panagiotis Spentzouris, scienziato del Fermilab, responsabile del programma di scienze quantistiche Fermilab e coautore del documento. "Questo è un risultato chiave sulla strada per costruire una tecnologia che ridefinirà il modo in cui conduciamo la comunicazione globale. "

"Siamo molto orgogliosi di aver raggiunto questo traguardo sui sistemi di teletrasporto quantistico sostenibili, performanti e scalabili", ha dichiarato Maria Spiropulu, docente di fisica al Caltech e direttrice del programma di ricerca IN-Q-NET. "I risultati saranno ulteriormente migliorati con gli aggiornamenti di sistema che ci aspettiamo di completare entro il secondo trimestre del 2021."

Sia le reti Caltech che Fermilab, che dispongono di elaborazione dei dati autonome, sono compatibili sia con l'infrastruttura di telecomunicazione esistente che con i dispositivi emergenti di elaborazione e archiviazione quantistica. I ricercatori li stanno usando per migliorare la fedeltà e il tasso di distribuzione dell'entanglement, con particolare attenzione ai complessi protocolli di comunicazione quantistica e alla scienza fondamentale.

"Con questa dimostrazione, stiamo iniziando a gettare le basi per la costruzione di una rete quantistica metropolitana dell'area di Chicago", ha detto Spentzouris.

La rete Chicagoland, chiamata Illinois Express Quantum Network, è stata progettata dal Fermilab in collaborazione con Argonne National Laboratory, Caltech, Northwestern University.

Avete mai sentito parlare di “ASMR”?

 

di Achille De Tommaso

(pubblicato su NEL FUTURO IL 18/12/2020)

 

ASMR è il terzo termine di ricerca più popolare su YouTube in tutto il mondo. Ma nel caso non ne abbiate sentito parlare, sta per Risposta Meridiana Sensoriale Autonoma. Il motivo di questo successo sta nel fatto che i video che attivano la risposta autonoma del meridiano sensoriale, o ASMR, sono un grande affare su YouTube.

Milioni di spettatori ogni giorno si sintonizzano per guardare qualcuno che si spazzola i capelli per ore o sussurra in un microfono così piano che le loro parole non possono nemmeno essere distinte. Le persone si accalcano a vedere contenuti che mostrano palloncini scoppiati, o attori vip che divorano spaghetti. Di recente mi sono appena imbattuto in una clip di 36 minuti di una donna che piega gli asciugamani più e più volte. Ha avuto 2,2 milioni di visualizzazioni.

Spiegazione di questo grande interesse? Non è ben certa, ma pare che questi video provochino una sensazione di formicolio nel cervello ad alcune persone, che le aiuta a rilassarsi; ma è un fenomeno che stiamo ancora imparando. Cerchiamo di capire questa sottocultura di Internet, per intendere meglio perché alcune persone provano gioia nel vedere un certo filmato, più di qualcun altro che legge un libro; mentre altri ne sono completamente indifferenti.

CONTINUA A LEGGERE SU www.nelfuturo.com/Avete-mai-sentito-parlare-di-ASMR

La meccanica quantistica è una balla pazzesca?

 

di Achille De Tommaso

 

pubblicato su NEL FUTURO l'8 agosto 2019

Immaginate che gli astronomi non credano davvero che la Terra orbiti attorno al sole ; anzi; che affermino che non possiamo veramente sapere se il sole orbiti attorno alla Terra o no. Sarebbe assurdo; nessuno scienziato rispettabile potrebbe mai sognarsi di fare affermazioni simili a questa.

Tranne quando si tratta della teoria più potente della storia della fisica: la meccanica quantistica. Più di un secolo dopo la sua nascita, la meccanica quantistica, la fisica di atomi, fotoni e altre particelle, rimane non capìta. Anzi; capìta in modo strano.

E dire che gli esperimenti hanno ripetutamente confermato le strane visioni della teoria con una precisione fenomenale. Le tecnologie che ne derivano guidano l'economia mondiale: l'industria elettronica così come la conosciamo non esisterebbe senza la meccanica quantistica. Eppure, nonostante il dominio indiscusso della teoria e il suo significato pratico, i fisici non sono ancora d'accordo su cosa significhi o cosa dica sulla natura della realtà. E alcuni pensano, appunto, che sia una balla pazzesca.

Infatti almeno una dozzina di interpretazioni della meccanica quantistica si contendono i cuori e le menti dei fisici, ognuna con una visione radicalmente diversa della realtà. Ognuna appare come una arrampicata sugli specchi; di cui gli stessi arrampicatori sono scettici.

Ve ne do le evidenze, secondo me, più importanti.

CONTINUA A LEGGERE SU www.nelfuturo.com/La-meccanica-quantistica-e-una-balla-pazzesca

LA RIFLESSIONE

Industria 4.0, gli impatti di lungo periodo sul sistema socio-economico​

Achille De Tommaso
Anfov

Pubblicato su AGENDA DIGITALE il 14/12/2016

Industry 4.0 è molto di più di un nuovo metodo di produzione. Ha molti vantaggi, ma anche sfide. Come la sicurezza, la necessità di “investimenti al buio”, gli aspetti sociali e politici. Tutti fattori avvolti ancora in grande indeterminazione. Facciamo il quadro.
CONTINUA A LEGGERE SU  www.agendadigitale.eu/industry-4-0/industria-40-gli-impatti-di-lungo-periodo-sul-sistema-socio-economico/

De Tommaso (Anfov): “L’Italia capitalizzi le best practice di innovazione”​

Pubblicato su Corriere delle Comunicazioni 8 Marzo 2011

L’Associazione nazionale per la convergenza nei servizi di comunicazione battezza il primo “incubatore” di idee per spingere la diffusione dell’hi-tech fra le aziende tricolori. Il Vp De Juilio: “Le Pmi un potenziale inespresso nell’adozione dell’IT”

LEGGI DI PIU' SU www.corrierecomunicazioni.it/digital-economy/de-tommaso-anfov-l-italia-capitalizzi-le-best-practice-di-innovazione/

Ma quali competenze digitali, se l’Italia ha smesso di investire in cultura?

Pubblicato il 13 Lug 2016  su Agenda digitale

 

Achille De Tommaso

Anfov

In Europa nel campo digitale siamo arretrati in tutto. Anche nella cultura digitale. Il Bel Paese ha il numero di immatricolazioni universitarie più basse; le relative tasse sono le terze più care d’Europa e gli abbandoni sono tanti

Secondo i parametri DESI (Digital Economy and Society Index) della UE , siamo arretrati in quasi tutto ciò che riguarda il digitale. Ma quello che sicuramente ci dovrebbe preoccupare di più, è renderci conto che, rispetto agli altri paesi europei, siamo arretrati nella cultura digitale; nei cosiddetti skill. E, come vedremo, la causa di ciò, probabilmente, è che, dolorosamente, siamo arretrati nella cultura; in generale. Quella cultura di cui siamo stati la culla.

CONTINUA A LEGGERE SU  www.agendadigitale.eu/cultura-digitale/ma-quali-competenze-digitali-se-l-italia-ha-smesso-di-investire-in-cultura/

bottom of page