Archive for Marzo, 2023

Home / 2023 / Marzo

24 Marzo 2023 – Redazione – Fonte: osservatoriomalattierare.it

 

La sindrome da stanchezza cronica (Chronic Fatigue Syndrome) è un disturbo dalle origine ancora oscure, caratterizzato da una stanchezza prolungata e debilitante, e da multipli sintomi non specifici, quali cefalea, mal di gola ricorrente, dolori muscolari e alle ossa, disturbi del sonno, perdita di memoria, difficoltà di concentrazione e da un malessere generale. I sintomi per definizione si protraggono per minimo per 6 mesi, ma spesso nella realtà per anni.

Dall’Università di Firenze uno studio internazionale ipotizza che la malattia sia la conseguenza dell’esposizione al Cadmio

Il gruppo di ricerca della Facoltà di Medicina dell’Università di Firenze guidato dai Prof. Gulisano e Ruggiero, ha recentemente pubblicato un articolo scientifico sulla prestigiosa rivista Medical Hypotheses dove si ipotizza per la prima volta una relazione tra esposizione al Cadmio e Sindrome da Fatica Cronica (definita anche Encefalomielite Mialgica). Questa sindrome neurologica invalidante colpisce milioni di persone nel mondo e si calcola che in Italia i malati siano nell’ordine delle centinaia  di migliaia anche se purtroppo in molti di loro la malattia non è correttamente  diagnosticata. Infatti la diagnosi risulta incerta, lunga e complessa e spesso i malati  sono costretti a subire esami diagnostici per mesi e mesi prima di arrivare alla diagnosi. Come per molte malattie neurodegenerative, le cause non sono note e la terapia, spesso soltanto palliativa, ha scarsi risultati. Il gruppo di ricerca fiorentino, nell’articolo pubblicato, ipotizza per la prima volta un legame tra la malattia ed esposizione al Cadmio.

Il Cadmio è un metallo pesante cancerogeno molto diffuso nei paesi industrializzati, che si produce nell’inquinamento urbano, nell’incenerimento dei rifiuti, nell’elettronica da consumo (batterie al Cadmio), nei processi industriali, nell’edilizia e nel fumo di tabacco.

I ricercatori fiorentini, dopo aver dimostrato i danni indotti dal Cadmio sui neuroni umani, hanno messo a punto una tecnica ecografica semplice e priva di rischi che permette di studiare la corteccia cerebrale senza l’uso di radiazioni, in modo da evidenziare fenomeni di infiammazione o di danno cerebrale nei pazienti affetti da Sindrome da Fatica Cronica e nei soggetti esposti al Cadmio. In questa maniera, sarà possibile diagnosticare precocemente i danni neurotossici conseguenti all’esposizione al Cadmio (ad esempio nei fumatori o nelle persone che vivono in prossimità di aree inquinate, di impianti industriali o inceneritori) ed individuare i sintomi della Sindrome da Fatica Cronica in modo da intervenire il prima possibile. Sarà anche possibile monitorare la malattia e la risposta alle diverse terapie in via di sperimentazione nel mondo, con l’auspicio di poter osservare una reversione del danno cerebrale.

Il prestigio internazionale della rivista dove i ricercatori fiorentini hanno pubblicato questo studio all’avanguardia è testimoniato dalla presenza nel comitato editoriale dei Premi Nobel Arvid Carlsson, John Eccles, Frank Macfarlane Burnet e Linus Pauling, e del pioniere della filosofia della scienza, Sir Karl Popper.

L’articolo, con le immagini relative, è reperibile online sul sito della rivista Medical Hypotheses ed è inoltre stato immediatamente inserito nel database della National Library of Medicine (NIH) del Governo degli Stati Uniti d’America.

POTETE SEGUIRCI ANCHE SU TELEGRAM ⤵️
https://t.me/mercurius5giornale

 

 

 

23 Marzo 2023 – Redazione – Marzia MC Chiocchi

 

In vista del Consiglio europeo, calendarizzato il 23 e il 24 marzo, martedi la presidente del Consiglio Giorgia Meloni ha riferito le priorità italiane al Senato e ieri lo ha fatto alla Camera.

Il prossimo vertice a Bruxelles, per la premier, è il momento in cui, in teoria, andrebbe fatto un salto di qualità sui temi dell’immigrazione e del Patto di stabilità. La presidente della Commissione europea Ursula von der Leyen, in una lettera indirizzata ai 27 Paesi membri, ma soprattutto all’Italia, ha annunciato «un nuovo sostegno pari a 200 milioni di euro che sarà focalizzato sull’assistenza all’accoglienza» e l’«accelerazione dell’attuazione del meccanismo volontario di solidarietà per i ricollocamenti dei migranti». E l’Italia prende un altro schiaffo, non volendo agire con il pugno di ferro sul blocco delle partenze dal Nordafrica. È inutile ricevere aiuti! Servono solo a creare associazioni e realtà che speculano sugli immigrati, e sacche di nuovi abbandonati a se stessi, pronti a creare problemi! MA ORMAI ABBIAMO CAPITO CHE L’UE VUOLE QUESTO, E L’ITALIA NE È COMPLICE! Ma dov’è il blocco navale di cui parlava Giorgia Meloni non in veste di Premier, ma da segretario di partito?


ANALIZZIAMO DA DOVE TUTTO È PARTITO ⤵️

Cos’è e quando è stato firmato il trattato di Dublino?

«È il regolamento dell’Unione Europea che stabilisce criteri e meccanismi per l’esame, e l’eventuale approvazione, di una domanda di protezione internazionale presentata da un cittadino di un Paese terzo. Nasce dalle ceneri della Convenzione firmata nella capitale irlandese il 15 giugno 1990, ovvero dal primo trattato internazionale multilaterale firmato dagli allora dodici membri della Comunità europea per darsi regole comuni sull’asilo. In vigore nel 1997, è stato sostituito nel 2003 dal regolamento «Dublino II» che l’ha portato nell’ambito delle competenze dell’Ue. Una terza revisione – «Dublino III» – è stata varata nel giugno 2013».

Cosa stabilisce per quanto riguarda i richiedenti asilo?

«Il principio chiave è dettato dall’articolo 13. «Quando è accertato (…) che il richiedente ha varcato illegalmente, per via terrestre, marittima o aerea, in provenienza da un Paese terzo, la frontiera di uno Stato membro, lo Stato membro in questione è competente per l’esame della domanda di protezione internazionale». In altre parole, la responsabilità dell’asilo è del Paese di primo sbarco. Ovvero: chi arriva in Italia tocca all’Italia, chi in Spagna alla Spagna e via…»

Quali le situazioni che hanno portato alla sigla del trattato?

«Nel preparare i trattati istitutivi della Cee, poi firmati a Roma nel 1957, gli Stati fondatori hanno deciso di tenere per sé una serie di politiche anche rilevanti, fra cui l’Immigrazione. Non una cosa da poco, se si pensa che solo nei primi quindici anni del secondo dopoguerra il Belgio accolse circa 200 mila italiani. Quando si arriva alla vigila del mercato unico, si pone l’esigenza di regolare l’asilo. Si tratta di evitare il turismo delle richieste, dunque stabilire che ogni straniero possa chiedere il permesso in un solo Paese. In caso di rifiuto, deve avere una seconda opportunità. È allora che si stabilisce il principio del primo approdo».

Fu una decisione difficile? E quali Paesi spinsero di più per arrivare all’intesa?

«Fu una decisione necessaria. Venticinque anni fa furono soprattutto i tedeschi, freschi di riunificazione ed esposti agli effetti della caduta della Cortina di Ferro, a spingere per regole precise. Oltretutto, dal gennaio 1993, nella Comunità europea s’iniziava la libera circolazione dei cittadini. La repubblica federale era già meta richiestissima, anche se la domanda allora era tutta dall’Est. Per l’Italia, la Convenzione fu un campanello d’allarme. La migrazione era prevalentemente albanese e controllabile. Per il resto si lasciava spesso correre, prassi alla quale «Dublino» costrinse a mettere in parte fine.

Cos’è cambiato in questi anni da mettere in discussione il trattato?

«Il contesto mediterraneo, africano e mediorientale. In anni recenti la guerra in Siria, le dittature in Eritrea e nella parte centrale del continente nero, l’instabilità afghana e pachistana, le primavere arabe tradite, hanno gonfiato il flusso dei migranti che, sino a giorni non lontani, erano in prevalenze gente a caccia di un lavoro. La caduta del regime di Gheddafi ha aperto la porta libica. I popoli in fuga hanno cominciato ad arrivare in Italia e Grecia. Più recentemente, soprattutto per l’offensiva dell’Isis in Siria, si è affollata la via balcanica. Il dato è che milioni di persone fanno la fila per cercare la pace nell’Unione».

Cos’è che non funziona? Perché è considerato uno strumento superato?

«Anzitutto viene contestato l’obbligo del Paese di primo approdo di gestire tutti gli accessi e accogliere chi arriva, sia l’Italia, la Grecia o l’Ungheria, alfieri europei più esposti agli sbarchi e desiderosi di maggiore solidarietà. In seconda battuta, lo stesso precetto impedisce di diritto la possibilità di arrivare a un meccanismo di emergenza che conduca alla redistribuzione obbligatoria di parte dei rifugiati nei momenti di maggiore crisi, ipotesi suggerita da Francia e Germania. Berlino continua a ripetere che «Dublino» è in vigore e la ripartizione obbligatoria verrebbe a valle della sua applicazione. L’Italia ne chiede la revisione: un trattato vecchio, si fa notare, per un mondo cambiato».

Ma chi ha firmato nel 2013 il nuovo Trattato di Dublino, denominato III, alla scadenza naturale dei 10 anni dal precedente?

Pochi documenti hanno influenzato le sorti attuali dell’Italia di quanto non abbia fatto il trattato di Dublino, di cui però l’italiano medio ha sentito parlare solo molto tardi, quando ormai la ratifica era lontana nel tempo e le responsabilità fumose e difficili da assegnare. Quello che si sa di sicuro è che attualmente è in vigore il Dublino III, firmato dal governo di Enrico Letta (ministro degli interni Angelino Alfano, ministro degli esteri Emma Bonino), che ribadisce il principio di responsabilità permanente del paese di primo approdo dei migranti, definendolo «una pietra miliare». Di suo, vi aggiunge il criterio della tutela dei minori e del ricongiungimento familiare per stabilire la competenza dei paesi a concedere il diritto d’asilo (competenza ad accogliere persone con le carte in regola, già identificate e vagliate dai paesi di primo approdo).

Ma il difficile è risalire alla responsabilità iniziale per la «pietra miliare» che rende il paese di primo approdo la discarica dell’Unione europea (adesso praticamente solo l’Italia, da quando la Grecia può spedire gli irregolari in Turchia, pagata miliardi dall’Ue per tenerseli. La Spagna comincia ad avere dei flussi in più da quando Minniti ha fatto l’accordo con i libici: circa 8 mila quest’anno, il doppio dei loro arrivi nel 2016, ma sempre un’inezia rispetto agli sbarchi in Italia).

Il trattato di Dublino III è stato siglato nel 2013 perché quello precedente aveva una scadenza: dieci anni.

Il Dublino II era stato infatti firmato nel 2003 dal governo Berlusconi (ministro degli interni Giuseppe Pisanu, ministro degli esteri Gianfranco Fini), e si basava a sua volta sul precedente documento, che si chiamava non Trattato ma Convenzione di Dublino. A questo il trattato firmato dal governo di centrodestra aveva aggiunto l’obbligo di prendere le impronte digitali. Adesso sembra un’ovvietà ma allora erano forti le polemiche dei garantisti per i quali è una discriminazione prendere le impronte ai soli extracomunitari. Esse però sono servite a creare per la prima volta una banca dati ottenendo così l’emersione di identità e pratiche multiple.

Ma il principio che lega per sempre il migrante al paese di primo approdo non nasce neppure nel 2003, risale al 1° settembre 1997, quando andò in vigore l’originaria Convenzione di Dublino. Quell’anno in Italia era giunta un’ondata di migranti albanesi (scatenata dallo scandalo finanziario delle «piramidi») che per la prima volta non fu respinta dal governo dell’epoca, il Romano Prodi I (ministro degli interni Giorgio Napolitano, ministro degli esteri Lamberto Dini), ma lasciata sostanzialmente sulle spalle delle Caritas e delle parrocchie, prevalentemente pugliesi.

Dunque la Convenzione che andò in vigore nel 1997 era stata originariamente firmata nel lontano 1990, quando era al potere l’ultimo governo di Giulio Andreotti, l’Andreotti VI (ministro degli esteri Gianni De Michelis, Psi, ministro dell’interno Vincenzo Scotti, Dc). Come fa notare Claudio Borghi Aquilani sul suo account Twitter, all’epoca non solo non c’erano barconi di migliaia di uomini lanciati quotidianamente verso le coste dell’Italia, ma non esisteva neppure il concetto dell’entrata libera in un paese senza passare dall’ufficio passaporti e dal visto del paese ricevente.

Quella prima convenzione firmata a Dublino stabiliva una serie di criteri di assegnazione ai vari paesi dei richiedenti asilo in possesso di documenti, poi diceva cosa fare nei confronti degli irregolari: «Art.6. Se il richiedente l’asilo ha varcato irregolarmente, per via terrestre, marittima o aerea, in provenienza da uno Stato non membro delle Comunità europee, la frontiera di uno Stato membro, e se il suo ingresso attraverso detta frontiera può essere provato, l’esame della domanda di asilo è di competenza di quest’ultimo Stato membro». All’epoca era una norma di semplice buon senso, c’erano ancora le frontiere anche all’interno dell’Europa, figuriamoci se si poteva entrare tranquillamente dall’esterno, tant’è vero che proprio quel governo lì fece fronte l’anno dopo al primo monumentale sbarco degli albanesi in Puglia. Era l’agosto 1991 e il Viminale dispose un ponte aereo che in una sola notte riportò in Albania 17.467 persone arrivate in Puglia sei giorni prima, con l’impiego di 3 mila uomini e l’intera 46esima aerobrigata, in tandem con l’Alitalia.

POTETE SEGUIRCI ANCHE SU TELEGRAM ⤵️
https://t.me/mercurius5giornale

 

22 Marzo 2023 – Redazione – Articolo a cura di Imogen Foulkes

 

La Dichiarazione universale dei diritti umani del 1948 è nata dal desiderio di garantire che gli orrori della Seconda guerra mondiale non si ripetessero. Nell’anno del 75° anniversario del documento, SWI swissinfo.ch analizza le sue origini e la sua validità nel contesto attuale.

La Seconda guerra mondiale è stata la più letale della storia. Morirono circa 70 milioni di persone, tra cui 50 milioni di civili. La Germania nazista sterminò circa sei milioni di ebrei ed ebree – due terzi della popolazione ebraica europea – che furono sistematicamente perseguitati, depredati delle loro proprietà e deportati con la forza, insieme ad altre minoranze considerate indesiderabili, per morire nei campi di concentramento. Le popolazioni civili sono state bombardate. I Paesi sono stati invasi e i loro cittadini e cittadine sono stati costretti al lavoro forzato. Ci furono stupri di massa, uccisioni e distruzioni.

Lottando per emergere da tale disumanità, e con le Nazioni Unite che subentravano alla screditata Società delle Nazioni che non era riuscita a fermare la guerra, i leader mondiali dissero: “Mai più”. Decisero di completare la Carta delle Nazioni Unite con una serie di principi che garantissero i diritti di ogni individuo ovunque nel mondo.

COME NACQUE LA DICHIARAZIONE?

La questione fu affrontata nella prima sessione dell’Assemblea generale delle Nazioni Unite nel 1946 e affidata alla Commissione per i diritti umani, predecessore del Consiglio per i diritti umani con sede a Ginevra.

La Commissione per i diritti umani si riunì per la prima volta nel gennaio 1947 a New York e istituì un comitato per la redazione della Dichiarazione, presieduto da Eleanor Roosevelt, vedova del presidente degli Stati Uniti Franklin D. Roosevelt. Tutti i membri del comitato svolsero ruoli chiave, ma Eleanor Roosevelt fu riconosciuta come la forza trainante per l’adozione della Dichiarazione. La descrisse come una “Magna Carta” per i diritti umani.

Anche altre donne hanno avuto un ruolo. Ad esempio, all’indiana Hansa Mehta, membro della sottocommissione per lo statuto delle donne, si attribuisce il merito di aver fatto cambiare le prime parole della Dichiarazione da “tutti gli uomini nascono liberi e uguali” a “tutti gli esseri umani nascono liberi e uguali”.

La bozza finale fu presentata alla Commissione per i diritti umani, riunita a Ginevra. Il documento fu inviato a tutti i 58 Stati membri dell’ONU dell’epoca per eventuali commenti. Il 10 dicembre 1948, durante una sessione a Parigi, l’Assemblea Generale delle Nazioni Unite adottò la Dichiarazione universale dei diritti umani.

Un “testo miracoloso”

La Dichiarazione afferma che “tutti gli esseri umani nascono liberi e uguali in dignità e diritti”. Aggiunge che devono agire gli uni verso gli altri in uno spirito di fratellanza e che a ogni individuo spettano tutti i diritti e tutte le libertà enunciati nella Dichiarazione “senza distinzione alcuna, per ragioni di razza, di colore, di sesso, di lingua, di religione, di opinione politica o di altro genere, di origine nazionale o sociale, di ricchezza, di nascita o di altra condizione”. La Dichiarazione sancisce che “ogni individuo ha diritto alla vita, alla libertà e alla sicurezza della propria persona” e che “nessun individuo può essere tenuto in stato di schiavitù”. La Dichiarazione considera inoltre la libertà di movimento, di parola e di associazione un diritto umano.”

L’Alto Commissario delle Nazioni Unite per i diritti umani, l’austriaco Volker Türk, l’ha definita “un testo molto completo e miracoloso”. Per la giurista sudafricana Navanethem Pillay, Alto Commissario ONU dal 2008 al 2014, la Dichiarazione è una fonte di ispirazione. “Immaginate cosa ha significato per me e per tutti e tutte noi che eravamo sotto l’apartheid e conoscevamo solo le leggi razziste”, ha dichiarato in un’intervista a SWI swissinfo.ch.

Phil Lynch, direttore della ONG International Service for Human Rights (ISHRLink esterno), con sede a Ginevra, afferma che la Dichiarazione “ha avuto un impatto trasformativo sulle persone e sulle comunità di tutto il mondo, informando e ispirando lo sviluppo di leggi e politiche nazionali, sostenendo le richieste dei movimenti sociali e degli attori della società civile, fornendo un importante strumento per chi difende i diritti umani e sancendo valori universali che uniscono l’umanità e stabiliscono le condizioni affinché tutte le persone possano vivere con dignità”.

Come ha dato vita a trattati internazionali

La Dichiarazione è considerata la base del Diritto internazionale dei diritti umani. I suoi principi sono stati precisati in una serie di trattati internazionali riguardanti, ad esempio, l’eliminazione di tutte le forme di discriminazione (1965), i diritti civili e politici (1966), i diritti economici, sociali e culturali (1966), l’eliminazione di tutte le forme di discriminazione nei confronti delle donne (1979), la lotta contro la tortura (1984) e i diritti dell’infanzia (1989).

Navanethem Pillay considera la Dichiarazione come “la nostra legge fondamentale”, che stabilisce i principi fondamentali da cui derivano queste convenzioni. Alcuni Paesi, come il Sudafrica di Mandela, ne hanno incorporato i principi nella loro Costituzione nazionale.

TUTTAVIA , RESTA IL PROBLEMA DI CONVINCERE I GOVERNI A RISPETTARLI. IN TROPPI CASI UNA MERA ILLUSIONE!!!!!!

“Stiamo perdendo l’essenza di ciò che la Dichiarazione universale dei diritti umani era e doveva essere in risposta agli eventi catastrofici della Seconda guerra mondiale”, ha dichiarato Türk a SWI swissinfo.ch in una recente intervista esclusiva. “In tante situazioni nel mondo c’è di nuovo questo disprezzo per le altre persone, il disprezzo per l’essere umano, il disprezzo per la dignità umana”.

Chi vigila?

Nel giugno 1993, le Nazioni Unite organizzarono la Conferenza mondiale sui diritti umani a Vienna, in Austria. Il risultato principale furono la Dichiarazione e il Programma d’azione di Vienna, volti a rafforzare il lavoro sui diritti umani in tutto il mondo. La Dichiarazione di Vienna chiedeva anche di rafforzare la capacità di monitoraggio dell’ONU, istituendo tra le varie cose la carica di Alto Commissario per i diritti umani. Questa posizione è stata istituita ufficialmente nel dicembre 1993.

Oggi l’ONU dispone di numerosi modi per monitorare la situazione e cercare di far sì che ogni Stato rispetti i diritti umani. Gli “Organi dei trattati” controllano il modo in cui i Governi applicano le convenzioni sui diritti umani, mentre i relatori e le relatrici speciali, così come le missioni d’inchiesta composte da esperti ed esperte indipendenti, esaminano questioni specifiche sui diritti umani o situazioni nei Paesi.

Ad esempio, il Comitato per i diritti dell’infanzia ha recentemente esaminato l’attuazione del trattato omonimo da parte di sette Paesi, esprimendo serie preoccupazioni sulle punizioni corporali in Azerbaigian e sulla violenza sessuale contro le ragazze in Bolivia. I Paesi sono chiamati a riferire su come hanno seguito le raccomandazioni delle Nazioni Unite.

Un altro esempio è quello dei relatori e relatrici speciali che recentemente hanno esortato il presidente dello Zimbabwe a respingere un disegno di legge che, secondo loro, limiterebbe fortemente lo spazio civico e il diritto alla libertà di associazione.

Questi organismi ed esperti/e riferiscono al Consiglio per i diritti umani, che si riunisce almeno tre volte l’anno a Ginevra.

La Dichiarazione necessita di un aggiornamento?

“Direi che c’è bisogno di aggiornarla, per enunciare altri diritti che non sono stati sanciti come avrebbero dovuto: i diritti delle popolazioni indigene, i diritti delle donne, i diritti dei bambini”, afferma Navanethem Pillay. “Per il resto, ho la massima fiducia nella Dichiarazione come standard. Non si possono contestare questi principi”.

Phil Lynch sostiene dal canto suo che più che di un aggiornamento, la Dichiarazione avrebbe bisogno di essere attuata, in modo che gli Stati e gli attori non statali che violano i diritti umani siano chiamati a risponderne. Ciò richiede leggi e Costituzioni nazionali che sanciscano i diritti, tribunali e corti indipendenti e “una società civile vivace e indipendente e persone che difendono i diritti umani”.

Secondo l’attuale Alto Commissario dell’ONU Volker Türk, (A PAROLE SCRIVIAMO NOI) la Dichiarazione non deve essere vista “come una reliquia”, ma come un insieme di principi fondamentali che forniscono risposte ai problemi attuali e futuri.

Durante una conferenza stampa tenutasi in dicembre, alla domanda se avrebbe cambiato qualcosa nella Dichiarazione redatta 75 anni fa, Türk ha risposto che avrebbe piuttosto chiesto che il documento venisse inteso alla luce delle preoccupazioni attuali. “Vorrei dire a tutti i leader di oggi: leggete la Dichiarazione universale dei diritti umani, usatela e consideratela come un obbligo ad agire”.

VORREMMO DIRE ALL’ONU, INVECE, CHE DOVREBBE VIGILARE E FAR METTERE IN ATTO TALI DIRITTI, E SMETTERE DI PONTIFICARE AL VENTO. VORREMMO RICORDARE ALL’ONU CHE E’ NATA PER AGIRE CONCRETAMENTE LADDOVE NECESSARIO!

POTETE SEGUIRCI ANCHE SU TELEGRAM ⤵️

https://t.me/mercurius5giornale

21 Marzo 2023 – Redazione – Traduzione di una relazione del Prof. Genovesi –  Dolcevitaonline

 

L’elettrosensibilità o ipersensibilità elettromagnetica (Ehs), da alcuni definita anche con il nome altisonante di allergia al wi-fi, è la presunta malattia di cui si parla fin dal 1932 i cui sintomi sarebbero causati, legati o aggravati dall’esposizione ai campi elettromagnetici, ossia dall’inquinamento elettromagnetico.

Per parlare di elettrosensibilita’ occorre partire dalla prima infanzia. I campi elettromagnetici a diverse frequenze sono in grado di produrre una variazione dei flussi di calcio che attraversano la membrana cellulare. Queste variazioni di flusso, rispetto ad un’esposizione chimica o fisica, sono normali purché rientrino nell’idoneità strutturale della membrana cellulare stessa. Il Prof. Genovesi, medico endocrinologo, immunologo, nonché ricercatore di chiara fama internazionale, del Policlinico Umberto I di Roma, ha potuto constatare, nel corso dei suoi studi, concomitanze di sintomatologie correlate alla sensibilità chimica, all’elettrosensibilita’, alla fatica cronica e alla Fibromialgia, che non sono entità patologiche diverse, ma sono combinazioni concomitanti dal punto di vista patogenetico.

Potremmo classificare le concomitanze

– Caratteristiche genetiche

– Maggiore predisposizione allo sviluppo di   meccanismi di stress ossidstivo

– Concomitanza di meccanismi epigenetici , di condizioni sopraggiunte nel tempo, sia di tipo chimico che di tipo biofisico.

L’epigenetica riguarda quelle condizioni che vengono acquisite nel tempo e che riescono a rimodulare ed interferire con i geni, influenzata da fattori esterni di tipo psicologico. Questa condizione si correla anche ad una composizione di membrane cellulari in cui ricorre spesso un’inadeguata distribuzione degli acidi grassi saturi, insaturi e polinsaturi, che molto spesso sono alterati strutturalmente sia da fenomeni di stress ossidativo, ma anche dal fatto che le nostre fonti alimentari provengono da alimenti che subiscono una cottura spesso sd alte temperature, alterando così la struttura morfologica degli alimenti e delle proteine, che entreranno nella composizione delle membrane cellulari.

Inoltre, abbiamo una tendenza spiccata ad avere un deficit di Vitamina D, perché non sempre trascorriamo del tempo alla luce del sole.La grande parte delle fonti alimentari sono costituiti da Vit. D inattiva! L’attivazione epatorenale a volte e’ interferita da fenomeni ambientali, creando Disbiosi intestinale.

RIEPILOGANDO: LE CAUSE PIÙ FREQUENTI SONO:

– DISBIOSI INTESTINALE 

– DEFICIT DI VITAMINA C

– FATTORI GENETICI ED EPIGENETICI

—————————————————————

DISBIOSI

La disbiosi o disbatteriosi intestinale è un’alterazione o mancata omeostasidella microflora / microbiota normalmente presente nel colon.

In questa sede è infatti presente una straordinaria quantità e varietà di microrganismi – in un grammo di feci si rivengono circa 100 miliardi di cellulevive – anche se la maggior parte di questi è costituita da batteri.

Sono forme molto comuni di disbiosi anche la crescita eccessiva di microorganismi nel tratto del tenue, tra i quali:

  • batteri (SIBO);
  • funghi (SIFO).

Il disturbo è da tenere sotto controllo in quanto si verificano connessioni linfatiche di tipo enteroencefalico (collegamento linfatico tra intestìno e cervello) che implicano un’alterazione della flora entropica intestinale, favorendo fenomeni di tipo neurotossico.

Questa situazione richiede un coacervo di elementi diagnostici, pochissimi dei quali si trovano nelle strutture sanitarie pubbliche. Chiediamoci perché?!
infatti se il paziente vuole studiare ed analizzare se stesso in maniera approfondita, o spende un sacco di soldi privatamente, cercando i medici giusti, o, come si dice in gergo, si attacca al tram!

ES:

– aLa Vit.D è in convenzione Asl
– Lo studio del microbiota no
– Lo studio epigenetico no

Questi studi sono stati condotti solo grazie alla buona volontà di un gruppo di medici sparsi in modo non omogeneo su tutto il territorio nazionale, grazie si quali sono stati distribuiti ai pazienti, questionari per verificare quanti fossero i casi di elettrosensibilita’.

PERCHE’ UN CAMPO ELETTROMAGNETICO PUÒ CREARE DISAGIO E MALESSERE?

La questione è stata affrontata negli anni ‘90 da un gruppo di ricercatori che avevano constststo quanto l’esposizione si campi elettromagnetici (WI-FI in particolare), producesse un aumento della permeabilità della barriera ematocefalica. Questo processo va correlato all’interazione chimica che, esasperata, crea neurotossicita’.

L’uomo moderno conduce la propria esistenza immerso sempre più profondamente all’interno di un vero e proprio mare di campi elettromagnetici della più svariata natura. Da quelli a bassa frequenza generati dagli elettrodotti, dagli impianti elettrici delle abitazioni e da qualsiasi apparecchiatura elettronica domestica o industriale, fino a quelli ad alta frequenza riconducibili ai telefoni cellulari, al WI- FI, ai cordless, al bluetooth, a qualsiasi dispositivo lavori “senza fili”, alle stazioni radio base, ai ripetitori televisivi, ai radar e molto altro ancora.

Le conseguenze sul corpo umano a lungo termine di una simile immersione all’interno di questo mare elettromagnetico non sono al momento note, mancando per forza di cose l’ausilio di studi attendibili ed esaustivi in materia. Ho scritto per forza di cose, dal momento che sarebbe materialmente impossibile produrre studi di questo genere, dal momento che se è pur vero che gli elettrodomestici e le antenne televisive esistono da quasi un secolo, è altrettanto vero che l’incremento esponenziale all’esposizione ad ogni sorta di campi elettromagnetici riguarda esclusivamente gli ultimi vent’anni, un tempo assolutamente troppo breve per prendere coscienza delle conseguenze a lungo termine sulla salute umana.

In linea generale l’esposizione all’inquinamento elettromagnetico è stata messa in relazione con larga parte delle “malattie del progresso”, dai tumori alle malattie autoimmuni, a quelle neurologiche degenerative, alle allergie, fino all’infertilità, ma si tratta ovviamente di supposizioni che pur possedendo solide basi scientifiche non sono supportate da studi e ricerche che abbiano prodotto risultati incontrovertibili.

Quello che invece sappiamo con sicurezza è che una minoranza di noi, circa il 3% della popolazione mondiale secondo l’OMS, soffre di elettrosensibilità e manifesta in maniera più o meno grave una sorta di allergia nei confronti dei campi elettromagnetici. I disturbi più frequenti, che possono comparire con diversi livelli di gravità e scompaiono qualora il soggetto si allontani dalla fonte elettromagnetica, sono cefalea, insonnia, debolezza, riduzione della memoria e deficit di concentrazione, sindromi dolorose, eruzioni cutanee, disturbi uditivi, visivi e dell’equilibrio, alterazioni dell’umore, sbalzi pressori e tachicardia.

I sintomi in questione possono manifestarsi in forma lieve ed essere per questo tollerabili, ma anche in forma grave, fino al punto da compromettere seriamente l’efficienza fisica e la qualità della vita costituendo un vero e proprio handicap. Le terapie farmacologiche, oltretutto mirate semplicemente a lenire i sintomi e non certo a risolvere il problema, si sono rivelate del tutto inefficaci e l’unica vera cura sembra essere costituita dall’evitare l’esposizione ai campi elettromagnetici, un’alchimia che per il malato sta diventando più difficile ogni giorno che passa, all’interno di un mondo sempre più “wireless”.

La OMS e la comunità scientifica si sono fino ad oggi rifiutate di riconoscere l’elettrosensibilità come una vera e propria malattia, preferendo considerarla una sorta di suggestione psicologica, privando in questo modo i soggetti colpiti da questa patologia di qualsiasi tutela e trattandoli alla stessa stregua di un malato psichiatrico. Nonostante ciò il Consiglio D’Europa in una risoluzione del 2011 ha raccomandato agli stati membri di «prestare un’attenzione particolare alle persone elettrosensibili che soffrono di una sindrome di intolleranza ai campi elettromagnetici e di introdurre specifiche misure per proteggerli, inclusa la creazione di aree wave-free, non coperte dalle reti wireless» ed in Svezia la sindrome, pur non essendo riconosciuta come malattia, è riconosciuta dal governo come causa d’invalidità funzionale.

Per chi soffre di elettrosensibilità e molte volte si trova nella condizione di vedere compromessa la propria vita, il lavoro e gli affetti familiari, si tratta insomma di un calvario senza fine e adesso che sta per dilagare la nuova tecnologia 5G un nuovo “mostro” si affaccia spaventoso all’orizzonte.

POTETE SEGUIRCI ANCHE SU TELEGRAM ⤵️
https://t.me/mercurius5giornale

I20 Marzo 2023 – Redazione – Introduzione di Marzia MC Chiocchi – articolo di Ugo Natale (Gazzetta Ennese)

 

Quante volte dal 2008 ad oggi (fallimento della Leheman Brothers negli USA) le Banche, i titoli e tutto ciò che al settore finanziario è collegato, hanno fatto tremare i risparmiatori! Pensiamo ai titoli spazzatura venduti nel mondo a gente comune che, su questi, ha investito grosse somme di danaro tra cui, spesso, i risparmi di una vita! Nel 2015 furono 4 le banche italiane  finite in default: Banca Etruria, Banca Marche, Cassa di Risparmio di Ferrara e CariChieti, e, per conseguenza, furono numerosi gli investitori che persero i propri soldi. Secondo una spiegazione semplicistica, la colpa fu attribuita ad un decreto governativo, ma in realtà, studiando la genesi della storia, dobbiamo andare indietro di un paio d’anni, quando emersero i primi problemi per responsabilità degli amministratori e degli istituti bancari, senza che il Governo Italiano, l’Unione Europea, la Banca d’Italia, la Consob e i politici intervenissero in qualche modo. Tanto che centoquarantamila risparmiatori persero in totale 430 milioni di euro.

Le banche hanno sempre giocato sporco, ma negli ultimi 20 anni ancor di più. Ed e’ notizia di due giorni fa che la BCE (Banca Centrale Europea) ha alzato ancora di più i tassi sui mutui, sferrando una nuova batosta! Le élites che gestiscono fiumi di danaro hanno sempre fatto e continuano a far il cattivo tempo, anche se non sempre ne sono usciti puliti. A livello mondiale, dopo oltre 60 anni, nel 1999, fu Clinton a cambiare le regole, che innescarono quella miccia che, nel 1929, fece saltare il banco a Wall Street. Ma di questo parleremo alla fine dell’articolo.
Prima, e a tal proposito, racconterò la storia di un italoamericano, Ferdinand Pecora, che indagò sul martedì nero di Wall Street (New York 29 ottobre 1929) e che, per circa 60 anni, grazie alla sua legge, ha tutelato i nostri risparmi, anche a livello mondiale. Ecco chi era in questo articolo di Ugo Natale della Gazzetta Ennese ⤵️⤵️⤵️⤵️⤵️

Cercando l’archivio di Time magazine per una ricerca, mi sono imbattuto nella copertina del numero 24 del 12 Giugno 1933. La foto è quella di un distinto signore dai capelli neri, lineamenti marcati e un sigaro in bocca. Sotto la foto il nome: Ferdinand Pecora.

Fui incuriosito perché il nome era tipicamente Italiano, quasi sicuramente Siciliano. Perché incuriosito dunque? Perché quelli erano anni in cui tutti gli Italiani erano considerati “WOP” cioé guappi sporchi e truffaldini. Incuriosito, anche perché non avevo trovato alcun accenno di Ferdinand Pecora nel libro di Mangione e Morreale “La Storia, five centuries of the Italian American experience”. Mi sono allora mosso sul Web, e ho scoperto una storia che mi ha letteralmente scosso per la sua attualità.

Ferdinand Pecora era nato a Nicosia, provincia di Enna, il 6 Gennaio 1882. La famiglia era emigrata in America nel 1886. Da ragazzo Ferdinand era stato costretto a lasciare la scuola per un incidente sul lavoro subito dal padre. Ma il suo forte carattere e determinazione lo portarono a finire con successo la New York Law School fino a passare l’esame di abilitazione per lo Stato di New York nel 1911.

Nel 1918 fu nominato vice procuratore distrettuale per la città di New York, mettendosi in luce per le sue capacità investigative ma sopratutto per la sua onestà. Onestà che ovviamente dava fastidio all’apparato organizzativo (Tammany Hall) del Partito democratico cui Pecora apparteneva. Infatti fu proprio Tammany Hall che bocciò la nomina di Pecora a procuratore distrettuale nel 1929. A questo punto Pecora lasciò gli uffici della procura per la libera professione. Ma Pecora aveva già lasciato un importante traccia del suo onesto e capace lavoro in procura. Era riuscito infatti a fare chiudere più di cento “bucket shops”. Questi erano dei veri uffici clandestini dove si scommetteva sull’aumento o sulla diminuzione del valore di titoli e azioni ma anche sul prezzo a venire del petrolio, del grano etc. In considerazione del fatto che in effetti non avveniva nessun acquisto o vendita di azioni o altro, l’operazione era considerata illegale, perché il “bucket shop” operava come un casinò senza licenza e supervisione delle autorità di controllo.

Nel 1932 il Senato a maggioranza Repubblicana istituì una commissione d’inchiesta per stabilire le cause dell’orrendo crash di Wall Street nel 1929. Era chiaro a tutti che vi erano state irregolarità, vere e proprie attività criminali di tipico stampo mafioso tra le banche e gli istituti finanziari dell’epoca. I primi due presidenti della commissione furono mandati a casa con l’accusa di incompetenza mentre il terzo si dimise quando si rese conto che il Senato aveva posto evidenti limiti ai suoi poteri di investigatore. Nel 1933 a Pecora fu dato mandato di concludere l’inchiesta. Nel frattempo le elezioni avevano portato i Democratici a conquistare la maggioranza del Senato e il nuovo presidente Franklin D. Roosevelt si impegnò personalmente affinché l’inchiesta continuasse e andasse più a fondo possibile. In fin dei conti le cifre parlavano chiaro. Dal 1929 la metà delle banche Americane erano fallite e avevano portato nelle tombe i risparmi di nove milioni di famiglie Americane. Lo stock market aveva perso quasi l’80% del suo valore e secondo stime ufficiali vi erano 17 milioni di disoccupati. Pecora, con pieni poteri, si mise subito al lavoro, e con la sua squadra di avvocati e commercialisti passò al setaccio migliaia di documenti, ricevute fiscali, fatture, insomma tutto quello che poteva interessare. Pecora aveva una prodigiosa memoria e una grandissima capacità di mettere insieme dettagli che ad altri sembravano scollati dal grande mosaico che lo stesso Pecora stava costruendo.

Il primo testimone fu “Sunshine Charley” Mitchell presidente della National City Bank, oggi Citicorp. Il mariulo sotto pressione ammise che sin dal 1916 la banca trafficava in titoli, contravvenendo a quanto prevedeva la legge d’allora. In più Pecora lo mise di fronte al fatto compiuto quando gli fece ammettere di avere evaso le tasse nel 1929 ricorrendo al famoso intrallazzo, per i ricchi, del prestito ricevuto dalla banca. Mitchell dovette anche ammettere chetra il 1927 e il 1928 la National City Bank collocò sul mercato 90 milioni di dollari di titoli spazzatura del governo Peruviano contrabbandandoli per ottimi. E questo era solamente una delle attività criminali che vennero alla luce grazie alla “Pecora Commission”. In un articolo a proposito di tutto il liquame che stava venendo a galla, Time magazine coniò il termine “Banksters” peri identificare i tipi come Mitchell mentre il Senatore del Montana Burton Wheeler disse che quanto meno questi individui avrebbero dovuto essere trattati alla stregua di Al Capone.

Un altro testimone eccellente fu J.P.Morgan Jr.. Quando Pecora gli chiese se avesse pagato le tasse sul reddito per gli anni 1930, ‘31, ‘32 Morgan, dall’alto della sua proverbiale arroganza, disse di non ricordare, al che Pecora presentò documenti che dimostravano che la risposta del bankster avrebbe dovuto essere ‘No’.

ADESSO LEGGETE ATTENTAMENTE QUESTI DUE PASSAGGI PERCHÉ SONO LA CONSEGUENZA LOGICA DI TUTTO IL CAOS CHE STIAMO VIVENDO ⤵️⤵️⤵️⤵️⤵️

Alla fine il fantastico lavoro di Pecora e dei suoi collaboratori dimostrò che le attività criminali di banche e istituti finanziari avevano portato la Great Depression del 1929 e avevano continuato a mietere vittime negli anni a venire. Il governo Roosevelt, intanto, varò una serie di misure che effettivamente limitavano la manovrabilità di pirati e sciacalli che operavano tra le banche e gli istituti finanziari. Nel 1933 fu varata la Security Act e nel 1934 la Security Exchange Act mentre nel 1933 vide la luce la Famosa legge Glass-Steagall Act che tra l’altro fortemente limitava la speculazione incontrollata e criminale delle banche e dei mercati finanziari.

Nel Novembre del 1999 il Presidente Democratico, si fa per dire, Clinton firmò la legge che di fatto smantellava il Glas Seagall Act aprendo così le porte del pollaio che fu immediatamente invaso dagli sciacalli e dai lupi di Wall Street.

La straordinaria attualità dei risultati della “Pecora Commission” è che per esempio mentre si parlava di sacrifici i “pezzi da novanta” delle banche si arricchivano in modo vergognoso rispetto ai lavoratori e impiegati. 1929 o 2009?

L’inchiesta provò, anche che per esempio come i trader fossero incentivati dietro compenso di laute provvigioni a vendere quanti più titoli potessero anche quelli spazzatura e tossici. 1929 o 2009? Insomma l’attualità della “Pecora Commission” è addirittura imbarazzante se si pensa cheFerdinand Pecora l’aveva prevista già nel 1939 col suo libro “Wall Street under oath”. Ferdinand Pecora, un grande onesto Italiano e un eroe Americano.

POTETE SEGUIRCI ANCHE SU TELEGRAM ⤵️
https://t.me/mercurius5giornale

 

18 Marzo 2023 – Rredazione – Botteega.it

Ma quante farine esistono?Semola, farina 00, farina 0, farina 1, farina 2, integrale, farina di farro… Cosa significano questi nomi e questi numeri? Tutto comincia con un cereale e un mulino. Non sempre un cereale a dire il vero, ma nella maggior parte dei casi si. Innanzitutto, quando si parla di farina in generale, ci riferiamo a quella di grano tenero (Triticum Aestivum), anche se in commercio ormai ne esistono di tipi diversi: di cereali, frutta secca oleosa, e addirittura di legumi.

IL PERCHÉ DEI NUMERI DELLA FARINA:”L’ABBURATAMENTO”

Quando la parola farina è seguita da un numero, sappiamo di essere di fronte ad uno sfarinato ricavato dalla macinazione del grano tenero. I vari numeri corrispondono al suo grado di raffinazione, in modo inversamente proporzionale: la farina 00 è la più raffinata, mentre la farina integrale, come suggerisce il nome stesso, è quella più completa, ovvero quella che mantiene le caratteristiche del seme. Ma occorre sapere che questa classificazione vale solo per la farina di grano tenero, e per comprendere la differenza che c’è tra farina 00, 0, 1, 2 e integrale, bisogna partire dalla parola abburattamento.

PER SEMPLIFICARE POSSIAMO IMMAGINARE IL FRUTTO SECCO DEL GRANO COME FORMATO DA 3 PARTI:

crusca e cruschello (esterno)
• endosperma (interno)
germe di grano (nella parte inferiore dell’endosperma)

Il tasso di abburattamento di una farina indica quanta parte del chicco è stata utilizzata per produrla. Quindi è direttamente proporzionale alla crusca contenuta.

Nel caso delle farine integrali, che utilizzano anche la crusca del grano, l’abburattamento sarà maggiore. Quando invece le farine sono chiare, fini, leggere, l’abburattamento è basso, perché si usa principalmente la parte centrale del chicco e si elimina il rivestimento esterno. Quindi, la quantità di crusca contenuta, è il criterio in base al quale si classificano le farine di grano tenero secondo la legge italiana, come stabilito dal decreto n.187 del 9 febbraio 2001. Il problema di questa classificazione è che permette di chiamare integrale anche una farina che non contiene davvero tutto il chicco. E questo lo vedremo più avanti!

GRADO DI ABBURATAMENTO DELLE FARINO

  • Farina 00 – 50%
  • Farina 0 – 72%
  • Farina 1 – 80%
  • Farina 2 – 85%
  • Farina integrale – 100%

FARINA 00

La farina 00 è la più raffinata di tutte e si può ottenere solo attraverso mulini a cilindri, che eliminano crusca e germe per conservare e macinare molto finemente solo l’endosperma, la parte interna del chicco. Chiamata anche fior di farina, è priva di crusca e di colore bianco candido, è finissima e conferisce ai prodotti una gran morbidezza. Dal punto di vista nutrizionale contiene principalmente solo amido (68,7 g su 100 g), quindi tanti carboidrati (77,3 g) e pochissime proteine (11 g), fibre (2,2 g) e sali minerali (0,5%). In cucina è l’ideale per dolci, creme, salse e pasta fresca all’uovo.

FARINA 0

La farina 0 è simile alla 00 ma contiene un po’ di crusca, pur restando molto fine e bianca. La 0 è il tipo di farina più raffinata che si possa ottenere con una macinazione a pietra, lenta e a bassa temperatura. La legge però consente di produrla anche dalla farina 00 con l’aggiunta di crusca. Si tratta in questo caso di farina ri-assemblata. Rispetto alla 00, la 0 ha una percentuale leggermente maggiore di proteine (11,5 g su 100 g), fibre (2,9 g su 100 g), sali minerali e leggermente meno amido (67,7 g su 100 g). Gli utilizzi sono praticamente gli stessi della farina 00.

FARINA 1

La 1 è leggermente meno raffinata della 0, rispetto alla quale ha una maggior quantità di crusca (membrana esterna del seme) e cruschello (pellicola intermedia) ed è leggermente più scura. Si ottiene con la molitura a pietra e successivo passaggio in un setaccio (buratto). È l’ideale per la preparazione di pane e pizza, ma per dolci che non devono svilupparsi molto in altezza.

FARINA 2

La 2 è chiamata anche farina semi-integrale, perché non si differenzia molto da quest’ultima. È considerata un buon compromesso tra apporto di sostanze nutritive, gusto e leggerezza dei prodotti. Dà risultati più vicini al gusto moderno rispetto ad un’integrale. Si può usare in cucina più o meno come la farina 1, ma essendo più pesante darà probabilmente prodotti più densi e meno soffici. Rispetto all’integrale, invece, la 2 è più facile da lavorare e far lievitare.

FARINA INTEGRALE

La farina integrale è quella che contiene tutte le parti del chicco – crusca, germe ed endosperma – e si può ottenere solo con la molitura a pietra. Sono però in commercio molte farine dette integrali ma ATTENZIONE….ottenute aggiungendo crusca alla farina 00: le cosiddette farine integrali riassemblate o ricostituite. Ma tornando alla farina integrale vera – o completa: gli apporti di vitamine e altri elementi (come calcio, fosforo e magnesio) sono praticamente intatti e molto più alti rispetto alle altre farine. Il livello di amido risulta il più basso tra le diverse farine (59,7 g su 100 g), così come il livello di carboidrati (67,8 g su 100 g). La quantità di proteine (11,9 g su 100 g), sali minerali (2,2%) e fibre alimentari (8,4 g su 100 g) è invece maggiore che in tutte le altre farine. Setacciando la farina integrale macinata a pietra, si possono ottenere le farine 0, 1, 2.

FARINA MANITOBA

Ecco uno sfarinato di grano tenero il cui nome non dipende dalla lavorazione ma dal contenuto in gliadina e glutenina: la farina Manitoba sviluppa molto glutine e può sostenere lunghe lievitazioni. Una farina di forza, particolarmente utile a chi confeziona lievitati che richiedono un grande sviluppo in altezza, come panettoni e colombe. Questa farina prende il nome dall’omonima regione del Canada in cui è stata coltivata inizialmente, ma oggi la parola Manitoba indica tutte le farine di grano tenero con un’alta percentuale di glutine – il 15% circa, contro un 10% circa di quelle più comuni.

SEMOLA

Con la parola semola ci riferiamo di solito a uno sfarinato di grano duro, un tipo di frumento tipico del Sud Italia. La semola è gialla e profumata e più grossolana rispetto alla farina di grano tenero, con granelli molto spigolosi. Si usa soprattutto per preparare la pasta, ma anche nei pani e nelle pizze rustici, miscelata con altri sfarinati. È più pesante della maggior parte delle farine di grano tenero e difficile da lavorare, per questo si tende a sostituirla o ad usarla in piccole percentuali. Non è un ingrediente della pasticceria italiana, ma compare in alcune ricette dolci regionali, soprattutto nelle frolle, come la pasta violada.

SEMOLA RIMACINATA

Con una seconda macinazione la semola diventa più soffice e leggera: si parla in questo caso di rimacinato di semola o semola rimacinata o più raramente di semolato. In panificazione, il  rimacinato si preferisce alla semola perché è più facile da lavorare e permette una maggiore crescita degli impasti. Semola e semola rimacinata sono oggi prodotte perlopiù con mulini a cilindri, ma è anche possibile trovare in commercio la semola macinata a pietra: quella ‘normale’, privata della maggior parte della crusca, e quella integrale.

FARINA DI GRANO DURO

La farina di grano duro o fiore è la parte più sottile della semola, che si ottiene dopo vari passaggi in setacci dalle maglie sempre più fitte. Oggi è difficile trovarla in commercio, ma una volta era l’ingrediente base dei dolci tradizionali sardi e dei pani più pregiati – chiamata in sardo su scetti.

FARINA DI KAMUT

La farina di Kamut è uno sfarinato ottenuto da un grano molto proteico appartenente alla varietà Khorasan, da sempre coltivata in Medioriente. Kamut infatti non è il nome del cereale ma un marchio registrato da un’azienda americana. La farina di Kamut è abbastanza costosa, ma esistono farine simili: quelle di grano Khorasan, coltivato anche in Italia col nome di Saragolla.

FARINA DI FARRO

Il farro è un antenato del grano tenero, rispetto al quale contiene più proteine. Per questo la farina di farro è simile alla farina più convenzionale, ma più scura e saporita, e può sostituire la farina di frumento tenero ovunque, per un risultato più rustico. Per sfruttare al meglio le proprietà del cereale, meglio usare una farina di farro integrale.

FARINA D’ORZO

La farina d’orzo ha un profilo nutrizionale simile a quella di grano tenero, ma molto meno glutine. Usarla in purezza nella preparazione del pane non è una buona idea se volete un prodotto leggero ed alveolato. Si può comunque miscelare a farine più forti per aggiungere sapore e rusticità. Stesso discorso per i dolci: meglio usarla per quelli che non richiedono troppa leggerezza e sofficità, come biscotti o ciambelloni.

FARINA DI SEGALE

La farina di segale è scura e pesante e contiene poco glutine. Ci si preparano quei saporitissimi pani tedeschi compatti e umidi, pieni di semini. Ma usarne un pochino in aggiunta alle farine a cui siamo più abituati può dare al pane un sapore davvero interessante senza comprometterne la lievitazione.

FARINA DI RISO

La farina di riso è bianchissima, impalpabile e dolce, e non contiene glutine. Può sostituire la farina di grano tenero nei dolci che non devono svilupparsi molto in altezza, anche se il sapore e la consistenza sono chiaramente riconoscibili. Ad esempio: frolle, biscotti e torte dense e basse tipo tarte tatin. È ottima anche per impanature e fritture croccantissime e leggere, come la famosa tempura. In tutti i casi è meglio usare la farina di riso integrale, che contiene più fibre e ha un indice glicemico leggermente più basso.

FARINA DI MAIS

La farina di mais è gialla, granulosa e saporita e non contiene glutine. Esiste in tre varianti:

  • bramata, la più grossa
  • fioretto, di media granulometria
  • fumetto, la più sottile

La farina bramata dà croccantezza e si presta molto alle impanature e all’insemolatura del pane. La farina fioretto è quella più usata per la polenta, anche se è preferibile miscelata con quella bramata. La farina fumetto è la più adatta alla pasticceria secca, a biscotti e frolle. Come non amare le paste di meliga piemontesi? Il mais può essere anche bianco, ma la farina di questo cereale è molto più rara.

FARINA DI MIGLIO

La farina di miglio è scura, pesante e leggermente amarognola. Il miglio è un cereale senza glutine molto digeribile ma con un sapore particolare, per questo è meglio usare lo sfarinato in combinazione con altre farine. Si presta alla preparazione di polente e crepes, dolci o salate e può essere aggiunto ai biscotti e in piccole dosi anche al pane.

FARINA D’AVENA

La farina d’avena è abbastanza leggera e dolce. Non dovrebbe contenere glutine, ma ai celiaci si consiglia di consumare solo quella certificata, che garantisce l’assenza di possibili contaminazioni. Come quella di riso, può sostituire facilmente la farina di grano nei dolci bassi e densi: biscotti, crepes, pancake, budini, creme. Ma si può anche aggiungere in piccole dosi agli impasti di pane e torte per dare morbidezza e sapore.

FARINA DI GRANO SARACENO

Il grano saraceno è uno pseudo cereale da cui si ottiene una farina senza glutine, usata per la polenta taragna della Valtellina: quella gialla e nera, che sa più di integrale. Nella Val di Non invece si prepara con la farina di grano saraceno una particolarissima torta arricchita da nocciole e marmellata di mirtilli.

Come altre farine senza glutine, può sostituire il grano nelle preparazioni che non richiedono lievitazione, ma bisogna essere preparati ad un sapore molto deciso. I bretoni la usano nelle loro crepes salate nere: le galettes.

FARINA DI CECI

La farina di ceci è l’unica farina di legumi abitualmente usata in Italia ed è ovviamente senza glutine. È l’ingrediente fondamentale della cecina toscana e della farinata ligure, schiacciate di farina e acqua, cotte al forno con tanto olio d’oliva. Ma la si può mangiare anche sotto forma di polenta, per cambiare un po’.

FARINA DI CASTAGNE

Questa farina si ottiene dalle castagne disidratate naturalmente, cioè semplicemente lasciate seccare. È un prodotto molto particolare, ma comune nelle zone di montagna. Sugli Appennini e sulle Alpi è tradizione cucinare il castagnaccio: una schiacciata semidolce – o semisalata? – con pinoli, uvetta e rosmarino.

Inutile dire che potete usare la farina di castagne anche per preparare crepes e pancakes senza glutine e naturalmente dolci.

FARINA DI MANDORLE

La farina di mandorle è una delle poche in Italia ad essere ricavata da un frutto secco oleoso. Tradizionalmente è molto usata in Sardegna e Sicilia, dove i dolci di pasta di mandorle sono all’ordine del giorno. Non dimentichiamoci però della Campania con la sua meravigliosa torta caprese! Oggi la farina di mandorle vive un vero boom mondiale come ingrediente fondamentale dei dolci gluten free e paleo, nei quali sostituisce completamente le farine di cereali.

FARINA DI NOCCIOLE

La farina di nocciole non è popolare come quella di mandorle, ma è un prodotto tipico del Piemonte e della Lombardia e l’ingrediente base dei buonissimi baci di dama. Oggi sta trovando sempre più spazio anche nella pasticceria senza glutine e paleo e può essere miscelata alle farine di cereali per ottenere fantastici biscotti, e torte.

FARINA DI COCCO

La farina di cocco seppur non tradizionale, è abbastanza diffusa e da decenni si usa soprattutto nei dolci al cioccolato. È un vero e proprio sfarinato, da non confondere col cocco rapé. Si può usare in modo del tutto simile alla farina di mandorle e cocco, tenendo presente il suo sapore inconfondibile che emerge sopra qualsiasi altro ingrediente.

ALTRE FARINE

Oggi nei negozi specializzati possiamo trovare farine di tutti i tipi, anche di legumi, come quelle di lenticchie o piselli, o di cereali rarissimi come il teff. Se hai voglia di sperimentare, puoi prepararci della pasta fresca colorata e gustosa. Non avrà la stessa consistenza di quella di grano duro, ma potrebbe stupirti piacevolmente.

POTETE SEGUIRCI ANCHE SU TELEGRAM ⤵️
https://t.me/mercurius5giornale

 

 

 

 

 

 

 

 

 

 

 

 

18 Marzo 2023 – Redazione – Fonte: botteega.it

 

In passato in Sardegna si produceva un particolare olio da una pianta della macchia mediterranea, il lentisco (o lentischio). L’olio di lentisco si usava come sostituto di quello d’oliva, ma anche come unguento dalle proprietà medicamentose.

Una tradizione che si è persa nel corso del ventesimo secolo, con l’aumento della disponibilità economica e la possibilità di acquistare l’olio d’oliva, e quindi di averlo anche se non lo si produce.

Come è facile immaginare, un tempo questo prodotto abbondava solo sulle tavole dei ricchi, anche perché non erano rare le annate cattive, con raccolti scarsi. I poveri spesso si arrangiavano con strutto e olio di olivastro.

Il nome sardo oll’e stincu sembrerebbe essere nato da un errore. Ollestincu (con le sue varianti ollistincu, stincu,  listincu) sarebbe il nome della bacca e non dell’olio o della pianta, che viene invece chiamata, a seconda della zona, chessa, modditzi o modditha.

Caratteristiche del lentisco

È una pianta tipica della macchia mediterranea, molto simile al mirto. È un arbusto sempreverde con una chioma molto fitta, che può arrivare fino a 3-4 metri d’altezza. In Sardegna, sotto i 400 metri s.l.m., lo si trova quasi in qualunque terreno non coltivato e lo si riconosce facilmente dalle bacche, rosse e tonde, che maturano d’inverno ma son ben visibili anche in estate e autunno.

In primavera, invece, lo troverete coperto di fiori.

Proprietà e usi

L’olio di lentisco ha interessanti proprietà nutrizionali e curative. Ha una resa piuttosto bassa (8-13%), ma la distribuzione di acidi grassi (acido oleico 50-60%, acido palmitico 20-30%, acido linoleico 10-25%) è simile a quella di piante oleaginose con resa molto più alta. In passato si usava per cucinare e alimentare le lanterne, ma anche per le sue proprietà medicinali. Era un unguento per lenire i dolori reumatici e per velocizzare la guarigione delle ferite.

Oggi quest’olio non viene quasi più consumato come alimento, ma ha trovato altre applicazioni, in particolare in campo dermatologico. Ha ottime proprietà lenitive, efficaci nella cura di irritazioni, bruciature, dermatiti e anche psoriasi. In generale ha un effetto benefico sulla pelle: combatte l’invecchiamento e stimola la rigenerazione cellulare, tonifica e idrata.

Grazie alla presenza di diverse sostanze benefiche, tra cui acidi grassi monoinsaturi, steroli e tocoferoli, aiuta a guarire da problemi respiratori come bronchiti e tracheiti.

Gli sono state inoltre riconosciute importanti proprietà antitumorali, essendo un valido aiuto nella regolarizzazione del colesterolo e dei trigliceridi nel sangue.

All’olio di lentisco vengono attribuite tante proprietà per la nostra salute. Vediamo quali sono i suoi benefici:

  • favorisce la regolarità intestinale
  • cura alcune patologie gastriche
  • aiuta a curare la gastrite perchè depotenzia il battere l’Helicobacter pylori, batterio che ne è la causa, grazie alle sue qualità antisettiche e antibatteriche
  • regolarizza il colesterolo e agisce positivamente sui trigliceridi
  • allevia i disturbi da reflusso gastrico e da ernia iatale
  • aiuta a sedare le infiammazioni delle vie aeree, sedare la tosse
  • previene la formazione di placca in caso di gengiviti e afte, e combatte l’alitosi. Si usa facendo risciacqui e gargarismi
  • ha un’azione antitumorale: sembra che l’olio di lentisco abbia una efficacia antitumorale nel combattere le cellule di alcuni tumori
  • è indicato nel trattamento di affezioni a livello uro-genitale quali cistiti, uretriti, ureteriti, leucorrea e prostatiti: si usa per lavaggi.

Tradizionalmente l’olio accompagna i rituali delle berbadoras, ovvero quelle figure femminili che, ancora oggi, curano certi malanni con riti di magia bianca, figli di un paganesimo ancestrale mischiato a cattolicesimo (is berbos/brebus).

Anticamente anche il resto della pianta di lentischio si usava in vari modi. Con le frasche si costruivano le scovittas (scopette) per pulire il forno a legna. Il mastice (resina) e le foglie servivano anche da dentifricio: spesso i pastori e i contadini le masticavano per gli effetti positivi su denti e gengive.

Dal tronco si ricava una resina usata sia per il trattamento delle gengiviti e infezioni del cavo orale, che per combattere i sintomi del reflusso gastroesofageo, grazie alle proprietà lenitive dell’olio essenziale che contiene. Viene chiamata Mastice di Chios, dal nome dell’isola greca dove è principalmente prodotta.

Come si fa l’olio di lentisco?

Per ottenere l’olio di lentisco vengono utilizzati 2 diversi metodi: spremitura a caldo e spremitura a freddo. Entrambi i metodi sono piuttosto lunghi e laboriosi, bisogna armarsi di tempo e pazienza.

Spremitura a caldo

In passato l’olio si ricavava dalla spremitura a caldo delle bacche. Il risultato era un prodotto dal sapore forte e acre, che doveva essere trattato prima dell’uso. Per addolcirlo, lo si scaldava in una padella con del pane, oppure ci si mettevano dei fichi a macerare. La lavorazione avveniva all’interno di contenitori di rame, chiamati caddargios. Oggi vengono utilizzati contenitori in acciaio inox. Inizialmente si faceva bollire l’acqua e venivano immerse le bacche per circa 15-20 minuti. In seguito veniva travasato il tutto in una sacca. A questo punto si eseguiva la spremitura (carcadura), aggiungendo ogni tanto dell’acqua.

In passato per questa operazione venivano utilizzati i piedi o una macina. Per eliminare le impurità e per facilitare la separazione, l’estratto ottenuto dalla spremitura veniva bollito un’altra volta. Tramite un colino veniva levata la parte più densa. Dopo un po’ di attesa, l’olio sale in superficie: a questo punto viene estratto con cucchiai e mestoli e filtrato nuovamente con panni di lino.

Spremitura a freddo

Questo metodo è il più consigliato in quanto preserva le qualità nutrizionali e medicinali e ritarda l’irrancidimento, allungando la conservazione. La resa è minore, ma si ottiene un prodotto di maggior qualità. Le bacche, una volta raccolte, subiscono una prima pressatura, tramite un pestello. Vengono pestate e mescolate fino ad ottenere una sorta di pasta. A questo punto, tramite un torchio, viene effettuata una seconda pressatura. Inizialmente si ricava del succo accompagnato da un po’ d’olio. Questo dovrà essere messo da una parte. In seguito, uscirà soprattutto olio.

Ora avviene la fase della filtrazione, per eliminare la parte più densa. A questo punto avviene la separazione dell’olio dal liquido: basterà attendere e l’olio salirà in superficie. Ora, armati di pazienza, bisognerà raccogliere l’olio con un cucchiaino o un oggetto simile. Questa operazione bisognerà ripeterla più volte, per riuscire a ottenere un olio più puro possibile.

 

POTETE SEGUIRCI ANCHE SU TELEGRAM ⤵️
https://t.me/mercurius5giornale

03 Marzo 2023 – Marzia MC Chiocchi – Fonte: Associazione CORVELVA

Nei giorni scorsi l’Associazione CORVELVA (Coordinamento della Regione Veneto per la libertà delle vaccinazioni) presente sul territorio dal 1993 ha organizzato, via streaming, un incontro con Cristiano Lugli, cofondatore di Renovation 21, associazione che lotta per la vita e la civiltà. Lugli ha parlato del Decreto Lorenzin approvato in piena estate il 31 Luglio 2017 di cui alleghiamo, a seguire, il link per correttezza e giusta informazione nei confronti di coloro che stanno leggendo e vorranno approfondire ⤵️⤵️⤵️⤵️⤵️
https://www.corvelva.it/area-legale/legge-119-2017/legge-119-2017-conversione-in-legge-con-modificazioni-del-decreto-legge-7-giugno-2017-n-73-recante-disposizioni-urgenti-in-materia-di-prevenzione-vaccinale.html

La riflessione ha avuto come punto di partenza l’aspetto etico – religioso che ha riguardato gli obblighi vaccinali, e che ha visto coinvolta la Chiesa e il Vaticano.

COSA AVVENNE IL 31 LUGLIO 2017?

Fu approvato il Decreto Legge con cui inizialmente si passava da 4 vaccini obbligatori per l’infanzia a 12 paventando, anche se fievolmente, la possibile ed eventuale sospensione della Patria Potestà, qualora i genitori non avessero ottemperato all’obbligo di legge, o, in alternativa, avrebbero dovuto pagare una multa di €. 7.500,00.  Per questa seconda opzione furono in molti ad ipotizzare anche una reiterazione annuale dell’ammenda stessa. Il governo era quello di Matteo Renzi, il cui Ministro della Salute era Beatrice Lorenzin. In quell’estate del 2017 l’ansia e lo smarrimento travolse milioni di genitori italiani, compresi quelli che, negli anni precedenti, avevano già vaccinato i figli, ma con la quadrivalente! Con il Decreto avrebbero dovuto inoculare anche i vaccini mancanti alla lista. Furono numerose le manifestazioni di famiglie intere che si sentirono abbandonate a se stesse! In pochi casi, infatti, vennero appoggiate da qualche medico di scienza e coscienza, disposto a far conoscere il suo pensiero dissonante con l’Istituzione.

L’ansia fu accompagnata anche da un altro fattore. IN QUELLO STESSO GIORNO (31 luglio 2017) il DL Lorenzin entrò a gamba tesa non solo nel panorama legislativo, ma anche in quello etico/religioso. Ad avallarlo si espresse, con una nota senza precedenti, La Pontificia Accademia per la Vita”, istituzione che si occupa, per conto del Vaticano, di tutti quei temi  legati alla Teologia, alla Morale, all’Etica, e al rapporto con la Scienza. Le dichiarazioni lasciarono senza parole anche buona parte della comunità cattolica, in quanto la Chiesa si era espressa in maniera del tutto nuova.                      

ECCO IL LINK PER APPROFONDIRE ⤵️⤵️⤵️⤵️⤵️
https://www.academyforlife.va/content/pav/it/the-academy/activity-academy/note-vaccini.html

LEGGETE ANCHE LA PARTE EVIDENZIATA IN ARANCIONE ⤵️

Facciamo, però, un passo indietro. Tra il 2005 e il 2008, dall’Accademia Pontificia, furono redatti due importanti documenti: DIGNITATIS PERSONAE N^34/35 dove si affrontavano il tema e le responsabilità di coloro che utilizzano feti abortivi nella ricerca e produzione dei vaccini, e di chi se li fa inoculare (questi ultimi per la Chiesa, sarebbero senza colpe in quanto inconsapevoli). ⬅️ E su quest’ultima affermazione ci sarebbe qualcosa da dire!
ECCO IL LINK A CONFERMA ⤵️⤵️⤵️⤵️⤵️

https://www.bioeticaefamiglia.it/2020/11/24/dignitas-personae-nn-33-37/

Nel 2017, in questo nuovo documento, si legge qualcosa di diverso, e invito a cliccare sul link o allargare la foto qua sotto ⤵️⤵️⤵️⤵️⤵️
https://www.vatican.va/roman_curia/congregations/cfaith/documents/rc_con_cfaith_doc_20201221_nota-vaccini-anticovid_it.html

Da qui la scesa in campo del Comitato Renovatio 21, un grande movimento che sta portando avanti, ancora oggi, la sua lotta su vari temi. La contemporaneità di pubblicazione del DL LORENZIN e del documento dell’ACCADEMIA PONTIFICIA, a molti non sembrò casuale. Per questo, alcuni movimenti cattolici di livello mondiale che si occupano di temi etici, firmarono una petizione che inviarono a Papa Bergoglio, affinché intervenisse sul tema, ma l’iniziativa, pare, non abbia sortito effetto alcuno!

TORNIAMO AI VACCINI 

Come si legge nei documenti che ho postato e linkato qua sopra, per realizzare questi vaccini sarebbe stata utilizzata una linea embrionale “immortalizzata”, ormai risalente al 1966/‘69. Dinanzi a questo scenario, si sarebbe così scaricato l’obbligo morale nell’utilizzo degli embrioni, per far sì che fossero garantite le coperture vaccinali necessarie. E da qui sarebbe partito anche l’obbligo morale a vaccinarsi. Da evidenziare, quindi, che la Chiesa fino a quel momento aveva sempre sottolineato che occorreva opporsi e contrastare le aziende farmaceutiche che proponevano questi vaccini, per poi appoggiare il DL LORENZIN del 2017.

La prima vaccinazione obbligatoria fu quella contro il morbillo, che arrivò nel 2014 dopo il rientro della Lorenzin dal suo viaggio negli USA (ospite dell’allora Presidente Obama), dove firmò un accordo per far diventare l’Italia capofila delle teorie vaccinali, con i conseguenti obblighi che ne sarebbero derivati. Nello stesso anno, I DEM californiani, ad esempio, per dare un segnale forte, cominciarono a togliere l’esenzione alla vaccinazione per motivi etico/religiosi, aprendo una strada a grandi malumori e dissensi.

VACCINI COVID – 19

Le ultime linee cellulari utilizzate sarebbero state molto più recenti. Per questo RENOVATIO 21, ha preso in esame i sieri Johnson & Johnson, Astrazeneca e Pfizer, controllandone la percentuale utilizzata che sarebbe stata alta, per poi porre, ancora una volta, l’accento sulla questione etico/morale. Questione che non ha impedito, al Vaticano in primis, di imporre l’obbligo ai propri dipendenti, pena il licenziamento in tronco. Il mondo del lavoro, in particolare, si è piegato al Sistema, seguendo come forma di ricatto la LEVA MORALE. Stesso sistema che fu adottato per far vaccinare, dal 2017, i bambini sani, per tutelare, diceva lo Stato, i piccoli immunodepressi. E a bombardarli non è stato l’elisir di lunga vita, ma un insieme di sostanze di cui abbiamo ampiamente scritto in un articolo nei giorni scorsi.

Il DL LORENZIN VENNE APPROVATO IL 31 LUGLIO 2017, CONVERTITO IN LEGGE N^119  E IN GAZZETTA UFFICIALE N^182 Il 5 AGOSTO 2017.

Entro’ in vigore il 9 settembre 2017 ( sabato) e  l’anno scolastico inizio’ lunedì 11 settembre, mettendo in grandissima difficoltà i genitori indecisi, che avrebbero visto rifiutare l’ingresso a scuola dei propri figli, senza diritto di replica. Una vera e propria folle debacle, su cui è inutile aggiungere altro! Il resto è cronaca dei giorni nostri!

CON QUESTO ARTICOLO SPERIAMO DI ESSERE STATI DI AIUTO ALLE MAMME DI BAMBINI PICCOLI, NON ANCORA IN ETÀ SCOLARE. CORVELVA È A DISPOSIZIONE DELLE FAMIGLIE, PER AIUTARLE IN SCELTE CONSAPEVOLI E SENZA OBBLIGHI! 

In ogni caso riteniamo opportuno pubblicare, comunque, anche il link relativo alla streaming dell’Associazione Corvelva, per approfondire le tematiche affrontate in questo articolo ⤵️⤵️⤵️⤵️⤵️
https://youtu.be/cUZ1RZkdaxY

 

POTETE SEGUIRCI ANCHE SU TELEGRAM ⤵️⤵️⤵️⤵️⤵️
https://t.me/mercurius5giornale

15 Marzo 2023 – Redazione – Fonte TPI (Giordano Giusti)

 

In principio era L’INDICE DI GRADIMENTO (correvano gli anni settanta del secolo scorso), poi venne trasformato in ciò che conosciamo oggi (una chimera socio mediatica) da cui dipendono vita e morte delle trasmissioni! Una moderna spada di Damocle che incombe su tutti i programmi TV, a cui non importa il valore di ciò che viene mandato in onda, ma la sola percentuale di chi guarda, anche se, il format in questione, è una schifezza! Il resto è cronaca che viviamo ogni giorno!

COS’È IL SISTEMA DI RILEVAZIONE DEGLI ASCOLTI E DEI DATI DEI PROGRAMMI TV

Auditel è la società “super partes” che rileva l’ascolto della televisione in Italia conseguito attraverso le diverse modalità di trasmissione.

Leggiamo sul sito ufficiale che Auditel opera “con un modello organizzativo riconosciuto come il più evoluto a livello internazionale: un “J.I.C.” (Joint Industry Committee) che riunisce tutte le componenti del mercato televisivo: aziende che investono in pubblicità, agenzie e centri media, imprese televisive”.

ASCOLTI TV: COME FUNZIONA L’AUDITEL

Applicando una rigorosa metodologia statistica, Auditel ha costruito un campione rappresentativo della popolazione italiana (tutti gli individui d’età superiore ai 4 anni, dati ISTAT, residenti sul territorio nazionale).

Questo campione continuativo (panel) costituisce una specie di “condensato” dell’intera popolazione con le sue diverse caratteristiche geografiche, demografiche e socioculturali.

Un apparecchio elettronico, il meter, rileva automaticamente ogni giorno, minuto per minuto, l’ascolto di tutti i canali di qualunque televisore che sia in funzione nell’abitazione delle famiglie campione, che vendono pagate con una cifra annuale molto modesta.

I “sistemi meter” sono ormai utilizzati, per la loro affidabilità, in tutti i paesi più avanzati.

AUDITEL TV: ELENCO FAMIGLIE CAMPIONE

Le fondamenta del progetto statistico sono costituite dalle cosiddette “Ricerche di Base”: una serie continuativa di indagini generali sulle famiglie italiane che alimentano, scandite da 7 rilevazioni mensili, una grande banca dati.

Partita dopo una vasta ricerca su 41.000 casi, Auditel intervista, ogni anno, un campione di 20 mila famiglie – nella loro abitazione e non per telefono – per stimare, tra l’altro, la dotazione di apparecchiature televisive e di intrattenimento (videoregistratori, collegamenti satellitari, digitale terrestre e TV via cavo, DVD, pay-tv, ecc.).

AUDITEL TV: IL CAMPIONE

Leggiamo sempre sul sito che “le famiglie incluse nel campione sono estratte in modo anonimo e casuale, e provengono dalle ricerche continuative di base. Il campione che ne deriva ha una composizione ed un sistema di ponderazione che permettono di rappresentare correttamente il collettivo di riferimento, più ampio, da cui è stato estratto. La rappresentatività si basa su:

  • un sistema di celle di reclutamento nelle quali si incrociano variabili geografiche (aree e dimensioni dei comuni), caratteristiche strutturali delle famiglie (età del capofamiglia e numero di componenti), dotazione di apparecchiature televisive.
  • un doppio sistema di espansione (uno per i dati familiari ed uno per quelli individuali) caratterizzato da una “pre-espansione” per celle e da una successiva “pesatura iterativa marginale”.

Il campione è allocato sulle 103 province italiane in modo proporzionale alla popolazione. La dispersione territoriale del panel consente di coprire circa 2.225 degli 8.100 comuni italiani”

AUDITEL TV: COS’È E COME FUNZIONA IL METER

Le famiglie del panel sono dotate di un’apparecchiatura elettronica denominata “people-meter” che rileva automaticamente il canale sintonizzato sul televisore.

I meter sono giunti alla “terza generazione” attraverso una continua innovazione tecnologica. Si tratta di apparecchiature multiprocessore, molto facili da installare, non invasive, disposte per collegamento GSM e che possono essere dotate di sensori passivi di movimento.

I meter UNITAM rappresentano una soluzione completamente basata sull’audio matching (comparazione delle tracce audio digitalizzate).

Infatti sono concepiti per raccogliere, nelle famiglie campione, tutte le impronte audio digitalizzate prodotte dagli atti di ascolto. Queste confluiranno nell’immensa banca dati dei programmi irradiati sull’intero territorio nazionale, alimentata da speciali stazioni di rilevazione digitale (reference room).

Con la loro adozione Auditel ha garantito il monitoraggio delle nuove tecnologie televisive: digitale satellitare, digitale terrestre e trasmissione via cavo. Sia per trasmissioni “live” che in differita.

AUDITEL TV: LA STORIA

Auditel ha avviato la rilevazione degli ascolti nel dicembre 1986. Dall’agosto del ’97 la numerosità del campione è raddoppiata.

Oggi, il sistema di rilevazione si avvale della collaborazione di circa  16.200famiglie: oltre 30.540rilevatori meter, attivi su altrettanti televisori, “fotografano” le scelte di circa 40.000 individui in ogni momento della giornata.

Allo stato attuale, il “panel” italiano Auditel costituisce un campione di ricerca televisiva tra i più numerosi al mondo (rapporto popolazione/meter). Ed è tra quelli che investono maggiori risorse nelle attività di controllo.

AUDITEL TV: LO SHARE E L’AUDIENCE

Lo share è il rapporto percentuale tra gli ascoltatori di una certa emittente e il totale degli ascoltatori che stanno guardando qualunque altro programma sulle diverse reti.

L’audience è il numero medio dei telespettatori di un programma. È pari al rapporto fra la somma dei telespettatori presenti in ciascun minuto di un dato intervallo di tempo e la durata in minuti dell’intervallo stesso.

AUDITEL TV: COSA NON VIENE MISURATO

Tutti gli ascolti esterni all’abitazione principale e quelli di:

  • tutti gli ascolti esterni all’abitazione principale
  • bambini al di sotto dei 4 anni d’età
  • collettività.

 

POTETE SEGUIRCI ANCHE SU TELEGRAM ⤵️
https://t.me/mercurius5giornale