Cerca nel blog

lunedì 23 luglio 2012

Creata la medusa-topo: "robottino" da laboratorio

dal sito: www.repubblica.it

IL TEST

È larga poco meno di un centimetro, formato da una struttura di silicone al quale sono state applicate delle cellule prese dal cuore di un ratto da laboratorio. Un passo avanti nella ricerca sul cuore di MATTEO MARINI

LA SI POTREBBE chiamare, come hanno fatto, una medusa artificiale, visto che ne riprende la forma, un po' stilizzata, e soprattutto i movimenti. In realtà di una medusa questa specie di Ufo da laboratorio non ha nient'altro. Meno spaventoso di un gotico esperimento alla Frankenstein, largo poco meno di un centimetro, è piuttosto un robottino biologico molto elementare, formato da una struttura di silicone al quale sono state applicate delle cellule prese dal cuore di un ratto da laboratorio. La sua realizzazione si deve ai biofisici della Harvard University del Massachussetts che studiano il meccanismo e le pulsazioni dei tessuti cardiaci: come funziona il cuore degli esseri viventi e soprattutto dell'uomo. Il risultato e un video di questa ricerca sono stati pubblicati sul sito della rivista Nature 2.

Il movimento di questo robot biologico avviene con la contrazione, grazie a un campo magnetico che stimola il fascio di cellule applicato sulla struttura di silicone. Le braccia si piegano spingendo l'acqua e di conseguenza spostando il corpo della "medusa". Il silicone poi, grazie alla sua elasticità, ritorna nella posizione di "riposo" fino a che le cellule non ricevono una nuova stimolazione.

"Morfologicamente e funzionalmente abbiamo costruito una medusa,. Ma geneticamente questa cosa è un topo" lo sintetizza così Kit Parker, il biofisico che guida la ricerca. Il team di Parker ricrea modelli artificiali per lo studio dei muscoli che permettono al cuore di contrarsi e "pompare" sangue. "Abbiamo smontato un topo e lo abbiamo rimontato come una medusa" spiega con un'altra metafora.

L'idea è venuta allo stesso Parker nel 2007, alla ricerca di nuovi modelli di studio, osservando alcune meduse nuotare in un acquario: "Ho pensato: so che posso costruirle in laboratorio". E così è stato. La mappatura delle cellule della medusa è stata ricreata utilizzando però le cellule del cuore di un ratto. Uno schema piuttosto semplice da realizzare. La stimolazione elettrica avviene come un'onda che attraversa il muscolo "proprio come quando lasci cadere un sasso in uno stagno".

La prossima sfida in questa direzione sarà quella di creare i movimenti più complessi simili a quelli di un polpo. Ma naturalmente il fine della ricerca, il cui obiettivo è quello della rigenerazione degli organi, sarà l'uomo. Cioè costruire "pezzi di ricambio", tessuti che fondono meccanica artificiale e biologia, capaci di sostituire quelli malati, e di testare medicinali.
(23 luglio 2012)

"La Cina spia tutte le nostre comunicazioni" dagli Usa timori sui dispositivi Huawei e Zte

dal sito: www.repubblica.it

In modo silenzioso. Gli Stati Uniti ne sono certi: i cinesi hanno conquistato il mercato delle telecomunicazioni mondiali con uno scopo ben preciso. Quello di spiare l'Occidente per carpirne i segreti militari e industriali.

Le accuse sono state messe nero su bianco in un documento della U.S.-China Economic and Security Review Commission e ribadite di recente da Michael Maloof, ex esperto di sicurezza del Pentagono. La Cina avrebbe accesso all'80% delle telecomunicazioni mondiali, una sorta di Echelon con gli occhi a mandorla.

Fantapolitica? Forse, ma sono mesi, anni addirittura, che sotto la lente d'ingrandimento degli esperti di sicurezza Usa, e non solo, sono finiti due giganti: Huawei e Zte, rispettivamente numero due e cinque al mondo nella fornitura di infrastrutture di telecomunicazioni. Partite entrambe dalla città di Shenzhen, le due società hanno avuto un'escalation sorprendente, andando a conquistare in pochi anni i mercati mondiali. Per entrambe si parla di stretti legami con il governo cinese, il deus-ex machina che ne avrebbe favorito la crescita al di là di Pechino. Basti pensare che accordi con Huawei sono stati fatti da tutte le più grandi aziende di telecomunicazioni occidentali, dalla British Telecom alla nostrana Telecom Italia, solo per citarne due.

Va detto che la smoking gun, la pistola fumante che confermi le ipotesi statunitensi, non è stata trovata: non c'è alcuna prova che i dispositivi prodotti e venduti dalle due big cinesi siano utilizzati per spionaggio. Quel che è certo è che Huawei ha sviluppato sistemi molto sofisticati per l'analisi dei dati che transitano sulle proprie reti e dispositivi. Ma non c'è alcuna evidenza che vengano utilizzati come cyber-armi al servizio del governo cinese.

Certo è che gli Stati Uniti non sono i soli ad aver avanzato "ipotesi di complotto" nei confronti delle telco cinesi. L'Australia, ad esempio, ha deciso di evitare qualsiasi accordo commerciale con Huawei, impedendo alla società di partecipare alla gara d'appalto per la realizzazione della National Broadband Network, la rete di telecomunicazioni che diventerà nei prossimi anni la spina dorsale delle comunicazioni digitali australiane. La preoccupazione di avere una infrastruttura critica, come una rete cellulare, alla mercè di una potenza straniera ha prevalso.

Se dovessero venir confermate le ipotesi a carico delle due società non si tratterebbe certamente della prima volta per la Cina: l'Occidente è da tempo un bersaglio. Nel 2010 è toccato a Google, la cui sicurezza è stata violata da hacker cinesi, mentre nel 2011 sono venuti alla luce attacchi e infiltrazioni ai danni di 72 organizzazioni mondiali, comprese le Nazioni Unite e i governi di Stati Uniti e Canada. La guerra cibernetica, anche se forse non passa dai telefonini, è appena iniziata.

giovedì 19 luglio 2012

Fusione Fredda: E-Cat domestico, Rossi: impianto costerà mille dollari

dal sito www.greenstyle.it

Andrea Rossi torna a parlare di E-Cat domestico e questa volta ne annuncia il prezzo. Dopo le polemiche sorte in seguito alla conferma dell’obbligo di affidare la ricarica a tecnici autorizzati, l’inventore dell’Energy Catalyzer interviene nuovamente sulle pagine del Journal of Nuclear Physics e lo fa annunciando il costo che il suo prodotto potrebbe avere considerata proprio quest’ultima novità.
Andrea Rossi, inventore E-CatE-Cat domestico che sembrerebbe indirizzato verso un prezzo di vendita di circa 1.000 dollari, anche se lo stesso Andrea Rossi si mantiene cauto al riguardo. Come affermato dall’ingegnere italiano eventuali ulteriori richieste da parte dell’ente di certificazione del prodotto potrebbero causare un nuovo innalzamento dei costi:
Gli impianti industriali dell’E-Cat e dell’Hot Cat hanno prezzi che dipendono dalle loro caratteristiche, difficilmente generalizzabili. L’impianto domestico costerà intorno ai 1.000 dollari, dopo la certificazione e in funzione delle esigenze del certificatore.
Rossi risponde quindi a stretto giro alle voci crescenti riguardo la crescita del prezzo dell’E-Cat domestico e lo fa con un prezzo che appare al momento ancora raggiungibile per un elevato numero di famiglie di medio reddito. Non del tutto chiaro però il peso che potrà ancora avere il certificatore sull’importo definitivo, mentre Rossi aggiunge una nuova denominazione al panorama già ricco dell’Energy Catalyzer: l’Hot Cat, che altro non è che il modello ad alta temperatura, capace di lavorare anche a 600 gradi.

Leggi tutto: http://www.greenstyle.it/e-cat-domestico-rossi-impianto-costera-mille-dollari-10820.html#ixzz215fT6KwC

I pannelli fotovoltaici al carbonio che sfruttano gli infrarossi

dal sito: www.greenstyle.it


fotovoltaico carbonio infrarossiTra le numerose tecnologie che si stanno sperimentando nel campo dell’energia fotovoltaica per aumentare l’efficienza dei pannelli solari (attualmente ferma intorno al 15% per i modelli commerciali) c’è anche quella che prevede l’uso del carbonio al posto del silicio. Alcuni scienziati americani del MIT, ad esempio, hanno pubblicato uno studio su Advanced Materials in cui fanno il punto sulle possibilità del carbonio di aumentare l’efficienza fotovoltaica delle celle.
Grazie all’adozione di nanotubi di carbonio, in particolare, è possibile captare parte dello spettro solare che sfugge normalmente alle normali celle fotovoltaiche in silicio. Si tratta delle frequenze vicine all’infrarosso, che l’occhio umano non vede e che i normali pannelli si limitano a riflettere.
Frequenze, però, che rappresentano una buona parte dello spettro (circa il 40% del totale) e che, anche se sfruttate con bassa efficienza, possono aggiungere potenza alle celle fotovoltaiche. Al momento gli scienziati del MIT riescono a convertire in energia solo lo 0,1% della luce vicina all’infrarosso, ma stanno già sperimentando tecniche produttive utili ad aumentare questa percentuale.
Tra l’altro i nanotubi di carbonio risultano trasparenti alle restanti frequenze dello spettro solare. In tal modo è possibile aggiungere uno strato in carbonio a una cella fotovoltaica tradizionale e sfruttare una quantità di luce superiore per produrre energia rinnovabile.

Fusione Fredda: Nuovi finanziatori aiuteranno la ricerca sulla fusione fredda

dal sito: www.fusionefredda3.com

Cambiera’ qualcosa in Italia dopo il Convegno tenutosi a Montecitorio il 2 luglio scorso sulla fusione fredda e le LENR? E’ presto per dirlo, e non sappiamo ancora quanto sia stato preso sul serio dai membri del nostro governo.
Ma intanto un dato importante ce l’ha fornito.
Daniele Passerini, che era tra i circa ottanta invitati all’evento, nel suo ultimo pezzo su L’Indro riferisce brevemente i risultati dell’evento, dando (giustamente) molta rilevanza all’intervento di Stefano Concezzi, Direttore Scientifico della National Instruments.
La presentazione di Concezzi e’ la stessa che la Societa’ di Austin aveva portato il 20 giugno a Bruxelles, al Parlamento Europeo. E come lo stesso Passerini fa notare, la Comunita’ Europea sta recentemente mostrando molto interesse verso le LENR, e questa attenzione e’ messa nero su bianco all’interno di una relazione intitolata Materials for Emerging Energy Technologies.
Ed ecco il punto saliente di quanto detto da Concezzi: la National Instruments, colosso mondiale nel settore degli strumenti di misura professionali, fornitore principale dei maggiori centri di ricerca e societa’ ovunque nel mondo, dichiara pubblicamente il suo interesse verso la fusione fredda, attivandosi affinche’ la ricerca nel campo prosegua.  A tal fine ha deciso di fare da sponsor a 10 selezionatissimi gruppi di ricerca di tutto il mondo, e tra questi ben due sono italiani: il gruppo di Vittorio Violante dell’ENEA di Frascati e quello di Giuseppe Levi dell’INFN di Bologna.
Il fatto che un gigante come la NI abbia deciso di fare un passo cosi’ importante, investendoci soldi e ‘mettendoci la faccia’, e’ un segnale fortemente positivo, che dovrebbe dar da pensare a tutti i detrattori della fusione fredda. E chissa’, magari spingera’ anche altri a fare la stessa cosa.

Fusione Fredda: E-Cat domestico, Rossi: ricarica affidata a tecnici autorizzati

dal sito: www.greenstyle.it

Un altro punto di forza dell’E-Cat domestico sembra in questi giorni vacillare. 


L’invenzione di Andrea Rossi prometteva un utilizzo domestico semplice ed economico, a cominciare dalla possibilità di sostituire le cartucce di ricarica in completa autonomia da parte dell’acquirente. In un suo recente intervento, l’ingegnere italiano torna a smentire quanto affermato negli scorsi mesi, confermando al contrario che ad intervenire dovrà essere un tecnico certificato.
Andrea RossiLa possibilità che le cartucce dell’E-Cat possano essere sostituite facilmente, come sosteneva lo stesso Andrea Rossi alcuni mesi fa “al pari della ricarica di una penna”, tramonta definitivamente. Alla base di questo cambio di rotta, sostiene l’ingegnere italiano, la necessità di scegliere la strada dell’intervento tecnico per ottenere la certificazione del prodotto:
L’ente certificatore ha chiesto che la ricarica sia eseguita da un operatore certificato.
Ragioni di sicurezza spingono con molta probabilità l’ente certificatore a richiedere queste condizioni a Rossi: durante la ricarica il rischio è di esposizione alla polvere di nichel, tossica per l’organismo. La decisione di ricorrere ad interventi esterni porta inevitabili conseguenze sui futuri costi dell’E-Cat domestico.
A cominciare da quelli per la ricarica, che potrebbero richiedere quindi contratti di manutenzione specifici (concordabili anche direttamente con il venditore) o interventi tecnici “straordinari” e quindi soggetti ai normali costi di mercato. Considerando la necessità di provvedere due volte l’anno al rifornimento dell’E-Cat domestico, un aspetto che i futuri acquirenti (insieme agli oltre 600.000 che hanno già preordinato il prodotto) dovranno obbligatoriamente tenere in debita considerazione.

L'iniezione di ossigeno che salva la vita

dal sito: www.zeusnews.it 

 Si inietta in vena e permette di fare a meno di respirare anche per 30 minuti.

Una siringa contenente microparticelle iniettabili di ossigeno, in grado di tenere in vita una persona che non è in grado di respirare per 15 o 30 minuti: è questa l'invenzione del dottor John Khier del Children's Hospital di Boston.


L'idea gli è venuta sei anni fa, quando una ragazza sua paziente, affetta da polmonite, morì perché i polmoni non erano più in grado di garantire al cervello l'apporto di ossigeno necessario.
Utilizzando una procedura nota come sonicazione ha mescolato lipidi e ossigeno, creando un mix composto da particelle di ossigeno circondate da un "guscio" esterno di grasso, ciascuna con un diametro tra i due e i quattro micron.
Le particelle sono così piccole da poter passare attraverso i capillari a differenza dell'ossigeno puro che, se iniettato direttamente, formerebbe delle bolle in grado di bloccare il flusso sanguigno provocando un'embolia.
ossigeno iniettabile Queste particelle, inserite in un vettore liquido, possono invece essere iniettate in sicurezza nel flusso sanguigno, come gli esperimenti sugli animali da laboratorio hanno dimostrato, e contengono da tre a quattro volte il quantitativo di ossigeno trasportato dai globuli rossi: ne è sufficiente quindi una piccola dose, da calibrare a seconda della necessità.
I test hanno dimostrato come questa soluzione permetta di tenere in vita animali con la trachea bloccata per 15 minuti senza la necessità che questi debbano respirare: in pochi secondi l'idea del dottor Khier è in grado di riportare i livelli di ossigeno nella norma.
«È un sostituto dell'ossigeno a breve termine, un modo per iniettare ossigeno nei pazienti durante pochi minuti critici. Alla fine, potrebbe essere conservato in siringhe presenti in ogni carrello per le emergenze, nelle ambulanze o negli elicotteri del soccorso per aiutare a stabilizzare i pazienti che hanno difficoltà a respirare» spiega il dottor Khier.
Questo sistema è definito «a breve termine» perché può essere utilizzato al posto della normale respirazione al massimo per 15 o 30 minuti; continuare più al lungo sarebbe pericoloso, perché il vettore liquido sovraccaricherebbe la circolazione sanguigna.
Una descrizione particolareggiata dell'iniezione di ossigeno è stata pubblicata su Science Translational Medicine.

mercoledì 18 luglio 2012

Comunicazione quantistica fra satelliti a prova di hacker

dal sito: lescienze.it
 
A causa delle modalità di codifica dell'informazione nei qubit, finora la comunicazione quantistica - che può garantire la trasmissione di messaggi cifrati inviolabili - poteva essere realizzata solo fra utenti fissi. Sfruttando stati quantistici "ibridi", un gruppo italiano è riuscito a mettere a punto un dispositivo di codifica che permette di trasmettere questo tipo di messaggi anche fra utenti in movimento, e in particolare fra satellti   
(red)
Negli ultimi anni sono stati fatti notevoli progressi nello sviluppo delle tecniche di comunicazione quantistica, di grande interesse perché dovrebbe offrire sistemi di codifica delle informazioni impossibili da decrittare. Finora tuttavia, a causa delle modalità di codifica dell’informazione di questo tipo di comunicazione, non si sapeva come realizzarla quando gli utenti coinvolti non si trovano in postazioni fisse, ma sono in movimento.

Un passo importante per risolvere il problema è ora venuto da un gruppo di ricercatori dell’Università Sapienza di Roma e dell’Università Federico II di Napoli, con la collaborazione di ricercatori dell'Istituto di scienze fotoniche del Parco tecnologico di Barcellona e dell'Università federale di Rio de Janeiro,  che illustrano i risultati del loro studio in un articolo a prima firma Vincenzo D’Ambrosio, pubblicato online su ””Nature Communications”.

L’approccio standard alla comunicazione quantistica prevede infatti che la codifica dei qubit (i bit quantistici) avvenga sfruttando la polarizzazione di fotoni; la rilevazione della corretta polarizzazione richiede però che tutti gli utenti interessati abbiano un sistema di riferimento comune rispetto al quale valutare la polarizzazione stessa.

Comunicazione quantistica fra satelliti a prova di hacker
Se trasmittente e ricevente sono in rotazione una rispetto all'altra, non è possibile sfruttare la semplice polarizzazione dei fotoni per codificare i qubit (Cortesia Vincenzo D’Ambrosio et al.)
Questo può rappresentare un notevole ostacolo nelle situazioni in cui il numero di utenti è molto elevato o, ancor peggio, quando sono distanti tra loro e in moto relativo uno rispetto all’altro, per esempio quando la comunicazione avviene fra due satelliti in orbita, il cui stato di allineamento può variare nel tempo.

Nel nuovo studio, i ricercatori, coordinati da Fabio Sciarrino, sono riusciti a superare questa difficoltà mettendo a punto un sistema che permette una codifica e decodifica efficiente di informazione quantistica in stati di singoli fotoni, in modo che tali stati siano invarianti rispetto a rotazioni arbitrarie intorno all'asse ottico.

I ricercatori sono riusciti a ottenere questi stati utilizzando per la codifica non solo la polarizzazione, ma anche il momento angolare orbitale della luce. In questo modo, scrivono i ricercatori, “tutte le preoccupazioni relative all'asse di orientamento durante la trasmissione quantistica si riducono al semplice requisito fondamentale di stabilire un collegamento ottico”.

Una serie di test sperimentali di laboratorio ha dimostrato che il dispositivo dà risultati conformi alle previsioni teoriche e che il metodo funziona anche quando i due utenti sono in rotazione uno rispetto all’altro.

Al momento i ricercatori stanno sviluppando la tecnica e il dispositivo in vista di un loro utilizzo tecnologico e stanno verificando la possibilità di procedere a un test di comunicazione fra satelliti.

Un modello statistico per prevedere come andrà la guerra

Lo ha sviluppato un gruppo di ricercatori testandolo sul WikiLeaks Afghan War Diary, che rappresenta una collezione di oltre 75.000 documenti militari relativi a cinque anni - dal 2004 al 2009 - di  guerra in Afghanistan. Il modello è riuscito a prevedere con sorprendente accuratezza l'andamento del conflitto in tutto il 2010 (red)
Le guerre moderne sono sempre più caratterizzate da una raccolta e un uso di informazioni crescenti, grazie anche alle tecnologie di rilevamento, con conseguenti grandi quantità di dati ad alta risoluzione. Tuttavia, nonostante la grande mole di dati disponibili, sviluppare un modello in grado di prevedere l'andamento degli scontri a fuoco e le località in cui potrebbero scatenarsi resta un compito estremamente arduo a causa della natura eterogenea e dinamica dei dati.

Ora un gruppo di ricercatori delle università britanniche di Edimbrgo e di Sheffield e della Columbia University a New York ha sfruttato, integrandole, una serie di idee e tecniche utilizzate in statistica, in ecologia, nel trattamento dei segnali nelle comunicazioni e in epidemiologia per identificare i complicati processi alla base di un conflitto, per esempio la diffusione, lo spostamento, l’intensità, le diverse modalità di escalation e la "volatilità" degli scontri.

Un modello statistico per prevedere come andrà la guerra
 Una mappa dell'andamento del conflitto in Aghanistan redatta sulla base dell'AWD. (Cortesia A. Zammit-Mangion et al.  / PNAS)
Sviluppato il loro modello i ricercatori si sono trovati di fronte a uno dei compiti più impegnativi in questo tipo di studi: trovare il modo di validarlo e dimostrare che non contiene errori di fondo. Guido Sanguinetti e collaboratori, che ne riferiscono in un articolo pubblicato sui “Proceedings of the National Academy of Science”, sono riusciti nell’intento prendendo come base dati il WikiLeaks Afghan War Diary (AWD), una collezione di oltre 75.000 documenti militari relativi al periodo gennaio 2004 - dicembre 2009 della guerra in Afghanistan, che offre una descrizione ad alta risoluzione temporale e spaziale di quei cinque anni del conflitto.

La guerra afgana, inoltre, rappresenta un banco di prova particolarmente arduo, poiché si tratta di un conflitto altamente "irregolare", in cui le azioni di guerra sono spesso scollegate tra loro e sono promosse da una miriade di gruppi differenti di insorti.

Come si legge nell'articolo, ricercatori sono riusciti così a dimostrare che “il nostro approccio permette una comprensione più profonda delle dinamiche del conflitto a partire da semplici metodi di approntamento di una mappa spaziale della crescita e della volatilità del conflitto. Cosa più importante, mostriamo che un modello 'addestrato' su AWD consente una previsione di sorprendente accuratezza statistica della progressione del conflitto nel 2010, ossia per un anno dopo la conclusione dei dati AWD".

martedì 17 luglio 2012

Un vaccino contro la nicotina "Non la fa arrivare al cervello"

dal sito: www.repubblica.it

LA SCOPERTA

I ricercatori hanno inserito la sequenza genetica di un anticorpo, creato in laboratorio, all'interno di un virus adeno-associato, istruendolo per raggiungere le cellule del fegato

NEW YORK - Combattere il vizio del fumo alla base, cioè prima che nasca, rendendo il cervello immune dalla dipendenza da nicotina. Questa l'ardua scommessa vinta da un gruppo di ricercatori del Weill Cornell Medical College (a New York), che ha ideato e sperimentato sui topi un vaccino che promette di vincere per sempre la dipendenza dalle amatissime "bionde".

Il principio al quale gli studiosi americani si sono ispirati è semplice: se si impedisce che la nicotina raggiunga il cervello, questa non potrà innescare alcuna reazione né dare il piacere che i fumatori ne ricavano, e quindi non genererà dipendenza.

Realizzare un sistema efficace per raggiungere lo scopo è stato però più complicato. Oggi come oggi esistono già alcuni vaccini, definiti "passivi", che in effetti funzionano, perché contengono anticorpi in grado di intercettare e distruggere la sostanza che fa scattare il vizio. Ma affinché l'effetto duri più di qualche giorno è necessario ripetere l'iniezione ogni poche settimane.

Sviluppare un vaccino tradizionale o "attivo", inoculando cioè un agente esterno che il corpo riconosce come pericoloso e che dia il via alla produzione di anticorpi, non è infatti possibile, perché la molecola della nicotina è troppo piccola per essere riconosciuta dal sistema immunitario.

Per questa ragione i ricercatori hanno ideato una terza via, quella del "vaccino genetico", già utilizzata sui topi per trattare certe malattie agli occhi e certi tipi di tumore. Per farlo hanno inserito la sequenza genetica di un anticorpo per la nicotina, creato in laboratorio, all'interno di un virus adeno-associato, istruendolo per raggiungere gli epatociti, ovvero le cellule del fegato.

Grazie a questo innovativo sistema la sequenza genetica dell'anticorpo ha raggiunto il nucleo degli epatociti, che di conseguenza hanno iniziato a produrre gli anticorpi, che a loro volta hanno avviato il loro lavoro di intercettazione della sostanza entrata nel flusso sanguigno.

Stando ai risultati della ricerca pubblicata su Science Translational Medicine 1, le cavie da laboratorio che hanno ricevuto il vaccino hanno fatto registrare una riduzione dell'85% della sostanza nel sangue, senza effetti collaterali su comportamento, pressione sanguigna o frequenza cardiaca. E il fatto che l'anticorpo fosse prodotto direttamente dal fegato ha reso l'effetto duraturo nel tempo.

"Data la sicurezza del vaccino - spiega Ronald G. Crystal, autore dello studio - basta una singola dose del nuovo farmaco per protegge gli animali durante la loro vita contro la dipendenza da nicotina. Il medicinale può essere utilizzato anche dalle persone che non hanno mai toccato una sigarette per salvaguardarle dai rischi. Si tratta della stessa procedura già in atto per molti vaccini tradizionali, utilizzati da anni per prevenire una serie di malattie infettive".

Il medicinale è quindi stato progettato per utilizzare il fegato dei topi come una sorta di "fabbrica" in grado si sfornare continuamente anticorpi che divorano la nicotina nel momento in cui questa entra a far parte del flusso sanguigno, impedendo così alla sostanza di raggiungere il cervello e il cuore.

"Per quanto possiamo vedere - conclude Crystal - il farmaco che abbiamo messo a punto è lo strumento migliore per intervenire su chi è dipendente dal fumo perché permette all'organismo di sviluppare "anticorpi pattuglia" simili al videogioco "Pacman", che puliscono il sangue senza nessun effetto collaterale".
(16 luglio 2012)

domenica 15 luglio 2012

Wikidata, per risposte impossibili grazie al database dell'universo

dal sito: www.repubblica.it

Il progetto

In Germania alcuni promotori della prima ora di Wikipedia stanno studiando un sito in grado di fare quello che molti sognano: organizzare i dati disponibili nel mondo per dare risposte praticamente su tutto. Il progetto è di essere online nella primavera del 2013

BERLINO - Gli esempi valgono più di ogni spiegazione: avere in un secondo o poco più l'elenco di tutti i film i cui protagonisti abbiano i capelli biondi. Oppure conoscere il tasso di occupazione dei giovani appena laureati di tutta Europa, facoltà per facoltà. O ancora un qualsiasi dato fra i milioni generati ogni anno da istituzioni, enti, università e via dicendo. Riuscirci è il sogno di ogni ricercatore, di ogni statistico, ma anche di economisti e politici. Un sogno che potrebbe concretizzarsi in tempi brevi. Forse anche entro la prossima primavera.

Si chiama Wikidata 1 ed è il progetto al quale sta lavorando in Germania un gruppo ristretto di promotori della prima ora di Wikipedia. Come l'enciclopedia online in continuo aggiornamento, potrebbe cambiare il nostro modo di accedere ai dati e di interpretarli. Al momento l'iniziativa è nella fase iniziale di sviluppo, e coinvolge solo un gruppo ristretto di dipendenti di Wikimedia Deutschland che stanno studiando la miriade di questioni tecniche e logistiche legate all'improbo compito di creare un database gestito dagli stessi utenti.

"E' un'idea molto semplice: vuole essere la Wikipedia dei dati", spiega Pavel Richter, CEO di Wikimedia Deutschland. "Nel momento stesso in cui i dati sono prodotti non sappiamo come ma sono destinati a cambiare il mondo", sottolinea Richter, evidenziando come al momento "è difficile accedere per una serie di ragioni tecniche" a questa massa di informazioni che rappresenta un vero tesoro per chi sappia metterle in collegamento. Con Wikidata, invece, un semplice utente potrebbe inserire un qualsiasi numero di criteri - ad esempio l'anno, il paese di nascita, il grado di istruzione e il tipo di occupazione - per generare al momento il database di tutte le persone che corrispondono a questa descrizione.

"I dati sono più di semplici numeri, sono la connessione strutturale tra le cose", spiega Denny Vrandecic, project manager di Wikidata. "Ogni volta che pensate a qualcosa e alle sua connessioni strutturali, quello è un dato". In un focus di ricerca di Wikimedia 2012 che si è tenuto venerdì scorso il team di sviluppo Wikidata ha illustrato i molteplici modi in cui la banca dati potrebbe essere utilizzata, ma ha anche ammesso come ce ne siano certamente molti di più di quanti se ne riesca a immaginare al momento.

Vrandecic, che punta a includere nel database anche video e immagini, sogna di poter mettere in collegamento scienziati e ricercatori che non si sono mai incontrati per collaborare su insiemi di dati. Come già nell'enciclopedia online, con Wikidata i dati verrebbero inviati dagli utenti Internet e controllati da 'editor' volontari, prima di essere inclusi nel gigantesco database. "Siamo open-source, e le persone ci sottopone materiale da tutto il mondo, ma il problema nello sviluppo di materiale open-source è quello di conservare traccia di tutti i passaggi compiuti", ammette Vrandecic. Nel confronto di due giorni fa è emerso l'enorme impegno richiesto da un progetto come Wikidata. Si va dall'"eterna" domanda che circonda i progetti Wiki - ovvero sull'affidabilità e la qualità delle informazioni che chiunque può aggiungere - ai dettagli tecnici come la creazione di una piattaforma user-friendly, accessibile anche a persone senza background di informatica.

La lista delle potenziali complicazioni che il team di sviluppo sta affrontando è lunghissima ma per Vrandecic l'intero progetto potrebbe vedere la luce già nella primavera del 2013. Tutto, spiega, dipende dalla creazione di una comunità online intorno al progetto Wikidata con il compito di aggiungere le informazioni e mantenere alta la qualità. "L'idea non è quella di raccogliere il maggior numero di dati possibile sul nostro sito ma quello di renderli più utili: per questo spetta alla comunità scegliere quale tipo di dati caricare" osserva Daniel Kinzler, un altro dei membri del progetto. Prima che Wikidata diventi accessibile al pubblico, il team di sviluppo raccoglierà tutti i dati contenuti nelle schede informative poste nella maggior parte delle pagine di Wikipedia e li inserirà nel gigantesco database.

A questo punto, una volta 'aperto' al pubblico il sito, spetterà alla comunità internet caricare nuovi dati, organizzarli, controllarne la correttezza, e utilizzarli in tutti i modi possibili. "Non si può cambiare il mondo deliberatamente - ammette Richter - si può solo dare al mondo gli strumenti per cambiare".
(15 luglio 2012)

giovedì 12 luglio 2012

Controllare la chiralità con la radiazione

Un esperimento ha permesso di realizzare strutture nanoscopiche la cui chiralità può essere commutata rapidamente da levogira a destrogira e viceversa utilizzando una radiazione elettromagnetica a terahertz. Le applicazioni possibili vanno dai dispositivi biomedicali agli impianti di sicurezza, fino alle tecnologie per le telecomunicazioni  (red)
Da levogira a destrogira, e viceversa, in un baleno: un gruppo di ricercatori del Lawrence Berkeley National Laboratory (Berkeley Lab) del Dipartimento dell'energia degli Stati Uniti è riuscito a dimostrare la commutazione della chiralità di una molecola mediante un semplice fascio di radiazione. Il risultato, illustrato sulle pagine di “Nature Communications”, potrebbe aprire la strada a un'ampia gamma di applicazioni, dai dispositivi biomedicali agli impianti di sicurezza, per finire con le tecnologie per le telecomunicazioni.

La chiralità delle molecole, vale a dire la proprietà di avere un'immagine speculare ma non sovrapponibile, è di fondamentale importanza in molti processi chimici, poiché gli enantiomeri - le due forme simmetriche “allo specchio” di strutture chimiche identiche - non sono equivalenti dal punto di vista biochimico. Come si imparò, per esempio, a caro prezzo nel caso del talidomide, farmaco antiemetico in commercio alla fine degli anni cinquanta, che nella forma levogira produce gravi malformazioni al feto se assunto durante la gestazione. O come nel caso del limonene, una molecola presente nella buccia degli agrumi, in cui uno dei due enantiomeri profuma di limone mentre l'altro di arancia.

Controllare la chiralità con la radiazione
 L'insieme delle metamolecole chirali come si presentano al microscopio elettronico (Cortesia Xiang Zhang, et. al)
"Nel caso di molecole di origine naturale è possibile indurre la commutazione di chiralità ma il processo, che prevede cambiamenti strutturali a livello molecolare, è lento e avviene con una bassa probabilità”, ha spiegato Xiang Zhang, che ha partecipato alla ricerca. “Con le nostre molecole artificiali, abbiamo dimostrato la possibilità di una commutazione dinamica di estrema rapidità”.

Oggetto della ricerca erano "metamolecole" costruite a partire da placchette di oro di dimensioni
nanometriche in modo da produrre strutture chirali artificiali. Queste metamolecole erano state integrate in un mezzo di silicio fotoattivo. Una volta eccitate con un fascio di radiazione esterna, è stata osservata l'emissione di un fascio di radiazione di luce polarizzata circolarmente, indice dell'avvenuta commutazione da un enantiomero all'altro di queste strutture artificiali.

“Se si assemblano due strutture di chiralità opposta per formare una metamolecola, la simmetria speculare viene preservata, con il risultato della scomparsa della risposta ottica”, ha sottolineato Zhang. "In altre parole, le due risposte ottiche si annullano a vicenda”.

Controllare la chiralità con la radiazione
Particolare delle metamolecole chirali reattive alla radiazione: in viola, marrone e azzurro sono evidenziati i diversi strati di oro; in verde le parti in silicio (Cortesia Xiang Zhang, et. al)
Per ovviare al fenomeno, che può rendere vano qualunque tentativo di controllare la chiralita della molecola dall'esterno, sono stati inseriti elementi di silicio in entrambi gli enantiomeri, ma in differenti posizioni. Rompendo la simmetria speculare è stata così indotta una chiralità anche nella metamolecola conplessiva.

Un particolare importante è che la radiazione elettromagnetica utilizzata è nella regione di frequenze dei terahertz (mille miliardi di cicli al secondo) ovvero all'interno dell'intervallo di risonanza delle vibrazioni delle molecole: proprio questa caratteristiche la rende un mezzo non invasivo ideale per analizzare i costituenti chimici di materiali organici e inorganici.

martedì 10 luglio 2012

Porte aperte a telefonia straniera Rivoluzione europea dal 2014

dal sito: www.repubblica.it

COMUNICAZIONI

Tra due anni nel Vecchio continente sarà possibile utilizzare sim con tariffe economiche di operatori esterni ai confini dell'Unione. La Telecom cinese sarà la prima ad usufruire di questa opportunità

ROMA - Abbassare i prezzi della telefonia in Europa: l'impresa è tutt'altro che semplice ma l'Ue conta di riuscirci procedendo per gradi. L'ultimo, dopo le nuove tariffe roaming 1, è l'imposizione di tetti tariffari e l'approvazione di un regolamento che dal 2014 aprirà le porte agli operatori di telefonia stranieri. Via libera alla concorrenza dunque, assecondando il caposaldo economico secondo cui solo lo spirito di competizione fa abbassare la cresta alle aziende.

L'ingresso di compagnie extra europee dovrebbe dunque, secondo i vertici UE, rivoluzionare il mercato, facendo scendere ulteriormente i prezzi e avvantaggiando, in un colpo solo, cittadini e aziende. Tra due anni, se il progetto andrà in porto con successo, nel Vecchio continente sarà possibile utilizzare sim con tariffe economiche di operatori esterni ai confini dell'Unione. Una novità che promette di modernizzare ulteriormente il settore della telefonia in Europa e nei singoli stati membri e che rappresenta una fetta di mercato ghiottissima. Non è un caso che, almeno secondo il quotidiano economico francese Les Echos, la Telecom cinese sarà la prima ad usufruire di questa opportunità.

Yan Ou, amministratore delegato della China Telecom Europe, ha infatti già dei programmi che prevedono l'ingresso in Gran Bretagna, Francia, Germania, Italia e Spagna: il primo approccio sarà durante le imminenti olimpiadi di Londra, presentandosi come operatore virtuale di rete mobile (Mvno). Poi, sarà la volta della Francia, che ospita una comunità cinese di ben 700mila persone e, quindi, degli altri paesi.
(06 luglio 2012)

lunedì 9 luglio 2012

Grafene per purificare l'acqua "Elimina sali e altre sostanze"

dal sito: www.repubblica.it

MATERIALI

La struttura molecolare peculiare del grafene consente di creare dei fori di qualsiasi dimensione sulla sua superficie. Questo ha permesso agli scienziati di far passare l'acqua da una parte e i sali dall'altra di SARA FICOCELLI

WASHINGTON - I materiali che troviamo in natura sono come gli esseri umani: alcuni sono insulsi, altri talmente pieni di qualità da non smettere mai di stupire, diventando a poco a poco indispensabili. Il grafene, detto per l'appunto "il materiale delle meraviglie 1", appartiene certamente a quest'ultimo gruppo. Ultrasottile, flessibile, circa 200 volte più resistente dell'acciaio e ottimo conduttore di calore e di elettricità, tanto da esser già considerato l'erede del silicio 2, il materiale costituito da uno strato unico e sottile di carbonio è anche in grado di depurare l'acqua. Avete capito bene: non solo è capace di condurre l'elettricità meglio del rame ed è trasparente come il vetro, non solo è più resistente dell'acciaio e si piega come la plastica (permettendo di realizzare schermi touchscreen da arrotolare e portare in tasca), ma filtra anche l'acqua, eliminando sali e altre sostanze che la rendono non potabile.

LE FOTO 3

A dimostrare la sua ennesima sorprendente proprietà è stato un esperimento di osmosi inversa condotto dai ricercatori del Massachussets Institute of Technology negli Stati Uniti. "La struttura molecolare peculiare del grafene consente di creare dei fori di qualsiasi dimensione sulla sua superficie. Questo ci ha permesso di far passare l'acqua da una parte e i sali dall'altra", hanno spiegato i ricercatori sulla rivista dell'American Chemical Society. "La dimostrazione di questo processo di osmosi inversa non è nulla di nuovo, ma erano necessari equipaggiamenti ingombranti e un alto consumo energetico. Tramite il grafene, invece, il processo di desalinizzazione si può svolgere 1000 più velocemente e a un costo energetico pari a zero".

Il grafene viene ottenuto in laboratorio dalla grafite, il materiale di cui sono fatte le matite che utilizziamo ogni giorno, i cui cristalli vengono trattati con una soluzione fortemente acida a base di acido solforico e nitrico e poi ossidati ed esfoliati fino a ottenere cerchi di grafene con gruppi carbossilici ai bordi.

Le scoperte su questo prodigioso materiale e le sue applicazioni (come la realizzazione di un transistor, ad esempio) conseguite nel 2004 sono valse il premio Nobel per la fisica 2010 ai due fisici Andre Geim e Konstantin Novoselov dell'Università di Manchester che, nonostante i problemi iniziali riscontrati nell'applicabilità del materiale a singolo strato, lo hanno evoluto fino alla costruzione del cosiddetto tipo "a doppio strato", che garantisce più resistenza e applicabilità di utilizzo e rappresenta la vera rivoluzione moderna per la fisica dei materiali.

Le ricerche scientifiche sorprendenti però non finiscono qui. Nei laboratori dell'ITME (Istituto di Tecnologia per i Materiali Elettronici) dell'Università di Varsavia vengono ad esempio studiati metodi di produzione a basso costo e ad alta efficacia di questo materiale fin dal 2007 e uno dei governi che sta investendo più risorse nello studio del grafene è quello polacco, che sta sostenendo la ricerca col programma "Innowacyjna Gospodarka", grazie al quqle sono già stati approvati numerosi brevetti.

La ciliegina sulla torta arriva ora dai laboratori Usa e questa volta l'obiettivo è la purificazione dell'acqua. Chissà che il materiale delle meraviglie non riesca davvero a risolvere la drammatica questione mondiale dell'oro blu. 
(06 luglio 2012)

mercoledì 4 luglio 2012

Che cos'è il bosone di Higgs grazie al quale ogni cosa ha massa

dal sito: www.repubblica.it
LA SCHEDA

L'esistenza della particella prevista 48 anni fa è stata annunciata al Cern di Ginevra

E' chiamata 'particella di Dio' perché grazie ad essa ogni cosa ha una massa e la materia esiste così come la conosciamo. I fisici preferiscono chiamarlo bosone di Higgs, dal nome del britannico Peter Higgs, che nel 1964 ne aveva previsto l'esistenza.

Una particella come questa è necessaria: è l'ultimo mattone del quale la fisica contemporanea ha bisogno per completare la principale delle sue teorie, chiamata Modello Standard. Questo è una sorta di "catalogo della materia" che prevede l'esistenza di tutti gli ingredienti fondamentali dell'universo così come lo conosciamo. Comprende 12 particelle elementari organizzate in due famiglie: i quark e i leptoni, che sono i veri e propri mattoni della materia (presenti nell'infinitamente grande, come nelle galassie, negli stessi esseri umani come nel mondo microscopico). Comprende inoltre una famiglia di altre 12 particelle, che sono i messaggeri delle tre forze della natura che agiscono nell'infinitamente piccolo (chiamate forza forte, elettromagnetica e debole). Di queste particelle-messaggero fanno parte i componenti elementari della luce chiamati fotoni, e i gluoni, che sono la colla che unisce fra loro i mattoni della materia, come i quark nel nucleo dell'atomo.

Tutti questi componenti della materia sarebbero inanimati senza una massa: è il bosone di Higgs che li costringe a interagire tra loro e ad aggregarsi. Per questo in una delle descrizioni più celebri paragona il bosone di Higgs ad un personaggio famoso che entra in una sala piena di persone, attirando intorno a sè gran parte dei presenti. Mentre il personaggio si muove, attrae le persone a lui più vicine mentre quelle che lascia alle sue spalle tornano nella loro posizione originale e questo affollamento aumenta la resistenza al movimento. Vale a dire che il personaggio acquisisce massa, proprio come fanno le particella che attraversano il campo di Higgs: le particelle interagiscono fra loro, vengono rallentate dall'attrito, non viaggiano più alla velocità della luce e acquisiscono una massa.
(04 luglio 2012)

Shopping in 3D e fari anti-pioggia la vita tra dieci anni secondo Intel


dal sito: www.repubblica.it
SCENARI

Viaggio nei laboratori di ricerca del colosso dei chip, dove studiosi da tutto il mondo immaginano la tecnologia del futuro e si chiedono se e come ci cambierà dal nostro inviato FEDERICO BITTI

SAN FRANCISCO - "Tra dieci anni vorrei che la tecnologia leggesse i miei pensieri". Sono le parole e la fantasia di una bambina ad aprire il decimo anniversario del Research@Intel day, l'evento annuale nel quale il colosso dei processori apre alla stampa le porte dei propri laboratori di ricerca impegnati a immaginare, creare e ispirare quella che potrebbe diventare, da qui a dieci anni, la nostra nuova tecnologia quotidiana.

E se la scommessa di oggi è l'affermazione sul mercato degli Ultrabook 1, la Intel di domani allarga lo sguardo ai molteplici aspetti della nostra vita futura: dallo shopping online alle pareti di casa interattive, dalla sicurezza in auto alla qualità dell'aria nelle nostre città.


Rivoluzione shopping. Un gesto per cambiarsi d'abito e capire se quel paio di jeans valorizza le nostre forme o se quella gonna cade male mentre ci muoviamo: il tutto senza nemmeno varcare la soglia di un camerino perché un avatar tridimensionale identico a noi ci mostra l'effetto su uno schermo. E' il progetto al quale da più di un anno sta lavorando il team della ricercatrice Nola Donato che - attraverso un algoritmo della Intel - sta cercando di mettere a punto un software che riduca al minimo i tempi per ricreare in tre dimensioni le sembianze di chiunque, affidando i movimenti alla tecnologia Kinect della Microsoft. 

In prospettiva lo specchio magico di Nola potrebbe rivoluzionare il nostro modo di fare shopping nei negozi e rendendo l'acquisto online più verosimile e affidabile. I negozi del futuro, d'altra parte, potrebbero essere molto diversi da come li conosciamo e restare confinati nei limiti di un grande touchscreen. Non una fredda lista di prodotti ma un'immagine quasi tridimensionale ad altissima risoluzione che mostra reparti e scaffali, all'interno dei quali 'muoversi' e con un semplice 'touch' ottenere informazioni, foto dettagliate e video. Per poi, infine, acquistare.

Un magazzino virtuale potenzialmente infinito che potrebbe dare al cliente la sensazione di trovarsi fisicamente nel negozio e al venditore la possibilità di espandersi senza dover sostenere le spese che l'apertura di un vero punto vendita richiederebbero. 


Volti e sicurezza. Lo abbiamo visto milioni di volte nei film di fantascienza ma l'entusiasmo di Wu Nguyen -  un giovane ricercatore degli Intel Labs  - è comunque  trascinante mentre mostra il prototipo di una porta di un appartamento in grado di riconoscere il padrone di casa da una scansione biometrica del volto, della voce e delle impronte digitali. Una sofisticata telecamera al posto dello spioncino sarà in grado anche di verificare il contenuto dei pacchi o della posta che ci consegnano.

Una vita senza chiavi quindi, perché anche le nostre automobili saranno in grado di riconoscerci. Strumenti in grado di raccogliere un'infinità di dati sensibili che  -  viene sottolineato in continuazione   -  la Intel si preoccupa di proteggere accompagnando ogni scenario con metodi di criptaggio delle informazioni sempre più elaborati.

In un altro showcase viene mostrato ad esempio come potremmo proteggere le nostre foto postate sui social network: prima di decrittare un'immagine la cam del nostro destinatario dovrà riconoscerne il volto sempre tramite una scansione biometrica, altrimenti gli scatti restano nascosti.   

In automobile. Se la Google-auto che si guida da sola è sempre più vicina, la Intel cerca di rendere più sicura la vita di chi è ancora costretto al volante. Il team del professor Srinavas Narasimhan della Carnegie Mellon University mostra un faro anteriore che  -  collegato a un processore e a una telecamera superveloce  -  è in grado di prevedere la traiettoria della pioggia o della neve. Il faro intelligente cerca così di non proiettare la luce contro le gocce o i fiocchi evitando cosi i riflessi che diminuiscono la visibilità e distraggono chi è alla guida.    

Le pareti di casa. Avremo ancora bisogno di monitor quando ogni superficie delle nostre case o dei nostri uffici potrebbe trasformarsi in un display interattivo che interpreta i nostri gesti?  Tom Cruise nel film Minority Report lo aveva anticipato, il sensore Kinect per Xbox lo ha reso realtà e la Intel cerca di andare oltre mostrando come attraverso un paio di sensori, una depth camera e un proiettore potremo navigare sui nostri social network, guardare foto o ritoccarle, proiettare film e slideshow senza telecomandi o controller ma semplicemente alzando un braccio tra le pareti del nostro salotto o parlando.

Coscienza verde. La crescente domanda di energia rende urgenti delle risposte alla cruciale questione della sostenibilità. I ricercatori della Intel ne sono consapevoli e in collaborazione con la Sap stanno mettendo a punto tecnologie in grado di monitorare e ottimizzare i flussi di consumo. 

Sensori collocati nelle nostre case, auto e città, raccogliendo informazioni sulle nostre abitudini, potranno  ottimizzare l'utilizzo di energia ed evitare gli sprechi ed educarci anche a un consumo disegnato sulle nostre reali esigenze.

In Irlanda è in corso un progetto pilota in collaborazione con il fornitore irlandese ESB per incentivare il mercato dell'auto elettrica e allo stesso tempo studiare il comportamento dei consumatori di energia del futuro. In mobilità ma anche in casa.

La sfida è sempre quella di raccogliere informazioni, metterle insieme e renderle fruibili e consultabili. Il team della ricercatrice Terry o'Shea mostra su un tablet un'applicazione in grado di raccogliere informazioni da sensori di inquinamento e atmosferici che evidenziano le aree di una città dove i livelli di monossido sono più alti e dove  e in quanto tempo il vento li porterà. In futuro sapremo quindi se andare a fare jogging e dove trovare aria più respirabile. Un futuro abbastanza prossimo visto che nei prossimi cinque anni la Intel sarà impegnata in un progetto pilota a Dublino e Londra. 

Sono scenari di un futuro più o meno vicino che corrono sul filo sottile che separa l'invenzione dall'innovazione quelli che la Intel presenta, propone e sostiene. E' difficile prevedere cosa davvero si affermerà sul mercato e cosa resterà confinato nei laboratori ma se un colosso come Intel investe 100 milioni di dollari solo negli Usa nella ricerca in collaborazione con le università c'è comunque da prestare attenzione. 

Immaginare il futuro può essere un esercizio tanto divertente quanto fine a se stesso ma guardandoli da vicino quello che sembra ispirare gli Intel Labs non è tanto prevedere, da qui a 20 anni, cosa la tecnologia potrà fare per le persone ma cosa le persone vorranno dalla tecnologia. E questo può fare la differenza.
(03 luglio 2012)

Scoperto nuovo testo Maya la profezia non ha più segreti

dal sito: www.repubblica.it

ARCHEOLOGIA

Si tratta del testo più lungo mai rinvenuto in Guatemala. Intagliato su gradini di una scala, registra 200 anni di storia del sito La Corona. E racconta di quel viaggio fatto dal sovrano per tranquillizzare i sudditi spaventati dalla fine imminente

LA CORONA (Guatemala) - Conquistati i social network, la febbre da fine del mondo è diventata un tema di discussione molto "cool". I worldenders più impazienti avevano addirittura insinuato che i Maya avessero sbagliato data e che la fine non sarebbe arrivata il 21 dicembre 2012 ma il 5 giugno, in occasione dell'allineamento Sole-Venere-Terra. E' trascorso un mese e ancora non è successo nulla. Ma niente paura: per tener viva l'attesa e restituire credibilità alla profezia ora entra in gioco l'archeologia, riportando alla luce un documento che, raccontando di una visita reale effettuata in Guatemala nel 696 a.C. dal sovrano Maya, ribadisce che il mondo finirà inevitabilmente il 21 dicembre.

Gli esperti del sito guatemalense de La Corona hanno scoperto questo testo Maya risalente a 1.300 anni fa proprio in questi giorni, realizzando, fine del mondo a parte, uno dei ritrovamenti archeologicamente più interessanti degli ultimi decenni: si tratta infatti del geroglifico più lungo mai scoperto in Guatemala, talmente importante da esser già stato presentato al Palazzo Nazionale locale. Ma attenzione a non farsi travolgere da romanticismi new-age. "Questo testo parla dell'antica storia politica dei Maya più che della profezia", precisa Marcello Canuto, direttore del Middle American Research Institute dell'Università di Tulane e co-direttore degli scavi a La Corona.

Intagliato sui gradini di una scala, il manoscritto registra 200 anni di storia del sito La Corona e il riferimento al 2012 è stato rilevato su un blocco della scala che riporta 56 geroglifici finemente scolpiti. Il contenuto racconta di una visita reale a La Corona effettuata nel 696 a.C. dal sovrano Maya più potente di quel tempo, Yuknoom Yich'aak K'ahk' di Calakmul, solo pochi mesi dopo la sconfitta ricevuta da parte del rivale Tikal, e gli studiosi ritengono che il viaggio servisse a placare le paure del popolo, preoccupato per la sopravvivenza del proprio re.

Il riferimento al 2012, secondo i ricercatori, rimandava proprio alla volontà del sovrano di procrastinare a un ciclo lontanissimo nel tempo la fine del suo regno: più che una profezia sulla fine del mondo, dunque, il testo sarebbe un riferimento alla durata della sovranità di un re tormentato e andrebbe quindi inserito in un quadro cosmologico più ampio.

Poche settimane fa, un gruppo di archeologi dell'università del Texas aveva anche portato alla luce, sempre in Guatemala, i più antichi calendari astronomici Maya mai scoperti fino ad oggi, scolpiti sulla parete di un'abitazione scavata nel sito archeologico di Xultun. Né il calendario cerimoniale di 260 giorni, né quello solare di 365 gironi, né il ciclo annuale di 584 gironi legato al pianeta venere né quello di 780 giorni di Marte, però, fanno riferimento alla fine del mondo "prevista" per il 2012: "Gli antichi Maya predissero che il mondo avrebbe continuato ad andare avanti e che in 7mila anni le cose sarebbero tornate al punto di partenza", ha spiegato uno dei ricercatori, William Saturno.

Il 21 dicembre 2012, tuttavia, continua a far sognare. Temuto e atteso con ansia al contempo, è la data del calendario gregoriano nella quale, secondo alcune aspettative e profezie, si dovrebbe verificare un evento, imprecisato e di proporzioni planetarie, capace di produrre una discontinuità storica con il passato e una radicale trasformazione dell'umanità in senso spirituale.

Alcuni ipotizzano che dietro questa data si nasconda la fine del mondo. Ma secondo Sandra Noble, executive director della Foundation for the Advancement of Mesoamerican Studies, Inc. a Crystal River in Florida, "considerare il 21 dicembre 2012 come un giorno del giudizio o un momento di cambiamento cosmico è un'invenzione assoluta ed un'opportunità per molte persone di fare profitto". La fine di un ciclo del calendario era infatti vista dal popolo Maya semplicemente come occasione di grandi celebrazioni per festeggiare l'ingresso nella nuova epoca, in questo caso il 14º b'ak'tun.
(02 luglio 2012)

lunedì 2 luglio 2012

Dodicesimo LinuxDay: il software libero nella PMI

dal sito: www.zeusnews.it 

Tema dell'incontro sarà l'abbattimento dei costi del software in azienda, migliorando sicurezza e flessibilità, senza rinunciare a nulla. Con Linux ovviamente.
Il dodicesimo LinuxDay si terrà il 27 ottobre 2012 in tutte le regioni italiane, in oltre 100 sedi che coprono territorialmente l'80% delle province.
Sarà dedicato al software libero nelle piccole e medie imprese, perché il software libero può consentire agli imprenditori di abbattere i costi del software in azienda senza rinunciare a nulla rispetto alle soluzioni proprietarie.
Il LinuxDay 2012 avrà un approccio operativo, e avrà l'obiettivo di mostrare agli imprenditori le tecnologie e gli strumenti che permettono di azzerare i costi delle licenze e costruire soluzioni solide, sicure, avanzate, scalabili e personalizzabili, al servizio dell'innovazione, della creatività e della competitività internazionale delle piccole e medie aziende italiane.

Oggi, grazie a Linux e al software libero, gli stessi sistemi utilizzati dal Governo degli Stati Uniti e dai colossi dell'Information Technology quali Facebook e Google sono alla portata di tutti.
Nel 2011, i 110 eventi del LinuxDay sono stati visitati da più di 15.000 persone, con una presenza massiccia di studenti delle scuole superiori e delle università. E' proprio questo successo che ha spinto gli organizzatori, anche in considerazione della situazione economica italiana, europea e mondiale, a puntare sulle aziende, per offrire agli imprenditori uno strumento in più per affrontare la crisi.
tux
Linux ha già sostituito Windows e gli altri sistemi operativi nella maggioranza dei server utilizzati da società di telecomunicazione, grandi aziende e Internet Service Provider, e ha raggiunto un livello di maturità tale da poterlo fare anche sui PC.
Ci sono già grandi organizzazioni, come il Comune di Monaco di Baviera, che hanno completamente sostituito Windows con Linux, con una riduzione significativa dei costi, che a regime arriva addirittura al 90%.
Il LinuxDay 2012 è promosso da Italian Linux Society e sponsorizzato da Akhela. L'elenco degli eventi locali è in fase di definizione, e verrà pubblicato a partire da settembre.

Minitel, l'addio dopo 30 anni

dal sito: www.zeusnews.it

Chiude lo storico servizio precursore di Internet e del web.

 
minitel chiude dopo 30 anni
Con la conclusione del mese di giugno, la Francia ha deciso di iniziare il pensionamento del servizio Minitel, che ha debuttato esattamente 30 anni fa.
Era il 1982 quando nelle case dei francesi cominciavano a entrare dei terminali costituiti da un monitor CRT, una tastiera integrata e la possibilità di connettersi alla linea telefonica per consultare, in modalità esclusivamente testuale, tutto un mondo di servizi online prima ancora che Internet si diffondesse.
Il Minitel era nato per volonta della PTT (l'azienda telefonica statale francese, oggi France Télécom) quale sostituto degli elenchi telefonici cartacei: gli utenti avrebbero utilizzato il terminale per cercare i numeri telefonici, risparmiando all'azienda il costo di stampa e distribuzione.
Per favorire la diffusione del Minitel, i terminali veniva consegnati gratuitamente.
Quando poi la gente iniziò a utilizzarli, PTT ne intuì le potenzialità che andavano ben al di là della consultazione degli elenchi e iniziò a fornire tutta una serie di servizi a pagamento.
minitel terminale
Un terminale Minitel
Al momento del suo massimo splendore, il Minitel poteva vantare nove milioni di abbonati; tuttavia, non riuscì mai a diffondersi al di fuori della Francia nonostante qualche tentativo (da noi per esempio la SIP istituì il Videotel), e infine iniziò a soffrire dalle concorrenza tecnologica di Internet prima (con le BBS innanzitutto) e del web poi.
Tra gli svantaggi del Minitel rispetto al web e che ne hanno determinato il tramonto, si citano spesso sia la modalità esclusivamente testuale che l'impossibilità di inserire contenuti (occorreva ricevere un'apposita autorizzazione da France Télécom), cosa invece normale via PC.
Il Minitel chiude con ancora 800.000 abbonati attivi (e nel 2009 le connessioni mensili era ancora 10 milioni), per lo più anziani che non si sono mai abituati al computer.

Wi-Fi aperto? Non sei responsabile

dal sito: www.zeusnews.it

Dimenticare di proteggere la rete Wi-Fi non rende responsabili delle violazioni compiute dagli ospiti.

Mantenere aperta la propria rete Wi-Fi - ossia non impostare alcuna password per il suo utilizzo - non è una grande idea se si tiene alla propria sicurezza, eppure è una pratica tuttora piuttosto diffusa.
Se chiunque può collegarsi alla rete e utilizzarla, in linea teorica può anche adoperarla per qualche comportamento illegale; in quel caso, di chi è la colpa?

Un tribunale finlandese si è trovato a dover decidere proprio su un caso di questo tipo quando il CIAPC (una associazione antipirateria) ha fatto causa a una donna - rintracciata a partire dal suo indirizzo IP - accusandola di aver scaricato materiale coperto da copyright.
La donna ha però reagito sostenendo che, quel giorno, nella sua casa era in corso una festa cui hanno partecipato circa 100 persone, e una qualunque di esse avrebbe potuto connettersi con un portatile alla rete Wi-Fi aperta per macchiarsi poi del reato.
L'avvocato dell'accusata spiega: «Non sono stati in grado di provare che la proprietaria della connessione sia coinvolta in prima persona».

Il tribunale ha esaminato le posizioni ed è giunto alla conclusione che, in effetti, non è possibile considerare la donna colpevole, ma si è spinto anche oltre.
«La corte si è quindi chiesta se il semplice atto di fornire una connessione Wi-Fi non protetta da una password possa essere considerato un atto che viola il copyright» e, per venirne a capo, ha consultato le direttive europee in materia (tra cui la direttiva 2000/31/EC, la 2001/29/EC e la 2004/48/EC).
Come risultato, i giudici finlandesi hanno stabilito che chi possiede una connessione Wi-Fi non protetta non può essere ritenuto responsabile delle eventuali violazioni al copyright compiute da terzi.
Ora il CIAPC - che sperava nella sentenza opposta, per poi ottenere un'ingiunzione che obbligasse la donna a evitare ulteriori violazioni (in pratica facendole spegnere il Wi-Fi, dato che le reti wireless possono anche essere bucate) - può tentare di ricorrere in appello; in questo caso gli avvocati hanno già fatto sapere che non esiteranno a ricorrere alla Corte di Giustizia Europea.

Galline sterili e pozzi bollenti Ecco le spie del terremoto

dal sito: www.repubblica.it

SISMOLOGIA

Le rilevazioni in Emilia nei luoghi delle scosse: morie di pesci e di topi, colpa del metano. L'acqua diventa nera, il suolo si scalda e il mais nei campi triplica la sua altezza di ELENA DUSI

ROMA - "Il giorno prima del terremoto ho preso l'acqua dal pozzo per innaffiare l'orto. Era bruttissima, tutta torbida" racconta un contadino di via Taddia a Renazzo. "Me ne sono accorto lavando la betoniera" aggiunge un operaio a Camposanto. "Da fine aprile l'acqua era diventata calda. Ho avvertito anche il Comune, ma senza drammatizzare. E così nessuno è venuto". A Medolla, in via Modena, un altro agricoltore indica con il dito il suo campo di mais e racconta: "Subito prima della scossa iniziale le piante hanno cominciato a crescere in modo impressionante. Sono triplicate in altezza nel giro di tre giorni. Poi all'improvviso sono morte tutte".

A interrogare gli abitanti delle campagne emiliane sui segnali della natura che hanno preceduto o accompagnato lo sciame sismico iniziato un mese fa è Fedora Quattrocchi, dirigente di ricerca dell'Istituto nazionale di geofisica e vulcanologia (Ingv). "Prima o durante un sisma, a volte notiamo cambiamenti del livello dell'acqua dei pozzi, comportamenti anomali degli animali, emissioni gassose dal sottosuolo. Purtroppo però le nostre osservazioni non sono abbastanza sistematiche da permetterci di fare previsioni" spiega.

Le emissioni del gas radon, di cui tanto si parlò nel 2009 dopo il terremoto dell'Aquila, non sarebbero state di nessun aiuto in Emilia Romagna, il cui sottosuolo è privo di elementi di origine vulcanica. Ma altri gas probabilmente sono stati liberati dalle fratture delle rocce. A Medolla, zona già nota per le sue "terre calde", la temperatura del terreno ha raggiunto i 50 gradi subito dopo la prima scossa del 20 maggio. "I contadini - spiega Quattrocchi - hanno visto crescere il mais a ritmi impressionanti per alcuni giorni prima del sisma. Poi le piante sono morte e sul terreno si sono creati dei cerchi privi di vegetazione. In quella zona, alcuni giorni dopo la prima scossa, abbiamo misurato emissioni di metano fino a cento volte superiori alla norma".

La risalita di gas nocivi dal sottosuolo o il calore anomalo del terreno sono probabilmente all'origine anche della moria di pesci nei canali e nei laghi di tutta l'area colpita dallo sciame. A soffrire sono stati soprattutto persici e pescigatto, che vivono vicino al fondale. Al ristorante "Al 50" di Finale Emilia il proprietario ha visto scappare le tartarughe dal laghetto poco prima del sisma. Un contadino di Medolla ha raccontato impressionato: "Tre giorni prima della scossa del 20 maggio tutte le galline hanno smesso improvvisamente di fare uova. Non mi era mai successo prima". E in molti dei paesi terremotati i ricercatori dell'Ingv hanno raccolto testimonianze di una variazione del livello dei pozzi d'acqua. "Alcuni sono saliti perfino di un metro e mezzo o due" continua Quattrocchi. "Segno che nel sottosuolo si stava verificando una compressione delle faglie, la stessa che ha fatto sollevare il terreno di 15 centimetri a Mirandola, come osservato dai satelliti".

Nessuno di questi segnali ovviamente sarebbe stato sufficiente a prevedere il terremoto, e tantomeno a lanciare un allarme di evacuazione per la popolazione. "Ma forse - sottolinea Quattrocchi - converrebbe studiare con più costanza i precursori geochimici dei terremoti, per capire se esistono delle regolarità. Una rete di stazioni di monitoraggio ci aiuterebbe a seguire i parametri del terreno per tempi lunghi, insieme a quelli di spostamento delle placche".

La storia dell'analisi dei precursori chimici, della temperatura del terreno e dell'acqua non inizia ovviamente oggi. I segnali che precedono la scossa furono notati per la prima volta in un sisma del 1966 a Tashkent. E in coincidenza con il grande sisma di Kobe del 1995 furono notate emissioni anomale di radon, mentre l'acqua minerale che si imbottiglia nella zona si arricchì di cloruri e solfati, i pesci morirono nei fiumi e l'acqua dei pozzi diventò nera. I sostenitori della ricerca sui precursori citano l'esempio del grande terremoto cinese del 1975. Allora il cambiamento del livello dei pozzi d'acqua e di alcuni terreni, unito al nervosismo degli animali e a uno sciame di piccole scosse anticipatrici portarono all'evacuazione della regione dell'Haicheng e al salvataggio di 120mila persone. Ma da allora nessun'altra previsione si è più rivelata esatta. L'anno dopo la Cina è stata presa alla sprovvista da un altro sisma devastante. E in Giappone, dove la rete di stazioni di monitoraggio geochimico invece esiste, a prevedere un terremoto non è ancora riuscito nessuno. Da allora l'illusione di poter fare previsioni misurando radon, metano, pozzi d'acqua o addirittura i segni di nervosismo degli animali ha inquinato una scienza purtroppo ancora immatura per essere applicata alla prevenzione.

 
(02 luglio 2012)

Facebook si compra Face.com riconoscerà gli utenti dal viso

dal sito: www.repubblica.it

INDUSTRIA

L'azienda disporrà di una tecnologia in grado di "taggare" i suoi iscritti attraverso il riconoscimento digitale dei tratti somatici. La cifra dell'accordo non è stata rivelata, così come il destino del sito acquisito. Intanto l'azienda risale in borsa, ma è ancora lontana dalle cifre di quotazione

IL LIBRO DELLE FACCE a breve sarà in grado di individuare gli utenti dai lineamenti del viso. Facebook ha acquistato Face.com, azienda di Tel Aviv proprietaria di una tecnologia di riconoscimento facciale nelle fotografie, già partner del social network. La tecnologia di Face.com aiuterà gli utenti di Facebook a riconoscere l'identità delle persone presenti nelle foto, suggerendo i tag. Ma saprà anche indicare al social network dove e quando l'utente appare nelle immagini, contribuendo a definire ancora meglio il suo profilo sociale.

L'occhio del social.
"La tecnologia di Face.com ci ha aiutato a fornire un'esperienza fotografica migliore", ha specificato l'azienda di Mark Zuckerberg in un comunicato stampa. "Questa acquisizione ci porta in casa una squadra di livello mondiale".  In un post sul blog aziendale, Face.com ha confermato l'acquisizione: "Ci piace costruire prodotti e come i nostri amici di Facebook crediamo che i dispositivi mobili sono un parte fondamentale nella vita della gente, che può sia consumare che creare contenuti, condividendoli sui social network", spiega il comunicato. Che conclude: "Lavorare direttamente con Facebook e unirci alla loro squadra ci darà più opportunità di costruire un prodotto apprezzato dai consumatori. E' tutto quello che abbiamo sempre voluto". Face.com però non ha spiegato se il suo sito continuerà a essere attivo dopo l'acquisizione. Solitamente, infatti, Facebook chiude i siti che acquista, assumendo inoltre i dipendenti di quelle compagnie. Finora solo Instagram, in corso di acquisizione per la cifra di un miliardo di dollari da parte di Facebook, ha costituito un'eccezione.

Cifre sconosciute. Al contrario di quanto avvenuto con Instagram, stavolta i termini dell'accordo non sono stati resi noti, e la somma di acquisizione rimane un mistero. A un mese dalla quotazione, il social network può comunque festeggiare un aumento del valore del titolo, dell'11% la scorsa settimana. Ma i valori sono ancora il 21% sotto il prezzo fissato nella "initial public offering", in quello che è il calo maggiore nel primo mese di scambi di una società con un'ipo da più di un miliardo di dollari.
(20 giugno 2012)