Cerca nel blog

venerdì 29 giugno 2012

Athanor, la fusione fredda Open Source: intervista a Ugo Abundo

dal sito: www.greenstyle.it
Trovare un’alternativa valida alle fonti fossili, magari meno pericolosa del nucleare tradizionale, è uno dei grandi obiettivi tecnologici della nostra epoca. Dalle fonti rinnovabili al nucleare di nuova generazione (chissà quanto sicuro, poi), tanti sono i tentativi messi in atto di questi tempi per mandare definitivamente in soffitta petrolio e carbone. Fra essi, spiccano le ricerche sulle LENR, le reazioni nucleari a bassa temperatura, solitamente definite con la popolare espressione di fusione fredda.
Prof. Ugo AbundoDa che Andrea Rossi e Sergio Focardi hanno presentato il loro E-Cat, il numero di reattori e di progetti in studio è aumentato a dismisura. Tra questi concorrenti di Rossi, spicca secondo noi il progetto Athanor, sviluppato come progetto scolastico all’interno di un liceo romano. Per capirne di più, abbiamo deciso di porre qualche domanda al responsabile del progetto, il prof. Ugo Abundo.
Iniziamo con una domanda introduttiva. Cosa è il progetto Athanor e quali sono i suoi scopi?
Athanor (da alfa-thanatos) è l’antica fornace alchemica: nel nome, negazione della morte, è contenuto il significato del perpetuo rinnovarsi; rinnovarsi attraverso la trasformazione, così da poter ben essere assunta a modello di un’apparecchiatura per estrarre energie infinite mediante una reazione.
Il progetto si colloca nel settore L.E.N.R. (reazioni nucleari a bassa energia), impropriamente chiamato “Fusione Fredda” nel linguaggio comune; si tratta di studiare le condizioni in cui, in presenza di catalizzatori, si ottengono eccessi di calore rispetto all’energia immessa, facendo reagire elementi leggeri che interagiscono con nuclei, spostando gli elementi verso numeri atomici maggiori.
Scopo della sperimentazione è la ricerca delle migliori condizioni di reazione, in vista dello sviluppo di reattori per la produzione industriale di energia che presenterebbe i caratteri di inesauribilità, nessuna emissione di anidride carbonica, assenza di scorie radioattive, disponibilità per tutti, indipendentemente dalla ricchezza di risorse minerarie.
Scopo successivo, ma non secondario, è proteggere brevettualmente i risultati senza cederne i diritti proprietari (facendo agire solo in licenza) per non consentire che gli acquirenti possano eventualmente privare l’umanità della possibilità di impiego.
Parallelamente, la ricerca e impiantata in maniera “Open Source”, rendendo tempestivamente pubblici sulla Rete i risultati, e creando un gruppo, aperto a tutti gli esperti e gli interessati, per la condivisione di problemi, proposte, verifiche.

Leggi tutto: http://www.greenstyle.it/athanor-la-fusione-fredda-open-source-intervista-a-ugo-abundo-10388.html#ixzz1zBzUM5Uu

Fusione Fredda - E-Cat greco: Hyperion in vendita entro l’anno, parola di Defkalion

dal sito: www.greenstyle.it
Qualcosa si muove tra Cipro e la Grecia: voci sulla Defkalion rendono noto il business plan per il lancio del suo Hyperion, ovvero il reattore nucleare a fusione fredda gemello dell’E-Cat di Andrea Rossi. Come saprete, non mancano persone che mettano in dubbio le dichiarazioni della società, a partire dallo stesso Rossi, eppure al momento non c’è un motivo reale per concedere meno fiducia ai greci rispetto alla concorrenza.
e-cat lenr defkalion test indipendentiSu come funzioni l’Hyperion abbiamo scritto già parecchie volte, nei limiti dei segreti industriali imposti dall’azienda. Concentriamoci allora su quali saranno le scadenze future. Intanto, la prima notizia è che il prototipo del modello commerciale dovrebbe essere ormai pressoché ultimato. In questo senso, la Defkalion dovrebbe riuscire a presentare il proprio prodotto al mercato già entro il 2012. Un risultato che la porrebbe in vantaggio rispetto alla Leonardo Corporation di Andrea Rossi.
Ottenuto un prodotto commercializzabile e le relative patenti e/o brevetti, la Defkalion concederà ad aziende terze il diritto di costruzione degli impianti per la produzione industriale dell’Hyperion. Si parla di fabbriche capaci di costruire 300 mila unità all’anno, cifra decisamente importante. Come importante sarà il prezzo che queste aziende dovranno pagare per acquistare la licenza per costruire e distribuire per proprio conto il reattore greco: 40,5 milioni di euro.
Insomma, per un’azienda che fa base a Cipro ed in Grecia, un’importantissima iniezione di liquidità che dimostra come – e lo avevamo notato già noi – che difficilmente la crisi economica può davvero rallentare la diffusione di questo tipo di invenzioni: se il funzionamento di questi reattori fosse confermato, l’interesse che attirerebbe sarebbe troppo forte.
Infine, la Dekalion sarebbe interessata a collaborazioni con aziende e centri di ricerca esterni, nel tentativo di migliorare ancora sia la tecnologia, sia e soprattutto le sue applicazioni pratiche: sulla carta l’Hyperion potrebbe diventare il cuore sia di centrali elettriche, sia dei motori di navi o elicotteri, fino a diventare il propulsore per le automobili del futuro. Inutile dire che questa notizia e soprattutto questa coda finale andrebbe presa con un minimo di sano scetticismo. Intanto, le voci concludono ricordando che per nuovi annunci ufficiali da parte dell’azienda greco-cipriota, ci sarà da aspettare agosto.
Fonti: EnergyCatalyzer

Leggi tutto: http://www.greenstyle.it/e-cat-greco-hyperion-in-vendita-entro-lanno-parola-di-defkalion-10459.html#ixzz1zBy7hzUJ

Incertezza

dal sito: www.lescienze.it

Il 31 maggio 1927 la rivista scientifica tedesca «Zeitschrift für Physik» pubblica un articolo destinato a sconvolgere il mondo della scienza, e non solo, dal titolo: "Über den anschaulichen Inhalt der quantentheoretischen Kinematik und Mechanik", traducibile in italiano come "Sul contenuto visualizzabile della cinematica e della meccanica teoriche quantistiche".

L’autore, un fisico venticinquenne che già godeva di fama internazionale, in poco più di venti pagine elabora un ragionamento semplice, sottile e sorprendente, tratteggiando una delle più sconcertanti rivoluzioni del sapere umano: il principio di indeterminazione. Il giovane Werner Heisenberg è cosciente della portata «sovversiva» del suo scritto, in base al quale è impossibile conoscere contemporaneamente e con precisione massima velocità e posizione di un dato oggetto in movimento: quanto più precisamente si determina la posizione, afferma il principio, tanto meno si può conoscerne la velocità.

Un risultato che manda in frantumi la visione classica ottocentesca della scienza, secondo cui era scontato poter definire con precisione massima illimitata ogni parametro che descrive un fenomeno naturale.
Per celebrare gli 85 anni del principio di indeterminazione, allegato al numero di giugno di «Le Scienze» pubblichiamo Incertezza, di David Lindley, un libro che ripercorre in senso cronologico la genesi della rivoluzione intellettuale e scientifica di Heisenberg, e il successivo dibattito, che ha assunto toni anche feroci, innescato nella comunità dei fisici dalla pubblicazione del suo principio. In effetti, uno dei più restii ad accettare la novità di Heisenberg era stato proprio il grande mentore dell’epoca: il quasi cinquantenne Albert Einstein, il quale una ventina d’anni prima era stato protagonista di un’altra rivoluzione, con la sua teoria della relatività. Il principio elaborato dal giovane fisico tedesco forniva una solida base alla nascente meccanica quantistica, sgradita a Einstein.

Come spiega Lindley, astrofisico di formazione e già editor di «Nature», «Science» e «Science News»: «Nel mondo di Heisenberg, per quanto poteva capire Einstein, l’idea stessa di un fatto vero pareva sgretolarsi dando luogo a un assortimento di punti di vista inconciliabili. E questo, disse Einstein, era inaccettabile, se la scienza doveva avere un qualche significato attendibile». A quella che in seguito diventa una battaglia per lo spirito della scienza partecipa anche il fisico danese Niels Bohr, mentore prima e avversario scientifico poi proprio di Heisenberg.

Alla fine, sebbene riluttante, il padre della teoria della relatività riconosce la validità del principio elaborato dal suo giovane collega, al quale nel frattempo Bohr aveva dato una mano. Ma, ricorda Lindley, Einstein «non accettò mai che si trattasse dell’ultima parola». L’incertezza era un segno di un’incapacità umana, argomentava Einstein, non «un’indicazione di qualcosa strano e di inaccessibile riguardante il mondo stesso». Forse però c’era anche altro.

Le rivoluzioni, come sapeva Einstein, vedono spesso protagonisti i figli a spese dei padri, senza pietà alcuna. Quel giorno di maggio del 1927 era diventato lui il padre ingombrante. Un padre forse con qualche idea sbagliata, che un giovane determinato e probabilmente anche un po’ incosciente stava per travolgere. Un ruolo difficile da accettare per chiunque, anche per gli ex rivoluzionari.

Una proposta per il raggio traente

dal sito: www.lescienze.it
 
Sfruttando la possibilità di creare guide d’onda in cui velocità di gruppo e velocità di fase di un raggio luminoso puntano in verso opposto, si potrebbero attirare, invece che spingere, piccoli oggetti. I ricercatori che hanno studiato questa soluzione, che ricorda il raggio traente, un pezzo forte della fantascienza, sperano di poterla testare presto. Più che nello spazio però, un dispositivo del genere potrebbe avere applicazioni in ambito biologico e medico 
 di Evelyn Lamb

Il raggio traente, un pezzo forte della fantascienza, potrebbe essere un po’ più vicino alla realtà. In un articolo pubblicato a inizio primavera, alcuni fisici hanno proposto un dispositivo che può consentire alla luce di trainare oggetti.

Normalmente, la luce spinge gli oggetti, anche se debolmente. Nel campo della manipolazione ottica si usano “pinzette ottiche” che sfruttano questa forza di spinta per spostare gli oggetti microscopici, come atomi o batteri. La possibilità anche di trainarli aumenterebbe la precisione e la portata di questa tecnologia. Per i voli spaziali, gli ingegneri hanno già proposto l’uso di apposite vele per catturare la forza esercitata dalla luce.

Ma più che nello spazio, il raggio traente potrebbe rivelarsi utile in biologia e in medicina. "Se vuoi attirare qualcosa verso di te, basta ridurre la pressione", spiega Mordechai Segev, un fisico del Technion (Israel Institute of Technology), che descrive l’idea del suo gruppo di ricerca in un articolo pubblicato in aprile su “Optics Express”. "Basta fare po 'di vuoto", aggiunge. Il problema è che nelle delicate applicazioni mediche, come la chirurgia polmonare, è importante non modificare la pressione o introdurre nuovi gas. "Se il dispositivo di aspirazione fosse la luce – argomenta Segev – la pressione non cambierebbe affatto. E’ solo luce."

In passato, le idee per un "raggio traente" si sono spesso concentrate sulla creazione di nuovi campi gravitazionali per attrarre gli oggetti, sul riscaldamento dell'aria per produrre differenze di pressione o sull’induzione di cariche elettriche e magnetiche negli oggetti in modo che si muovano nella direzione opposta di un fascio laser in arrivo.

L'ultima proposta si basa su un fenomeno chiamato pressione di radiazione negativa. Il fisico russo Victor Veselago ne teorizzò per primo l'esistenza in un articolo del 1967 dedicato a materiali con una proprietà insolita, chiamata indice di rifrazione negativo. L'indice di rifrazione è un numero che descrive il modo in cui viene piegata la luce quando entra in una lente di vetro o in un altro mezzo, e al momento della pubblicazione di Vaselago nessuno sapeva se questo numero poteva essere negativo in un qualche materiale. Ma negli ultimi vent'anni, diversi gruppi di ricerca hanno dimostrato che la rifrazione negativa può verificarsi in materiali particolari appositamente realizzati, chiamati metamateriali, grazie a cui sono stati messi a punto mantelli dell'invisibilità parziale e "super" lenti prive di distorsioni.

Il meccanismo della pressione di radiazione negativa dipende da due aspetti di un'onda luminosa: la sua velocità di gruppo e la sua velocità di fase. Un’onda luminosa è costituita da gruppi di piccole onde, la velocità di gruppo è la velocità e la direzione generale del gruppo di onde; la velocità di fase si riferisce alla velocità e alla direzione di un punto su una delle onde costituenti più piccole. L'energia elettromagnetica dell'onda luminosa va nella direzione della velocità di gruppo, mentre l’effetto dell'onda su una particella va nella direzione della velocità di fase. Se queste due velocità puntano in direzioni diverse, si può generare una pressione negativa.

Una proposta per il raggio traente
(a) sezione trasversale di un blocco di un mezzo birifrangente con il gap destinato ad accogliere piccole particelle. (b) Sezione trasversale di una guida d'onda. (c) Rappresentazione tridimensionale della geometria guida d'onda.  (Cortesia J. Nemirovsky, M. C. Rechtsman, M. Segev)
L'uso di metamateriali per spostare particelle tramite pressione di radiazione negativa è stato ostacolato dal fatto che la maggior parte di questi materiali sono solidi, e introducendo un gap per le particelle si eliminerebbe la pressione di radiazione negativa. Inoltre, tutti i metamateriali attuali contengono metalli, che assorbono l'energia elettromagnetica, rendendo trascurabile l'effetto traente sulle particelle.

Invece di usare metamateriali, il gruppo del Technion propone una guida d'onda composta da materiali con una proprietà chiamata birifrangenza, utile a creare gli effetti ottici necessari. La birifrangenza, che si osserva in cristalli come il quarzo e la calcite, descrive materiali che hanno indici di rifrazione diversi a seconda della direzione di entrata della luce nel materiale. Mettete un cristallo di calcite su un giornale, e improvvisamente l'immagine si raddoppierà.

Il progetto di Segev e del suo gruppo utilizza strati di materiali con diversi tipi di birifrangenza, insieme a specchi appositamente progettati, per un produrre modello pratico da cui si potrebbe ottenere pressione di radiazione negativa. In questa guida d'onda, la velocità di gruppo si muoverebbe in una direzione e la velocità di fase nella direzione opposta. Cosa più importante, c’è un ampio gap (intervallo) tra gli strati. Questo intervallo, che non interferisce con le proprietà ottiche del materiale, permette l'introduzione delle particelle che devono essere trainate nella guida d'onda. "E’ come un sandwich", spiega Segev.

Il progetto proposto può sfruttare una varietà di materiali birifrangenti, che sono ampiamente disponibili e non contengono metalli, in modo da non sottrarre molta energia alla luce. Inoltre, se anche i materiali birifrangenti usati avessero uno spessore di alcuni micrometri, l'intervallo potrebbe essere di millimetri, consentendo la manipolazione luminosa di grandi particelle.

Viktor Podolskiy, fisico dell'Università del Massachusetts a Lowell, che non ha partecipato alla ricerca, afferma che l'approccio con i metamateriali e quello che punta sulla birifrangenza riguardano questioni differenti e hanno vantaggi e svantaggi diversi nell'ambito della pressione di radiazione negativa. "I metamateriali stanno affrontando problemi che riguardano il confinamento della luce in piccoli spazi speciali", spiega Podolskiy. L'approccio della birifrangenza, invece, "fa l’opposto. Porta la rifrazione negativa a livello degli oggetti di maggiori dimensioni." Un giorno entrambi gli approcci potrebbero trovare delle applicazioni.

In ogni caso, l'idea di generare una pressione di radiazione negativa, quale che sia il mezzo, esiste in gran parte solo sulla carta. Il laboratorio di Segev non ha nemmeno le risorse necessarie per creare la guida d'onda proposta. Tuttavia Segev afferma che diverse aziende sono in grado di produrre i materiali necessari, e i ricercatori sperano di trovare presto una ditta disponibile, in modo da poter testare sperimentalmente il loro progetto. Fino ad allora, le particelle dovranno aspettare per poter provare la sensazione di essere trainate verso la luce.

(La versione originale di questo articolo è apparsa su Scientificamerican.com il 20 giugno 2012; riproduzione autorizzata, tutti i diritti riservati)

mercoledì 27 giugno 2012

Chirurgia cerebrale hi-tech E' l'ora dei lombrichi robot

dal sito: www.repubblica.it

NANOTECNOLOGIE

Tanti progetti interessanti, ma al BioRob 2012 della capitale protagonisti sono i microchip vermiformi capaci di entrare nel cervello senza creare traumi. Consentiranno di rimuovere i tumori nelle zone più profonde e delicate. La sperimentazione sull'uomo partirà fra 3-5 anni

ROMA - L'idea è un po' alla Matrix ma di fantascientifico non c'è nulla: i mini-robot simili a lombrichi, capaci di entrare nel cervello senza creare traumi e rimuovere tumori preclusi agli ormai sempre più obsoleti bisturi, esistono davvero. E funzionano alla perfezione. Tanto che, secondo i ricercatori dell'università del Maryland che li hanno realizzati, in pochi anni rivoluzioneranno del tutto il mondo della chirurgia cerebrale, salvando da morte certa migliaia di persone.

Finora i robot-vermiformi sono stati sperimentati solo su animali ma con ottimi risultati, dimostrandosi ad esempio molto efficaci col glioblastoma, una neoplasia che nel 50% dei casi porta alla morte del paziente, il 50% delle volte entro 6 mesi. La sperimentazione sull'uomo, garantisce il neurochirurgo Jean-Marc Simard, che ha guidato il progetto, dovrebbe partire fra tre, massimo cinque anni. Buone notizie, insomma.

La presentazione ufficiale di questo e di altri progetti destinati a far storia è avvenuta a Roma in occasione del BioRob 2012, il Congresso Mondiale che raduna ogni due anni i massimi esperti di bioingegneria al mondo (500 quelli presenti quest'anno), sotto l'egida dell'Università Campus Bio-Medico. Grande quanto una moneta da un quarto di dollaro, di forma vermiforme e dotato di grande flessibilità, il robot-lombrico è stato battezzato MINIR (Minimally-Invasive Neurosurgical Intracranial Robot) e la sua utilità è in duplice, perchè non solo è capace di asportare tumori situati in zone osticissime, ma con la sua attività mirata riduce al minimo il rischio di lesioni della parte sana della massa celebrale e quindi di danni motori, cognitivi e del linguaggio. "Grazie a un minuscolo foro praticato sul cranio - spiega Simard - MINIR può intervenire sulle profonde neoplasie del cervello senza danneggiare la parte sana. La sua elevata snodabilità e i supporti tubolari di cui è dotato gli agevolano notevolmente il movimento all'interno dell'organo".

Simard, neurochirurgo specializzato nel trattamento di tumori cerebrali mediante tecniche di microchirurgia robot-assistita e professore all'università del Maryland, ha sviluppato questo gioiello di nanotecnologia grazie ai fondi statali del Nationale Istitutes of Health (Nih), sperimentandolo però finora solo su cavie animali. Dopo l'inserimento del microchip vermiforme nel cranio, il paziente viene sottoposto a risonanza magnetica, strumento di analisi che in tempo reale fornisce al chirurgo la mappa completa del cervello e la posizione esatta del tumore. "A questo punto il chirurgo, monitorando il video, manovra il mini-robot attraverso un joystick e procede all'asportazione", spiega lo studioso.

Nella fase di sperimentazione, il lombrico-robot è arrivato a rimuovere il 95% delle masse tumorali profonde prese in esame "e il restante 5% - conclude Simard - è quel sottilissimo strato tumorale che in neurochirurgia è considerato inamovibile, pena il danneggiamento della parte sana della materia cerebrale". MINIR potrà inoltre essere applicato anche per rimuovere i tumori della corteccia eloquente, che comanda appunto il nostro linguaggio, e rispetto alla quale, con le normali tecniche chirurgiche, i rischi di lesione sono elevatissimi.

Al BioRob sono stati presentati anche dei micro-chip inseriti nella calotta cranica, dotati di elettrodi in grado di raccogliere i segnali cerebrali del soggetto e inviarli all'esterno (oggi già sperimentati per permettere a persone completamente immobili di scrivere senza mani al computer).

Da un gruppo di ricercatori americani del Massachusetts Institute of Technology (MIT) è invece arrivata l'idea dei "soft robot", automi super-intelligenti realizzati con materiali morbidi e movimenti più "umani", in grado di interagire più facilmente con chi sta loro accanto e di adeguarsi meglio alle intenzioni dell'uomo. L'obiettivo dei creatori è quello di creare una "fisioterapista robot" che sostituisca le odierne piattaforme di riabilitazione per il recupero di pazienti colpiti da ictus (strumenti che, per quanto d'avanguardia, restano pur sempre molto freddi).

Ricercatori tedeschi hanno anche presentato delle capsule in grado di navigare all'interno dello stomaco fornendo gli stessi risultati di una gastroscopia ma risparmiando al paziente la sedazione e il fastidioso passaggio dell'endoscopio per esofago e tubo digerente. Guidate con campi magnetici controllati dal medico attraverso un semplice joystick, le capsule sono già state testate in Germania su oltre 50 pazienti e promettono un'interessante alternativa alla tradizionale trafila gastroscopica.

giovedì 7 giugno 2012

I segnali di preavviso del crollo di un sistema complesso

dal sito: www.lescienze.it

Il rallentamento della velocità con cui un sistema complesso - dagli ecosistemi  ai mercati finanziari - si riprende da un danno è un indicatore che si sta avvicinando a un punto di non ritorno. Per la prima volta, studiando popolazioni di lieviti, una ricerca è riuscita a quantificare questo tipo di segnali generici, aprendo la possibilità di monitorarli per controllare popolazioni di fauna selvatica, sfruttamento delle risorse ittiche ma anche cambiamenti climatici e mercati (red) Per un sistema complesso – come può essere un ecosistema, ma anche un mercato finanziario – il rallentamento nella capacità di risposta e di ripresa di fronte a eventi di disturbo può essere un segnale di preallarme che il sistema si sta avvicinando a un tracollo da cui potrebbe non riprenersi più. E’ questa la conclusione di una ricerca condotta da analisti del Massachusetts Institute of Technology e della Vrije Universiteit di Amsterdam che pubblicano un articolo su “Science”.

Esempi di tracollo di questo genere ve ne sono anche nella storia recente; per esempio, nei primi anni novanta del secolo scorso la pesca eccessiva ha portato al crollo di una delle più ricche aree di pesca del mondo, al largo della costa di Terranova: a oltre vent’anni di distanza la popolazione di merluzzi non si è ancora ripresa, con gravi ripercussioni sull’erconomia di tutta la regione.

I segnali di preavviso del crollo di un sistema complesso 
  © moodboard/Corbis
Per spiegare questo tipo di crollo si è ipotizzato che le popolazioni che soffrono di un deterioramnto delle condizioni del loro ambiente appaiono appaiono stabili fino al raggiungimento di un punto di non ritorno, in cui la popolazione crolla. Questa teoria, che ha un “antenato” nella teoria della catastrofe di René Tohm, aveva finora però una pecca: non era mai stata validata empiricamente, una lacuna a a cui ha ora posto rimedio lo studio condotto da Jeff Gore.

"Questo modello è una spiegazione ragionevole di questi cambiamenti improvvisi, ma è molto difficile da dimostrare: è il genere di cose che non si può fare allo stato selvatico”, osserva Gore.

I segnali di preavviso del crollo di un sistema complesso 
  © Ocean/Corbis
Si può, invece, farlo in laboratorio. Gore e colleghi hanno infatti condotto una serie di esperimenti su popolazioni di lieviti, simulando un peggioramento delle condizioni ambientali, e rimuovendo una certa percentuale di lieviti dalle colture per mimare il tasso di mortalità. In natura queste condizioni di degrado potrebbero derivare da mancanza di cibo, pesca eccessiva, cambiamenti climatici, acidificazione del mare o qualsiasi altra fattore dannoso per la popolazione.

I ricercatori hanno scoperto che, in parallelo al deteriormento di condizioni, la popolazione diventa meno resiliente, meno “elastica”: ogni volta che subisce qualche tipo di perturbazione, ha bisogno di più tempo per recuperare una condizione di stabilità.

In particolare, è stato rilevato che le fluttuazioni delle popolazioni di lieviti diventavano più ampie e più lente in prossimità del punto di non ritorno. Così, un aumento delle dimensioni e dei tempi delle fluttuazioni può servire come indicatore della fragilità di una popolazione e fare da  preavviso di suo crollo imminente.

Internet si allarga col protocollo IPv6 milioni di miliardi di indirizzi in più


da sito: www.repubblica.it

FUTURO

I grandi attori del web, da Facebook a Google a Yahoo!, insieme ad altri 2600 siti, da domani abiliteranno le connessioni con il nuovo standard. Scongiurando così l'esaurimento di connessioni disponibili, che diventeranno 3,4×1038. E preparando un futuro in cui saremo ancora più connessi di FRANCESCO CACCAVELLA

"QUESTA VOLTA facciamo sul serio": l'Internet Society ha scelto un messaggio chiaro per annunciare al mondo che domani, dopo anni di tanti annunci e pochi fatti, sarà il momento di passare davvero a IPv6 (Internet Protocol version 6), il nuovo protocollo di comunicazione per internet destinato a sostituire il vecchio protocollo IPv4, quello che ha fatto funzionare la Rete sin dagli anni '80.

Il 6 giugno è infatti il World IPv6 Launch, il giorno in cui Facebook, Google, Bing, Yahoo, Youtube e altri 2600 siti (tra cui una ventina italiani) configureranno i loro server per accettare connessioni IPv6. Lo avevano già fatto, ma solo per un giorno, un anno fa, e i risultati furono ottimi. Questa volta, invece, si fa un passo in più: tutti i siti che partecipano all'iniziativa si sono impegnati ad abilitare in modo permanente il proprio sito al nuovo tipo di connessioni. Che, a processo completato, risolveranno il problema della carenza di indirizzi disponibili e garantiranno lo sviluppo della rete nei prossimi decenni.

Come prepararsi. La maggioranza dei navigatori non dovrebbe accorgersi di nulla. I siti saranno configurati per supportare le vecchie connessioni in una configurazione chiamata "dual stack": nel caso un computer non supportasse IPv6, le informazioni saranno servite attraverso le tradizionali connessioni IPv4. E saranno la stragrande maggioranza, perché oggi quasi nessuno è pronto per usare IPv6: per verificarlo si può provare ad eseguire il test messo a disposizione da Google 1.

Secondo lo strumento che misura l'adozione IPv6 2 gestito da Google, solo lo 0,6% degli utenti internet naviga oggi con connessioni di questo tipo (era lo 0,2% nel 2010). In Italia, ultimissima nei paesi Europei, l'adozione è addirittura ferma allo 0,01%.

Perché IPv6. La giornata di domani sarà dunque solo un primo passo, simbolico ma importante: stabilisce che il cambiamento è iniziato e non può subire ritardi. A parte alcune migliorie tecniche, che dovrebbero incrementare l'efficienza delle comunicazioni, il nuovo protocollo ha il vantaggio di garantire fino a 340 trilioni di trilioni di trilioni di indirizzi (un trilione è pari a mille miliardi), mentre il suo predecessore si ferma a poco più di 4 miliardi.

Gli indirizzi sono i numeri che identificano un nodo della rete: dal sito da un miliardo di utenti al mese come Google, al cellulare che controlla la posta, al televisore che si collega a YouTube. Gli indirizzi vengono assegnati dalla Iana (Internet Assigned Numbers Authority) a cinque registri regionali che li distribuiscono poi ai provider.

Da anni, e con un'apprensione a volte giudicata a torto esagerata, gli esperti della Rete hanno avvisato il mondo che gli indirizzi registrati con il vecchio protocollo stavano per finire 3 e che era necessario accelerare nell'adozione del nuovo protocollo.

La situazione oggi. La fine, negli ultimi mesi, si è avvicinata a passi veloci. Nel 2011, complice la crisi economica in Europa e Usa, sono stati assegnati "solo" 201 milioni di indirizzi internet in tutto il mondo - il numero più basso degli ultimi anni - ma l'area asiatica ha già finito i pacchetti che le erano stati assegnati. 

Il boom dei dispositivi mobili e il benessere di Cina e India hanno rapidamente esaurito la disponibilità e l'Apnic, il registro della regione Asia-Pacifico, si è trovata nell'aprile dello scorso anno senza più indirizzi IPv4. In Europa l'ultimo lotto di indirizzi dovrebbe essere assegnato ad agosto, mentre negli Stati Uniti l'ultimo giro è previsto per luglio 2013.

Finora è mancato uno sforzo comune che garantisse una veloce transizione al nuovo protocollo. Per questo il World IPv6 Launch non coinvolge solamente siti web, ma anche produttori di apparati di rete (come D-Link e Cisco) e fornitori di servizio (come AT&T o France Telecom). I primi si sono impegnati a configurare in via predefinita con IPv6 i router che distribuiscono ai consumatori, i secondi a dotare l'1% dei propri clienti con connessioni basate sul nuovo protocollo.

Il perché dei ritardi.
L'1%, con l'esaurimento degli indirizzi che si avvicina, è davvero poca cosa. Tuttavia il passaggio alla nuova infrastruttura è un processo lungo e delicato. Per garantire una reale transizione all'IPv6, l'intera infrastruttura dovrebbe supportare il nuovo protocollo (IPv6 non è compatibile con IPv4). I sistemi operativi più recenti (Windows, Linux e Mac) lo sono già; meno i provider che dovranno riconfigurare l'intera propria rete per poter fornire connettività di questo tipo; ancora meno gli apparati di rete che connettono i computer alla rete Internet (i router che abbiamo a casa) e quasi per niente i milioni di piccoli siti che visitiamo quotidianamente.

Akamai, leader nella distribuzione di contenuti del mondo, prevede che il passaggio completo a IPv6 si completi non prima di dieci anni. E in quei giorni, gli indirizzi IPv4 saranno diventati oramai una risorsa inestimabile.
 
(05 giugno 2012)

La cyberguerra sul computer e l'allarme lo suona Google

dal sito: www.repubblica.it

SICUREZZA

Con una barra il gigante di Mountain View ci avviserà che gli hacker stanno cercando di impossessarsi della nostra cybervita e potrà essere in grado di dirci se dietro di loro gli stati canaglia. E' il primo servizio al mondo di cyberallarme. Loro lo spiegano così dal nostro inviato ANGELO AQUARO

NEW YORK - Non solo Cia e Fbi: la cyberguerra arriva sul computer di casa. Il nemico ci spia nel pc: si intrufola nelle email, si aggrappa ai siti che consultiamo, si aggancia alle applicazioni che apriamo. Vuole impossessarsi del nostro computer per trasformarlo in una micidiale macchina da guerra virtuale. Più pericoloso di un hacker, più insidioso di una spam. E' il nemico, appunto, al soldo di uno stato straniero: i nuovi stati-canaglia del web, la solita Cina, il solito Iran, i soliti sospetti della cyberguerra. Quando, naturalmente, non sono gli Stati Uniti di Barack Obama a mandare inavvertitamente in giro per il mondo un virus 1 che era destinato a mandare in tilt le centrali atomiche di Teheran...

Che fare? La fantascienza che diventa realtà spinge il colosso del web a una mossa da fantascienza: da oggi Google ci dirà anche se una potenza straniera tenta di forzare il computer di casa. E' il primo servizio al mondo di cyberallarme via Internet. "Attenzione", avverte una barra rosa che si accenderà sul nostro computer, "sospettiamo che attacchi sostenuti da uno stato stiano cercando di compromettere il vostro account o il vostro computer". Proprio così: Google non solo sa che gli hacker stanno cercando di impossessarsi della nostra cybervita - sa anche che dietro quegli hacker ci sono gli stati canaglia. Possibile?

L'iniziativa è stata annunciata sul blog di Google da Eric Grosse, il vicepresidente responsabile della sicurezza. "Se vedete questo allarme non significa necessariamente che il vostro account sia stato già attaccato", spiega il superingegnere. "Vuol dire che sospettiamo che potreste essere il bersaglio anche di un'operazione di phishing o di un virus: e per questo dovreste fare subito qualcosa per rendere sicuro il vostro account". Ma come fa Google a sapere che il virus o il phishing, cioè l'amo virtuale lanciato con un'email magari accattivante, sono stati lanciati da hackers al servizio di stati spioni? "Non possiamo entrare nei dettagli senza svelare informazioni che potrebbero essere utili a questi furfanti", spiega sempre Grosse, "ma le nostre analisi dettagliate - così come i racconti di alcune vittime - indicano fortemente il coinvolgimento di stati o gruppi che fanno capo a stati stranieri".

Google ha cominciato a collaborare più di un anno fa con la Cia e l'Fbi dopo gli attacchi partiti dalla Cina che avevano messo il gigante in ginocchio. E l'ex capo dell'intelligence di Obama, Dennis Blair, ha da tempo lanciato l'allarme sui rischi di una vera "Cyber Pearl Harbor".
Le compagnie americane spendono già più di 30 miliardi all'anno per la sicurezza sul web. Ma a finire nel mirino adesso sono anche giornalisti scomodi e attivisti umanitari. Proprio un reporter specializzato nei temi del terrorismo e della sicurezza, Marc Ambinder, nota firma di "Atlantic", è stato tra i primi a twittare di essere stato allertato da Google. Aggiungendo con un pizzico di amarissima ironia: "Grazie, Cina...".  E la paura di nuovi attacchi s'è materializzata nello stesso giorno con l'annuncio della breccia nel sistema di Linkedin 2: il social network dei professionisti ha amesso infatti di essere stato preso d'assalto da cyberpirati che hanno rubato oltre sei milioni di indirizzi e dati.

Certo nessuna cifra o difesa rischia più di bastare se gli attacchi prendono nel mirino non solo l'amministrazione e le grandi aziende ma pure i comuni cittadini. I nostri computer possono essere trasformati in armi micidiali utilizzando le stesse tecniche che i cyberladri usano per rubarci le informazioni - o che gli "hacktivist" come Anonymous utilizzano per mandare in tilt interi sistemi: mettendoli cioè in linea e trasformandoli in uno sbarramento di fuoco virtuali per costruire attacchi. Che fare dunque? E' sempre Google, che pure è finita sotto accusa per l'utilizzo dei nostri dati e il rispetto della privacy, a suggerire un paio di consigli: "Create un'unica password che abbia un buon mix di lettere maiuscole e minuscole ma anche di segni di interpunzione e numeri. Dotatevi di una verifica dell'account in due tempi per maggiore sicurezza. Controllate l'aggiornamento del vostro browser e del sistema operativo".

No, nessuna difesa è sicura. Però non sono raccomandazioni da lasciare cadere nel vuoto. Gli esperti del settore lo spiegano con un esempio terra terra. Chiaro che un buon ladro è capace di scardinare qualsiasi serratura: ma questa non è certo una buona ragione per non chiudere per niente la porta. Prepariamoci insomma. Anche perché la cyberguerra in arrivo non sembra molto diversa, purtroppo, dalla guerra vera: soprattutto adesso che comincia a fare le prime vittime civili.
 
(07 giugno 2012)

L'algoritmo prevede le onde aiuta a spostare la Concordia

ISOLA DEL GIGLIO

dal sito: www.repubblica.it

Una formula matematica capace di prevedere l'ampiezza e l'altezza dei marosi anche a 5 miglia di distanza servirà nelle operazioni di rimozione della nave della Costa crociere. Può essere usato anche a bordo delle navi o nella barometria

NAPOLI - La forza è sicuramente importante, ma non bisogna mai trascurare il cervello. Anche nelle operazioni di rimozione del relitto della Costa Concordia, la nave da crociera naufragata di fronte all'isola del Giglio lo scorso 13 gennaio 1. Un algoritmo che prevede l'altezza e l'ampiezza delle onde che stanno arrivando al molo da cinque miglia di distanza è stato acquistato dalla Regione Toscana e dala Capitaneria di porto locale per aiutare le società che stanno procedendo alla rimozione del relitto.

La formula matematica è stata messa a punto da Francesco Serafini del Consiglio nazionale delle ricerche (Cnr) e commercializzato dalla Remocean di Napoli. "L'algoritmo - spiega all'Ansa Massimo D'Ambrosio, amministratore delegato della Remocean - è stato sviluppato per essere imbarcato sulle navi e funziona cogliendo il segnale del radar e rielaborandolo con un comune personal computer che permette di ottenere tutte queste informazioni che normalmente non sarebbero ottenibili".

Infatti le sue applicazioni non si limitano a quelle della rimozione. Alcune grandi navi Grimaldi e Moby Lines stanno già provando l'algoritmo con l'intenzione di acquistarlo se soddisfatti. Saranno quindi in grado di prevedere onde anomale con un certo margine di manovra o di indirizzare la nave secondo la rotta migliore per risparmiare carburante. Il procedimento matematico potrà essere applicato anche alla barimetria e permetterà di tracciare una mappa precisa della profondità marina senza usare scandagli costosi. L'algoritmo è stato un argomento discusso oggi a Napoli a margine della presentazione degli Stati Generali del Mezzogiorno di Italcamp, che si terranno a Catanzaro il prossimo 30 giugno.
(06 giugno 2012)

mercoledì 6 giugno 2012

"Così comunicano i sensi nel cervello"


dal sito: www.repubblica.it

LO STUDIO

Ricerca italiana dell'IIT di Genova svela cosa succede nei circuiti nervosi quando percepiamo un suono o una luce: le varie aree sensoriali sono in competizione fra loro e si attivano in modo gerarchico seguendo canali specifici. Nuove prospettive per lo studio di soluzioni future contro danni al tatto, vista e udito

GENOVA - Come si comportano i circuiti nervosi del cervello quando percepiamo suoni e luci? Scatta una sorta di competizione e l'attivazione avviene in modo gerarchico, seguendo specifici canali di comunicazione. La scoperta, descritta su Neuron, si deve ai ricercatori del dipartimento di Neuroscience and Brain Technologies (NBT) dell'Istituto Italiano di Tecnologia di Genova e pone le basi per lo sviluppo di nuove interfacce elettroniche per la riparazione cellulare del cervello.

Il gruppo di ricercatori, coordinati da Paolo Medini, team leader del Dipartimento NBT, ha studiato i meccanismi e i circuiti che consentono alle diverse aree sensoriali del cervello di comunicare tra loro, svelando un'influenza reciproca tra i diversi gruppi neurali che ricevono e gestiscono le informazioni provenienti da udito, tatto e vista. L'attivita elettrica di un gruppo, infatti, inibisce o stimola l'attività di un altro, in modo che la comunicazione delle aree sensoriali verso quelle delle decisioni motorie sia preclusa o favorita solo per alcuni sensi.

Lo studio è stato condotto sul sistema visivo dei topi. "Grazie all'applicazione di metodi di registrazione e stimolazione dei neuroni ad alta risoluzione temporale e spaziale, siamo riusciti a identificare con precisione i circuiti e le cellule che mediano gli effetti inibitori di un'area sull'altra", ha spiegato Medini. In particolare, lo studio evidenzia il rilascio di neurotrasmettitori inibitori da parte dei neuroni nella corteccia uditiva verso i microcircuiti neurali di tatto e vista. Al contrario, i neuroni dedicati all'elaborazione visiva inibiscono le aree corticali acustiche, mentre stimolano le aree corticali che elaborano il senso del tatto.

I microcircuiti lungo cui i diversi gruppi neurali comunicano sono stati esplorati con tecniche "optogenetiche", che combinano insieme l'esattezza di una modificazione genetica e la semplicità della fotostimolazione.

Secondo Medini, una delle sfide delle neuroscienze è "rappresentata dalla necessità di riparare i danni che si possono presentare in specifici punti dei circuiti cerebrali". "Il nostro studio - ha aggiunto - rappresenta la base da cui sviluppare nuove terapie di riparazione cellulare, infatti ci consente di iniziare a progettare interfacce neuroelettroniche innovative in grado di sostituire le aree sensoriali danneggiate". La scoperta, infine, spiegano i ricercatori, apre la strada alla comprensione delle modificazioni che avvengono nel cervello a seguito di deprivazioni sensoriali profonde come cecità o sordità.

Il prossimo passo sarà ora quello di approfondire la conoscenza di come i circuiti neurali si riorganizzano in mancanza di un senso, per intervenire quindi con dispositivi artificiali.
(05 giugno 2012)

sabato 2 giugno 2012

Un “cappello di Schroedinger” per l'invisibilità

dal sito: www.lescienze.it

Un gruppo internazionale di matematici ha previsto per via teorica un nuovo dispositivo per produrre un “mantello dell’invisibilità” che consentirebbe di amplificare le onde elettromagnetiche, acustiche e  quantistiche al suo interno rendendole non percepibili dall’esterno. Il risultato potrebbe aprire la strada alla costruzione di un microscopio quantistico, da utilizzare, per esempio per controllare i processi elettronici che si verificano sul chip di un computer (red)

È stato battezzato “cappello di Schroedinger” il dispositivo progettato da alcuni matematici dell'Università di Washington (UW) che teoricamente è in grado di amplificare la luce, le onde sonore e altri tipi di onde nascondendole al contempo all'interno di un contenitore invisibile.

I richiami del nome sono evidentemente due: il paradosso quantistico del “gatto di Schroedinger” (grazie all’assonanza tra i termini “cat” a “hat” in inglese) e il cilindro dei prestigiatori.

"In un certo senso, il paragone è azzeccato, dal momento che all’interno del "cappello" si verifica qualcosa di magico, anche se assolutamente scientifico”, ha spiegato Gunther Uhlmann, professore di matematica dell'UW che firma con i colleghi l’articolo apparso sui “Proceedings of the National Academy of Sciences”.

La loro ricercaSsi inserisce nel fecondo ambito di studi sulla possibilità di deflettere in modo controllato le onde elettromagnetiche mediante l’ottica trasformativa e i metamateriali che prende il nome di “mantello dell'invisibilità” (o cloaking, in inglese) perché consente di produrre effetti di propagazione ondosa che non si possono osservare in natura e che riguardano un’ampia gamma di fenomeni: elettrostatici, elettromagnetici, acustici e quantomeccanici.

In termini teorici, il cloaking ideale produce un disaccoppiamento tra le parti dell’onda all’interno della regione schermata e l’esterno, determinando sia l’impossibilità di rilevare dall’esterno la presenza di un oggetto all’interno, sia l’impossibilità da parte delle onde che provengono dall’esterno di penetrare all’interno.

Nei dispositivi reali ciò che si può fare è ridurre al minimo l’accoppiamento tra interno ed esterno, anche se si verificano stati risonanti che distruggono sia l’invisibilità sia la schermatura. In prossimità di questi valori risonanti è possibile definire parametri di cloaking in modo che i flussi entrante e uscente siano bilanciati in modo preciso, permettendo un miglioramento dell’invisibilità pur pagando una certa penetrazione delle onde dall’esterno.

Un “cappello di Schroedinger” per l'invisibilità
Il grafico mostra un'onda di materia che colpisce le pareti del "cappello di Schroendinger": all'interno l'onda è amplificata; all'esterno procede come se non avesse mai incontrato alcun ostacolo ()
“È possibile isolare e ingrandire ciò che si vuole vedere, rendendo il resto invisibile”, ha aggiunto Uhlmann. “L'amplificazione delle onde all’interno raggiunge valori incredibili, ma nonostante ciò è impossibile vedere ciò che succede all'interno del contenitore”.

La scelta del primo ambito di applicazione in questo caso ha ben poco di spettacolare: i ricercatori hanno infatti proposto di manipolare onde quantistiche di materia, una capacità che potrebbe aprire la strada alla costruzione di un microscopio quantistico, da utilizzare, per esempio per controllare i processi elettronici che si verificano sul chip di un computer.

“Dal punto di vista sperimentale, ritengo che l'aspetto più affascinante sia l'incredibile capacità di realizzare materiali per l'invisibilità acustica”, ha concluso Uhlmann. "Le lunghezze d'onda per le microonde, per i suoni e per le onde quantistiche di materia sono più ampie di quelle della luce e delle altre onde elettromagnetiche, il che rende più agevole rendere invisibili oggetti utilizzando questi fenomeni. Speriamo che si possa passare presto alle applicazioni, anche se è presto per dirlo”.

venerdì 1 giugno 2012

L'altra America senza regole dove lo spionaggio è business

PRIVACY


Servizi, aziende, gruppi, esperti, organizzazioni, istituti e think tank che si muovono nell'ombra. Tutti impegnati in attività di spionaggio che spesso sfuggono al controllo governativo Usa e le cui dimensioni sono difficilmente immaginabile. Le inchieste dei maggiori quotidiani Usa di PAOLO PONTONIERE

SAN FRANCISCO - E' un mondo a parte. Animato da servizi, aziende, gruppi, esperti, organizzazioni, istituti e think tank che si muovono nell'ombra. Tutti impegnati in attività di spionaggio che spesso sfuggono al controllo governativo Usa e le cui dimensioni sono difficilmente stimabili anche dagli esperti di sicurezza. L'influente periodico online Salon.com scrive che il fenomeno ricorda il maccartismo al tempo della Guerra fredda e i complotti organizzati dal Cointelpro (un braccio illegale dell'FBI) negli anni Sessanta contro chi si opponeva alla guerra in Vietnam.

La situazione è di una tale gravità che anche il Washington Post, giornale dell'establishment conservativo e terzo quotidiano statunitense, ne ha denunciato i pericoli dedicandogli un'inchiesta ad hoc. "La crescita smisurata e sregolata del Security and Surveillance Industrial complex (il complesso industriale di sorveglianza e sicurezza statunitense, un neologismo che la stampa ha coniato ispirandosi a quello creato da Eisenhower per definire il nascente military-industrial complex agli albori della Cold War, ndr), non ha precedenti nella storia del paese e dovrebbe invitare a riflettere sull'impatto che avrà sul futuro del paese", spiega Joel Skousen, esperto di sicurezza di World Affair Briefs.

Il manipolo di ufficiali all'interno del Dipartimento della Difesa (il ministero incaricato di controllare il settore) ai quali è stato affidato il compito di monitorare le operazioni riservate condotte negli Stati Uniti alla fine ha confessato di essere totalmente sopraffatto dalla quantità di queste iniziative private.

John R. Vines, un generale di fanteria che nel 2006 comandò il corpo d'armata alleato d'occupazione in Iraq, è tra quelli più preoccupati. "Non sono al corrente di nessua istituzione che abbia l'autorità, la responsabilità o un metodo per controllare tutte le operazioni di controterrorismo e di sicurezza nazionale condotte in questo momento da organismi che lavorano per le agenzie e da aziende private", ha dichiarato di recente Vines. "La complessità di questo sistema sfida la comprensione al punto che non è nemmeno possibile stabilire se questa azioni ci stiano rendendo più o meno sicuri".


I numeri fanno paura. Quasi seimila organizzazioni - di cui duemila private - che raccolgono informazioni e fanno monitoraggio di tutti i tipi, quando non sono direttamente incaricate di condurre operazioni di ordine pubblico. Circa 10.000 installazioni supersegrete dedicate alla sorveglianza e alla raccolta dei dati personali degli americani e al controllo delle loro attività, sia sul web che nella vita privata.

Una rete di spionaggio che ha un impatto militarizzante sulla geografia del paese, istituendo centri di sorveglianza non solo nei nodi nevralgici della nazione ma anche nel cuore agricolo e rurale degli Usa. Un network dalle diramazioni tentacolari che ha trasformato gli Stati Uniti in un misto di gulag elettronico e prigione a cielo aperto nella quale i cittadini sono tutti sotto osservazione.

Un settore che non conosce crisi. Oltre un milione i nuovi addetti, a partire dall'11 settembre del 2001, ogni anno si producono più di 50.000 rapporti riservati, che nella maggioranza dei casi finiscono coll'essere ignorati "ma che comunque servono ai politici per impaurire il pubblico", spiega Dana Priest, una dei due autori della serie del Post.

Duecentomila consulenti privati con le security clearance più alte che esistano. Quelle che danno per intenderci accesso ai segreti di Stato, a fatti che si discutono nella situation room alla Casa Bianca. Solo a Washington, per ospitare questi nuovi centri di monitoraggio si stanno costruendo uffici che occuperanno una superfice equivalente a quella di 27 nuove Capitol Hill, l'edificio che ospita la Camera statunitense. E questi numeri darebbero, secondo Skousel, un'immagine solo superficiale delle dimensioni mastodontiche raggiunte negli ultimi 10 anni in America dal settore dello spionaggio interno.

"L'inchiesta del Washington Post fa vendere il giornale, ma in quanto a svelare quello che realmente sta succedendo in segreto non scalfisce nemmeno la superficie", afferma Skousen. "Cose come il reclutamento, l'addestramento e la gestione delle operazioni di spionaggio sul suolo americano. A livello domestico queste coinvolgono solo lontanamente i nemici reali del nostro paese. Bersagliano invece prevalentemente alleati e dissidenti. Spesso si tratta di patrioti che il governo teme perché un giorno potrebbero opporsi al totalitarismo montante che sta investendo il paese".

E di questo clima di caccia alle streghe stanno facendo le spese sopratutto i dissidenti politici e le minoranze etniche e religiose. Terroristi potenziali come i membri del Twin Cities Anti War Group - un comitato pacifista - di Minneapolis e Chicago che a settembre sono finiti di fronte a un Gran Giurì per attività terroristiche commesse nel 2008.

Le attività in questione? Prendere parte a una delle tante manifestazione di protesta che si tennero al Congresso Repubblicano di quell'anno. A fare la soffiata era stata una certa Karen Sullivan, una talpa che l'Fbi aveva fatto entrare nell'organizzazione con l'incarico di provocare un intervento delle forze dell'ordine. "S'è presentata come una lesbica con una figlia adolescente e una relazione difficile con la partner", ha dichiarato Jess Sundin, uno dei pacifisti arrestati. "Una storia simpatetica che ci siamo bevuti senza difficoltà".

Il caso dei Newburgh Four. Una sorte simile spesso tocca ai musulmani che frequentano le moschee dei quartieri degradati alla periferia delle città americane. Gente come i Newburgh Four, quattro afroamericani di uno dei quartieri più poveri di Newburgh, una città della Hudson Valley a una sessantina di chilometri da New York.

I quattro sono stati denunciati alla polizia prima che potessero commettere attentati. A svelare i loro piani è stata una soffiata di Shahed Hussain, un informatore dell'Fbi in quella che il network projectsalam.org definisce una strategia deliberata del Bureau che mira ad incriminare coloro che frequentano le moschee del paese.

All'Fbi invece la chiamano "strategia di controllo delle probabilità statistiche". Ovvero la verifica empirica che le proiezioni statistiche formulate dagli analisti dell'agenzia rispetto ai focolari potenziali di dissenso politico siano corrette. E così informatori ben pagati come Hussain vengono inviati nelle moschee statunitensi per scovare terroristi in erba offrendosi di finanziare i loro attentati.

La strategia ha funzionato in questo caso. Poveri, illetterati, neri e con trascorsi penali, i quattro s'erano fatti ammaliare dai regali di Hussain e dall'offerta di 250 mila dollari per commettere un attentato. Uno dei quattro risulterà poi essere affetto da gravi disabilità cognitive.

E' andata diversamente nel caso di Khalifah al-Alkili, un trentaquattrenne di Pittsburg. Qui la strategia si è in parte rivolta contro la stessa Fbi. Giovane ed esperto delle nuove tecnologie, al-Alikili non solo è riuscito a smascherare Hussain ma ha anche chiesto aiuto al quotidiano britannico The Guardian. Ma il tutto non gli è servito ad evitare il carcere. A marzo di quest'anno al-Alikili è stato arrestato con l'accusa di simpatizzare per i talebani.

L'orecchio della Nsa. Secondo Skousen, la rete di sorveglianza messo a punto dalla National Security Agency, l'agenzia segreta più segreta degli Stati Uniti, ogni 24 ore intercetta oltre 1,7 miliardi di comunicazioni personali degli americani. Una media di sei comunicazioni quotidiane per ogni statunitense vivente, incluso i neonati, gli infermi e gli incarcerati. Un oceano di email, telefonate, messaggini, bill board posting e conversazioni di cellulare che vengono poi distribuite alle agenzie più disparate per analisi e possibili azione.

Se si trattasse solo di agenzie governative, giornali come il New York Times e il Washington Post non avrebbero niente da ridire. Ma gli analisti dei due prestigiosi quotidiani americani sono preoccupati proprio dal fatto che una buona parte della sorveglianza la conducono aziende private. 

Secondo Democracy Now, un buon terzo delle operazioni di sorveglianza e enforcement a stelle e strisce le conducono contractor privati e agenzie sconosciute. Ne sono consapevoli per esempio i membri di Occupy Oakland, il ramo californiano di Occupy Wall Street, che non di rado scoprono d'essere stati bersagliati o arrestati da addetti alla sicurezza di organizzazioni sconosciute.

Questa constatazione è stata addirittura usata da Jane Quan, sindaco della città californiana, come una scusa per scaricare il barile delle responsabilità negli incidenti che portarono al ferimento grave da parte delle forze dell'ordine di due manifestanti nelle operazioni di sgombro che si tennero l'ottobre scorso. In piazza, ha detto il sindaco a chi gli chiedeva di dimettersi, erano presenti ben 17 agenzie tutte con le loro armi e i loro addetti. Ragion per cui era impossibile, aveva affermato, stabilire con precisione chi avesse sparato e con quale tipo di arma.

Nella lista dei privati pubblicata dalla Priest nel reportage Top Secret America figurano i soliti ignoti del settore guerrieri privati: aziende come la Raytheon; la Booz Allen Hamilton: la L-3 Communications: la Csc; la Northrop Grumman; la General Dynamics, la Blackwater e la Saic, che esibiscono bilanci da miliardi di dollari. Quello che stupisce di più però è che un buon 70 per cento sono aziende che fatturano meno di cento milioni di dollari e raramente superano il centinaio di addetti. A dimostrazione che la sicurezza ormai negli Usa è un "affare di famiglia", condotto in gran parte da piccole aziende, che fanno background check, controlli fiscali, intercettazioni telefoniche e internet, analisi mediche.

Un labirinto di appaltatori e sub-appaltatori che lavora sia per le agenzie governative - dalla National Security Agency ai dipartimenti di polizia dei trasporti delle città più sperdute - che per le banche, le industrie, le scuole e i datori di lavoro. Eh sì, perché adesso negli Usa i controlli sui potenziali dipendenti lo fanno anche i piccoli negozianti.

E queste aziende non solo spiano ma fanno anche policying. Aiutano cioè il governo e il congresso americano a definire le risorse da allocare per attività delle quali è oramai quasi impossibile stimare l'estensione, il valore o l'efficacia ma che potrebbero assorbire già oggi un buon 20 per cento del Pil statunitense. Nel caso degli addetti ai lavori poi la spinta a produrre è stimolata dagli incentivi economici.

Con salari minimi che veleggiano sui 90 mila dollari l'anno e incentivi legati al volume di dati prodotti e delle condanne ottenute, è comprensible che questi continuino a sfornare analisi, rapporti su possibili attentatori, avvisi di reato, mandati di perquisizione e ordini d'arresto preventive a iosa. "E' difficile che queste attività non abbiano un impatto profondamente negativo sulla nostra cultura e sulla maniera in cui viviamo", ha osservato sconsolata di recente la Priest durante un'intervista alla National Public Radio.

Intanto, forte del suo successo di pubblico, Top Secret America, che ha un suo sito internet ed ha fruttato un premio Pulitzer ai suoi autori, è arrivato anche in libreria.
(22 maggio 2012)

Stuxnet, Israele e Usa dietro al virus "Creato da noi, ci è sfuggito di mano"

dal sito: www.repubblica.it

SICUREZZA

Il codice era stato sviluppato per contrastare il programma nucleare iraniano. Ma una modifica non perfettamente programmata introdotta dal governo di Tel Aviv ha reso il worm in grado di replicarsi su macchine esterne alle centrali. Il ruolo chiave di Obama nell'operazione denominata "Giochi olimpici", iniziata nell'era Bush di TIZIANO TONIUTTI

UN CLASSICO SCENARIO di spie e paesi in guerra, anche se soltanto nei circuiti informatici, quello che vede Usa, Israele e Iran nell'affaire del virus Stuxnet, una delle più potenti cyber-armi mai sviluppate, ora consegnata alla storia. L'operazione di sviluppo e diffusione del worm denominata "Giochi olimpici" è iniziata sotto l'amministrazione di George Bush Junior e poi proseguita, in maniera più incisiva, sotto la presidenza Obama. E' il New York Times ad alzare il velo su questa cyberguerra lanciata dagli Usa, che arriva alle cronache dopo 18 mesi di interviste con fonti americane, europee e israeliane coinvolte nel programma, come pure con esperti del settore estranei all'operazione.

Virus contro l'Iran.
L'obbiettivo di Stuxnet era disabilitare elementi chiavi dei sistemi di purificazione dell'uranio nelle centrali iraniane, ma facendo in modo che i sistemi non rilevassero errori. Operazione con duplice risvolto: primo, disinnescare la minaccia atomica del regime di Ahmadinejad. Secondo, e fondamentale per gli Usa, togliere motivi a Israele per attaccare i siti iraniani. Secondo ricostruzioni provenienti da graduati militari consegnate al New York Times, fu proprio Tel Aviv a voler potenziare il virus e renderlo capace di propagarsi più facilmente. Forse troppo: al punto che un portatile contagiato nella centrale di Natanz, avrebbe poi portato il codice pirata fuori dai sistemi interessati, provocando dissesti importanti su altre reti, assolutamente non tra gli obbiettivi dell'operazione.

Obama sulle orme di Bush. L'operazione "Giochi olimpici" non ha concluso il suo percorso dopo l'addio di Bush alla presidenza. Obama ha anzi incrementato il ricorso da parte degli Usa alle cyberarmi, ordinando segretamente un crescente numero di attacchi informatici contro i sistemi operativi dei principali siti nucleari iraniani. In un incontro alla Casa Bianca tenuto pochi giorni dopo la "fuga" del virus, Obama, il vicepresidente Joseph Biden e l'allora capo della Cia Leon Panetta valutarono le ripercussioni di tale incidente, in particolare sulle operazioni usa volte a rallentare il programma di sviluppo nucleare di Teheran.
Obama si mostro dubbioso sul proseguire l'operazione: "Dovremmo finirla qui?", chiese il Presidente. Ma una volta appreso che non era chiaro quanto l'Iran avesse scoperto del codice di Stuxnet, e di fronte alle prove che il virus stava comunque funzionando, Obama decise di continuare la cyberguerra.
 
Operazione guastafeste. Secondo le ricostruzioni, l'unico modo di convincere Israele a non attaccare militarmente l'Iran era che l'operazione informatica andasse a buon fine. A questo scopo, la National Security Agency ha collaborato strettamente con l'Unità 8200 dell'intelligence israeliana, esperta in cyberarmi. Stuxnet, o originariamente "The Bug", è il prodotto della collaborazione tra le due entità. Per testarlo, la NSA ha recuperato tecnologia nucleare iraniana originariamente attiva in Libia, di fatto ricreando una piccola centrale Natanz in Tennessee, all'insaputa degli stessi operatori. Il virus funzionava ed era tra l'altro il primo attacco informatico che non si limitava a rubare dati o bloccare processi software, ma distruggeva le turbine delle centrifughe costringendole a girare a velocità insostenibili.

Fuga del virus.
Una volta completato il collaudo ha avuto inizio la fase di infiltrazione e contagio delle macchine, durata diversi mesi e condotta a livello di base, utilizzando anche complici inconsapevoli e chiavette usb infette. E poi il contagio, lo scoramento degli ingegneri iraniani, i licenziamenti nelle centrali: Stuxnet si rivelava eccellente nell'attività di ingannatore, sabotando le centrifughe e contemporaneamente segnalando il perfetto funzionamento dei sistemi. Ma l'Unità 8200 ha forse osato troppo, secondo quanto riferito nella Situation Room a Obama e Biden. Tanto da compromettere l'operazione, perché Stuxnet nelle ultime versioni era diventato troppo aggressivo e incapace di riconoscere l'ambiente: non avrebbe mai dovuto uscire da Natanz, e invece una volta su internet, a cui è arrivato probabilmente tramite un portatile infetto, ha iniziato a diffondersi. Obama si è sentito dire: "Abbiamo perso il controllo del virus". Da qui in poi, l'individuazione dai vari monitor mondiali, e la progressiva dismissione, anche se nei giorni immediatamente successivi gli attacchi informatici a Natanz si sono intensificati: il sito venne colpito da una versione aggiornata di Stuxnet e quindi da un'altra ancora. L'ultimo attacco neutralizzò in via temporanea quasi 1.000 delle 5.000 strutture utilizzate da Teheran.  

DIFENDI il tuo AVATAR

dal sito: www.difendiiltuoavatar.com

Dalla vita reale a quella virtuale proteggendo la propria identita'





In questa guida si vuole parlare dell’identità di ciascuno di noi e soprattutto di come difenderla nella realtà virtuale del Web.
Per identità si intende il modo in cui ogni individuo considera e costruisce se stesso all’interno di una comunità di simili, attraverso i propri pensieri, i movimenti, le relazioni rispetto a se stesso, agli altri.
Il diritto alla privacy, ritenuta come la “sovranità su se stessi”, nasce proprio da questa necessità, intesa come il diritto a non subire intrusioni indesiderate nella propria sfera privata e a tutelare l’autodeterminazione della singola persona.
La possibilità di scegliere chi può accedere alla nostra identità è riconosciuto come un vero e proprio diritto. Il diritto alla privacy, ritenuta come la “sovranità su se stessi”, nasce proprio da questa necessità, intesa come il diritto a non subire intrusioni indesiderate nella propria sfera privata e a tutelare l’autodeterminazione della singola persona.
Nella vita reale, proteggere la propria identità è molto più semplice, dal momento che riusciamo agevolmente ad accorgerci se altri stanno “violando i nostri confini”, e a difenderci di conseguenza.
In rete tutto cambia, perché in assenza di un corpo “materiale” diventa molto più complicato dal momento che le stesse potrebbero addirittura proporsi come identità immaginarie. In rete può essere spesso difficile scoprire se altre identità intendono appropriarsi delle informazioni che ci appartengono.
Lo sviluppo tecnologico, l’impiego massivo delle attività on line, la crescita dei social network, stanno dando vita ad una fusione sempre più stretta tra reale e virtuale creando nuove difficoltà nella protezione della propria identità.
Si è quindi costretti ad utilizzare “mediatori” differenti, nella vita reale il corpo, mentre nella realtà virtuale l’ AVATAR, ovvero l’immagine rappresentativa della persona reale.
In questa guida, per riferirsi all’identità presente in rete si farà riferimento ad un ipotetico AVATAR, e a come proteggerlo, forniremo tutte le informazioni utili per continuare ad essere presenti in rete senza esporsi troppo, incrementando al tempo stesso la consapevolezza dei rischi in cui può incorrere l’AVATAR.
Obiettivo di questa guida è di far prendere coscienza che anche l’AVATAR non può prescindere dalla conoscenza dell’ambiente nel quale si muove e dalla consapevolezza che è necessario proteggerlo per non rischiare di perdere il controllo e aumentare, di conseguenza, la vulnerabilità dell’identità.

Individuati i neuroni "orologio" cellule che aiutano a svegliarsi

www.repubblica.it

LO STUDIO

Ricercatori statunitensi hanno scoperto che con la soppressione di un particolare tipo di unità cellulari l'organismo fa molta più fatica a passare dal sonno alla veglia

WASHINGTON - Dormiglioni, per voi c'è una scusa in più. I ricercatori statunitensi della New York University e dell'Albert Einstein College of Medicine of Yeshiva University hanno scoperto gli schemi che regolano il passaggio tra il sonno e la veglia e come i neuroni cosiddetti "orologio" collaborano tra di loro perché ci si svegli. Lo studio, pubblicato su Neuron, rivela l'esistenza di neuroni che, se soppressi, rendono molto più difficile svegliarsi.

"Il complesso sistema di neuroni orologio è fatto da neuroni master e non master, che assieme determinano il nostro ciclo circadiano", ha spiegato Justin Blau, ricercatore a capo del team. La ricerca ha analizzato il comportamento dei moscerini della frutta, insetti che hanno un sistema neurologico molto simile a quello dei mammiferi e degli esseri umani. In alcuni esemplari i neuroni non master, recettori del glutammato, sono stati diminuiti artificialmente. I ricercatori hanno osservato che questi "mutanti" fanno molta più fatica a svegliarsi rispetto agli altri moscerini e hanno concluso che l'equilibrio tra neuroni master e non master aiuti l'organismo a uscire dal sonno.

"Questo lavoro aiuta a spiegare neurotrasmettitori e recettori, responsabili della comunicazione tra i gruppi di cellule nervose che regolano il ritmo circadiano", ha riferito il co-autore della ricerca, Myles Akabas. "Dimostra, inoltre, il potere di ricerche interdisciplinari nello studio delle basi molecolari e cellulari del comportamento umano".
(29 maggio 2012)

"Ecco i raggi luminosi traenti muovere oggetti senza sforzo"

dal sito: www.repubblica.it

L'INVENZIONE

Il laser, capace di attirare a sè cellule o nanoparticelle di materia, è stato studiato dai ricercatori dell'Astar di Singapore e - sostengono - potrebbe diventare presto realtà

SINGAPORE  - Sarebbe contento Massimo Troisi, che in "Ricomincio da tre" sperava di poter spostare gli oggetti con il pensiero. Un raggio luminoso capace di attirare a se la materia, infatti, è stato messo a punto dai ricercatori dell'Astar Data Storage Institute di Singapore. Si tratta ancora di un progetto, ma potrebbe presto diventare realtà. "E' noto dal lavoro di Albert Einstein e Max Planck che la luce possiede un impulso e che può spingere particelle, anche se di poco. Tuttavia - ha riferito Haifeng Wang, ricercatore a capo dello studio - non eravamo ancora riusciti a attirare oggetti con la luce".

Il progetto per il nuovo raggio traente, pubblicato su Physical Review Letters, si basa su un particolare tipo di laser chiamato raggio Bessel. "Normalmente, se un fascio di luce laser colpisce una particella, rimbalza all'indietro e spinge in avanti la particella. Tuttavia, la distribuzione dell'intensità luminosa dei raggi Bessel fa sì che quando la luce del laser colpisce delle particelle, questa si diffonde verso l'avanti invece che all'indietro, e di conseguenza la particella viene attirata verso la direzione del laser", ha spiegato Wang. "Teoricamente, sarebbe possibile costruire un raggio di questo tipo su piccola scala utile per muovere cellule o nanoparticelle senza molta forza".

Purtroppo siamo ancora lontani dallo spostare esseri umani o macchinari: l'intensità luminosa necessaria per sollevarli potrebbe danneggiarli.
(29 maggio 2012)