vitocola.it

Condividere saperi, senza fondare poteri
Browsing category: Hardware/Software, webwired
0 comments

Ninux Day 2016

A Firenze, nell’ex villa rurale del 1500 di ExFila (che fu la storica sede della fabbrica di matite Fila), dal 26 al 27 novembre ci sarà il Ninux Day, organizzato dalla wireless community network ninux.org.

Tutti i membri delle community italiane ed europee e gli appassionati delle reti free, si riuniranno per discutere di:

* rete come bene comune
* networking spontaneo, dal basso
* governance di comunita’ decentralizzate
* aspetti legislativi legati alle community networks e delle reti wireless
* espressioni artistiche nell’ambito delle community networks o reti wireless
* reti cittadine
* wireless mesh networks
* protocolli di routing
* sistemi operativi FLOSS orientati al networking
* management e monitoring distribuito
* servizi distribuiti e decentralizzati
* fog computing e cloud (IaaS) distribuito
* reti resilienti

Se volete farvi un’idea su Ninux e le reti libere ne parlavo un po’ di tempo fa qui e qui.

Se invece volete proporre un talk o un workshop, potete invia un’e-mail a contatti@ninux.org con una breve biografia e un abstract da 50-100 parole entro il 15 Novembre.

Dove: Exfila, Via Leto Casini 11, Firenze
Wiki: http://wiki.ninux.org/NinuxDay2016
Blog: http://blog.ninux.org
Mappa dei nodi ninux: http://map.ninux.org

0 comments

L’internet delle cose vostre

Prima di raccontavi questa storia è bene evidenziare 4 parole chiave.

IoT

è l’acronimo di Internet of things (Internet delle cose) ed è la possibilità concessa agli oggetti di connettersi alla rete e comunicare tra loro. Per esempio un piccolo termostato installato su un frigorifero, un forno, una caldaia, che avvisa via internet il raggiungimento di una temperatura, oppure delle scatoline porta-farmaci che fanno squillare il cellulare di un familiare se il nonno si dimentica di prendere la pillola, tutte le smartTV, l’impianto di riscaldamento o di climatizzazione, ecc….  Insomma tutti quegli oggetti che attraverso un protocollo IP sono in grado di dialogare con qualche nodo della rete Internet e dei quali ci occupiamo poco in termini di sicurezza perché ci viene facile pensare che nessuno voglia entrare nel nostro tostapane.

DNS

è l’acronimo di Domain Name System e serve a “risolvere” i nomi dei nodi della rete in indirizzi IP e viceversa. Per esempio se digitiamo sulla barra degli indirizzi del nostro browser questo indirizzo IP: 216.58.198.36 ci comparirà la pagina di Google, come se avessimo scritto www.google.com. Sostanzialmente a questo serve il DNS e prima della loro invenzione (giugno 1983) se avessimo voluto trovare Google avremmo dovuto conoscere esattamente il suo indirizzo IP.  In pratica, ogni dominio internet viene registrato con un indirizzo IP pubblico e un nome, poi dei database sui server DNS si incaricano di accoppiarli sempre.

Ddos

Il Distributed Denial of Service è un tipo di attacco malevolo che, sfruttando la logica della comunicazione con il protocollo TCP, consiste nell’inviare molti pacchetti di richieste a un server il quale, dovendo rispondere necessariamente a ogni richiesta, si “ingolfa” al punto da rendersi inefficiente.  Quindi tutti gli apparati collegati a internet con TCP sono potenzialmente soggetti a questo tipo di attacco. Ovviamente maggiore è la quantità delle richieste inviate al server e più letale sarà il Ddos, ecco perché, prima di sferrare l’attacco, i cracker devono mettere insieme un buon numero di macchine attaccanti.  Siccome queste macchine sono poi individuabili, i cracker infettano prima un buon numero di apparati, attraverso virus che aprono delle porte esterne, e poi le comandano da remoto. Tutti questi computer diventati “zombie” entrano a far parte della BotNet che diventa la vera macchina da guerra.  E’ interessante sapere che vengono preferite le macchine che eseguono Windows perché è più facile inoculare un trojan ed è praticamente assicurata la diffusione dell’infezione a tutti i contatti presenti sul computer, quindi automaticamente ingigandire la botnet.

ddos-attackEra la primavera del 2013 e i server di  Spamhaus, un’organizzazione che fornisce filtri per bloccare lo spam nelle email, subisce una serie di attacchi informatici che costringono a una navigazione lenta e addirittura nulla in intere regioni del Belgio, Lussemburgo, Olanda, Gran Bretagna e in minima parte anche in Germania e in Francia. Si tratta di attacchi Ddos partiti ai primi di marzo in sordina e che verso la metà del mese erano diventati già insostenibili per i server di Spamhaus. La mole di dati che bombarda questi server viaggiano, all’inizio, a circa 10 Gigabit al secondo, poi si incrementano fino a 100 Gigabit e alla fine raggiungono i 300 Gigabit per secondo (cioè una cosa come 300 miliardi di bit al secondo).  Subito dopo tutti parlano del più grande attacco informatico che la rete abbia mai conosciuto e, per inciso, i sospetti cadranno su  CyberBunker, un gruppo olandese di web hosting che era stato accusato, proprio da Spamhaus, di usare lo spam per la vendita di prodotti e per questo l’aveva inserito nella sua lista per i filtri antispam.  Anche se, in verità, la polemica era già iniziata prima, nel momento esatto in cui CyberBunker aveva ospitato il dominio di “The Pirate Bay”.

Fra coloro che subirono più disservizi ci fu la webtv Netflix che restò irraggiungibile per un bel po’ di tempo.

C’è di nuovo Netflix fra i siti bloccati con l’ultimo attacco Ddos di qualche giorno fa, insieme a Twitter, Spotify, Airbnb, Reddit, Etsy, SoundCloud, GitHub e The New York Times, giusto per fare i nomi più grossi.  La trama è simile a quella appena raccontata e si riparla del “più grande attacco a internet“: la tecnica è la stessa, cambia solo il target,  ma la quantità di dati inviati ai server attaccati è di oltre 620 Gigabit al secondo, più del doppio di quello del 2013.

Alla base c’è sempre il solito Ddos (ormai il 90% degli attacchi sono di questo tipo) ma la prima differenza è rappresentata dal bersaglio: i server di Dyn.com, una società che offre il DNS ai molti domini Internet, che appena attaccata crea un effetto domino su un numero incredibilmente alto di altri server che non riescono più ad essere raggiunti nella rete perchè non rispondono più alla chiamata in chiaro in internet. La seconda sostanziale differenza è costituita dalla botnet: non più un esercito di computer zombie ma una massa indecifrata di attrezzature e oggetti che utilizzano l’IoT:  immaginate un esercito zombie di frigoriferi, televisori, lavatrici, macchine fotografiche, termostati, router, telecamere, video registratori digitali, strumenti della robotica, ecc…. che lanciano l’attacco alla Dyn.

E’ da tempo che l’internet delle cose veniva accusato di non badare troppo alla sicurezza, lo diceva già Forbes nel 2014, per esempio.  Brian Krebs, fra i maggiori esperti di sicurezza informatica, l’aveva previsto e aveva lanciato l’allarme denunciando la presenza di un codice che alimenta la botnet costruita su IoT.

Insomma, l’attacco del 21 ottobre sicuramente farà storia per la semplicità con la quale è riuscita a piegare i grandi di internet senza attaccare i loro server. Farà anche accademia per quanti vorranno provarci seguendo uno dei tanti tutorial disponibili in rete e noleggiando una botnet per 5 dollari l’ora.

Chi è stato? Al momento è difficile dirlo o fare delle previsioni, tutte le strade sono aperte: un gruppo di cracker ingaggiati da qualche azienda o qualche partito? oppure una semplice prova sul campo di una nuova strategia di intelligence?

0 comments

La nostra sicurezza nelle chat

In una ricerca pubblicata qualche giorno fa, Amnesty International ha stilato una classifica di 11 aziende (Apple, Blackberry, Facebook, Google, Kakao Corporation, LINE, Microsoft, Snapchat, Telegram, Tencent e Viber Media), proprietarie di applicazioni di messaggistica istantanea, che hanno maggior rispetto per la privacy dei loro clienti.

prismPeccato che sia in testa che in coda alla classifica ci siano gli stessi nomi che dal 2007 al 2013 erano presenti nel famoso caso PRISM.  Amnesty International non ignorava la cosa e ha chiarito di essersi interessata alle aziende “commerciali” con le applicazioni più diffuse. Ecco perché, per esempio, non c’è Signal che appartiene a un gruppo non-profit.

In sostanza Amnesty classifica quelle aziende con più attinenza e rispetto della propria policy in modo da consigliarci un male minore.

I criteri indagati sono stati 5 (1-riconoscere le minacce online alla libertà di espressione e diritto alla privacy come i rischi per i suoi utenti attraverso le sue politiche e le procedure; 2- applica la crittografia “end-to-end” di default; 3-sensibilizza gli utilizzatori sulle minacce alla loro privacy e alla libertà di espressione; 4-rivela i dettagli del richieste del governo per i dati utente; 5-pubblica i dati tecnici del suo sistema della crittografia) ma nessuna analisi tecnica è stata condotta sulla sicurezza globale del servizio di messaggistica.

Precisiamo che neanche con la crittografia “end-to-end”  si è al riparo dagli spioni, poiché sarebbe sempre possibile entrare in possesso delle chiavi crittografiche private con un po’ di “social engineering”, ad esempio, fingendosi uno dei destinatari, oppure assicurandosi il controllo di un nodo della connessione, o anche semplicemente accedendo ai dati di backup del cloud, ecc…., più o meno quello che la NSA faceva con x-keyscore.

Dunque, forse, sarebbe stato più utile considerare “se, dove e come” queste aziende conservano i dati dei clienti.

overall-ranking

Per farla breve ne viene fuori che WhatsApp (il più utilizzato sia per numero di ore che per frequenza di utilizzo e che usa lo stesso protocollo di Signal) è la chat più sicura di tutte, superando anche la concorrente Telegram che, invece, dal 2015  ha messo in palio 300mila dollari per chiunque riesce a superare il proprio sistema di sicurezza.

Ultima cosa importante del documento di Amnesty è che solo la metà delle aziende intervistate, rende pubblico un report sulla quantità di dati degli utenti che viene dato ai governi in seguito a esplicite richieste.

Ma allora, qual è l’app di messaggistica più sicura?

 

ALLO di Google neanche a parlarne. A parte la crittografia traballante c’è quel forte interesse (comune a tutte le aziende) a far soldi con i dati degli utenti che qui viene affinata ancor di più attraverso la “machine learning”. Si tratta di un servizio di profilazione avanzato degli utenti con il quale Google capisce sia il testo che le immagini contenute nei messaggi. In tal modo l’app riesce sia a suggerire frasi automatiche in risposta a delle immagini inviate che consigliare dei risultati di ricerca con una geolocalizzazione rapida su Maps in funzione del contenuto del testo digitato.  Dunque tutto il contrario della privacy dell’utente.

WhatsApp è la più popolare in assoluto, supera il miliardo di utenti e, come dice Amnesty, usa una crittografia end-to-end.  Il problema serio è rappresentato dalla raccolta di dati e metadati (la lista dei contatti, numeri di telefono e a chi si scrive) che Facebook può utilizzare per i propri fini e anche consegnarli alle autorità qualora venissero richiesti. Se poi si sceglie di salvare i contenuti delle conversazioni su cloud si completa il quadro del rischio per l’utente.

Telegram usa il protocollo MTProto definito, però, “traballante” da Thaddeus Grugq. A suo demerito va detto che salva tutti i dati sui propri server in chiaro e a suo merito i “bot” e le api libere per poterli creare, ma sopratutto i “canali” con i quali è possibile comunicare istantaneamente con un grandissimo numero di utenti.

Il migliore è sicuramente Signal e non perchè  l’abbia detto Snowden un anno fa, piuttosto per la sua filosofia di base che lo rende più sicuro.  signalIntanto è un sistema aperto e questo già basta a garantire sulla sicurezza da solo. Anche se può sembrare un ossimoro, in realtà  quando i codici sorgenti sono aperti, chiunque può migliorarli creando patch e sviluppi alternativi attraverso collaborazioni diffuse e riutilizzo del codice.

Inoltre Signal non raccoglie dati e metadati degli utenti da nessuna parte, ma annota soltanto i tempi di connessione. Anche quando chiede di condividere i contatti (in modo da trovare chi usa la stessa app) tutta l’operazione viene subito cancellata dai server.  Non essendo presente la funzione di backup della chat, nel caso si cambiasse smartphone, si dovrà spostare tutto a mano.

E’ stata creata da Open Whispers System, una società no profit che si finanzia solo con le donazioni volontarie. L’unico neo di questa app è quella di essere poco diffusa (sembra che sia stata scaricata da poco più di 1 milione di utenti contro il miliardo di utenti dichiarato da WhatsApp) e probabilmente resterà tale proprio a causa della sua filosofia sulla sicurezza che la rende poco user friendly.

0 comments

La banda dell’ultralarga

Ha ragione da vendere Massimo Mantellini quando mette il punto interrogativo sulle “competenze” di Enel, aggiungendo che “Solo un burocrate spericolato chiuso nel proprio ufficio può immaginare che l’infrastuttura digitale del Paese sia in fondo un gingillo tecnologico alla portata di chiunque”.

Stiamo parlando della “banda ultralarga”, annunciata da Renzi qualche giorno fa e che riguarda l’accesso a internet attraverso una connessione minima di 30 Mpbs.

Partiamo da un dato sostanziale: l’Italia è al 25° posto nella classifica dei 28 Stati membri dell’UE, con un accesso alla rete, geograficamente, molto divaricato; ovvero c’è una grande separazione tra le grandi aree urbane dove si accede a internet con la fibra ottica e le piccole aree dove a malapena si raggiungono i 10 Mbps. Se prendiamo come esempio la maggioranza dei comuni lucani, con i loro 2 o 4 Mbps, la velocità scende ancora di più.

Dunque aumentare la velocità delle connessioni e, soprattutto, diminuire (se non annullare) il digital divide, è una priorità imprescindibile.

Anche l’attuale governo se n’è occupato ponendo al centro della proprio proposta politica un’agenda digitale come azione programmatica improcrastinabile. Peccato che in realtà è una semplice bandierina per il marketing politico di Renzi.

Perché dico questo?

Perché non riesco a capire il motivo per il quale si cambia azienda di riferimento, scegliendo una semi-pubblica come Enel, ma si approva un progetto (Enel Open Fiber) che non prevede un intervento capillare sul territorio ma solo in zone economicamente più omogenee (cioè più convenienti dal punto di vista dell’investimento) e quindi con un approccio di tipo privatistico-imprenditoriale.

Il cluster A, quello “con il migliore rapporto costi-benefici, dove è più probabile l’interesse degli operatori privati a investire”, raggruppa le 15 principali città italiane (Roma, Milano, Napoli, Torino, Palermo, Genova, Bologna, Firenze, Bari, Catania, Venezia, Verona, Messina, Padova e Trieste) e le loro aree industriali, dove risiede il 15% della popolazione  (9,4 milioni di persone).
Il cluster B, diviso ulteriormente in cluster B1  e cluster B2, è formato da 1.120 comuni nei quali risiede il 45% della popolazione (28,2 milioni di persone).
Il cluster C , 2.650 comuni con il 25% della popolazione (15,7 milioni di persone) rappresenta le aree marginali e rurali a “fallimento di mercato” , sulle quali si prevede l’intervento del privato solo a condizione di un adeguato sostegno dello Stato.
Il cluster D con i restanti 4.300 comuni (in maggioranza al Sud) e il 15% della popolazione (9,4 milioni di persone)  è l’area dove è previsto soltanto l’intervento pubblico.

In pratica il progetto prevede di portare la banda direttamente in casa del cliente finale (FTTH) ma principalmente laddove conviene di più,  e accadrà che Enel si occuperà di portare la rete nei cluster denominati A e B (ma nel frattempo soltanto a 244 comuni l’ultralarga),  mentre gli altri due (C e D) dovranno continuare ad aggrapparsi alla rete cellulare (almeno laddove arriva il 4G); infatti il programma governativo prevede la copertura del 100% entro il 2020 ma limitatamente ai 30 megabit.

Se si considera che i comuni italiani sono 8.085 la copertura in fibra, al momento, interesserà soltanto  il 3% del territorio.

In conclusione, quasi tutto il sud resterà al palo e per la Basilicata le cose non sono certo migliori.
Basta andare sul sito Infratel Italia  per scoprire che i 100 megabit sono previsti  soltanto nelle due città capoluogo, che in 64 comuni è in corso di completamento la 30 Mega e che nei restanti 65 comuni si oscillerà tra i 2 e i 20 mega.

0 comments

Panama papers e altri numeri

Conto corrente estero e conto offshore

da l’Espresso

Per lo Stato italiano, e per l’Europa, è possibile possedere un conto corrente all’estero a patto che venga dichiarato fiscalmente, inserendolo nella dichiarazione dei redditi (nell’apposito quadro RW della dichiarazione dei redditi a partire da una giacenza o movimentazione annuale pari o superiore a 15 mila euri). La banca estera nella quale si apre il conto è obbligata a comunicare allo stato di residenza del correntista tutte le informazioni relative al conto corrente.
Il correntista, di conseguenza, verserà un’imposta (Ivafe) sul suo valore del deposito pari al 2 per mille, oltre alla normale tassazione sulle plusvalenze realizzate.
Sostanzialmente è come tenere un conto in una banca italiana, l’unica convenienza potrebbe essere rappresentata da migliori condizioni sulla tenuta del conto, da servizi più efficaci ed efficienti o dalla convinzione di aver depositato i propri soldi in una banca più solida e più sicura ma, credo, niente di più.
Chi mira, invece, a risparmiare sul pagamento delle tasse dovrà eludere tutta la procedura ufficiale e seguirne una “offshore”, ovvero aprire un conto estero sul quale le tasse non vengono pagate grazie alla segretezza dell’identità del correntista.

Panama papers

Questo è proprio il punto nodale di un conto offshore: la segretezza. Ma non è cosa semplice da realizzare. Considerato l’obbligo della trasparenza delle aziende e il grande impegno dell’OCSE nella lotta contro i paradisi fiscali, diventano indispensabili almeno due cose: primo rivolgersi a uno dei 14 paesi dove è ancora possibile richiedere segretezza (Belize, Brunei, Isole Cook, Costa Rica, Guatemala, Filippine, Liberia, Isole Marshall, Montserrat, Nauru, Niue, Panama, Uruguay e Vanuatu) e poi affidarsi a società o agenzie specializzate che riescono a far arrivare il denaro sul conto corrente di questa banca estera senza lasciare tracce. Anche tracce come le “ Panama papers”. Quasi dodici milioni di documenti, relativi a transazioni finanziarie segrete, sottratti allo studio Mossack Fonseca da un anonimo whistleblower che, come dice l’Espresso, li ha forniti al quotidiano tedesco Suddeutsche Zeitung che, a sua volta, si è rivolto al ICIJ (l’International Consortium of Investigative Journalists che ha condiviso il lavoro e la scoperta con le 378 testate partner tra cui l’Espresso).
Siccome stiamo parlando di 2,6 terabyte di dati, c’è chi sostiene che non si tratti di una semplice gola profonda ma crackers che hanno sfruttato la vulnerabilità di un vecchio plugin su WordPress (“Revolution Slider” che in una sua versione non aggiornata fa caricare una shell remota – corretta già da due anni da Wordfence) e di un server di posta, al quale accedevano tutti i clienti dello studio, che risedevano sullo stesso network.
Insomma una grossolana leggerezza che ha permesso di scaricare, per mesi, tutto l’archivio dello studio Mossack Fonseca. Infatti, dopo il 3 aprile, il loro dominio è passato a Incapsula che ha trasferito tutto su server neozelandesi.

Crackers?

Crackers perché l’operazione è stata pagata (non si sa se commissionata o offerta) e la filosofia hacker non collima con questa tipologia di finalità; e poi perché nella rete hacker non c’è stata nessuna eco dell’impresa.
Pagata dagli americani perché l’ICIJ è stato fondato da un giornalista americano (Chuck Lewis) ed è sostenuta da: Adessium Foundation, Open Society Foundations, The Sigrid Rausing Trust, Fritt Ord Foundation, Pulitzer Center on Crisis Reporting, The Ford Foundation, The David and Lucile Packard Foundation, Pew Charitable Trusts and Waterloo Foundation.
Tant’é che, al momento, tra tutti gli americani presenti nei documenti, non è ancora saltato fuori nessun nome eccellente a fronte dei 140 politici e uomini di Stato del resto del mondo.

I numeri

215 mila le società coinvolte, riferite a 204 nazioni diverse e 511 banche (tra cui le italiane Ubi e Unicredit);
378 giornalisti, in un forum chiuso, analizzano un database di 2,6 terabyte lungo 38 anni di registrazioni.
800 sono gli italiani coinvolti e tutto quello che ne verrà fuori continueremo a leggerlo sulle maggiori testate giornalistiche del mondo.

0 comments

La Cura. Ritrovare la sintonia con l’universo

E’ appena uscito in libreria (da qualche giorno anche in ebook) “La cura”, l’ultimo libro di Salvatore Iaconesi e Oriana Persico pubblicato da Codice Edizioni.

67 -Iaconesi_140_210_DEFUn libro straordinario, come dice Biava nella prefazione, per ciò che ci insegna e rappresenta, e  per il coraggio e la volontà mostrati dai due autori nel percorrere una via nuova e completamente ignota in una situazione drammatica e pericolosa, che solitamente si conclude in modo triste e doloroso.

Ne parlo con gli autori per i quali, in rete, c’è una infinità di definizioni, ma a me piace vederli semplicemente come due hackers che di questa filosofia (alcuni direbbero etica) ne hanno fatto l’unico modo di vedere e vivere il mondo.

Salvatore, partiamo dalla scoperta della malattia e dalla ribellione verso lo status di malato.

Un banale incidente in piscina nel 2012 si trasforma in un incubo: facendo lastre e accertamenti mi diagnosticano un cancro al cervello. Da lì nasce una riflessione immediata: appena avuta la diagnosi ed entrato in ospedale sono scomparso. L’essere umano Salvatore Iaconesi svanisce, rimpiazzato da dati medici, immagini, parametri corporei. Il linguaggio cambia, e subentra una separazione netta, sia nei dottori che nelle persone, amici e parenti: divento a tutti gli effetti la mia malattia. Nessuno parla più di te, ma dei tuoi dati, che oltretutto non sono per te. Un giorno, mentre ero in ospedale, ho chiesto una immagine del mio cancro, perché volevo vederlo, parlarci, stabilirci un rapporto. È stato difficilissimo ottenerla. Ma deve pagare un ticket per ottenerla? E la privacy? Ci deve firmare una liberatoria? E cosa succede se gli diamo una immagine del “suo cancro” e poi esce fuori che non si trattava, dopotutto, di un tumore e poi ci denuncia? E tanti altri problemi. L’immagine del mio corpo non era per me. Come tutti gli altri dati. Era un segnale della mia scomparsa: Salvatore Iaconesi messo in attesa, rimpiazzato dal paziente X, entità amministrativo-burocratica destinatario di servizi e protocolli di cura.
Questa sospensione, questa separazione dall’essere umano dal mondo, dalla società, mi sembrava una cosa gravissima.
Per ottenere la mia cartella clinica digitale mi sono dovuto dimettere dall’ospedale. Mi sono dimesso da paziente.
Appena ricevuta la cartella, qualche giorno dopo, ho avuto una sorpresa amara: il paziente X mi aveva seguito fino a casa. Aprendo i file ho scoperto che erano in formato DICOM, un formato che è tecnicamente aperto, ma che non è per persone ordinarie: è per tecnici, radiologi, chirurghi, ricercatori. Non è qualcosa che posso usare in maniera semplice e accessibile dal mio computer, che posso inoltrare in una mail o condividere sui social network. È un file per tecnici: per aprirlo devo installare software differenti, imparare i linguaggi e le pratiche della medicina. Semplicemente, di nuovo, le immagini del mio corpo non erano per me: era il paziente X, destinato ad essere amministrato dai tecnici.
In questi due momenti, la richiesta dell’immagine del mio cancro e l’arrivo della cartella clinica, è iniziata La Cura. Ho aperto i file, li ho tradotti in formati “per esseri umani” e li ho pubblicati online, aprendo la cura a tutti. L’atto di tradurre quei file in formati per “esseri umani”, per le persone comuni, cose che puoi mandare via mail, o condividere sui social network, è corrisposto al riappropriarmi della mia umanità, all’uscire dalla separazione e a far rientrare la malattia nella società.

Chi vi conosce sa che la Cura va oltre la storia personale, anzi è una piccola cassetta degli attrezzi per facilitare la comprensione di un dislivello di potere.

Noi la chiamiamo performance partecipativa aperta, nel senso che il suo scopo è il creare uno spazio sociale interconnesso, usando le tecnologie, le reti, ma anche la prossimità, la solidarietà, le relazioni umane, in cui abbia senso costruire soluzioni collaborative per i problemi del mondo. In questo caso è il mio cancro, ma potrebbe essere applicato a tanti altri, come mostrano ad esempio i nostri altri lavori in questo senso.
Il libro, in questo senso è un elemento fondamentale, perché è non è solo una storia, ma anche uno strumento.
La cura è una piattaforma per l’immaginazione, per aumentare la percezione di ciò che è possibile, per costruire senso, nella società. E le persone hanno compreso perfettamente: è difficile contare quanti sono stati e quanti sono ad oggi i contatti che abbiamo avuto, che sono avvenuti in centinaia di modi differenti, dalla rete, al venirci a bussare a casa e tutto quel che c’è nel mezzo, ma si parla di circa 1 milione di persone.

Continuate a occuparvi di osservazioni delle dinamiche sociali all’interno delle comunità, in che senso è un “ecosistema”?

Per noi diventa sempre più difficile capire cosa sia lavoro e cosa sia “vita”. Certo è che con l’una costruiamo significato per l’altro e viceversa. In tutto questo il concetto di “ecosistema” assume un ruolo fondamentale. L’ecosistema è il luogo della coesistenza. L’ecosistema non è lo spazio/tempo in cui tutti vanno d’accordo, ma il contesto in cui tutti si rappresentano e in cui, attraverso i conflitti e le tensioni tramite cui ci si posiziona nel mondo, si creano le dinamiche per la coesistenza. In qualche modo si può dire che ogni cosa che facciamo, che sia un progetto o un’opera d’arte, sia dedicata allo studio degli ecosistemi. Anche La Cura è un ecosistema: è il contesto in cui la malattia viene tirata fuori dall’ospedale e aperta alla società, in modo che tutti possano rappresentarsi e rappresentare, sviluppando discorsi e interazioni da cui possa essere costruito il senso: la malattia, qui, diventa un ambiente aperto, in cui tutti partecipano alla cura, che siano medici, artisti, ingegneri, hacker o altri tipi di persone. Proprio come non ci si ammala da soli – perché quando ci ammaliamo la vita cambia per i nostri amici e parenti, i datori di lavoro, i commercianti presso cui andiamo a fare la spesa, la previdenza sociale e, quindi tutta una nazione – non ha senso cercare la cura solo all’interno dell’ospedale. Sarebbe ingenuo e incompleto. Ha molto senso, invece, cercarla nell’ecosistema, nella società, con la partecipazione di tutti. Non solo ha senso, crea senso, con la possibilità di scoprire nuove forme di solidarietà e collaborazione, trasformando la cura da qualcosa che compri in qualcosa che fai, con gli altri.

Foucault parla di biopolitica riferendosi al potere del capitale sulla vita, sul corpo umano (come specie) e sul suo controllo, voi parlate di biopolitica dei dati.

I dati sono una cosa complessa. Abbiamo, ormai, imparato a parlarne con toni e atteggiamenti che in altre epoche si dedicavano agli argomenti religiosi. Stiamo diventando molto ingenui quando si parla di dati, presupponendo che valga in qualche modo una equivalenza tra dati e la realtà. Ovviamente, non è così. I dati sono tra le cose meno obiettive che conosco. In sociologia si dice che il dato è “costruito”, indicando il fatto che raccogliere dati corrisponde ad effettuare delle scelte: quali sensori scegliere, dove posizionarli, quali domande fare, quali dati catturare, quali scartare, come interpretarli, come visualizzarli. Sono scelte, non verità di qualche genere. Operando su questi parametri è possibile, in linea di principio, osservare lo stesso fenomeno e generare dati anche diametralmente opposti, in contrasto. E qui interviene la biopolitica, ovvero l’insieme di modi in cui i poteri operano per esercitare il controllo e per determinare corpi e soggetti. Il controllo avviene per classificazioni: classificando determino la realtà. Decido se stai bene o male, se puoi guidare o meno, se puoi fare un certo lavoro o no, se sei a rischio o meno, quanto paghi l’assicurazione, se puoi avere un conto in banca o acquistare una casa. Tutte queste cose hanno a che fare con i dati: pochi soggetti, dotati di potere, scelgono parametri e soglie e, in questo modo, definiscono la realtà. La cosa incredibile è che nulla di tutto ciò ha a che vedere con le persone, con le relazioni umane, con la società. La salute è particolarmente evidente in questo: qualcuno stabilisce dei protocolli e delle soglie per i parametri corporei in modo da determinare se sei malato o no. Io magari ho un valore di 1.4 per un certo parametro di misurazione del mio corpo, e la soglia della malattia è a 1.5. Se, domani, dovessero cambiare la soglia e impostarla a 1.3, io, senza che sia intervenuto alcun cambiamento nel mio corpo, diverrei ufficialmente malato. Sarei la stessa persona di ieri. Non mi farebbe male una spalla, un braccio o il fegato. Non sarebbe cambiato nulla in me. Ma, per i dati, io sarei malato. Sperando oltretutto che chi varia la soglia non lo faccia solo per “generare” potenzialmente milioni di “malati” aggiuntivi, per poter piazzare prodotti e servizi.
Questo è un potere enorme. E questi processi avvengono di continuo: nella scuola, nel lavoro, nella salute, nella finanza, nelle banche, nelle assicurazioni, con i prezzi di cibo, acqua, medicine, energia, su Facebook e Google, dovunque.
Il dato diventa uno strumento di controllo, di definizione della realtà per poterla controllare, in modo algoritmico. Questa è la biopolitica del dato.

salvatore-oriana

Qual è il racconto di Oriana?

Nel libro la storia (della performance) è raccontata da due punti di vista, come vedere la stessa stanza ma da due inquadrature differenti, naturalmente tutto cambia anche se la stanza è la stessa. Non racconto una storia differente, è la mia “posizione” a essere diversa.
Nel corso della scrittura siamo arrivati a definire mano mano la struttura: il libro della Cura è diviso in sezioni (7 a voler essere precisi). Ogni sezione è divisa in tre tipologie di capitoli, contrassegnati da tre icone. Quelli “S” sono la storia dal punto di vista di Salvatore, quelli “O” di Oriana, gli “R” sono la ricerca: attraversando discipline e argomenti molto differenti fra loro, affrontano i temi che emergono attraverso la storia. Infine ci sono le parti “W”, come workshop: non dei capitoli, piuttosto dei box, degli inserti che contengono una sintetica descrizione dei workshop che completano la sezione. Ogni workshop è collegato a un link che rimanda su Github, dove è possibile trovare i materiali di approfondimento, discutere e creare nuovi workshop o versioni diverse dello stesso workshop: tutto questo è accessibile dal sito alla sezione “Conoscenza“.
Tornando alla tua domanda, nel libro abbiamo moltiplicato i punti di vista per due (“S”+”O”). In realtà gli “autori” del racconto della Cura, come ogni storia o ogni evento, potrebbe essere moltiplicati all’infinito, almeno per quanti sono stati i partecipanti: nel nostro caso partiamo da una base di 1.000.000 di autori.
Nella forma libro (sequenziale e basata su una economia della scarsità) questo tipo di moltiplicazione è impossibile (e tutto sommato indesiderabile). E’ vero il contrario quando la narrazione può esplodere nella forma rizomatica, ubiqua, polifonica ed emergente della rete: non siamo più tecnicamente di fronte al “libro” della galassia Gutenberg, ma senz’altro a forme narrative e di pubblicazione. Già nel 2012 il sito della Cura conteneva visualizzazioni in tempo reale sulla vita della performance: stiamo lavorando ad una nuova e più articolata versione che sarà presto visibile.
In sintesi, Salvatore e Oriana non sono e non saranno i soli autori di questa storia, come non lo sono mai stati.

Quale sarà il futuro dell’informazione nelle nostre comunità?

Non mi piace fare previsioni, o pensare al “futuro” al singolare: preferisco “futuri”, plurale.
Certo è che, ora e a breve, ci troveremo costretti a cercare e implementare modi per costruire senso. Siamo invasi dall’informazione e dalle opportunità di informazione, tanto che il “contenuto” sta perdendo senso (se non l’ha già perso) e l’unica cosa che diventa importante è capire come costruire senso, possibilmente insieme a comunità di persone, se non insieme a tutta la società.
Questa ricerca potrebbe andare a finire in tanti modi differenti, lungo due direzioni principali. Da un lato l’algoritmo. Dall’altro la fiducia e la relazione. Da un lato l’intelligenza artificiale e la possibilità di comprendere algoritmicamente le informazioni e le persone e, di conseguenza, di suggerire alle persone cosa potrebbe essere rilevante per loro, cosa avrebbe senso. Dall’altra parte la possibilità di conoscersi, fidarsi, stabilire relazioni significative e, di conseguenza, poter stabilire processi in cui la costruzione del senso possa avvenire nella società delle relazioni, costruendo capitale sociale oltre che servizi.
A me interessa più questa seconda interpretazione. Oltretutto la prima direzione potrebbe molto convenientemente essere messa al servizio della seconda. Questo è, per me, lo scenario più desiderabile.

Ci sono una serie di iniziative, spesso messe in campo dai governi istituzionali, che scimmiottano la cultura hacker. E’ come se volessero dimostrare che il senso del “buono” è stato già recuperato e ciò che resta è cattivo o controproducente. Penso a esperienze consumate intorno a idee di produzione e industrializzazione collegate a startup e a fablab che ripropongono, in definitiva, nuovi modelli di capitale.

Nel mondo del digitale, dell’immateriale, della globalizzazione ogni industria diventa per forza di cose una industria culturale. Quando il focus non è più sulla produzione di prodotti, ma nella costruzione di idee, l’industria ha un solo prodotto: la creazione della percezione del futuro, di che forma avrà il mondo, del senso. In questo la “trasgressione”, intesa come l’oltrepassare i confini del “normale”, gioca un ruolo importantissimo: sono i “trasgressori” gli unici a essere capaci di innovazione radicale. Per questo l’industria deve imparare ad avere a che fare con i “troublemakers”, come li chiamava Enzensberger, e con l’”Excess Space”, come lo definisce Elizabeth Grosz. I modi sono tanti, inclusa la cooptazione, l’assunzione, il mettere hacker e “rivoluzionari” (secondo la narrativa di “cambieremo il mondo”) sul palco o in esposizione, o l’appropriazione di linguaggi e immaginari (come è avvenuto e sta avvenendo per gli hacker).
Noi, per esempio, puntiamo a modelli differenti per assicurare un ruolo alla “trasgressione” negli ecosistemi dell’innovazione. Prendendo in prestito un fraseggio da Massimo Canevacci Ribeiro la potremmo chiamare “indisciplina metodologica”, e la attuiamo con la metafora del “giardino”, alludendo al Terzo Paesaggio di Gilles Clément.

A proposito di Clément, a Potenza qualche tempo fa, sono state sperimentate forme di “giardino in movimento” come spazio possibilistico.

In tutta quest’ottica Clément cerca risposta a una domanda fondamentale: “com’è fatto il giardiniere di un giardino senza forma?”
È una domanda difficile e richiede non solo di trovare strumenti e saperi adatti (com’è fatto un giardiniere che invece di usare il rastrello usa il vento? che mestiere fa?), ma anche e soprattutto nuove sensibilità e nuove estetiche: occorre imparare a riconoscere il “bello” in ciò che interconnette e in ciò che crea la “differenza”, come diceva Bateson.
In questo senso può essere di aiuto Marco Casagrande che, quando descrive la sua città di Terza Generazione parla delle “rovine” come di qualcosa da riscoprire: la città di Terza Generazione è la “rovina organica” della città industriale, e diventa “vera” quando la città riconosce la propria conoscenza locale e permette a sé stessa di essere parte alla natura. È una idea nuova di architettura e di pianificazione urbana, in cui l’architetto e l’urban planner assomigliano al giardiniere di Clément: non decisori, normatori o progettisti, ma soggetti capaci di “farsi piattaforma” perché emergano i desideri, l’immaginazione e le visioni delle persone, che diventano a tutti gli effetti co-progettisti.
Questo è anche un parallelo incredibilmente potente con La Cura: la cura è un prodotto sociale, che emerge dalla capacità dei membri della società di autorappresentarsi, osservare sé stessi, e di costruire significato interconnettendosi, che si sia medici, ragionieri, artisti, ingegneri, ricercatori, politici o commessi al supermercato.

Ritornando a “La Cura”, possiamo dire che la condivisione e l’open source, funzionano anche e soprattutto con la medicina?

cura2

Nel libro ci siamo trovati a dover avere a che fare con tante discipline differenti per rispondere a questo tipo di domanda. È questo il senso delle sezioni di ricerca del volume. È interessante come l’”apertura”, l’”interconnessione” e la “differenza” siano concetti fondanti in questo genere di processo. Sono le porte che aprono la via ad una innovazione differente, capace di tanti tipi di tempo (non solo la ipervelocità che, ingenuamente, pensiamo di dover assumere per essere competitivi), di pensiero, di atteggiamento, e di orientare verso la possibilità per la coesistenza di tutti questi approcci differenti, di trasformarli in opportunità, in una nuova sensibilità, in una nuova estetica, capace di riconoscere la bellezza dell’interconnessione e della relazione, dell’alterità, della differenza (e, quindi, anche del conflitto).
Occorre rivoluzionare l’immaginario.
Questo è funzionale a tutti i settori, inclusa la medicina.
La “crisi” è innanzitutto una crisi di immaginario, della progressiva impossibilità di immaginare e desiderare modi radicalmente diversi di operare.

Che ne è stato di quel progetto di legge che si ispirava al vostro progetto artisopensource?

Quello che era originato dall’interrogazione parlamentare sulla Cura e sui formati aperti per i dati medici? Non se ne è saputo più nulla nel dettaglio, ma sono anche cambiate tante cose. Ad esempio La Cura costituirà un caso rilevante nel position paper presentato dagli Stati Generali dell’Innovazione alla Commissione Interparlamentare sull’Innovazione. Ed è solo l’inizio.

Laura Gelmini ha scritto che la vostra iniziativa “è un esempio importante del rapporto fra un sistema sociale, la medicina, e un altro: l’arte.” Qual è il legame?

Come dicevamo nell’altra domanda, il ruolo dell’arte è fondamentale e forte. E non siamo i primi a immaginarlo. Già Marshall McLuhan vedeva l’artista come la persona capace di creare ponti tra l’eredità biologica e gli ambienti creati dall’innovazione tecnologica. O come Derrick de Kerckhove, che attribuisce agli artisti la capacità di predire il presente. Roy Ascott che descrive l’artista come IL soggetto capace di confrontarsi con un mondo in cui significati e contenuti sono progressivamente creati tramite relazioni e interazioni, in modo instabile, mobile e fluttuante. O come Gregory Bateson, che vede nell’arte il solo modo possibile per soddisfare la necessità di trovare soluzioni attraverso cambiamenti radicali nel nostro modo di pensare e di conoscere.
Ma anche rimanendo nel business: già Pine e Gilmore nel loro libro in cui introducevano per la prima volta il concetto di Experience Economy, descrivevano l’arte come una necessità.
Nell’arte scienza, tecnologie, ambiente e società trovano il sensore e l’attuatore per introdurre nuovi immaginari, nuovi modi di leggere il mondo, di costruire significati e di agire, insieme.

Ultima domanda. Se dovessi proporre un tema o un warmup per l’Hackmeeting che si terra a Pisa dal 3 al 5 giugno?

“Trasgressione e Innovazione!”

0 comments

Non accettate taralli da blogger sconosciuti

tarallo aviglianese

tarallo aviglianese

il Garante della Privacy,  con un provvedimento che risale all’otto maggio 2014 (numero 229/2014, pubblicato sulla G. U. n. 126 del 3 giugno 2014), ha stabilito le modalità semplificate per dare l’informativa e acquisire il consenso per l’uso dei cookie.

In pratica entro il 2 giugno 2015 tutti i siti web dovranno predisporre una procedura che preveda l’accettazione o diniego del consenso all’utilizzo dei cookies da parte del visitatore del sito.

Cookie, questi sconosciuti
I cookie sono dei file di testo che vengono scaricati sul browser del visitatore del sito web per poi essere ritrasmessi al server, nelle visite che questo farà successivamente allo stesso sito.
Esistono, ovviamente,  diversi tipi di cookies con differenti funzioni. La maggioranza dei blogger utilizza, quasi esclusivamente,  cookie di tipo statistico (tipo Google Analytics) che raccolgono i dati del navigatore come esperienza all’interno del blog.
Quelli di “profilazione”, invece,  raccolgono informazioni un po’ più accurate tali da riuscire a individuare le preferenze del visitatore in modo da far apparire sul suo browser banner pubblicitari personalizzati.

Cosa deve fare il blogger?
“L’obbligo di informare l’utente sull’uso dei cookie e di acquisirne il preventivo consenso”  è a carico del gestore del sito, in qualità di titolare del trattamento, quindi del blogger.
Praticamente i cookies tecnici posso essere utilizzati e inviati, l’importante è inserire un messaggio che avverte il navigatore sull’utilizzo dei cookie, seguito da due link: uno per la concessione del consenso e l’altro che indirizzi a una pagina contente le informazioni ulteriori, anche su cookies di terze parti (per esempio quelli usati da Facebook, da Google, ecc….).

Ricordatevi che i cookies non “tecnici” (quelli di profilazione e marketing) non possono essere inviati se l’utente non abbia prestato il suo espresso e valido consenso.

Se usate WordPress e volete inserire un’informativa breve, potete utilizzare qualche plugin come:  Cookies Law Info o Cookie Notice by dFactory.
Se invece avete voglia di lavorare, ma giusto un pochino, potete seguire le indicazioni contenute in questa pagina di Google.