vitocola.it

Condividere saperi, senza fondare poteri
Browsing category: webwired
0 comments

La banda dell’ultralarga

Ha ragione da vendere Massimo Mantellini quando mette il punto interrogativo sulle “competenze” di Enel, aggiungendo che “Solo un burocrate spericolato chiuso nel proprio ufficio può immaginare che l’infrastuttura digitale del Paese sia in fondo un gingillo tecnologico alla portata di chiunque”.

Stiamo parlando della “banda ultralarga”, annunciata da Renzi qualche giorno fa e che riguarda l’accesso a internet attraverso una connessione minima di 30 Mpbs.

Partiamo da un dato sostanziale: l’Italia è al 25° posto nella classifica dei 28 Stati membri dell’UE, con un accesso alla rete, geograficamente, molto divaricato; ovvero c’è una grande separazione tra le grandi aree urbane dove si accede a internet con la fibra ottica e le piccole aree dove a malapena si raggiungono i 10 Mbps. Se prendiamo come esempio la maggioranza dei comuni lucani, con i loro 2 o 4 Mbps, la velocità scende ancora di più.

Dunque aumentare la velocità delle connessioni e, soprattutto, diminuire (se non annullare) il digital divide, è una priorità imprescindibile.

Anche l’attuale governo se n’è occupato ponendo al centro della proprio proposta politica un’agenda digitale come azione programmatica improcrastinabile. Peccato che in realtà è una semplice bandierina per il marketing politico di Renzi.

Perché dico questo?

Perché non riesco a capire il motivo per il quale si cambia azienda di riferimento, scegliendo una semi-pubblica come Enel, ma si approva un progetto (Enel Open Fiber) che non prevede un intervento capillare sul territorio ma solo in zone economicamente più omogenee (cioè più convenienti dal punto di vista dell’investimento) e quindi con un approccio di tipo privatistico-imprenditoriale.

Il cluster A, quello “con il migliore rapporto costi-benefici, dove è più probabile l’interesse degli operatori privati a investire”, raggruppa le 15 principali città italiane (Roma, Milano, Napoli, Torino, Palermo, Genova, Bologna, Firenze, Bari, Catania, Venezia, Verona, Messina, Padova e Trieste) e le loro aree industriali, dove risiede il 15% della popolazione  (9,4 milioni di persone).
Il cluster B, diviso ulteriormente in cluster B1  e cluster B2, è formato da 1.120 comuni nei quali risiede il 45% della popolazione (28,2 milioni di persone).
Il cluster C , 2.650 comuni con il 25% della popolazione (15,7 milioni di persone) rappresenta le aree marginali e rurali a “fallimento di mercato” , sulle quali si prevede l’intervento del privato solo a condizione di un adeguato sostegno dello Stato.
Il cluster D con i restanti 4.300 comuni (in maggioranza al Sud) e il 15% della popolazione (9,4 milioni di persone)  è l’area dove è previsto soltanto l’intervento pubblico.

In pratica il progetto prevede di portare la banda direttamente in casa del cliente finale (FTTH) ma principalmente laddove conviene di più,  e accadrà che Enel si occuperà di portare la rete nei cluster denominati A e B (ma nel frattempo soltanto a 244 comuni l’ultralarga),  mentre gli altri due (C e D) dovranno continuare ad aggrapparsi alla rete cellulare (almeno laddove arriva il 4G); infatti il programma governativo prevede la copertura del 100% entro il 2020 ma limitatamente ai 30 megabit.

Se si considera che i comuni italiani sono 8.085 la copertura in fibra, al momento, interesserà soltanto  il 3% del territorio.

In conclusione, quasi tutto il sud resterà al palo e per la Basilicata le cose non sono certo migliori.
Basta andare sul sito Infratel Italia  per scoprire che i 100 megabit sono previsti  soltanto nelle due città capoluogo, che in 64 comuni è in corso di completamento la 30 Mega e che nei restanti 65 comuni si oscillerà tra i 2 e i 20 mega.

0 comments

Panama papers e altri numeri

Conto corrente estero e conto offshore

da l’Espresso

Per lo Stato italiano, e per l’Europa, è possibile possedere un conto corrente all’estero a patto che venga dichiarato fiscalmente, inserendolo nella dichiarazione dei redditi (nell’apposito quadro RW della dichiarazione dei redditi a partire da una giacenza o movimentazione annuale pari o superiore a 15 mila euri). La banca estera nella quale si apre il conto è obbligata a comunicare allo stato di residenza del correntista tutte le informazioni relative al conto corrente.
Il correntista, di conseguenza, verserà un’imposta (Ivafe) sul suo valore del deposito pari al 2 per mille, oltre alla normale tassazione sulle plusvalenze realizzate.
Sostanzialmente è come tenere un conto in una banca italiana, l’unica convenienza potrebbe essere rappresentata da migliori condizioni sulla tenuta del conto, da servizi più efficaci ed efficienti o dalla convinzione di aver depositato i propri soldi in una banca più solida e più sicura ma, credo, niente di più.
Chi mira, invece, a risparmiare sul pagamento delle tasse dovrà eludere tutta la procedura ufficiale e seguirne una “offshore”, ovvero aprire un conto estero sul quale le tasse non vengono pagate grazie alla segretezza dell’identità del correntista.

Panama papers

Questo è proprio il punto nodale di un conto offshore: la segretezza. Ma non è cosa semplice da realizzare. Considerato l’obbligo della trasparenza delle aziende e il grande impegno dell’OCSE nella lotta contro i paradisi fiscali, diventano indispensabili almeno due cose: primo rivolgersi a uno dei 14 paesi dove è ancora possibile richiedere segretezza (Belize, Brunei, Isole Cook, Costa Rica, Guatemala, Filippine, Liberia, Isole Marshall, Montserrat, Nauru, Niue, Panama, Uruguay e Vanuatu) e poi affidarsi a società o agenzie specializzate che riescono a far arrivare il denaro sul conto corrente di questa banca estera senza lasciare tracce. Anche tracce come le “ Panama papers”. Quasi dodici milioni di documenti, relativi a transazioni finanziarie segrete, sottratti allo studio Mossack Fonseca da un anonimo whistleblower che, come dice l’Espresso, li ha forniti al quotidiano tedesco Suddeutsche Zeitung che, a sua volta, si è rivolto al ICIJ (l’International Consortium of Investigative Journalists che ha condiviso il lavoro e la scoperta con le 378 testate partner tra cui l’Espresso).
Siccome stiamo parlando di 2,6 terabyte di dati, c’è chi sostiene che non si tratti di una semplice gola profonda ma crackers che hanno sfruttato la vulnerabilità di un vecchio plugin su WordPress (“Revolution Slider” che in una sua versione non aggiornata fa caricare una shell remota – corretta già da due anni da Wordfence) e di un server di posta, al quale accedevano tutti i clienti dello studio, che risedevano sullo stesso network.
Insomma una grossolana leggerezza che ha permesso di scaricare, per mesi, tutto l’archivio dello studio Mossack Fonseca. Infatti, dopo il 3 aprile, il loro dominio è passato a Incapsula che ha trasferito tutto su server neozelandesi.

Crackers?

Crackers perché l’operazione è stata pagata (non si sa se commissionata o offerta) e la filosofia hacker non collima con questa tipologia di finalità; e poi perché nella rete hacker non c’è stata nessuna eco dell’impresa.
Pagata dagli americani perché l’ICIJ è stato fondato da un giornalista americano (Chuck Lewis) ed è sostenuta da: Adessium Foundation, Open Society Foundations, The Sigrid Rausing Trust, Fritt Ord Foundation, Pulitzer Center on Crisis Reporting, The Ford Foundation, The David and Lucile Packard Foundation, Pew Charitable Trusts and Waterloo Foundation.
Tant’é che, al momento, tra tutti gli americani presenti nei documenti, non è ancora saltato fuori nessun nome eccellente a fronte dei 140 politici e uomini di Stato del resto del mondo.

I numeri

215 mila le società coinvolte, riferite a 204 nazioni diverse e 511 banche (tra cui le italiane Ubi e Unicredit);
378 giornalisti, in un forum chiuso, analizzano un database di 2,6 terabyte lungo 38 anni di registrazioni.
800 sono gli italiani coinvolti e tutto quello che ne verrà fuori continueremo a leggerlo sulle maggiori testate giornalistiche del mondo.

0 comments

La Cura. Ritrovare la sintonia con l’universo

E’ appena uscito in libreria (da qualche giorno anche in ebook) “La cura”, l’ultimo libro di Salvatore Iaconesi e Oriana Persico pubblicato da Codice Edizioni.

67 -Iaconesi_140_210_DEFUn libro straordinario, come dice Biava nella prefazione, per ciò che ci insegna e rappresenta, e  per il coraggio e la volontà mostrati dai due autori nel percorrere una via nuova e completamente ignota in una situazione drammatica e pericolosa, che solitamente si conclude in modo triste e doloroso.

Ne parlo con gli autori per i quali, in rete, c’è una infinità di definizioni, ma a me piace vederli semplicemente come due hackers che di questa filosofia (alcuni direbbero etica) ne hanno fatto l’unico modo di vedere e vivere il mondo.

Salvatore, partiamo dalla scoperta della malattia e dalla ribellione verso lo status di malato.

Un banale incidente in piscina nel 2012 si trasforma in un incubo: facendo lastre e accertamenti mi diagnosticano un cancro al cervello. Da lì nasce una riflessione immediata: appena avuta la diagnosi ed entrato in ospedale sono scomparso. L’essere umano Salvatore Iaconesi svanisce, rimpiazzato da dati medici, immagini, parametri corporei. Il linguaggio cambia, e subentra una separazione netta, sia nei dottori che nelle persone, amici e parenti: divento a tutti gli effetti la mia malattia. Nessuno parla più di te, ma dei tuoi dati, che oltretutto non sono per te. Un giorno, mentre ero in ospedale, ho chiesto una immagine del mio cancro, perché volevo vederlo, parlarci, stabilirci un rapporto. È stato difficilissimo ottenerla. Ma deve pagare un ticket per ottenerla? E la privacy? Ci deve firmare una liberatoria? E cosa succede se gli diamo una immagine del “suo cancro” e poi esce fuori che non si trattava, dopotutto, di un tumore e poi ci denuncia? E tanti altri problemi. L’immagine del mio corpo non era per me. Come tutti gli altri dati. Era un segnale della mia scomparsa: Salvatore Iaconesi messo in attesa, rimpiazzato dal paziente X, entità amministrativo-burocratica destinatario di servizi e protocolli di cura.
Questa sospensione, questa separazione dall’essere umano dal mondo, dalla società, mi sembrava una cosa gravissima.
Per ottenere la mia cartella clinica digitale mi sono dovuto dimettere dall’ospedale. Mi sono dimesso da paziente.
Appena ricevuta la cartella, qualche giorno dopo, ho avuto una sorpresa amara: il paziente X mi aveva seguito fino a casa. Aprendo i file ho scoperto che erano in formato DICOM, un formato che è tecnicamente aperto, ma che non è per persone ordinarie: è per tecnici, radiologi, chirurghi, ricercatori. Non è qualcosa che posso usare in maniera semplice e accessibile dal mio computer, che posso inoltrare in una mail o condividere sui social network. È un file per tecnici: per aprirlo devo installare software differenti, imparare i linguaggi e le pratiche della medicina. Semplicemente, di nuovo, le immagini del mio corpo non erano per me: era il paziente X, destinato ad essere amministrato dai tecnici.
In questi due momenti, la richiesta dell’immagine del mio cancro e l’arrivo della cartella clinica, è iniziata La Cura. Ho aperto i file, li ho tradotti in formati “per esseri umani” e li ho pubblicati online, aprendo la cura a tutti. L’atto di tradurre quei file in formati per “esseri umani”, per le persone comuni, cose che puoi mandare via mail, o condividere sui social network, è corrisposto al riappropriarmi della mia umanità, all’uscire dalla separazione e a far rientrare la malattia nella società.

Chi vi conosce sa che la Cura va oltre la storia personale, anzi è una piccola cassetta degli attrezzi per facilitare la comprensione di un dislivello di potere.

Noi la chiamiamo performance partecipativa aperta, nel senso che il suo scopo è il creare uno spazio sociale interconnesso, usando le tecnologie, le reti, ma anche la prossimità, la solidarietà, le relazioni umane, in cui abbia senso costruire soluzioni collaborative per i problemi del mondo. In questo caso è il mio cancro, ma potrebbe essere applicato a tanti altri, come mostrano ad esempio i nostri altri lavori in questo senso.
Il libro, in questo senso è un elemento fondamentale, perché è non è solo una storia, ma anche uno strumento.
La cura è una piattaforma per l’immaginazione, per aumentare la percezione di ciò che è possibile, per costruire senso, nella società. E le persone hanno compreso perfettamente: è difficile contare quanti sono stati e quanti sono ad oggi i contatti che abbiamo avuto, che sono avvenuti in centinaia di modi differenti, dalla rete, al venirci a bussare a casa e tutto quel che c’è nel mezzo, ma si parla di circa 1 milione di persone.

Continuate a occuparvi di osservazioni delle dinamiche sociali all’interno delle comunità, in che senso è un “ecosistema”?

Per noi diventa sempre più difficile capire cosa sia lavoro e cosa sia “vita”. Certo è che con l’una costruiamo significato per l’altro e viceversa. In tutto questo il concetto di “ecosistema” assume un ruolo fondamentale. L’ecosistema è il luogo della coesistenza. L’ecosistema non è lo spazio/tempo in cui tutti vanno d’accordo, ma il contesto in cui tutti si rappresentano e in cui, attraverso i conflitti e le tensioni tramite cui ci si posiziona nel mondo, si creano le dinamiche per la coesistenza. In qualche modo si può dire che ogni cosa che facciamo, che sia un progetto o un’opera d’arte, sia dedicata allo studio degli ecosistemi. Anche La Cura è un ecosistema: è il contesto in cui la malattia viene tirata fuori dall’ospedale e aperta alla società, in modo che tutti possano rappresentarsi e rappresentare, sviluppando discorsi e interazioni da cui possa essere costruito il senso: la malattia, qui, diventa un ambiente aperto, in cui tutti partecipano alla cura, che siano medici, artisti, ingegneri, hacker o altri tipi di persone. Proprio come non ci si ammala da soli – perché quando ci ammaliamo la vita cambia per i nostri amici e parenti, i datori di lavoro, i commercianti presso cui andiamo a fare la spesa, la previdenza sociale e, quindi tutta una nazione – non ha senso cercare la cura solo all’interno dell’ospedale. Sarebbe ingenuo e incompleto. Ha molto senso, invece, cercarla nell’ecosistema, nella società, con la partecipazione di tutti. Non solo ha senso, crea senso, con la possibilità di scoprire nuove forme di solidarietà e collaborazione, trasformando la cura da qualcosa che compri in qualcosa che fai, con gli altri.

Foucault parla di biopolitica riferendosi al potere del capitale sulla vita, sul corpo umano (come specie) e sul suo controllo, voi parlate di biopolitica dei dati.

I dati sono una cosa complessa. Abbiamo, ormai, imparato a parlarne con toni e atteggiamenti che in altre epoche si dedicavano agli argomenti religiosi. Stiamo diventando molto ingenui quando si parla di dati, presupponendo che valga in qualche modo una equivalenza tra dati e la realtà. Ovviamente, non è così. I dati sono tra le cose meno obiettive che conosco. In sociologia si dice che il dato è “costruito”, indicando il fatto che raccogliere dati corrisponde ad effettuare delle scelte: quali sensori scegliere, dove posizionarli, quali domande fare, quali dati catturare, quali scartare, come interpretarli, come visualizzarli. Sono scelte, non verità di qualche genere. Operando su questi parametri è possibile, in linea di principio, osservare lo stesso fenomeno e generare dati anche diametralmente opposti, in contrasto. E qui interviene la biopolitica, ovvero l’insieme di modi in cui i poteri operano per esercitare il controllo e per determinare corpi e soggetti. Il controllo avviene per classificazioni: classificando determino la realtà. Decido se stai bene o male, se puoi guidare o meno, se puoi fare un certo lavoro o no, se sei a rischio o meno, quanto paghi l’assicurazione, se puoi avere un conto in banca o acquistare una casa. Tutte queste cose hanno a che fare con i dati: pochi soggetti, dotati di potere, scelgono parametri e soglie e, in questo modo, definiscono la realtà. La cosa incredibile è che nulla di tutto ciò ha a che vedere con le persone, con le relazioni umane, con la società. La salute è particolarmente evidente in questo: qualcuno stabilisce dei protocolli e delle soglie per i parametri corporei in modo da determinare se sei malato o no. Io magari ho un valore di 1.4 per un certo parametro di misurazione del mio corpo, e la soglia della malattia è a 1.5. Se, domani, dovessero cambiare la soglia e impostarla a 1.3, io, senza che sia intervenuto alcun cambiamento nel mio corpo, diverrei ufficialmente malato. Sarei la stessa persona di ieri. Non mi farebbe male una spalla, un braccio o il fegato. Non sarebbe cambiato nulla in me. Ma, per i dati, io sarei malato. Sperando oltretutto che chi varia la soglia non lo faccia solo per “generare” potenzialmente milioni di “malati” aggiuntivi, per poter piazzare prodotti e servizi.
Questo è un potere enorme. E questi processi avvengono di continuo: nella scuola, nel lavoro, nella salute, nella finanza, nelle banche, nelle assicurazioni, con i prezzi di cibo, acqua, medicine, energia, su Facebook e Google, dovunque.
Il dato diventa uno strumento di controllo, di definizione della realtà per poterla controllare, in modo algoritmico. Questa è la biopolitica del dato.

salvatore-oriana

Qual è il racconto di Oriana?

Nel libro la storia (della performance) è raccontata da due punti di vista, come vedere la stessa stanza ma da due inquadrature differenti, naturalmente tutto cambia anche se la stanza è la stessa. Non racconto una storia differente, è la mia “posizione” a essere diversa.
Nel corso della scrittura siamo arrivati a definire mano mano la struttura: il libro della Cura è diviso in sezioni (7 a voler essere precisi). Ogni sezione è divisa in tre tipologie di capitoli, contrassegnati da tre icone. Quelli “S” sono la storia dal punto di vista di Salvatore, quelli “O” di Oriana, gli “R” sono la ricerca: attraversando discipline e argomenti molto differenti fra loro, affrontano i temi che emergono attraverso la storia. Infine ci sono le parti “W”, come workshop: non dei capitoli, piuttosto dei box, degli inserti che contengono una sintetica descrizione dei workshop che completano la sezione. Ogni workshop è collegato a un link che rimanda su Github, dove è possibile trovare i materiali di approfondimento, discutere e creare nuovi workshop o versioni diverse dello stesso workshop: tutto questo è accessibile dal sito alla sezione “Conoscenza“.
Tornando alla tua domanda, nel libro abbiamo moltiplicato i punti di vista per due (“S”+”O”). In realtà gli “autori” del racconto della Cura, come ogni storia o ogni evento, potrebbe essere moltiplicati all’infinito, almeno per quanti sono stati i partecipanti: nel nostro caso partiamo da una base di 1.000.000 di autori.
Nella forma libro (sequenziale e basata su una economia della scarsità) questo tipo di moltiplicazione è impossibile (e tutto sommato indesiderabile). E’ vero il contrario quando la narrazione può esplodere nella forma rizomatica, ubiqua, polifonica ed emergente della rete: non siamo più tecnicamente di fronte al “libro” della galassia Gutenberg, ma senz’altro a forme narrative e di pubblicazione. Già nel 2012 il sito della Cura conteneva visualizzazioni in tempo reale sulla vita della performance: stiamo lavorando ad una nuova e più articolata versione che sarà presto visibile.
In sintesi, Salvatore e Oriana non sono e non saranno i soli autori di questa storia, come non lo sono mai stati.

Quale sarà il futuro dell’informazione nelle nostre comunità?

Non mi piace fare previsioni, o pensare al “futuro” al singolare: preferisco “futuri”, plurale.
Certo è che, ora e a breve, ci troveremo costretti a cercare e implementare modi per costruire senso. Siamo invasi dall’informazione e dalle opportunità di informazione, tanto che il “contenuto” sta perdendo senso (se non l’ha già perso) e l’unica cosa che diventa importante è capire come costruire senso, possibilmente insieme a comunità di persone, se non insieme a tutta la società.
Questa ricerca potrebbe andare a finire in tanti modi differenti, lungo due direzioni principali. Da un lato l’algoritmo. Dall’altro la fiducia e la relazione. Da un lato l’intelligenza artificiale e la possibilità di comprendere algoritmicamente le informazioni e le persone e, di conseguenza, di suggerire alle persone cosa potrebbe essere rilevante per loro, cosa avrebbe senso. Dall’altra parte la possibilità di conoscersi, fidarsi, stabilire relazioni significative e, di conseguenza, poter stabilire processi in cui la costruzione del senso possa avvenire nella società delle relazioni, costruendo capitale sociale oltre che servizi.
A me interessa più questa seconda interpretazione. Oltretutto la prima direzione potrebbe molto convenientemente essere messa al servizio della seconda. Questo è, per me, lo scenario più desiderabile.

Ci sono una serie di iniziative, spesso messe in campo dai governi istituzionali, che scimmiottano la cultura hacker. E’ come se volessero dimostrare che il senso del “buono” è stato già recuperato e ciò che resta è cattivo o controproducente. Penso a esperienze consumate intorno a idee di produzione e industrializzazione collegate a startup e a fablab che ripropongono, in definitiva, nuovi modelli di capitale.

Nel mondo del digitale, dell’immateriale, della globalizzazione ogni industria diventa per forza di cose una industria culturale. Quando il focus non è più sulla produzione di prodotti, ma nella costruzione di idee, l’industria ha un solo prodotto: la creazione della percezione del futuro, di che forma avrà il mondo, del senso. In questo la “trasgressione”, intesa come l’oltrepassare i confini del “normale”, gioca un ruolo importantissimo: sono i “trasgressori” gli unici a essere capaci di innovazione radicale. Per questo l’industria deve imparare ad avere a che fare con i “troublemakers”, come li chiamava Enzensberger, e con l’”Excess Space”, come lo definisce Elizabeth Grosz. I modi sono tanti, inclusa la cooptazione, l’assunzione, il mettere hacker e “rivoluzionari” (secondo la narrativa di “cambieremo il mondo”) sul palco o in esposizione, o l’appropriazione di linguaggi e immaginari (come è avvenuto e sta avvenendo per gli hacker).
Noi, per esempio, puntiamo a modelli differenti per assicurare un ruolo alla “trasgressione” negli ecosistemi dell’innovazione. Prendendo in prestito un fraseggio da Massimo Canevacci Ribeiro la potremmo chiamare “indisciplina metodologica”, e la attuiamo con la metafora del “giardino”, alludendo al Terzo Paesaggio di Gilles Clément.

A proposito di Clément, a Potenza qualche tempo fa, sono state sperimentate forme di “giardino in movimento” come spazio possibilistico.

In tutta quest’ottica Clément cerca risposta a una domanda fondamentale: “com’è fatto il giardiniere di un giardino senza forma?”
È una domanda difficile e richiede non solo di trovare strumenti e saperi adatti (com’è fatto un giardiniere che invece di usare il rastrello usa il vento? che mestiere fa?), ma anche e soprattutto nuove sensibilità e nuove estetiche: occorre imparare a riconoscere il “bello” in ciò che interconnette e in ciò che crea la “differenza”, come diceva Bateson.
In questo senso può essere di aiuto Marco Casagrande che, quando descrive la sua città di Terza Generazione parla delle “rovine” come di qualcosa da riscoprire: la città di Terza Generazione è la “rovina organica” della città industriale, e diventa “vera” quando la città riconosce la propria conoscenza locale e permette a sé stessa di essere parte alla natura. È una idea nuova di architettura e di pianificazione urbana, in cui l’architetto e l’urban planner assomigliano al giardiniere di Clément: non decisori, normatori o progettisti, ma soggetti capaci di “farsi piattaforma” perché emergano i desideri, l’immaginazione e le visioni delle persone, che diventano a tutti gli effetti co-progettisti.
Questo è anche un parallelo incredibilmente potente con La Cura: la cura è un prodotto sociale, che emerge dalla capacità dei membri della società di autorappresentarsi, osservare sé stessi, e di costruire significato interconnettendosi, che si sia medici, ragionieri, artisti, ingegneri, ricercatori, politici o commessi al supermercato.

Ritornando a “La Cura”, possiamo dire che la condivisione e l’open source, funzionano anche e soprattutto con la medicina?

cura2

Nel libro ci siamo trovati a dover avere a che fare con tante discipline differenti per rispondere a questo tipo di domanda. È questo il senso delle sezioni di ricerca del volume. È interessante come l’”apertura”, l’”interconnessione” e la “differenza” siano concetti fondanti in questo genere di processo. Sono le porte che aprono la via ad una innovazione differente, capace di tanti tipi di tempo (non solo la ipervelocità che, ingenuamente, pensiamo di dover assumere per essere competitivi), di pensiero, di atteggiamento, e di orientare verso la possibilità per la coesistenza di tutti questi approcci differenti, di trasformarli in opportunità, in una nuova sensibilità, in una nuova estetica, capace di riconoscere la bellezza dell’interconnessione e della relazione, dell’alterità, della differenza (e, quindi, anche del conflitto).
Occorre rivoluzionare l’immaginario.
Questo è funzionale a tutti i settori, inclusa la medicina.
La “crisi” è innanzitutto una crisi di immaginario, della progressiva impossibilità di immaginare e desiderare modi radicalmente diversi di operare.

Che ne è stato di quel progetto di legge che si ispirava al vostro progetto artisopensource?

Quello che era originato dall’interrogazione parlamentare sulla Cura e sui formati aperti per i dati medici? Non se ne è saputo più nulla nel dettaglio, ma sono anche cambiate tante cose. Ad esempio La Cura costituirà un caso rilevante nel position paper presentato dagli Stati Generali dell’Innovazione alla Commissione Interparlamentare sull’Innovazione. Ed è solo l’inizio.

Laura Gelmini ha scritto che la vostra iniziativa “è un esempio importante del rapporto fra un sistema sociale, la medicina, e un altro: l’arte.” Qual è il legame?

Come dicevamo nell’altra domanda, il ruolo dell’arte è fondamentale e forte. E non siamo i primi a immaginarlo. Già Marshall McLuhan vedeva l’artista come la persona capace di creare ponti tra l’eredità biologica e gli ambienti creati dall’innovazione tecnologica. O come Derrick de Kerckhove, che attribuisce agli artisti la capacità di predire il presente. Roy Ascott che descrive l’artista come IL soggetto capace di confrontarsi con un mondo in cui significati e contenuti sono progressivamente creati tramite relazioni e interazioni, in modo instabile, mobile e fluttuante. O come Gregory Bateson, che vede nell’arte il solo modo possibile per soddisfare la necessità di trovare soluzioni attraverso cambiamenti radicali nel nostro modo di pensare e di conoscere.
Ma anche rimanendo nel business: già Pine e Gilmore nel loro libro in cui introducevano per la prima volta il concetto di Experience Economy, descrivevano l’arte come una necessità.
Nell’arte scienza, tecnologie, ambiente e società trovano il sensore e l’attuatore per introdurre nuovi immaginari, nuovi modi di leggere il mondo, di costruire significati e di agire, insieme.

Ultima domanda. Se dovessi proporre un tema o un warmup per l’Hackmeeting che si terra a Pisa dal 3 al 5 giugno?

“Trasgressione e Innovazione!”

0 comments

Non accettate taralli da blogger sconosciuti

tarallo aviglianese

tarallo aviglianese

il Garante della Privacy,  con un provvedimento che risale all’otto maggio 2014 (numero 229/2014, pubblicato sulla G. U. n. 126 del 3 giugno 2014), ha stabilito le modalità semplificate per dare l’informativa e acquisire il consenso per l’uso dei cookie.

In pratica entro il 2 giugno 2015 tutti i siti web dovranno predisporre una procedura che preveda l’accettazione o diniego del consenso all’utilizzo dei cookies da parte del visitatore del sito.

Cookie, questi sconosciuti
I cookie sono dei file di testo che vengono scaricati sul browser del visitatore del sito web per poi essere ritrasmessi al server, nelle visite che questo farà successivamente allo stesso sito.
Esistono, ovviamente,  diversi tipi di cookies con differenti funzioni. La maggioranza dei blogger utilizza, quasi esclusivamente,  cookie di tipo statistico (tipo Google Analytics) che raccolgono i dati del navigatore come esperienza all’interno del blog.
Quelli di “profilazione”, invece,  raccolgono informazioni un po’ più accurate tali da riuscire a individuare le preferenze del visitatore in modo da far apparire sul suo browser banner pubblicitari personalizzati.

Cosa deve fare il blogger?
“L’obbligo di informare l’utente sull’uso dei cookie e di acquisirne il preventivo consenso”  è a carico del gestore del sito, in qualità di titolare del trattamento, quindi del blogger.
Praticamente i cookies tecnici posso essere utilizzati e inviati, l’importante è inserire un messaggio che avverte il navigatore sull’utilizzo dei cookie, seguito da due link: uno per la concessione del consenso e l’altro che indirizzi a una pagina contente le informazioni ulteriori, anche su cookies di terze parti (per esempio quelli usati da Facebook, da Google, ecc….).

Ricordatevi che i cookies non “tecnici” (quelli di profilazione e marketing) non possono essere inviati se l’utente non abbia prestato il suo espresso e valido consenso.

Se usate WordPress e volete inserire un’informativa breve, potete utilizzare qualche plugin come:  Cookies Law Info o Cookie Notice by dFactory.
Se invece avete voglia di lavorare, ma giusto un pochino, potete seguire le indicazioni contenute in questa pagina di Google.

0 comments

Il futuro è della chat ?

keyGreta Sclaunich, qualche tempo fa sul Corriere,  diceva che il futuro dei social è tutto nelle chat.

Chi si ricorda di IRC ? e di ICQ ?  In Italia forse molti ricorderanno C6…  e ce n’erano anche di più vecchie.   Se non li ricordate  oppure non ne avete mai sentito parlare, sappiate che viviamo ancora nella loro scia. Quando messaggiamo o chiacchieriamo on line,  stiamo usando lo stesso paradigma comunicativo.  LOL, IMHO, AKA, per esempio, facevano parte dello “slang” di queste chat.  Anche la parte “social”, che può sembrare una novità, non è altro che una piccola modifica (ma a pensarci bene neanche tanto) dell’ordinamento di gusti e tendenze che avveniva con i gruppi di discussione e con le “stanze” private.  A parte il maggior numero di emoticon, è quasi tutto uguale. Il grosso cambiamento è stata  la  velocità della rete e poi una immersione più continua.  Le nuove piattaforme hanno fatto il resto e così  le vecchie chat rinvigorite, hanno preso il posto anche degli SMS (Deloitte  ha stabilito che negli ultimi due anni i messaggi in chat sono stati più del doppio degli sms); degli MMS, poi, non ne parliamo proprio.

Qualche numero

I dati Audiweb dicono che a dicembre 2014, in un giorno medio, i giovani da 18 a 24 anni navigano per 2 ore e 22 minuti (con un’ora di incremento rispetto al 2013), nel 67% dei casi da smartphone e l’88% dei quali su chat.
Per aggiungere un’altra manciata di numeri prendiamo il caso di un client fortunato come WhatsApp che (pur se a pagamento) nel 2014 ha superato il mezzo miliardo di utenti, i quali: per prima cosa si scambiano foto, poi messaggi e infine dei video.

Quale futuro?

Se  qualche anno fa mi avessero chiesto  quale sarebbe stato il futuro dei social, avrei risposto, senza esitazioni, “il metaverso” (Second Life, tanto per intenderci).  Un social immersivo e  corporale tutto in divenire  che in breve avrebbe spazzato via  tastiera, mouse,  monitor e chissà cos’altro.   E invece…  a dieci anni di distanza ancora non è pronta quell’interfaccia immaginata da tanti.  Uno schermo indossabile come  Oculus  che avrebbe dato un nuovo impulso a quel mondo immersivo non è ancora pronto. Come se non bastasse, è stato acquistato da Zuckerberg che, dicono i maligni, potrebbe essere interessato alla distribuzione di films o, forse, a collegarlo ai suoi social e a WhatsApp in particolare.

Dunque  la chat è il nostro loop storico?

Philip Rosedale pensa di no e la sua risposta è High Fidelity. Un nuovo metaverso che integrerà Oculus ad altri sensori di movimento e, più in la, a una webcam 3D. Se  non sarà Matrix sarà qualcosa di molto simile, assicura Rosedale nella postfazione al libro di Giuseppe Macario “Il passato, il presente e il futuro del mondo virtuale Second Life“.

 

0 comments

Le tendenze del cyber-crime


Una storiella

Tutti quelli che raccontano storie intriganti e interessanti spesso amano arrotondare gli spigoli e non lesinare sulle misure.
Emblematici sono i pesci che i pescatori allungano in proporzione al numero di birre bevute o a quelle delle reiterazioni del racconto.
Anche i cracker non scherzano…  ma capita che la cronaca, a volte, sia ancora più spettacolare.
Una di queste è quella capitata a dicembre del 2013 alla grande catena americana Target che nel giro di 2 settimane si è vista sottrarre i codici di circa 40 milioni di carte di credito.
I cracker sono partiti dall’infettare il Point Of Sale di un’azienda che cura la manutenzione dei banchi frigoriferi della Target, attraverso la quale sono riusciti a installare un malware,  del tipo BlackPOS, sui tutti i sistemi POS  di centinaia di negozi della catena. Il malware ha intercettato i dati che transitavano sulle macchinette (circa 11 GB) prima che queste li cifrassero (la crittografia end-to-end viene usata per proteggere i dati raccolti sui POS prima di inviarli a un server back-end e poi al processore di pagamento) per poi inviarli via FTP su server virtuali (VPS) in Russia.  La Target, infatti, dopo tutte le verifiche del caso, ha ammesso che insieme ai numeri di carte di credito/debito sono state rubate anche le informazioni personali appartenenti a 70 milioni di persone.

Il rapporto Clusit

Questa’azione “epica” della storia del cyber-crime, insieme a quella più complessa contro le banche e le televisioni sud coreane (operation “Dark Seoul”),  trovano posto nel nuovo Rapporto Clusit  che analizza i crimini informatici avvenuti nel 2013 e i primi mesi del 2014.
L’analisi mostra, dati alla mano, che gli attacchi informatici di tipo grave (di pubblico dominio), sono aumentati del 245% rispetto al 2011, con una media di 96 attacchi mensili.
Di 2.804 attacchi gravi di pubblico dominio ne sono stati analizzati 1.152 (il 41%) e di questi solo 35 sono su bersagli italiani.  A prima vista sembra confortante questo piccolo 3% ma sicuramente non rappresenta bene la realtà italiana. Confrontando il dato con quelli di altri paesi occidentali con economia e dimensioni similari  si è indotti a pensare che tale percentuale sia dovuta alla cronica mancanza di informazioni pubbliche al riguardo e, in qualche misura, al fatto che le aziende italiane spesso non hanno neanche gli strumenti idonei e/o la tecnologia necessaria per rendersi conto di essere state compromesse.
Dall’analisi sembra che il cyber-crime sia un fenomeno piuttosto marginale dal momento che rappresenta meno di un terzo (il 17 %) di quelli derivanti da azioni di hacktivism; ma su questo bisognerebbe fare almeno tre riflessioni: la prima è che delle azioni derivanti da hacktivism  se ne ha notizia perché fa parte proprio della loro politica darne comunicazione; la seconda che buona parte delle aziende preferiscono non dichiara di aver subito un attacco criminale e la terza che un’altra parte di aziende neanche si accorge di essere attaccata. Infatti una nota di Fastweb rivela che nel 2013 oltre 1.000 attacchi DDos sono stati rivolti a suoi clienti.

Una breve analisi è dedicata anche all’area dell’hacktivism che, secondo il rapporto, sta passando da una collaborazione sporadica o eccezionale  con il cyber-crime, a un vero e proprio percorso unitario, quantomeno in senso “tecnico” e di condivisione degli obiettivi.  Questo perché le frange di attivisti digitali più oltranzisti iniziano ad utilizzare le modalità operative proprie del cyber-crime per autofinanziarsi.

La tendenza futura

L’aumento delle vendite di smartphone e tablet vede, ovviamente, in crescita la scrittura di malware per questo tipo di sistemi (con una prevalenza per la piattaforma Android) e  anche se Google e Apple tengono alte le difese una buona percentuale di utenti utilizza App-Store non ufficiali dove i controlli sono più bassi.
Ad ogni modo il numero di insidie sui dispositivi mobili sono ancora un pericolo molto basso per il semplice fatto che su questi dispositivi è ancora difficile rubare una quantità di denaro sufficiente.

Un bersaglio importante, invece, sembra essere il cloud e l’espansione di applicazioni e di servizi basati su tali piattaforme dovranno, necessariamente, indurre le aziende a investire in sistemi di controllo della sicurezza che, tra le altre cose, sembrano anche più economici.

0 comments

Il diritto all’oblio secondo Google

Il 13 maggio di quest’anno la Corte di Giustizia dell’Unione Europea ha emesso una sentenza inappellabile nei confronti di Google che, in quanto responsabile del trattamento dei dati di tutti i suoi utenti, è obbligata a cancellare i dati personali e la loro indicizzazione  a chiunque lo richieda.
Google invece, richiamandosi al “Digital Millenium Copyright Act“, ritiene di dover essere liberata da tale onere (tranne per il  copyright) nel momento in cui riesce a dimostrare di aver fatto tutto il possibile.
Tralasciando il complesso tema sul delicato equilibrio tra diritto alla cronaca e privacy (e non considerando il fatto che non basta eliminare il link nelle pagina dei risultati del motore di ricerca se poi restano on-line i contenuti), c’è un problema che ha a che fare con il futuro di internet: se, come dice David Meyer, in futuro i motori di ricerca anziché essere centralizzati come Google fossero distribuiti? chi sarebbe il responsabile?
A tal proposito Google ha costituito un Comitato consultivo per il diritto all’oblio che ha avviato un tour europeo per rendere note le problematiche legate alla sentenza della Corte  e la tappa italiana sarà mercoledì 10 settembre presso l’Auditorium Parco della Musica a Roma.
Qui, oltre ad ascoltare i relatori invitati, sarà possibile porre domande attraverso delle apposite cartoline che Google distribuirà al pubblico presente ma, se volete, potete farlo anche on-line.