The New Big (Data) Thing

Innovation The New Big (Data) Thing

sintesi

Nel 1989 un analista di Gartner, Howard Dresner, decise che da quel momento in poi la “business intelligence” avrebbe racchiuso tutti quei concetti e metodi per prendere decisioni sulla base di dati. Dresner immaginava non solo una nuova famiglia di software per le aziende, ma una metodologia avanzata per trattare le informazioni e trasformarle in conoscenza. Erano gli anni Novanta, le imprese sarebbero dovute diventare astronavi spaziali, i manager piloti al comando del business, e i computer dei cruscotti di navigazione per monitorare le performance aziendali. Le parole d’ordine allora erano real time, data mining e controllo di gestione. La sfida: riorganizzare i processi, recuperare gli indicatori di funzionamento e fornire una rappresentazione che fosse utile e comprensibile ai decision maker. Questi software convinsero alcune multinazionali e i grandi gruppi bancari, ma si rivelarono strumenti piuttosto complessi per gran parte del mercato. Ebbero però il merito di lavorare a fondo sui database, sulla visualizzazione e sull’archivio delle informazioni dati. Gettarono insomma le basi tecnologiche del processo di apertura dei database che ha preso piede nel 2009 quando Tim Berners Lee, uno dei padri del web, suggerì la libera circolazione dei dati sul web. In quell’anno politica e tecnologia ebbero la stessa visione. L’accesso ai database ha stimolato lo sviluppo di applicazioni in grado di portare benefici tangibili alla collettività, servizi di nuova generazione per il pubblico, nuove opportunità di business per il settore privato e una promessa di risparmi per la macchina statale. Tuttavia, l’informazione non ha avuto il tempo di apprezzare le potenzialità del dato. L’information overload nell’ultimo decennio è stata la cifra della crisi industria editoriale e il sintomo di un diverso paradigma di apprendimento. Per dirla in altro modo il sapere si è digitalizzato troppo velocemente prendendo in contropiede i mezzi di produzione. Nel 2000 il 25% delle informazioni registrate nel mondo era in bit: il 75% era analogico, su carta, pellicola, plastica magnetizzata, e così via. Nel 2013 il 98% delle informazioni registrate nel mondo è in formato digitale: i vari supporti analogici, dalla carta alla plastica, si dividono il restante 2 per cento. Mentre le aziende intuivano le potenzialità di business dei database, l’industria culturale è rimasta in trincea a combattere una battaglia di retroguardia contro il fluire anarchico delle notizie. Doveva essere l’apocalisse, o almeno così è stata raccontata. Poi è arrivato Dremel. Dremel è il titolo di un paper scientifico di Google uscito nel 2010. Chi volesse sfogliarlo lo trova in rete (tinyurl.com/c8wdacz) ma non è una lettura rilassante (almeno non per tutti): spiega come compiere ricerche su milioni di gigabytes di informazioni in frazioni di secondo. Quello studio è stato letto e analizzato da molti se non tutti i computer scientist, informatici e esperti che oggi lavorano o guidano startup attive nell’estrazione di significato e di business dai dati. Big Data deve tutto a Dremel se oggi è considerata a ragione la new big thing. Per una piccola impresa significa poter porre domande al proprio business che in passato sarebbero costate troppo. Il vantaggio nel poter interrogare più volte al giorno un mercato che cambia in tempo reale, minuto dopo minuto è stato quantificato da Gartner in una frontiera capace di stimolare una spesa mondiale di 34 miliardi di dollari. Un altro big number che ha contribuito a dare ordine e un profilo di business al caos di internet. Paradossalmente l’inzio dell’era del big data ha coinciso con la fine dell’information overload. Ha dato speranza a una industria in cerca di ordine. Ha suggerito che il caos di dati e database può essere interpretato, possiede una matrice nascosta che può generare valore. Continua su weconomy.it