Il Petrolio del XXI Secolo? I BIG DATA!

Fare previsioni diventa sempre più determinante, in modo particolare nell’attuale contesto congiunturale; ma riuscire a “imbroccare” le previsioni giuste, vale a dire quelle che ci consentono di delineare gli scenari futuri più verosimili nei segmenti di mercato di appartenenza, diventa strategico.
Se poi si riuscisse a farlo in tempo reale…

Di recente il fenomeno BIG DATA ha riscosso un rinnovato interesse a seguito della notizia secondo la quale la rielezione di Obama a Presidente degli USA sarebbe dovuta in parte non trascurabile proprio all’impiego dei BIG DATA…

BIG DATA, questi sconosciuti

Cerchiamo di capire più da vicino di cosa si tratta, anche perchè al di là del fatto che tutti ne parlino, pochi in realtà hanno chiare le idee sulle caratteristiche del fenomeno.

Innanzitutto, tentiamo una definizione: con il termine BIG DATA si è soliti indicare quell’imponente mole di dati in formato digitale che a vario titolo risulta archiviata, anche in forma destrutturata, all’interno e all’esterno dei Sistemi Informativi aziendali; pertanto, tutte le aziende che impiegano le tecnologie informatiche (non solo le multinazionali, quindi, ma anche quelle che si “limitano” ad es. a condurre campagne di marketing tramite i Social Network), sono potenzialmente interessate al fenomeno;
è facile constatare inoltre come la mole di dati informatici “accumulati” nel tempo mostri tassi di crescita esponenziale, anche nelle realtà aziendali di dimensioni più contenute.

Riuscire a ricavare da questa massa indistinta e destrutturata di dati le informazioni necessarie per poter individuare le tendenze “nascoste” (sociali, di mercato) è la sfida cui è chiamato a rispondere il BIG DATA MANAGEMENT.

Ma non ci sono già i DATABASE?

Certo, e continuano a svolgere egregiamente il loro compito; il punto è che quando la quantità di dati raggiunge livelli ingenti, continuando perdipiù a crescere in maniera incontrollata, anche la “qualità” del dato oggetto di analisi assume caratteristiche peculiari.

Senza dimenticare che un normale database relazionale ha difficoltà a gestire dati “destrutturati” (che non siano correttamente “relazionati”, appunto); occorre pertanto adottare un approccio diverso, che permetta da un lato di mettere “a fattor comune” nelle attività di analisi tutte le informazioni disponibili, anche se “disperse” all’interno dei vari supporti informatici, dall’altro trasformando la cresente mole di dati da problema (di storage) a opportunità: ricordiamo infatti che il costante accumulo delle informazioni rende possibile l’impiego di metodiche di analisi statistico-probabilistico (quali ad es. le reti Bayesiane) che consentono di correggere in tempo reale le tendenze rilevate, sfruttando proprio la disponibilità delle informazioni più recenti.

Su Rodolfo Giometti

Ingegnere informatico libero professionista ed esperto GNU/Linux offre supporto per: - device drivers; - sistemi embedded; - sviluppo applicazioni industriali per controllo automatico e monitoraggio remoto; - corsi di formazione dedicati. Manutentore del progetto LinuxPPS (il sottosistema Pulse Per Second di Linux) contribuisce attivamente allo sviluppo del kernel Linux con diverse patch riguardanti varie applicazioni del kernel e dispositivi (switch, fisici di rete, RTC, USB, I2C, network, ecc.). Nei 15+ anni di esperienza su Linux ha lavorato con le piattaforme x86, ARM, MIPS & PowerPC.

Lascia un commento

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fonire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o clicchi su "Accetta" permetti al loro utilizzo.

Chiudi