Il consolidamento dei dati potrebbe sembrare una nicchia, per quanto importante e in forte crescita, nel complesso delle attività It delle aziende, ma qualcuno ne ha fatto il cardine del proprio business fin dall’inizio. È Informatica Corporation, che a dispetto del nome italiano è una società californiana nata nel 1993, relativamente piccola rispetto ai colossi del settore, con 2500 dipendenti ad alta qualificazione e sedi in 26 paesi, Italia compresa, per un fatturato che nel 2011 è stato di 783,8 milioni di dollari. Quel che più conta è il trend di crescita di questo numero, che anno su anno è del 21% e si mantiene su questa china da almeno un lustro, senza minimamente risentire della crisi.
In questi risultati già potrebbe esserci la razionalità di una scelta di verticalità così forte nell’offerta, mentre gli altri hanno un portfolio in cui c’è di tutto e di più con soluzioni indipendenti.
L’altra ragione è nel modo in cui il ruolo e il valore stesso dei dati sta cambiando con il cloud, il mobile e il social networking. Oggi gli analisti sono concordi nel considerare i dati la vera moneta dell’economia della rete, valutabili in denaro e riconvertibili in fatturato se trattati correttamente e selezionati con cura.
Parlando con Fredi Agolli, Country manager della sede italiana della società, abbiamo messo insieme alcuni dettagli del metodo usato da Informatica per maneggiare i dati dei suoi clienti, alla ricerca di criteri generali a cui le aziende dovrebbero attenersi per sfruttare al massimo il proprio patrimonio informativo.
I dati al centro
Informatica negli anni si è specializzata in Etl (estrazione, trasformazione e caricamento dati per esempio in data warehouse), che considera ormai una commodity nella sua offerta, ma viene indicata da Forrester come leader anche nella Data virtualization.
In realtà l’offerta di Informatica è più ampia e comprende ogni aspetto di integration, governance e management dei dati. Il suo obiettivo dichiarato è massimizzare il rendimento del patrimonio informativo delle aziende, valutato come rapporto tra il valore e il costo dei dati, proponendo di abbattere quest’ultimo attraverso una piattaforma unica per tutte le necessità.
Il meccanismo messo in piedi da Informatica si basa sulla virtualizzazione dei dati, senza necessariamente spostarli dalla base dati di partenza, ma intercalando un layer di servizi che ne consenta la gestione avanzata, rendendo trasparente al cliente la complessità tecnologica. Ovviamente il sistema lavora con qualsiasi piattaforma dati preesistente, il che si rivela particolarmente utile anche quando un’azienda in seguito a operazioni di fusione o acquisizione, debba gestire basi dati diverse. La virtualizzazione del dato consente di ridurre il tempo di risposta a una richiesta anche da fonti diverse da qualche mese a un paio di settimane. L’approccio seguito permette di lavorare in due tempi. Una richiesta occasionale può essere gestita in modo molto rapido con la virtualizzazione, mentre in presenza una necessità più strategica la base dati va migrata, ma la fase precedente ha già creato un precorso per semplificare e velocizzare questa migrazione.
Altra importante focalizzazione per chi voglia veder crescere il valore dei propri dati riguarda la selezione qualitativa dei dati in ingresso. Qualunque progetto di consolidamento non aggiunge valore ai sistemi target se in ingresso ci sono dati di scarsa qualità, e anche laddove i dati sono validi spesso le aziende non sono in grado di dimostrarlo con un’appropriata documentazione.
Per questo Informatica si occupa prima di tutto di analizzare la qualità in ingresso dei dati e di generare una reportistica in grado di certificare il valore delle informazioni e la presenza di gap da colmare, oltre a gestire metadati in modo che l’intero ciclo di generazione del dato sia tracciabile e giustificabile nelle fasi successive.
Il problema dei sistemi di sviluppo e test
Se i dati hanno grande valore, fanno gola a molti e la sicurezza diventa un punto fondamentale. Ai consueti fattori di rischio va aggiunto anche quello, tutto interno all’area It dell’azienda, relativo all’impiego di dati reali e coerenti a scopo di test e sviluppo di nuove applicazioni.
Per garantire lo sviluppo di software di qualità gli scenari devono infatti essere quanto più realistici possibile, ma non è quasi mai possibile replicare l’intera base dati a questo scopo. Inoltre l’uso di dati reali per applicazioni di prova implica evidenti rischi di diffusione indebita di queste informazioni. La soluzione consiste in uno strumento che sposti i dati in modo semplice, creando un subset per non dover regger il peso dell’intero database, coerente con gli scopi del test. Inoltre i dati estratti devono essere coerenti per gli scopi del test ma mascherati, magari mescolando parti di informazione in modo che non si possano ricostruire i record originari.
Altro fattore di rischio riguarda l’accesso a dati sensibili che va separato dalla visibilità di altre informazioni, come per esempio la separazione tra semplice anagrafica e numeri della carta di credito. Ovviamente le applicazioni aziendali già tengono separato l’accesso a queste informazioni, ma chi gestisce i sistemi informativi può agevolmente aggirare il sistema effettuando l’accesso diretto al database. La virtualizzazione dei dati può impedire a monte queste operazioni.
Dove andranno a finire i dati
Con il cloud, la mobility e i social media insieme al business cambiano anche la posizione dei dati, che si spostano dall’azienda e viaggiano attraverso nuovi device e sistemi di interazione social in modo spesso poco controllabile. Altri dati verranno sempre più dall’Internet Of Things, trasmessi attraverso la rete da macchine che comunicano senza l’intervento umano.
La strategia futura di chi gestisce i dati deve tener conto di questa nuova logica, che vede negli strumenti in mobilità il nuovo punto di partenza per operare azioni di consolidamento sempre più complesse e meno protette entro il perimetro del firewall aziendale. A questa delocalizzazione si aggiunge il peso crescente di queste informazioni, il cui aumento è inarrestabile e metterà presto in crisi i sistemi esistenti.
Per questo è necessario sfruttare il framework Hadoop spremendo la potenza elaborativa dei suoi innumerevoli nodi distribuiti attraverso Internet, con un approccio open.
Il paradigma di Informatica
In questo panorama Informatica si propone sul mercato con una piattaforma unica e gestita in modo unificato, che Fredi Agolli assicura in grado di permettere semplificazione e abbattimento dei costi rispetto alle soluzioni concorrenti.
Secondo Agolli: “Con la piattaforma unica di Informatica si evitano situazioni come quelle di clienti telco che chiamano con la stessa sim il call center residenziale e quello business senza che l’azienda che risponde abbia la consapevolezza di interloquire con la stessa persona”.