La miniera di informazioni strategiche a disposizione dell’azienda

L’assenza di correlazione fra le informazioni restringe la visione ed impedisce di affinare le strategie: bisogna attivarsi immediatamente per attingere a tutto il patrimonio di conoscenza disponibile in azienda e sfruttare ogni occasione che può fare la differenza fra sopravvivere e prosperare.

Oggi in azienda ci sono molte applicazioni evolute, alcune addirittura gratuite, tutte con una interfaccia facile da usare e nomi che promettono di fare meraviglie.Sembra quindi un paradosso che resti ancora molto difficile trasformare la miriade di informazioni che sono a disposizione di tutti in qualche cosa di veramente utile, in grado di rendere il lavoro più efficace e l’azienda più competitiva.

Analizziamo tre scenari che trovano larga diffusione nelle aziende di qualunque dimensione, per indicare alcune soluzioni possibili. La visione che ci viene continuamente proposta è quella di un mondo, descritto come già reale o al massimo imminente,  popolato di apparati interconnessi che dialogano ed interagiscono fra loro con la massima semplicità.

In effetti, qualunque sistema che possiede un indirizzo IP può connettersi ad altri device utilizzando protocolli di comunicazione standard e consolidati da tempo. La stessa cosa non si può dire per quanto riguarda lo scambio di dati. Esistono, è vero, alcuni standard per memorizzare o tipizzare i dati, ma la libertà con cui si possono presentare i risultati di una query è totale.

Nel primo scenario rientrano i software che sono corredati da un corposo set di API (Application Programming Interface), attraverso cui è possibile estrarre i valori cercati senza interagire obbligatoriamente con l’interfaccia grafica.

Resta comunque un lavoro complesso di sviluppo software e test, dove è bene introdurre uno strato intermedio di funzioni in grado di “ammortizzare” l’impatto, altrimenti devastante, con modifiche alle API o alla struttura del database sottostante.

Non esiste nessun modo per essere certi che lo sviluppo dell’applicazione con cui si vogliono scambiare dati mantenga nel tempo la compatibilità con le versioni precedenti: la release successiva può cambiare completamente le carte in tavola, costringendoci a ripartire da capo.

Se l’obiettivo da perseguire si limita a leggere dei dati, la situazione è sostanzialmente semplice; molto più complesso è il caso in cui i dati vengano aggiornati dall’esterno dell’applicazione che li gestisce. Difficilmente si conosce quali controlli applicare prima di un aggiornamento, come gli archivi sono correlati fra loro e quali chiavi ne garantiscono l’integrità.

È raro che ci sia un set di API per la validazione, così da evitare la duplicazione di controlli e la loro manutenzione. Per non parlare di tutti i casi in cui bisogna affrontare le questioni inerenti la sicurezza e i permessi di accesso, che possono rivelarsi insuperabili.

A volte la strada migliore si rivela la simulazione di una interazione umana tramite tastiera, realizzata con macro parametriche: in questo caso l’ostacolo principale è il cambio dell’interfaccia, perché anche il banale spostamento di un campo, tanto quanto il cambio di contenuto di un elenco a discesa o l’aggiunta di un nuovo field, può mandare tutto in crisi.

Se poi l’interazione con l’utente è realizzata tramite una interfaccia via browser, le cose si complicano ulteriormente perché bisogna aver a che fare, oltre che con l’applicazione di nostro interesse, anche con il browser che la presenta a schermo.

Ogni versione ha le sue specificità, ma può addirittura succedere, come con il recente Microsoft Windows 10, che scompaia una pietra miliare come Internet Explorer, che ha lasciato il posto ad Edge, costringendo a ripartire da capo con uno sviluppo per il nuovo browser.

Tutto sommato interagire con l’applicazione che gestisce i dati attraverso un metodo più o meno complesso ci garantisce che questi ultimi siano aggiornati ed i risultati delle nuove elaborazioni possono essere integrati e generare altri nuovi dati.

Un secondo scenario che si presenta molte altre volte, vuoi per la complessità dell’interazione via API o interfaccia video, vuoi perché non c’è il prerequisito di trattare informazioni aggiornatissime, opta per sfruttare le funzioni di importazione ed esportazione offerte dal software, che costringono gli utenti a combattere problemi di varia natura.

Dando per scontato, in un eccesso di ottimismo, che l’import/export funzioni correttamente, la lotta si sposta sulla scelta del separatore di campo, del set di caratteri, del tipo di ciascun dato e della possibilità di scegliere cosa importare/esportare.

Uno degli strumenti su cui si fanno confluire i dati esportati è Microsoft Excel, che presenta le informazioni automaticamente divise in colonne separate e che attraverso le tabelle pivot ed i filtri si presta a realizzare dei semplici sistemi di analisi.

Le date, i campi come il CAP o la Partita Iva che vengono erroneamente presi come numerici e perdono gli zeri iniziali, le lettere accentate che diventano caratteri illeggibili: sono solo alcuni esempi di guerre assurde che lasciano sempre qualche spiacevole ricordo e fanno perdere un mare di tempo prezioso.

Ancora prima di affrontare queste sfide bisogna trovare il modo per lanciare automaticamente l’import/export: non vorremmo mica basare tutto il nostro progetto sul fatto che l’utente si ricordi di lanciare periodicamente una sequenza di comandi complessa e astrusa?

In questo scenario, i dati non sono così ben separati in campi distinti: occorre quindi una fase di analisi delle stringhe per isolare i vari token di cui sono composte, per memorizzarli secondo una logica coerente con i nostri bisogni.

Fare queste operazioni con Excel richiede l’uso di funzioni complesse, ma poco efficaci; risolvere il problema con strumenti specializzati che interpretano le espressioni regolari può richiedere uno studio che definire ostico è un eufemismo.

Poi bisogna affrontare il problema della duplicazione dei dati – è pur sempre un import/export – e del loro aggiornamento nel tempo; quest’ultimo non può richiedere di ricominciare tutto da capo, perché andrebbe perso il lavoro di controllo e di completamento della elaborazione, spesso fatto a mano.

Nel terzo scenario, diffuso in modo superiore alle aspettative, può capitare che le informazioni di nostro interesse siano contenute all’interno di un device chiuso, ad esempio il log delle chiamate di un centralino, o ci siano presentate a video da un browser collegato attraverso Internet ad un database proprietario. Qui il problema di isolare i singoli token cresce di un paio di ordini di grandezza. Quando troviamo un indirizzo sulle Pagine gialle, come si fa ad inserirlo nella nostra rubrica?

Che nel Terzo millennio si debba ancora fare come gli amanuensi, copiare, è anacronistico: con le poche righe di un indirizzo il problema è molto contenuto e l’uomo, con la sua intelligenza, è perfettamente in grado di analizzare, suddividere e tipizzare quello che legge.

Nelle situazioni più complesse, o quando i dati da trattare sono corposi, non si può fare a meno di sviluppare uno strato di software che risolve il problema nel modo più automatico possibile.

Da tutto quanto abbiamo visto, si comprende come in qualunque azienda ci siano tanti sottosistemi informativi del tutto scollegati fra loro: il danno economico che ne deriva può essere enorme.

La mancanza di correlazione fra le informazioni restringe la visione, impedisce di affinare le strategie, rende miopi proprio in questo periodo nel quale la prosperità, a volte solo la sopravvivenza di una azienda, dipendono da come questa sa cogliere e sfruttare ogni occasione che le si presenta.

Attingere ad ogni informazione disponibile, dal web fino all’applicazione più evoluta installata nel sistema informativo, normalizzare e correlare patrimonio di conoscenza per distillare il dato operativo o strategico è una sfida importante che può fare la differenza fra sopravvivere e prosperare.

Per fare questo occorre una caratteristica professionale particolare, quella che un tempo veniva chiamata “capacità di analisi e visione”, propria degli analisti di sistema ai tempi dei Mainframe (sistemi informatici di tipo centralizzato caratterizzati da prestazioni elaborative di alto livello), nella quale sono mescolati obiettivi, curiosità, determinazione, metodo e conoscenza dei sistemi informatici e informativi. In pratica occorre avere nella stessa figura un’alchimia di conoscenza, teoria ed esperienza, condita con un pizzico di problem solving, per distillare dati ed informazioni corretti, oggettivi e temporalmente collocati, ad uno ad uno, finché non diventino un patrimonio realmente utilizzabile da tutta l’impresa.

Anno 7 N1 Febbraio 2016

Share