Fieldbus & Networks N. 90 - February 2017

FN February 2017

Sorry, this entry is only available in Italian. For the sake of viewer convenience, the content is shown below in the alternative language. You may click the link to switch the active language.

Tavola Rotonda

L’analisi tanto attesa

A cura di Matteo Marino

VEDIAMO QUI I VANTAGGI CHE SI POSSONO OTTENERE CON LA BIG DATA ANALYSIS, NONCHÉ GLI STRUMENTI A DISPOSIZIONE E LE MODALITÀ CON CUI TRASFORMARE I DATI IN DECISIONI UTILI AL BUSINESS

Abbiamo chiesto ad alcuni dei principali attori del mondo dell’automazione industriale di fare luce sull’ampio tema della big data analysis, partendo dal suo significato per conoscere poi quali applicazioni siano state messe in campo dalle aziende da loro rappresentate.

Fieldbus & Networks: Potete spiegare che cosa è realmente la big data analysis?

Letizia De Maestri, area marketing di Automata (www.cannon-automata. it): “Big data è un termine fondato nel 2001 da un analista di Gartner, società che ogni anno pubblica l’‘Hype Cycle’ che rappresenta la maturità, l’adozione e l’applicazione di specifiche tecnologie. I big data descrivono la crescita esponenziale del numero di dati esistenti generati da oggetti intelligenti e la loro crescente accessibilità. Le parole chiave che la contraddistinguono sono: volume, e diversi fattori hanno contribuito all’incremento del volume dei dati, tra cui il crescente numero di sensori e dati machine-to-machine che sono stati acquisiti nel tempo; velocità, in quanto il flusso di dati scorre a una velocità elevata e dev’essere gestito in modalità realtime; varietà, poiché i dati si palesano sotto le più svariate forme come numerici, alfanumerici, informazioni ricostruite attraverso applicazioni line of business, documenti di testo non strutturati, email ecc.; complessità, perché i dati provengono da fonti differenti. Collegare e abbinare i dati tra diversi sistemi per poi pulirli e trasformarli, significa impiegare uno sforzo notevole. I big data possono essere rilevanti per le aziende: una loro corretta gestione può condurre ad analisi più dettagliate, importanti sia a livello strategico sia operativo nel breve, medio e lungo periodo”.

Guido Porro, managing director per l’Italia ed Euromed di Dassault Systèmes (www.3ds.com/it): “Si potrebbe definire la big data analysis come la capacità di analizzare, sintetizzare e rendere fruibile un vasto ed eterogeneo volume di dati al fine di prendere delle decisioni informate di business o comunque di azione. Non si tratta di un compito facile, non tanto per la grande quantità di dati presi in esame, quanto per la loro complessità, variabilità e velocità”.
Sottolinea Massimo Bartolotta, machinery OEM segment manager per l’Italia di Eaton (www.eaton.it): “La quarta rivoluzione industriale vede macchine, dispositivi, sensori e persone in grado di comunicare e condividere dati importanti, abbassando i costi della produzione e offrendo un chiaro vantaggio in un ambiente globale competitivo. Grazie all’uso di servizi cloud è possibile interconnettere risorse produttive e perfino interi siti di produzione”. Egli continua poi confermando come l’ottimizzazione dei processi fino ai semplici sensori e attuatori richieda componenti intelligenti in grado di elaborare e inoltrare dati. Attraverso l’uso di tali prodotti, però, i volumi di dati aumentano considerevolmente all’interno di una singola macchina: “Se trasferiamo il tutto a una rete aziendale operante a livello globale si ottiene un aumento esponenziale della quantità di dati da elaborare ed è proprio per questo motivo che si parla di big data analysis”.

Per Cristian Randieri, presidente e CEO di Intellisystem Technologies (www.intellisystem.it), quando si parla di big data si fa riferimento a una collezione eterogenea di dati grezzi che di per sé non hanno alcun valore se non analizzati e quindi rielaborati mediante le più moderne tecniche, meglio definite col termine ‘data mining’. “Questa tecnica può essere definita come l’attività di estrazione dell’informazione da una miniera di dati grezzi. Per capire meglio questo concetto occorre approfondire il significato di alcune parole. Il dato è l’elemento base potenzialmente informativo, le cui caratteristiche sono note ma non ancora organizzate o classificate, in quanto costituito da simboli che devono essere elaborati prima di poter essere compresi. L’informazione è il risultato dell’elaborazione di più dati che restituisce una serie di dati aggregati e organizzati in modo significativo. La conoscenza è una serie di informazioni che, aggregate tra loro, consentono di diffondere sapere, comprensione, cultura o esperienza. Di conseguenza, qualsiasi operazione di big data analysis consiste in tutte le attività che hanno come obiettivo l’estrazione di informazioni da una quantità di dati indefinita, ovvero tutto ciò che attraverso ricerca, analisi e organizzazione genera sapere o conoscenza a partire da dati non strutturati. Si tratta di una serie di tecniche e metodologie molto simili alla statistica ma con una grande differenza: la prima è usata per fotografare lo stato temporale dei dati, mentre il data mining è più usato per cercare correlazioni tra variabili a scopi predittivi”.

Spiega Claudio Cupini, technical marketing engineer di National Instruments Italy (http://italy.ni.com): “Con la proliferazione delle tecnologie di rete, degli smart device e dei sistemi intelligenti, elementi cardine nel panorama IoT (Internet of Things), si assisterà a una vera e propria esplosione di dati. Basti pensare che entro il 2020 si stima che ci saranno oltre 50 miliardi di dispositivi connessi. La connessione prevede sempre e comunque uno scambio di dati, di informazioni. Per questo motivo il problema sarà non tanto garantire l’opportuna connessione tra i dispositivi, quanto la gestione e l’utilizzo dei dati a disposizione degli utenti. Si immagini la possibilità di avere accesso in modo intelligente a questa enorme mole di informazioni e trarne opportuni vantaggi. Un sistema di analisi di quest’enorme banca dati deve essere dotato per prima cosa di un sistema di data mining e ricerca dati quanto più veloce ed efficiente possibile. Ciò può essere garantito solo se al dato è associata un’informazione descrittiva che ne rende più veloce l’accesso. Parliamo in questo caso di ‘metadati’. Sempre più aziende si stanno muovendo verso soluzioni enterprise per l’analisi e gestione dei dati che garantiscono decisioni più rapide, con il preciso obiettivo di ottimizzare le azioni di business”.

Risponde quindi Giuseppe Magro, CEO di QCumber (www.q-cumber. com): “La big data analysis è l’evoluzione della business intelligence (BI) su ampie ed eterogenee basi di dati. Ha richiesto lo sviluppo di specifici strumenti di memorizzazione ed elaborazione che consentono di rendere visibile il valore straordinario contenuto nei dati rendendoci più efficaci nelle decisioni”.

Secondo Francesco Tieghi, digital marketing manager di ServiTecno (www.servitecno.it), di big data ne parlano in molti ma non sempre si riferiscono ai big data industriali. “Noi, per nostra esperienza, parliamo di big data industriali dal 2001, quando abbiamo iniziato a distribuire e supportare in Italia il prodotto software Historian (oggi di GE Digital), considerato il fratello maggiore del pacchetto Scada iFix, uno dei software più utilizzati per la supervisione e il monitoraggio degli impianti. Così abbiamo portato avanti il tema della ‘plant intelligence’, ovvero BI, sui dati di produzione e impianto. Negli ultimi anni, con il consolidarsi del concetto di big data e analytics, abbiamo introdotto Historian Analisys per estrarre e distillare preziose informazioni dalla montagna di dati raccolti sul processo industriale. Ecco quello che intendiamo per big data analysis Industriale: ottenere informazioni importanti dai dati raccolti durante la produzione”.

Roberto Motta, sales initiative Leader ‘The Connected Enterprise’ di Rockwell Automation (www.rockwellautomation.it) sottolinea: “Il termine big data è nato per descrivere una raccolta dati molto estesa in termini di volume (si parla di miliardi di Terabyte), con un’elevata velocità di generazione dei dati riferiti a tipologie diverse e provenienti da varie fonti. Questo tipo di raccolta è legato alla necessità di analisi su un insieme unico, con l’obiettivo di estrarre informazioni aggiuntive rispetto a quelle che si potrebbero ottenere analizzando piccole serie di dati della stessa tipologia e da una fonte univoca. La big data analysis nasce inizialmente per sondare gli umori di consumatori e mercati partendo dal flusso di informazioni che viaggiano e transitano attraverso Internet. Nel comparto automazione abbiamo preso a prestito la terminologia per indicare una mole di dati comunque significativa, generata in realtime da macchine e sensori, che opportunamente analizzata può fornire agli operatori informazioni tempestive e contestualizzate per la conduzione dei processi di produzione”. Infine, conclude

Alberto Olivini, portfolio consultant professional Siemens Digital Factory di Siemens Italia (www.siemens.it): “In ambito manufacturing le macchine moderne generano e genereranno sempre di più un’enorme quantità di dati provenienti sia da sensori sia dai sistemi di controllo come i PLC e non solo. Si tratta di dati eterogenei che richiedono di essere aggregati ed elaborati, solo così possono diventare importanti indicatori del funzionamento di un processo, dell’efficienza di una lavorazione o più semplicemente dello stato di salute di un impianto. La big data analysis è il processo di valutazione di questa grande mole di dati attraverso algoritmi dedicati”.

I vantaggi derivanti dall’analisi dei big data

F&N: Quali sono le aree di business interessate dall’analisi dei big data e quali vantaggi si possono ottenere da queste analisi?

Esordisce Bartolotta: “Fino a non molti anni fa per analizzare quantità rilevanti di dati era necessario servirsi di costosi calcolatori elettronici che impiegavano molto tempo per effettuare l’elaborazione richiesta. Oggi, utilizzando un semplice computer quella stessa quantità di dati è analizzabile in pochi secondi. Nel settore dell’industria, l’utilizzatore di una macchina potrà servirsi, per esempio, di un HMI/PLC per analizzare i dati di funzionamento e produzione della macchina stessa, oltre che per collegarli tra loro mediante appositi algoritmi e renderli infine visualizzabili. Questo consente di giungere a conclusioni importanti e prendere decisioni per massimizzare l’affidabilità, la continuità di servizio e la produttività della macchina”.

Per Olivini è difficile confinare l’utilità di queste analisi: “Possiamo pensare all’attività di service, che ha l’obiettivo di aumentare la disponibilità degli impianti e prevenire i guasti, oppure all’R&D, in quanto grazie al data analytics possiamo creare modelli virtuali dei processi utili alla progettazione. Inoltre, nascono nuovi modelli di business basati sulla vendita della prestazione effettiva di una macchina e non del bene stesso”.

Afferma Randieri: “I processi di analisi dei big data hanno subito nel tempo numerose trasformazioni, che evidenziano un processo ancora oggi in continua evoluzione sia in termini di tecniche sia di metodologie impiegate. Per capire meglio quali sono le aree di business interessate dall’analisi dei big data e quali vantaggi si possono ottenere occorre seguire il percorso evolutivo che negli anni ha caratterizzato l’analisi dei dati condotta tipicamente in azienda, per capire come si sia passati dall’analisi di semplici query su tabelle relazionali, all’adozione dei sistemi di BI e come i più avanzati strumenti di predictive analytics rappresentino oggi l’arma più sofisticata a disposizione di quest’ultima. L’approccio all’analisi dei big data permette di superare tutte le limitazioni dei classici software ERP. La BI, facendo leva sul moderno concetto di big data, è un sistema di modelli, metodi, processi, persone e strumenti che rendono possibile la raccolta regolare e organizzata del patrimonio dati generato da un’azienda. Inoltre, attraverso elaborazioni, analisi o aggregazioni, ne permette la trasformazione in informazioni, la loro conservazione, reperibilità e presentazione in una forma semplice, flessibile ed efficace, tale da costituire un supporto alle decisioni strategiche, tattiche e operative”.

Secondo Magro i big data influenzeranno tutti i settori sociali, dalla produzione industriale alla pianificazione, al marketing alla medicina. “Il potenziale è dirompente proprio perché la loro capacità di generare decisioni più efficaci è trasversale, generando opportunità di business anche in settori storicamente meno interessati da logiche di mercato, come la governance della PA. Gli ambiti che saranno coinvolti per primi sono quelli in cui sono più mature le strategie di gestione digitale dei dati e che sapranno sfruttare l’occasione dotandosi di strumenti operativi in grado di generare vantaggi di mercato grazie a tecniche di profilazione mirata e selettiva dei clienti”.

Ribadisce Tieghi: “I domini dei big data industriali sono sia la produzione industriale, sia l’erogazione di servizi nelle utility. Si può quindi spaziare dalla raccolta di dati da macchinari e impianti nell’industria di processo (oil&gas, food, beverage, CPG, life science, cemento, vetro, chimica, plastica, gomma, tessile, metalli e siderurgia ecc.) e nel manifatturiero, come anche in acquedotti, nella produzione e distribuzione di energia e gas, o nel building e facility management. Per fermarci solo a impianti ove vi siano dei sistemi di controllo automatici e una gestione di dati da raccogliere e storicizzare sia per la compliance a regolamentazione e contrattualistica, sia per analisi di efficienza, miglioramento e ottimizzazione”.

Secondo De Maestri l’analisi dei big data è un’attività trasversale a molti aree industriali: “Essa consente di svolgere l’attività di BI, la raccolta dei dati finalizzati ad analizzare il passato, il presente e a capirne i fenomeni, le cause dei problemi o le determinanti delle performance ottenute, fare previsioni, simulare e creare scenari con probabilità di manifestazione differente. La realizzazione della BI in azienda porta a un aumento delle performance aziendali, generando vantaggi economici in termini sia di riduzione o eliminazione di alcuni costi, sia di incremento dei ricavi. Alcuni dei benefici economici, facilmente misurabili, sono riconducibili all’individuazione dei problemi e dei colli di bottiglia all’interno di un impianto in svariate aree, l’ottimizzazione dei processi produttivi e del magazzino, la riallocazione delle risorse lavorative, la visione chiara dei centri di costo e la riduzione costi”.

A parere di Porro quasi tutte le aree, dal marketing alla produzione, sono interessate dalla rivoluzione dei big data: “Gli analytics cambiano il modo in cui un’azienda prende le proprie decisioni più strategiche, dalla propria mission sul mercato, al modo in cui il proprio prodotto e il relativo servizio raggiungono il consumatore e lo fidelizzano”.

Sottolinea Cupini: “Nel settore test&measurement, in cui opera la nostra azienda, uno studio di Frost&Sullivan dal titolo ‘Global Big Data Analytics Market for Test&Measurement’, afferma che i costi di sviluppo dei prodotti possono essere ridotti di quasi il 25%, i costi operativi di quasi il 20%, mentre i costi di mantenimento del 50% se l’analisi dei big data è applicata in fase di test del prodotto. Quando si parla di big data in questo contesto, poi, sempre più spesso bisogna considerare anche l’aggettivo ‘analog’. Ogni misura proviene da una sorgente analogica di segnale ed è successivamente digitalizzato. Considerando che i dati analogici crescono più velocemente e sono la tipologia di dati più ampia che si possa trattare, trovare nuove correlazioni e prevedere i comportamenti futuri mediante algoritmi di calcolo adattativi e di autoapprendimento (‘machine learning’) sono la chiave per mantenere un vantaggio competitivo sul mercato. Per fare questo, le aziende e in particolare i dipartimenti di progettazione, test e validazione, avranno bisogno di migliorare le modalità di acquisizione, garantendo un processing localmente alla sorgente di misura”.

F&N: Quali sono gli strumenti oggi a nostra disposizione?

Motta: “L’offerta di Rockwell Automation punta a espandere le capacità di analisi dei dati all’intero processo produttivo, inclusi dispositivi, macchine e sistemi, così come al resto dell’azienda. In questo approccio, i sistemi analytics elaborano i dati in un contesto più vicino alla fonte di decisione, a livello adeguato, per restituire il valore aggiunto più alto. La mole dei dati prodotti da dispositivi di ultima generazione per il cloud computing sono accessibili su una varietà di nuovi apparati mobili. Monitoraggio remoto, controllo delle prestazioni delle macchine, diagnostica dei singoli sensori e soluzioni di manutenzione predittiva consentiranno alle aziende di trarre valore dai propri dati in modo più rapido e semplice; a livello aziendale queste soluzioni offrono modi più potenti per integrare i dati dell’impianto nelle strategie di business intelligence”.

Tieghi: “Occorre considerare tre aspetti nella catena per la gestione dei big data industriali: la raccolta dei dati, la memorizzazione e la parte di analytics. Per effettuare analisi corrette bisogna avere dati corretti, integri e disponibili. In particolare, oggi si sente molto parlare di IoT o meglio ancora di IIoT o IoIT (Industrial Internet of Things, ovvero di Internet of Important Things). È quindi necessario avere sensori adeguati alle grandezze fisiche che dobbiamo raccogliere, i trasduttori analogico-digitali e la connessione tra sensore intelligente e gateway di comunicazione. Sono importanti le comunicazioni industriali (bus, protocolli), tempi di scansione e tempi di raccolta, bufferizzazione e normalizzazione delle misure. Sono ancora importanti gli strumenti software e le architetture di sistema che devono garantire ‘security by design’ sia per la continuità di funzionamento (business continuity), sia per la sicurezza delle informazioni in tutti i suoi aspetti, ovvero disponibilità, integrità e riservatezza. Infine, vi è l’aspetto di estrazione degli analytics e presentazione dei dati e delle informazioni che dai dati si possono distillare, che oggi possono essere anche consultati su dispositivi portatili come tablet e smartphone. Per ognuna di tutte queste fasi ServiTecno fornisce prodotti adeguati che sono già attualmente utilizzati con soddisfazione da molti clienti”.

Olivini: “L’esigenza più diffusa è quella di poter contare su una piattaforma in grado di raccogliere dati da ogni tipo di canale e in grado di consentirne l’analisi rapida per trasformali in informazioni. Siemens propone la piattaforma Mindsphere come base dei servizi di data analytics per l’industria. Si tratta di un ecosistema aperto, specializzato nella gestione di una grande mole di dati in ambito manifatturiero, nel quale sia i clienti sia i partner possono sviluppare applicazioni per risolvere le specificità del proprio business”.

Porro: “La soluzione Exalead della Piattaforma 3DExperience di Dassault Systèmes (DS) consente alle organizzazioni di raccogliere, allineare e arricchire i big data, siano essi interni o esterni, strutturati o non strutturati, semplici o complessi, e di presentare tali informazioni nel modo in cui gli utenti desiderano riceverle. Questo applicativo trasforma grandi volumi di dati eterogenei e provenienti da più fonti in una base di information intelligence significativa e in tempo reale per aiutare gli utenti a migliorare i processi aziendali e a ottenere un vantaggio competitivo”.

Cupini: “Oggi le aziende possono contare su sistemi di acquisizione, storage, gestione e analisi dei dati sempre più intelligenti. Possono sfruttare sistemi di calcolo sempre più potenti con capacità di analisi spinte, che consentono di eseguire l’analisi dei dati localmente alla sorgente del segnale. I risultati delle analisi possono essere associati ai singoli data set come informazioni descrittive degli stessi, garantendone un accesso controllato e più veloce. Gran parte della aziende documentano in media il 22% dei dati che raccolgono, ma sono in grado di analizzarne in media solo il 5%. Coloro che si concentrano sulla standardizzazione dei metadati, aumentando la quantità di dati che è possibile analizzare automaticamente, vedranno incrementare i propri vantaggi. Oggi esistono strumenti di acquisizione, analisi e gestione che consentono un monitoraggio intelligente dell’intero processo produttivo. Strumenti per l’analisi dei dati via cloud che sfruttano le emergenti piattaforme per il cloud computing, unità di acquisizione dati intelligenti che, attraverso un’analisi locale dei dati, possono inoltrare verso i database aziendali solo i risultati di opportuni algoritmi di analisi. I dati, opportunamente raccolti e analizzati, possono essere utilizzati per applicare piani di manutenzione predittiva ai macchinari, agli impianti di generazione energetica e a ogni strumento nel panorama industriale dotato di un’opportuna tecnologia di sensoristica e di interconnessione”.

Randieri: “Le tecniche di analisi, facendo leva sul concetto di data mining, consentono di scavare nei dati ed estrarre informazioni, pattern e relazioni difficilmente identificabili. L’utilizzo di queste tecniche a fini previsionali fa leva sul concetto di ‘predictive analytics’, tipicamente utilizzato in molteplici settori economici. Il data mining può essere impiegato per l’identificazione di comportamenti anomali dei dati atti a indentificare situazioni rischio o di pericolo per l’azienda. La ‘churn analysis’ consiste invece nell’analisi del comportamento della clientela per determinare la probabilità e quindi la tendenza che hanno i clienti di passare alla concorrenza. Infine, le analisi predittive dell’andamento delle vendite o genericamente dell’andamento di serie temporali sono un altro degli ambiti di impiego del data mining, che di norma utilizzano le più moderne tecniche di intelligenza artificiale, come reti neurali artificiali, logica fuzzy ecc.”.

Magro: “Big data significa ripensare all’intera architettura digitale per cui l’innovazione sta già interessando la sensoristica, i sistemi di comunicazione di rete, l’elaborazione dei dati. Oggi con pochi euro è possibile dotarsi di piattaforme di elaborazione dati che pochi anni fa erano inaccessibili sia sul fronte tecnologico sia economico”.

Big data e realtà: i limiti della modellazione

F&N: Come possono essere tecnicamente condotte le analisi dei big data e come risolvere il vincolo relativo all’impossibilità di modellare la realtà?

Secondo Olivini l’obiettivo strategico dichiarato è quello di realizzare il cloud manufacturing per virtualizzare le risorse di fabbrica, le applicazioni, i dati e i processi su piattaforme di e-execution ed e-collaboration ospitate in cloud e sfruttarlo per modellare e controllare la realtà. “Mindsphere è basato su SAP Hana Cloud Platform e Cloud Foundry è il framework open source che permette l’integrazione di strumenti di sviluppo delle applicazioni e la loro esecuzione attraverso cloud computing, modellando la realtà allo scopo di simularne il comportamento”.

Randieri: “Ma come si fa a modellare la realtà? È una domanda semplice, ma che racchiude in sé forse tutta la complessità della scienza, perché probabilmente è anche una domanda senza una risposta ben definita se non la si focalizza a porzioni di essa nettamente definite. La soluzione analitica al problema è la parte minore, soprattutto oggi che abbiamo a disposizione tecniche matematiche e informatiche molto potenti e sofisticate. Spesso, la mancata soluzione non dipende dalla tecnica, ma dal fatto che si imposta male il problema da risolvere. La risposta quindi alla domanda iniziale non può essere che il consiglio di imparare ad analizzare i dati integrando i propri studi tecnici con le più moderne tecniche di analisi. Nel caso della business intelligence le tecniche di predictive analytics ne rappresentano la naturale evoluzione. È ormai ben noto che le aziende che hanno già adottato un sistema di BI riescano meglio a comprendere le potenzialità offerte dall’implementazione di tali tecniche. In aggiunta, vi è la consapevolezza di essere a metà dall’opera, avendo a disposizione una base dati sicuramente aggiornata, pulita e certificata”.

Magro cita una frase del professor P.E. Box: “‘All models are wrong but some are usefull’, ovvero è evidente come, anche di fronte a sistemi molto complessi, non sia possibile fare altro che tentare di modellarne il comportamento se si vogliono assumere decisioni efficaci. Le analisi di big data seguono protocolli classici di data mining, opportunamente adeguati per gestire flussi eterogenei e fortemente dinamici. La costruzione del modello concettuale di analisi segue i paradigmi classici della scienza e della tecnica, con una differenza sostanziale data dalla possibilità di far apprendere alle macchine dalle analisi che esse stesse svolgono sui dati, una nuova era per l’intelligenza artificiale che, grazie al machine learning, sta conoscendo una seconda giovinezza e aprirà scenari assolutamente inesplorati di opportunità e rischi che dovremo imparare a gestire”.

Tieghi evoca i gemelli digitali, i ‘digital twins’: “Con tutti i dati raccolti sulla macchina o impianto che abbiamo in osservazione è possibile estrarre un ‘gemello digitale’, che potrà diventare la nostra palestra sul quale fare analisi approfondite e sperimentare ipotesi e variazioni che sarebbero impossibili o pericolose da fare sul corrispondente gemello fisico, ovvero l’impianto o macchinario stesso. Attraverso il concetto di digital twins è possibile allora spingersi un poco più in là, sfiorare il ‘near miss’, ovvero il limite oltre il quale si rischierebbe di compromettere l’impianto stesso, oppure ove le condizioni di gestione non apporterebbero benefici o miglioramenti in termini di efficienza, o dove incrementi produttivi sarebbero controproducenti in termini di energia o costi di gestione. Su questi concetti vi sono interessanti esempi affrontati da GE Digital (www. ge.com/digitaltwingame)”.

Porro fa diretto riferimento ai software di DS, con i quali i dati vengono rilevati e classificati automaticamente in base ai parametri desiderati e possono essere agevolmente condivisi e letti secondo diversi livelli di riservatezza e approfondimento. “Quanto all’impossibilità di modellare la realtà, noi andiamo proprio nella direzione opposta. Gli strumenti per modellare la realtà ci sono. Quello che spesso manca sono le cosiddette ‘skill’, le competenze specifiche da parte dell’utenza. Ci si riferisce in particolare alle tecniche di interpretazione del dato e alla capacità di tradurre le informazioni in strategie aziendali e conseguente operatività. DS, a questo proposito, crede profondamente nel valore della democratizzazione e semplificazione della tecnologia, anche la più sofisticata intrinsecamente. I nostri applicativi non presentano particolari problematiche tecniche o di utilizzo, sono sviluppati secondo l’assunto che devono potere essere utilizzati da un’utenza varia e su base allargata e i dati possono essere organizzati in svariati modi per facilitarne la lettura e l’interpretazione”.

Dai dati alle decisioni: un passo decisivo

F&N: La trasformazione dei dati in decisioni è probabilmente l’azione più importante e delicata di tutto il processo di big data analysis. Cosa ne pensate?

Ribadisce Porro: “Occorre conseguire una sintesi delle varie tipologie di dati, interni ed esterni all’azienda, cioè del mercato, per conciliarli in una visione d’insieme nell’ambito della quale prendere decisioni. Gli strumenti per fare questo ci sono: i vincoli sono più di carattere organizzativo e culturale, cioè di revisione dei processi aziendali e delle strutture organizzative e decisionali, che vanno rese più interconnesse, realizzando un ulteriore passaggio all’integrazione orizzontale dell’azienda”.

Afferma Bartolotta: “Esistono già società di servizi che aiutano le aziende a gestire grandi quantità di dati, tuttavia sussiste il rischio che le imprese siano più impegnate a memorizzare o trasportare i dati che ad analizzarli. È molto più efficiente sviluppare ulteriormente il decentramento. Per raggiungere questo obiettivo è necessario che semplici componenti, tra cui inverter, salvamotori, contattori e pulsanti, diventino dispositivi in grado di comunicare e di prendere decisioni autonome basate sui dati ambientali a disposizione. Ed è così che si trasformano in componenti intelligenti, noti anche come smart device. In una macchina progettata per l’Industry 4.0 questi dispositivi devono costituire la prima fase del processo di sviluppo e non l’ultima”.

De Maestri conferma che tale fase di trasformazione è molto critica soprattutto se non si crea un sistema di business intelligence adeguato. “Le operazioni più dispendiose sono rappresentate dall’identificazione dei dati da utilizzare, dalla loro pulizia e uniformazione. Tali azioni devono essere precise ogniqualvolta occorra implementare un nuovo report, ma anche quando sono apportati cambiamenti alle basi dati sorgente. Inoltre, un altro elemento da considerare è la qualità del dato che a volte può essere frammentato e incompleto. Per cercare di minimizzare questi problemi è importante identificare il tipo di informazioni di cui l’azienda necessita e sviluppare un sistema di BI custom basato su ferree logiche, che stabiliscano fonti e regole a valle di una strategia pulita e chiara”.

A parere di Magro “i problemi sono di ordine concettuale perché richiedono una solida base conoscitiva per impostare le analisi e tradurle in sistemi in grado di generare risultati in modo efficiente rispetto agli obiettivi e ai vincoli di progetto. La buona notizia è che i big player IT stanno dotando le piattaforme cloud di strumenti tecnologicamente avanzati ma di facile impiego”.

Sostiene Tieghi: “Oggi abbiamo gli strumenti per poter trasformare i dati in informazioni. Il passo successivo da fare è mettersi nella condizione di trasformare le informazioni in decisioni. Qui servono conoscenze, formazione, esperienza e non ultimo il buon senso. Il tema dello ‘skill shortage’ è sul tavolo di molti manager, in quanto sono rare da trovare le competenze necessarie per i nuovi scenari dell’Industria 4.0, però alcune tecnologie ci possono aiutare nel passo successivo, cioè di costruire la base di conoscenza acquisendo l’esperienza dagli operatori già esperti e mettendola in database di prodotti che possano guidare gli operatori meno esperti per fare la scelta più corretta. Iniziano a essere anche utilizzati tool di machine learning appositamente modellati sui processi industriali. Anche questi in tempi rapidi affiancheranno operatori e gestori di impianto suggerendo i parametri per una conduzione ottimale”.

Sottolinea Olivini: “La trasformazione di dati in decisioni richiede una forma di intelligenza artificiale più o meno complessa, le forme di autoregolazione presenti nelle macchine per esempio possono essere già considerate un significativo embrione di intelligenza artificiale. L’elaborazione dei dati nel cloud potrà essere il vettore di uno sviluppo futuro verso macchine intelligenti”.

Risponde Randieri: “Trasformare i dati grezzi in informazione, così da poter orientare meglio le decisioni, modificando e migliorando la visione che abbiamo del mondo che ci circonda o quella parte del mondo che abbiamo scelto come contesto di ragionamento è più facile dirsi che a farsi. Il rischio più grande dei big data è di cominciare una raccolta infinita di dati inutili poiché totalmente scorrelati tra loro da essere non classificati e quindi impresentabili. Occorre dunque orientarsi seguendo logiche ferree in grado di stabilire fonti e regole, a valle di una strategia caratterizzata da driver ben definiti, quali: cosa è necessario scoprire e dove si sta cercando per scoprire correlazioni e informazioni di cui non si ha coscienza. Superata la prima fase di raccolta dei dati segue quella della presentazione quale strumento base per l’analisi e per le attività di disseminazione”.

A parere di Motta infine, l’acquisizione dei dati è fondamentale, ma se non contestualizzati tali dati non rappresentano un valore aggiunto, trasformarli in un patrimonio di informazioni di lavoro e metterli a disposizione degli operatori in modo adeguato rappresenta una delle maggiori sfide competitive per le imprese. “L’utilizzo corretto del patrimonio di informazioni disponibile permette alle imprese di fare quel salto di qualità per diventare da aziende in cui vi è un semplice collegamento di operazioni ad aziende ‘intelligenti e interconnesse’”.

Qualche consiglio per introdurre la Business Intelligence

F&N: Che effetto sta producendo a livello organizzativo la BI estesa e che passi dovrebbe intraprendere un’organizzazione che volesse investire in questa disciplina?

Cupini spiega che negli ultimi dieci anni l’intelligenza dei dispositivi di acquisizione dati e dei sensori è aumentata notevolmente, diventando più decentralizzata, con elementi di elaborazione sempre più vicini al sensore. “Basta dare uno sguardo ai tanti esempi di sistemi di acquisizione e ai nodi che integrano le più moderne tecnologie in silicio e IP di aziende come ARM, Intel e Xilinx. Ma, oltre a dispositivi di misura sempre più smart, sono emersi sensori intelligenti che integrano il trasduttore, il condizionamento del segnale, l’elaborazione embedded e l’interfaccia/bus digitale in un pacchetto o sistema estremamente piccolo. Data questa tendenza, oggi molti scenari pongono l’accento sull’intelligenza e l’elaborazione avanzata del segnale nel nodo smart. Una volta che i dati sono catturati dai sistemi intelligenti, lo step successivo è spingere quei dati verso l’enterprise, così da poterli gestire con efficacia per consolidare ed eseguire l’analisi su larga scala”.

Magro pone l’attenzione al fatto che esistono libri e articoli molto interessanti che guidano alle prime azioni, oltre che corsi online per data analyst. “È molto importante però che chiunque si voglia avvicinare al tema abbia ben presente gli obiettivi specifici che vuole raggiungere, le risorse effettivamente a disposizione e, una volta ben definito ciò, si rivolga a consulenti che dimostrino di aver già realizzato progetti simili, perché il rischio in questa fase ‘euforica’ è quello di venire indirizzati verso tecnologie, magari tecnicamente valide, ma non in linea con gli obiettivi del progetto”. Per Porro poco conta comprare tonnellate di tecnologia per gestire dati in real time, su schemi multidimensionali e con capacità di calcolo altissime, se poi non si sa bene a priori cosa fare di questi dati. “La questione vera è la capacità da parte degli sviluppatori di software di creare una piattaforma che raccolga, certifichi, selezioni e strutturi i dati in modo da essere veramente un valore aggiunto. Per fare ciò è necessario che le aziende selezionino fornitori che comprendano i loro processi e le loro priorità di business”.

Dice Randieri: “Il mio consiglio per le aziende che vogliano imparare a padroneggiare gli strumenti della big data analysis può essere strutturato nei seguenti passi: scegliere un problema di business da risolvere che possa offrire un successo iniziale, tenendo conto che dove vi sono tanti dati, incertezza e complessità, in realtà si cela sempre un’opportunità, un ritorno veloce, o qualcosa perfezionabile, magari di grande impatto; ricorrere almeno inizialmente a risorse in outsourcing o a software pronti all’uso quando manca internamente la presenza di una specifica competenza; individuare nei progetti gli elementi della catena della propria struttura aziendale da convincere sul reale valore di questi strumenti, poiché spesso sono proprio coloro che prendono le decisioni, a essere tendenzialmente più scettici e conservativi; partire da un business case convincente, valutando in che tempi e in che modi sarà necessario formare internamente competenze e sviluppare internamente i tool necessari”. Secondo Randieri chi guida questi progetti deve avere molta confidenza gli strumenti di analisi, sapere porre le giuste domande e conoscere come ricavare dai dati strutturati le giuste risposte, avere competenze IT di accesso ai dati e agli insight, ma soprattutto sapersi approcciare a qualsiasi tipologia eterogenea di dato. “Tipicamente è molto raro che tutte queste competenze siano presenti nella stessa persona, ma devono esserci almeno nello stesso team di lavoro. È proprio per questo motivo che la maggior parte delle aziende non è ancora capace di definire strategie di business strutturate in grado di sfruttare appieno tutto il valore insito nei dati. Questo perché, nonostante le grandi organizzazioni stiano già introducendo nei loro organigrammi nuove funzioni deputate a gestire l’analisi di dati, quale la figura del Chief Data Officer, in realtà non esistono ancora oggi figure professionali appositamente codificate e formate ad hoc”.

Olivini affronta il tema dei processi ribadendo che l’esigenza principale non consiste nel generare report per sapere solo cosa sia accaduto, bensì capire come i dati possano aiutare a prendere decisioni migliori. “Per fare ciò sono necessari nuove competenze e tool in grado di estrarre dai dati informazioni utili a migliorare il processo decisionale anticipando gli eventi. Siemens ha intrapreso la strada della digitalizzazione e del data analytics investendo le proprie risorse nello sviluppo di servizi come Mindsphere, nella convinzione di fornire ai propri clienti uno strumento innovativo, flessibile e adeguato a supportare qualsiasi processo industriale”.

Bartolotta evidenzia come il processo da seguire sia quello dell’intelligenza distribuita fino ad arrivare a singoli componenti elettromeccanici, rendendo quindi le macchine ‘IoT ready’ a partire dai componenti più semplici. “Il salvamotore elettronico PKE e l’avviatore a velocità variabile DE1 di Eaton, per esempio, sono in grado di raccogliere dati, quali corrente del motore, sovraccarico e altri elementi informativi sullo stato, e di trasmetterli attraverso il sistema di cablaggio intelligente SmartWire-DT. Attraverso un modulo Asic di ultima generazione è possibile analizzare questi dati, in quanto questo dispositivo dispone di una memoria di programmazione e di una capacità di calcolo sufficienti ad analizzare e interpretare i dati, oltre a prendere decisioni autonome, per esempio ridurre il regime del motore associato. Questo, in combinazione con altri sensori, costituisce un CPS che è anche in grado di stabilire autonomamente una connessione con un altro CPS. Questi sono i primi moduli di un sistema decentralizzato, modulare e coerente”.

Di opinione diversa è Tieghi, che cita: “‘Skill to do comes from doing’: questo un vecchio adagio può essere ancora di guida oggi per l’adozione di queste tecnologie. Potremmo pensare di iniziare a digitalizzare alcuni processi già consolidati all’interno dell’azienda. Cominciare, per esempio, con il concentrare in un repository i dati e raccogliere tutte le informazioni già presenti su macchine e impianti distribuiti nei reparti produttivi. Per fare questo è necessario connettere le macchine (sensori, attuatori, PLC o micro sistemi di controllo distribuiti, se non sono già collegati a uno o più Scada), definire quali siano i dati da raccogliere, aggregare e storicizzare”. Chiude la risposta dicendo: “È utile avere una o più infrastrutture di bus industriali o reti di fabbrica, con attenzione alla security, e connetterli all’Historian ove memorizzare tutte i dati, dai quali poi estrarre le preziose informazioni che possono già generare i primi KPI immediatamente visualizzatili sui pannelli o dashboard, fruibili dagli operatori e dal management”.

Big data analysis e Internet of Things: due temi correlati

F&N: Spesso si associa il tema della big data analysis a quello dell’Internet of Things. Cosa ne pensate della correlazione fra i due argomenti?

Secondo Randieri l’obiettivo primario dell’IoT consiste non tanto nel dimostrare che gli oggetti possono comunicare tra di loro, quanto che dagli oggetti possiamo apprendere e classificare nuove informazioni. “La grande sfida della nostra era consiste nel permettere alle imprese di trasformare la conoscenza acquisita dagli oggetti in azioni operative che abbiano una ricaduta a effetto immediato sul business che si intende perseguire. Per arricchire la relazione con i clienti, al fine di fornire servizi a minor costo, occorre sempre più frequentemente poter definire nuovi modelli di business da sperimentare, correggere e mandare in produzione. Dalla diffusione massiva dell’Industrial Internet of Things (IIoT) arriverà nei prossimi anni una mole crescente di dati che avrà bisogno di essere elaborata per diventare informazione intelligente per le imprese. Con la crescita e lo sviluppo dell’IoT crescerà parimenti il volume di dati che sensori, videocamere e apparati metteranno a disposizione. La vera rivoluzione dell’IoT sarà intrinseca nella capacità di gestire i big data analizzandoli con le più moderne tecniche di real time analytics. Questa affermazione diventa ancor più concreta quando ci si focalizza al campo d’azione della Industrial Internet of Things, ovvero tutte quelle applicazioni di tipo industriale che sono a loro volta alla base del concetto di Industria 4.0. Proprio in questo contesto si dovrebbe puntare al fine di migliorare i processi di business per far decollare un progetto di IoT industriale sostenibile e concreto, individuando le esigenze dei responsabili aziendali, parlando la loro stessa lingua, cercando di far comprendere il reale valore che l’IoT può portare in termini di business”.

Anche per Porro la sovrapposizione tra IoT e analytics è ovvia: “Avere a disposizione quantità smisurate di dati senza la capacità di trasformarli in informazione strategica è solo uno spreco di tempo e risorse. Senza un’adeguata infrastruttura di raccolta e gestione dei dati, il rischio è di far diventare l’IoT un’altra promessa disattesa nel mondo della tecnologia, una moda passeggera per vendere progetti di innovazione che mantengono solo poco di quello che si sono impegnati a sviluppare”.

Big data analysis e IoT sono concetti strettamente correlati anche per Bartolotta. “IoT significa permettere a macchine, dispositivi, sensori e persone di comunicare, condividere e analizzare dati importanti, abbassando i costi della produzione e offrendo un chiaro vantaggio in un ambiente globale competitivo. Grazie all’uso di servizi cloud è possibile interconnettere risorse produttive e perfino interi siti di produzione”.

Secondo Magro l’IoT diventerà l’alimentatore del cloud planetario, il sistema di data entry con cui le macchine forniranno i dati sul loro funzionamento, facendoci capire come stanno lavorando e quando converrà manutenerle per ottimizzarne le performance. “Il ‘diluvio’ è iniziato, per cui conviene capire come poter sfruttare questo potenziale per le proprie attività professionali, che si tratti di un’industria oppure di una piccola attività. Dovremo iniziare a dare ascolto e valore al patrimonio dei dati che arriveranno, attrezzandoci già da ora per una loro gestione intelligente”.

Conferma anche Tieghi, che preferisce però parlare di IIoT o IoIT (Industrial Internet of Things, ovvero Internet of Important Things). “Tanti dispositivi connessi possono generare tanti dati e da qui si è iniziato a parlare di industrial big data e poi di industrial big data analytics. Un acquedotto con stazioni di pompaggio, serrande e una rete di distribuzione estesa alcune migliaia di chilometri quadrati, come quella di una media utility italiana, per esempio, può generare in un giorno migliaia di dati, anche alcuni centinaia di megabyte di dati, riferiti a sensori IIoT distribuiti e lontani dal centro, connessi attraverso reti LAN/WAN, linee telefoniche e trasmissione dati (Gprs, 3G, 4G, ponti radio ecc.). La possibile correlazione tra tutti questi dati, sia dell’adduzione di acqua sia del consumo, permette di stilare un bilancio idrico e iniziare a valutare l’impatto del meteo, della variazioni della popolazione e dei modelli di consumo, di eventuali problemi sulla rete (rotture di tubazioni, interruzioni di corrente per il pompaggio ecc.) e molti altri scenari”.

Olivini concorda sul fatto che la crescita e lo sviluppo dell’IoT accresca il volume di dati che sensori e apparati mettono in ogni momento a disposizione. “Gli oggetti interconnessi comunicano in remoto i propri dati e ricevono indicazioni sul proprio funzionamento. Nell’ottica di uno sviluppo massivo della quantità di oggetti interconnessi sarà sempre più importante concretizzare un’efficace big data analysis”.

Secondo Motta, in effetti, nell’ambito dell’automazione di fabbrica i due temi sono strettamente correlati: “L’accesso alle informazioni e la loro analisi sta cambiando il volto della gestione della produzione industriale e l’IIoT sta mettendo a disposizione degli utilizzatori tecnologie e risorse che renderanno la produzione più intelligente e più utili i dati provenienti dai sistemi di controllo. Rockwell Automation è fornitore di un gran numero di ‘smart thing’ per costruire l’Industrial Internet of Things. Nel corso dei decenni ha reso i propri apparati, dai PAC ai servoazionamenti, alle interfacce operatore, ai semplici moduli di I/O, più intelligenti aiutando i clienti a utilizzare i dati prodotti. Ora stiamo facendo un ulteriore passo avanti ampliando l’offerta per l’integrazione di controllo e informazione per ridurre drasticamente i fermi macchina e ottimizzare la produzione”.

Cupini ricorda come entro il 2020 si stima vi saranno oltre 50 miliardi di dispositivi connessi. Si parla di una vera e propria esplosione, un ‘Big Bang’ di dispositivi intelligenti. “A oggi siamo testimoni di questo fenomeno. Smartphone, smart TV, smart watch, smart glass, in generale smart device sono parole ormai di uso comune. Cos’è però rende un dispositivo smart, quindi elemento base dell’IoT? Per prima cosa la capacità di interconnettersi con altri dispositivi e con la rete, oltre a un’intelligenza integrata (embedded CPU) che possa garantire l’esecuzione di software dedicati. I dispositivi IoT genereranno un’esplosione di dati che se non opportunamente gestiti andranno semplicemente persi e con essi eccezionali opportunità in termini di business, ottimizzazione dei processi industriali, produttivi e manifatturieri. Concetti come Industria 4.0 e Internet of Things stanno entrando prepotentemente nel nostro vocabolario. Credo derivino da un naturale processo di digitalizzazione che oramai, da oltre vent’anni, ha investito la nostra vita privata e professionale. Elemento chiave di questo processo di digitalizzazione sarà di sicuro il software decisionale e di analisi dati. Big data analysis e IoT possono e devono essere considerati argomenti fortemente correlati”.

Conclude De Maestri: “IoT e big data sono considerate, spesso in modo accoppiato, due delle tecnologie abilitanti per Industria 4.0. Nello specifico, l’IoT comprende tre importanti elementi chiave. In primis ogni oggetto fisico ha (o può avere) la capacità di generare dati sul suo stato e lo stato dell’ambiente fisico che lo circonda grazie a tecnologie sensing e sistemi di comunicazione wireless. In seconda battuta la disponibilità di reti wireless permette da un lato la raccolta e condivisione dei dati generati dai dispositivi embedded negli oggetti fisici e dall’altro di configurarli e quindi agire anche da remoto sugli oggetti fisici e il loro ambiente circostante. Infine, i personal device collegati alla rete. L’insieme di questi tre elementi ovvero pervasività di sistemi embedded, pervasività delle reti, pervasività di dispositivi personali collegati alla rete, costituisce la base tecnologica dell’Internet of Things. Dalla diffusione dei dispositivi IoT deriva una quantità enorme di dati pronti per l’elaborazione”.

Qualche esempio concreto…

F&N: Potete descrivere un’esperienza significativa e rappresentativa della big data analysis intrapresa dalle vostre aziende?

Risponde Magro: “La nostra azienda ha coniato un mantra, ‘IoT4Sustainability’, perché siamo convinti che la sostenibilità ambientale, sociale ed economica di una comunità derivi dalla condivisione di dati, esperienze e conoscenze, per cui abbiamo acquisito ed elaborato i dati delle performance ambientali italiane delle imprese e dei territori, per supportare decisioni a diversi livelli di scala (pianificazione, valutazione, progettazione)”. Oggi QCumber sostiene i sindaci e le istituzioni nel gestire problemi ambientali in modo collaborativo assieme a cittadini e imprese, secondo un modello di E-governance in cui i dati svolgono una funzione straordinaria, in grado di tutelare gli asset delle imprese, ma nel rispetto delle effettive esigenze delle comunità in cui operano. “In Lombardia abbiamo ottenuto l’approvazione di una legge con cui sindaci, cittadini e imprese hanno iniziato a dialogare in modo nuovo con le istituzioni, risolvendo importanti problemi di governance basandosi su dati e modelli validati, aprendo la strada a una forma di collaborazione inter-istituzionale e sociale che promuoveremo con la piattaforma QCumber”.

Porro ricorda due casi: “Il primo riguarda Wittur, produttore di componenti, moduli e sistemi per ascensori, che in seguito a una serie di acquisizioni aveva la necessità di sfruttare l’enorme mole di dati messi a disposizione dalle diverse aziende distribuite nel mondo, con l’obiettivo di migliorare il tasso di riutilizzo dei componenti. Utilizzando il modulo di ricerca Exalead OnePart, l’azienda ha permesso all’utenza di accedere a una fonte di informazione standardizzata e consolidata che offriva un ampio ventaglio di chiavi di ricerca e una presentazione strutturata e altamente fruibile dei dati. La catena della grande distribuzione MonoPrix, invece, utilizza Exalead CloudView per effettuare ricerche realtime e analisi dei dati relative alle performance qualitative di ogni punto vendita. Prima di questa implementazione, MonoPrix aveva una visione estremamente frammentata dei fattori esaminati e necessitava di una visione consolidata per tipologia di prodotto a livello regionale e nazionale al fine di prendere decisioni strategiche adeguatamente informate”.

Spiega Cupini: “Sono sempre più le applicazioni che, sfruttando tecnologie di acquisizione dati avanzate, devono fare i conti con il problema dei big data e di come opportunamente trattarli. National Instruments ha lavorato con molti partner ed end user fornendo loro soluzioni per il data management che hanno garantito notevoli vantaggi in termini di efficienza dei processi decisionali legati ai dati. Eclatante è la testimonianza di Jaguar Land Rover, che attraverso l’implementazione di una soluzione globale per il data management analizza e gestisce fino a 500 GB di dati al giorno, generati da oltre 200 sistemi di acquisizione che ‘collezionano’ dati in modo continuativo, rendendoli disponibili a oltre 400 ingegneri per analisi ad hoc. La soluzione JLR per affrontare le sfide del big analog data doveva soddisfare i seguenti requisiti: capacità di un upload automatico dei dati, gestione dei metadati, tool interattivo per eseguire algoritmi di analisi, analisi dei dati parallele, template di reportistica, piattaforma flessibile. La piattaforma NI per il Technical Data Management ha aiutato JLR a superare e vincere la sfida”.

Tieghi conferma che i casi, sia nell’industria sia nelle utility, sono tanti e in molti settori diversi: “Dagli acquedotti, come già descritto prima, all’identificazione dei corretti parametri e set point per la gestione di un altoforno per la produzione di acciai speciali, fino alla gestione ottimale nella produzione di cemento, vetro o anche farmaci. Soprattutto nelle aziende di produzione di articoli confezionati (CPG), una corretta raccolta dei dati distribuita su tutti gli impianti è essenziale per un corretto calcolo dell’OEE, efficienza/efficacia delle linee e dell’intero processo di produzione. Inoltre, negli ultimi tempi industrial big data e analytics sono diventati importanti anche ai fini della gestione dell’energia utilizzata nei reparti produttivi e quindi per l’efficienza. Permette infatti di ridurre i costi energetici per unità prodotta, migliorare l’efficienza energetica globale aziendale ed conseguire i certificati bianchi e la certificazione ISO 50001”.

Randieri evidenzia come la chiave di successo di Intellisystem Technologies negli anni sia sempre stata la motivazione e l’interesse verso l’innovazione, la ricerca e lo sviluppo. “Considerando da una parte l’innovazione tecnologica, dall’altra l’evoluzione della normative e infine le esigenze di business che impongono la necessità di conquistare vantaggi competitivi rispetto alla concorrenza, abbiamo messo a punto diverse soluzioni per gestire l’Industrial IoT. Intellisystem è da anni attiva per aiutare le aziende a estrarre tutto il potenziale di conoscenza intrinseco nei dati, integrandolo nei processi decisionali e di business”.

Bartolotta sottolinea infine come alla base della visione di Eaton vi sia SmartWire-DT, un sistema di cablaggio e di comunicazione intelligente in grado di raggiungere qualsiasi punto della macchina o dell’impianto per raccoglierne dati e renderli disponibili ai sistemi superiori. “Grazie a questo approccio decentrato siamo in grado di trasmettere i dati di processo e di stato tramite protocolli standardizzati, quali OPC-UA, ai livelli superiori, fino al cloud. La partnership stretta in Germania con l’operatore tedesco T-Systems ci permette di mettere a disposizione dei costruttori di macchine una soluzione integrata, a partire dal semplice sensore per arrivare fino al cloud. Questa infrastruttura, basata su SmartWire-DT, fa in modo che tutti i dati raccolti da componenti quali salvamotori e softstarter vengano analizzati e messi a disposizione dei costruttori di macchine. Tutto ciò permetterà loro di monitorare sistemi completi ed effettuare un’efficace manutenzione predittiva direttamente dal cloud, nonché ottimizzare il controllo dello stato di usura dei vari componenti, i costi operativi e la produttività della macchina mediante un’analisi intelligente dei dati”.

Sfoglia la rivista originale

Tavola Rotonda pubblicata su Fieldbus & Networks N. 90 – Febbraio 2017

FieldbusENetworksFieldbus & Networks è uno strumento indispensabile per tutti coloro che progettano o utilizzano bus di campo e reti locali o geografiche in campo industriale o civile. La rivista descrive sia gli ambienti fieldbus customary sia quelli proprietari offrendo quindi una visione d’insieme su argomenti che spaziano dai problemi dei fieldbus utilizzati per collegare sensori e attuatori, alla connessione di unità di controllo, all’interfacciamento fra i dispositivi in campo e i sistemi di monitoraggio e supervisione. Fra i temi specifici, da segnalare l’uso di Web e delle reti intranet nell’automazione industriale e la constructing automation. Fieldbus & Networks, si rivolge agli specialisti della comunicazione in campo industriale, ai system integrator e ai tecnici di produzione.

 

You must belogged in to post a comment.

Intellisystem Technologies