Interviews

(Italian) Tavola Rotonda ‘Predire in manutenzione’
F&N Settembre 2015 - Tavola rotonda Predire in manutenzione - Intellisystem Technologies

(Italian) Tavola Rotonda ‘Predire in manutenzione’

Come sta cambiando la manutenzione degli asset produttivi a fronte dell’evoluzione delle nuove tecnologie? Ne abbiamo parlato con alcuni esperti di primarie aziende del settore

Con Cristian Randieri, presidente e ceo di Intellisystem Technologies (www.intellisystem.it); Claudio Cupini, technical marketing engineer di National Instruments; Letizia De Maestri, marketing di Automata; Walter Mandelli, R&D manager di EFA Automazione; Fabrizio Conte, CSM country manager Italy di Rockwell Automation; Mariano Marciano, IBM Global Business Services Italia, Energy & Utility business Development; Francesco Tieghi, responsabile Digital Marketing di Servi- Tecno; Josè Chavarria, Process Control sales manager di Siemens Italia; Andrea Ceiner, Group Product marketing manager M2M/ IoT di Eurotech.

Nel corso degli ultimi anni, la crisi economica ha messo in seria difficoltà le imprese obbligandole a vagliare ancora più attentamente il rapporto costi/benefici/ prestazioni di macchine e impianti destinati alla produzione industriale. La manutenzione degli asset produttivi ha assunto un valore sempre più rilevante. L’innalzamento delle prestazioni, in termini di produttività, disponibilità e sicurezza, la capacità di operare senza interruzioni ed evitare il downtime dei sistemi dovuto al malfunzionamento delle macchine o a errori degli operatori, con una ricaduta incisiva sull’aumento dei costi di produzione, è una necessità inconfutabile, alla quale nessun imprenditore o azienda può rinunciare. Oggi, grazie alle attuali tecnologie, è possibile apportare un notevole valore ai programmi di manutenzione, con ricadute positive sulle performance di produzione. È soprattutto attraverso la prognostica e i moderni sistemi di controllo da remoto che è possibile prevedere i guasti basandosi sull’osservazione delle variazioni dei parametri operativi durante il normale ciclo di funzionamento di un sistema industriale, contenendo al massimo il tasso di guasto. “Analizzando vari report di mercato posso affermare che, in tutto il mondo, il mercato della manutenzione predittiva è in forte crescita, segnando dei trend davvero impressionanti” afferma Cristian Randieri, presidente e ceo di Intellisystem Technologies (www.intellisystem.it). “Il ‘Transparency Market Report’, per esempio, stima che tra il 2013 e il 2019 questo mercato crescerà passando da 2 a 6,5 miliardi di dollari, triplicando il proprio valore. Anche in Italia, sebbene a rilento, registriamo una timida crescita, ma siamo ancora agli inizi”. Alle parole di Randieri fa eco Claudio Cupini, technical marketing engineer di National Instruments (italy.ni.com), che spiega come il panorama industriale italiano, seppure con tempi e modi diversi, sia molto attento alle problematiche legate a una ben pianificata strategia di manutenzione. “Negli ultimi anni hanno suscitato grande interesse i sistemi di monitoraggio attivo e di manutenzione predittiva, specie in quelle realtà industriali che hanno a che fare con sistemi di assemblaggio (catene di montaggio robotizzate), distribuzione (oil&gas, processi chimicofarmaceutici) e produzione di energia elettrica”.

 I vantaggi della prevenzione

Fieldbus & Networks: Quali sono i principali benefici che giustificano l’applicazione della manutenzione predittiva?

“Nelle realtà di medie e grandi dimensioni, appartenenti a diversi settori, dal farmaceutico al meccanico, al plastico, tra tutte le attività di manutenzione quella predittiva ha assunto un ruolo fondamentale, al fine di ottimizzare le diverse attività lungo tutte le fasi del processo” commenta Letizia De Maestri, marketing di Automata (www.cannon- automata.com). “A differenza di altri metodi, infatti, e con l’utilizzo di precisi e appropriati modelli di natura matematica, è possibile individuare con grande accuratezza lo stato di degrado del componente e il tempo residuo prima del verificarsi del guasto”. Anche Walter Mandelli, R&D manager di EFA Automazione (www. efa.it), concorda: “Tali applicazioni consentono di ottenere risultati tangibili immediati, quali una drastica riduzione delle fermate non pianificate, una riduzione della durata degli interventi, oltre che un generale contenimento dei costi di manutenzione, grazie alla possibilità di ottimizzare e pianificare, per esempio, la gestione del magazzino dei pezzi di ricambio e del personale coinvolto. Per queste ragioni, tali applicazioni stanno riscuotendo un interesse crescente, soprattutto nell’ambito della produzione industriale e nel telecontrollo di impianti distribuiti non presidiati”. “A queste aggiungerei la riduzione complessiva dei costi e una migliore gestione delle obsolescenze tecnologiche, un problema inevitabile e che spesso viene trascurato” interviene Fabrizio Conte, CSM country manager Italy di Rockwell Automation (www.rockwellautomation.it). “Senza dimenticare, come detto, i benefici derivanti da una gestione ottimizzata del magazzino e di tutto il ciclo MRO, inteso come gestione delle riparazioni e sostituzione delle parti guaste. L’attenzione verso i clienti di Rockwell, per esempio, si esprime anche nell’aiutarli a comprendere come spesso la spesa iniziale, che comunque non incide mai quanto eventuali fermo-macchina, ritardi e mancate consegne, mette al riparo da grandi rischi, senza contare che un intervento in emergenza è sempre molto più oneroso, sia per chi lo fornisce, sia per chi ne usufruisce”. Secondo Mariano Marciano, IBM Global Business Services Italia, Energy & Utility business development (IBM Italy www.ibm.com/it/it), in base al campo industriale in cui si applica la manutenzione predittiva o il servizio che si offre, è possibile ottenere differenti vantaggi operativi e occorre tenere conto di diversi parametri. “Occorre trovare la giusta ‘alchimia’ tra il rischio di ‘falso positivo’, ossia l’ipotesi che si verifichi un evento che in realtà non avverrà, e l’impatto che invece si potrebbe avere a seguito di una mancata individuazione di un evento dannevole. Non si può neppure generalizzare per ‘tipo’: il rischio di avaria della turbina di un aereo e quello di una fresa di estrazione non possono avere il medesimo livello di attenzione. È fondamentale sottolineare, in ogni caso, che la manutenzione preventiva venisse comunque effettuata anche ‘prima’. Ora però è possibile, attraverso i nuovi strumenti, ottenere report più vicini al reale stato di uso del componente, alla sua storia e a come elementi esogeni possono contribuire a modificarne il comportamento”. Per Francesco Tieghi, responsabile Digital Marketing di Servi- Tecno (www.servitecno.it), uno degli elementi indispensabile in un piano di manutenzione predittiva è lo storico dei dati. “Il ‘near miss’, quella situazione in cui siamo stati molto vicini a un disastro, è la nuova frontiera della manutenzione predittiva. Quando si presenta un guasto o un fermo macchina è quasi sempre facile identificare il problema, risolverlo ed eventualmente prendere precauzioni perché non si ripresenti nuovamente. Quante volte però siamo andati vicino al downtime senza accorgercene? Quante volte abbiamo già sfiorato il disastro senza averne consapevolezza? Con questa prospettiva, non sono i dati in realtime a dover essere analizzati, bensì lo storico: storicizzare non serve solo per dare report e risposte agli enti, ma è fondamentale per ritrovare le situazioni critiche del passato ed evitare che si ripresentino nel futuro”.

 Come, dove, quando e perché…

F.N.: Quali sono i principali settori industriali che si avvalgono della manutenzione predittiva?

 “Per mia esperienza, le maggiori richieste provengono dai settori chimico, siderurgico, dell’oil&gas e del cemento” spiega Josè Chavarria, Process Control sales manager di Siemens Italia (www.siemens.it). Così è anche per Conte, che aggiunge: “I settori maggiormente sensibili sono quelli nei quali gli eventuali costi di mancata produzione hanno un forte impatto sulla ‘bottom line’. Il settore oil&gas è uno di questi, dati i costi elevati degli impianti. Per cui un approccio sistematizzato alla manutenzione è una scelta che definirei quasi obbligatoria”. Non solo. Andrea Ceiner, Group Product marketing manager M2M/ IoT di Eurotech (www.eurotech.it), cita anche le aziende di servizi, alle quali vengono affidate la manutenzione e l’assistenza tecnica, spesso sulla base del miglior prezzo: “Per queste aziende, ormai al massimo della loro efficienza e senza più margini di riduzione dei costi, è fondamentale trovare strumenti nuovi per aumentare l’efficacia e la competitività e per trovare nuovi servizi a valore aggiunto da associare alla loro offerta tradizionale. Con la disponibilità dei dati in tempo quasi reale sullo stato dei dispositivi, dei macchinari e degli impianti, essi possono ridurre il costo dell’intervento a valle di un incidente, sia per la velocità di reazione, sia per la precisione della diagnostica strumentale via Internet, sia anche come effetto della capacità interventistica tramite la rete. Inoltre, disponendo del costo medio di intervento/riparazione per incidente, potrebbero rivendere il servizio di monitoraggio in tempo reale ai loro clienti, aggiungendo questo servizio alla loro catena del valore tradizionale”.

F.N.: Quali sono e come stanno evolvendo le tecnologie per la gestione delle operazioni di manutenzione?

“Partendo dai sensori (analisi tribologiche sui lubrificanti, misura delle vibrazioni, termografia dei componenti) le attuali tecnologie di manutenzione predittiva sono davvero molto sofisticate” spiega Randieri. “I sensori, però, da soli non bastano. Per mia esperienza, posso affermare che la chiave per la programmazione di una manutenzione tempestiva (ma non troppo anticipata) risiede nella corretta interpretazione dei segnali registrati e da come questi vengono trasmessi e integrati con la piattaforma software per la manutenzione aziendale. Per l’interpretazione dei segnali acquisiti, oltre ai normali algoritmi matematici si adoperano delle sofisticate tecniche, denominate di ‘machine learning’, che sfruttando le tecniche di modellizzazione tipiche dell’intelligenza artificiale, riuscendo a modellizzare sistemi non lineari di difficile interpretazione, che tipicamente descrivono il funzionamento di macchine molto complesse. Per completare il quadro, non bisogna dimenticare la parte inerente l’infrastruttura di rete riguardante i sensori, lo storage delle informazioni e la loro interpretazione in un contesto più ampio della manutenzione, ovvero quella della produzione. Chiaramente stiamo parlando di applicazioni di cloud computing, big-data e Internet of Things”. “Il panorama attuale è caratterizzato da alta frammentazione, complessità e forte dipendenza dai fornitori di tecnologia” sottolinea Ceiner. “La frammentazione ha ragioni storiche: ogni azienda ha sempre cercato soluzioni proprietarie, specifiche per l’esigenza del momento, e che in mancanza di standard e di piattaforme accessibili a costi sostenibili, sono sempre state inutilizzabili in altri contesti. La frammentazione ha portato un elevato grado di complessità nel mettere assieme soluzioni diverse da tutti i punti di vista, tecnologico, commerciale e via dicendo, così la complessità ha spesso costituito una barriera insuperabile, sia in termini di tempi di realizzazione troppo lunghi e incerti, sia per gli elevati costi di progetto. Questa situazione ha creato una forte dipendenza tra cliente e fornitore, che ha in qualche modo ‘ingessato’ il mercato. Oggi, con le infrastrutture di cloud computing, di machine to machine e di Internet of Things, si realizza l’incrocio tra l’Internet delle persone, guidato dalla ‘app-economy’ e dai social media, con l’Internet delle applicazioni gestionali (CRM, ERP ecc.) e con l’Internet delle cose, fatto da sensori, attuatori e dispositivi di interfaccia uomo-macchina connessi in rete per la trasmissione in tempo quasi reale sia degli eventi, sia del dato telemetrico, sia per il controllo dei dispositivi da remoto (via cloud). In tale incrocio di tecnologie si realizzano un conso lidamento e una riduzione della frammentazione e l’abbattimento dei costi infrastrutturali di ICT”. Cupini riconosce che le moderne tecnologie devono garantire un’accurata acquisizione dei dati. “Nei sistemi di manutenzione predittiva non ci si può affidare a sistemi operativi ‘general purpose’, tipo Windows, ma bisogna migrare le applicazioni su target specifici. Questi ultimi devono essere equipaggiati con sistemi operativi realtime, che garantiscono un’esecuzione deterministica del codice di acquisizione e di analisi. Devono poi essere opportunamente interconnessi, in modo da garantire un monitoraggio distribuito. Un sistema completo di condition monitoring deve quindi prevedere una componente deterministica (target realtime), cui ‘delegare’ acquisizione e analisi, e una componente nondeterministica (Windows based) per lo storage, la condivisione (tra differenti gruppi di lavoro) e l’analisi post processing dei dati. Non solo, un’analisi predittiva non può prescindere dall’esecuzione di sofisticati modelli matematici, che necessitano di potenze computazionali sempre maggiori. Tali modelli garantiscono previsioni affidabili su possibili guasti, malfunzionamenti e usura, in particolari, e pre-selezionabili, condizioni operative”. Scalabilità, semplicità di installazione, affidabilità, disponibilità di dati realtime riguardanti il processo controllato: sono queste le caratteristiche vincenti delle soluzioni di manutenzione messe in evidenza da Alberto Griffini, product manager Advanced PLC Solutions & Scada di Mitsubishi Electric (www.mitsubishielectric.it/it): “La grande mole di dati richiede un sistema di comunicazione dal sensore alla storicizzazione nel database particolarmente capace e veloce; le attuali reti Ethernet di tipo industriale soddisfano in pieno queste caratteristiche”. Dello stesso parere è Marco Spessi, Industrial Networking manager di EFA Automazione, che però aggiunge: “Ugualmente importante, anche se meno considerata al momento, soprattutto nell’ambito delle reti locali, è la possibilità di garantire un opportuno livello di sicurezza e di riservatezza ai dati che vengono trasmessi. Prevedibile, infine, l’integrazione delle applicazioni di manutenzione nei sistemi informativi aziendali, anche se all’inizio si prediligono abitualmente i bassi costi, la velocità di realizzazione e di ottenimento dei risultati di un’applicazione stand alone”. Sull’importanza della trasmissione sicura dei dati si sofferma anche Tieghi: “Tutti conosciamo l’acronimo CIA (Confidentiality, Integrity, Avalability) o il suo corrispondente italiano RID (Riservato, Integro, Disponibile), e così devono essere resi i nostri big data. Oggi che le macchine sono quasi tutte online e che molte procedure di supervisione e manutenzione vengono eseguite remotamente, questa problematica dovrebbe essere in cima alla lista delle priorità. Creazione di VPN private, sistemi per filtrare utenti e dati tramite profilazioni avanzate, firme elettroniche ecc.: ci sono già tutti gli strumenti per spostare questi grossi volumi in maniera agile e sicura, forse però manca ancora un po’ di consapevolezza da parte di alcuni responsabili dei sistemi. Ogni terminale, smartphone e tablet compresi” conclude Tieghi “è un potenziale punto di ingresso nella rete e ogni trasferimento dati è un possibile collegamento non desiderato: le architetture stanno cambiando velocemente, altrettanto bisogna fare con i nostri sistemi di sicurezza”. “Attualmente la presenza di una rete Internet protetta permette di monitorare e gestire problematiche inerenti alla manutenzione e alla continuità produttiva da remoto, benché questo aspetto sia ancora poco utilizzato, apprezzato e richiesto nell’ambito dei sistemi di automazione e controllo, mentre è più diffuso per la strumentazione di campo” sintetizza Conte. “Nei sistemi di automazione e controllo la possibilità di remotizzare la manutenzione può avere ricadute positive molto significative: non si parla solo di ‘recovery’ nel momento del guasto, ma principalmente di prevenzione a seguito di eventuali derive pericolose di alcune variabili d’impianto, come pressioni, livelli e temperature. Un’adeguata segnalazione con opportuna allarmistica può permettere di intervenire da remoto prima che il guasto si verifichi, evitando così una successiva interruzione della produzione”.

Uno sguardo in casa nostra

F.N.: Quanto è diffusa l’integrazione della rete con il sistema informativo di manutenzione nelle imprese italiane?

 “Quello che registro dal mio punto di osservazione lavorativo è che vi è un forte stimolo da parte di grandi aziende del software, come IBM, SAP, Microsoft, nell’offrire soluzioni di business intelligence e di predictive maintenance, le quali, però, per offrire valore al cliente finale, devono essere alimentate con quantità significative di dati” risponde Ceiner. “Questi dati sono, del resto, ancora largamente inaccessibili e questo fa sì che non vi sia ancora una disponibilità in rete di queste soluzioni. Certo gli open data potrebbero dare una notevole spinta in questa direzione”. Spiega Chavarria: “L’utilizzo di moduli intelligenti di diagnosi per i componenti degli impianti meccanici e la loro integrazione nel sistema di controllo di processo si è rivelata una scelta vincente in svariate applicazioni che abbiamo realizzato. Oggi esistono moduli software per il monitoraggio delle pompe, delle valvole di controllo, degli scambiatori di calore e dei turbocompressori… L’integrazione sistematica degli asset meccanici nel monitoraggio delle condizioni e nel management degli impianti, attraverso tali moduli, garantisce la possibilità di una manutenzione preventiva e offre dei vantaggi sostanziali, quali risparmio dei costi, elevata disponibilità degli impianti e prevenzione di fermate non pianificate”.

 F.N.: Come è possibile adeguarsi al cambiamento?

 La manutenzione si sta dirigendo verso una dimensione sempre più ‘smart’ utilizzando le nuove tecnologie per la trasformazione dei big data, fruibili non solo nella gestione, ma anche nella progettazione dell’asset. “Con più del 90% dei processi produttivi supportati dall’ICT, l’Italia, seguendo a ruota la Germania, si dichiara pronta per la rivoluzione 4.0, ovvero la realizzazione di un network universale di oggetti intelligenti collegati via Internet” asserisce De Maestri. “Questo concetto è molto ampio, infatti vede convergere diverse tecnologie destinate a uno svariato numero di settori: CPS (Cyber Physical System), coordinamento e relazioni di elementi di automazione, macchinari, impianti e strutture produttive; ‘smart factory’, approccio innovativo alla produzione che permette così di soddisfare le specifiche richieste del cliente rendendole sempre più personalizzate; ‘digital factory’, rappresentazione virtuale di una vera e propria fabbrica a fine simulativo; IoT, oggetti che acquisiscono intelligenza grazie al fatto di poter comunicare con la rete. Investire in questa direzione è fondamentale per tutte le aziende che vogliono crescere, che dovranno affrontare cicli di innovazione sempre più brevi, prodotti più complessi e personalizzati, volumi di produzione maggiori rispetto al recente passato, con costi di produzione sempre più ridotti”. “Il concetto di IoT, ossia la connettività in rete di qualsiasi dispositivo intelligente per il controllo in ambito industriale, apre diverse opportunità legate ai dati di funzionamento di macchine e impianti” sottolinea Griffini. La progettazione di un nuovo sistema di controllo prevede oggi queste funzionalità disponibili a livello tecnologico”.“Se faccio un motore che apre e chiude un cancello, se realizzo turbine o caldaie, se sono nel retail, mi interessa sapere come i miei prodotti vengono realmente scelti e utilizzati” spiega Ceiner. “Questo mi permette di disegnare nuovi modelli, sempre più vicini alle vere preferenze degli utilizzatori in termini sia di costo, sia di caratteristiche, e ciò alla fine produce maggiori ricavi e meno sprechi. Quindi, attraverso un uso intelligente di questi dati passa il futuro delle aziende, il loro posizionamento, il loro ‘business model’. È questione di guardare al mercato futuro. A tal fine è addirittura nata una nuova figura professionale, quella dello ‘scienziato del dato’, e questo segnale, intercettato dal mercato del lavoro, è significativo della direzione che stanno prendendo le aziende leader”. L’attenzione al ‘dato’ e il grande vantaggio che deriva da una sua gestione efficiente viene ugualmente sottolineata da Marciano. “Oggetti che prima non producevano dati, ora arrivano a produrne in grande quantità. L’IoT è la corretta definizione di tutto questo. Disporre di tutti questi dati significa anche avere la necessità di dotarsi di strumenti in grado di analizzarli e di fornire loro il giusto ‘peso’ nel descrivere il fenomeno che si vuole catturare. Il rischio è che, come sta già avvenendo nel mondo della meteorologia, la mancanza di gestione di questa grande mole di informazioni generi confusione decisionale. Capito questo, sicuramente siamo nelle condizioni di aumentare la nostra percezione degli eventi che ci circondano quotidianamente e quindi di migliorare ogni singolo aspetto dei componenti che vengono assemblati per costruire asset”.

Il ‘fattore’ formazione

F.N.: La modernità delle tecnologie disponibili incide sulla professionalità degli operatori addetti alla manutenzione. Come cambiano queste figure professionali?

 “Il personale di manutenzione al quale vengono affidati questi nuovi strumenti di analisi predittiva, deve avere una maggiore preparazione a livello informatico: qui viene in soccorso il ricambio generazionale dei tecnici addetti alla manutenzione, appartenenti alla categoria dei cosiddetti ‘digital native’, ossia giovani cresciuti nell’era digitale con grande familiarità nell’uso della tecnologia, dei computer e degli strumenti elettronici di consumo” risponde Griffini.“Con l’avvento delle moderne soluzioni e di sistemi sempre più integrati in rete, le figure destinate alla manutenzione sono chiamate a evolversi professionalmente” aggiunge De Maestri. “Essi, infatti, saranno visti sempre più come figure qualificate, capaci di contribuire allo sviluppo di strategie evolute e di coordinare, gestire e risolvere problemi e complessità sul nascere, facendo leva sul supporto dei servizi disponibili negli asset installati”. Per Randieri, infine, occorrono delle figure professionali dotate di ‘skill’ adeguati in termini di competenze non solo tecniche, ma anche organizzative e gestionali: “Internamente alle aziende tipicamente si procede alla formazione dei vecchi operatori della manutenzione, in modo che questi possano acquisire le competenze necessarie a gestire i nuovi strumenti introdotti con la manutenzione predittiva. Attenzione però che per la manutenzione predittiva non è sufficiente investire nel ‘know-how’, ovvero nel ‘sapere’ degli addetti, bensì occorre concentrare gli sforzi anche nel ‘know-why’, per superare il problema di ‘cosa fare’. I nuovi operatori dovrebbero sempre riuscire a capire la causa principale del problema e il perché stanno adottando delle contro-misure. L’idea è quella di creare una ‘fabbrica di esperti’ e per fare ciò è consigliabile sfruttare le conoscenze e le abilità delle persone che lavorano su un’apparecchiatura giornalmente, offrendo agli operatori della manutenzione la possibilità di ‘partecipare’ alla performance del dispositivo. Questo coinvolgimento è parte di una più ampia filosofia del ‘miglioramento continuo’ che dovrebbe accompagnare tutte le attività di produzione”.

_______

Tavola Rotonda a cura di Silvia Beraudo pubblicata sulla rivista Fieldbus & Networks N. 84 (Settembre 2015)

Per scaricare l’articolo pubblicato sulla rivista seguire il link riportato di seguito http://www.intellisystem.it/portfolio/fn-settembre-2015-3/

AO Settembre 2005 - Intervista Cristian Randieri Questione di Chimica - Intellisystem Technologies

(Italian) Intervista a Cristian Randieri ‘Questione di Chimica’ – Settembre 2015 Automazione Oggi

Secondo Federchimica nel prossimo futuro il settore chimico e petrolchimico avrà un trend positivo: ma sarà veramente così? E lo sarà anche per realtà industriali piccole?

Parlare dell’industria chimica e petrolchimica e provare a fornire un panorama aggiornato su numeri e tendenze rappresenta un’impresa che solo pochi soggetti sono in grado di poter svolgere. Tra questi c’è sicuramente Federchimica, che ogni anno pubblica l’interessante report ‘L’industria chimica in cifre 2015’ (http://www.federchimica.it/DATIEANALISI/ConoscereIndustriaChimica. aspx), attraverso il quale si fornisce una visione dell’industria chimica italiana confrontata con gli altri paesi europei e mondiali e cerca di misurare lo stato di salute del comparto attraverso l’analisi di macro indicatori. I risultati evidenziati nell’ultimo rapporto forniscono una percezione molto positiva del trend previsto nel prossimo futuro e tutto ciò non può che far bene all’ottimismo; guardando però l’altra faccia della medaglia e cercando di tenere un profilo più critico risulta fin troppo evidente il messaggio solo positivo, quasi promozionale, che Federchimica vuole dare a favore delle proprie associate e che però rischia di far sembrare che tutte le aziende si stanno muovendo verso la giusta direzione. Chi ha avuto l’occasione di effettuare sopralluoghi, soprattutto presso realtà industriali più piccole, può confermare che sono moltissime le aree di miglioramento che richiedono uno sforzo molto forte da parte della classe dirigente presente all’interno dell’industria ben sapendo che i benefici a cui si può arrivare sono molto grandi anche solo seguendo le buone pratiche che altre aziende più grandi e strutturate hanno messo in atto già da tempo.

Impatto ambientale

Sicuramente la complessità di questo mondo, unita alla vastità dell’argomento ‘chimica’, non sempre garantisce un lavoro completo e oggettivo, che possa escludere completamente il rischio di poter dire tutto e il suo contrario in base agli interessi che si vuol far prevalere. Tra i tanti aspetti interessanti che circondano anche questo settore e che in quest’ultimo periodo sta riscuotendo notevole successo vi è il tema ambientale con un occhio di riguardo all’efficienza energetica la quale, oltre a garantire una riduzione dell’impatto ambientale, può essere vista come chiave di miglioramento della competitività sia in termini di riduzione dei costi sia come acquisizione di maggiori conoscenze e competenze. Su questo tema specifico esistono numerosi studi ed esempi di come la sostenibilità sia tra le parole chiave usate anche dalle aziende del comparto chimico, ma richiamando l’accenno fatto in precedenza, può capitare di trovarsi di fronte a documenti che raccontano di fatti che rimangono sulla carta oppure che enfatizzano alcune esperienze di ridotte dimensioni; per questi casi risulta difficile dire a priori se la volontà è di sfruttare la moda del ‘green’ per ottenere benefici di immagine e di quote di mercato oppure per lavarsi la coscienza (green washing). Per chi ha la possibilità e la fortuna di visionare molteplici realtà industriali non sembrerà per niente strano immaginare le numerose aree di miglioramento presenti in molte realtà chimiche sia piccole sia grandi. L’obbligo legislativo previsto dall’articolo 8 del D.Lgs. 102/14 che prevede l’esecuzione di una diagnosi energetica presso tutte le grandi imprese e le aziende cosiddette energivore ha permesso l’apertura delle porte di molte aziende per l’analisi dei consumi energetici abbinata alla conoscenza dei singoli processi. L’attività di diagnosi energetica, che rappresenta il primo passo necessario per svolgere una corretta azione di miglioramento della propria bolletta di energia elettrica e gas, era sconosciuta a molti dei soggetti che oggi figurano tra gli ‘obbligati’. Questo la dice lunga sulla sensibilità degli utilizzatori finali di energia, che per quanto riguarda l’industria chimica ha un’incidenza per niente trascurabile sui propri costi operativi. Ovviamente ciò significa che l’organizzazione nel suo complesso (almeno per quelle meno virtuose) è poco sensibile al tema ambientale, ancora di più in un ambito dove la riduzione dell’impatto ambientale è direttamente proporzionale alla riduzione dei propri costi. Scontato dire che mai nessuno all’interno dell’azienda, a tutti i livelli, ammetterà mai una tale ‘colpa’; per cui approfittiamo dell’obbligo e, senza pensare che questo rappresenti un puro balzello, cerchiamo di introdurre tutti i principi utili al raggiungimento dei risultati di miglioramento.

Le nuove tecnologie

In tutto questo le nuove tecnologie e l’automazione hanno un ruolo fondamentale per garantire i risultati attesi ma deve essere chiaro a tutti, utenti finali e fornitori, che queste si collocano a valle di una corretta analisi iniziale, ovvero dalla diagnosi, ancora di più se ci troviamo di fronte all’industria di processo come avviene in maniera indistinta per tutto il comparto della chimica. Volendo esprimere un giudizio sul prossimo periodo che attende l’industria chimica italiana, possiamo dire che le opportunità di migliorarsi non mancano e che devono essere tenute sotto osservazione e colte appena ne viene data la possibilità. Sicuramente poi approfittare della tendenza, soprattutto europea, di voler incrementare l’efficienza energetica all’interno delle industrie garantendo strumenti metodologici e finanziari per permettere un cambio di marcia da parte dell’intera organizzazione rappresenta un grosso vantaggio. Di sicuro non è un’attività che può essere delegata completamente a un esterno e richiede il coinvolgimento attivo del proprio personale il quale facendo proprio un metodo di lavoro innovativo permette di fare un salto di qualità. Tutto ciò risulta molto più efficace se l’incidenza dei costi energetici è elevata e se il livello del business garantisce una buona prospettiva nel tempo. A tal proposito, i segnali di crescita che arrivano dal mercato unito alle richieste avanzate per soddisfare l’obbligo di diagnosi, fanno ben sperare per il prossimo futuro delle aziende, comprese quelle chimiche. Tutto ciò deve essere visto come il miglior modo per partire con il piede giusto dopo un periodo decisamente buio per molti soggetti che operano in quest’area.

Sull’argomento abbiamo intervistato Cristian Randieri, president & ceo di Intellisystem Technologies (www.intellisystem.it).

Automazione Oggi: Dal 2008 per effetto della crisi molte industrie hanno dovuto attivarsi e mettere in atto una serie di strategie per limitare i danni e resistere al rischio chiusura o (s)vendita. Gli ultimi indicatori macroeconomici sembrano evidenziare un’inversione di tendenza e un timido ottimismo; alla luce di queste ultime indicazioni e sulla base della vostra esperienza diretta, potete dare conferma oppure non avete riscontrato nessun cambiamento rispetto agli ultimi anni? Guardandovi alle spalle, vi ritenete soddisfatti delle strategie adottate dalla vostra azienda e quale tra queste pensate sia stata la più efficace?

 

Cristian Randieri: Nel dopoguerra l’industria chimica e petrolchimica ha segnato una grande svolta nel settore industriale italiano, dominando per diversi anni il panorama delle nostre attività industriali. La flessione che poi si è registrata è stata provocata dai suoi ingenti costi: non solo l’aumento del prezzo del petrolio, ma anche le grandi dimensioni degli impianti particolarmente sensibili ai problemi di carattere ambientale e di sicurezza. Prendendo in considerazione il rapporto di giugno 2015 dell’Unione Petrolifera a un anno esatto dall’avvio del crollo delle quotazioni del petrolio, la domanda si è risvegliata con un vigore che sta sorprendendo gli analisti. Ma la crescita dei consumi di carburante, legata in parte alla ripresa economica e in parte alla discesa dei prezzi alla pompa, non è stata finora sufficiente a riequilibrare il mercato. L’eccesso di greggio è quasi raddoppiato: da 1,1 mbg (milioni di barili al giorno) nel secondo trimestre del 2014 a oltre 2 mbg da cui ne segue che occorrerà molto tempo per essere dissipato. Nel nostro caso abbiamo notato una maggiore contrazione negli investimenti messi in atto dalle raffinerie che ormai si limitano allo stretto e necessario per mantenere in piedi la loro struttura. Il settore dell’automazione riesce a resistere solo per il fatto che è il nodo centrale per l’ottimizzazione della produzione e della sicurezza degli impianti. La nostra esperienza ci ha insegnato che per resistere a questa ondata di crisi che ormai perdura da diversi anni bisogna adattarsi alle nuove esigenze del mercato che purtroppo sono quelle di sempre ma che oggi sono ancor di più all’ordine del giorno, ovvero ‘occorre tagliare i costi’. Cosa più facile a dirsi che a farsi poiché la nuova variabile che si deve aggiungere è ‘senza attivare nuovi investimenti’. Tradotto in altre parole, la chiave di successo di oggi per noi è quella di offrire soluzioni che non richiedono investimenti e che al tempo stesso permettano al committente di ‘tagliare i costi’ su una o più attività. Penso che in Italia ci siano i presupposti culturali per la rinascita dell’industria chimica, ma mancano quelli politici. È necessario che il nostro Paese ritrovi il coraggio di rischiare, ovvero investire. Nel caso nostro abbiamo investito in innovazione, ricerca e sviluppo per offrire ai nostri clienti delle soluzioni a basso costo quali ad esempio l’innovativo sistema di monitoraggio delle fiaccole industriali a mezzo di una speciale telecamera termica che s’interfaccia con i sistemi di automazione per consentire il monitoraggio e l’analisi in automatico dell’efficienza della fiaccola stessa.

 

A.O.: Anche se la definizione di ‘chimica verde’ ha fatto la sua apparizione nel 1991, solo negli ultimi anni è aumentata notevolmente la sensibilità verso l’impatto ambientale sempre minore. La vostra azienda ha adottato e segue i principi (12 regole) previsti da questo approccio innovativo? Potete fare qualche esempio?

 

Cristian Randieri: La nostra azienda ha adottato da sempre un approccio etico fatto di criteri, di priorità e di obiettivi, quindi una nostra filosofia, che attinge dalla conoscenza scientifica della chimica per guidare le applicazioni industriali di questa disciplina verso modalità sostenibili dal punto di vista ambientale ed economico. Siamo convinti che la ‘green chemistry’ sia a tutti gli effetti un criterio di ottimizzazione dal quale non soltanto i chimici industriali ma anche gli ingegneri chimici non possono prescindere nella loro attività professionale di definizione e ottimizzazione dei processi di trasformazione chimica. Nel caso nostro abbiamo messo a punto dei processi che massimizzino la quantità di materia prima che entra a far parte del prodotto (quindi sprecare meno materie prime e generare al tempo stesso meno sottoprodotti da smaltire, riuscendo a impiegare materie prime poco trasformate, ovvero più grezze). Ove possibile impieghiamo sostanze chimiche (ad esempio: i solventi) sicure e ‘benigne’ per l’ambiente (o per lo meno tentiamo di ridurre l’impiego di quelle sostanze che possono considerarsi più implicitamente rischiose, anche senza prevederne un impiego su larga scala). Abbiamo messo a punto processi di produzione efficienti dal punto di vista energetico: un po’ come i motori delle automobili di ultima generazione, che fanno più chilometri con la stessa quantità di carburante. E infine cerchiamo di gestire al meglio la produzione dei reflui adottando come regola quella in primo luogo di non produrli. Può apparire un’utopia, ma in alcuni casi è stato un obiettivo perseguibile.

 

A.O.: In linea con la domanda precedente e in linea con le recenti direttive europee, nel luglio 2014 con il D.Lgs. 102 è stata recepita in Italia la nuova direttiva sull’efficienza energetica. Tra le altre cose è richiesto che le grandi imprese o quelle energivore debbano realizzare obbligatoriamente entro il 5 dicembre una diagnosi energetica dei propri siti. La vostra azienda ha già svolto azioni di miglioramento dell’efficienza energetica? Sono state svolte a seguito di un lavoro di diagnosi? Avete in programma l’implementazione di un sistema di gestione dell’energia (certificato)?

 

Cristian Randieri: Malgrado la nostra realtà venga classificata tra le PMI, attualmente stiamo effettuando un’analisi interna atta a favorire il contenimento dei consumi energetici attraverso la contabilizzazione dei consumi individuali dei singoli reparti aziendali in modo da poter suddividere le spese in base ai consumi effettivi di ciascun centro di consumo individuale. Pensiamo di condurre l’analisi utilizzando dei misuratori di consumo energetico costruiti internamente che sfruttano il principio di misurazione della corrente che attraversa un cavo mediante un solenoide interfacciato a un opportuno sistema di misura e controllo. Chiaramente non basta solo analizzare i consumi, stiamo cercando di assegnare risorse e responsabilità in modo da accrescere la consapevolezza aziendale in merito al tema fornendo del training adeguato atto a promuovere la comunicazione interna ed esterna e implementare controlli operativi. Tutto questo ci permetterà di essere pronti per implementare un efficace sistema di gestione dell’energia certificato che ci garantisce le migliori performance nella gestione dell’energia in conformità allo standard di riferimento ISO 50001.

 

A.O.: Come potreste definire il livello di automazione che caratterizza la vostra azienda? Esistono delle soluzioni integrate e comunicanti tra i vari reparti e funzioni all’interno dell’azienda, non solo produttive?

 

Cristian Randieri: Lavorando nel campo dell’automazione è più che naturale per noi adottare un elevato livello di automazione interno per favorire una riduzione dei costi e dei consumi aumentando la sicurezza dei nostri lavoratori. Giusto per fare un esempio abbiamo ideato e realizzato un sistema denominato DPI Analyzer che sfruttando la tecnologia Rfid ci permette di aumentare la sicurezza dei nostri operai nei cantieri in cui operano. Infatti a ogni DPI (Dispositivo di Protezione Individuale) è associato uno speciale TAG che viene rilevato a ogni stazione di lavorazione. Un sistema centralizzato permette di controllare che l’operaio abbia indossato i DPI idonei per l’area in cui si lavora, il tutto compatibilmente con la normativa della privacy sul luogo di lavoro. Siamo convinti che un’azienda che investe in sicurezza del luogo del lavoro ha anche un ritorno economico in termini di riduzioni dei costi e dei consumi.

 __________

Intervista a cura di Michele Santovito, pubblicata sulla rivista Automazione Oggi N. 384 – Settembre 2015.

Per scaricare l’articolo pubblicato sulla rivista, seguire il link riportato di seguito  http://www.intellisystem.it/portfolio/ao-settembre-2015/

AO Luglio-Agosto 2015 Tavola Rotonda Cloud Computing - Intellisystem Technologies

(Italian) Cloud Computing: i pro e i contro

Esperti del settore provano a dare indicazioni utili per l’utilizzo consapevole del cloud computing    

Tutti parlano di cloud ma non tutti sanno esattamente quali sono i pro e i contro della nuvola. Abbiamo provato a chiederlo a esperti come Paolo Colombo, european strategic programs manager di Ansys, Bruno Pierro, service creation and cloud leader di Cisco Italia, Cristian Randieri, presidente e CEO di Intellisystem Technologies e Francesco Tieghi, responsabile digital marketing di ServiTecno. Vediamo cosa hanno risposto.

_____

Di seguito riportiamo l’estratto dell’articolo riguardante le risposte date da parte del nostro Presidente e CEO Cristian Randieri

1)   Parliamo di cloud computing: cloud pubbliche e cloud private. Quale la differenza? 

Il cloud pubblico prevede la fornitura di servizi cloud a molteplici clienti in un ambiente virtualizzato, basato su un’unica infrastruttura condivisa di risorse fisiche accessibili tramite una rete pubblica come Internet. In un certo senso si contrappone alla definizione di cloud privato, che delimita il bacino di risorse di computing sottostanti, creando una piattaforma cloud distinta a cui può accedere solo un’unica organizzazione. In realtà la distinzione non è proprio così netta tant’è vero che esistono pure i cloud ibridi. Sono una nuova formulazione di cloud che sfruttano i cloud sia privati sia pubblici per svolgere funzioni distinte all’interno della stessa organizzazione. I cloud ibridi nascono dall’esigenza delle varie organizzazioni di incrementare la propria efficienza utilizzando servizi cloud pubblici per tutte le operazioni non sensibili e affidarsi al cloud privato esclusivamente in caso di necessità, facendo in modo che tutte le piattaforme siano perfettamente integrate tra loro. Esistono diversi modelli di cloud ibridi che possono essere applicati in svariati modi: modello integrato, diversi cloud provider collaborano per fornire servizi sia privati che pubblici; modello ibrido completo, singoli cloud provider offrono un pacchetto ibrido completo; modello misto, organizzazioni che gestiscono autonomamente i propri cloud privati utilizzando e integrando nella propria infrastruttura un servizio di cloud pubblico. In un esempio pratico si potrebbe pensare a un’azienda che adotti il cloud hosting ibrido per ospitare il proprio sito web di e-commerce all’interno di un cloud privato, più sicuro e scalabile, adottando invece un cloud pubblico per ospitare il sito vetrina a favore di un maggiore risparmio economico. Infine esiste anche il community cloud in cui l’infrastruttura su cui sono installati i servizi cloud è condivisa da un insieme di soggetti, aziende e organizzazioni, che condividono le stesse esigenze e hanno uno scopo comune, come ad esempio potrebbero essere i vari soggetti della pubblica amministrazione. L’infrastruttura può essere gestita dalla comunità stessa, oppure da un fornitore di servizi esterno.

2)   Quali sono le componenti di questa nuova tecnologia?

Utilizziamo come riferimento la definizione di cloud computing proposta dal National Institute of Standards and Technology (Nist) possiamo individuare in modo chiaro le componenti che identificano questa tecnologia. Server: i server fisici forniscono macchine ‘host’ per più virtual machine (VM) o guest. Un hypervisor in esecuzione sul server fisico assegna dinamicamente le risorse host (CPU, memoria) a ciascuna macchina virtuale. Virtualizzazione: le tecnologie di virtualizzazione traspongono elementi fisici e posizione su un piano astratto. Le risorse IT (server, applicazioni, desktop, storage e networking) sono svincolate dai dispositivi fisici e sono presentate come risorse logiche. Storage: storage – SAN, NAS (Network Attached Storage) e i sistemi unificati forniscono lo storage per blocchi di dati e dati di file primari, per l’archiviazione dei dati, per le funzioni di backup e per la prosecuzione dell’attività aziendale. I componenti avanzati del software di storage vengono utilizzati per big data, replica dei dati, spostamento di dati tra cloud e high availability. Rete: consente di cambiare i server fisici di interconnessione e lo storage. I router forniscono la connettività LAN e WAN. Altri componenti di rete forniscono la protezione mediante firewall e il bilanciamento di carico del traffico. Gestione: la gestione dell’infrastruttura cloud comprende organizzazione delle azioni server, rete e storage, gestione della configurazione, monitoraggio delle prestazioni, gestione delle risorse di storage e misurazione dell’utilizzo. Sicurezza: i componenti garantiscono la sicurezza delle informazioni e l’integrità dei dati, soddisfano i requisiti di conformità e riservatezza, gestiscono i rischi e forniscono la governance. Backup e ripristino: viene eseguito il backup automatico su disco o nastro di server virtuali, NAS e desktop virtuali. Gli elementi avanzati forniscono protezione continua, più punti di ripristino, deduplica dei dati e disaster recovery. Sistemi di infrastruttura: il software e l’hardware pre-integrati, come i sistemi di backup completo con la piattaforme di deduplica e premontate in rack contenenti server, hypervisor, rete e storage, semplificano l’implementazione dell’infrastruttura cloud e ne riducono ulteriormente la complessità.

3)   Perché riscuote così tanto successo?

Perché a causa dei complessi processi legati all’acquisizione delle componenti infrastrutturali (server, storage, terminali ecc.) e dei relativi tempi di realizzazione e di integrazione, il mantenimento di una infrastruttura informatica adeguata e aggiornata rappresenta una delle principali criticità per le PMI e le pubbliche amministrazioni. In altre parole le chiavi di successo sono 6. Self-service su richiesta: un cliente può richiedere risorse computazionali senza richiedere un intervento umano dei fornitori dei servizi stessi. Tutto questo grazie alla virtualizzazione, ovvero, un insieme di tecnologie che permette di condividere i server e lo storage, di aumentarne radicalmente il tasso di utilizzo e di spostare facilmente le applicazioni da un server fisico a un altro. Accesso a banda larga: le risorse sono raggiungibili tramite la rete, la cui banda deve essere adeguata all’uso specifico richiesto compatibilmente alle piattaforme client adottate (ad esempio telefoni cellulari, computer portatili, o computer palmari). Risorse comuni: le risorse di calcolo del fornitore cloud vengono organizzate utilizzando il modello ‘multi-tenant’, in cui le risorse fisiche e virtuali sono assegnate dinamicamente a seconda della richiesta dei clienti indipendentemente dalla loro locazione fisica. Elasticità: le risorse possono essere fornite e rilasciate rapidamente in modo elastico, per modulare velocemente la capacità computazionale dando all’utente l’idea di avere delle risorse disponibili in qualsiasi quantità e in qualsiasi momento. Servizi monitorati: i sistemi cloud controllano e ottimizzano automaticamente l’utilizzo delle risorse, sfruttando la capacità di misurarne l’utilizzo da parte dell’utente. Ciò è molto importante per permettere al fornitore di reagire a eventuali picchi di richiesta allo scopo di garantire al cliente la QoS contrattualizzata. Pay per use: l’utente paga solamente in base all’effettivo sfruttamento delle risorse. Questa caratteristica permette all’utente un notevole risparmio sulle risorse IT, in quanto può ridurre la quantità di risorse elaborative presenti presso le sue strutture e conseguentemente il personale per la loro gestione, trasferendo al fornitore di servizi il rischio di inutilizzo delle stesse.

4)   Come un’azienda può valutare i diversi modelli di servizio? Può un’azienda provare i vari servizi offerti? E come può riconoscere la soluzione giusta per lei?

Prima di optare per l’adozione di servizi di cloud computing, configurandone la migliore soluzione, è opportuno che l’azienda verifichi la quantità e la tipologia di dati che intende esternalizzare (es. dati personali identificativi o meno, dati ecc.). È di primaria importanza valutare gli eventuali rischi e le possibili conseguenze derivanti da tale scelta sotto il profilo della riservatezza e della loro rilevanza nel normale svolgimento della propria attività. Tale analisi valutativa dovrà evidenziare l’opportunità o meno di ricorrere a servizi cloud (limitandone l’uso ad esempio a determinati tipi di dati), nonché l’impatto sull’utente in termini economici e organizzativi, l’indisponibilità, pur se parziale o per periodi limitati, dei dati esternalizzati o, peggio, la loro perdita o cancellazione. Successivamente occorre documentarsi su quali siano i modelli di servizio cloud più comunemente offerti dai provider, ovvero: SaaS (Software as a Service) che indica qualsiasi servizio cloud tramite il quale i consumatori possono accedere ad applicazioni software tramite Internet. Le applicazioni ospitate su cloud possono essere utilizzate per una vasta gamma di attività, sia da individui che da organizzazioni. Alcuni esempi di SaaS sono di fatto realtà come Google, Twitter e Facebook. PaaS (Platform as a Service), categoria di cloud computing che fornisce agli sviluppatori una piattaforma e un ambiente per costruire applicazioni e servizi su Internet per cui gli utenti accedono ai propri servizi tramite il proprio browser web. IaaS (Infrastructure as a Service), dove la risorsa cloud è un’infrastruttura di elaborazione ovvero un hardware virtualizzato. In questa categoria ricadono servizi come ad esempio: lo spazio virtuale su server, connessioni di rete, larghezza di banda, indirizzi IP e bilanciatori di carico. Il cliente mediante le componenti virtualizzate costruisce le proprie piattaforme IT. A questo punto dopo una prima analisi e la scelta del servizio più adatto alle proprie esigenze si può pensare di iniziare a fare un’analisi di mercato per la scelta del provider più adatto. Personalmente penso che anziché provare diversi servizi alla ricerca del migliore sia più vantaggioso fare un’analisi e quindi una progettazione a monte per individuare a priori la soluzione più adatta alle proprie esigenze.

5)   I dati, si sa, sono la linfa vitale delle aziende e molti sono sensibili. Dove vengono, normalmente, archiviati? Quali i rischi? Come si possono riavere se si decide di cambiare provider?

Nel corso della nostra attività abbiamo constatato un quadro, è a dir poco disastroso. Purtroppo la maggioranza delle PMI, tranne quelle che operano nel settore ICT, non riesce nemmeno a percepire il possibile danno dovuto dalla perdita accidentale dei dati se non quando vissuto in prima persona. In molte delle PMI non esistono nemmeno dei server, al massimo ci si limita a un PC di prestazioni più elevate che condivide il proprio HD in rete. Le aziende leggermente più evolute adoperano i NAS, che solitamente sono di tipo consumer per il contenimento dei costi, ignorando che seppur avendo una ridondanza dei dati in termini di HD non hanno alcuna ridondanza a livello hardware del NAS stesso. In questo caso il rischio più grosso consiste quando questo si danneggia poiché è necessario provvedere al recupero dei dati dalla configurazione Raid dei dischi supportati causando di fatto una sospensione della normale operatività dell’azienda con danni sicuramente non indifferenti per l’azienda stessa. Per riavere i dati diciamo che tutto dipende da come è stato selezionato il fornitore di servizi cloud, se questi è conforme agli standard e alle altre caratteristiche tecnologiche che garantiscano portabilità e interoperabilità dei servizi erogati. Occorre sempre richiedere al fornitore di servizi cloud la garanzia che i servizi cloud possano essere trasferiti su piattaforme di fornitori differenti o che possano essere riportati all’interno dell’organizzazione cliente con il minimo di impatto, evitando il rischio di legarsi a un unico cloud provider ‘vendor lock-in’. I requisiti di portabilità devono essere realizzati attraverso l’adozione di standard di portabilità per il cloud che sono: per la portabilità dei dati il Cloud Data Management Interface (Cdmi), in grado di definire le tipologie di interfacce che le applicazioni dovranno usare per creare, recuperare, modificare e cancellare i data element su un cloud; per la portabilità dei sistemi l’Open Virtualization Format (OVF), che definisce lo standard per la creazione e la distribuzione delle macchine virtuali.

6)   Come si valutano i fornitori?

Sicuramente la regola base è quella che prevede la selezione del fornitore più adeguato, quello cioè in grado di dimostrare la propria capacità di fornire competenze, processi e risorse che siano superiori a quelli interni. Ecco alcune regole da seguire dettate dalla nostra esperienza. Accertare l’affidabilità del fornitore prima di migrare sui sistemi virtuali i propri dati più importanti, la quantità e la tipologia delle informazioni che intendono allocare nella cloud, i rischi e le misure di sicurezza. Valutare la stabilità societaria del fornitore, le referenze, le garanzie offerte in ordine alla confidenzialità dei dati e alle misure adottate per garantire la continuità operativa a fronte di eventuali e imprevisti malfunzionamenti. Valutare le caratteristiche qualitative dei servizi di connettività di cui si avvale il fornitore in termini di capacità e affidabilità; ovvero l’impiego di personale qualificato, l’adeguatezza delle infrastrutture informatiche e di comunicazione, dalla disponibilità ad assumersi responsabilità previste dal contratto di servizio derivanti da eventuali falle nel sistema di sicurezza o a seguito di interruzioni inattese di servizio. Privilegiare i servizi che favoriscono la portabilità dei dati: è consigliabile ricorrere a servizi di cloud computing nelle modalità SaaS, PaaS o IaaS in un’ottica di servizi basati su formati e standard aperti, che facilitino la transizione da un sistema cloud a un altro, anche se gestiti da fornitori diversi. Informarsi su dove risiederanno concretamente i dati: sapere in quale Stato risiedono fisicamente i server sui quali vengono allocati i dati è determinate per stabilire la giurisdizione e la legge applicabile nel caso di controversie tra l’utente e il fornitore del servizio. Ciò potrebbe rappresentare una limitazione per l’autorità giudiziaria nazionale nel dare esecuzione a ordini di esibizione, di accesso o di sequestro, ove sussistano i presupposti. Fare attenzione alle clausole contrattuali. Una corretta e oculata gestione contrattuale supporta sia l’utente, sia il fornitore nella definizione delle modalità operative e dei parametri di valutazione del servizio, oltre a individuare i parametri di sicurezza necessari per la tipologia di attività gestita.

___________

Tavola Rotonda – Automazione Oggi N. 383 (Luglio/Agosto 2015), pubblicata da Antonella Cattaneo.

Per scaricare l’articolo pubblicato sulla rivista seguire il link riportato di seguito  http://www.intellisystem.it/portfolio/ao-luglioagosto-2015-2/

FN Febbraio 2015 - Tavola Rotonda Green and profitable - Intellisystem Technologies

‘Green and profitable’: how to increase profits by reducing consumption

1) An investment in ‘green’ technology can give concrete economic returns or just image?

 In general, the ‘green’ technology is a growing market a bit ‘everywhere: as reported by multiple sources, the sector “clean tech” continues to record new investments in the developed and developing, considering that between 2007 and 2010, growth was on average 11.8% per year. While globally the phenomenon is very significant, particularly in the developing countries this translates into new opportunities for export of hi-tech products made in Italy, an occasion not to be missed for Italian companies that invest in research and innovation. I think that the discussion concerning the image is secondary to the concrete to produce new technologies at low cost eco-friendly since a few decades, we should deal with the effects of various policies not environmentally sustainable implemented so far especially in emerging countries. Working from the front green technologies seem a reasonable bet for new companies that offer so-called “green jobs” that occupied that apply technological “green” skills.

2) As network technologies can help to combine sustainability and profitability of the industry?

Always the possession of technologies for telecom, and then networking technologies, have been successful, just think of the countless conflicts won by those who owned the most advanced technological solutions. Today the various technological challenges of the challenge adds “green-networking” that from the standpoint of industrial means to emphasize the concepts of: greater integration, reducing distances, more automation, consistent with the reduction in operating costs; which results in greater sustainability and profitability for its user. Waste in this area are endless just think of the title d ‘example:

For long periods of inactivity of the various networking devices during the hours in which the companies do not work;
The waste of energy inherent in the cable lengths. For example, any ethernet switch is designed to support up to 100 m cable when on average in the companies segments are average of 5-10 meters. It would be desirable that the switch is capable of detecting the cable length, and then adjust accordingly the energy consumption.

3) There would be helpful or a standard or a reference brand for communication technologies in order to certify the energy efficiency and / or environmental sustainability? (Energy Star type in information or the energy label of household appliances)

Surely it would be very useful as well as already happens in other sectors, the consumer would have one more tool for better orientation in the choice of network equipment, perhaps placing the questions on issues concerning their consumption. It seems trivial, but the majority of SMEs in Italy has never raised the issue of adopting solutions to reduce the cost of energy consumption of its network equipment. The words will not be easy to get on with it because like any self-respecting standards will take years for the definition and implementation of assessment protocols.

4) What technological innovations can help the spread of communication networks in ‘green’ projects ?

Surely the technology of “smart sensing” or applications of sensors and sensor networks can significantly contribute to a more efficient use of resources, environmental challenges and reduce the effects of climate change. In “Smart Buildings” the pair of minimum standards of energy efficiency with the use of sensor technology can be an important factor in reducing the use of electricity and the emission of greenhouse gases. However, effects of type “rebound” must be taken into account, in particular in transport. Greater efficiency due to the use of sensor technology must be accompanied by a demand management to internalize environmental costs, for example by encouraging the systemic change in consumer behavior and educating users to a conscious energy saving. Policies and initiatives of the government, in my opinion, is crucial to sustaining the positive environmental effects resulting use of sensors and sensor networks. One solution would be intense programmatic activity that has as its objective to demonstrate and promote the use of sensor technology through pilot projects which aim to offer a valuable support to the development of open standards.

5) Do you have quantitative results obtained to share in some of your projects or your customer?

Our company has always been involved in these issues and was one of the first to design and manufacture of embedded systems for remote monitoring of remote devices with the dual goal of automating the latter consistent with energy conservation. We were among the first in Italy to bring to market a system capable of controlling loads of equipment allowing the activation and deactivation as a function of energy-saving policies. Today the greatest needs of our customers are focused on monitoring the consumption of production machines. We are developing a system based on smart sensing technologies that we expect will allow a reduction in consumption estimated at between 10 and 30% depending on the types of application.

This is my contribution on the Round Table of the Fieldbus & Networks n. 82 (February 2015) Italian Magazine

Per scaricare l’articolo pubblicato sulla rivista seguire il link riportato di seguito http://www.intellisystem.it/portfolio/fn-febbraio-2015/

AO Aprile 2015 - Tavola Rotonda Open Source - Intellisystem Technologies

(Italian) Servizi professionali e prodotti Open Source

Servizio professionale e prodotti open source: quale offerta per l’impresa e quali i vantaggi. Ne parliamo con le aziende 

Con Cristian Randieri, president & CEO di Intellisytem Technologies; Andrea Ceiner, group product marketing manager m2m/IoT di Eurotech; Italo Vignoli, presidente onorario di LibreItalia; Danilo Maggi, marketing manager di Red Hat Italy.

Uno tra gli aspetti più interessanti che si sono sviluppati in parallelo (soprattutto grazie) allo sviluppo tecnologico, iniziato più di vent’anni, e la filosofia dell’Open Source. Dal punto di vista dell’utilizzatore finale dei moltissimi e differenti dispositivi tecnologici, probabilmente non sempre e ben chiaro cosa si nasconde dietro a concetti Open Source, Free Software, Creative Commons. Grazie a questa tavola rotonda, coordinata da un ‘non-esperto’ ma partecipata da esperti del mondo open source, vorremo fare chiarezza anche in vista dei prossimi obiettivi che l’innovazione tecnologica ci sta prospettando, primo tra tutti l’Internet of Thing.

_____

Di seguito riportiamo l’estratto dell’articolo riguardante le risposte date da parte del nostro Presidente e CEO Cristian Randieri

1)  Open Source è sinonimo di libero scambio che, almeno dal punto di vista della definizione, non dovrebbe portare a un guadagno economico diretto da parte di chi lo produce soprattutto quando si tratta di un nuovo progetto. Qual è il punto di vista e come si pone una società che produce e realizza i propri margini proprio sulla commercializzazione diretta o indiretta di questi prodotti?

E’ opinione pressochè comune che il software open source rappresenti il futuro dell’ICT. Purtroppo in Italia intorno all’open source c’è ancora molta diffidenza, dovuta molto probabilmente alla mancanza di una corretta informazione su cosa s’intenda per Open Source e in che modo questi può aiutare un’azienda a crescere. Per approcciarsi correttamente al mondo open source bisognerebbe prima capire cosa s’intende con questo termine. Considerando la definizione data da Wikipedia ‘open source indica un software i cui autori (più precisamente i detentori dei diritti) ne permettono, anzi ne favoriscono il libero studio e l’apporto di modifiche da parte di altri programmatori indipendenti’. Attenzione pero che open source non vuol dire gratis, o almeno non necessariamente ‘open source’. Nel corso degli ultimi anni il mondo delle soluzioni open source ha subito una notevole evoluzione passando dal mondo universitario a quello commerciale sino a rispondere a esigenze di tipo enterprice capaci di affiancare agli storici vantaggi in termini di ‘costi’ e possibilità di sviluppo, anche caratteristiche di robustezza, affidabilità e garanzia di continuità operativa. Anche il ‘modello di business’ del mondo open source si e evoluto, acquisendo regole, definendo processi e modalità di erogazione del servizio. Proprio questo consente oggi alle aziende che operano come integratori o sviluppatori di tali soluzioni di valorizzare il proprio business e proporsi al mercato con un’off erta alternativa attraverso la quale si possono garantire vantaggi con l’utilizzo di tali soluzioni, mantenendo il modello del mondo open source e ottenendo ritorni economici. Una società che basa la propria attività sull’open source sicuramente e in grado di offrire una valida alternativa ai tradizionali sistemi ‘proprietari’, sia per realizzare infrastrutture ICT, sia per implementare applicazioni di business.

2)   In genere si pensa ai prodotti open Source come poco userfriendly o con limitazioni nell’uso al pari di un prodotto commerciale analogo, limitandone l’utilizzo solo ai più esperti; l’evoluzione tecnologica e di conoscenze ha cambiato o sta ampliando il tipo e quindi il numero di utilizzatori?

Negli ultimi anni a livello internazionale le limitazioni d’uso di un prodotto open source rispetto a un prodotto commerciale stanno diminuendo sempre più e in alcuni casi addirittura l’open source riesce a fare molto di più, si pensi ad esempio alla piattaforma Apache-MySql che di fatto oggi copre il 70% del mercato. Non dimentichiamo che la soluzione open source e scelta anche da grandi colossi come ad esempio la tecnologia Java, supportata da IBM, Sun, Oracle, offrendo un esteso patrimonio di framework, librerie e soluzioni. Purtroppo lo scenario nel nostro Paese cambia di molto. Secondo un’indagine Istat in Italia solo il 12,2% imprese adotta tecnologie open source; di cui il 38,7% e rappresentato delle aziende aventi oltre 250 addetti. Quindi assistiamo all’apparente paradosso che il software libero e poco presente proprio nelle piccole-medie imprese che avrebbero i massimi benefici dalla sua introduzione, in primis di carattere economico. Purtroppo alla base di tutto c’è un problema di conoscenza e formazione. Molte di queste piccole realtà non hanno al loro interno competenze informatiche adeguate e ricorrono quasi totalmente a consulenti esterni che per la maggior parte delle volte hanno più interesse a far acquistare pacchetti software chiusi soggetti a licenza. In più le software-house che propongono le soluzioni open source sono poco visibili. Un po’ perchè sono troppo piccole per farsi pubblicità e un po’ perchè spesso quelle più grandi non si propongono come fornitrici di software libero perchè hanno più convenienza a ‘incorporarlo’ nelle loro soluzioni proprietarie. Italo Vignoli: I software open source sono spesso superiori, in termini di funzionalità, rispetto ai loro equivalenti proprietari. Basta pensare al browser Mozilla Firefox, superiore a Internet Explorer; al sistema di posta elettronica Mozilla Thunderbird, superiore a Microsoft Outlook; e al media player VLC, superiore a Windows Media Player. In tutti questi casi, nonostante lo strapotere di Microsoft, i software open source sono molto diffusi, e in alcuni casi hanno quote di mercato più ampie. Certo, in alcuni casi l’interfaccia dei prodotti open source e meno appariscente, in quanto si basa sui principi dell’ergonomia e non su quelli del marketing, per cui c’è la sensazione che sia anche meno efficace, ma tutte le ricerche indipendenti dimostrano che non e vero. Tra l’altro, oggi anche i sistemi operativi open source sono diventati facili da utilizzare anche per gli utenti di base, come nel caso di Ubuntu, che e simile a Windows per caratteristiche e funzionalità ma infinitamente superiore in termini di sicurezza e stabilità.

3)  Open Source può essere inteso come l’opposto del copyright, in qualità di aziende che hanno accumulato anni di esperienze e competenze specifiche nel proprio settore, vedete nella condivisione libera di (alcune) conoscenze una minaccia nel perdere quote a favore dei propri diretti competitor oppure viene vista come una nuova opportunità di crescita per un’evoluzione dei propri prodotti/servizi molto più rapida a favore dei propri clienti?

Indubbiamente l’open source nel tempo ha portato radicali cambiamenti nel mondo dell’informatica. Del resto, come di tutti i prodotti dell’ingegno umano l’evoluzione del software ha bisogno di conoscenza, e più questa e facile da reperire e da riutilizzare, più i prodotti si evolveranno e miglioreranno sulla base dei fallimenti e dei successi precedenti secondo la tecnica base della programmazione definita ‘trial and error’. Sono convinto che senza open source il mondo dell’informatica sarebbe rimasto una semplice moderna disciplina in grado di seguire le medesime regole che governano gli altri settori industriali in cui la conoscenza rimane nelle aziende che lo producono e gli sviluppatori, anche cambiando azienda, non potevano riutilizzare il codice tutelato dal Copyright. Di contro i prodotti open source non sempre rappresentano la panacea per l’utente finale, in quanto essendo sviluppato in modo libero e spesse volte non strutturato si rischia di trovarsi nelle mani un software che risulta essere non più aggiornato o peggio abbandonato. Per far fronte a questo problema sono nate le cosidette community che nella giungla dell’open source provano a dettare regole per garantire l’esistenza e la continuità dei progetti. Un’azienda che decide di lavorare con l’open source affronta diverse sfide quali fare concorrenza ai colossi assumendosi delle responsabilità verso i sui clienti, il tutto a vantaggio di una personalizzazione dei prodotti. Molte aziende startup nascono proprio da progetti open source. Del resto la collaborazione di più parti (in genere libera e spontanea) permette al prodotto finale di raggiungere una complessità notevolmente maggiore di quanto potrebbe ottenere un singolo gruppo di lavoro. L’open source ha tratto grande beneficio da Internet grazie al quale i programmatori geograficamente distanti possono coordinarsi e lavorare allo stesso progetto.

4)  Nel caso si condivida la filosofi a dell’open source, ritenete che oltre a un miglioramento delle caratteristiche dei propri prodotti/servizi si può pensare anche a una reale riduzione dei costi a favore degli utilizzatori finali?

Per quanto riguarda i vantaggi economici derivanti dall’adozione di un software open source la loro entità e variabile. Dipende infatti da quanto lavoro di configurazione e di personalizzazione deve essere fatto sul software-base. Nel caso di programmi che possono essere scaricati gratuitamente e immediatamente installati sul PC (come ad esempio Open Office) il risparmio e sicuramente del 100% in termini di licenze. In tanti altri casi (come ad esempio per le applicazioni lato server) sono richiesti interventi di configurazione e di personalizzazione. Questo e tanto più vero quanto più un programma e verticale, cioè specifico di un certo settore o filiera produttiva. Anche in questo caso si possono constatare risparmi che variano dal 30 al 50% rispetto a un software soggetto a licenza. Ma anche nei casi in cui il lavoro di personalizzazione di un software open source e particolarmente significativo, bisogna sottolineare che una volta personalizzato e installato il programma rimane nel pieno possesso dell’azienda. Questo significa svincolarsi di fatto dal fornitore iniziale.

5)  Nella vostra offerta verso i clienti finali ci sono o state prevedendo prodotti open source? Oppure partecipate attivamente allo sviluppo di soluzioni open source per realizzare i prodotti che poi immettete sul mercato?

Essendo il cuore della nostra azienda basato sull’integrazione dei sistemi, per ovvi motivi troviamo nell’open source un terreno molto fertile che ci permette di personalizzare le nostre soluzioni abbattendo i costi di sviluppo dei relativi software. Grazie all’open source negli ultimi anni il nostro time to market per quanto riguarda i nostri prodotti si è dimezzato. Nel caso specifico utilizziamo il software open source per programmare e personalizzare i nostri sistemi embedded svincolandoci da piattaforme proprietarie.

___________

Tavola Rotonda – Automazione Oggi N. 380 (Aprile 2015) pubblicato da Michele Santovito.

Per scaricare l’articolo pubblicato sulla rivista seguire il link riportato di seguito http://www.intellisystem.it/portfolio/ao-aprile-2015/

AO Marzo 2015 Tavola Rotonda Formazione per l'automazione - Intellisystem Technologies

(Italian) Formazione per l’Automazione

Training, aggiornamento, riqualificazione, formazione: facciamo il punto su come si stanno muovendo le aziende di automazione per ‘allenarsi’ e ‘vincere’ sul mercato, domani

Con Cristian Randieri, Ph.D., presidente e CEO di Intellisystem Technologies; Eliana Baruffi, corporate communication manager di ABB Italia e presidente di JA Italia – Junior Achievement;  Ivo Gloder, application engineer and service manager di Mitsubishi Electric Factory Automation; Paolo Colombo, marketing manager di Ansys; Luca Lepore, responsabile del programma Cisco Networking Academy; Fabrizio Conte, CSM country manager Italy di Rockwell Automation; Francesco Sangermani, commercial director di Socomec;  Gianfranco Mereu, responsabile delle relazioni con le scuole e le università della Schneider Electric.

Tutti noi conosciamo il detto latino ‘mens sana in corpore sano’: perchè la mente sia agile e scattante, il corpo non deve essere da meno, deve seguirla e per farlo deve allenarsi. Cosi, seguendo il parallelismo, potremmo parlare di azienda come ‘corpore’ e di individui come ‘mens’, anime dell’azienda. E quest’ultima, proprio come il ‘corpore’ che i romani volevano sempre in forma, deve fare in modo che le ‘sue’ persone, ossia tutti coloro che ne fanno parte e ne rappresentano la ‘mens’, siano aggiornate, informate sulle ultime novità tecnologiche, agili e pronte a cogliere le opportunità che l’innovazione off re, per poter essere essa stessa ‘scattante’, efficiente e ‘vincere’, non tanto sul piano sportivo, ma piùttosto su quello del mercato. E per avere personale ‘in forma’, occorre allenarlo, proprio come le squadre di calcio allenano il loro campioni, investendo in training, formazione continua, corsi di aggiornamento. Soprattutto in questo momento in cui la ‘fabbrica’ si sta trasformando per essere ‘smart’, alla luce di strategie come Industry 4.0, per sfruttare a pieno i vantaggi off erti dall’Internet of Things, dal cloud, dall’interconnessione di cose, processi, persone, e importante si introdurre nuove fi gure, aprirsi ai giovani, collaborare con scuola, università e istituti tecnici per attivare corsi e stage che avvicinino ‘accademia’ e mondo del lavoro, formando diplomati e laureati realmente in grado di inserirsi con profitto in azienda, ma è altresì cruciale aggiornare il personale interno, che oltretutto porta con se la ‘storia’ dell’azienda, l’esperienza. Rendere i lavoratori protagonisti consapevoli del cambiamento e fondamentale per il successo del cambiamento stesso. Vediamo ore come si stanno muovendo su questo fronte alcune aziende del settore.

_____

Di seguito riportiamo l’estratto dell’articolo riguardante le risposte date da parte del nostro Presidente e CEO Cristian Randieri

1)  Perché un’azienda dovrebbe investire in formazione?

La formazione, soprattutto per un Paese in difficoltà come siamo noi ora, dovrebbe essere imperativa. Cosi come negli anni ‘60, oggi occorrerebbe una spinta da parte dei giovani, che con la loro curiosità e dedizione dovrebbero far riemergere le capacita ‘italiane’. Per questo bisognerebbe intervenire nelle scuole, favorendo l’apprendistato all’interno delle aziende. Lato aziende, oggi esistono strumenti molto efficaci che, grazie alla tecnologia, permettono di assistere a webinar e collegarsi in remoto direttamente alle macchine del cliente per offrire assistenza e formazione. Occorre inoltre puntare sull’innovazione, di prodotto e di processo. Nel primo caso, l’innovazione tecnologica è uno dei fattori determinanti del successo competitivo delle imprese, poichè consente a queste ultime di proteggere i propri profitti grazie a elementi che le rendono uniche, differenziandole. Nel secondo, l’innovazione permette alle imprese di migliorare l’efficienza dei processi di produzione. Occorre quindi investire in innovazione per essere più competitivi ed efficienti e non solo a livello tecnologico, ma anche organizzativo e gestionale.

2)  Il mondo legato alle scuole e agli atenei è spesso visto come incapace di formare giovani che abbiamo competenze qualificanti per entrare nel mondo del lavoro: qual è la vostra esperienza in merito?

Personalmente ho constatato che dopo un breve entusiasmo iniziale i giovani si ‘impigriscono’ e vanno alla ricerca di mansioni routinarie, quando al contrario dovrebbero essere proprio loro il motore trainante delle aziende. Sin dai tempi dei miei studi in ingegneria mi ero accorto che la formazione universitaria che stavo ricevendo non era sufficiente per il lavoro che avrei voluto fare, poichè molte volte era puramente teorica. Ecco, tutto questo continua anche oggi a mancare.

3)  Quanto ‘costa’ all’azienda la formazione dei neoassunti? Quali sono le figure più difficili da formare? La formazione in azienda è comunque imprescindibile?

Il costo per la formazione dei neoassunti è considerevole, poichè tipicamente la loro esperienza è pressochè nulla e si limita al massimo a quella acquisita durante il lavoro di tesi. I costi più grandi si hanno per la certificazione delle persone. Le figure più difficili da trovare sono quelle che dovrebbero lavorare nei dipartimenti di ricerca e sviluppo, poichè in quell’ambito si richiedono figure professionali di un certo livello, che abbiano una forte motivazione e capacità di auto-organizzare il proprio lavoro. Sicuramente la formazione diretta è uno strumento imprescindibile, dato che è l’unica occasione per mettere i giovani di fronte al mondo reale del lavoro. Un ateneo o scuola non potrebbero mai simulare ciò che in realtà avviene in un’azienda.

4)  Ritenete utile stringere accordi o partnership con le scuole (per esempio per stage)? Cosa pensate dell’alternanza studio/ lavoro che in Italia stenta a decollare?

Sicuramente. Scuola/università e lavoro dovrebbero essere in simbiosi. Tutt’oggi cerchiamo di fare in modo che ciò avvenga, infatti molti giovani sviluppano la propria tesi in azienda da noi. Ma ciò non basta, occorrerebbe una vera e propria alternanza studio/lavoro in cui il giovane possa realmente capire per cosa è più portato. Molte volte i giovani alla domanda “Cosa ti piacerebbe fare in azienda?” non sanno rispondere. Il problema più grande è che questo tipo di attività non è affatto agevolata sia nel caso delle aziende (aumento dei costi), sia nel caso degli studenti (meno tempo per studiare)”.

5)  A fronte di temi ‘nuovi’ (cloud computing, Internet of Things, meccatronica, Industry 4.0) ritenete necessario fare formazione internamente, per riqualificare il personale e aggiornarlo?

Assolutamente, facciamo formazione interna, anche con l’ausilio delle moderne tecnologie. Il personale nel nostro caso non è mai ‘riqualificato’, poichè è sempre ‘aggiornato’, semmai aggiunge di anno in anno nuove competenze.

6)  La formazione sta diventando un servizio aggiuntivo da offrire a clienti e utenti finali: quale valore ha nel vostro business?

Nel nostro caso sta diventando una componente crescente, poichè oggigiorno le nuove tecnologie sono davvero tante, oltre a essere ‘bizzarre’ e rivoluzionarie, poichè molte volte si allontanano di molto dai vecchi metodi di lavoro. Intellisystem ha fatto dell’R&S il fulcro attorno al quale ruotano tutte le attività. Per noi l’unico modo di affermarci è quello di innovare, solo così possiamo competere con le aziende più grandi. Per questo i nostri collaboratori sono continuamente aggiornati e preparati per affrontare le nuove sfide tecnologiche e organizzative. Il nostro ‘segreto’ sta nell’acquisire nuove idee a partire dal mondo scientifico.

7)  I clienti vi chiedono formazione sui prodotti che fornite?

Nella maggior parte dei casi si. Dopo una breve seduta formativa occorre affiancare i clienti per qualche giorno, per il resto si lavora telematicamente da remoto.

8)  Quali argomenti ritenete siano più di appeal per gli utenti finali del mondo dell’automazione che chiedono di aggiornarsi?

Ritengo siano davvero tanti, sicuramente quelli che riguardano cloud computing, disaster recovery, data protection, Internet of Things.

___________

Tavola Rotonda – Automazione Oggi N. 379 (Marzo 2015) a cura di Ilaria De Poli.

Per scaricare l’articolo pubblicato sulla rivista seguire il link riportato di seguito http://www.intellisystem.it/portfolio/ao-marzo-2015/

AO Gennaio-Febbraio 2015 - Il mercato dell'ICT - Intellisystem Technologies

(Italiano) Il mercato dell’ICT

Sorry, this entry is only available in Italiano. For the sake of viewer convenience, the content is shown below in the alternative language. You may click the link to switch the active language.

L’annuale rapporto sull’ICT stilato da Assintel e Nextvalue fotografa un mercato statico e ancora ‘in ritardo’: occorre far ripartire la ‘macchina’ e ‘digitalizzare’ il Paese. Ma vediamo il parere di alcuni esperti del settore

Con Cristian Randieri, Ph.D., president e CEO di Intellisystem Technologies; Andrea Massari, country manager di Avnet Technology Solutions Italia; Filippo Ligresti, country manager di Dell Italia; Edoardo Albizzati, country manager di Exclusive Networks Italy.

L’analisi di un mercato deve partire dai suoi numeri e i dati che citiamo provengono da una fonte autorevole: Assintel (www. assintel.it), l’associazione nazionale delle imprese ICT, che ha recentemente realizzato l’annuale report, in collaborazione con Nextvalue (www.nextvalue.it). Il mercato che ne emerge è statico e la necessità è quella di far ripartire la ‘macchina’ per favorire davvero il Paese in senso digitale. Entrando nello specifi co, il valore del mercato italiano dell’ICT ha raggiunto i 24,3 miliardi di euro nel 2014, crescendo appena dello 0,7% sull’anno precedente. La crescita è visibile solo nei settori più innovativi e connessi alla ‘mutazione digitale’, per esempio il cloud computing. Per esso la spesa è cresciuta in un anno del 22%, risultato della somma della componente classica (+33%) e di quella di ‘business process as a service’ (+13%). L’hardware, per contro, continua a recedere (-1,6%) trascinato dal declino dei PC solo in parte controbilanciato dalla crescita di smartphone (+9,3%) e tablet (+5%). Interessante anche l’analisi della provenienza degli investimenti. Tutti i segmenti di mercato legati alla spesa pubblica in ICT continuano a calare, innescando forti dinamiche di downpricing a svantaggio dei vendor. Nel dettaglio, la spesa della pubblica amministrazione centrale si è contratta del 4,1%, quella degli enti locali del 3,9% e quella della sanità del 3,1%, mentre più contenuti sono stati i ribassi del commercio (-1,65) e dell’industria (-0,2%). In ogni caso, nulla di eccitante se si attendono segnali di ripresa dell’economia. Chi sembra invece tornare a investire sono i tradizionali ‘big spender’: le banche con un +3,2%, le assicurazioni (+3,1), le telecomunicazioni (+3,3%) e le utility (+4,4%). In lieve ripresa anche gli investimenti in ICT delle grandi aziende (+0,8%), mentre restano negativi quelli di piccole (-3,4%) e micro imprese (-2,3%). Una rifl essione è d’obbligo… Incrementare il mercato dell’ICT per crescere nel ventunesimo secolo è obbligatorio, ma è evidente la carenza culturale. Il nostro Paese ha realizzato il boom del dopoguerra basandosi sulla lotta all’analfabetismo. Un segno di sviluppo di quei tempi fu la trasmissione televisiva “Non è mai troppo tardi” con il Maestro Manzi. Oggi noi abbiamo bisogno del ‘Maestro Manzi digitale’, per far capire a quella buona metà del Paese che ‘non è mai troppo tardi’ per digitalizzarsi. Investire nella cultura digitale (e in parallelo nella digitalizzazione dei servizi della PA) signifi – cherebbe non soltanto rivitalizzare un mercato, ma anche contribuire all’emancipazione (digitale) del Paese. Abbiamo voluto coinvolgere primari attori del mercato ICT ponendo loro qualche domanda che toccasse un po’ tutti gli aspetti più attuali e prospettici del mercato. A loro la parola, con la certezza che anche loro sono convinti che “Non è mai troppo tardi”.

______

Di seguito riportiamo l’estratto dell’articolo riguardante le risposte date da parte del nostro Presidente e CEO Cristian Randieri

1)  L’accordo IBM-Apple sembra rivoluzionare il mondo del ‘mobile’ dedicato all’industria. Come vede l’evoluzione del manifatturiero verso il mondo iOS? La collaborazione tra questi due ‘giganti’ rappresenta un pericolo o un’opportunità?

L’accordo IBM-Apple nasce dalle mutue esigenze di espandere i rispettivi mercati. Poiché ognuna delle due aziende non invade il mercato dell’altra, un’alleanza era più che prevedibile. Dalla letteratura ufficiale sull’accordo si evince l’offerta di decine di soluzioni business specifiche per settore, app native, servizi cloud, una nuova offerta di assistenza e supporto su misura per le esigenze dei clienti business. Mi sembra che sia un tentativo di dominare il mercato della mobilità aziendale attraverso la creazione di un player tecnologico di riferimento. Credo che l’attenzione dei dipartimenti IT si stia spostando sempre più dai device alle app, data una marcata standardizzazione dei device stessi. Vedo come principale il problema dell’integrazione dei device e app mobili con l’infrastruttura aziendale e il parco applicativo già esistente. Detto questo, mi sembra che l’unione, in definitiva, sia un vantaggio reciproco per i due colossi, anche nell’ottica di una maggiore adozione di politiche Byod (Bring your own device) e data anche la diffusione di apparecchi Apple. Fatte queste premesse per le aziende come la mia penso si profilino due opzioni. La prima è quella di accettare l’alleanza ampliando la propria offerta e, ove possibile, integrandosi con le loro soluzioni. La seconda è quella di continuare per la propria strada rischiando di perdere sempre più quote di mercato. In conclusione, penso che la soluzione migliore sia una via di mezzo, ovvero sfruttare il loro canale specializzandosi in applicativi e hardware che siano progettati in modo verticale sui loro device e applicativi. Certamente è più facile a dirsi che a farsi. Occorrono investimenti per poter lavorare con le nuove piattaforme e i relativi standard, che di fatto sono proprietari. A ben vedere ci sarebbe anche l’opzione dell’attesa delle contromosse della concorrenza di IBM e Apple. Com’è noto la competizione porta vantaggi al mercato.

2)  Il cloud si fa sempre più strada nell’industria, oltre che nel privato. Oggi lo storage nella ‘nuvola’ porta a una rivoluzione dell’organizzazione lavorativa e dei modelli di business. È lampante però il problema della sicurezza. La sua azienda come vede questo problema? Pensa che le decisioni relative alla sicurezza informatica del cloud siano appannaggio del settore IT o che le business line operative debbano avere voce in capitolo?

Nonostante il cloud computing sia oggi parte integrante della vita digitale di quasi tutti gli utenti della rete, è la sicurezza l’argomento che ne fa dibattere l’utilizzo, soprattutto in azienda. Dai dati di F-Secure, emersi nella ricerca “Digital Company Survey 2013”, si evince che la sicurezza dei dati resta la preoccupazione principale che ostacola l’adozione di questi servizi da parte delle aziende. Il 45% delle realtà intervistate non usa il cloud per motivi di sicurezza. Sono le imprese con dai 50 ai 500 dipendenti le più scettiche nell’adozione delle tecnologie cloud, ritenute anche costose e poco performanti. Secondo il mio parere, il cloud computing è tutt’altro che insicuro, a condizione di studiare attentamente la soluzione da adottare. Il rischio più grande non è propriamente intrinseco all’offerta delle soluzioni cloud aziendali, ma deriva dal fatto che le aziende non sono capaci di fornire ai propri dipendenti un servizio online semplice e chiaro. Il dipendente non supportato nelle nuove tecnologie finirà per utilizzare il proprio account e le applicazioni personali al di fuori del controllo aziendale. Sicuramente questo rappresenta un rischio ben maggiore per la sicurezza dei dati. In conclusione, penso sia opportuna un’attenta e mirata opera di formazione in merito alla scelta e all’utilizzo del cloud in azienda.

3)  I ‘Big Data’ sono un argomento di grande attualità. Qual è la sua visione in merito? Quali sono le nuove frontiere analitiche di questa ‘miniera’? Come potrebbero gli advanced analytics influenzare il mercato dell’automazione e il mondo della produzione industriale?

Le sfide che si affrontano con i Big Data sono varie, ma forse la più importante è la comprensione del significato che essi possono assumere per le aziende. Essi consentono una visione illimitata di ciò che potrebbe essere il futuro. L’adozione a livello aziendale esige che la soluzione dei Big Data possa adeguarsi senza problemi alla struttura IT già esistente. I dati macchina ottenuti costituiscono la più recente e copiosa fonte di informazione. Per ottenere i vantaggi della Internet of Things sono essenziali un’estrema scalabilità, una gestione degli eventi in tempo reale e un abbassamento del time-to-vision. L’utilizzo e l’analisi dei Big Data consente alle aziende di creare e applicare modelli predittivi per raggiungere rapidamente gli obiettivi di performance aziendali prefissati. Concretamente, nel caso del mercato dell’automazione, si potrebbe immaginare un mondo in cui i sistemi intelligenti, Internet of Things, sensori e robotica si combinino per automatizzare le grandi aree di produzione, davvero lo ‘smart manufacturing’. Realizzare tutte le potenzialità della produzione con l’utilizzo dei Big Data è, al momento, qualcosa di davvero avveniristico. Dipendere dai Big Data potrebbe rappresentare la quarta rivoluzione industriale.

4)  La stampa 3D è una nuova frontiera dell’ICT che impatta direttamente sulla produzione. Che futuro vede per questa tecnologia?

Le potenzialità delle nuove tecnologie basate sulla stampa 3D sono sempre più al centro dell’attenzione di produttori e consumatori accompagnate da previsioni di molti venture capitaliste di società di ricerche. Si è provato a stimare, anche in termini economici, quale sarà il futuro della stampa 3D. Canalys, per esempio, prevede che il mercato globale della stampa 3D crescerà da 2,5 miliardi di dollari nel 2013 a 16,2 miliardi entro il 2018. È chiaramente troppo presto per sostenere che la manifattura additiva avrà la forza per sostituire i tradizionali processi produttivi. Sicuramente esistono vantaggi per grandi e piccole aziende: macchinari meno costosi, sostegno alla competitività di aziende artigiane iperspecializzate, condivisione di processi di design (crowd-design) e di ricerca di servizi (crowd-sourcing), allargamento della competizione anche alle piccole aziende, diffusione di un modello di lavorazione e commerciale digitale (si vendono file di lavorazione). Sono convinto che la stampa 3D avrà un notevole impatto sull’accorciamento delle supply-chain. Stampare in tre dimensioni i dati contenuti in un file di progettazione ha implicazioni importanti sulle logiche degli attuali sistemi di gestione logistica. È ipotizzabile che le grandi fabbriche possano essere sostituite da laboratori eco-sostenibili per la produzione di serie limitate e personalizzate di piccoli manufatti. La stampa 3D permette inoltre l’utilizzo di materiali innovativi e geometrie produttive molto complesse non riproducibili con lo stesso livello di precisione in un processo di assemblaggio.

5)  Parliamo di Agenda Digitale. Il problema infrastrutturale in Italia è ancora irrisolto. Diventi per un secondo il Presidente del Consiglio: qual è la sua ricetta per invertire il trend e avviare lo sviluppo digitale dando corpo e respiro non solo al mercato ICT, ma a tutto il mondo produttivo del Paese?

Il tema dell’Agenda Digitale è davvero da ‘allarme rosso’. La sua implementazione doveva essere una delle principali leve per lo sviluppo e la modernizzazione del Paese. Avrebbe dovuto consentire all’Italia il recupero del gap che da anni la separa dalle nazioni più virtuose nell’adozione dell’ICT. Purtroppo l’innovazione è frenata dalla burocrazia e sono impressionanti i ritardi accumulati dal Governo nell’adozione dei provvedimenti attuativi. Alla PA è impedita la transizione al digitale, i cittadini e le imprese non hanno a disposizione strumenti per un rapporto telematico con la PA, le imprese dell’ICT non possono investire per una cronica incertezza su standard e regole tecniche. Il ritardo nell’attuazione dell’Agenda Digitale è riconducibile anche all’evidente scarsa importanza che questi temi rivestono per il Governo. Dunque la mia ricetta: non servono nuove norme, bisogna applicare, presto e bene, quelle che ci sono già. Realizzare l’Agenda Digitale dovrebbe significare riorganizzare integralmente le PA, per ridurne i costi e per trasformarle da freno all’economia a strumento di promozione dello sviluppo. Operare a livello culturale sugli utilizzatori, imprese o cittadini che siano, per creare il giusto bacino d’utenza dei servizi che in parallelo devono essere messi a disposizione. Occorre creare dei tavoli di lavoro su progetti quadro da suddividere in sottogruppi operativi. La mia idea è quella di strutturare una governance informata e partecipata, di creare un luogo di riferimento per i funzionari della PA, soprattutto locale, che vogliano esporre i loro progetti e trovare modelli strutturali adeguati alle loro esigenze. Occorre rivoluzionare il metodo di lavoro finora applicato, serve innanzitutto definire un sistema di misurazione dei risultati dell’Agenda Digitale per poi individuare gli obiettivi e con essi la strategia globale da adottare. Si tratta di un metodo che avrebbe misuratori qualitativi e quantitativi in base ai quali elaborare le scelte più adeguate per il Paese.

Tavola Rotonda – Automazione Oggi N. 378 (Gennaio/Febbraio 2015) a cura di Vitaliano Vitale.

Per scaricare l’articolo pubblicato sulla rivista seguire il link riportato di seguito  http://www.intellisystem.it/portfolio/ao-gennaiofebbraio-2015-1/

EO News Settembre 2014 - Sistemi di Visione Parola alle aziende - Intellisystem Technologies

(Italian) Intervista a Cristian Randieri: Parola alle aziende “Sistemi di Visione”

1)  Qual’é la sua opinione riguardo l’andamento del mercato (rallentamento, crescita, forte incremento…)?

Durante gli ultimi 15 anni, la tecnologia dei sistemi di visione è maturata notevolmente, diventando in alcuni casi un indispensabile strumento per l’automazione di fabbrica. L’evoluzione dei sistemi di visione per applicazioni industriali è costante, e nei prossimi anni si assisterà ancora a una significativa estensione dell’insieme delle soluzioni disponibili. Intellisystem Technologies opera nel campo dei sistemi di visione da più di dieci anni ed è costantemente attenta alle evoluzioni del relativo mercato. Progressi nello sviluppo di nuovi sensori, nel processamento di segnali digitali, nelle Fpga, nei microprocessori, nell’elettronica e nei sistemi calcolo embedded hanno ampliato lo spettro applicativo della tecnologia applicata di sistemi di visione. Il mercato dei sistemi di visione è relativamente giovane, i primi sistemi sono stati sviluppati e impiegati per applicazioni militari negli anni ’40-’50. Occorre attendere sino agli anni ’80-’90 prima di avere una reale commercializzazione delle soluzioni e quindi la creazione di un mercato vero e proprio. In questi anni e sino ai primi anni del 2000 il mercato muove i primi passi utilizzando la tecnologia di quegli anni, non ancora così evoluta come quella dei nostri giorni. Lo studio condotto da Frost & Sullivan dal titolo ‘Analysis of the Global Industrial Machine Vision Market’ ha rilevato che nel 2012 il mercato ha prodotto un fatturato di 4,5 miliardi di dollari e stima che lo stesso raggiunga, entro il 2016, i 6,75 miliardi. Il rapporto include gli ambiti dei sistemi di visione, delle telecamere industriali, delle schede di acquisizione video, dei sistemi ottici e di illuminazione e dei software per sistemi di visione. La nostra esperienza ci evidenzia un forte incremento di richiesta di soluzioni inerenti i mercati tradizionali basati sui processi produttivi. I nostri clienti stanno applicando la visione industriale nelle linee di produzione a volumi elevati, compatibilmente con una domanda di soluzioni flessibili e rapide da integrare in tutti i sistemi di automazione per la fabbrica. Sebbene negli ultimi due anni la crisi del debito, insieme alle politiche di austerity e taglio dei costi di produzione abbiano comportato un nuovo assestamento, i player sono ancora ottimisti riguardo al futuro e parlano di una stabilizzazione del mercato a partire dal 2014, dopo il rallentamento subito negli scorsi anni.

2)  Quali sono le principali strategie adottate dalla vostra società sul breve/medio periodo per soddisfare al meglio le richieste di questo mercato?

Il mercato della visione artificiale tipicamente è suddiviso tra due player: i produttori di dispositivi e i system integrator. Nella prima categoria rientrano i grandi produttori di telecamere industriali, smart camera, sistemi di visione embedded, ai quali si aggiungono i produttori di sistemi di sviluppo software per le applicazioni di imaging. Alla seconda categoria appartengono invece realtà aziendali, tipo la nostra, che utilizzano i prodotti disponibili sul mercato per sviluppare soluzioni, aggiungendo competenze ingegneristiche dal punto di vista dello sviluppo software, dell’integrazione dei sistemi ed esperienza in settori specifici. Le principali strategie adottate dalla nostra azienda per incidere sul mercato della visione artificiale nascono dalle seguenti considerazioni: – I prodotti presenti sul mercato hanno caratteristiche tecniche o prestazioni talvolta insufficienti a rispondere alle necessità specifiche del cliente. – I dispositivi da impiegare possono essere troppo costosi per l’applicazione, perché pensati in origine per un utilizzo generico che non tiene in considerazione l’applicazione stessa. – È sempre più sentita la necessità di disporre di un prodotto altamente performante, con a bordo una tecnologia sempre più innovativa e sofisticata, ma allo stesso tempo caratterizzato da un costo competitivo. La nostra strategia di penetrazione di mercato si basa su un approccio di tipo ‘custom’ per la creazione di un prodotto personalizzato e specifico che sia al tempo stesso ottimizzato ed economicamente vantaggioso. In altre parole più tecniche, miriamo allo sviluppo di prodotti o sistemi “ad-hoc” che siano portatili e al tempo stesso scalabili su più piattaforme hardware e software. Una sfida che non molte aziende, allo stato attuale, sono in grado di raccogliere. Per poter trarre reale vantaggio da un tale tipo di approccio è infatti necessario, per qualsiasi produttore di dispositivi, poter contare su un partner system integrator con competenze tecnico ingegneristiche e strutture adeguate, dotato di un team specializzato in R&D operante in laboratori di sperimentazione che sia in grado di fornire soluzioni su misura, economicamente vantaggiose e, allo stesso tempo, rispondenti alle specifiche richieste del cliente. La versatilità, la flessibilità nei confronti delle esigenze del cliente e la capacità di diversificazione sono i nostri punti di forza imprescindibili per interfacciarci al mercato della visione con un approccio di tipo ‘custom’. Siamo convinti che un’azienda che racchiuda al suo interno tutte queste peculiarità può fare la differenza, in termini di competitività, per il proprio cliente, offrendo maggiore elasticità che consente di proporre soluzioni integrate e personalizzate.

3)  In che modo state implementando queste strategie (stipula di accordi/collaborazioni, nuove acquisizioni, investimento in attività di ricerca e sviluppo, in risorse umane…)?

Il segreto del nostro successo è tutto racchiuso nel nostro nucleo di R&D e nei nostri laboratori sperimentali in cui siamo in grado di costruire prototipi che andranno installati e validati a bordo macchina del cliente. Finalizzato il prodotto ‘custom’, i nostri ingegneri studiano e progettano nel dettaglio tutte le fasi di set up producendo una documentazione professionale, semplificando così l’attività del produttore che dovrà semplicemente installare i nostri sistemi sui propri macchinari, con un evidente risparmio in termini di tempistiche e costi. Le competenze a livello hardware acquisite dalla nostra azienda partono dalla conoscenza dei sensori di immagine presenti sul mercato per arrivare alla stipula di accordi di partnership con i maggiori produttori mondiali (Sony, Flir, Aptina e così via). I punti di forza della nostra realtà si basano sullo sviluppo in-house all’interno dei nostri laboratori di R&D delle attività che spaziano dall’integrazione dei sensori di immagine allo sviluppo dell’hardware su piattaforme embedded passando dalla progettazione delle schede elettroniche, lo sviluppo di firmware, alle prove di compatibilità elettromagnetica, alla progettazione meccanica sino ad arrivare ai test ambientali, termici e di compatibilità EMC.

4)  Quali sono i settori applicativi più promettenti?

Storicamente i sistemi di visione hanno avuto più successo in applicazioni dove sono stati integrati nel processo di produzione. Ad esempio, le macchine per l’assemblaggio dei circuiti stampati. Tuttavia, continui miglioramenti in termini di costi, prestazioni, robustezza algoritmica e facilità d’uso hanno incoraggiato l’uso di sistemi di visione nell’automazione della produzione in generale. Ulteriori progressi in questi settori caratterizzeranno il futuro della visione artificiale, incoraggiando nell’arco dei prossimi anni la progettazione e realizzazione di nuovi sistemi da utilizzare in nuovi piani di produzione. Pensiamo che il futuro dei sistemi di visione in termini di diffusione in nuovi settori applicativi debba includere tre fondamentali caratteristiche: 1. Devono essere sempre più veloci, ovvero devono essere sempre capaci di tenere il passo con i più moderni tassi di produzione. 2. Devono essere sempre più intuitivi e facili da usare. La facilità di utilizzo non implica solo un livello superiore in termini di “point-and-click” nell’interfaccia grafica, ma anche una gestione multilivello e la garanzia di accesso completo a tutti gli utenti del sistema previsti con diversi livelli di autorizzazioni. 3. Devono essere sempre più flessibili, portatili e scalabili al fine di essere facilmente ricollocati in funzione delle normali variazioni dei processi di produzione in cui verranno impiegati. Fatta questa premessa pensiamo che i settori più promettenti per i sistemi di visione siano quelli che spaziano tra l’elettronica, i prodotti farmacologici, i sistemi d’imballaggio, i dispositivi medici e i prodotti automotive senza nulla togliere ai prodotti consumer.

5)  Quali sono i principali fattori che distinguono la vostra azienda rispetto ai concorrenti?

Sicuramente è il nostro approccio ‘custom’ che ci permette di ottenere un sistema di visione maggiormente integrato e compatto, con minori consumi e quindi massima affidabilità, riuscendo a garantire al produttore che lo utilizzerà sui propri macchinari un sicuro vantaggio tecnologico. Questo significa, per una realtà come Intellisystem Tecnologies, avere la capacità di fornire una tecnologia definibile ‘su misura’, con in se una grande capacità di portare innovazione grazie all’impegno di una squadra di esperti in R&D. La grande flessibilità della nostra struttura ci consente di rispondere a ogni richiesta specifica del nostro cliente fornendo, ad esempio, anche soltanto la piattaforma hardware senza quella software. Allo stesso modo, la nostra capacità di realizzare un prodotto finito (hardware e software) permette ai nostri clienti di ottenere prestazioni e affidabilità difficilmente raggiungibili in altro modo. I sistemi di visione sviluppati secondo la nostra filosofia portano un grande beneficio tecnologico consentendo ai nostri clienti OEM di ottenere macchine più performanti e sicure rispetto a quelle della propria concorrenza. Ma non solo, i nostri clienti OEM grazie alle nostre tecnologie hanno uno strumento per la creazione di applicazioni personalizzate di visione che gli permette di spingersi sino alla creazione di nuovi strumenti veri e propri garantendogli un più rapido “time-to-market”.

6)  Pur non avendo la sfera di cristallo, quali sono le previsioni sul lungo termine?

Le tendenze hardware e software evidenziate continueranno a intensificarsi in futuro. L’hardware sempre più veloce, unitamente a strumenti più intelligenti e software applicativi e di sviluppo più perfezionati, consentirà una proliferazione più ampia e più profonda della visione artificiale nel settore manifatturiero. Tuttavia, attraverso i recenti progressi in termini di riduzione dei costi di produzione, insieme all’aumento di prestazioni, robustezza e facilità d’uso, faranno sì che il mercato dei sistemi di visione si espanda sempre più a ritmi sempre crescenti difficilmente ipotizzabili sino a pochi anni fa. Allo stesso tempo, gli ultimi 15 o 20 anni di applicazioni di sistemi di visione all’interno delle fabbriche hanno fatto maturare una grande esperienza dei produttori sugli usi ottimali di questi sistemi facendo maturare anche la consapevolezza che i confini applicativi di oggi continueranno a muoversi verso l’esterno. I produttori di macchine industriali in futuro considereranno la visione a bordo macchina non come una semplice curiosità, ma piuttosto come uno strumento maturo da impiegare sempre più nei loro processi di produzione. Anche se molti dei potenziali utenti di queste tecnologie potrebbero voler attendere nuove tecnologie del futuro – tra cui hardware più veloce e il software più intelligenti – gli sviluppi più recenti della tecnologia dei sistemi di visione implicano che “il futuro è adesso”, oggi è il momento più proficuo per investire in queste tecnologie.

__________

Intervista a Cristian Randieri, Presidente e CEO di Intellisystem Technologies, pubblicata sulla rivista EONews N. 578 – Settembre 2014.

Per scaricare l’articolo pubblicato sulla rivista seguire il link riportato di seguito http://www.intellisystem.it/portfolio/eonews-settembre-2014/

Intellisystem Technologies