Tag: cloud computing

(Italiano) 139 AO 399 Giugno/Luglio 2017 – Tavola Rotonda “Edge e Cloud Computing”

(Italiano) 139 AO 399 Giugno/Luglio 2017 – Tavola Rotonda “Edge e Cloud Computing”

Sorry, this entry is only available in Italiano.

un vantaggio strategico per ridefinire le modalità in cui un’azienda può sviluppare i suoi servizi, fornirli ai suoi clienti e gestire in modo eciente le sue operazioni. Ne parliamo con le aziende

Quando nel 2006 è stato lanciato l’Amazon Web Service pochi ipotizzavano che questo servizio avrebbe raggiunto un valore di oltre 3 miliardi. La crescita esponenziale dell’Internet of Things ha, poi, ulteriormente contribuito alla diffusione del cloud e alla conseguente esplorazione di nuove applicazioni, l’Edge Computing è una di queste. Il passo successivo è quello di far diventare l’Edge Computing l’architettura dominante per tutte le applicazioni data driven.

La voce dei protagonisti

Con Christian Eder, marketing director di Congatec; Giuseppe Surace, chief product & marketing officer di Eurotech; Cristian Randieri, predicente & CEO di Intellisystem Technologies (www.intellisystem.it); Alberto Griffini, product manager avanced PLC & Scada di Mitsubishi Electric; Alberto Olivini, portfolio consultant motion control di Siemens Italia; Lodovico Piermattei, consulting & solution engineer di Vertiv in Italia; Locatelli Claudio, membro del comitato scientifico SPS IPC Drives Italia.

 

______

Di seguito si riporta l’estratto dell’Intervista riguardante le risposte date da parte del Presidente e CEO Cristian Randieri.

Automazione Oggi: Il concetto di architettura a tre livelli si è completamente trasformato rispetto a quello degli anni ‘90, quando era basato su interfaccia, business logic e database. In che modo l’Edge Computing sta cambiando l’attuale concetto di architettura a tre livelli i cui pilastri sono il cloud, il machine learning e il fast data?

Cristian Randieri, presidente & CEO di Intellisystem Technologies (www.intellisystem.it): L’uso delle infrastrutture cloud ha permesso di rendere virtuale e scalabile la ben consolidata architettura a tre strati. L’evoluzione dei dispositivi IoT ha prodotto una nuova classe di applicazioni aventi caratteristiche molto stringenti per quanto riguarda la modalità di interazione e connessione tra la sorgente di produzione dei dati e la risorsa che li elabora. Ciò si traduce in un aumento della latenza, spesse volte intollerabile per alcune applicazioni che spaziano dalla realtà aumentata sino alla guida autonoma nel contesto automotive. Di conseguenza, occorre spostare le risorse in un punto della rete più vicino alla produzione dei dati utilizzando il modello Edge Computing, da cui nasce la definizione di una nuova infrastruttura di rete a tre livelli che inserisce risorse utilizzabili direttamente sull’edge della rete.

A.O.: Secondo l’ABI il valore di mercato dell’IoT raggiungerà i 23 miliardi di dollari entro la fine del decennio. Altri studi atte-stano che il numero dei dispositivi connessi attraverso l’IoT è di circa 5 miliardi. Con il suo diffondersi l’Edge Computing è destinato a diventare il principale strumento per la raccolta dei dati. I vantaggi rispetto ai suoi lontani ‘antenati’ sono facilmente riconoscibili, ma quali sono le applicazioni attuali e future  per le principali industrie italiane?

Randieri: È ovvio supporre che le applicazioni attuali e future per le principali industrie italiane riguarderanno tutti i progetti che richiedono minore latenza, maggiore flessibilità e più capacità di elaborazione a livello locale. Mi riferisco a tutti quei progetti industriali basati sull’Internet of Things che richiedono applicazioni realtime sul territorio, quali ad esempio la Smart Mobility e le Smart City, ovvero tutte quelle applicazioni in cui il tempo di latenza è un fattore cruciale che può essere risolto con soluzioni specifiche e verticali rappresentate dall’Edge Computing o meglio dagli Edge Data Center.

A.O.: Ad oggi i settori più restii nell’applicazione di soluzioni cloud ed edge rimangono quello pubblico e quello finanziario. Quali sono le soluzioni più adatte alle imprese di questi settori?

Randieri: Malgrado a oggi questi settori rimangono ancora quelli più restii nell’applicazione di soluzioni cloud ed edge, è noto che nel settore finanziario i millisecondi possono fare una differenza drammatica per gli algoritmi di trading e che in quello sanitario le informazioni sui pazienti in tempo reale possono marcare il confine tra la vita e la morte. Questi scenari richiedono, quindi, velocità e scalabilità, raggiungibili con l’implementazione di un’architettura di calcolo edge, capace di ottimizzare in loco la sicurezza e, soprattutto, il tempo d’elaborazione dei dati.

A.O.: Dal lato delle SMB (Server Message Block), invece, come si può rispondere all’esigenza di allineare le architetture in cloud con l’Edge computing?

Randieri: Per rispondere all’esigenza di allineare le architetture cloud con l’Edge Computing le SMB devono in primis attuare quello che viene definito ‘Shift in Corporate Thinking’ unitamente a una maggiore comprensione dell’architettura Edge da configurare e adottare. In generale, senza dubbio è possibile ottenere una riduzione dei costi garantendo un servizio migliore data-oriented con piattaforme più efficienti appositamente progettate.

A.O.: L’infrastruttura IT di un’azienda è sempre più sotto pressione per lo smisurato volume di dati che vengono processati. L’integrazione tra Cloud ed Egde Computing fornisce una valida risposta in termini di ottimizzazione dell’infrastruttura, ma come si inserisce il Fog Computing in questo scenario?

Randieri: Da più fonti il Fog Computing è indicato come il paradigma di elezione per l’Internet of Things, che vede sempre più oggetti interconnessi in rete per scambiare dati da elaborare e analizzare. In realtà riportare l’elaborazione più vicina alla fonte dei dati si rivela di grande utilità anche in molti altri contesti, come le Smart Grid nel contesto di un’ottimizzazione della comunicazione m2m, anche per le stesse Smart City spinte dall’esigenza di portare le decisioni sempre più vicine al luogo in cui vengono acquisiti i dati.

A.O.: Integrazione, automazione e analisi sono le tre sfide che continuano a guidare lo sviluppo delle infrastrutture IoT. Quali sono le soluzioni che proponete per rispondere ecacemente queste sfide?

Randieri: Le soluzioni che intendiamo proporre nel prossimo futuro riguardano l’unificazione delle piattaforme di networking per il supporto eterogeno di varie tecnologie di networking. Siamo convinti di poter offrire nuove metodologie d’integrazione delle tecnologie siano esse operative sia dell’informazione. La tecnologia fog amplierà di fatto l’offerta di nuovi servizi che il Cloud Computing da solo non potrà sostenere, come ad esempio quelli di sicurezza. È proprio a tali servizi di sicurezza che stiamo puntando pensando di offrire nuove soluzioni capaci di includere il monito-raggio locale dello stato di sicurezza degli endpoint, delle credenziali di protezione e degli aggiornamenti software agli endpoint, nonché la rilevazione e la protezione di malware per conto degli endpoint stessi. Cooperando con altri fornitori di servizi e infra-strutture locali intendiamo offrire la tecnologia fog come servizio capace di permettere agli utenti di accedere a sistemi fog privati e pubblici distribuiti prossimi ad essi. In altre parole intendiamo offrire ai nostri clienti un servizio fog chiavi in mano.

 

Tavola Rotonda – Automazione Oggi N. 399 (Giugno/Luglio 2017), pubblicata da S. Beraudo.

Per scaricare l’Intervista completa pubblicata sulla rivista, seguire il link riportato di seguito https://www.intellisystem.it/it/portfolio/ao-giugno_luglio-2017-3

AO Luglio-Agosto 2015 Tavola Rotonda Cloud Computing - Intellisystem Technologies

(Italian) Cloud Computing: i pro e i contro

Esperti del settore provano a dare indicazioni utili per l’utilizzo consapevole del cloud computing    

Tutti parlano di cloud ma non tutti sanno esattamente quali sono i pro e i contro della nuvola. Abbiamo provato a chiederlo a esperti come Paolo Colombo, european strategic programs manager di Ansys, Bruno Pierro, service creation and cloud leader di Cisco Italia, Cristian Randieri, presidente e CEO di Intellisystem Technologies e Francesco Tieghi, responsabile digital marketing di ServiTecno. Vediamo cosa hanno risposto.

_____

Di seguito riportiamo l’estratto dell’articolo riguardante le risposte date da parte del nostro Presidente e CEO Cristian Randieri

1)   Parliamo di cloud computing: cloud pubbliche e cloud private. Quale la differenza? 

Il cloud pubblico prevede la fornitura di servizi cloud a molteplici clienti in un ambiente virtualizzato, basato su un’unica infrastruttura condivisa di risorse fisiche accessibili tramite una rete pubblica come Internet. In un certo senso si contrappone alla definizione di cloud privato, che delimita il bacino di risorse di computing sottostanti, creando una piattaforma cloud distinta a cui può accedere solo un’unica organizzazione. In realtà la distinzione non è proprio così netta tant’è vero che esistono pure i cloud ibridi. Sono una nuova formulazione di cloud che sfruttano i cloud sia privati sia pubblici per svolgere funzioni distinte all’interno della stessa organizzazione. I cloud ibridi nascono dall’esigenza delle varie organizzazioni di incrementare la propria efficienza utilizzando servizi cloud pubblici per tutte le operazioni non sensibili e affidarsi al cloud privato esclusivamente in caso di necessità, facendo in modo che tutte le piattaforme siano perfettamente integrate tra loro. Esistono diversi modelli di cloud ibridi che possono essere applicati in svariati modi: modello integrato, diversi cloud provider collaborano per fornire servizi sia privati che pubblici; modello ibrido completo, singoli cloud provider offrono un pacchetto ibrido completo; modello misto, organizzazioni che gestiscono autonomamente i propri cloud privati utilizzando e integrando nella propria infrastruttura un servizio di cloud pubblico. In un esempio pratico si potrebbe pensare a un’azienda che adotti il cloud hosting ibrido per ospitare il proprio sito web di e-commerce all’interno di un cloud privato, più sicuro e scalabile, adottando invece un cloud pubblico per ospitare il sito vetrina a favore di un maggiore risparmio economico. Infine esiste anche il community cloud in cui l’infrastruttura su cui sono installati i servizi cloud è condivisa da un insieme di soggetti, aziende e organizzazioni, che condividono le stesse esigenze e hanno uno scopo comune, come ad esempio potrebbero essere i vari soggetti della pubblica amministrazione. L’infrastruttura può essere gestita dalla comunità stessa, oppure da un fornitore di servizi esterno.

2)   Quali sono le componenti di questa nuova tecnologia?

Utilizziamo come riferimento la definizione di cloud computing proposta dal National Institute of Standards and Technology (Nist) possiamo individuare in modo chiaro le componenti che identificano questa tecnologia. Server: i server fisici forniscono macchine ‘host’ per più virtual machine (VM) o guest. Un hypervisor in esecuzione sul server fisico assegna dinamicamente le risorse host (CPU, memoria) a ciascuna macchina virtuale. Virtualizzazione: le tecnologie di virtualizzazione traspongono elementi fisici e posizione su un piano astratto. Le risorse IT (server, applicazioni, desktop, storage e networking) sono svincolate dai dispositivi fisici e sono presentate come risorse logiche. Storage: storage – SAN, NAS (Network Attached Storage) e i sistemi unificati forniscono lo storage per blocchi di dati e dati di file primari, per l’archiviazione dei dati, per le funzioni di backup e per la prosecuzione dell’attività aziendale. I componenti avanzati del software di storage vengono utilizzati per big data, replica dei dati, spostamento di dati tra cloud e high availability. Rete: consente di cambiare i server fisici di interconnessione e lo storage. I router forniscono la connettività LAN e WAN. Altri componenti di rete forniscono la protezione mediante firewall e il bilanciamento di carico del traffico. Gestione: la gestione dell’infrastruttura cloud comprende organizzazione delle azioni server, rete e storage, gestione della configurazione, monitoraggio delle prestazioni, gestione delle risorse di storage e misurazione dell’utilizzo. Sicurezza: i componenti garantiscono la sicurezza delle informazioni e l’integrità dei dati, soddisfano i requisiti di conformità e riservatezza, gestiscono i rischi e forniscono la governance. Backup e ripristino: viene eseguito il backup automatico su disco o nastro di server virtuali, NAS e desktop virtuali. Gli elementi avanzati forniscono protezione continua, più punti di ripristino, deduplica dei dati e disaster recovery. Sistemi di infrastruttura: il software e l’hardware pre-integrati, come i sistemi di backup completo con la piattaforme di deduplica e premontate in rack contenenti server, hypervisor, rete e storage, semplificano l’implementazione dell’infrastruttura cloud e ne riducono ulteriormente la complessità.

3)   Perché riscuote così tanto successo?

Perché a causa dei complessi processi legati all’acquisizione delle componenti infrastrutturali (server, storage, terminali ecc.) e dei relativi tempi di realizzazione e di integrazione, il mantenimento di una infrastruttura informatica adeguata e aggiornata rappresenta una delle principali criticità per le PMI e le pubbliche amministrazioni. In altre parole le chiavi di successo sono 6. Self-service su richiesta: un cliente può richiedere risorse computazionali senza richiedere un intervento umano dei fornitori dei servizi stessi. Tutto questo grazie alla virtualizzazione, ovvero, un insieme di tecnologie che permette di condividere i server e lo storage, di aumentarne radicalmente il tasso di utilizzo e di spostare facilmente le applicazioni da un server fisico a un altro. Accesso a banda larga: le risorse sono raggiungibili tramite la rete, la cui banda deve essere adeguata all’uso specifico richiesto compatibilmente alle piattaforme client adottate (ad esempio telefoni cellulari, computer portatili, o computer palmari). Risorse comuni: le risorse di calcolo del fornitore cloud vengono organizzate utilizzando il modello ‘multi-tenant’, in cui le risorse fisiche e virtuali sono assegnate dinamicamente a seconda della richiesta dei clienti indipendentemente dalla loro locazione fisica. Elasticità: le risorse possono essere fornite e rilasciate rapidamente in modo elastico, per modulare velocemente la capacità computazionale dando all’utente l’idea di avere delle risorse disponibili in qualsiasi quantità e in qualsiasi momento. Servizi monitorati: i sistemi cloud controllano e ottimizzano automaticamente l’utilizzo delle risorse, sfruttando la capacità di misurarne l’utilizzo da parte dell’utente. Ciò è molto importante per permettere al fornitore di reagire a eventuali picchi di richiesta allo scopo di garantire al cliente la QoS contrattualizzata. Pay per use: l’utente paga solamente in base all’effettivo sfruttamento delle risorse. Questa caratteristica permette all’utente un notevole risparmio sulle risorse IT, in quanto può ridurre la quantità di risorse elaborative presenti presso le sue strutture e conseguentemente il personale per la loro gestione, trasferendo al fornitore di servizi il rischio di inutilizzo delle stesse.

4)   Come un’azienda può valutare i diversi modelli di servizio? Può un’azienda provare i vari servizi offerti? E come può riconoscere la soluzione giusta per lei?

Prima di optare per l’adozione di servizi di cloud computing, configurandone la migliore soluzione, è opportuno che l’azienda verifichi la quantità e la tipologia di dati che intende esternalizzare (es. dati personali identificativi o meno, dati ecc.). È di primaria importanza valutare gli eventuali rischi e le possibili conseguenze derivanti da tale scelta sotto il profilo della riservatezza e della loro rilevanza nel normale svolgimento della propria attività. Tale analisi valutativa dovrà evidenziare l’opportunità o meno di ricorrere a servizi cloud (limitandone l’uso ad esempio a determinati tipi di dati), nonché l’impatto sull’utente in termini economici e organizzativi, l’indisponibilità, pur se parziale o per periodi limitati, dei dati esternalizzati o, peggio, la loro perdita o cancellazione. Successivamente occorre documentarsi su quali siano i modelli di servizio cloud più comunemente offerti dai provider, ovvero: SaaS (Software as a Service) che indica qualsiasi servizio cloud tramite il quale i consumatori possono accedere ad applicazioni software tramite Internet. Le applicazioni ospitate su cloud possono essere utilizzate per una vasta gamma di attività, sia da individui che da organizzazioni. Alcuni esempi di SaaS sono di fatto realtà come Google, Twitter e Facebook. PaaS (Platform as a Service), categoria di cloud computing che fornisce agli sviluppatori una piattaforma e un ambiente per costruire applicazioni e servizi su Internet per cui gli utenti accedono ai propri servizi tramite il proprio browser web. IaaS (Infrastructure as a Service), dove la risorsa cloud è un’infrastruttura di elaborazione ovvero un hardware virtualizzato. In questa categoria ricadono servizi come ad esempio: lo spazio virtuale su server, connessioni di rete, larghezza di banda, indirizzi IP e bilanciatori di carico. Il cliente mediante le componenti virtualizzate costruisce le proprie piattaforme IT. A questo punto dopo una prima analisi e la scelta del servizio più adatto alle proprie esigenze si può pensare di iniziare a fare un’analisi di mercato per la scelta del provider più adatto. Personalmente penso che anziché provare diversi servizi alla ricerca del migliore sia più vantaggioso fare un’analisi e quindi una progettazione a monte per individuare a priori la soluzione più adatta alle proprie esigenze.

5)   I dati, si sa, sono la linfa vitale delle aziende e molti sono sensibili. Dove vengono, normalmente, archiviati? Quali i rischi? Come si possono riavere se si decide di cambiare provider?

Nel corso della nostra attività abbiamo constatato un quadro, è a dir poco disastroso. Purtroppo la maggioranza delle PMI, tranne quelle che operano nel settore ICT, non riesce nemmeno a percepire il possibile danno dovuto dalla perdita accidentale dei dati se non quando vissuto in prima persona. In molte delle PMI non esistono nemmeno dei server, al massimo ci si limita a un PC di prestazioni più elevate che condivide il proprio HD in rete. Le aziende leggermente più evolute adoperano i NAS, che solitamente sono di tipo consumer per il contenimento dei costi, ignorando che seppur avendo una ridondanza dei dati in termini di HD non hanno alcuna ridondanza a livello hardware del NAS stesso. In questo caso il rischio più grosso consiste quando questo si danneggia poiché è necessario provvedere al recupero dei dati dalla configurazione Raid dei dischi supportati causando di fatto una sospensione della normale operatività dell’azienda con danni sicuramente non indifferenti per l’azienda stessa. Per riavere i dati diciamo che tutto dipende da come è stato selezionato il fornitore di servizi cloud, se questi è conforme agli standard e alle altre caratteristiche tecnologiche che garantiscano portabilità e interoperabilità dei servizi erogati. Occorre sempre richiedere al fornitore di servizi cloud la garanzia che i servizi cloud possano essere trasferiti su piattaforme di fornitori differenti o che possano essere riportati all’interno dell’organizzazione cliente con il minimo di impatto, evitando il rischio di legarsi a un unico cloud provider ‘vendor lock-in’. I requisiti di portabilità devono essere realizzati attraverso l’adozione di standard di portabilità per il cloud che sono: per la portabilità dei dati il Cloud Data Management Interface (Cdmi), in grado di definire le tipologie di interfacce che le applicazioni dovranno usare per creare, recuperare, modificare e cancellare i data element su un cloud; per la portabilità dei sistemi l’Open Virtualization Format (OVF), che definisce lo standard per la creazione e la distribuzione delle macchine virtuali.

6)   Come si valutano i fornitori?

Sicuramente la regola base è quella che prevede la selezione del fornitore più adeguato, quello cioè in grado di dimostrare la propria capacità di fornire competenze, processi e risorse che siano superiori a quelli interni. Ecco alcune regole da seguire dettate dalla nostra esperienza. Accertare l’affidabilità del fornitore prima di migrare sui sistemi virtuali i propri dati più importanti, la quantità e la tipologia delle informazioni che intendono allocare nella cloud, i rischi e le misure di sicurezza. Valutare la stabilità societaria del fornitore, le referenze, le garanzie offerte in ordine alla confidenzialità dei dati e alle misure adottate per garantire la continuità operativa a fronte di eventuali e imprevisti malfunzionamenti. Valutare le caratteristiche qualitative dei servizi di connettività di cui si avvale il fornitore in termini di capacità e affidabilità; ovvero l’impiego di personale qualificato, l’adeguatezza delle infrastrutture informatiche e di comunicazione, dalla disponibilità ad assumersi responsabilità previste dal contratto di servizio derivanti da eventuali falle nel sistema di sicurezza o a seguito di interruzioni inattese di servizio. Privilegiare i servizi che favoriscono la portabilità dei dati: è consigliabile ricorrere a servizi di cloud computing nelle modalità SaaS, PaaS o IaaS in un’ottica di servizi basati su formati e standard aperti, che facilitino la transizione da un sistema cloud a un altro, anche se gestiti da fornitori diversi. Informarsi su dove risiederanno concretamente i dati: sapere in quale Stato risiedono fisicamente i server sui quali vengono allocati i dati è determinate per stabilire la giurisdizione e la legge applicabile nel caso di controversie tra l’utente e il fornitore del servizio. Ciò potrebbe rappresentare una limitazione per l’autorità giudiziaria nazionale nel dare esecuzione a ordini di esibizione, di accesso o di sequestro, ove sussistano i presupposti. Fare attenzione alle clausole contrattuali. Una corretta e oculata gestione contrattuale supporta sia l’utente, sia il fornitore nella definizione delle modalità operative e dei parametri di valutazione del servizio, oltre a individuare i parametri di sicurezza necessari per la tipologia di attività gestita.

___________

Tavola Rotonda – Automazione Oggi N. 383 (Luglio/Agosto 2015), pubblicata da Antonella Cattaneo.

Per scaricare l’articolo pubblicato sulla rivista seguire il link riportato di seguito  http://www.intellisystem.it/portfolio/ao-luglioagosto-2015-2/

Intellisystem Technologies