Il Cloud Computing è già da molti considerato come il principale motore tecnologico dell’ultimo decennio, dal 2010, anno in cui giganti come Google, Amazon o Microsoft hanno annunciato i loro primi servizi in quest’ambito. Inizia qui la nascita di un’opzione che si è innovata nel corso del tempo, modificando in un certo senso la sua idea iniziale. Nuove tecnologie come computing senza server, edge computing, intelligenza artificiale o IoT, risultano tutte decisive per il presente e il futuro della nube, che esperti e consulenti come Gartner, Forrester o 451 stanno osservando con grande attenzione.

Anche se forse sarebbe più appropriato parlare di nuvola al plurale, a causa della diversa tipologia di combinazioni possibili, tra privata, pubblica e ibrida, alla fine, il Cloud è un core di dati centralizzato che gestisce in remoto migliaia di server fisici. Tuttavia, una delle maggiori opportunità che si sono aperte negli ultimi anni ha a che fare con un nuovo modello di infrastruttura, noto come edge computing, che offre un accesso quasi istantaneo ai dati da parte del cliente.

Molti ritengono che sia necessario scommettere su questa capacità di calcolo ai margini della rete, in cui si prevede risiederanno a breve tempo molti più dati rispetto alle attuali data center e nubi. Però, senza un’architettura informatica unica, capace di dominare questo settore in crescita, (con più fornitori, designer di microchips, giganti del Cloud o nuovi attori) il suo futuro rimane ancora molto incerto.

Fenomeni imminenti come la tecnologia 5G o l’internet delle cose stanno forzando questa transizione al limite della rete e i fornitori di telecomunicazioni li vedono come una valida alternativa che sarà in grado di alleggerire le loro infrastrutture. In caso negativo, le linee principali verranno sopraffatte.

I veicoli senza conducente, ad esempio, non possono permettersi nessuna latenza, e colossi come Reneas, NXP, Tesla e Intel sono in competizione per sviluppare un hardware che sia in grado di attuare nel veicolo stesso. Per altri dispositivi connessi invece, come le telecamere di sicurezza, investire in un hardware in grado di eseguire pre-processi significa generare risparmi significativi.

In poche parole, l’informatica più pesante si sta applicando più vicino al nucleo, nel data center, mentre il computing leggero viene lasciato al margine, dove risulta più rilevante la potenza e i costi per avvicinarla ai clienti. Questa esplosione del perimetro della rete si verifica contemporaneamente ad un’altra enorme trasformazione: l’intelligenza artificiale.

Poiché i dispositivi informatici “al limite” sono progettati appositamente per realizzare la propria analisi ed esecuzione in tempo reale, questo alleggerisce la quantità di dati inviati al data center o al Cloud. Gran parte delle informazioni create al margine, come quelle presenti in una rete di sensori o in un dispositivo sanitario in rete, possono essere trattate localmente. Dato che non è necessario un nucleo centralizzato per processare le informazioni, i dati vengono gestiti, analizzati ed elaborati molto più velocemente. Solitamente la quantità di dati che devono essere archiviati o elaborati a livello del core, risulta rappresentare solo una piccola parte di essi. Possono inoltre essere inviati in batch o approfittare di disporre di più larghezza di banda, che rappresenta un’opportunità perfetta per l’analisi di grandi volumi di dati e per l’intelligenza artificiale.

In questo caso il decentramento della gestione ed elaborazione dei dati è sinonimo di efficienza. Come osserva Santhosh Rao, il principale analista di ricerca di Gartner; “Con l’aumentare del volume e della velocità dei dati, accresce anche il livello di inefficienza della trasmissione di tutte queste informazioni a un Cloud o data center, a causa della loro elaborazione”.

Al momento dell’amministrazione delle informazioni del dispositivo perimetrale, questo fa si che si riduca al minimo il traffico di rete e la quantità di dati che devono essere archiviati nella nuvola o in un data center. Ciò produce una diminuzione dei costi, e, di conseguenza, le aziende non pagano il trasporto o l’archiviazione dei dati di cui non hanno bisogno. L’ edge computing fa parte di un’infrastruttura IT moderna e completa. Grazie all’elaborazione e all’analisi in tempo reale, questi mini data center distribuiti, saranno in grado di integrare molti data center e servizi Cloud.

 

Tecnologia di container

La tecnologia dei contenitori rappresenta un’altra chiara via di sviluppo per la nube, in quanto consentirà ai programmatori di gestire e far migrare il codice del software verso i server della nube pubblica. In un recente studio di Forrester, un terzo delle aziende interpellate riconosce di utilizzare questa tecnologia per sviluppare software. Inoltre, 451 Research stima che nel 2020 si raggiungeranno i 2,7 milioni di dollari investiti nel Cloud e gli analisti hanno individuato, a livello globale, più di otto fornitori chiave di questa tecnologia.

La forte richiesta di questa alternativa tecnologica dimostra quanto possa essere efficace disporre di container in aziende che utilizzano infrastrutture Cloud, poiché facilita la mobilità del carico di lavoro tra AWS, Azure e Google Cloud, accelerando la produzione di software e adattando le varie strategie DevOps.

Kubernetes si sta confermando come la principale scommessa nell’ambiente dei container, consentendo la virtualizzazione a livello di sistema operativo, che si trova al di sopra di quella dell’hardware.

Appare chiaro che la tecnologia dei contenitori diventerà uno dei principali marchi di sviluppo nel prossimo futuro. E aziende come Rancher, Docker, RedHat OpenShift, Pivotal o Mesosphere sembrano condurla proprio ora.

 

Elaborazione serverless

“L’elaborazione senza server” può essere percepita come un termine fuorviante, mentre le applicazioni continuano ad essere eseguite sui server. Tuttavia, quando si utilizza questo modello di sviluppo, un provider Cloud gestisce l’esecuzione del codice solo quando risulta strettamente necessario, e viene pagato esclusivamente quando il quest’ultimo viene eseguito. Adottando l’elaborazione serverless le aziende possono evitare l’approvvigionamento e la manutenzione dei server, sviluppando contemporaneamente il codice.

Questo tipo di architettura nativa del Cloud ha guadagnato popolarità nel 2014 quando AWS ha presentato Lambda e il suo progetto open-source Firecracker. Si prevede che si convertirà in uno dei più grandi motori nell’ambiente Cloud. Tuttavia, la transizione verso questo tipo di approccio deve acquistare importanza nelle strategie aziendali, poiché richiede una revisione del tradizionale paradigma di sviluppo e produzione, il che significa esternalizzare l’intera infrastruttura sul Cloud.

Attualmente, le soluzioni disponibili tendono a racchiudere i clienti in un determinato fornitore di servizi Cloud, ma la proliferazione di soluzioni alternative open-source moltiplicherà le storie di successo dell’informatica serverless.

 

Open-source nel Cloud

Il software open-source sta aumentando notevolmente la sua popolarità tra le compagnie, e un numero sempre più elevato di aziende sta integrando questo tipo di soluzioni all’interno delle loro operazioni IT, o addirittura costruendo l’intera infrastruttura attorno ad esse. Circa il 60% dei CIOs che sono stati recentemente consultati da Black Duck Software conferma di utilizzare software open-source, e più della metà di essi contribuisce ai suoi progetti.

L’open-source sta prosperando nell’ecosistema creato dal Cloud Computing. Il numero crescente di strumenti DevOps open-source e piattaforme di automazione e infrastruttura, come OpenStack e Kubernetes, svolgono un ruolo chiave nell’adozione accelerata di questo tipo di servizio.

Nonostante ciò, le previsioni indicano che, nel 2020, il Cloud sarà ancora una volta un campo di sviluppo e un motore fondamentale per il mercato IT, che da tempo ha trovato in questo modello una valida possibilità di crescita e di orientazione delle sue strategie future. Tutte le tecnologie menzionate, e altre meno recenti, ma sempre basate sulla nuvola, continueranno a definire molti dei suoi progetti e iniziative tecnologiche in questa infrastruttura esterna, chiamata Cloud, che ha appena compiuto un decennio.