Le cloud computing est considéré par beaucoup comme le principal moteur technologique de la dernière décennie, lorsque des géants comme Google, Amazon et Microsoft ont annoncé leurs premiers services. Commence alors une alternative qui, au fil du temps, a été modifiée par des innovations successives qui ont transformé d’une certaine manière leur idée initiale.

Les nouvelles technologies, comme l’informatique sans serveur, l’informatique en périphérie ou edge computing, l’intelligence artificielle ou l’Internet des Objets (IoT), sont toutes décisives pour le présent et l’avenir du cloud et sont aussi observées avec grande attention par les experts et consultants tels que Gartner, Forrester ou 451 Research.

Bien qu’il soit plus approprié de parler de clouds au pluriel, en raison des différents types de combinaisons possibles, entre privé, public et hybride ; le cloud est finalement un noyau de données centralisé qui exécute à distance des milliers de serveurs physiques. Cependant, l’une des plus grandes opportunités qui s’est ouverte ces dernières années est liée à un nouveau modèle d’infrastructure connu sous le nom d’edge computing, qui offre au client un accès quasi instantané à ses données.

Beaucoup considèrent qu’il est nécessaire de parier sur cette capacité de calcul à la périphérie du réseau, où il est prévu que, dans un court laps de temps, un plus grand nombre de données y résideront que dans le centre de données actuel ou dans le cloud. Mais sans une architecture informatique unique qui domine ce domaine en pleine expansion (avec de multiples fournisseurs, concepteurs de puces, géants du cloud ou nouveaux acteurs), son avenir est encore incertain.

Des phénomènes imminents, tels que le réseau 5G ou l’Internet des Objets, forcent la transition à la périphérie du réseau et les fournisseurs de télécommunications y voient une alternative qui allégera leurs infrastructures. Sinon, leurs réseaux dorsaux seront submergés.

Les voitures autonomes, par exemple, ne peuvent se permettre aucune latence, et des entreprises comme Renesas, NXP, Tesla et Intel sont en concurrence pour développer du matériel qui fonctionne sur le véhicule lui-même. Pour d’autres périphériques connectés, telles que les caméras de sécurité, investir dans du matériel qui effectue un prétraitement permettra de réaliser des économies importantes.

En quelques mots, les archives plus lourdes ont tendance à s’approcher du cœur, dans le centre de données, tandis que les fichiers plus légers sont poussés à la limite, là où la puissance et le coût pour se rapprocher des clients sont plus pertinents. Cette explosion du périmètre du réseau se produit en même temps qu’un autre changement transformationnel massif : l’intelligence artificielle.

Comme les dispositifs edge computing sont conçus pour effectuer leur propre analyse et exécution en temps réel, cela allège la quantité de données envoyées vers le centre de données ou le cloud. Une grande partie des données créées à la périphérie, comme celles provenant d’un réseau de capteurs ou d’un appareil sanitaire en réseau, peut être traitée localement.

Comme vous n’avez pas besoin d’un noyau de données central pour traiter les données, celles-ci sont gérées et analysées beaucoup plus rapidement. Et lorsque les données doivent être stockées ou traitées de manière centralisée, il s’agit généralement d’une petite quantité. Elles peuvent même être envoyées par lots ou profiter de périodes où la bande passante est plus importante, ce qui offre une occasion parfaite pour l’analyse de données à grand volume et l’intelligence artificielle.

Dans ce cas, la décentralisation de la gestion et du traitement des données est synonyme d’efficacité. Comme le souligne Santhosh Rao, analyste de recherche senior chez Gartner, « plus le volume et la vitesse des données augmentent, plus l’inefficacité de la transmission de toutes ces informations vers un cloud ou un centre de données pour traitement augmente ».

En gérant les données sur la périphérie, le trafic réseau et la quantité de données qui doivent être stockées dans le cloud ou dans un centre de données sont minimisés. Les coûts sont réduits, de sorte que les entreprises ne paient que pour transporter ou stocker des données dont elles ont besoin. L’informatique de pointe fait partie d’une infrastructure informatique moderne et complète. Avec un traitement et une analyse en temps réel, ces mini-centres de données distribués complèteront de nombreux centres de données et services cloud.

Technologie des conteneurs

Les technologies de conteneurs constituent une autre voie de développement évidente pour le cloud ; elles permettent aux développeurs de gérer et de migrer le code logiciel vers des serveurs dans le cloud public. Dans une étude récente de la société de conseil Forrester, un tiers des entreprises reconnaissent utiliser cette technologie pour développer des logiciels. Même 451research estime que 2,7 milliards de dollars seront atteints d’ici 2020 et les analystes ont identifié plus de huit fournisseurs clés de cette technologie à l’échelle mondiale.

La forte demande pour cette alternative démontre l’efficacité d’avoir des conteneurs dans les entreprises qui utilisent plusieurs infrastructures de cloud computing, car elle facilite la portabilité entre AWS, Azure et Google Cloud, et accélère la production de logiciels en ajustant les stratégies DevOps.

Kubernetes s’affirme comme le principal centre d’intérêt de cet environnement conteneur, permettant la virtualisation au niveau du système d’exploitation, au-delà de la virtualisation matérielle.

Il est clair que la technologie des conteneurs deviendra l’un des principaux cadres de développement dans un avenir proche. Et des entreprises comme Rancher, Docker, RedHat OpenShift, Pivotal ou Mesosphere l’ont compris.

Informatique sans serveur

L’expression ” informatique sans serveur ” peut être perçue comme un terme trompeur, car les applications continuent de tourner sur des serveurs. Cependant, en cas d’utilisation de l’informatique sans serveur, un fournisseur cloud ne gère l’exécution du code que lorsque c’est nécessaire. Et il n’est facturé que lorsque le code est exécuté. En adoptant l’informatique sans serveur, les entreprises peuvent éviter de provisionner et de maintenir les serveurs tout en développant du code.

L’informatique sans serveur a gagné en popularité en 2014 quand AWS a dévoilé Lambda et son projet open source Firecracker. Il devrait devenir l’un des plus gros moteurs de l’environnement Cloud. Cependant, la transition vers cette approche doit s’affirmer dans les stratégies d’entreprise, car elle nécessite une révision du paradigme traditionnel du développement et de la production, ce qui implique d’externaliser l’ensemble de l’infrastructure vers le cloud.

Actuellement, les solutions disponibles ont tendance à enfermer les clients dans un fournisseur de cloud particulier, mais la prolifération d’autres solutions alternatives open source va multiplier les succès de l’informatique sans serveur.

Open source dans le cloud

Les logiciels libres sont de plus en plus populaires auprès des entreprises, et un nombre croissant d’entreprises intègrent de telles solutions dans leurs opérations informatiques, voire construisent des infrastructures complètes autour d’elles. Jusqu’à 60% des DSI récemment consultées par Black Duck Software utilisent des logiciels open source, dont plus de la moitié contribuent à des projets open source.

L’Open Source prospère dans l’écosystème créé par le cloud computing. Le nombre croissant d’outils et de plates-formes d’infrastructure et d’automatisation OpenStack et Kubernetes jouent un rôle clé dans l’adoption accélérée de l’Open Source.

Toutefois, les prévisions suggèrent que d’ici 2020, le cloud sera à nouveau un domaine de développement très important et le moteur du marché des TI, qui a depuis longtemps trouvé cette façon de croître et de diriger ses stratégies futures. Les technologies susmentionnées, et d’autres moins récentes, mais également basées sur le cloud, continueront à définir nombre de ses projets et initiatives technologiques dans cette infrastructure externe, appelée le cloud, qui a à peine dix ans d’existence.