La informática en la nube ya es considerada por muchos el principal motor tecnológico de la última década, desde aquel año 2010, cuando gigantes como Google, Amazon y Microsoft anunciaron sus primeros servicios. Entonces comenzó una alternativa que, con el transcurrir del tiempo, se ha visto alterada por sucesivas innovaciones que han llegado a transformar en cierto modo su idea inicial. Nuevas tecnologías, como la computación sin servidor, la informática en el borde (edge computing), la inteligencia artificial o internet de las cosas, todas ellas decisivas para el presente y futuro de la nube y que expertos y consultoras como Gartner, Forrester o 451 Research observan con gran atención.

Aunque quizás sería más propio hablar de nubes, en plural, por la diferente tipología de combinaciones posibles, entre privada, pública e híbrida, al final, el Cloud es un núcleo de datos centralizado que ejecuta de forma remota miles de servidores físicos. Sin embargo, una de las mayores oportunidades que se han abierto en los últimos años tiene que ver con un nuevo modelo de infraestructura, conocida como edge computing o computación en el borde, que ofrece un acceso casi instantáneo a los datos por parte del cliente.

Muchos consideran que es necesario apostar por esta capacidad de cómputo en el borde de la red, donde se pronostica que en poco tiempo residirán más datos que en los data center o en la nube actuales. Pero, sin una arquitectura informática única que domine este campo en crecimiento (con múltiples proveedores, diseñadores de chips, gigantes de la nube o nuevos jugadores) todavía es incierto su futuro

Fenómenos inminentes, como las redes 5G o Internet de las Cosas, están forzando esta transición hacia el borde de la red y los proveedores de telecomunicaciones lo observan como una alternativa que aligerará sus infraestructuras. De lo contrario, sus redes troncales se verán desbordadas.

Los vehículos sin conductor, por ejemplo, no pueden permitirse ninguna latencia, y compañías como Renesas, NXP, Tesla e Intel están compitiendo para desarrollar hardware que corra en el propio vehículo. Para otros dispositivos edge conectados, como las cámaras de seguridad, invertir en hardware en el dispositivo que haga algunos pre-procesos generará importantes ahorros.

En pocas palabras, se tiende a que la informática más pesada se ejecute más cerca del núcleo, en el centro de datos, mientras que la computación más ligera se lleve al borde, donde resulta más relevante la potencia y el coste de acercarla a los clientes. Esta explosión del perímetro de la red se produce al mismo tiempo que otro cambio transformador masivo: la inteligencia artificial.

Debido a que los dispositivos informáticos “al borde” están diseñados para realizar su propio análisis y ejecución en tiempo real, esto aligera la cantidad de datos enviados al centro de datos o la nube. Gran parte de los datos creados en el borde, como los de una red de sensores o un dispositivo sanitario en red, pueden tratarse localmente. Dado que no necesita un núcleo de datos central para procesar, los datos se gestionan, analizan y procesa mucho más rápido. Y, cuando los datos necesitan ser almacenados o procesados ​​centralmente, generalmente son una pequeña cantidad de ellos. Incluso pueden enviarse en lotes o aprovechar los momentos en que haya más ancho de banda disponible, lo que supone una oportunidad perfecta para los análisis de grandes volúmenes de datos y la inteligencia artificial.

En este caso, la descentralización de la gestión y el procesamiento de datos son sinónimos de eficiencia. Como señala Santhosh Rao, analista principal de investigación en Gartner; “a medida que aumenta el volumen y la velocidad de los datos, también lo hace la ineficiencia de transmitir toda esta información a una nube o a centros de datos, para su procesamiento “.

Al administrar los datos en el dispositivo perimetral, esto minimiza el tráfico de red y la cantidad de datos que debe almacenarse en la nube o en un centro de datos. Esto reduce el coste, por lo que las empresas no pagan por transportar o almacenar datos que no necesitan. Edge computing es parte de una infraestructura de TI moderna y completa. Con el procesamiento y análisis en tiempo real, estos mini centros de datos distribuidos complementarán a muchos data center y servicios en la nube.

Tecnología de contenedores

Las tecnologías de contenedores es otra vía clara de desarrollo para la nube, ya que permite a los desarrolladores administrar y migrar el código de software a los servidores en la nube pública. En un estudio reciente de la consultora Forrester, un tercio de las empresas reconoce utilizar esta tecnología para desarrollar software. Incluso, 451 Research estima que en 2020 se alcanzarán los 2.700 millones de dólares y los analistas han identificado más de ocho proveedores clave de esta tecnología, a escala global.

La fuerte demanda de esta alternativa demuestra la eficacia de contar con contenedores en empresas que utilizan infraestructura de nube múltiple, ya que facilita la portabilidad entre AWS, Azure y Google Cloud, y acelera la producción de software, al ajustar las estrategias de DevOps.

Kubernetes se está confirmando como la principal apuesta en este entorno de contenedores, al permitir la virtualización a nivel de sistema operativo, por encima de la virtualización del hardware.

Está claro que la tecnología de contenedores se convertirá en uno de los marcos de desarrollo clave en el futuro cercano. Y firmas como Rancher, Docker, RedHat OpenShift, Pivotal o Mesosphere parecen liderarla en este momento.

Informática sin servidor

La “informática sin servidor” puede percibirse como un término engañoso, ya que las aplicaciones se siguen ejecutando en servidores. Sin embargo, al utilizar la informática sin servidor, un proveedor Cloud sólo gestiona la ejecución del código cuando es necesario. Y cobra exclusivamente cuando el código se ejecuta. Al adoptar la informática sin servidor, las empresas pueden evitar el aprovisionamiento y el mantenimiento de servidores, a la vez que desarrollan código.

La informática sin servidor ganó popularidad en 2014 cuando AWS dio a conocer Lambda y su proyecto de código abierto Firecracker. Se prevé que se convierta en uno de los mayores motores del entorno Cloud. Sin embargo, la transición a este planteamiento debe ganar peso en las estrategias corporativas, ya que requiere una revisión del paradigma tradicional de desarrollo y producción, lo que significa externalizar toda la infraestructura a la nube.

Actualmente, las soluciones disponibles tienden a encerrar a los clientes en un proveedor Cloud concreto, pero la proliferación de otras soluciones alternativas de código abierto multiplicará los casos de éxito de la informática sin servidor.

Código abierto en la nube

El software de código abierto está creciendo en popularidad entre las empresas, y un número creciente de organizaciones está integrando soluciones de este tipo en sus operaciones de TI, o incluso construyendo infraestructuras enteras a su alrededor. Hasta el 60% de los CIOs que ha consultado recientemente Black Duck Software utiliza software de código abierto, con más de la mitad contribuyendo a proyectos de código abierto.

El código abierto prospera en el ecosistema creado por la informática en la nube. El creciente número de herramientas DevOps de código abierto y de plataformas de automatización e infraestructura, como OpenStack y Kubernetes, están jugando un papel clave en la adopción acelerada del código abierto.

Con todo, las previsiones apuntan a que, en 2020, la nube volverá a ser un campo de desarrollo muy importante y motor del mercado IT, que hace tiempo encontró esta vía para crecer y dirigir sus futuras estrategias. Las tecnologías mencionadas, y otras menos recientes, pero también basadas en la nube, seguirán definiendo muchos de sus proyectos e iniciativas tecnológicas en esta infraestructura externa, llamada nube, que apenas ha cumplido una década.