Ya eres especialista en la nube pública y quieres convertirte en un/a referente. Alcanza el máximo nivel, Master of Clouds.

Qué conocimientos y experiencia debe tener un perfil para alcanzar el nivel Master of Clouds.
Es un/a profesional de la nube referente tanto por experiencia como por tener un conocimiento amplio y profundo sobre varios proveedores de nube pública, que además ha resuelto retos de diversa naturaleza velando por la excelencia técnica, las exigencias de negocio (DPO y DTO) y que ha liderado equipos en el diseño y ejecución de proyectos o migraciones en la nube.
Desarrollo de apps Cloud Native
Este tipo de aplicaciones está diseñada desde el origen para aprovechar al máximo los recursos y posibilidades que ofrece la nube. Desde los servicios gestionados, hasta los componentes elásticos a la demanda o auto escalables. Su desarrollo tiene ciertas implicaciones, ya que hay que dejar de lado ciertas asunciones que se hacían en otros contextos dónde p.e. un único servidor podía conservar muchos estados de sesión en memoria concurrentemente, por retos más habituales de los sistemas distribuidos.
Esto da lugar a un sinfín de posibilidades y nuevas arquitecturas de una complejidad y profundidad mayor, contexto que nos obliga a recurrir a herramientas para monitorizar, comunicar y trazar las comunicaciones que pasan a ser parte sustancial del aplicativo.
En general las arquitecturas basadas en microservicios o en serverless son las más utilizadas, ya que son altamente eficientes y con un coste de infraestructura relativamente bajo. La labor de un maestro de las nubes en este tipo de situaciones consistirá en escoger la más apropiada haciendo balance de la complejidad, la integridad y la efectividad para lograr una solución óptima para cada problema.
Saber más:
Mantente actualizado:
Architecting on the Cloud
A la hora de plantear soluciones en la nube, deben considerarse muchos aspectos y saber detectar qué directiva prima en cada caso de uso. Ya que en la mayoría de situaciones existen varias arquitecturas que resolverán el problema, no todas ofrecen las mismas características, ni prestaciones, ni por supuesto tendrán igual coste. Es responsabilidad del arquitecto cloud buscar el equilibrio en base al uso final.
Networking Avanzado
En otros contextos, la responsabilidad de velar por la seguridad y el diseño de la red caía sobre equipos especializados en redes y seguridad. Hoy en día, es necesario contar con conocimientos transversales sobre redes y su conectividad para poder desplegar arquitecturas flexibles que alojen de forma eficiente y segura nuestros productos y servicios digitales.
Un experto en la nube debe manejar aspectos como el uso de endpoints privados, conectividad entre redes privadas virtuales, redes privadas como pasarela y otros patrones más complejos que permiten la interacción entre diferentes cuentas y/o infraestructuras híbridas como las mencionadas anteriormente. También es relevante el uso de redes cifradas punto a punto, manejo de elementos de red y securización de la información en tránsito y en reposo.
Tendremos que desempolvar o adquirir conocimientos sobre direccionamiento IP, tablas de rutas, … y completar con algunos conceptos nuevos de las versiones virtuales existentes en la nube. Se requieren conocimientos fundamentales en materia de redes, de almacenamiento así como la priorización y la configuración del tráfico, además de ciertas consideraciones de diseño para múltiples niveles de redes.
El objetivo es lograr diseñar soluciones basadas en redes distribuidas que sean fiables y de alta disponibilidad para en transporte de múltiples tipos de tráfico utilizando dispositivos virtuales y físicos.
Para saber más:
AWS Whitepapers:
Data Lakes & Data Warehousing
En Keepler somos expertos en el diseño, implementación y refactorización de sistemas de procesamiento de grandes volúmenes de datos en entornos de nube pública para clientes corporativos de diversos sectores como banca, seguros, telco, retail, farma o industria, que requieren de un cumplimiento estricto en materia de seguridad. Por tanto, nos especializamos en construir arquitecturas de datos que aseguran la aplicación de las buenas prácticas de securización y se fundamentan en la privacidad del dato por diseño.
Dos de los patrones más habituales para la implementación de soluciones de almacenamiento masivo de datos son las siguientes:
Un data warehouse es un repositorio unificado para todos los datos que recogen los diversos sistemas de una empresa. El repositorio puede ser físico o lógico y hace hincapié en la captura de datos de diversas fuentes sobre todo para fines analíticos y de acceso.
Un data lake es un repositorio de almacenamiento que contienen una gran cantidad de datos en bruto y que se mantienen allí hasta que sea necesario. A diferencia de un data warehouse jerárquico que almacena datos en ficheros o carpetas, un data lake utiliza una arquitectura plana para almacenar los datos.
En el entorno del Big Data, en función de la naturaleza del dato podemos distinguir dos tipos: estructurados y no estructurados. Los primeros se almacenan en soluciones tipo Datawarehouse. Por el contrario, los segundos permanecen en el Data Lake, aunque en ocasiones también pueden incluir datos estructurados o semiestructurados.
Para saber más:
- Mejorando la gestión de derechos de olvido y rectificación con Apache Hudi en Amazon EMR
- Data Warehouse: todo lo que necesitas saber sobre almacenamiento de datos
- Data lake: definición, conceptos clave y mejores prácticas
- Diferencias entre datos estructurados y datos no estructurados
Big Data Lens
Dentro del mundo de procesamiento de datos, hablamos de Big Data cuando tratamos cargas de trabajo que o bien por su volumen o bien por su complejidad no son viables de procesar mediante los métodos o tecnologías tradicionales. A lo largo de los años se han desarrollado multitud de soluciones que tratan de resolver este problema, principalmente mediante distintos modelos de programación para el procesamiento paralelo masivo de datos. Ejemplos de ésto pueden ser Hadoop o Spark para procesamiento de datos en lotes, Kafka o AWS Kinesis para procesamiento de datos en tiempo real o AWS Redshift, Azure Synapse o Google Big Query como data warehouses.
El Big Data se compone de cinco dimensiones que lo caracterizan, conocidas como las 5 V’s del Big Data:
- Volumen: Hace referencia al tamaño creciente y la necesidad de herramientas apropiadas para su manejo.
- Velocidad: Su crecimiento es constante con diversos ritmos para los que hay que estar preparados.
- Variedad: Los datos pueden ser de muy diversas tipologías, heterogéneas entre sí.
- Veracidad: Debemos vigilar la integridad de todos los datos almacenados y velar por su conservación.
- Valor: Las empresas tienen la oportunidad de sacar el máximo partido a los datos
En Keepler, como expertos en Big Data, entendemos la necesidad de conocer a fondo todas estas tecnologías y poder aplicar cada una de ellas adecuadamente según el caso de uso, especialmente todas aquellas disponibles en los distintos proveedores de nube pública.
Para saber más:
IoT Lens
IoT (Internet of Things desarrollando las siglas en inglés) es un concepto ampliamente utilizado y con diversidad de aplicaciones en sectores como: salud, automoción, agricultura, ciudades inteligentes, transporte, energético, telecomunicaciones, logístico, domótica…
De manera muy resumida, nos encontramos con una red de dispositivos simples que emiten, cada cierto tiempo, mediciones; normalmente de variables físicas (temperatura, movimiento, sonido, velocidad, posición, etc.). Estos dispositivos muchas veces no pueden, o no deben, conectarse a Internet directamente por lo que se utiliza un enrutador que envía los datos a su destino o los almacena para su posterior consumo.
Dado el carácter simple de los datos generados se hace necesario aplicar procesamientos complejos (Edge Computing, Streaming o Machine Learning, por ejemplo) para obtener valor, este valor se puede presentar en forma de: análisis predictivo y/o preventivo, correlación de diferentes métricas, información para poder actuar o seguimiento y visualización en tiempo real, entre otras muchas cosas.
La nube posibilita el pago por el uso que realmente le estemos dando a la infraestructura, además, te ofrece la flexibilidad y facilidad de conectar la ingesta de manera fácil a sistemas de procesamiento, pudiendo ofrecer valor inmediato o incluso llevar ciertas operaciones, al extremo.
Una buena estrategia IoT se hace indispensable en nuestros días, tener una estrategia apropiada nos puede diferenciar en nuestro sector. Debido a la naturaleza de los datos, en este entorno, que nos obliga a un procesamiento cercano al origen temporal consiguiendo aportar valor en las primeras etapas de la cadena.
Un buen experto debe combinar el conocimiento en redes IoT, para entender el origen y sus particularidades, con la sabiduría en herramientas de ingesta y procesamiento de datos para poder cubrir, extremo a extremo, una aplicación de esta índole. Si añadimos una pizca de nube, tendremos la receta perfecta 🙂
Para saber más:
- Soluciones de Google Cloud IoT
- Azure Io
- AWS IoT
- MQTT: The Standard for IoT Messaging
- The Complete List Of Wireless IoT Network Protocols
Machine Learning Lens
Como punto final podemos cerrar los conocimientos que un maestro de la nube debe poseer incluyendo unas pinceladas de Machine Learning o Aprendizaje Automático. En la actualidad están cada vez más presentes y son una forma de obtener valor a partir los datos almacenados con las tecnologías mencionadas en este apartado.
El Aprendizaje Automático consiste en una disciplina de las ciencias informáticas, relacionada con el desarrollo de la Inteligencia Artificial, y que sirve, como ya se ha dicho, para crear sistemas que pueden aprender por sí solos. Es una tecnología que permite hacer automáticas una serie de operaciones con el fin de reducir la necesidad de que intervengan los seres humanos. Esto puede suponer una gran ventaja a la hora de controlar una ingente cantidad de información de un modo mucho más efectivo.
Los proveedores de nube pública poseen cada vez más tecnologías que permiten conectar los almacenes de datos de cualquier naturaleza con servicios o herramientas capaces de generar modelos que automaticen tareas complejas y relevantes para el negocio.
Fuentes: