Soluciones AWS

para Big Data

AWS ofrece un entorno idóneo para implementar soluciones Big Data sobre Cloud pública.
Provee múltiples servicios core, además de específicos, que permiten realizar esta tarea con un ajustado time-to-market.

AWS Elastic Map Reduce

Procesamiento de grandes volúmenes de datos de forma rápida y sencilla utilizando frameworks como Spark, Presto, HBase o Flink.

AWS Lambda

Ejecución de código como servicio sin necesidad de configurar o administrar infraestructura. Paga solo por lo que utilices y integralo de forma nativa con el resto de servicios de AWS.

AWS Kinesis

Como otros servicios de AWS, es completamente administrado y fácilmente escalable. Recolecta, procesa y analiza flujos de datos a tiempo real.

AWS Redshift

Base de datos especializada en el almacenamiento y procesamiento de grandes candidades de información, con un rendimiento superior a las bases de datos convencionales gracias a sus capacidades de aprendizaje automático y procesamiento paralelizado.

AWS Simple Storage Service

Servicio de almacenamiento de objetos que, dadas sus caraterísticas e integración con el resto de servicios de AWS, es utilizado como Datalake en diversas arquitecturas.

AWS Quicksight

Servicio gestionado para realizar visualizaciones de los datos presentes en diferentes sistemas de almacenamiento. Sin necesidad de administrar servidores escala de 10 a 10.000 usuarios.

¿Por qué Amazon Web Services para proyectos Big Data?

Gracias a la diversidad de servicios ofrecidos, AWS se convierte en un entorno idoneo para diseñar e implementar proyectos Big Data ajustados a las necesidades de Negocio. AWS cuenta con múltiples fuentes de información que facilitan realizar el viaje de forma rápida, sencilla y pagando por uso, especialmente adecuado en proyectos como arquitecturas de referencia, documentos técnicos y cursos de capacitación.

Keepler,
expertos en AWS

Con un 90% de los especialistas técnicos con certificaciones en AWS, incluyendo certificaciones específicas en Big Data, nuestros arquitectos han visto el progreso y los cambios de AWS desde sus inicios, lo que les habilita un alto conocimiento y expertise en la plataforma.

Beneficios de la nube de AWS

Pago por uso

Separación entre el cómputo (EMR) y el almacenamiento (S3) en Datalakes, permitiendo el aumento de costes por separado a diferencia de aprovisionar un único cluster.

Escalabilidad

Posibilidad de aprovisionar cualquier número de clusters de Hadoop de cualquier tamaño, ya sea bajo demanda o para Redshift en analítca interactiva.

Flexibilidad

Capacidad de utilizar tecnologías de Apache Hadoop (Hive, Pig, Spark, Impala…) o lenguajes orientados a consultas SQL con Redshift y Athena.

Gran rendimiento

Ajuste de infraestructura para tener nodos especializados en cómputo, memoria o red, capaz de responder ante cualquier demanda de rendimiento.

Seguridad

Acceso y ejecución de procesos de datos utilizando roles para las instancias y grupos de seguridad para el acceso de redes.

Alta disponibilidad

Datos siempre disponibles gracias a servicios como S3 o DynamoDB, teniendo un óptimo compromiso de servicio.

Tolerancia a fallos

Capacidad de los componentes para recuperarse de las interrupciones del servicio, incluso con características tales como intentos de jobs.

Servicios gestionados

Servicios gestionados como S3, Athena o Quicksight sin gestión por parte de operaciones.

Arquitectura Big Data en AWS para productivizar datos

[Leer más]

AntiPatterns o lo que no debes hacer en tus proyectos Big Data

[Leer más]

¿Hablamos? 

Si quieres dar el paso a la nube pública de AWS, contáctanos y hablamos.