¿Qué es Apache Storm? Conoce todos los detalles

Apache Storm

Apache Storm es un sistema utilizado para procesar datos en tiempo real. Es de fuente abierta y gratuita. Este gran sistema facilita el procesamiento de flujos ilimitados de datos. Además, su uso resulta muy simple, y puede ser utilizado con cualquier lenguaje de programación.

¿Cómo funciona Storm?

Storm cuenta con tres conjuntos de nodos:

  1. Nodo Nimbus (nodo principal): carga los cálculos para la ejecución, distribuye el código en el clúster, lanza trabajadores en todo el clúster y monitorea el cálculo y reasigna trabajadores según sea necesario
  2. Nodos ZooKeeper: coordina el clúster Storm
  3. Nodos de supervisor: se comunica con Nimbus a través de Zookeeper, inicia y detiene a los trabajadores según las señales de Nimbus.

Storm

¿Qué nos ofrece Apache Storm?

Storm es un sistema extremadamente rápido y es capaz de procesar hasta más de un millón de registros por segundo por nodo en un clúster de modesto tamaño.

El usuario tiene la posibilidad de aprovechar esta gran velocidad y combinarla con otras aplicaciones de acceso a datos en hadoop, y así evitar sucesos indeseables y obtener resultados positivos.

Storm nos ofrece oportunidades comerciales muy específicas que incluyen:

  • Administración de servicio al cliente en tiempo real
  • Monetización de datos
  • Cuadros de mando operativos o análisis de seguridad cibernética
  • Detección de amenazas.

 

Casos de “prevención” y “optimización” para Storm

A continuación te presentamos Casos de uso del Storm

Usos de Storm

Storm es ideal para el procesamiento de datos en tiempo real

Te presentamos 5 Cinco características que convierten a Storm en el ideal para cargas de trabajo de procesamiento de datos en tiempo real.

Rápido: evaluado como procesamiento de un millón de mensajes de 100 bytes por segundo por nodo
Escalable: con cálculos paralelos que se ejecutan en un conjunto de máquinas
Tolerante a fallas: cuando los trabajadores mueren, Storm los reinicia automáticamente. Si un nodo muere, el trabajador se reiniciará en otro nodo.
Confiable: garantiza que cada unidad de datos se procesará al menos una vez. Los mensajes solo se reproducen cuando hay fallas.
Fácil de operar: las configuraciones estándar son las idóneas para la producción incluso desde el primer día.

Comentarios

Puedes compartir este post si te gustó!