Saltar al contenido principal

Antes de empezar

Esta página proporciona el contexto esencial, los requisitos previos y las herramientas que necesitará antes de sumergirse en la documentación de Data Pipelines.

Tanto si eres nuevo en las canalizaciones de observabilidad como si eres nuevo en este conjunto de documentos, empieza por aquí.

Un poco de preparación ayudaria mucho a que la referencia de la API, las guías prácticas y los conceptos de arquitectura sean más fáciles de entender.


Lo que aprenderás en esta sección

Esta sección de documentación cubre:

  1. Conceptos básicos Comprensión de flujos de eventos, capas de procesamiento, enrutamiento y destinos.

  2. Mecánica de ingestión Cómo enviar registros y métricas directamente a una canalización utilizando una API de alto rendimiento.

  3. Flujos de trabajo prácticos Cómo enrutar registros de aplicaciones en la nube, verificar la ingestión y entregar datos a diferentes destinos.

Si desea explorar los documentos en el orden recomendado:

Empezar con conceptos

Flujos de Eventos y Pipelines de Observabilidad

Luego aprenda la API de ingestión

Ingesta de eventos mediante la API de ingesta de flujos

A continuación, siga la guía práctica

Ruteo de Logs de Aplicaciones Cloud a un Pipeline


Herramientas que necesitará

Sacarás el máximo partido a los ejemplos si tienes instalado lo siguiente:

  • cURL o Postman Para enviar peticiones a la API y experimentar con la ingesta.
  • Un editor de código, preferiblemente VS Code Para editar las cargas JSON de ejemplo.
  • Un terminal o shell macOS, Linux o Windows PowerShell funcionan todos.
  • Un navegador Para ver eventos en directo, reglas de enrutamiento y diagramas de canalización una vez implementados.

Ninguna de estas herramientas es necesaria para leer los documentos, pero desbloquean la experiencia práctica completa.


Acceso y credenciales que puede necesitar

Algunos ejemplos de referencia:

  • Un token de API habilitado para la ingesta
  • Un ID de flujo
  • Ejemplos básicos de registro JSON

Estos son los requisitos estándar de las canalizaciones de eventos, aunque este portafolio no dependa de un back-end de API real.

Trátelos como marcadores de posición realistas que encontraría en una plataforma de observabilidad real.


A quién va dirigida esta documentación

Escribí esta documentación pensando en varias personas:

PersonaNecesidades
Ingenieros de plataformaConstruir flujos de trabajo de ingesta y enrutamiento escalables
SREs / DevOpsNormalizar registros, reducir ruido, crear cuadros de mando
Ingenieros de seguridadEnrutamiento de registros de autenticación y auditoría a SIEM
DesarrolladoresEnvío de registros y métricas de aplicaciones a canalizaciones
ArquitectosComprender el flujo de datos de extremo a extremo y los patrones de diseño

Si trabajas en alguna de estas áreas o cerca de ellas, estás en el lugar adecuado.


Lo que ya debería saber

No hace falta ser un experto: estos documentos asumen:

  • Familiaridad básica con JSON
  • Comodidad en la ejecución de comandos básicos de línea de comandos
  • Conocimiento general de registros, eventos o métricas
  • Una comprensión de alto nivel de la nube o entornos de microservicios

Si no sabes lo que es una solicitud POST, no hay problema, las guías te guiarán.


Modelo conceptual a tener en cuenta

La mayoría de los ejemplos siguen un flujo como este:

flowchart LR
A["Aplicaciones Cloud"] --> B["Ingestión"]
B --> C["Procesamiento<br/>Analizar • Enriquecer • Enmascarar"]
C --> D["Enrutamiento<br/>Filtros • Reglas • Muestreo"]
D --> E{{"Destinos"}}