Saltar al contenido principal

Antes de empezar

Esta página proporciona el contexto esencial, los requisitos previos y las herramientas que necesitará antes de sumergirse en la documentación de Data Pipelines.
Tanto si es nuevo en los flujos de observabilidad como si simplemente es nuevo en este conjunto de documentos, empiece por aquí.

Un poco de preparación le ayudará mucho a comprender mejor la referencia de la API, las guías prácticas y los conceptos de arquitectura.


Lo que aprenderá en esta sección

Esta sección de la documentación cubre:

  1. Conceptos fundamentales
    Comprensión de los flujos de eventos, las capas de procesamiento, el enrutamiento y los destinos.

  2. Mecánica de la ingestión
    Cómo enviar registros y métricas directamente a un canal utilizando una API de alto rendimiento.

  3. Flujos de trabajo prácticos
    Cómo enrutar los registros de aplicaciones en la nube, verificar la ingestión y entregar los datos a diferentes destinos.

Si quieres explorar la documentación en el orden recomendado:

Empieza por los conceptos

Flujos de eventos y Observability Pipelines

A continuación, aprende la API de ingestión

Ingestión de eventos mediante la API de ingestión de streaming

A continuación, sigue la guía práctica

Enrutar registros de aplicaciones en la nube a un pipeline


Herramientas que necesitará

Sacará el máximo partido a los ejemplos si tiene instalado lo siguiente:

  • cURL o Postman
    Para enviar solicitudes de API y experimentar con la ingestión.
  • Un editor de código, preferiblemente VS Code
    Para editar cargas JSON de ejemplo.
  • Un terminal o shell
    macOS, Linux o Windows PowerShell funcionan.
  • Un navegador
    Para ver eventos en directo, reglas de enrutamiento y diagramas de canalizaciones una vez implementados.

Ninguna de estas herramientas es necesaria para leer la documentación, pero permiten disfrutar de una experiencia práctica completa.


Acceso y credenciales que puede necesitar

Algunos ejemplos de referencia:

  • Un token de API habilitado para la ingestión
  • Un ID de flujo
  • Ejemplos básicos de registros JSON

Estos representan requisitos estándar en canalizaciones de eventos, aunque esta cartera no depende de un backend de API real.

Trátelos como marcadores de posición realistas que encontraría en una plataforma de observabilidad real.


A quién va dirigida esta documentación

He escrito estos documentos pensando en varios perfiles:

PerfilNecesidades
Ingenieros de plataformaCrear flujos de trabajo de ingestión y enrutamiento escalables
SRE / DevOpsNormalizar registros, reducir el ruido y crear paneles de control
Ingenieros de seguridadEnrutar registros de autenticación y auditoría a SIEM
DesarrolladoresEnviar registros y métricas de aplicaciones a canalizaciones
ArquitectosComprender el flujo de datos de extremo a extremo y los patrones de diseño

Si trabajas en alguna de estas áreas o en alguna relacionada, estás en el lugar adecuado.


Lo que ya deberías saber

No es necesario que seas un experto: estos documentos dan por sentado lo siguiente:

  • Familiaridad básica con JSON
  • Comodidad con el uso de comandos básicos de línea de comandos
  • Conocimiento general de registros, eventos o métricas
  • Comprensión de alto nivel de los entornos de nube o microservicios

Si no sabes lo que es una solicitud POST, no te preocupes: las guías te lo explicarán.


Modelo conceptual a tener en cuenta

La mayoría de los ejemplos siguen un flujo como este:

flowchart LR
A["Aplicaciones en la nube"] --> B["Ingestión"]
B --> C["Procesamiento<br/>Analizar • Enriquecer • Enmascarar"]
C --> D["Enrutamiento<br/>Filtros • Reglas • Muestreo"]
D --> E{{"Destinos"}}