Antes de empezar
Esta página proporciona el contexto esencial, los requisitos previos y las herramientas que necesitará antes de sumergirse en la documentación de Data Pipelines.
Tanto si es nuevo en los flujos de observabilidad como si simplemente es nuevo en este conjunto de documentos, empiece por aquí.
Un poco de preparación le ayudará mucho a comprender mejor la referencia de la API, las guías prácticas y los conceptos de arquitectura.
Lo que aprenderá en esta sección
Esta sección de la documentación cubre:
-
Conceptos fundamentales
Comprensión de los flujos de eventos, las capas de procesamiento, el enrutamiento y los destinos. -
Mecánica de la ingestión
Cómo enviar registros y métricas directamente a un canal utilizando una API de alto rendimiento. -
Flujos de trabajo prácticos
Cómo enrutar los registros de aplicaciones en la nube, verificar la ingestión y entregar los datos a diferentes destinos.
Si quieres explorar la documentación en el orden recomendado:
Empieza por los conceptos
Flujos de eventos y Observability Pipelines
A continuación, aprende la API de ingestión
Ingestión de eventos mediante la API de ingestión de streaming
A continuación, sigue la guía práctica
Enrutar registros de aplicaciones en la nube a un pipeline
Herramientas que necesitará
Sacará el máximo partido a los ejemplos si tiene instalado lo siguiente:
- cURL o Postman
Para enviar solicitudes de API y experimentar con la ingestión. - Un editor de código, preferiblemente VS Code
Para editar cargas JSON de ejemplo. - Un terminal o shell
macOS, Linux o Windows PowerShell funcionan. - Un navegador
Para ver eventos en directo, reglas de enrutamiento y diagramas de canalizaciones una vez implementados.
Ninguna de estas herramientas es necesaria para leer la documentación, pero permiten disfrutar de una experiencia práctica completa.
Acceso y credenciales que puede necesitar
Algunos ejemplos de referencia:
- Un token de API habilitado para la ingestión
- Un ID de flujo
- Ejemplos básicos de registros JSON
Estos representan requisitos estándar en canalizaciones de eventos, aunque esta cartera no depende de un backend de API real.
Trátelos como marcadores de posición realistas que encontraría en una plataforma de observabilidad real.
A quién va dirigida esta documentación
He escrito estos documentos pensando en varios perfiles:
| Perfil | Necesidades |
|---|---|
| Ingenieros de plataforma | Crear flujos de trabajo de ingestión y enrutamiento escalables |
| SRE / DevOps | Normalizar registros, reducir el ruido y crear paneles de control |
| Ingenieros de seguridad | Enrutar registros de autenticación y auditoría a SIEM |
| Desarrolladores | Enviar registros y métricas de aplicaciones a canalizaciones |
| Arquitectos | Comprender el flujo de datos de extremo a extremo y los patrones de diseño |
Si trabajas en alguna de estas áreas o en alguna relacionada, estás en el lugar adecuado.
Lo que ya deberías saber
No es necesario que seas un experto: estos documentos dan por sentado lo siguiente:
- Familiaridad básica con JSON
- Comodidad con el uso de comandos básicos de línea de comandos
- Conocimiento general de registros, eventos o métricas
- Comprensión de alto nivel de los entornos de nube o microservicios
Si no sabes lo que es una solicitud POST, no te preocupes: las guías te lo explicarán.
Modelo conceptual a tener en cuenta
La mayoría de los ejemplos siguen un flujo como este:
- Mermaid (código)
- Mermaid (imagen)
flowchart LR
A["Aplicaciones en la nube"] --> B["Ingestión"]
B --> C["Procesamiento<br/>Analizar • Enriquecer • Enmascarar"]
C --> D["Enrutamiento<br/>Filtros • Reglas • Muestreo"]
D --> E{{"Destinos"}}