Antes de empezar
Esta página proporciona el contexto esencial, los requisitos previos y las herramientas que necesitará antes de sumergirse en la documentación de Data Pipelines.
Tanto si eres nuevo en las canalizaciones de observabilidad como si eres nuevo en este conjunto de documentos, empieza por aquí.
Un poco de preparación ayudaria mucho a que la referencia de la API, las guías prácticas y los conceptos de arquitectura sean más fáciles de entender.
Lo que aprenderás en esta sección
Esta sección de documentación cubre:
-
Conceptos básicos Comprensión de flujos de eventos, capas de procesamiento, enrutamiento y destinos.
-
Mecánica de ingestión Cómo enviar registros y métricas directamente a una canalización utilizando una API de alto rendimiento.
-
Flujos de trabajo prácticos Cómo enrutar registros de aplicaciones en la nube, verificar la ingestión y entregar datos a diferentes destinos.
Si desea explorar los documentos en el orden recomendado:
Empezar con conceptos
Flujos de Eventos y Pipelines de Observabilidad
Luego aprenda la API de ingestión
Ingesta de eventos mediante la API de ingesta de flujos
A continuación, siga la guía práctica
Ruteo de Logs de Aplicaciones Cloud a un Pipeline
Herramientas que necesitará
Sacarás el máximo partido a los ejemplos si tienes instalado lo siguiente:
- cURL o Postman Para enviar peticiones a la API y experimentar con la ingesta.
- Un editor de código, preferiblemente VS Code Para editar las cargas JSON de ejemplo.
- Un terminal o shell macOS, Linux o Windows PowerShell funcionan todos.
- Un navegador Para ver eventos en directo, reglas de enrutamiento y diagramas de canalización una vez implementados.
Ninguna de estas herramientas es necesaria para leer los documentos, pero desbloquean la experiencia práctica completa.
Acceso y credenciales que puede necesitar
Algunos ejemplos de referencia:
- Un token de API habilitado para la ingesta
- Un ID de flujo
- Ejemplos básicos de registro JSON
Estos son los requisitos estándar de las canalizaciones de eventos, aunque este portafolio no dependa de un back-end de API real.
Trátelos como marcadores de posición realistas que encontraría en una plataforma de observabilidad real.
A quién va dirigida esta documentación
Escribí esta documentación pensando en varias personas:
| Persona | Necesidades |
|---|---|
| Ingenieros de plataforma | Construir flujos de trabajo de ingesta y enrutamiento escalables |
| SREs / DevOps | Normalizar registros, reducir ruido, crear cuadros de mando |
| Ingenieros de seguridad | Enrutamiento de registros de autenticación y auditoría a SIEM |
| Desarrolladores | Envío de registros y métricas de aplicaciones a canalizaciones |
| Arquitectos | Comprender el flujo de datos de extremo a extremo y los patrones de diseño |
Si trabajas en alguna de estas áreas o cerca de ellas, estás en el lugar adecuado.
Lo que ya debería saber
No hace falta ser un experto: estos documentos asumen:
- Familiaridad básica con JSON
- Comodidad en la ejecución de comandos básicos de línea de comandos
- Conocimiento general de registros, eventos o métricas
- Una comprensión de alto nivel de la nube o entornos de microservicios
Si no sabes lo que es una solicitud POST, no hay problema, las guías te guiarán.
Modelo conceptual a tener en cuenta
La mayoría de los ejemplos siguen un flujo como este:
- Mermaid (código)
- Mermaid (imagen)
flowchart LR
A["Aplicaciones Cloud"] --> B["Ingestión"]
B --> C["Procesamiento<br/>Analizar • Enriquecer • Enmascarar"]
C --> D["Enrutamiento<br/>Filtros • Reglas • Muestreo"]
D --> E{{"Destinos"}}