Avant de commencer
Cette page fournit le contexte essentiel, les conditions préalables et les outils dont vous aurez besoin avant de vous plonger dans la documentation sur les pipelines de données.
Que vous soyez novice en matière de pipelines d'observabilité ou simplement novice dans cette série de documents, commencez ici.
Une petite préparation vous aidera grandement à comprendre plus facilement la référence API, les guides pratiques et les concepts d'architecture.
Ce que vous apprendrez dans cette section
Cette section de la documentation couvre :
-
Concepts fondamentaux
Comprendre les flux d'événements, les couches de traitement, le routage et les destinations. -
Mécanismes d'ingestion
Comment envoyer des journaux et des métriques directement dans un pipeline à l'aide d'une API à haut débit. -
Workflows pratiques
Comment acheminer les journaux d'applications cloud, vérifier l'ingestion et livrer les données à différentes destinations.
Si vous souhaitez explorer la documentation dans l'ordre recommandé :
Commencez par les concepts
Flux d'événements et pipelines d'observabilité
Apprenez ensuite l'API d'ingestion
Ingérer des événements à l'aide de l'API d'ingestion en continu
Suivez ensuite le guide pratique
Acheminer les journaux d'applications cloud vers un pipeline
Outils nécessaires
Vous tirerez le meilleur parti des exemples si vous avez installé les éléments suivants :
- cURL ou Postman
Pour envoyer des requêtes API et tester l'ingestion. - Un éditeur de code, de préférence VS Code
Pour modifier les exemples de charges utiles JSON. - Un terminal ou un shell
macOS, Linux ou Windows PowerShell fonctionnent tous. - Un navigateur
Pour afficher les événements en direct, les règles de routage et les diagrammes de pipeline une fois mis en œuvre.
Aucun de ces outils n'est nécessaire pour lire la documentation, mais ils permettent de profiter pleinement de l'expérience pratique.
Accès et identifiants dont vous pourriez avoir besoin
Quelques exemples de référence :
- Un jeton API compatible avec l'ingestion
- Un identifiant de flux
- Des exemples de journaux JSON de base
Il s'agit là des exigences standard des pipelines d'événements, même si ce portefeuille ne dépend pas d'un backend API réel.
Considérez-les comme des espaces réservés réalistes que vous rencontreriez dans une plateforme d'observabilité réelle.
À qui s'adresse cette documentation ?
J'ai rédigé ces documents en pensant à plusieurs profils :
| Profil | Besoins |
|---|---|
| Ingénieurs de plateforme | Créer des workflows d'ingestion et de routage évolutifs |
| SRE / DevOps | Normaliser les journaux, réduire le bruit, créer des tableaux de bord |
| Ingénieurs en sécurité | Acheminer les journaux d'authentification et d'audit vers le SIEM |
| Développeurs | Envoyer les journaux et les métriques des applications dans les pipelines |
| Architectes | Comprendre le flux de données de bout en bout et les modèles de conception |
Si vous travaillez dans l'un de ces domaines ou dans un domaine connexe, vous êtes au bon endroit.
Ce que vous devez déjà savoir
Vous n'avez pas besoin d'être un expert. Ces documents supposent que vous :
- Connaissez les bases du JSON
- Êtes à l'aise avec les commandes de ligne de commande de base
- Avez une connaissance générale des journaux, des événements ou des métriques
- Avez une compréhension générale des environnements cloud ou microservices
Si vous ne savez pas ce qu'est une requête POST, no problème : les guides vous expliquent tout.
Modèle conceptuel à garder à l'esprit
La plupart des exemples suivent un flux similaire à celui-ci :
- Mermaid (code)
- Mermaid (image)
flowchart LR
A["Applications cloud"] --> B["Ingestion"]
B --> C["Traitement<br/>Analyse • Enrichissement • Masquage"]
C --> D["Routage<br/>Filtres • Règles • Échantillonnage"]
D --> E{{"Destinations"}}