Aller au contenu principal

Avant de commencer - Observabilité parallèle pour le cloud et l'IA

Cette page présente les prérequis, les outils et le modèle conceptuel dont vous aurez besoin avant de consulter la documentation sur les pipelines et l'observabilité. Que vous configuriez l'ingestion de logs dans Datadog, que vous traçiez les appels vers les modèles linguistiques de grande taille (LLM) dans Galileo, ou les deux, commencez par ici.

Contenu de cette section

Cette documentation couvre deux workflows d'observabilité complémentaires :

  1. Ingestion et routage des logs opérationnels avec Datadog

    • Ingérez des logs JSON provenant d'applications cloud via l'interface de programmation d'application (API) d'ingestion de logs de Datadog, appliquez des processeurs de pipeline et acheminez les données vers des destinations en aval.
  2. Traçage et évaluation des LLM avec Galileo

    • Instrumenter les services basés sur l’IA à l’aide du kit de développement logiciel (SDK) Galileo pour capturer les traces, les spans et les métriques d’évaluation pour chaque appel LLM.

Suivez la documentation dans l’ordre recommandé :

Commencez par les concepts

Flux d’événements et pipelines d’observabilité

Apprenez ensuite l’API d’ingestion

Ingérez des événements à l’aide de l’API d’ingestion de logs Datadog

Suivez ensuite le guide pratique

Routage des logs d’applications cloud avec Datadog et Galileo

Outils nécessaires

Pour l’ingestion de logs Datadog

  • cURL ou Postman — Utilisez ces outils pour envoyer des requêtes API à l'API d'ingestion de logs Datadog.
  • Un terminal ou un shell — macOS, Linux ou Windows PowerShell fonctionnent tous.
  • jq (facultatif mais recommandé) — Utilisez cet outil pour valider les charges utiles JSON avant de les envoyer.

Pour le traçage LLM avec Galileo

  • Python 3.8+ ou Node.js 18+ — Le SDK Galileo prend en charge ces deux environnements.

  • pip ou npm — Utilisez ces outils pour installer le SDK.

    pip install galileo
  • Un éditeur de code, de préférence VS Code (Cursor, Antigravity ou Codex sont des alternatives acceptables).

Informations d'identification requises

Datadog

Informations d'identificationOù les trouver
Clé APIDatadog → Paramètres de l'organisationClés API
Adresse du site DatadogDépend de votre région, par exemple, datadoghq.com (États-Unis) ou datadoghq.eu (UE). Voir Sites Datadog

Galileo

IdentifiantOù le trouver
Clé APIapp.galileo.aiParamètresClés API
Nom du projetCréé lorsque vous configurez un nouveau projet dans Galileo
Nom du flux de logsCréé par environnement, tel que dev, staging ou production.

Consultez la section Où trouver mes clés de projet ? dans la documentation Galileo.

À qui s'adresse cette documentation

ProfilUtilisation principale
Ingénieurs plateformeCréer et maintenir des pipelines de logs Datadog évolutifs
Ingénieurs de fiabilité des sites (SRE) et DevOpsNormaliser les logs, réduire le bruit et configurer le routage et les alertes
Ingénieurs IA et apprentissage automatique (ML)Instrumenter les services LLM et évaluer la qualité des modèles avec Galileo
Ingénieurs en sécuritéAcheminer les logs d'audit et d'authentification vers des destinations de gestion des informations et des événements de sécurité (SIEM)
DéveloppeursEnvoyer les logs d'application et tracer les appels LLM sans connaissance approfondie de l'infrastructure

Ce que vous devez déjà savoir

Cette documentation suppose :

  • Une connaissance de base de JSON
  • Une aisance dans l'exécution de commandes en ligne de commande
  • Une compréhension générale des logs, des événements ou des métriques
  • Une connaissance des environnements cloud ou de microservices

Si vous n’avez jamais envoyé de requête POST auparavant, le guide pratique vous guide pas à pas tout au long du processus.

Modèle conceptuel

Tous les workflows de cette section suivent un modèle d’observabilité à deux volets :

Architecture du pipeline d’observabilité

Datadog gère votre télémétrie opérationnelle, notamment les journaux d'infrastructure, les taux d'erreur, les règles de routage et les alertes.

Galileo gère votre télémétrie IA, notamment les entrées et sorties LLM, la latence par span et les scores d'évaluation.

Ensemble, ils offrent une visibilité complète sur les deux couches d'une application cloud moderne.