Skip to main content
Cette page est générée par traduction automatique. Voulez-vous afficher la version originale en anglais ?
Image de base avec le bloc central en violet représentant les partenaires

Pipeline de données OT contextualisé vers Snowflake

Comment collecter de manière fiable des données OT indépendantes des fournisseurs dans l'atelier, les enrichir avec le contexte des actifs et de la production à la périphérie, et fournir une copie régie et consultable dans Snowflake à des fins d'analyse, de machine learning et de consommation en entreprise ?

Vue d'ensemble

architecture hub snowflake overview

Une architecture hybride de la périphérie au cloud dans laquelle Industrial Edge capture, normalise et contextualise la télémétrie et les événements OT, puis les transmet à Snowflake en utilisant à la fois des modèles d'ingestion basés sur des fichiers et en streaming. Snowflake sert de cloud de données d'entreprise pour les couches d'atterrissage, de sélection et d'analyse, permettant des analyses en temps quasi réel, la notation des modèles, des applications opérationnelles et des intégrations aux systèmes MES/ERP/SCADA. Le design donne la priorité à la cohérence des données, à la sécurité, à la résilience et à l'interopérabilité indépendante des fournisseurs.

Architecture détaillée

Collecte et contextualisation Edge (Industrial Edge)

  • Industrial Edge utilise des appareils sur site à proximité de l'atelier et se connecte à des équipements d'automatisation indépendants des fournisseurs via des connecteurs OT (OPC UA, Modbus, Ethernet/IP, etc.). Il acquiert des données de télémétrie brutes, des alarmes et des événements.
  • À la périphérie, les données sont prétraitées : filtrage, compression, normalisation de l'horodatage, enrichissement avec les métadonnées des actifs (hiérarchies des actifs, contexte des bons de travail/des lots) et agrégation locale pour réduire la bande passante du cloud.
  • Un bus de données interne (MQTT/Unified Namespace) ou un Industrial Information Hub diffuse des flux thématiques harmonisés pour les composants en aval et les consommateurs locaux.
architecture hub snowflake detailed graphic no text

Description

Passerelle entre protocoles et formats

  • FFT DataBridge (application Edge) transforme et prépare les données en vue de leur ingestion via des fichiers. Il se met en mémoire tampon pour gérer les pertes de connexion, regroupe les données de manière intelligente, s'authentifie en toute sécurité grâce à l'authentification par paire de clés Snowflake et écrit sur les étapes du cloud pour le traitement de Snowpipe.
  • Snowflake Connector (application Edge) s'abonne au bus de données pour les flux continus, valide les schémas et vérifie l'état de santé, met en mémoire tampon les courtes pannes de mémoire et utilise Snowpipe Streaming pour insérer des lignes directement dans Snowflake avec une faible latence.

Plateforme de données Snowflake

  • Ingestion basée sur JSON via Stage + Pipe (FFT DataBridge) : les charges utiles brutes atterrissent dans une zone de transit ; Snowpipe/Tasks crée des tableaux sélectionnés et des archives historiques.
  • Ingestion directe basée sur les lignes (Snowpipe Streaming via Snowflake Connector) : disponibilité continue et à faible latence des lignes opérationnelles pour les tableaux de bord et la surveillance.
  • Les pipelines de transformation (SQL, Snowpark, Streams & Tasks) produisent des ensembles de données sélectionnés, alignés dans le temps et enrichis en contexte pour la BI et le ML.
  • Snowflake fournit des fonctionnalités de gouvernance (contrôle d'accès, masquage, généalogie), de mise à l'échelle et d'intercloud destinées à la consommation des entreprises.
  • Snowflake fonctionne de manière native et cohérente sur les principaux fournisseurs de cloud (AWS, Microsoft Azure et Google Cloud Platform), offrant ainsi un véritable déploiement, une réplication et une mobilité des données entre les clouds.

Valeurs et avantages

Composants