Architecture Dataflow : Ensemble de principes et de modèles permettant de concevoir des systèmes informatiques où les données circulent entre des composants de traitement, favorisant ainsi un traitement asynchrone et une meilleure gestion des flux d'information.
Dans une architecture dataflow, les données sont traitées en continu, ce qui permet une réponse rapide aux événements en temps réel.
Les systèmes basés sur l'architecture dataflow sont souvent utilisés dans le traitement de grandes quantités de données, comme dans le cas de l'analyse de flux de données en temps réel.
L'architecture dataflow facilite l'intégration de différents services, permettant ainsi une communication fluide entre les applications et les bases de données.