Les cinq éléments essentiels d’un programme de surveillance hydrologique

01 juillet 2012

par Stuart Hamilton1

1L’eau est le capital naturel de la population mondiale en constante augmentation. Les services fondés sur ce capital naturel sont la monnaie d’échange du XXIe siècle. Le rythme et la distribution géographique des quantités d’eau de surface – et la variation de qualité de cette eau – définissent notre façon de concevoir et mettre en place les infrastructures nécessaires aux secteurs de l’énergie, de l’agriculture, de l’exploitation minière, des transports et de l’industrie.

Mais l’eau peut également faire des victimes. Les sécheresses et les inondations sont des menaces nécessitant une vigilance constante. Notre capacité de prévoir les inondations et les sécheresses et d’assurer la protection des écosystèmes est mise en cause par les changements d’affectation des terres et l’évolution du climat. Des sources d’approvisionnement sûr en eau potable et des écosystèmes entiers dépendent de l’amélioration continue de notre compréhension des ressources en eau, ainsi que de nos efforts pour les préserver.

En réalité, on ne saurait trop insister sur l’importance de la disponibilité, de la fiabilité et de l’exactitude des données issues des programmes de surveillance des eaux. Les réseaux de surveillance hydrométrique actuels vont de la gestion bénévole de petits bassins hydrographiques à des initiatives de portée continentale. Collectivement, ces réseaux servent de base à chaque action entreprise en vue de soutenir les utilisations bénéfiques de l’eau et de minimiser les menaces qui en découlent.

Rédigé pour les gestionnaires de ressources en eau, le présent article expose les cinq éléments essentiels au succès d’un programme de surveillance hydrologique:

1) Le système de gestion de la qualité

2) La conception du réseau

3) La technologie

4) La formation

5) La gestion des données

Le travail quotidien de l’hydrographe a considérablement changé depuis une décennie. Le moment est venu d’examiner les conséquences de ces changements pour le système de bout en bout servant à collecter et diffuser des données crédibles et valables. Le présent document propose une approche moderne des «meilleures pratiques» de la surveillance hydrométrique. Ces pratiques sont pleinement applicables à n’importe quelle taille de réseau et peuvent améliorer la disponibilité, la fiabilité et l’exactitude de toutes nos sources d’information sur l’eau.


1. Système de gestion de la qualité

2Un système de gestion de la qualité (QMS) consiste notamment en un ensemble de procédures normalisées d’exploitation régissant le processus de production de données, en vue de s’assurer de la qualité constante et avérée de celles-ci. Tout programme de surveillance nécessite des objectifs clairs concernant 1) la qualité des données, 2) le service et 3) la sécurité, étroitement liés aux besoins des utilisateurs finals. Le système de gestion de la qualité établit des règles permettant d’orienter et de piloter une organisation vers la réalisation de ces objectifs.

En évaluant ou en créant un système de gestion de la qualité, les gestionnaires des ressources en eau doivent garder à l’esprit la notion d’«adaptation à l’objectif». Si, par exemple, des données sont appropriées pour ordonner l’évacuation d’une plaine inondable, elles peuvent ne pas l’être pour vérifier une hypothèse concernant une tendance Les utilisateurs finals développent une relation de confiance avec les fournisseurs de données, basée sur la conviction que les objectifs de gestion de la qualité (en matière de qualité des données, de service et de sécurité) ont bien été atteints concernant l’objectif prévu.

Objectifs de qualité

La qualité résulte des processus d’observation et de production d’information. Ces processus doivent se dérouler dans le respect formel de procédures opérationnelles normalisées et documentées. Il existe de nombreuses sources industrielles pour les normes hydrométriques, comprenant:

• Les rapports de la série «Techniques and Methods» publiés par l’U.S Geological Survey (USGS);

• Les «Techniques of Water Resources Investigations Reports», également publiés par l’USGS;

• Les Comités techniques 113 et 147 de l’ISO;

• Les publications de l’OMM élaborées au titre du Cadre de référence pour la gestion de la qualité – Hydrologie (OMM-N° 49, Règlement technique, Volume III – Hydrologie, édition de 2006 ; OMM-N° 168, Guide des pratiques hydrologiques, sixième édition ; et divers manuels, dont la deuxième édition du Manuel de jaugeage).(Tous ces documents peuvent être téléchargés gratuitement à partir du site Web de l’OMM).

La mise en conformité avec des normes techniques reconnues au niveau international fournit une base pour la comparabilité des données. Les données produites par différents organismes (ou même par différents hydrographes au sein d’un même organisme) doivent présenter un degré d’exactitude et une précision similaires. Cela suppose que, si des hydrographes surveillent de façon indépendante le même instrument de mesure, les hydrogrammes de débit obtenus seront très semblables et dépourvus de tout biais systématique.

Objectifs de service

Les objectifs de service concernent le caractère exhaustif des données (pour des niveaux donnés d’assurance de la qualité à différents délais depuis l’observation). Par le passé, les données hydrométriques étaient publiées tous les ans, sous la forme de valeurs journalières cumulées et de statistiques sur les valeurs extrêmes. Aujourd’hui, l’accent est mis sur la diffusion continue en temps réel de données de valeur unitaire. Un service hydrométrique moderne doit tenir compte de l’évolution des attentes concernant la fiabilité et l’actualisation des données.

Pour atteindre les objectifs de service souhaités, il faut avant tout assurer l’équilibre entre :

• La dotation en personnel (par exemple le délai d’intervention en cas de panne d’instrument);

• Les spécifications du matériel (c’est-à-dire la fiabilité des instruments);

• La gestion du cycle de vie de l’équipement (c’est-à-dire les procédures de contrôle et d’étalonnage);

• L’efficacité de la production de données (par exemple notifications automatisées, correction automatique et publication automatique);

• Le retour d’information sur le processus de production de données (par exemple des métadonnées en quantité suffisante pour faciliter un processus d’amélioration continue).

En outre, on s’attend de plus en plus que les données soient librement consultables et accessibles. Des normes harmonisées sur l’interopérabilité des données sont fournies par l’Open Geospatial Consortium (OGC). Par exemple, la norme WaterML2.0 permet l’échange 1) de données de séries chronologiques ponctuelles, 2) de valeurs obtenues après traitement, telles que les prévisions et valeurs cumulées, et 3) d‘informations importantes sur les points, procédures et contexte de surveillance. En ayant recours au cadre établi par l’OGC, les gestionnaires de ressources en eau s’assurent que les données d’observation peuvent être transmises dans un contexte de caractéristiques et de couvertures pertinentes.

Objectifs de sécurité

Les données hydrométriques sont précieuses et nécessitent de gros investissements financiers, humains et opérationnels. Les objectifs de sécurité ont pour but de protéger ces investissements pendant toute la durée de vie des données Dans un contexte de gestion des données bien en place, la valeur des données augmente avec le temps.

Mais toutes les informations recueillies restent exposées à la négligence, à la perte et à la destruction. Les avancées technologiques peuvent donner lieu à des relevés fragmentés et des formats incompatibles. La continuité entre les systèmes modernes et les archives historiques doit être assurée avec soin et diligence.

Les principes du Système mondial d’observation du climat (SMOC) énoncent plusieurs pratiques exemplaires à appliquer pour maintenir l’intégrité des données de séries chronologiques. Ainsi, il convient de «recueillir et traiter avec soin non seulement les données elles-mêmes, mais aussi les renseignements et l’historique relatifs aux conditions locales, aux instruments, aux modalités d’exploitation, aux algorithmes de traitement des données et aux autres facteurs entrant en ligne de compte dans l’interprétation des données (c’est-à-dire les métadonnées)».

Les meilleures pratiques en matière de conservation des données permettent de s’assurer que 1) les données sont sécurisées et mises à l’abri, 2) les métadonnées sont complètes et 3) la documentation est disponible pout tout changement éventuel de méthodes susceptible d’influer sur l’intégrité des données.

L’attention portée aux résultats

S’il importe d’articuler clairement les objectifs souhaités en matière de qualité des données, de service et de sécurité, il faut aussi que le système de gestion de la qualité veille à ce que les produits élaborés répondent aux besoins des utilisateurs finals. Tout écart par rapport aux résultats escomptés devrait donner lieu à un retour d’information, de manière à créer un cycle d’amélioration continu. Les besoins des utilisateurs finals variant avec le temps, le système de gestion de la qualité doit donc s’adapter.

Vérifier que les objectifs de qualité ont été atteints est un processus en deux étapes. Le contrôle de la qualité est un système de vérifications régulières et cohérentes pour s’assurer de l’intégrité et du caractère exhaustif des données ainsi que de leur conformité avec les procédures opérationnelles normalisées établies. L’assurance de la qualité est un système de procédures d’examen indépendantes pour vérifier que les objectifs de qualité des données ont bien été atteints.

La plupart des Services hydrométriques nationaux ont développé leur propre système de gestion de la qualité. Cependant, certains d’entre eux ont opté pour la certification selon la méthode des normes ISO de la série 9000.


2. Conception du réseau

3La conception du réseau est un processus continu selon lequel de nouvelles stations sont mises en place et des stations existantes sont supprimées, à mesure que les priorités et le financement évoluent. Ce processus doit faire appel à des méthodes d’éclaircie et de taille sélectives, tout en favorisant la repousse pour combler les lacunes en matière de données. Actualiser la conception d’un réseau est fondamentalement un problème d’échantillonnage. Le défi consiste à trouver le juste équilibre entre les objectifs de la surveillance hydrométrique et les avantages du site.

Échantillonner le phénomène étudié

Comment l’information sera-t-elle utilisée? Le processus de conception doit débuter en tenant compte du but poursuivi. Des emplacements en amont et en aval des barrages ou dérivations sont utiles, mais à des titres différents. Un emplacement en amont assure l’intégration de l’ensemble du processus d’écoulement ayant lieu dans le bassin versant, tandis qu’un emplacement en aval est riche en informations sur les effets qui se manifesteront dans les écosystèmes aquatiques et riverains récepteurs. Un bon emplacement est un emplacement où la variation de débit est sensible au phénomène étudié.

On se fonde sur les objectifs de surveillance pour déterminer les paramètres qui doivent être pris en compte dans la conception du réseau. S’il s’agit simplement de s’assurer de la conformité réglementaire ou d’établir des statistiques pour la conception technique, il se peut alors que le débit soit le seul paramètre à prendre en compte. Mais si le but est de mieux comprendre les processus de ruissellement, d’élaborer des politiques de gestion des ressources en eau ou d’étalonner des modèles de prévision, la conception du réseau devrait alors prendre en compte tous les éléments pertinents du cycle de l’eau, y compris le stockage (par exemple les eaux souterraines, l’accumulation de neige et les niveaux des lacs) et les flux (par exemple la température, l’évaporation et les précipitations). La mesure de tels paramètres (par exemple la turbidité et la qualité de l’eau) doit s’effectuer au même endroit que la mesure du débit, si l’on souhaite obtenir les charges. La collaboration juridictionnelle fait partie intégrante du processus de conception du réseau et assure une approche efficace et coordonnée de la surveillance exercée dans un bassin hydrographique.

Échantillonner le «paysage hydrologique»

Pour concevoir un réseau de surveillance hydrométrique efficace, il faut ensuite prendre en considération la façon dont la variabilité spatiale doit être échantillonnée pour assurer une surveillance efficace de la variabilité temporelle. En d’autres termes, l’emplacement des instruments de mesure devrait refléter la complexité géophysique du paysage. Afin de valider l’hypothèse selon laquelle les données sont évolutives et représentatives, les instruments de mesure doivent être placés de manière à couvrir toute l’échelle de la variabilité géophysique du bassin hydrographique.

Le Guide des pratiques hydrologiques de l’OMM préconise les densités de stations suivantes:

Le Guide des pratiques hydrologiques de l’OMM préconise les densités de stations suivantes:

Au bout du compte, la densité de stations concrète dans une région donnée est fonction de la tolérance au risque. Il se peut que ces recommandations de densité à l’échelle régionale ne permettent pas de définir clairement les menaces liées à d’éventuelles inondations à l’échelle locale ou de fournir les éléments d’orientation nécessaires pour assurer l’approvisionnement en eau à cette même échelle. La tolérance au risque est souvent particulièrement élevée dans les pays en développement; il en résulte un besoin perpétuel de réagir aux crises liées à l’eau (plutôt que de les prévoir).

Choisir le site

Une fois les objectifs de surveillance et les critères de représentativité géophysique établis, on peut alors choisir un tronçon de cours d’eau à surveiller. Un bon emplacement est un emplacement caractérisé par 1) un débit uniforme variant graduellement, 2) un accès au site peu onéreux, 3) des particularités géophysiques stables pour les référentiels de contrôle vertical et le contrôle de chenal et 4) des conditions de jaugeage de cours d’eau sécurisées.

Les objectifs de surveillance réduisent souvent le choix des emplacements possibles à ceux qui disposent de conditions de surveillance défavorables. Un décalage entre les conditions locales et la technologie appropriée génère des données de mauvaise qualité et d’importants besoins de maintenance, à la fois pour les procédures sur le terrain et pour les procédures administratives. Il existe des technologies permettant d’atténuer ces inconvénients pour presque tous les compromis nécessaires au choix d’un site, mais les solutions les plus fiables et les moins coûteuses sont basées sur un bon choix du site.

Le choix du site a des répercussions sur les paramètres suivants :

• La persistance des données (autrement dit, un emplacement bien choisi devrait permettre de recueillir des données pour les générations à venir),

• La qualité des données (par exemple la conformité avec les hypothèses retenues),

• La représentativité des données (c -à-d leur pertinence pour des emplacements non jaugés),

• Les coûts d’exploitation (par exemple l’accès au site),

• Les risques liés à la responsabilité (c -à-d la sécurité au travail et/ou publique),

• Le choix des méthodes (par exemple l’utilisation d’une courbe de tarage ou celle de la méthode indice-vitesse),

• Les risques liés à la fiabilité (par exemple l’exposition au vandalisme).

Avec tant d’éléments en jeu, une enquête significative est justifiée pour tout changement de taille du réseau. Malheureusement, les gestionnaires des ressources en eau sont souvent sommés par leur direction d’augmenter ou de réduire la taille du réseau dans les plus brefs délais (par exemple avant la fin d’un exercice fiscal). Ainsi, d’importantes décisions sont prises à la hâte. En tant que meilleure pratique, la conception du réseau devrait être un processus continu dans le cadre duquel il faudrait se préparer à faire des choix judicieux au pied levé.


3. Technologie

technologieChoisir la meilleure technologie pour un emplacement donné n’a jamais été aussi complexe. Même lorsqu’il lui faut choisir un simple transducteur de pression, un hydrologue doit prendre en compte le type d’instrument (par exemple piézoélectrique, capacitif, inductif, potentiométrique, à fil vibrant, à cylindre vibrant ou extensométrique) et la méthode de déploiement (par exemple à barboteur, ventilé ou compensé). Pour chaque combinaison de ces technologies, il existe de nombreux fournisseurs et produits, et à chaque produit correspond une spécification de performance qui peut se caractériser par une plage d’erreur, une hystérèse, une résolution, une sensibilité et une constante de temps particulières.

Les exploitants de réseau hydrométrique doivent prendre en compte plusieurs facteurs supplémentaires:

• Les exigences en matière de fiabilité – un intervalle de temps moyen acceptable entre les défaillances.

• La fiabilité du dispositif déployé – la distance d’occultation de certains profileurs de courant à effet Doppler (ADCP) peut, par exemple, s’avérer trop grande pour pouvoir mesurer correctement le débit pour certaines configurations géométriques des cours d’eau.

• Les coûts d’accès au site – pour les sites éloignés, les surcoûts liés à l’emploi de courantomètres à effet Doppler (ADVM) de concert avec un modèle indice-vitesse peuvent être aisément compensés en réduisant les visites sur site.

• Les facteurs locaux propres au site – une valeur élevée du transport de sédiments, des proliférations d’algues et la présence de glaces de rivière sont des facteurs peu propices au déploiement d’une technologie submersible onéreuse.

• La sensibilité et la précision des instruments – fait référence au temps et aux efforts consacrés au post-traitement des données.

• La formation et la familiarité – limiter la variété des produits mis à disposition dans une région donnée peut considérablement réduire à la fois les exigences en matière de formation et la probabilité d’erreurs liées à la méconnaissance de certains instruments.

Coût total de possession

Les facteurs qui affectent le coût total de possession de la technologie considérée comprennent: les dépenses d’investissement initiales; les exigences en matière de fréquence de l’étalonnage et du service sur site; les déplacements imprévus sur le terrain pour réparer ou remplacer des instruments; le temps et les efforts consacrés au contrôle et au post-traitement des données; la perte de données due aux pannes de capteurs; la quantité de données dépréciées par une incertitude élevée; et l’approvisionnement en énergie (par exemple en gaz comprimé et/ou en une autre source d’énergie) Les économies réalisées au moment de l’achat peuvent être largement contrebalancées par les coûts d’exploitation et de maintenance.

Néanmoins, l’équipement de surveillance à bas coût a bel et bien sa place. Par exemple, lorsqu’il s’agit de surveiller une zone à haut risque (au cours d’une débâcle dynamique, par exemple), il faut obtenir autant de données que possible avant que le capteur ne soit inévitablement détruit ou perdu. Il peut y avoir un écart d’un ordre de grandeur dans le coût des capteurs. Les capteurs à bas coût ont également conduit au concept de «réseau sous la forme d’un capteur», dans lequel plusieurs capteurs redondants peuvent être mis en place dans un instrument de mesure. Dans certains cas, il est avantageux d’utiliser la moyenne de ces mesures indépendantes, si elles sont imprécises, et d’obtenir également une mesure de l’incertitude cumulée. Ce concept se prête également à l’utilisation de nombreux capteurs à bas coût afin d’échantillonner les paysages à l’échelle des systèmes d’observation spatiale.

S’agissant du coût d’exploitation total, les technologies de télécommunication apportent une amélioration importante de la fiabilité des données, du fait de la surveillance en temps réel de l’état des stations, ainsi que des avancées en ce qui concerne le rythme des activités de jaugeage.


4. Formation

FormationAucun investissement dans la technologie ne peut compenser des choix erronés en matière de collecte et de traitement des données. Les erreurs dues à des procédures fautives sont les plus difficiles à détecter et corriger lors du post-traitement des données. La formation permet d’accroître le taux d’acquisition des compétences, tout en réduisant la fréquence des erreurs commises. La formation n’a sans doute jamais été aussi importante, alors même que, dans de nombreux organismes de surveillance, la distribution démographique présente actuellement deux maximums correspondant aux nouvelles recrues et aux préretraités, ce qui engendre un besoin urgent de compenser la perte d’expérience par une amélioration des connaissances.

Les hydrographes doivent exceller dans plusieurs disciplines s’ils veulent être vraiment efficaces. La mesure de l’écoulement est une application complexe de principes scientifiques et techniques. Les décisions prises sur le terrain et aux fins d’interprétation des données nécessitent une connaissance élémentaire de la physique, de la chimie, de la biologie, de l’hydrologie, de l’hydrodynamique, de la géomorphologie fluviale, des mathématiques et des statistiques.

De plus, l’installation et l’exploitation du matériel de surveillance hydrométrique requièrent des compétences en matière de plomberie, de câblage et de programmation. Le jaugeage nécessite l’interprétation éclairée de protocoles de gestion de la qualité quant au choix et à l’application des méthodes, tout en tenant compte du contexte spécifique des conditions de mesure. L’hydrographe doit prendre des décisions afin de limiter les effets néfastes sur l’environnement et de préserver la sécurité personnelle et publique.

Bien que les options de formation soient limitées, certains services hydrométriques nationaux (l’USGS par exemple) proposent des cours destinés au grand public. Des cours de courte durée portant sur les méthodes hydrométriques sont également proposés par les fournisseurs de matériel et de logiciels.

Les investissements dans la formation permettent d’améliorer la qualité des données, d’accroître la productivité, d’améliorer la fiabilité des instruments de mesure et de renforcer la sécurité. La formation en matière d’hydrographie fluviale doit être un processus continu permettant de rester au fait des meilleures pratiques qui s’appliquent aux nouvelles technologies émergentes.


5 Gestion des données

Gestion des donnéesLes améliorations en matière de programme de surveillance hydrologique se concentrent souvent sur les technologies de terrain. On a fréquemment tendance à faire abstraction de la manière dont les données sont gérées une fois acquises. Les données hydrologiques sont des données complexes. Les hydrographes sont chargés de stocker, valider, analyser et retracer les très nombreuses données sur l’eau. Des systèmes spécialisés de gestion des données hydrologiques permettent de répondre aux besoins en constante évolution des hydrologues et de favoriser l’application des normes industrielles en cours pour la gestion des informations sur l’eau. Un logiciel spécialement conçu pour les hydrologues est nécessaire pour atteindre la qualité et l’efficacité recherchées en matière de surveillance hydrologique.

Des données vérifiables et défendables

Comme nous l’avons mentionné, le système de gestion de la qualité établit la crédibilité du processus de production de données. Le système de gestion des données a notamment pour objet d’établir la «défendabilité» des données en attestant de la conformité avec le système de gestion de la qualité. À cet effet, le système de gestion des données doit préserver tout l’historique des données et permettre en particulier de savoir qui a fait quoi, quand, comment et pourquoi. En tant que meilleure pratique, il importe de faire en sorte que les données brutes soient conservées intactes et que tout changement soit enregistré et réversible en cas de besoin. Cela veut dire que les données peuvent être réutilisées à un moment donné afin de savoir avec exactitude quelles éditions, corrections, approbations ou notes ont été appliquées à n’importe quel moment. Cela est particulièrement important lorsqu’on procède à la publication dynamique de données par l’intermédiaire de pages ou de services Web, par opposition aux documents statiques. L’historique complet (permettant de savoir qui a fait quoi, quand, où, comment et pourquoi) facilite le contrôle de qualité par des pairs et l’assurance de la qualité par des supérieurs. L’importance de cet historique confirme la deuxième moitié de la formule bien connue en matière de gestion de la qualité : «Dîtes ce que vous faites, faîtes ce que vous dîtes ».

Des données accessibles et centralisées

Les hydrologues doivent gérer de nombreux types de données dans toutes sortes de formats différents : données de laboratoire en format Excel, séries chronologiques en format CSV, données d’étalonnage en format correspondant au logiciel du fournisseur de matériel, données de stations en format GIS, etc. En tant que meilleure pratique, il convient de compiler et de gérer toutes ces données et les métadonnées connexes sous la forme d’un ensemble sécurisé et cohérent. Les meilleures solutions favorisent des requêtes relationnelles de cet ensemble de données. Les connexions de services Web avec cette base de données supposent que les données et métadonnées sont accessibles de n’importe où, à n’importe quel moment.

Données en temps réel et automatisation

Un système de surveillance hydrométrique moderne transmet des données de manière dynamique en temps réel. En principe, les meilleures données sont en permanence accessibles et peuvent être utilisées selon des normes internationales aux fins d’interopérabilité. Cela veut dire que les utilisateurs finals peuvent en bénéficier dès que les nouvelles données ont été annexées, que les valeurs erronées ont été filtrées, que les corrections ont été apportées, que les courbes de tarage ont été actualisées ou que les corrections de dérive ont été appliquées. Les meilleures solutions permettent également aux utilisateurs finals de disposer de métadon-nées informatives concernant la qualité et le statut des données. Les données peuvent être filtrées selon leur état lors du processus de gestion de la qualité. Les données d’une qualité suffisante pour être archivées sont clairement identifiées et «bloquées» aux fins d’édition ultérieure.

Des notifications automatisées préviennent à temps des évènements hydrologiques et avertissent les hydrographes de toute anomalie ou de tout problème signalé par les indicateurs d’état des stations nécessitant une attention immédiate. Les algorithmes de correction automatique des données écartent les valeurs non valides et corrigent les erreurs persistantes et/ou prévisibles en temps réel. Cela a pour effet d’éliminer certaines des tâches les plus onéreuses et répétitives et de permettre à l’hydrographe de se concentrer sur l’analyse interprétative, particulièrement importante. Le système d’indications automatisé fournit des produits de données d’un grand intérêt aux professionnels des ressources en eau et aux décideurs, lorsque la situation le justifie ou selon un échéancier déterminé.

Des courbes de tarage crédibles

Les meilleures solutions pour développer et valider les courbes de tarage sont élaborées à partir de principes hydrauliques simples. Toutes les informations recueillies sur le terrain concernent le processus d’étalonnage, et pas seulement les coordonnées x ou y des mesures de tarage. Cela englobe les photos du site, les coupes transversales, les notes d’observation sur le terrain, la qualité des mesures, les conditions de contrôle, les étalonnages historiques et les séries chronologiques de données de hauteur. Il a été démontré qu’il était plus simple et plus précis d’adopter une approche fondée sur des données factuelles pour ajuster une courbe plutôt que de systématiquement « chasser » la courbe en appliquant des techniques de régression statistique.

Avec les systèmes de surveillance hydrométrique modernes, les modèles de dérivation du débit sont étalonnés selon les principes de la science et des techniques hydrauliques sous-jacents Il en résulte :

• Une confiance renforcée en matière d’extrapolation (dans le cadre de la géométrie du chenal connue),

• Un accord plus aisé sur une solution (autrement dit, différents hydrographes produiront indépendamment des résultats analogues), et

• Une «défendabilité» accrue des résultats (autrement dit, les paramètres des courbes de tarage aident à forcer une solution).

Il est souvent nécessaire de prendre en compte le caractère changeant des conditions de contrôle du chenal en apportant des corrections au modèle hauteur-débit. Les meilleures solutions pour gérer les corrections de ces fluctuations incluent l’inspection et l’interprétation des observations sur le terrain, l’établissement d’un graphique des résidus et des visualisations des séries chronologiques.

Visualisation, correction et marquage des données

Une interprétation visuelle avancée et une analyse des données sont nécessaires pour déceler les erreurs qui ne peuvent l’être automatiquement. Les outils graphiques perfectionnés disponibles dans les systèmes de gestion des données facilitent l’étalonnage des données de séries chronologiques en utilisant des observations sur le terrain faites à l’aide d’un instrument de mesure de référence Des corrections spécialisées peuvent être effectuées pour beaucoup d’erreurs courantes, souvent répétitives, qui sont caractéristiques des technologies utilisées dans le cadre de la surveillance hydrométrique. Des méthodes sophistiquées sont nécessaires pour effectuer des estimations en cas de lacunes importantes dans les données et pour les périodes marquées par les effets de la glace. Des compétences particulièrement approfondies sont nécessaires pour formuler des observations sur ces actions et pour ajouter des marqueurs d’événements ainsi que des niveaux de qualité et modifier le statut des données.

Production de rapports et publication

Les meilleurs systèmes de gestion des données assurent la continuité du processus de production de rapports au moyen de modèles de rapports personnalisables, qui peuvent être adaptés afin de concorder au mieux avec les rapports antérieurs. Des nouveaux rapports de grande qualité peuvent être élaborés à partir de rien ou en modifiant les modèles pour obtenir des rapports conformes aux normes de l’industrie. Le contenu de ces rapports peut être filtré selon le statut dans le système de gestion de la qualité, de telle sorte que les rapports de données d’une qualité suffisante pour être archivées puissent être facilement produits aux fins de publication traditionnelle. L’accès aux services Web offre la possibilité de publier des données de manière dynamique, en se servant de filtres de métadonnées et en utilisant des normes applicables à l’ensemble du secteur.

Des programmes de surveillance hydrologique modernes

Depuis la définition d’objectifs précis en matière de qualité des données hydrologiques jusqu’à la publication en temps voulu d’informations crédibles, les cinq éléments essentiels présentés dans cet article sont fondamentaux pour tout programme moderne de surveillance hydrométrique. Les meilleures pratiques, les normes de l’industrie et les techniques de surveillance hydrométrique ont beaucoup évolué ces dix dernières années. Cette évolution donne lieu à l’émergence d’une nouvelle «normale», et le moment est venu de restructurer les programmes hydrométriques pour améliorer la disponibilité, la fiabilité et l’exactitude des sources d’information hydrologique.

Les modifications apportées pour optimiser la fourniture des données et produits hydrologiques essentiels contribueront à assurer le succès de projets de grande envergure, la préservation d’écosystèmes vitaux et la sécurité des citoyens. Les progrès accomplis dans le domaine de l’interopérabilité et de l’accessibilité des données hydrologiques favoriseront un processus de décision fondé sur des données factuelles pour résoudre les problèmes liés à l’eau, depuis la conception d’un ponceau jusqu’à l’élaboration de politiques mondiales en matière d’environnement, et devraient permettre de laisser un monde meilleur aux générations futures.


Références

1 Expert associé pour la Commission d’hydrologie de l’OMM; agent de liaison du Canada pour le Comité hydrométrique (TC 113) de l’Organisation internationale de normalisation (ISO); président des North American Stream Hydrographers (NASH); et hydrologue principal à Aquatic Informatics.


[1] US Geological Survey (USGS) Techniques & Methods Report

[2] USGS Techniques of Water Resources Investigations Report

[3] ISO Technical Committee 113

[4] World Meteorological Organization (WMO) Operational Hydrology Reports

[5] WaterML2.0 Standard

Global Climate Observing System (GCOS) Principles

[7] Standardized ISO 9000 Method

[8] Organisation météorologique mondiale (OMM) Guide des pratiques hydrologiques - http://cwc.gov.in/main/downloads/WMOENG.pdf

    Partager :