En hydrologie, la reconstruction de débits à partir de données atmosphériques comprend classiquement diverses étapes : sélection de variables d'entrée les plus pertinentes (en localisation et nature, selon la physique propre du bassin et notamment les processus qui dominent dans la transformation hydrologique) ; critique et débiaisage de ces données d'entrée, puis transfert du maillage initial vers le support géographique du bassin ; transformation pluie-débit à proprement parler, sur la base d'un modèle numérique déterministe plus ou moins détaillé, usuellement inspiré de la physique.
L'efficacité constatable des réseaux neuronaux utilisés en reconstitution de débit s'accompagne usuellement du télescopage de toutes ces étapes, dont on ignore jusqu'à l'existence et les contraintes logiques ; ceci nuit à l'intelligibilité du service rendu par l'outil neuronal, et donc à son intégration raisonnée dans la trousse à outils de la communauté.
Dans ce contexte, nous avons préféré examiner si un réseau neuronal minimaliste, placé dans des conditions d'apprentissage fortement orientées par une intuition thématique, combine ses entrées de façon pertinente ; dans ce cadre on regardera moins le calage obtenu que la sensibilité du réseau calé. Nous présenterons quelques exemples :
1/ l'apprentissage du débit d'une rivière (Albarine) depuis ERA5 par réseau neuronal, avec un réseau de type (ERA5=n)->k1->2->k2->(1=débit) ; l'originalité de ce réseau est l'étranglement par la couche réduite à 2, qui compacte l'information a priori optimale à la reconstitution du débit, dans la limite de deux variables d'état. On constate qu'une des infos traduit le cycle saisonnier (balancement été-hiver, chaud-froid), l'autre encode l'humidité récente (alternance humide sec).
2/ dans un cas d'une rivière de Norvège, on constate qu'il faut pour générer une crue... qu'il ne pleuve pas. En effet, il s'agit là de crues de fonte nivale ; le facteur dominant est l'ensoleillement des derniers jours... à condition qu'il y ait de la neige à fondre, donc que l'hiver n'ait pas été trop froid (apports d'air maritime humide et non arctique).
Ce deuxième exemple montre qu'un apport du RNA est sa non-linéarité, permettant par des effets de "ET logique" d'exprimer des effets de seuil ou des séquences causales compatibles avec ce que l'on sait du milieu hydrologique.
3/ on considère maintenant un exemple un peu différent, des données de radar pluviométrique. On apprend pour chaque petit bloc spatio-temporel (de 5 mailles de côté en x,y,t) la valeur de la cellule centrale à partir de celles de ses voisines. Le réseau a pour structure (Pvoisinage=125-1)->1->k->(1=Pcentre), avec en particulier, une première couche cachée réduite à 1 seul neurone. On constate que l'on retrouve entre les entrées et ce neurone unique... des poids de krigeage ! Ce réseau étranglé s'apparente donc à un interpolateur linéaire connu, suivi d'une fonction de redressement quantile-quantile, ce qui le rend intellectuellement très acceptable.
Nous en conclurons que, dans ces quelques cas précis de réseaux neuronaux très modestes placés dans des conditions d'apprentissage contraintes, on retrouve des dépendances thématiquement pertinentes, donc demeurant sous contrôle scientifique.
- Présentation