Genius Geomatics

Blog Geomod

lawn-stones
Blog Geomod, Hydro

Intégrer des techniques alternatives pour une gestion durable des eaux pluviales. Partie 2

Intégrer des techniques alternatives pour une gestion durable des eaux pluviales. Partie 2

Cet article est la suite de la partie 1 posant les problématiques de la gestion des eaux pluviales, leurs évolutions et les directions actuelles.

Pousser vers une expansion des techniques alternatives à la gestion des eaux pluviales

     Malgré l’apport évident qu’apportent ces solutions en zones urbaines pour le bien-être des habitants et l’environnement. En d’autres termes, on observe que la vitesse de développement de ces systèmes est assez lente. Ceci peut être dû à plusieurs choses :

  • Un prix parfois élevé des dépollutions d’eaux de ruissellement
  • Un manque d’indications précises dans le cadre juridique
  • Une communication parfois encore faible sur ces types systèmes et leurs avantages
  • Des difficultés de dimensionnement de ces études de ruissellement qui peuvent être complexes.
Toitures végétalisées
Toitures végétalisées

Pollution des eaux infiltrées ?

     Le rapport du GRAIE (Groupe de recherche Rhône-Alpes sur les infrastructures et l’eau) sur les risques réels et avantages des eaux de ruissellement de Juin 2014 montrent que les eaux de ruissellement ne sont généralement pas polluées. Seul certains cas, à la marge et connus, nécessitent une dépollution avant rejet dans la nature. Donc les systèmes de dépollution ne doivent pas être systématiques et se révèlent souvent être des dépenses inutiles.

En plus de cet aspect, les particules polluantes sont filtrées par la noue, le fossé ou tout système de drainage. Ainsi elle n’atteindraient finalement presque jamais les nappes phréatiques ce qui est la principale crainte de la population.

     La problématique principale lorsqu’il s’agit d’infiltration des eaux pluviales est donc de maximiser la surface d’infiltration, par rapport à la surface de collecte afin d’avoir le meilleur rendement d’infiltration possible. C’est d’ailleurs le facteur déterminant pour le choix de la technique alternative. Cet aspect est à mettre en relation avec les prix du foncier qui détermine grandement l’intérêt économique de tels choix.

     Le GRAIE effectue également un travail d’observatoire des opérations exemplaires pour la gestion des eaux pluviales. Ces données disponibles en ligne permettent de communiquer sur l’utilisation de ces solutions, des difficultés de mise en œuvre rencontrées et des résultats concrets observées. Ces actions sont très intéressantes car permettent de regrouper les retours d’expériences et d’aider à la décision les collectivités qui aimeraient franchir le pas. On retrouve cette initiative dans le lien suivant :

http://www.graie.org/portail/animationregionale/techniques-alternatives/

Cadre juridique et volonté politique

Les études actuelles de refonte d’un quartier, de constructions d’habitations ou de quelconques constructions urbaines nécessitent une multitude d’étude. Parmi elles, doit être fait une analyse plus ou moins poussée sur l’évacuation et/ou l’infiltration des eaux. Juridiquement, il existe 2 cas :

  • Le cas d’un rejet directement dans le milieu naturel :
    • Bassin versant lié inférieur à 20 hectares et supérieur à 1 hectare : Installations, ouvrages, Travaux et Activités (IOTA) soumis à une déclaration D auprès des services de la police de l’eau et des milieux aquatiques,
    • Bassin versant lié supérieur à 20 hectares : IOTA soumis à une déclaration A auprès des services de la police de l’eau et des milieux aquatiques.
  • Cas d’un raccordement à un réseau pluvial ou unitaire :
    • Déclaration préalable du propriétaire du réseau par l’intermédiaire d’un dossier de déclaration d’extension ou d’antériorité de réseau existant auprès de la Police de l’eau avec autorisation de rejet délivré par le propriétaire du réseau.

Les autorités centrales poussent vers les solutions de techniques alternatives via notamment les rédactions des SAGEs. Ces documents donnent les orientations générales. On retrouve par exemple des directives dans le SAGE de l’Est Lyonnais :

« La gestion des eaux pluviales doit se faire dans des ouvrages superficiels. On définit comme ouvrage superficiel, un ouvrage dont la profondeur maximale est inférieure ou égale à 20 cm par rapport au terrain naturel (soit 2 fois la hauteur de précipitation trentennale sur le territoire pour une pluie de 24 h). »

Toutefois ces directives sont relativement peu restrictives donc le choix vers ces solutions dépendent des volontés politiques locales. Celles-ci sont finalement très ponctuelles (PLU, arrêtés communaux, etc.) et l’efficacité générale qui en pâtit.

Communications et retour d’expériences

On ne peut pas dire qu’il n’y a pas de communication autour des techniques alternatives. En effet, on retrouve nombre d’associations, groupements, colocs scientifiques, etc. Qui mettent en ligne bon nombre d’informations techniques et administratives sur l’implantation des solutions évoquées.

Prenons par exemple l’association ADOPTA (Association pour le Développement Opérationnel et la Promotion des Techniques alternatives en matière d’eaux pluviales) qui est un organisme qui regroupe plus de 100 membres intéressés par l’utilisation et la promotion de ces techniques. Ils mettent en relation les spécialistes, ingénieurs et décisionnaires dans le but de démocratiser l’utilisation de ces solutions. Par le biais de différentes fiches techniques de faisabilité et de cas d’étude elle informe ses membres et le grand public sur les techniques alternatives. Ces informations portent sur les possibilités financières et techniques d’intégration de ces solutions dans les projets nouveaux. Historiquement présente dans la région du Nord elle s’est aujourd’hui élargie puisqu’elle a des partenaires allant du département des hauts de France à l’Union Européenne en passant par certaines régions et l’agence de l’eau. Créé en 1997 son expérience est reconnue grâce au millier de réalisations et aux colocs scientifiques. Notamment les assises nationales de Gestion durable des eaux pluviales de Douai organisé chaque année en juin.

Toutefois ces organismes, leur nombre et leurs moyens sont relativement limités. Cela freine l’implantation de ces idées dans les projets actuels. Ces solutions sont vraisemblablement les seules techniques de développement durable puisque résilientes. Elles nécessiteraient une communication plus agressive pour atteindre les décisionnaires et les administrés afin d’orienter les choix vers ces techniques.

Dimensionner les techniques alternatives pour justifier de leur efficacité

Pour contrer les difficultés de dimensionnement et donc d’intégration des techniques alternatives, il existe désormais des outils. Ces outils aident particulièrement à la conception de micro réseaux pluviaux. Ces logiciels intègrent des modules hydrologiques et peuvent proposer une palette de solutions possibles pour l’évacuation des eaux. Se basant sur des résolutions d’équations d’écoulements, ils sont capables de dimensionner les réseaux et ainsi éviter les allers-retours entre les concepteurs CAO et les ingénieurs hydrauliques. Utilisé du stade d’esquisse (ESQ) à la phase projet (PRO), ils permettent de faciliter et de réduire le coût des études de conception.

Il existe chez l’éditeur de logiciel Innovyze, distribué en France par Geomod, 2 principaux outils permettant d’intégrer et de quantifier l’influence des techniques alternatives dans les études.

XPDrainage : outil de conception et de dimensionnement

XPDrainage, est un logiciel consacré principalement au dimensionnement de petits « réseaux » pluviaux capable d’intégrer une multitude de techniques alternatives. Il aide ainsi à développer le concept de gestion à la parcelle ou avec très peu de transport hydraulique. Il possède un module hydrologique avec de multiples types de générateurs de pluie et de méthodes de transformation pluie-débit. L’hydraulique est gérée par le moteur de calcul SWMM5 qui lui assure une grande robustesse. Son point fort est son module de dimensionnement automatique qui assure un gain de temps considérable dans une étude. XPDrainage est utilisé par les services compétents de l’agglomération Grand Lyon pour dimensionner les techniques alternatives dans la ville. Situé au cœur de la région Rhône-Alpes, à la pointe du développement français sur le sujet. Leur retour d’expérience est très bon et ils ont renouvelé leur confiance au logiciel pour 2019.

Description synthétique d'XPDrainage

Il est doté d’une interface intuitive qui permet d’être abordable pour tous bureaux d’études d’urbanisme, de génie civil voir de paysagistes responsable des études d’agencement des espaces extérieurs et des eaux de ruissellement. Pour être concret, le logiciel possède des modules pour la simulation de l’effet de différentes infrastructures qui sont par exemple :

  • Les bassins d’infiltration :

Le bassin d’infiltration est une surface prévu pour recevoir un volume assez important d’eau et dans lequel il y a une infiltration non négligeable. Ce bassin a généralement un volume d’eau non nul hors événements critiques.

  • Les noues :

Il s’agit de larges fossés à faible voire pente nulle dans lesquels l’eau s’écoule lentement et où il y a beaucoup d’infiltration et d’évacuation par évaporation.

Prix indicatif : 30à 100€/m2 + déplacement engin ; curage tous les 3 à 10 ans

  • Les réservoirs :

Ils peuvent être placé sous la chaussé (ex : parking) et limitent le ruissellement de surface donc les pollutions. Le rejet se fait ensuite vers un point unique déterminé.

Prix indicatif : 4500€ pour 5m3

  • Les chaussées poreuses :

Elles sont utilisées en zone urbaine pour réduire les zones 100% imperméabilisées. Ces chaussées possèdent un taux de vide non négligeable permettant l’infiltration direct d’un grand volume y transitant. Le taux de vide peut être très différent en fonction des matériaux utilisés (20%, enrobés poreux – 90%, structures alvéolaires complexe).

Prix indicatif : 450 à 600€/m3

  • Le puisard,

Utilisé lorsque les surfaces disponibles sont plus restreintes, ils permettent une infiltration sur une colonne d’eau.

Prix indicatif : environ 2600€ pour 4m3.

  • Les fossés d’infiltrations,

Fossé avec une pente non négligeable mais possédant une bonne infiltration pour permettre une évacuation plus efficace.

Prix indicatif : 14€/m3 entretien compris + 3€/m2 engazonnement ou 2 à 90€/u pour plantations

  • Les chambres d’infiltration,

Situé en sous-sol, ce sont des zones de vide ou l’eau peut se stocker et s’infiltrer.

Toutefois la valeur fondamentale à connaitre est la vitesse à laquelle se fait l’infiltration dans le sol. Pour cela il faut soit faire appel à un bureau d’études spécialisé pour avoir des données très précises ou bien se rapporter à la littérature.

lawn-stones
Blog Geomod, Hydro

Intégrer des techniques alternatives pour une gestion durable des eaux pluviales. Partie 1

Intégrer des techniques alternatives pour une gestion durable des eaux pluviales. Partie 1

Comment gérer les eaux pluviales durablement ?

La gestion des eaux pluviales est une problématique classique de nos villes.

Les eaux pluviales sont traditionnellement évacuées vers l’extérieur.  Cette opération est chaque jour rendue plus difficile compte tenu de la densification constante des agglomérations. La combinaison du réseau d’eaux usées et d’eaux pluviales (réseau unitaire) montre aujourd’hui ses limites environnementales, sociales en de situation de crise, et économiques. Les tailles des réseaux pluviaux indépendants, leur construction et leur entretien rencontrent eux aussi les mêmes types de problématiques. Dans un souci de développement plus durable, ce sont les techniques alternatives à ces réseaux qui sont aujourd’hui les solutions préconisées. Ces techniques tendent à appliquer une gestion de l’eau précipitée à la parcelle et non à l’évacuer vers des zones annexes. Elles s’intègrent dans la nouvelle démarche de résilience de nos sociétés vis-à-vis des risques naturels et dans notre rapport changeant à l’environnement.

Un atout pour les collectivités

En plus d’être une partie de la solution pour réduire l’impact des phénomènes extrêmes, ces solutions peuvent se révéler être de véritables atouts pour les collectivités. Or, contrairement à d’autres pays européens comme l’Allemagne ou les pays scandinaves, la France n’a quasiment pas démarré le développement à grande échelle de ces solutions qui ont pourtant un potentiel très important. Ainsi par exemple en 2012 en Haut de Seine, territoire pourtant très engagé sur le sujet, il a été calculé que seulement 7% des nouveaux projets intégraient des dispositifs alternatifs.

Aujourd’hui, en plein boom, il est encore difficile d’intégrer de manière efficace et mesurable ces solutions dans les projets récents. A travers cet article, nous tenterons de comprendre les tenants et les aboutissants de ces questions et essaierons d’apporter une réponse pour les introduire qualitativement dans des projets d’études.

Exemple de technique alternative implémenté en Nord Pas de Calais.

Exemple de parking pérméable implémenté en Nord Pas de Calais.

Intérêt des techniques alternatives

Notion de résilience

Suite aux catastrophes liées à l’ouragan Katrina en 2004, la FEMA (agence fédérale américaine pour la gestion des catastrophes) a popularisé le terme résilience. Celui-ci est très répété par les hommes politiques français et européens lorsque l’on évoque le sujet de l’environnement. Contrairement à ce que l’on a l’habitude d’entendre, la résilience n’est ni une solution technique, ni une méthode. C’est plutôt une prise de conscience sociétale de la vulnérabilité des biens et des personnes dans le but d’adapter les comportements et les installations pour gérer les situations de crise. Cette prise de conscience s’applique à toutes les strates administratives décisionnelles mais aussi à chacun des comportements individuels.

Dégât après le passage de « Katrina » en Nouvelle Orléans, USA

Lors des dernières années, on observe que le nombre de fortes crues s’est intensifié. Les spécialistes expliquent que ces évènements auront tendance à se multiplier du fait du changement climatique et de l’augmentation des surfaces imperméables en zone urbaine. Cette tendance a rendu l’infiltration naturelle parcellaire à seulement 15% de l’eau tombant dans nos villes. Pour remédier à cela, il n’existe pas de solution miracle. La clef est d’adapter nos installations et nos comportements pour pouvoir supporter ces phénomènes critiques ; c’est-à-dire d’acquérir cette prise de consciente de résilience.

Apparition des techniques alternatives pour la gestion des eaux pluviales

L’évolution des techniques de gestion des eaux pluviales a été progressive. L’urbanisation croissante du début du XIXème siècle a conduit à une politique du tout à l’égout et à une solution d’évacuation directe des eaux pluviales. La montée de l’automobile, des infrastructures associées et de vastes zones imperméables rendent le dimensionnement des réseaux obsolète et délicat. C’est pourquoi il a été choisi dans les années 60-70 d’implanter des bassins de rétention. Leur rôle de tampon permet de gérer les crues et ainsi les débordements en aval, zones parfois urbanisées. Toutefois ce système montre rapidement ses limites. On peut citer comme exemples les catastrophes de Nîmes (1988) et de Narbonne (1989) ainsi que les pollutions sévères de la Seine (1990 et 1991). On observe alors une volonté de changement de politique de gestion des eaux pluviales en France. Les premiers textes qui formalisent ces principes de gestion locale ou parcellaire apparaissent dans le guide « la ville et son assainissement », écrit par le CERTU en 2003 pour le ministère de l’écologie et du développement durable.

 

Changement de mentalité vers une gestion parcellaire

D’un point de vue infrastructure, la gestion pluviale tend vers une intégration au plan d’urbanisme, voir même au plan d’architecte. Cela permet de gérer cette eau localement et réduire le ruissellement. C’est d’ailleurs dans ce sens que la ville de Paris a lancé le projet « ParisPluie ». Il prévoit de déconnecter du réseau unitaire sur plusieurs centaines d’hectares en vingt ans. Des mesures assez restrictives sans imposer de technologie particulière seront mises en place.

Pour réussir cette gestion parcellaire des eaux pluviales, il existe différentes solutions techniques développées par des entreprises spécialisées. On les nomme plus couramment techniques alternatives pour la gestion des eaux pluviales ou plus simplement techniques alternatives.

En intégrant ces solutions, on peut diminuer le taux d’imperméabilisation des sols et la quantité d’eau résultante dans les cours d’eau. Les pics de crues et les impacts associés se verront donc également diminués.

 

L’attractivité du « vert »

L’aspect souvent végétal de ces solutions apporte de nouveaux écosystèmes et rétablit le cycle originel de l’eau. L’aspect environnemental positif est fort puisque l’on réduit l’impact de l’activité humaine sur son environnement. Ceci est souvent très apprécié des riverains ou passants. En effet, l’émergence de vert dans les zones urbaines rend la vie plus agréable et le quartier plus attractif.

D’autre part, ces mesures pour une infiltration immédiate de l’eau pluviale permettent de réduire les débits en entrée de stations d’épuration. Ainsi on observe une réduction des tailles des infrastructures. Combiné à l’attractivité nouvelle pour des entreprises ou des administrés, cela peut représenter une valeur financière non négligeable ainsi qu’un retour sur investissement important.

 

Toit végétal
Exemple de toitures végétalisées dans l’agglomération lyonnaise.

Quelles sont ces techniques alternatives ?

Pour appliquer cette idée de gestion parcellaire, il existe des options qui diffèrent en fonction des occupations, des besoins et des natures des sols.

  • Les noues :

Ce sont des fossés élargis permettant l’évacuation par infiltration et augmentant l’évaporation. Elles sont assez efficaces et très répandus mais nécessitent d’assez grandes surfaces d’installation. Elles sont toutefois remplies par des eaux de ruissellement et donc peuvent potentiellement être des zones critiques de pollution. C’est pour cela qu’il existe des noues intégrants des systèmes de traitement. C’est le cas par exemple des systèmes D-Rainclean de la société Funke ou Drainfix Clean de Hauraton.

  • Les toitures végétalisées :

Elles permettent de retenir environ 2/3 des eaux pluviales. Grâce à leur inertie thermique importante, elles sont de très bons isolants donc source d’importantes économies d’énergie. De plus, elles sont complètement intégrées dans l’environnement.

  • Les citernes de pluies :

Citernes urbaines placées en sous-sol et recevant des eaux de ruissellement. Elles sont perméables de manière à permettre l’infiltration.

  • Chaussées drainantes, géotextiles :

Également entièrement intégrées dans l’environnement urbain, ces systèmes sont mis en place sur les grandes surfaces utilisés par le réseau routier ou les parkings. Ils permettent de diminuer l’imperméabilisation des sols. Pouvant être soumis à des pollutions ponctuelles, il existe des systèmes de traitement automatique permettant de limiter la pollution dans le milieu naturel. Par exemple, TenCate GeoClean permet de traiter une surface avant son infiltration avec un débit nominal de 10mm par seconde pour 5cm d’eau, avec 99% des hydrocarbures traités.

  • Espaces verts et jardins de pluies :

Véritables îlots de verdure en zone urbaine, ce sont des zones d’infiltration avec très peu de ruissellement et donc généralement sans pollution.

Toutefois, dans ces différentes méthodes, une des problématiques récurrentes est de pouvoir rendre au milieu naturel une eau propre. Le but étant de limiter la pollution pouvant altérer de manière durable le sol ou bien les nappes phréatiques. Comme cette pollution est récupérée lors du ruissellement des eaux sur les zones imperméables, on cherche à le limiter au maximum. C’est la raison pour laquelle les systèmes permettant une infiltration immédiate paraissent plus intéressants.

L’intérêt des outils numériques

Afin de limiter le sur-dimensionnement des infrastructures (standards et techniques alternatives), il est possible de miser sur des outils numériques. Ils aident et assistent les ingénieurs lors des études de conception. Parmi la gamme de produit proposée par Geomod, XPDrainage est dédié au dimensionnement des réseaux d’eau pluviale. C’est un outil qui intègre :

  • un module hydrologique,
  • une vue en plan pour le dessin technique,
  • et de la modélisation hydraulique pour le dimensionnement.

Ainsi, chaque corps de métier intervenant lors des études de conception peut travailler sur un seul et même outil. L’intérêt est multiple. Plusieurs modules intégrés de dimensionnement (comme la méthode de Caquot, ou la méthode des pluies) font gagner un temps précieux. La continuité qu’il apporte dans la gestion des données et dans le suivi d’un projet engendre clarté et cohérence.  La qualité des études réalisées est améliorée.

Dans la seconde partie de cet article, nous détaillerons les raisons pour lesquelles ces techniques alternatives ont du mal à s’implanter en France. Nous aborderons également la manière dont l’outil XPDrainage facilite les études liées à l’implantation de ces techniques alternatives.

donnees
Blog Geomod, Terrestre

MithraSIG : Comment simplifier des grilles de terrain

Problématique – rappel

L’IGN et de plus en plus de fournisseurs de données livrent le terrain sous forme de grilles ASC avec des précisions importantes (1 m voire 10 cm).

MithraSIG crée un terrain sous forme de points et/ou de courbes de niveaux. La fonction d’intégration convertit les grilles (format « ASC » par exemple) en points terrain. Le problème majeur réside dans le fait que le nombre de points produits/considérés est très vite énorme (plusieurs millions). Et devient, peu pertinent dans les zones de relief quasi-planes où le terrain est sans effet sur la propagation acoustique (en dehors de l’effet sol).

grilles ASC

Exemple : on dispose de quatre grilles ASC de 1000 x 1000 pixels avec un pas de pixel de 1 m, ce qui fait quatre millions de points sur 4 km².

Principe

La nouvelle fonction MithraSIG réduit le nombre de points terrain à partir de ces grilles en considérant un écart maximum toléré (tolérance saisie par l’utilisateur), entre les données initiales et celles produites.

Une comparaison en altitude se fait en tout point entre une triangulation complète des données et une triangulation approchée tout en restant dans la tolérance. Le résultat ainsi obtenu représente les points caractéristiques du terrain : talwegs, crêtes (buttes), sommets, creux, ruptures de pente (talus). Ce sont ces points que l’on cherche à identifier et modéliser en acoustique.

vue coupe terrain

interface import

Figure 1 Interface d’import du terrain avec une tolérance de 20 cm

Conséquence sur le terrain

donnees

Une tolérance de 20 cm engendre une division du nombre de points d’environ 250 et sous-entend que l’écart moyen avec les données d’origine est de 10 cm.

Avec une tolérance de 1 m, on a une perte de précision de 50 cm de moyenne et d’au maximum 1 m. On diminue alors le nombre de points terrain par plus de 2600.

 

Conséquence sur le calcul

calcul

Les comparaisons se font avec tous les paramètres de calcul identiques. La différence moyenne est faite en valeur absolue afin d’éviter que les erreurs se compensent.

Les différences de calcul sont faibles avec et sans simplification du terrain. Toutefois, localement, on peut trouver des différences importantes : certaines zones pouvant apparaître comme diffractées dans un cas et d’autre non. C’est particulièrement vrai en méthode NMPB08 ou la hauteur de la source est basse (5 cm).

 

Rayon de calcul

 

 

Conclusion

La simplification du terrain dépend de la précision des calculs que l’on souhaite : cette précision varie entre une cartographie à l’échelle d’une ville et une étude d’impact locale.

Nous calculons à partir d’un tir de rayon : les détails inférieurs à la longueur d’onde c’est-à-dire inférieurs à une dizaine de centimètres n’améliorent pas la précision des calculs. Nous conseillons donc de toujours simplifier les données (avec une tolérance de quelques centimètres). Ce qui permet de diminuer de façon importante le nombre de points terrain et les temps de calcul sans détérioration des résultats de calcul.

Blog Geomod, Terrestre

Etude sur l’évolution de l’exposition électromagnétique à Paris avec MithraREM

Lors du 2ème comité national de dialogue sur l’exposition du public aux ondes électromagnétiques, l’ANFR a présenté les résultats de l’étude réalisée en 2018 par Geomod et le CSTB, sur l’évolution des niveaux d’exposition électromagnétique en zone urbaine dense.

Le logiciel MithraREM a permis de calculer les niveaux d’exposition sur les bâtiments et espaces publics du 14ème arrondissement de Paris, pour l’état existant des réseaux et pour un scenario futur dans la perspective d’un déploiement « toutes bandes » de la 4G sur les fréquences actuelles et les stations existantes.

MithraREM

Cette étude a permis à l’ANFR, avec ces hypothèses de déploiement, d’estimer l’augmentation du niveau de champ électrique moyen (1V/m dans l’état actuel et de 1,7 V/m dans le scénario futur).

Le pourcentage d’émetteurs qui induisent au moins un point de simulation à plus de 6 V/m devant les façades passe 5 % pour l’état existant à 17 % dans le scénario futur.

etude

Répartition des niveaux d’exposition. Voir présentation de l’ANFR.

L’ANFR conclut qu’au-delà des résultats bruts absolus (niveaux de champ électrique, etc.), la modélisation numérique montre tout son intérêt pour la réalisation d’études d’impact en amont de l’évolution des déploiements des émetteurs et réseaux.

Il sera intéressant de poursuivre cette étude avec MithraREM pour des scénarios de déploiement incluant les bandes de fréquences et antennes 5G et de généraliser l’étude à toutes les villes de France ayant un fort déploiement de la 4G.

MithraREM

 

 

Couverture
Blog Geomod, Hydro

Modélisation temps réel

Auteur : Arnaud KOCH, SURFACE LIBRE

Nous vous proposons un article écrit par notre partenaire SURFACE LIBRE sur la modélisation temps réel avec ICMLive.

 

Pluviométrie

Modélisation temps réel

L’utilisation de données en temps réel dans des modèles hydrodynamiques présente de nombreux avantages opérationnels :

  • L’anticipation des désordres causés par un phénomène météorologique intense

  • L’apport d’informations sur les réponses du réseau dans les secteurs non mesurés

  • La possibilité de tester des scénarios de gestion alternatifs dans le modèle

  • Etc…

Cet article donne un aperçu de l’intégration de flux de données temps réel dans des modèles hydrodynamiques ICM.

 

Flux de données

Ces flux peuvent prendre différentes formes :

  • Mesures issues de capteurs : pluviométrie, débits, niveaux, flux de polluants, etc…

  • Intensités pluviométriques mesurées par radar

  • Prévisions de précipitations par des modèles météorologiques (GFS, WRF, AROME ou ARPEGE Météo France).

Dans la suite ICM, l’outil Time Serie Database permet la connexion à ces flux de données, l’import en continu des données dans la base et le stockage des données.

Les données scalaires, issues de capteurs, peuvent être obtenus par import régulier de fichiers .csv, l’interrogation de bases de données, la connexion a des systèmes SCADA, ou encore l’interrogation de flux XML. La TSDB permet d’effectuer des validations et opérations basiques sur les séries temporelles collectées.

PLuvio

Extrait de données pluviométriques

Les données spatiales (radar, prévisions météo) sont également stockées dans la base, pour être ensuite intégrées dans la modélisation. Les prévisions météorologiques sont définies par une date de simulation du modèle météo, et un certain nombre de pas de temps de prévision. Différents formats sont supportés, dont le GRIB, l’ascii, etc…

wmx8XX

Données AROME Météo France®

Intégration dans la modélisation

Les données sont ensuite exploitées de plusieurs manières :

  • En tant qu’entrées du modèle, en remplacement d’événements statiques utilisés dans les études classiques :

    • pluviométrie appliquée aux bassins versants

    • injections de débits ou niveaux aval imposés

    • consignes de régulation, injections de polluants, etc..

  • En tant qu’éléments de comparaison, assignés à certains objets du modèle pour vérifier dans le réseau la validité des résultats produits*

Il ne reste plus qu’à lancer des simulations, pour voir la réponse du cours d’eau ou du réseau modélisé :

2018-03-01_11_38_41-ICMLive_Configuration_Manager_8.5.1

Débit calculé par le modèle en réponse à des pluies issues de prévisions métérologiques

OpenDataSoft
Blog Geomod, Terrestre

Les Open Data et les SIG

Qu’est-ce que les Open Data ? Pour résumer succinctement, « les Open Data sont des données qui sont accessibles, réutilisables et redistribuables librement par tout le monde ». Ces données peuvent provenir de diverses sources publiques comme privées : des gouvernements, des collectivités, des villes, des entreprises, des ONG, des communautés, etc.

Des définitions plus complètes sont disponibles sur internet, notamment sur le site opendefinition.org.

Les licences

Logos Licences Open Data

Une licence définit quels droits et/ou obligations sont octroyés lors de l’utilisation des données. Ce qu’on a le droit de faire avec pour résumer.

Il existe plusieurs types de licences dans le domaine des Open Data. Et même si elles ont toutes pour but de faciliter l’accès et la redistribution des données, elles peuvent différer l’une de l’autre par les obligations ou libertés accordées. On peut citer les plus connues comme Creative Commons (CC) qui est plus destinée à du contenu créatif, Open Data Commons Public Domain Dedication and Licence (PDDL) et Open Data Commons Open Database License (ODbL) destinées à des bases de données.

Il y a aussi des licences qui sont créées par les gouvernements eux-mêmes qui mettent à disposition des données. Comme par exemple le Royaume-Uni qui a créé la licence Open Government Licence (OGL), l’Allemagne avec les licences DL-DE et même l’Europe avec la licence EUPL. Une liste de ces licences peut être consultée sur le site www.europeandataportal.eu.

La France a créé sa « licence ouverte » (LO) avec le projet Etalab que beaucoup de villes ont adoptée. Avec cette licence, il est possible de reproduire, modifier, redistribuer et même exploiter les données à des fins commerciales. À condition de mentionner la source de l’information et la date de dernière mise à jour.

Chaque licence, a donc son propre fonctionnement au niveau de l’utilisation et de la redistribution. Il est donc important pour l’utilisateur de se renseigner sur la (les) licence(s) associée(s) aux données qu’il récupère et utilise. Ces licences sont la plupart du temps disponibles et mises en avant sur les plateformes Open Data.

Provenance et contenu

Les Open Data sont présentes dans beaucoup de domaines : la culture, l’éducation, les transports, les sciences, l’environnement, l’économie, la cartographie et bien d’autres. Et le phénomène Big Data ne fait qu’augmenter la quantité de données et leurs types. Ce qui fait que l’on trouve toutes sortes de données : des statistiques, des rapports, des images, des géométries, etc. Elles peuvent toutes avoir leur utilité, car même si un type de données peut sembler ne pas être pertinent seul. Sa valeur peut être également très importante une fois combiné à d’autres données. Et c’est là la force des données ouvertes.

Dans les domaines des SIG (Système d’Information Géographique) et de la cartographie, les données proviennent la plupart du temps d’entités publiques. Le gouvernement français propose des données via sa plateforme. Mais de plus en plus de régions, d’agglomérations ou de villes mettent à disposition via leurs propres plateformes bon nombre de données également. Ces données cartographiques peuvent notamment contenir les données terrains (levés lidar, MNT, courbes de niveau), les bâtiments en 2D ou 3D, les tracés des routes et voies ferrées, les occupations du sol, les fonds de plan, les images satellite. Ces données constituent des ressources riches et de qualité pour construire des modèles numériques utilisables par la suite dans les logiciels de modélisation.

Les formats des Open Data en cartographie

Pour assurer une compatibilité la plus large possible entre tous les utilisateurs, les données sont la plupart du temps dans des formats exploitables qui permettent d’importer et d’exporter ces données. Et pour cela, il y a les fichiers ou les services web.

En cartographie, les formats que l’on trouve le plus souvent pour les Open Data sont :

  • le format CSV qui peut être utilisé ensuite en jointure de table dans un SIG.
  • les formats KML, GeoJSON, SHP qui peuvent être utilisés en particuliers pour des données vecteur.
  • les formats GeoTIFF et ASC pour les données raster ou maillées.

D’autres formats existent mais sont moins répandus comme le GML ou le CityGML pour la 3D, le XML, le GPKG. Toutefois, ils tendent à s’imposer petit-à-petit et pourraient devenir de futurs standards.

Mais il n’est pas toujours intéressant de télécharger les données pour diverses raisons. Le fichier est trop important en taille, les données contenues sont trop souvent mises à jour, la quantité de données à afficher est trop grande, etc. Dans ces cas-là, les données sont alors mises à disposition par un service web ou une API sur lesquels il est possible de se connecter afin d’avoir accès à la donnée. En service web, il y a notamment les Web Map Service (WMS) et Web Feature Service (WFS), tous deux des standards de l’OGC. Ces services permettent d’obtenir des cartes géoréférencées sous forme d’images pour le WMS ou des données géographiques géoréférencées pour le WFS.

Où trouver des Open Data?

Aujourd’hui, on peut trouver ces données relativement facilement sur internet. Depuis quelques années, c’est une volonté de partager les données à des fins d’information, de connaissance, mais aussi de transparence.

Le gouvernement français dispose de ses plateformes data.gouv.fr ou encore geo.data.gouv.fr. On peut y trouver les plans du cadastre, des statistiques sur l’énergie ou la population, le tracé des routes, l’emplacement des musées, et bien d’autres.

Les villes de France possèdent également leur propre service mettant à disposition les données concernant les villes et leurs agglomérations. C’est le cas de Paris, Lyon, Strasbourg par exemple.

Les régions ont aussi leurs plateformes comme le Grand Paris,  PIGMA pour la Nouvelle-Aquitaine, ou la région Provence Alpes Côte d’Azur.

Un autre site clé pour la France, c’est OpenData France qui est une association ayant pour but de « regrouper et soutenir les collectivités engagées activement dans une démarche d’ouverture des données publiques. Et de favoriser toutes les démarches entreprises par ces collectivités, dans le but de la promotion de l’Open Data. » On y trouve notamment la liste des membres de cette association et en particuliers les collectivités avec le lien vers leurs plateformes Open Data.

Il y a aussi des services incontournables comme Open Street Map qui s’appuie sur une communauté de personnes de tous domaines pour enrichir le projet. A noter que la plupart des contributeurs importants sont les gouvernements eux-mêmes.

L’étranger n’est pas en reste concernant les plateformes Open Data. Et nous pouvons citer quelques villes comme Genève, Bruxelles, New York, ou encore l’Europe et les Etats-Unis.

Evidemment, il est difficile de s’y retrouver parmi toutes les possibilités d’accès. Heureusement, il existe des sites qui regroupent tous les portails disponibles dans le monde. C’est le cas par exemple de OpenDataSoft où on peut parcourir une carte du monde et trouver un portail.

OpenDataSoft

Geomod ICMLive
Blog Geomod, Hydro

Quelle base de données utiliser dans InfoWorks ICM : Standalone ou Workgroup ?

Souvent, les utilisateurs d’InfoWorks ICM se retrouvent avec des messages d’erreur lors de l’ouverture de leur base de données ou d’un réseau qui sont le signe d’une base de données corrompue. La restauration de la base de données est difficile, prend du temps et est parfois impossible. C’est pourquoi cet article refait le point sur les conditions d’utilisation des 2 principaux types de bases de données possibles dans InfoWorks ICM, afin de limiter les problèmes de corruptions et les pertes de temps. Les deux types de bases de données disponibles sont :

  • La base de données Standalone
  • La base de données Workgroup

La base de données Standalone est caractérisée notamment par un fichier .icmm alors que la base de données Workgroup est représentée par un dossier .sndb. Il est important de comprendre que ces deux types de base de données sont totalement indépendants du type de licence (réseau ou monoposte). Ces deux choix sont disponibles quelle que soit la licence utilisée. Si vous utilisez le mauvais type de base de données, ce qui peut provoquer une possible corruption de la base, un paragraphe détaille étape par étape comment transférer sa base de données existante Standalone vers une base Workgroup.

Standalone VS Workgroup

Base de données Standalone

Les bases de données Standalone portent bien leur nom. Si l’on traduit « standalone » de l’anglais vers le français, la signification est « autonome, indépendant ».

Une base de données Standalone est dédiée à un seul utilisateur travaillant de manière indépendante. C’est-à-dire qu’il ne travaille pas sur la même base que d’autres personnes. Toutes les données contenues dans la base sont uniquement accessibles à cet utilisateur. Seul celui-ci aura tous les droits sur cette base de données. Un autre utilisateur ne pourra qu’en visualiser le contenu et ne pourra pas travailler avec. C’est le premier point important.

Un second point très important est que pour l’utilisation de type de base de données, il faut absolument que la base Standalone soit stockée en local sur la machine de l’utilisateur. En aucun cas il ne faut enregistrer une base de données Standalone sur un disque réseau ou sur un serveur. En effet, si un utilisateur décide de créer ce type de base sur un disque réseau, il n’y aura pas de message d’erreur ou d’avertissement. Cependant, il prend de grands risques de corrompre sa base, surtout lors des étapes d’enregistrement s’il y a une micro déconnexion du réseau.

Si un utilisateur est indépendant dans son travail mais veut pour autant sauvegarder ses données sur un serveur ou disque réseau, dans ce cas il faut choisir une base de données Workgroup.

Note : utiliser une base de données Standalone n’empêche pas de faire des échanges de données ou de résultats. Par contre, il faudra toujours passer par une base de données transportable pour échanger en toute sécurité.

Base de données Workgroup

Contrairement à la base de données Standalone, la base de données Workgroup permet de gérer plusieurs utilisateurs. C’est-à-dire que plusieurs utilisateurs ont accès à la base et son contenu. Un gestionnaire de conflits est également présent lorsque plusieurs utilisateurs pourraient être amenés à travailler sur un même réseau. De plus, elle permet un stockage sur serveur ou disque réseau en toute sécurité.

Mettre en place une nouvelle base de données Workgroup

Afin de mettre en place une base de données Workgroup, il y a deux étapes :

  • L’installation du Workgroup Data Server
  • La création de la/les bases de données Workgroup

Installation du Workgroup Data Server

Qu’est-ce que le Workgroup Data Server ?

Le Workgroup Data Server est un service qui permet l’accès aux bases de données Workgroup hébergées sur un serveur via InfoWorks ICM (ou InfoNet). Le Data Server permet d’améliorer la performance et la fiabilité des opérations sur les bases de données dans un environnement Workgroup (type système d’entreprise). Les avantages d’un Workgroup Data Server sont :

  • Moins de trafic sur le réseau :
    • Seules les données modifiées transitent entre le Workgroup Client (interface ICM sur la station de travail) et le Workgroup Data Server.
    • Les données sont compressées.
  • Performances améliorées :
    • Le Workgroup Data Server est le seul processus qui accède aux données. Celles-ci peuvent être mises sur un disque dur local de la machine sur laquelle s’exécute le Workgroup Data Server.

Un même Workgroup Data Server peut être utilisé pour plusieurs bases de données différentes. Le Workroup Client (interface utilisateur ICM) communique avec le Workgroup Data Server via TCP/IP. Le port par défaut est le 40000. Ce numéro de port peut être modifié en utilisant un fichier de configuration.

Comment installer le Workgroup Data Server

Le Workgroup Data Server est téléchargeable sur la page de téléchargement du logiciel InfoWorks ICM. Il faut donc se munir de ses codes d’accès afin de le télécharger. Pour chaque nouvelle version de l’interface utilisateur installée, il faut également installer la nouvelle version du Workgroup Data Server. Le Workgroup Data Server existe en version 32 et 64 bits. Nous recommandons d’utiliser la version 64 bits, comme pour le Workgroup Client.

Workgroup Data Server Installation

Une fois le fichier d’installation téléchargé, il suffit de l’exécuter sur la machine qui héberge ou hébergera la base de données Workgroup pour lancer la procédure d’installation.Attention, il est important d’installer le Workgroup Data Server sur un disque dur local de la machine. Par défaut, l’installation se fait sur le disque dur principal. Cet emplacement peut être modifié tout en restant sur un disque dur local.

Configurer le Workgroup Data Server

Il est possible de configurer quelques paramètres du Workgroup Data Server. Ces options doivent être indiquées dans un simple fichier texte nommé snumbat.ini. Lors de l’installation du Workgroup Data Server, ce fichier n’est pas créé. Il faut le créer soi-même si l’on veut changer les paramètres par défaut. Ce fichier doit être mis dans le dossier où le Workgroup Data Server est installé, c’est-à-dire le dossier qui contient le fichier snumbat.exe. Par défaut, l’emplacement est C:\Program Files\Innovyze Workgroup Data Server.

Note : Avec une base de données Workgroup Standard, si l’on ne veut pas modifier les valeurs par défaut, il n’est pas nécessaire d’utiliser un fichier snumbat.ini.

Le tableau suivant indique les mots clés et valeurs associées à rentrer dans le fichier de configuration.

Mot Clé Utilité Valeur
Port Définir un autre port que celui par défaut (40000) à utiliser Numéro du port TCP à utiliser
DataPath Définir l’emplacement du dossier SNumbatData contenant les bases de données. Pour de meilleures performances, mettre sur un disque dur local. Emplacement du dossier
LogToFile Choisir où voir le fichier log.
Par défaut, cette valeur est 0.
0 : log envoyé dans la fenêtre ‘Windows Event log’

1 : log envoyé dans un fichier séparé snumbat.log à la racine du dossier contenant les bases de données

LogLevel Spécifier le niveau de détail du log.

La valeur par défaut est 2.

4 : affiche uniquement les erreurs

3 : inclut les avertissements

2 : inclut les informations de démarrage et d’arrêt

1 : inclut les informations générales d’utilisation

0 : inclut les informations de débogage (uniquement quand log dans fichier séparé)

DisableReverseDNS La valeur par défaut est 0. Le Workgroup Data Server utilise la fonction de Reverse DNS pour déterminer le nom des machines associées aux connexions entrantes. Si cette fonctionnalité n’est pas installée sur votre réseau, cette recherche risque d’engendrer une latence d’une ou deux secondes pour chaque connexion au WorkgroupDataServer (chaque connexion prend une à deux secondes de plus).
Mettre ce paramètre à 1 permet de désactiver cette recherche.
AllowDatabaseCreation Permission de création de base de données. Par défaut, on permet la création de base de données. 0 : création non permise

1 : création permise

Seul le Workgroup Data Server a besoin d’avoir accès aux fichiers contenus dans la base de données (fichiers des dossiers .sndb). Pour une meilleure performance, il faut qu’ils soient sur un disque dur local de la machine qui supporte le Workgroup Data Server. Autrement dit, les bases de données Workgroup doivent être stockées sur un disque dur local de la machine qui contient le Workgroup Data Server (emplacement spécifié avec DataPath).

Création d’une base de données Workgroup

L’emplacement par défaut des bases de données Workgroup est C:\ProgramData\Innovyze\SNumbatData. Pour chaque base de données, il y aura un dossier séparé .sndb identifié par le nom de la base de données. Attention, les fichiers contenus dans le dossier représentant la base de données ne doivent en aucun cas être modifiés (hormis via l’interface d’ICM).

Une fois le Workgroup Data Server installé sur la machine qui hébergera la base de données, on peut créer celle-ci via l’interface utilisateur. Voici les étapes à suivre :

  1. Ouvrir l’interface utilisateur.
  2. Aller dans le menu Fichier > Ouvrir > ouvrir/créer base de données…
  3. Choisir le type Workgroup.
  4. Entrer le nom du serveur ou l’adresse IP de la machine qui hébergera la base de données.
  5. Choisir le port de communication (port 40 000 par défaut si pas modifier dans un fichier de configuration).
  6. Cliquer sur Connect pour se connecter à la machine. Un message indique si la connexion s’est faite avec succès.
  7. Créer ou charger la base de données en cliquant sur Nouveau ou en choisissant une base existante dans le menu déroulant.

Créer une base de données Workgroup

Comment convertir une base de données Standalone en Workgroup

Voici les étapes à suivre pour convertir une base de données Standalone en Workgroup :

  1. Installer le Workgroup Data Server sur la machine qui hébergera la base de données Workgroup. La version installée doit correspondre à celle du Workgroup Client (interface utilisateur).
  2. En option, configurer le Workgroup Data Server pour utiliser un port différent ou modifier l’emplacement par défaut (disque C) de la base de données.
  3. Si le point 2 a été réalisé, alors il faut redémarrer le service Innovyze Worgroup Data Server.
  4. Dans l’interface utilisateur, créer une nouvelle base de données Workgroup (voir chapitre précédent).
  5. Ouvrir la base de données Standalone comme une base de donnée hôte (Fichier > Ouvrir > ouvrir une autre base de données…)
  6. Copier les objets de la base de données Standalone vers la base de données Workgroup pour terminer le transfert. A noter qu’il est également possible de faire un transfert depuis une base de données transportable plutôt que depuis la base de données Standalone directement.

Les points à retenir

  • Le type de base de données Standalone ou Workgroup est indépendant du type de licence utilisé. C’est l’emplacement de la base et le nombre d’utilisateur qui détermine quel type de base choisir.
  • La base de données Standalone est dédiée à un seul utilisateur et doit être stockée en local (pas sur un serveur, pas sur un disque réseau).
  • La base de données Workgroup est à choisir lorsque l’on a plusieurs utilisateurs et/ou un stockage sur serveur ou disque réseau.
  • Pour mettre en place une base de données Workgroup, il faut installer sur la machine qui héberge la base de données le Workgroup Data Server.
  • Le Workgroup Data Server doit être installé sur un disque local du serveur.
  • Le Workgroup Data Server est une pièce logicielle qui permet de faire communiquer l’interface utilisateur et la base de données.
Cartes_gpmh_paperChart
Blog Geomod, Marine

Une demande croissante en ENC portuaires

L’arrivée des cartes électroniques de navigation (ENC) dans l’univers maritime a apporté un véritable gain en terme de sécurité. Leur utilisation permet de programmer un grand nombre d’alertes de navigation et apporte des informations complémentaires à celles présentées sur les cartes papiers ou leurs versions numériques raster (RNC). L’utilisation des ENCs est désormais très répandue et on observe une demande de plus en plus forte d’ENCs portuaires les plus à jour et les plus précises possibles. Toutefois, l’enrichissement ou la création d’ENCs nécessite une expertise spécifique et une technologie dédiée à la cartographie marine numérique. Ainsi, on observe le développement de nouveaux partenariats entre certains services portuaires et des sociétés de service spécialisées en géomatique marine capables de fournir à la fois une expertise et une technologie dédiée à la cartographie marine numérique.

Introduction

À la fin des années 1980, l’arrivée des systèmes électroniques de navigation dans l’univers maritime change profondément la manière de naviguer. Couplés au GPS et s’appuyant sur des cartes marines numériques, les systèmes électroniques de navigation permettent de connaître en temps réel la position du navire sur la carte marine et de superviser, du même coup, la route de navigation planifiée.

L’utilisation des systèmes électroniques de navigation est très vite perçue comme une avancée majeure pour la sécurité de la navigation et leur utilisation est officialisée dès 1995 par l’Organisation Maritime Internationale (OMI). À partir de cette date, tout système électronique de navigation respectant les résolutions de l’OMI portant sur les « Normes de fonctionnement des Systèmes de visualisation des cartes électroniques et d’information (ECDIS) » devient officiellement utilisable pour naviguer et il devient possible de se dispenser de cartes papiers.

Cependant, qu’entend-on par carte marine numérique et sur quel type de carte numérique un ECDIS doit-il s’appuyer pour pouvoir dispenser le marin d’avoir à recourir à un portefeuille de cartes papier à jour ? Schématiquement, on peut dire qu’il existe deux types très distincts de cartes numériques : les cartes raster et les cartes vectorielles. Seules les cartes vectorielles basées sur la norme S-57 peuvent permettre de dispenser les marins, qui utilisent un système de navigation électronique certifié ECDIS, de tenir à jour un portefeuille de cartes papier.

Les cartes de navigation raster (RNC)

Les cartes de navigation raster (RNC) sont des cartes papier scannées, géoréférencées et encodées sous forme d’images numériques pixélisées (p.ex. au format ARCS, BSB ou Geotiff). Leur résolution et leur volume (le poids en octets) dépendent du nombre de pixels composant l’image. Plus la résolution est importante, plus le nombre de pixels est important et plus la taille de l’image est importante.

L’avantage des cartes raster est qu’elles sont rapides à produire, car il ne s’agit ni plus ni moins que d’une « photocopie » couleur de la carte papier, à laquelle le cartographe a ajouté quelques métadonnées dont le numéro de la carte, sa date d’édition ou encore l’organisme qui l’a produite. Évidemment, cet argument ne tient que si la carte raster s’appuie sur une carte papier déjà existante. Dans le cas contraire, il devient nécessaire de produire la carte et il n’y a donc aucun gain de temps. Au-delà de cette considération, les cartes raster ne disposent d’aucune intelligence inhérente à leur structure. L’utilisation de cartes raster présente même plusieurs inconvénients…

Un premier inconvénient concerne le très grand volume de données à manipuler et à gérer. Une carte raster non compressée au format Geotiff peut facilement atteindre plusieurs centaines de Megas (Mo), ce qui est considérable pour une seule carte. Par conséquent, chacun peut imaginer le volume d’une base de données composée de plusieurs dizaines de cartes raster.

Un deuxième inconvénient concerne la mise à jour des cartes utilisées. Outre le grand volume de données à mettre à jour, la structure raster des cartes rend compliquée leur mise à jour incrémentielle et il est souvent plus aisé de remplacer la ou les cartes modifiées par leurs versions plus récentes. Dans ce cas, le marin ne peut visualiser les différences entre anciennes et nouvelles cartes.

Un troisième inconvénient concerne l’absence d’information additionnelle. Une carte raster composée d’une simple couche de pixels n’est pas interrogeable. Les cartes raster ne permettent donc pas d’inclure des compléments d’information comme des descriptions détaillées de chacun des objets composant la carte, ou encore d’associer à ces objets, divers schémas, diagrammes ou photographies.

Un quatrième inconvénient a trait au caractère figé de la carte raster. Tout comme une carte papier, il est absolument impossible de bénéficier d’un affichage dynamique de l’information présentée en fonction du contexte de navigation. Par exemple, il est impossible de faire apparaître ou disparaître certains objets en fonction de l’échelle de navigation utilisée. Autre exemple, il est impossible d’adapter le dessin du contour de sécurité, séparant les eaux saines des eaux malsaines, en fonction du tirant d’eau du navire.

Un dernier inconvénient, et non des moindres, adresse la sécurité de la navigation elle-même. Les cartes raster ne permettent pas de programmer des alertes de navigation à partir des informations issues de la carte. Par exemple, il est impossible de déclencher des alertes anti-échouement lorsque le navire s’approche d’une zone dont la profondeur est inadaptée au tirant d’eau du navire ou lorsque le navire fait route vers un danger particulier.

Les cartes de navigation vectorielles (ENC)

Les cartes de navigation vectorielles sont beaucoup plus que de simples reproductions numériques des cartes papier. Elles constituent des jeux structurés de données, capables de contenir un grand nombre d’informations complémentaires à celles présentées sur les cartes raster. Il ne s’agit donc plus d’une simple grille de pixels, mais d’un ensemble de primitives géométriques et de caractéristiques géographiques permettant la génération à la volée d’une image numérique dont la résolution dépendra cette fois de la qualité de l’écran sur laquelle la carte est affichée et du logiciel qui l’a générée.

Comme pour les cartes de navigation raster, les cartes de navigation vectorielles peuvent exister sous différents formats. On peut ainsi citer le format S-57 à partir duquel sont produites les cartes électroniques de navigation (ENC) et les couches militaires additionnelles (AML). On peut également citer le « vector product format » (VPF) à partir duquel sont produites les cartes nautiques digitales (DNC) de la « National Geospatial Intelligence Agency » (NGA) américaine.

Les cartes S-57 sont les seules à être reconnues par l’Organisation Hydrographique International (OHI). En réalité, lorsqu’on parle de format S-57, on fait référence à la norme S-57 publiée et maintenue par l’OHI, sur laquelle s’appuie différents produits cartographiques dont le plus commun est la carte de navigation électronique (ENC). L’acronyme ENC dénote à la fois le produit et la spécification, également publiée et maintenue par l’OHI. Cette spécification répertorie l’ensemble des objets (trait de côte, bathymétrie, phares, feux, balises, etc.), des attributs d’objets (profondeur, échelle d’affichage minimum, nom de l’objet, description, etc.) et des règles que le cartographe doit utiliser pour produire les fameuses cartes de navigation officielles. L’unité de base de la couverture géographique affichée sur un écran (l’équivalent de la carte papier) est appelée cellule. Cette couverture géographique peut être composée de plusieurs cellules, ou fragments de cellules.

L’utilisation d’ENCs présente plusieurs avantages par rapport à l’utilisation de leurs homologues raster…

Un premier avantage réside dans la taille réduite des cellules. La spécification ENC impose d’ailleurs une taille inférieure à 5Mo. Dans les faits, une cellule pèse souvent beaucoup moins lourd. Un jeu de cartes vectorielles est donc beaucoup moins volumineux qu’un jeu de cartes raster.

Un deuxième avantage concerne la possibilité d’intégrer facilement des mises à jour. Les différences entre la cellule de base et celle résultant des mises à jour sont mémorisées et ainsi facilement consultables. L’ECDIS assure la possibilité d’ajouter (ou supprimer) ses propres mises à jour manuelles. Dans ce cas, le contenu de la carte n’est pas modifié. Il s’agit juste d’un artefact visuel.

Un troisième avantage réside dans la possibilité de bénéficier d’un affichage personnalisable. La norme S-57 ne concerne que la structure de données et n’inclut en aucune manière les règles d’affichage. Dans un ECDIS, l’affichage d’une ENC est régi par la norme S-52 de l’OHI. Mais, il est tout à fait possible d’appliquer d’autres types d’affichage. L’utilisation de l’affichage S-52 n’est obligatoire que dans le cas où le marin souhaite opérer un système électronique de navigation en mode ECDIS. La S-52 s’appuie notamment sur la topologie de la S-57 pour définir des règles de priorités d’affichage (p.ex. lorsqu’une géométrie est partagée par plusieurs objets). Pour tout autre type de système de navigation électronique (notamment ceux dédiés à la plaisance), chaque constructeur a la liberté d’appliquer ses propres règles d’affichage. Techniquement, une ENC peut donc tout à fait être affichée avec les mêmes couleurs et la même symbologie qu’une carte papier.

Un quatrième avantage, toujours lié à l’affichage, réside dans le caractère configurable de cet affichage. L’utilisateur peut choisir d’afficher tel ou tel objet en fonction de ses préférences. L’ECDIS arrive de facto avec 3 modes d’affichages, « Base », « Standard » et « Complet ». Le mode « Base » correspond à l’affichage minimum. Les objets regroupés dans la configuration « Base » ne peuvent être masqués. Le mode « Standard » correspond à la configuration d’affichage par défaut et recommandée pour naviguer. Elle contient tous les objets considérés comme primordiaux pour la sécurité de la navigation. Le mode « Complet » affiche tous les objets disponibles. Généralement, les constructeurs incluent un quatrième mode « Custom » qui permet à l’utilisateur de créer de nouvelles configurations d’affichage.

Un cinquième avantage a trait au caractère interrogeable des objets de la carte, donnant accès à de nombreuses informations complémentaires. Ces informations complémentaires peuvent être liées à des explications sur la symbologie, des indications de profondeurs, des instructions de navigation, des indications sur la nature de l’objet interrogé, ou encore des diagrammes, schémas et photos liés à l’objet interrogé et disponibles dans des fichiers externes à l’ENC (fichiers TIF, GIF, JPEG, TXT et PDF).

Un sixième avantage réside dans le caractère configurable du contour de sécurité. Chaque navire dispose d’un tirant d’eau particulier qui peut évoluer en fonction de sa charge. Il est très utile pour les marins de pouvoir configurer ce tirant d’eau et de bénéficier en retour d’une mise en évidence d’un contour de sécurité sur mesure et d’une différentiation adaptée des eaux saines et malsaines (p.ex. couleurs blanche et bleue).

Enfin un dernier avantage, et non des moindres, concerne la configuration d’alertes de navigation. Les alertes de navigation peuvent dépendre du contour de sécurité configuré ainsi que des informations contenues dans les ENCs. Aussi, la bathymétrie, les épaves, les obstructions et autres dangers, ou encore les zones de restriction sont autant d’informations qui peuvent être utilisées pour lever des alertes de navigation liées au contenu cartographique des ENCs.

Une gestion intégrée de la production mondiale (WEND)

La gestion de la production mondiale de cartes de navigation a également significativement changé depuis l’apparition des ENCs. Dans le passé, chaque organisme producteur avait la possibilité de proposer des cartes marines sur l’intégralité du globe, même si les cartes produites entraient en recouvrement avec d’autres cartes produites par d’autres organismes. Et, en outre, les responsabilités en cas d’erreurs de cartographie pouvaient s’avérer assez floues.

À partir de 1997 la résolution de l’OMI sur les « principes de la base de données mondiale pour les cartes électroniques de navigation (WEND) » définit les obligations des producteurs d’ENCs afin :

« d’assurer un niveau mondial cohérent d’ENCs officielles, de grande qualité et à jour, par le biais de services intégrés qui appuient les prescriptions relatives à l’emport de cartes contenues dans le Chapitre V de la Convention SOLAS, et celles relatives aux normes de fonctionnement de l’OMI pour les ECDIS. »

En conséquence, les organismes producteurs d’ENCs officielles se voient contraints de se partager la production mondiale pour que les marins puissent disposer d’ENCs, le plus à jour possible, sur la plus grande partie du globe, et à terme sur l’intégralité de celui-ci. Cette résolution permet ainsi d’éviter toute duplication d’ENC, car elle impose qu’il n’y ait qu’une seule ENC dans une zone donnée. C’est pourquoi, pour une gamme d’échelles donnée, si les emprises géographiques de deux cellules se superposent, seule une des deux cellules ne peut contenir de la donnée sur la zone de recouvrement. Les cartographes utilisent le méta-objet M_COVR et son attribut CATCOV égal à 1 pour indiquer une zone contenant de la donnée ou CATCOV égal à 2 pour indiquer une zone ne contenant pas de données.

Par ailleurs, toute carte de navigation officielle est nécessairement publiée sous l’autorité d’un état (et qui plus est un état membre de l’OMI). En effet, attendu que la responsabilité juridique de l’autorité qui publie une carte de navigation officielle peut être engagée en cas d’erreur de cartographie et considérant le coût et les dégâts astronomiques que peuvent représenter l’échouement (voir le naufrage) d’un navire, il est compréhensible que seul un état soit autorisé à prendre cette responsabilité.

Par conséquent, on distingue deux types d’ENC : les ENCs officielles produites sous l’autorité d’un état par l’intermédiaire de son service hydrographique national et les ENCs non-officielles produites par d’autres organismes comme des services hydrographiques portuaires. Notons qu’une entreprise privée peut tout à fait être mandatée par un service hydrographique national pour l’aider dans la production de ses ENCs officielles.

Vers un enrichissement du portefeuille d’ENC portuaires

Un besoin d’enrichir le portefeuille d’ENCs officielles par des ENCs plus précises a notamment été émis par certains services portuaires français. C’est le cas, par exemple, des syndicats de pilotes des ports de Marseille-Fos et Nantes Saint-Nazaire ou encore des services techniques du Grand Port Maritime de Nantes-Saint-Nazaire (GPMNSN), des ports Normands associés (PNA) et du Grand Port Maritime du Havre (GPMH).

Cependant, la modification, l’enrichissement ou la création d’ENCs nécessite une expertise particulière en cartographie marine numérique afin de respecter les exigences de qualité de la spécification ENC. À titre d’exemple, une ENC ne respectant pas la structure topologique exigée par la norme S-57 peut paraître correcte au premier abord, mais faire dysfonctionner les systèmes électroniques de navigation type ECDIS ou les systèmes d’aide au pilotage type Pilot Port Unit (PPU). Ce type d’expertise est généralement uniquement disponible au sein des services hydrographiques nationaux ou au sein de bureaux d’étude spécialisés en géomatique marine.

La modification, l’enrichissement ou la création d’ENCs nécessite également de s’appuyer sur une technologie dédiée ou adaptée à cette activité. On constate en effet que les systèmes d’informations géographiques traditionnels ne disposent pas de fonctionnalités natives dédiées à la publication d’ENCs respectant la norme S-57 et encore moins de tests de contrôle qualité tels que définis dans la norme S-58.

Dès lors, on observe que certains services portuaires commencent à développer des partenariats avec des sociétés de service spécialisées capables de fournir à la fois une expertise et une technologie dédiée à la cartographie marine numérique. C’est notamment le cas de Geomod qui se propose d’accompagner les services portuaires en apportant son expertise autour de la norme S-57, son éditeur d’ENCs (PortSide), son générateur d’ENCs bathymétriques (Ulhysses), ainsi que des applications métiers personnalisées (p.ex. ePilotBook).

L’activité de soutien à la production d’ENCs a débuté par une réponse au besoin des pilotes du port de Marseille-Fos qui souhaitaient intégrer la précision centimétrique des levés topographiques du port dans les ENCs * utilisées au sein de leur service d’aide au pilotage basé sur ePilotBook. On peut également faire référence au Grand Port Maritime de Nantes-Saint-Nazaire (GPMNSN) pour qui 7 ENCs * de niveau « Berthing » ont été initialisées afin de couvrir la remontée de la Loire. On peut encore citer les pilotes du Havre qui souhaitaient bénéficier d’une ENC couvrant la fin du grand canal.

L’activité de soutien à la production d’ENCs se poursuit aujourd’hui à la demande des services techniques du port du Havre (GPMH), que Geomod accompagne dans l’élaboration de 15 ENCs * de niveau « Berthing » couvrant tout leur domaine portuaire (le port d’Antifer, le port du Havre, le grand canal et le canal de Tancarville).

Port du Havre (GPMH)

Port du Havre (GPMH) – Géoportail

ENC du port du Havre (GPMH)

ENC du port du Havre (GPMH) – Geomod

* Il est à noter que ces ENCs sont des « premières versions » uniquement destinées à apporter une aide aux différents services internes des ports. 

 

vigiExpo-intro
Blog Geomod, Terrestre

VigiExpo, coupler des mesures smartphone avec de la modélisation

VigiExpo est un projet financé par l’ANSES dans le cadre du Programme national de recherche Environnement-Santé Travail

Réalisé en collaboration par le Centre Scientifique et Technique du Bâtiment (CSTB), le laboratoire XLIM (CNRS UMR 72522) et Geomod.

L’objectif du projet VigiExpo est le développement d’un outil de monitoring de l’exposition des populations aux champs électromagnétiques radiofréquences issus des antennes des réseaux de téléphonie mobile. Il s’agit d’estimer les niveaux d’exposition en tout point d’une zone géographique donnée.

La modélisation numérique des niveaux d’exposition permet une analyse de l’exposition à grande échelle et en tout lieu, ce qui est complémentaire des campagnes de mesures in situ qui sont toujours localisées temporellement et spatialement.

vigiExpo-schema-fr

 

L’une des difficultés majeures pour la production de cartes d’exposition est l’accès aux caractéristiques précises des émetteurs et antennes des stations de base : position, puissance émise, diagramme de rayonnement. Des informations sont accessibles dans le domaine public, notamment sur le site internet et la base de données https://www.cartoradio.fr, géré par l’agence nationale des fréquences. Ces informations sont très partielles et l’ensemble des paramètres nécessaires à une modélisation numérique ne sont pas présents dans les données disponibles.

Il s’agit dans le projet VigiExpo d’enrichir les données accessibles sur les caractéristiques des émetteurs, avec des informations géoréférencées de niveaux de puissance reçue par un ou plusieurs Smartphones dédiés. L’utilisation simultanée et complémentaire des données issues des Smartphones et d’un outil de modélisation numérique permet par optimisation et traitement statistique de remonter aux caractéristiques réelles et complètes des antennes, et de fournir une cartographie dynamique de l’exposition des personnes dans une zone géographique donnée.

vigiExpo-parcours

Parcours simultané avec deux Smartphones différents – comparaison des données GPS (à gauche) et niveau de puissance reçue d’un émetteur UMTS (à droite). Visualisation dans Google Earth.

Principe

Le principe de l’outil de monitoring du projet VigiExpo développé repose sur une application Android développée par le CSTB (VigiPhone), associée au logiciel de modélisation numérique de la propagation des champs électromagnétiques (MithraREM) et à un algorithme d’optimisation pour remonter aux caractéristiques précises des émetteurs. L’application VigiPhone collecte des relevés de niveaux de puissance reçue géoréférencées sur un Smartphone. Par la mise en réseau de ces données et l’algorithme d’optimisation adapté il est possible d’enrichir la modélisation numérique et ainsi de construire des cartographies dynamiques de l’exposition des personnes à l’échelle d’un quartier ou d’une ville.

vigiexpo- mithrarem

Modèle numérique dans MithraREM (à gauche) – application VigiPhone (à droite)

Un algorithme de type génétique a été développé afin d’identifier les paramètres caractéristiques des émetteurs, avec comme objectif que les niveaux de champ électrique modélisés en tout point à partir des émetteurs soient le plus cohérents possible avec les informations géoréférencées collectées au niveau des Smartphones. Nous utilisons conjointement des indicateurs de liaison (de type corrélation de Pearson, Spearman) et des indicateurs d’erreur, afin de trouver l’extremum (minimum/maximum) global dans un large espace de solutions exploré par l’algorithme (bases de données de diagrammes d’antenne, tilts, positions, puissances émises). Les fonctions de mutation et de croisement spécifiques à cet algorithme ont été conçues et validées de manière à assurer une bonne reproductibilité des résultats (convergence systématique vers les paramètres réels et une solution physique).

vigiexpo-algogenetique

Positions obtenues par optimisation à gauche, comparaison mesure/simulation à droite