FR2949167A1 - Systeme et methode de plongee virtuelle en temps reel - Google Patents

Systeme et methode de plongee virtuelle en temps reel Download PDF

Info

Publication number
FR2949167A1
FR2949167A1 FR0903920A FR0903920A FR2949167A1 FR 2949167 A1 FR2949167 A1 FR 2949167A1 FR 0903920 A FR0903920 A FR 0903920A FR 0903920 A FR0903920 A FR 0903920A FR 2949167 A1 FR2949167 A1 FR 2949167A1
Authority
FR
France
Prior art keywords
real
time
sites
diving
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0903920A
Other languages
English (en)
Other versions
FR2949167B1 (fr
Inventor
Alain Dinis
Antonio Dinis
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to FR0903920A priority Critical patent/FR2949167B1/fr
Publication of FR2949167A1 publication Critical patent/FR2949167A1/fr
Application granted granted Critical
Publication of FR2949167B1 publication Critical patent/FR2949167B1/fr
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • A63B2071/06363D visualisation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0622Visual, audio or audio-visual systems for entertaining, instructing or motivating the user
    • A63B2071/0638Displaying moving images of recorded environment, e.g. virtual environment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/70Measuring or simulating ambient conditions, e.g. weather, terrain or surface conditions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/806Video cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/807Photo cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2225/00Miscellaneous features of sport apparatus, devices or equipment
    • A63B2225/20Miscellaneous features of sport apparatus, devices or equipment with means for remote communication, e.g. internet or the like
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2225/00Miscellaneous features of sport apparatus, devices or equipment
    • A63B2225/60Apparatus used in water
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2244/00Sports without balls
    • A63B2244/20Swimming
    • A63B2244/203Diving

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Système et méthode intégrés de plongée virtuelle en temps réel, comprenant la captation de données bathymétriques, leur édition en 3D et l'image sous-marine vidéo de la surface parcourue du site, prise en continu, par un robot connecté à l'internet. Un appareil robotisé submersible et autonome (14) équipé de sonar et GPS couplé à un logiciel dédié, permet l'édition de représentations géolocalisées de sites en 3D interactif (22) qui sont stockées dans une base de données (24). Un autre dispositif, robotisé submersible (16), contrôlé à distance par un câble ombilical (56), suit un parcours déterminé (22), et prend des images vidéo et photo géolocalisées en 2D (60), de la surface vive du site, au long d'un parcours. Envoyées en temps réel (50) par l'internet (10) à une unité de traitement (28), les dites images (60) sont mixées avec précision sur les dites représentations 3D du site, suivant le parcours correspondant et diffusées en ligne. L'utilisateur du net, par différents terminaux - mobiles (40), ordinateurs (42), ou appareils submersibles (44,46), peut accéder au système, choisir un site sous-marin, un parcours, la date et l'heure pour réaliser la plongée virtuelle en temps réel, accompagné par l'instructeur (52) opérant l'installation de prise d'images vidéo (54).

Description

-1- La présente invention concerne un système et une méthode de collecte, de traitement et de diffusion d'information et d'images des fonds marins, qui permettra à toute personne connectée à l'internet, de réaliser la plongée virtuelle dans des sites remarquables de ces fonds, quelques que soient les profondeurs et les emplacements, leur offrant une perception visuelle du site sous-marin visité en temps réel, au moins comparable à celle qui aurait eu un plongeur expérimenté placé dans le site réel. Ce système de simulation fait appel, entre autres technologies, à la réalité virtuelle et à la réalité mixte et comprend au moins cinq activités distinctes complètement intégrées : 1- La collecte préalable des données bathymétriques et aquatiques 3D géolocalisées des sites sous-marins par des moyens acoustiques, hors données vivantes sur la flore et la faune. 2- La collecte en temps réel d'images photographiques et vidéo 2D géolocalisées de la flore et de la faune tapissant la surface de ces sites. 3- Le traitement de cette information par des logiciels spécifiquement conçus pour générer des représentations réalistes de ces sites en imagerie de synthèse 3D interactif où les images vivantes 2D géolocalisées se superposent en temps réel, aux images 3D du terrain et de l'environnement aquatique stockées dans une base de données. 4- La diffusion de ces représentations virtuelles 2D/3D par le réseau internet vers les différents terminaux, fixes ou mobiles, hors de l'eau ou en immersion. 5- La réception de ces images par les utilisateurs de l'internet, sans équipements particuliers ou spécialement équipés pour augmenter, valoriser ou enrichir les sensations de la plongée virtuelle.
De l'intégration opérationnelle de ces activités et des différents dispositifs concernés, il en résulte un procédé entièrement nouveau avec des applications exploitables dans plusieurs secteurs de l'industrie dont le tourisme, la pédagogie, la protection de l'environnement marin et l'exploitation durable des ressources des océans.
Ce système complète et élargit le domaine d'application des dispositifs couverts par les brevets français suivants : Simulateur de plongée sous-marine , n° d'enregistrement national 02 16695 et n° de publication 2 849 390, 2949167 -2- Simulateur multimédia amphibie , n° d'enregistrement national 03 15118 et n° de publication 2 864 288, par le brevet européen 1434187 délivré le 06/08/08 et par la demande de brevet n° 0702156000 déposée en France le 26/03/07, sous le titre Dispositif marin mobile du 5 multimédia et dont l'enregistrement est attendu prochainement.
La plongée sous-marine est un sport pratiqué par une très petite minorité de la population des pays développés. Elle concerne à peine 0,4% de la population française et 0,25% de la population mondiale. Dans les pays en voie de développement cette 10 activité est pratiquement inexistante. Les principales raisons qu'expliquent que la plongée sous-marine soit si peu pratiquée, sont le coût intrinsèque de cette pratique, le coût des déplacements pour arriver aux sites de plongée, les risques réels qu'elle comporte, les difficultés de son apprentissage et les contraintes physiques qu'elle implique. 15 La grande majorité de sites sous-marins remarquables du monde, dont certains sont protégés, reste méconnue de la population. Sont dans ce cas quelques 5000 aires marines protégées par les organisations internationales et considérées comme essentielles pour la survie des espèces marines, des milliers de sites d'épaves 20 patrimoniales, des sanctuaires d'espèces menacées de disparition, des réserves marines précieuses qui échappent aux dégâts de la pêche industrielle et à la désertification des fonds océaniques et des sites de plongée d'une exceptionnelle beauté dont la durabilité est remise en question comme conséquence des pressions engendrées par un tourisme incontrôlé ou par la pollution. 25 Cette méconnaissance est d'autant plus surprenante que plus de 30% de la population du globe dépend directement de la mer, plus de 50% de cette population s'intéresse à la mer, est fascinée par les trésors naturels qu'elle contient et est, de plus en plus, consciente que c'est probablement dans ces fonds marins inconnus et négligés, que 30 l'humanité trouvera une solution aux problèmes qui menacent sa propre survie, tels le réchauffement climatique et l'épuisement des ressources terrestres.
Actuellement, pour découvrir les fonds marins, pour comprendre leur richesse et leur fragilité, pour constater comment la pollution est en train de détruire jrréversiblement 2949167 -3- l'exceptionnelle biodiversité marine, pour suivre l'évolution de ses écosystèmes sous l'effet du réchauffement climatique, rien ne remplace la plongée réelle. Il faut plonger pour voir et pour comprendre la mer. Le grand public qui ne plongera jamais, soit 99,75% de la population, ignore presque 5 tout, et continuera à l'ignorer, de ces fonds océaniques. Ils représentent pourtant 70% de la surface de la Terre. Tant que l'opinion publique ne pourra s'informer directement sur l'état et le potentiel des fonds marins, le processus de leur dégradation persistera. Il est donc urgent de pouvoir offrir au grand public des solutions alternatives à la plongée réelle. La présente invention est une réponse techniquement viable à ce besoin. 10 Outre les productions audiovisuelles en 3D et les réalisations multimédia sous-marines destinées au grand public, tels les films documentaires et les jeux vidéo, il n'existe aucun développement technologique ou système de simulation en temps réel conçu pour permettre au grand public de découvrir de façon interactive les fonds marins 15 associant la collecte de données, le traitement et la diffusion d'images sous-marines. A l'exception des appareils couverts par les brevets mentionnés antérieurement, à notre connaissance, aucun autre appareil submersible n'est conçu pour simuler la plongée multisensorielle.
20 Ces brevets, néanmoins, concernent essentiellement des appareils de diffusion et de simulation submersibles pour les piscines et pour les plages. Ne sont pas directement concernés ni les contenus multimédia nécessaires pour créer la simulation de la plongée par l'imagerie virtuelle en 3D, ni les contenus pour enrichir l'image sous-marine réelle, grâce aux techniques de la réalité augmentée ou de la réalité mixte. 25 Dans aucun de ces brevets on intègre la collecte sous-marine de l'information au processus de diffusion des images et de simulation. II y a d'une part la production de représentations réalistes et animées de sites sous-marins en 3D interactif et d'autre part û sans liaison dans le temps, la diffusion de ces contenus par des appareils simulant les sensations de l'immersion dans l'eau. Cette diffusion est donc en temps différé, pas en 30 temps réel, et de ce fait elle rend la simulation beaucoup moins réaliste et moins intéressante puisque toutes les images diffusées sont des images de synthèse. Ces images ne possèdent pas encore le réalisme et la qualité de l'animation ou le détail et la précision des images audiovisuelles, nécessaire pour pouvoir se comparer au réel et encore moins pour pouvoir le remplacer. 2949167 -4- Une autre limitation de l'état de l'art actuel de la technique concerne les campagnes de captation de données bathymétriques et de prise de photos sous-marines géolocalisées. En effet ces campagnes exigent actuellement l'intervention de plongeurs 5 et la participation d'équipes de spécialistes naviguant dans des bateaux instrumentalisés. Ces campagnes sont coûteuses, sont conditionnées par le temps et ne se font pas en collaboration avec les utilisateurs finaux de ces données qui souhaitent y participer directement. Elles ne sont pas conçues pour un marché global.
10 La présente invention vise à remédier à ces inconvénients en introduisant le temps réel dans le processus de captation des images de la faune et de la flore sous-marines et de diffusion de ces images, tout en améliorant - et même en augmentant, le réalisme des images diffusées. Cette amélioration est en partie la conséquence d'une automatisation de la collecte des données sous-marines grâce à la robotisation de certaines des 15 tâches. En utilisant le réseau internet pour diffuser, en temps réel, les images 2D/3D crées on élargit considérablement le nombre d'utilisateurs et on les fidélise en leur donnant la possibilité de participer directement au processus d'édition des sites. Par ailleurs, dans une des formes préférées de réalisation de la présente invention, les utilisateurs situés dans différents endroits du monde, groupés dans une palanquée 20 virtuelle , interviennent appliquant un protocole et suivant les procédures identiques à celles de la plongée réelle en palanquée. Ainsi, la présente invention cherche, en partant de dispositifs et de méthodes appliquées dans la pratique, à créer une activité entièrement nouvelle et autonome consacrée à la découverte, à l'étude et à la protection des fonds marins. Elle vise prioritairement le grand public. 25 Le système couvert par la présente invention est essentiellement constitué par un réseau qui comprend quatre modules : le module SCENE , le module VIE , le module MIX et le module NET . Nous décrivons les fonctions de ces modules dans la suite. Le module SCENE vise à créer des représentations en images de synthèse 3D de la bathymétrie û c'est-à-dire de la surface du terrain des fonds de sites marins en partant de relevés acoustiques utilisant les techniques éprouvées du sonar sous-marin. Ce module comprend : 30 2949167 -5- 1- un dispositif capable de collecter des données numériques de sites sous-marins, en particulier la bathymétrie des fonds marins, des informations sur la nature des fonds et sur les paramètres physiques de l'environnement aquatique du site tels les courants, la visibilité et la turbulence dans un système de référence 5 (x,y,z,s,w) dans les quels x,y,z sont les coordonnées spatiales, (s) sont les données de la surface et (w) sont les paramètres de l'eau. 2- une station de traitement à distance, de ces données, dotée d'un logiciel d'édition 3D pour reconstituer des représentations interactives réalistes des surfaces de ces fonds, avec la distribution de la biocénose sur ces surfaces. io L'édition des sites et les vérifications pour assurer la conformité de la représentation 3D ainsi produite avec la réalité se fait en temps masqué, avec la collaboration des utilisateurs, par une plateforme collaborative 3D intégrée. Les représentations 3D, après contrôle et acceptation, sont stockées dans une base de données qui constitue un catalogue 3D interactif du terrain et de son 15 l'environnement aquatique, hors la couche vivante recouvrant la surface.
Le module VIE vise à collecter et transmettre directement en temps réel des vidéos et photos des parois des sites et de l'environnement aquatique voisin, avec leur faune et leur flore. Ce module consiste en un dispositif connecté à l'internet, téléopéré ou 20 commandé à distance par un opérateur, l'instructeur , connecté directement aux utilisateurs, et capable de prendre des vidéos géolocalisées et des photos d'ensemble et de détail de sites sous-marins. Ces photos peuvent aussi provenir de la base de données si elles avaient été préalablement numérisées par ce dispositif et édités par la station de traitement. 25 Pour chaque site sous-marin quelques parcours de visite seront prédéfinis, suivant les préférences des utilisateurs et de leurs niveaux de préparation. La prise de vues vidéo se fera suivant ces parcours prédéfinis et géolocalisés, de même que la prise de photos de détail. Le dit dispositif est équipé pour transmettre directement au module MIX , en temps 30 réel, ces vidéos et ces photos par l'internet,
Le module MIX , installé dans une unité informatique centrale, est conçu pour mixer les vidéos et les photos 2D avec les images de synthèse 3D et consiste en un serveur qui reçoit, d'une part, les représentations 3D stockées dans la base de données et, 2949167 -6- d'autre part, en temps réel, les vidéos et les photos prises pendant le parcours, enchaînées et intégrées suivant un processus prédéfinit. En se servant d'un logiciel d'édition 3D dédié, ce module mixe en temps réel les images géolocalisées reçues du module VIE avec les représentations 3D reçues du module SCENE . Par mixage 5 on entend tout type de combinaison, incrustation, fondu-enchaîné, superposition, etc. d'images 2D et 3D qui donnerait aux utilisateurs une perception visuelle du site comparable à celle de la réalité.
Le module NET comprend toutes las activités des utilisateurs du système, soit 10 directement connectés au site internet dédié à sa diffusion par leurs ordinateurs personnels ou par des appareils mobiles de communication courants, soit par des appareils submersibles spécialement conçus pour la simulation multisensorielle, opérés ou portés par les utilisateurs, qui font appel aux techniques de la réalité virtuelle ou augmentée comme ceux couverts par les brevets mentionnés précédemment. 15 Sont aussi dans ce cas, par exemple, les lunettes ou les casques de réalité augmentée, des vêtements intelligents pour la natation, pour l'aquagym ou pour la plongée, instrumentalisés avec des réseaux de senseurs qui mesurent différents paramètres physiques des utilisateurs ou qui introduisent des nouveaux paramètres dans les performances des dits utilisateurs. 20 Les utilisateurs quant ils se connectent au site internet dédié, auront, entre autres, le choix du site où ils souhaitent réaliser la plongée virtuelle en temps réel, le choix du parcours et le choix des créneaux horaires pendant lesquels ces parcours pourront être réalisés. 25 On prévoit de préférence, comme dispositifs de collecte de données sous-marines, des robots submersibles, soit opérés à distance, connus sous l'appellation ROV (remote operated underwater vehicles), soit complètement autonomes, connus sous l'appellation AUV (autonomous underwater vehicle) équipés avec l'instrumentation 30 nécessaire pour réaliser les opérations prévues de collecte d'information bathymétrique, des mesures sur l'environnement aquatique ou pour réaliser des prises de vues en vidéo ou en photo, numérisées et géolocalisées. Les premiers sont connectés à l'operateur par un câble ombilical alors que les seconds sont entièrement libres sous l'eau. On pourrait aussi prévoir que les opérations réalisées par ce dispositif soient 2949167 -7- développées de façon traditionnelle, en utilisant un bateau instrumentalisé et une équipe d'opérateurs. Néanmoins, à terme, avec les progrès réalisés et attendus de la communication sous-marine sans fil, ce sont les appareils AUV, entièrement autonomes, déployés en réseaux, capables de recevoir et de transmettre l'information 5 aux utilisateurs en temps réel et sans intervention humaine, qui sont privilégiés dans les applications futures de la présente invention. Il faut noter que le système concerné par l'invention se limite à utiliser ces appareils ROV ou AUV, comme il peut utiliser d'autres moyens plus traditionnels de collecte de données sous-marines, mais que l'aspect innovant du système n'est pas basé sur les 10 moyens de collecte de données sous-marines.
La séquence du processus se développe essentiellement suivant deux boucles dans lesquelles l'information qui alimente le réseau ainsi constitué est collectée, traitée et diffusée : 15 Boucle scène : La première boucle concerne les éléments permanents non-vivants du site, c'est à dire le terrain et l'eau de mer. Elle comprend la collecte sous-marine de données bathymétriques et l'identification de la nature de la surface par des méthodes acoustiques, notamment par le sonar, la collecte d'information sur les paramètres de l'environnement aquatique du site, leur traitement, l'édition de représentations 20 numériques en 3D interactif et leur transmission en différée vers la base de données. Les utilisateurs autorisés, ayant accès direct à cette base de données, peuvent proposer des corrections ou des actualisations qui, éventuellement, intégreront ces représentations.
25 Boucle vie : La seconde boucle concerne les composants vivants du site, c'est-à-dire sa faune et sa flore et comprend la prise de vidéos et de photos sous-marines géolocalisées, leur transmission en temps réel vers le serveur qui les positionne dans l'espace 3D numérisé des sites de la base de données et les diffuse vers les utilisateurs. 30 A terme, les utilisateurs à distance pourront avoir la commande directe de ces prises de vues et diriger les déplacements dans l'espace des sites réels, du dispositif de collecte qui intègre les appareils de prises de vues û vidéo ou photo. Néanmoins, dans l'état de l'art actuel, les communications sous-marines sans fil étant encore aléatoires, il est nécessaire de prévoir à la commande de l'appareil de prise de vues, un instructeur qui 2949167 -8- dirigera la plongée virtuelle de la palanquée suivant des parcours et des programmes préétablis, pour tous ceux qui y participent. Un protocole permet de gérer l'accès des utilisateurs à l'instructeur et par conséquence aux commandes de la prise de vues et des déplacements du robot, déplacements qui pourraient, sous certaines conditions, 5 être modifié en temps réel, par exemple, pour suivre de près un requin ou pour s'attarder sur un évènement particulier, avec l'accord de l'instructeur.
La superposition des deux boucles permet d'intégrer, à l'endroit précis et en temps réel, les vidéos et les photos géolocalisées dans la scène du site sous-marin sélectionné, 10 donnant le détail de la faune et de la flore, reconstituant ainsi la perception qu'un plongeur expérimenté pourrait avoir tout au long du parcours choisi. Les possibilités offertes actuellement par le mixage ou fusion de vues 3D interactives du site global et les images 2D rapprochées des surfaces du site prises en temps réel, ouvrent la voie à des nouvelles applications du concept. De même, l'alternance ou la 15 concomitance de ces vues, augmentées ou complémentées par des photos prises en macro ou avec un objectif grand angle et par des informations scientifiques ou touristiques, vont enrichir considérablement la perception visuelle et la connaissance du plongeur en ligne par rapport à la perception et à la connaissance du plongeur dans le site. 20 Cette perception sera d'autant plus proche de la réalité que les technologies de collecte de données sous-marines progresseront et que les moyens informatiques mobilisés pour enrichir et augmenter cette réalité deviendront plus performants. Il faut remarquer que sans éclairage artificiel, le plongeur ne perçoit pas les couleurs réelles les tons 25 bleutés étant dominants. Les appareils prévus pour la prise des images vidéo sont dotés de deux puissants phares qui rendent aux surfaces leurs couleurs naturelles.
Avec l'extension du réseau internet, on peut imaginer que les palanquées qui, dans la réalité, ne groupent que quelques plongeurs, pourront mobiliser des dizaines, sinon des 30 centaines, d'internautes. Une nouvelle forme de tourisme durable serait ainsi créée, qui û sans laisser des empreintes sur le fragile environnement sous-marin, permettrait à tous, de découvrir et de suivre dans le temps l'évolution des plus beaux trésors naturels de notre planète, accompagnés par des plongeurs professionnels et par des scientifiques. C'est l'objectif de la présente invention. 2949167 -9- L'invention intègre un système et une méthode. Le système est composé par un ensemble de dispositifs et appareils de collecte d'information et de mesure de données sous-marines, de communication et de diffusion en ligne. La méthode comprend des 5 logiciels de collecte, de traitement, d'édition 2D13D, en temps réel, de travail collaboratif et de mixage d'images. Pour que cette invention soit opérationnelle et exploitable, il faudra modifier, améliorer, perfectionner et compléter les appareils prévus, les rendre compatibles avec les nouveaux logiciels d'édition et de mixage et adapter les techniques de diffusion et de 10 réception. Il y a donc un travail de recherche et de développement dont les résultats ne sont pas évidents. Les caractéristiques et les avantages de l'invention vont apparaître plus clairement à la lecture de la description détaillée qui suit d'au moins un mode de réalisation préféré de celle-ci, donné à titre d'exemple non limitatif et représenté aux dessins annexés. Sur 15 ces dessins : Figure 1 présente le diagramme séquentiel des fonctions de l'ensemble intégrant un système et une méthode. Il comprend quatre modules principaux qui, en partant du site sous-marin réel (2), permettent la réalisation en ligne de la plongée virtuelle en temps réel dans ce site. 20 Le premier module (4) comprend les activités préalables qui se situent hors du temps réel, éventuellement en temps masqué et concerne l'imagerie 3D interactive du scénario du site, appelée la boucle SCENE . Dans cette boucle se trouvent les activités collecte des données bathymétriques au sonar, géoréferencées, des fonds marins (12), la numérisation du site en 3D en partant de ces données (18), I"intégration 25 des paramètres de l'eau (visibilité, courants, couleurs...) (20), les parcours recommandés pour le visite du site (22). La collecte des données au sonar peut se faire par des méthodes traditionnelles et avec l'utilisation de robots autonomes (14). La numérisation 3D interactive et l'intégration des paramètres de l'eau se fait grâce à un logiciel d'édition spécifique intégré au processus. Cette boucle termine dans une base 30 de données où sont stockées tous les sites disponibles. 2949167 -10- Le second module du diagramme comprend les activités de production en temps réel et concerne l'imagerie 2D, vidéo et photos. C'est le module VIE (6) qui démarre avec la prise vidéo en continu (28) au long du parcours sélectionné, réalisée par l'instructeur qui se trouve sur le site et qui opère le robot dédié aux prises de vues vidéo et photo en 5 temps réel (16). Dans cette boucle peut aussi intervenir la composante scientifique du système par la participation d'un scientifique à la plongée virtuelle. Les deux boucles sont reliées par une plateforme d'édition collaborative (26), qui permet aux utilisateurs autorisés de améliorer, actualiser, suivre l'évolution et développer les sites existants ou d'en créer des nouveaux sites. Elles débouchent sur 10 le module MIX (8) dont la fonction principale est de réaliser le mixage ou la fusion en temps réel, des images 2D de la vie du site avec les images 3D de la scène. Ce mixage qui peut prendre différentes formes, sera réalisé par un logiciel dédié intégrant le système et placé dans son unité centrale, avant la diffusion par l'internet (10). Le module NET comprend les activités de réception et de commande des 15 utilisateurs sur le réseau. Ces utilisateurs peuvent utiliser soit des ordinateurs personnels (40), soit des téléphones mobiles (42), soit des appareils submersibles de diffusion pour les piscines (44), soit enfin des appareils submersibles et autonomes de diffusion pour les plages (46). Figure 2 schématise l'opération, dans un site (2), de collecte de données 20 bathymétriques, sur la nature du terrain et aquatiques, avec un robot AUV (autonomous underwater vehicle) (14), spécialement adapté pour cette mission et équipé en particulier d'appareils sonar (12). Ce robot programmé pour la mission, est contrôlé par l'opérateur (30), dans le bateau (32) équipé (34) pour ce travail. Des bouées (36) peuvent être nécessaires pour l'encadrement de cette campagne de collecte de 25 données et pour les communications sans fil entre l'appareil et l'opérateur.. Figure 3 présente les résultats attendus du module SCENE (4) après la campagne de collecte de données sous-marines au sonar. La représentation 3D du fond marin (18) est complétée par l'ajout des paramètres de l'eau (20) et par le tracé dans un même système de coordonnées x,y,z,t où t est le temps, des différents parcours (22) de 30 plongée recommandés pour le site (2). Cette information après vérification est classée dans la base de données (24). 2949167 -11- Figure 4 présente schématiquement les activités en temps réel (50) de la boucle VIE, MIX et NET en opération depuis la prise de vues vidéo et photo (60) par l'opérateur (50) dans son bateau (52) opérant le robot (16) auquel il est lié par le câble (56). L'information collectée est traitée dans son ordinateur (54) avent d'être transférée à 5 l'unité centrale (28) où les données 3D stockées dans la base de données, (24) concernant le parcours et le site sélectionnés sont mixées avant d'être diffusées sur le net (10) et reçues par les différents terminaux. (40, 42, 44, 46). Figure 5 présente les choix simples qu'un utilisateur doit faire avant d'initier sa plongée virtuelle, quel que soit le terminal utilisé. En partant du moteur de recherche en ligne 10 (10), il choisit la région où il souhaite plonger (13), ensuite le site (2), ensuite le parcours qu'il veut faire dans ce site (22). Il reçoit en retour la proposition du jour et de l'heure pour cette plongée ainsi que d'autres détails techniques (23). Le moment venu, il peut initier la plongée virtuelle. (60) et découvrira les autres internautes qui se trouveront dans sa palanquée, par leurs avatars et pourra discuter avec son instructeur 15 et suivre directement ses recommandations. Figure 6 donne le détail de l'opération en temps réel de prise des vidéos et photos avec le robot (16) contrôlé par l'instructeur (50). Le robot dispose, entre autres instruments, d'un caméra vidéo (58) et de plusieurs caméras photos, permettant la prise de photos grand angulaire et des macro photos. Le bateau (52) est équipé pour 20 envoyer les images en temps réel par le net (10) à l'unité centrale. Figure 7 schématise le parcours sélectionné sur l'imagerie 3D du terrain du site et le processus de glissement, en temps réel, des images 2D sur ce parcours. Le robot de prise de vues est programmé pour réaliser la prise de vues exactement suivant ce parcours dans le système de coordonnées global et pendant la période prévue pour 25 chaque parcours. Figure 8 est la représentation de l'ensemble du système et intègre les informations des figures précédentes pour donner une vue globale de la composition et d'une des formes l'opération préférées de l'invention. 30 2949167 -12- Une forme de réalisation et d'opération du système, entre autres, est résumée dans la suite. Un utilisateur choisit d'abord entre les terminaux disponibles, lequel il souhaite employer, soit son ordinateur, soit son téléphone mobile, soit l'appareil de diffusion 5 dans la piscine, soit enfin l'appareil mobile pour les plages. Aux commandes de l'appareil sélectionné, il va alors choisir le site de plongée, le parcours qu'il souhaite faire et l'heure à laquelle il souhaite débuter ce parcours. Si un parcours est bien prévu à l'heure sélectionnée, l'utilisateur réserve sa place, en la payant, et obtient des informations sur le site, sur les conditions réelles du temps, sur le 10 parcours, sur l'instructeur en charge de la palanquée et éventuellement, sur d'autres participants avec les quels il pourra s'entretenir tout au long du parcours. A l'heure prévue pour le départ de l'excursion, il se connecte au site sélectionné qui apparaît sur son moniteur dans la version 3D interactif. Il voit dans une fenêtre son instructeur qui donne une brève introduction sur le parcours 15 et démarre la réalisation du parcours choisi qui apparaît sur l'image 3D du site ainsi que la position exacte du plongeur dans sa trajectoire. Tout au long du parcours, en temps réel, des vues globales du site en 3D alterneront avec la vidéo du parcours qui sera complété par des photos de détail, des photos grand angle ou un suivi plus spécifique, par exemple d'un poisson rare. La durée totale du parcours et la trajectoire spatiale de 20 ce parcours étant prédéfinies, ces données ne peuvent pas être modifiées sans l'accord de l'instructeur. A la fin du parcours, les photos prises par chaque participant seront disponibles ainsi qu'un rapport de l'excursion. Quand un utilisateur choisi un site et un parcours du catalogue, il accède directement à la base de données où tous les sites numérisés en 3D sont stockés. Ce site et ce 25 parcours sont alors rappelés dans le serveur où se trouve le logiciel qui mixera les images de la vidéo et des photos prises en temps réel avec les images 3D du site, suivant une méthode définie. Quand l'utilisateur choisi le parcours, il se met en liaison, sur le site choisi, avec l'appareil qui est programmé pour faire ce parcours à l'heure souhaitée et avec son 30 opérateur, localisés sur le site réel. L'opérateur connaît, avant d'initier le parcours de son ROV, combien de participants il va avoir, leurs motivations et leurs préférences. A 2949167 -13- l'heure prévue et tenant en compte son programme, il lance son appareil suivant la trajectoire prévue et la suit sur son moniteur du début jusqu'à la fin. Dans cette configuration, chaque site dispose d'au moins un ROV commandé par un instructeur et programmé pour réaliser un des parcours prédéfinis du site, en moyenne 5 toutes les heures. Ceci permet, suivant les sites et la fréquentation, de déterminer un modèle économique pour l'exploitation commerciale du système et le prix unitaire de chaque parcours.
Outre le tourisme et les loisirs, l'invention aura des retombées dans les domaines de la 10 pédagogie, de l'éducation, des sciences de la mer et de l'industrie sous-marine. Elle constitue une avancée dans l'apprentissage de la plongée et, en général, un progrès qui facilite l'initiation aux activités aquatiques et subaquatiques. Elle permettra à toute personne ayant accès à l'internet, de découvrir les fonds marins en direct, avec l'accompagnement de scientifiques et de plongeurs professionnels. Elle sera un outil 15 dans l'effort de protection de l'environnement marin grâce à une connaissance plus approfondie de ses lois. En suivant avec précision des parcours géolocalisés pour la prise de vues vidéo et photo, les scientifiques pourront comparer la situation des écosystèmes et de la biodiversité entre les différentes prises, prévoir leur évolution dans le temps et mieux 20 gérer leur protection. Dans les domaines industriel et scientifique sous-marins, existent aussi des besoins comparables à ceux qui concernent le grand public, pour suivre dans le temps de façon systématique, l'évolution des installations sous-marines et des écosystèmes. Ces besoins ne trouvent pas des solutions appropriées en ce qui concerne leur coût et leur 25 facilité d'opération. Les applications de la réalité virtuelle et de la réalité mixte dans ces domaines sont encore à leurs débuts. La présente invention ouvre donc des perspectives de nouvelles applications dans ces différents domaines. 30

Claims (1)

  1. REVENDICATIONS1 Système intégré de plongée virtuelle en temps réel dans les sites sous-marins remarquables du monde (2), conçu pour visualiser des reconstitutions virtuelles de la scène sous-marine éditées en 3D dans un système de référence (x,y,z,s,w) (18), en partant des données bathymétriques collectées par un robot autonome (AUV) (14) utilisant la méthode acoustique avec du sonar multiscan (12) et à -des photos géolocalisées, sur les dites représentations, reprises d'une base de données (24), venant se fondre des images vidéo réelles en 2D de la surface vivante du site (60) prises en temps réel par la caméra vidéo (58) d'un autre robot (ROV) (16) se déplaçant sur ce même système de-référence; suivant des parcours prédéfinis (22) et opéré à distance par l'opérateur (50) ou par des utilisateurs en ligne, la dite fusion étant obtenue suivant les techniques de la réalité virtuelle et de la réalité mixte dans une unité centrale de traitement (28) et le résultat de ce processus permettant de simuler la plongée sous-marine en donnant aux utilisateurs de l'internet (10), par différents types de terminaux fixe (40), mobile (42), en immersion dans une piscine (44) ou dans un plage (46), une perception visuelle des dits sites comparable à celle que les plongeurs expérimentés auraient en réalité s'ils plongeaient au même moment dans les dits sites. 2 Système intégré de plongée virtuelle en temps réel de la revendication 1, caractérisé en ce que la collecte de données bathymétriques de la surface du terrain immergé par des méthodes acoustiques (12), la mesure des paramètres caractéristiques de l'eau de mer et la prisq de photos géolocalisées. des sites (2) sont réalisées par un robot sous-marin autonome (AUV) (14) équipé d'un sonar latéral, d'une caméra photo géolocalisée et de divers instruments de mesure, ce robot étant téléopéré par un opérateur (30) dans un bateau (32) équipé de divers appareils dont des ordinateurs pour accomplir ce travail et enregistrer les résultats sans aucune intervention humaine subaquatique. 3 Système intégré de plongée virtuelle en temps réel de la revendication 1, caractérisé en ce qu'il comprend, une base de données (24) où les représentations numérisées en 3D (18) produites des différents sites (2), sont classées et cataloguées dans la dite base de données avec des informations scientifiques correspondantes et que les dites représentations peuvent être constamment actualisées et corrigées par les propres utilisateurs .au -cours du temps, grâce à une plateforme d'édition collaborative (26). 4 Système intégré de plongée virtuelle en temps réel de la revendication 1 caractérisé en ce que, suivant une des formes de réalisation préférée, il comprend, pour la production en temps réel de la vidéo en 2D, un robot sous-marin (16) nommé ROV (remote operated vehicle) contrôlé à distance par un opérateur (50) placé dans -un bateau -(52) équipé d'ordinateurs (54) et d'installations de télécommunication (10) permettant de transmettre en temps réel à une unité centrale de traitement distante (28), les images 2D (60) collectées par la caméra vidéo (58) du dit robot, lequel est connecté aux installations à bord par le câble ombilical (56). 5 Système intégré de plongée virtuelle en temps réel des revendications 1 et 3, -caractérisé en ce qu'il comprend dans l'unité centrale de traitement distante (28), un logiciel d'édition utilisant les techniques de la réalité mixte en temps réel, qui fusionne les images numériques 2D des vidéos en-temps réel prises suivant un parcours de plongée prédéfini (22) d'un site sous-marin (2), avec l'image virtuelle en 3D interactif de la surface de l'ensemble du dit site de façon à pouvoir positionner et intégrer le déroulement des vidéos 2D réelles sur les surfaces 3D virtuelles correspondantes, dans le même système spatial de référence (x,y,z).
FR0903920A 2009-08-11 2009-08-11 Systeme et methode de plongee virtuelle en temps reel Expired - Fee Related FR2949167B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR0903920A FR2949167B1 (fr) 2009-08-11 2009-08-11 Systeme et methode de plongee virtuelle en temps reel

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0903920A FR2949167B1 (fr) 2009-08-11 2009-08-11 Systeme et methode de plongee virtuelle en temps reel

Publications (2)

Publication Number Publication Date
FR2949167A1 true FR2949167A1 (fr) 2011-02-18
FR2949167B1 FR2949167B1 (fr) 2016-07-01

Family

ID=42272107

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0903920A Expired - Fee Related FR2949167B1 (fr) 2009-08-11 2009-08-11 Systeme et methode de plongee virtuelle en temps reel

Country Status (1)

Country Link
FR (1) FR2949167B1 (fr)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013068821A3 (fr) * 2011-11-09 2014-04-24 Abyssal S.A. Système et procédé de fonctionnement pour des véhicules télécommandés incluant des ensembles d'images en 3d superposés
FR3079950A1 (fr) * 2018-04-05 2019-10-11 Antonio Dinis Tele-virtualite
WO2020030950A1 (fr) * 2018-08-08 2020-02-13 Abyssal S.A. Système et procédé d'exploitation pour véhicules télécommandés tirant partie de données synthétiques pour entraîner des modèles d'apprentissage automatique
US11436807B2 (en) 2018-08-08 2022-09-06 Abyssal S.A. System and method of operation for remotely operated vehicles with improved position estimation
US11455740B2 (en) 2018-08-08 2022-09-27 Abyssal S.A. System and method of operation for remotely operated vehicles for simultaneous localization and mapping
US11475551B2 (en) 2018-08-08 2022-10-18 Abyssal S.A. System and method of operation for remotely operated vehicles for automatic detection of structure integrity threats

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5995882A (en) * 1997-02-12 1999-11-30 Patterson; Mark R. Modular autonomous underwater vehicle system
GB2366111A (en) * 2000-08-04 2002-02-27 Mentor Subsea Tech Serv Inc Video telemetry apparatus for remotely operated vehicles.
FR2914196A1 (fr) * 2007-03-26 2008-10-03 Antonio Dinis Appareil marin mobile pour le multimedia.

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5995882A (en) * 1997-02-12 1999-11-30 Patterson; Mark R. Modular autonomous underwater vehicle system
GB2366111A (en) * 2000-08-04 2002-02-27 Mentor Subsea Tech Serv Inc Video telemetry apparatus for remotely operated vehicles.
FR2914196A1 (fr) * 2007-03-26 2008-10-03 Antonio Dinis Appareil marin mobile pour le multimedia.

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CHEAIB N ET AL: "Oce@Nyd: A new tailorable groupware for digital media collection for underwater virtual environments", PROCEEDINGS - 3RD INTERNATIONAL CONFERENCE ON DIGITAL INTERACTIVE MEDIA IN ENTERTAINMENT AND ARTS, DIMEA 2008 - PROCEEDINGS - 3RD INTERNATIONAL CONFERENCE ON DIGITAL INTERACTIVE MEDIA IN ENTERTAINMENT AND ARTS, DIMEA 2008 2008 ASSOCIATION FOR COMPUTI, 10 September 2008 (2008-09-10), pages 256 - 263, XP002591521, DOI: DOI:10.1145/1413634.1413683 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2019264604B2 (en) * 2011-11-09 2020-05-21 Ocean Infinity (Portugal), S.A. System and method of operation for remotely operated vehicles with superimposed 3d imagery
US9195231B2 (en) 2011-11-09 2015-11-24 Abyssal S.A. System and method of operation for remotely operated vehicles with superimposed 3D imagery
AU2012335330B2 (en) * 2011-11-09 2017-07-20 Ocean Infinity (Portugal), S.A. System and method of operation for remotely operated vehicles with superimposed 3D imagery
US9741173B2 (en) 2011-11-09 2017-08-22 Abyssal S.A. System and method of operation for remotely operated vehicles with superimposed 3D imagery
AU2017236009B2 (en) * 2011-11-09 2019-08-22 Ocean Infinity (Portugal), S.A. System and method of operation for remotely operated vehicles with superimposed 3d imagery
US10424119B2 (en) 2011-11-09 2019-09-24 Abyssal S.A. System and method of operation for remotely operated vehicles with superimposed 3D imagery
WO2013068821A3 (fr) * 2011-11-09 2014-04-24 Abyssal S.A. Système et procédé de fonctionnement pour des véhicules télécommandés incluant des ensembles d'images en 3d superposés
FR3079950A1 (fr) * 2018-04-05 2019-10-11 Antonio Dinis Tele-virtualite
WO2020030950A1 (fr) * 2018-08-08 2020-02-13 Abyssal S.A. Système et procédé d'exploitation pour véhicules télécommandés tirant partie de données synthétiques pour entraîner des modèles d'apprentissage automatique
US11436807B2 (en) 2018-08-08 2022-09-06 Abyssal S.A. System and method of operation for remotely operated vehicles with improved position estimation
US11455740B2 (en) 2018-08-08 2022-09-27 Abyssal S.A. System and method of operation for remotely operated vehicles for simultaneous localization and mapping
US11475551B2 (en) 2018-08-08 2022-10-18 Abyssal S.A. System and method of operation for remotely operated vehicles for automatic detection of structure integrity threats
US12012189B2 (en) 2018-08-08 2024-06-18 Ocean Infinity (Portugal), S.A. System and method of operation for remotely operated vehicles leveraging synthetic data to train machine learning models

Also Published As

Publication number Publication date
FR2949167B1 (fr) 2016-07-01

Similar Documents

Publication Publication Date Title
Bruno et al. Development and integration of digital technologies addressed to raise awareness and access to European underwater cultural heritage. An overview of the H2020 i-MARECULTURE project
FR2949167A1 (fr) Systeme et methode de plongee virtuelle en temps reel
CN110188488B (zh) 一种海底天然气水合物露头及周边环境的仿真方法和系统
McCarthy et al. Virtual reality for maritime archaeology in 2.5 D: a virtual dive on a flute wreck of 1659 in Iceland
Merchant (Re) constructing the tourist experience? Editing experience and mediating memories of learning to dive
Woods et al. Beacon Virtua: A Virtual Reality simulation detailing the recent and shipwreck history of Beacon Island, Western Australia
Hessler Prospecting ocean
Liestøl et al. Augmented reality storytelling submerged. dry diving to a world war ii wreck at ancient phalasarna, crete
Tarng et al. The development of a virtual marine museum for educational applications
Dawson et al. “Some Account of an Extraordinary Traveller”: Using Virtual Tours to Access Remote Heritage Sites of Inuit Cultural Knowledge
FR3079950A1 (fr) Tele-virtualite
Barber et al. 'One Immense Black Spot': Aerial Views of London 1784–1918
Cowles et al. Providing interactive and field laboratories while teaching university marine biology classes in an era of COVID‐19
Lee Map Orkney month: Imagining archaeological mappings
Georgiev Digitalization of Bulgarian cultural heritage
Leitner On robots and turtles: A posthuman perspective on camera and image movement after Michael Snow’s La région centrale
Van Audenhaege et al. Workshop on 3D mapping of habitats and biological communities with underwater photogrammetry
Andreyev Salmon People
Campbell Drones, Machetes, and Virtual Reality: 21 st-Century Tools for Historic Preservation
Smith Composing Doggerland: How can the North Sea inform new approaches to situated arts practices in the context of the Anthropocene?
Canessa et al. Uncovering the Oceans through Marinescape Geovisualization
Martinsson 6 Extended ways of experiencing climate change
Smith et al. Riding Through Walls: a journey of physical computing through Google Street View
Kholisoh DEVELOPMENT OF SAWARNA BEACH TOURISM OBJECT THROUGH ESTABLISHING CITY BRANDING
Woods Seeing clearly

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10

ST Notification of lapse

Effective date: 20200405