FR3021442A1 - Procede de traitement d'informations locales - Google Patents
Procede de traitement d'informations locales Download PDFInfo
- Publication number
- FR3021442A1 FR3021442A1 FR1454556A FR1454556A FR3021442A1 FR 3021442 A1 FR3021442 A1 FR 3021442A1 FR 1454556 A FR1454556 A FR 1454556A FR 1454556 A FR1454556 A FR 1454556A FR 3021442 A1 FR3021442 A1 FR 3021442A1
- Authority
- FR
- France
- Prior art keywords
- virtual representation
- displacement
- location
- local information
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 238000012545 processing Methods 0.000 title claims abstract description 9
- 238000006073 displacement reaction Methods 0.000 claims abstract description 33
- 230000033001 locomotion Effects 0.000 claims description 24
- 230000010365 information processing Effects 0.000 claims description 8
- 238000003672 processing method Methods 0.000 claims description 3
- 238000012986 modification Methods 0.000 abstract description 2
- 230000004048 modification Effects 0.000 abstract description 2
- 230000000007 visual effect Effects 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000002238 attenuated effect Effects 0.000 description 2
- 238000011960 computer-aided design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 210000004417 patella Anatomy 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/16—Using real world measurements to influence rendering
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Navigation (AREA)
- Image Analysis (AREA)
Abstract
Un procédé (10) de traitement d'informations locales acquises au moyen d'une représentation virtuelle et d'un dispositif comportant une centrale inertielle et un capteur d'images qui comporte les étapes suivantes: - capture (11) d'au moins une image d'un environnement réel du dispositif, - localisation (12) du dispositif dans la représentation virtuelle, correspondant à la localisation du dispositif dans l'environnement réel, par corrélation de parties d'une image captée et de parties de la représentation virtuelle, - détermination (13) du déplacement du dispositif au moins au moyen de la centrale inertielle et - modification (15) de la localisation du dispositif dans la représentation virtuelle en fonction du déplacement déterminé par la centrale inertielle pour que la position réelle du dispositif corresponde, pendant le déplacement, à la localisation du dispositif dans la représentation virtuelle.
Description
PROCEDE DE TRAITEMENT D'INFORMATIONS LOCALES DOMAINE DE L'INVENTION La présente invention vise un procédé de traitement d'informations locales, un dispositif de mise en oeuvre d'un tel procédé et un terminal portable communiquant comportant un tel dispositif. L'invention s'applique notamment dans le domaine de l'assistance au contrôle industriel. Plus particulièrement, l'invention s'applique à l'assemblage, la maintenance ou l'installation par réalité mixte ou augmentée ainsi qu'à l'aide à la formation. ÉTAT DE LA TECHNIQUE La réalité augmentée en milieu industriel exige une très grande robustesse des procédés de localisation. Actuellement, l'estimation de la position du dispositif utilisé est effectuée à l'aide de marqueurs. Cette technique permet d'avoir une certaine robustesse seulement lorsqu'un marqueur est visible. En outre, le dispositif repéré est localisé dans le référentiel du marqueur. De plus, il existe peu de dispositifs permettant une localisation sans utilisation de marqueur. Pour avoir une localisation du dispositif robuste, les procédés existants nécessitent une étape de calibration longue et peu intuitive. Cette étape de calibration ne permet pas d'utilisation rapide du dispositif et nécessite une certaine qualification des utilisateurs. Par ailleurs, certaines techniques de positionnement reconstruisent en temps réel l'environnement, le SLAM (ou « Simultaneous Localization And Mapping » en terminologie anglo-saxonne) par exemple. On a donc une localisation par rapport à un environnement reconstruit. Ceci présente plusieurs inconvénients. Tout d'abord, il n'est pas possible de détecter de différences entre ce qui a été construit et ce qui a été dessiné. De plus, l'environnement reconstruit peut comporter des erreurs de détection d'éléments par exemple. Ainsi, cette technique manque de fiabilité surtout dans le domaine de la maintenance ou lorsque l'on souhaite une grande précision. Les dispositifs utilisant la réalité augmentée sont, le plus souvent, des dispositifs permettant l'affichage d'informations en superposition sur une image ou vidéo.
On connaît dans l'état de la technique la demande de brevet européen EP 2201532 qui décrit un dispositif de positionnement local configuré pour déterminer la position relative du dispositif par rapport à un objet cible. Le dispositif est monté sur une rotule pilotée et graduée fixée sur un trépied. La rotule permet de déterminer l'azimut et l'angle d'élévation qui doivent être entrés manuellement afin de définir la position du dispositif. Ce dispositif est donc difficile à positionner et à déplacer en milieu industriel. OBJET DE L'INVENTION La présente invention vise à remédier à tout ou partie de ces inconvénients. A cet effet, selon un premier aspect, la présente invention vise un procédé de traitement d'informations locales acquises au moyen d'une représentation virtuelle et d'un dispositif comportant une centrale inertielle et un capteur d'images, qui comporte les étapes suivantes: - capture d'au moins une image d'un environnement réel du dispositif, - localisation du dispositif dans la représentation virtuelle, correspondant à la localisation du dispositif dans l'environnement réel, par corrélation de parties d'une image captée et de parties de la représentation virtuelle, - détermination du déplacement du dispositif au moins au moyen de la centrale inertielle et - modification de la localisation du dispositif dans la représentation virtuelle en fonction du déplacement déterminé par la centrale inertielle pour que la position réelle du dispositif corresponde, pendant le déplacement, à la localisation du dispositif dans la représentation virtuelle.
Tout d'abord, l'invention présente l'avantage d'avoir une localisation du dispositif à partir d'une seule image capturée. Le procédé a donc une grande robustesse dès l'étape de localisation du dispositif. Aussi, cette étape est rapide et ne nécessite pas de qualifications particulières de la part de l'utilisateur du dispositif.
L'utilisation d'un environnement virtuel réalisé a priori permet de localiser le dispositif dans le repère de la représentation virtuelle. Contrairement à une reconstruction, la représentation permet de détecter les éléments manquants sur les éléments de l'environnement réel. Les informations analysées ont une plus grande fiabilité. L'environnement virtuel peut aussi être modifié en fonction des observations faites sur l'environnement réel. L'étape de corrélation peut être effectuée à partir d'une analyse d'image ne nécessitant pas d'objet cible. En outre, le dispositif effectuant le procédé de l'invention n'est pas fixe et est facilement déplaçable en milieu industriel. Dans des modes de réalisation, l'étape de détermination du déplacement comporte les étapes suivantes: - estimation d'un mouvement par la centrale inertielle, - estimation d'un mouvement relatif entre les images captées à un instant et les images captées à un instant ultérieur et - combinaison des estimations de mouvement. Ces modes de réalisation présentent l'avantage d'avoir une position la plus précise possible. L'estimation du mouvement relatif entre deux images captées ainsi que l'estimation du mouvement de la centrale inertielle minimisent une erreur d'estimation de la position. Effectivement, les environnements industriels pouvant être visuellement ambigus, la détermination de la localisation par corrélation peut produire des erreurs entre deux situations similaires. L'estimation des deux autres mouvements permet d'éviter des changements brusques de localisation. Le procédé est donc plus robuste.
Dans des modes de réalisation, au cours de l'étape de localisation du dispositif, la corrélation est effectuée par reconnaissance dans au moins une image captée de structures sémantiques discriminantes prédéfinies dans la représentation virtuelle. Cette reconnaissance a l'avantage d'accroître la robustesse du procédé. En effet, plus il y a de structures sémantiques discriminantes dans l'image captée, plus le procédé est précis. Dans des modes de réalisation, le procédé objet de la présente invention, comporte une étape d'atténuation du déplacement déterminé au cours de l'étape de détermination du déplacement.
Ces modes de réalisation ont l'avantage d'avoir une localisation précise en cas de perte momentanée de l'image ou si l'image est inexploitable. L'utilisateur ne doit pas attendre de stabiliser le dispositif pour connaître sa position par rapport au référentiel de la représentation virtuelle. L'utilisateur est donc plus efficace. Aussi, cela permet d'atténuer les micromouvements que peut subir le dispositif. Dans des modes de réalisation, le procédé objet de la présente invention, comporte une étape d'affichage conjoint d'une image captée et d'une partie de la représentation virtuelle correspondant à l'image captée affichée. L'avantage de ces modes de réalisation est une meilleure visualisation des différences entre la représentation virtuelle et l'environnement réel. L'utilisateur est donc plus efficace. Dans des modes de réalisation, le procédé objet de la présente invention, comporte une étape d'édition d'informations localisées sur la représentation virtuelle. L'avantage de ces modes de réalisation est d'avoir des informations précisément localisées. De plus, les informations étant enregistrées sur la représentation virtuelle, elles sont aisément transférées et accessibles. Les informations enregistrées lors d'utilisations précédentes du dispositif sont accessibles et modifiable. Selon un deuxième aspect, la présente invention vise un dispositif de traitement d'informations locales qui comporte : un capteur d'images, qui fournit au moins une image de l'environnement réel du dispositif, un moyen d'accès à une représentation virtuelle, qui comporte en outre : - un moyen de localisation du dispositif dans la représentation virtuelle, correspondant à la localisation du dispositif dans l'environnement réel, par corrélation de parties d'une image captée et de parties de la représentation virtuelle, - une centrale inertielle qui détermine un déplacement du dispositif et, - un moyen de modification de la localisation du dispositif dans la représentation virtuelle en fonction du déplacement déterminé par la centrale inertielle pour que la position réelle du dispositif corresponde, pendant le déplacement, à la localisation du dispositif dans la représentation virtuelle. Les avantages, buts et caractéristiques particuliers du dispositif objet de la présente invention étant similaires à ceux du procédé objet de la présente invention, ils ne sont pas rappelés ici.
Dans des modes de réalisation, le dispositif objet de la présente invention, comporte un moyen d'affichage configuré pour afficher conjointement une image captée et une partie de la représentation virtuelle correspondant à l'image captée affichée.
Ces modes de réalisation présentent l'avantage de comparer l'environnement réel à la représentation virtuelle afin de détecter des anomalies. Dans des modes de réalisation, le dispositif objet de la présente invention, comporte un moyen d'édition d'informations localisées sur la représentation virtuelle.
L'avantage de ces modes de réalisation est la possibilité de création et de modification d'annotations précisément localisées directement sur la représentation virtuelle. Selon un troisième aspect, la présente invention vise un terminal portable communiquant comportant un dispositif objet de la présente invention.
Grâce à ces dispositions, l'invention est compacte et aisément transportable dans les milieux industriels, qui sont souvent difficiles d'accès. BRÈVE DESCRIPTION DES FIGURES D'autres avantages, buts et caractéristiques de l'invention ressortiront de la description non-limitative qui suit d'au moins un mode de réalisation particulier du procédé et du dispositif de traitement d'informations locales, et du terminal portable communiquant comportant un tel dispositif, en regard des dessins annexés, dans lesquels : la figure 1 représente, sous forme de logigramme, un mode de réalisation du procédé objet de la présente invention, la figure 2 représente, schématiquement, un mode de réalisation du dispositif objet de la présente invention. la figure 3 représente, schématiquement, un mode de réalisation du terminal portable communiquant objet de la présente invention.
DESCRIPTION D'EXEMPLES DE REALISATION DE L'INVENTION On note, dès à présent, que les figures ne sont pas à l'échelle. On observe sur la figure 1, un mode de réalisation particulier du procédé 10, objet de la présente invention, qui comporte : - une étape 11 de capture d'images représentatives de l'environnement réel, - une étape 12 de localisation d'un dispositif dans une maquette virtuelle correspondant à la localisation du dispositif dans l'environnement réel, - une étape 13 de détermination du déplacement du dispositif comportant trois sous-étapes : - une étape 13-1 d'estimation du mouvement par la centrale inertielle, - une étape 13-2 d'estimation du mouvement relatif entre les images captées à un instant et les images captées à un instant ultérieur, - une étape 13-3 de combinaison des estimations de mouvements déterminées aux étapes 13-1 et 13-2 déterminant un déplacement du dispositif, - une étape 14 d'atténuation du déplacement déterminé, - une étape 15 de modification de la position du dispositif dans la représentation virtuelle en fonction du déplacement déterminé, - une étape 16 d'affichage conjoint d'images captées et d'une partie de la représentation virtuelle correspondant à l'image captée affichée et - une étape 17 d'édition d'informations localisées sur la représentation virtuelle.
L'étape 11 est effectuée au moyen d'un dispositif de capture d'images. Le dispositif de capture d'images est, par exemple, une caméra, un appareil photo ou un scanner. Dans la suite de la description, « caméra » désigne un dispositif de capture d'images. La caméra peut être de type monoculaire, stéréoscopique, RGB-D ou plénoptique. La caméra effectuant la capture d'images à l'étape 11 peut être utilisée selon deux modes : le mode vidéo permettant une prise de vue en continu et - le mode image fixe configuré pour l'analyse plus approfondie de certains plans, lorsque la prise de vue est difficile par exemple. Le mode vidéo peut inclure une sous-étape de traitement de la qualité d'une image par stabilisation, débruitage, et super-résolution. Cette étape est utilisée lors de vues locales détaillées par exemple. Le mode image fixe se différencie du mode vidéo par l'absence de contrainte temporelle. L'image peut être de meilleure qualité et il est possible de mettre en oeuvre une stratégie de localisation globale en optimisant la localisation de l'ensemble des images. Par exemple, en prenant en compte la connaissance de certaines caractéristiques de la prise de vue, tels les caractéristiques de panoramas par exemple. L'étape 12 est une étape de calibration. Lors de sa création, des structures sémantiques discriminantes sont désignées dans la représentation virtuelle. La représentation virtuelle peut être une maquette numérique aussi appelée « Digital MockUp » en terminologie anglo-saxonne ou DMU. La maquette numérique est préférentiellement réalisée au moyen de logiciels de conception assistée par ordinateur (CAO). La représentation virtuelle peut inclure : des informations d'assemblage ou d'inspection, des tests et mesures, des annotations, des éléments à contrôler, des non-conformités. Les informations peuvent être de différents types : texte tels des métadonnées associées aux objets de la scène par exemple, - image, - géométrie, vidéo ou, scan 3D qui peut être acquis sur les objets de la scène lors d'une utilisation antérieure. Préférentiellement, la représentation virtuelle est une simplification de la maquette numérique brute, réalisée lors de la conception de l'objet représenté. La maquette numérique brute est filtrée et organisée afin de : sélectionner les objets pertinents pour la tâche à réaliser, extraire des métadonnées à afficher ou éditer, organiser des données de simplification des géométries et définir les structures sémantiques discriminantes par un procédé d'analyse automatique des structures géométriques présentes dans la maquette numérique. Préférentiellement, ces structures sémantiques discriminantes : minimisent l'ambiguïté naturelle de la scène, maximisent leur probabilité de détection, prennent éventuellement en compte des structures de référence. Les structures sémantiques discriminantes prennent en compte des structures de références lorsque les contraintes de tolérance l'imposent. Dans ce cas, les structures sémantiques discriminantes sont sélectionnées exclusivement sur les éléments de référence. Les structures sémantiques discriminantes sont préférentiellement des structures géométriques de type points, lignes, cercles, ellipses, surfaces, volumes paramétrés, des éléments riches en texture, ou des contours. Les structures sémantiques discriminantes peuvent être : - des amers visuels multimodaux et non-ambigus, - des mires de calibration facilement détectables. Le terme multimodal signifie qu'ils correspondent à des primitives extraites des différentes images disponibles, quelle qu'en soit la nature. La non-ambiguité est définie comme correspondant à des configurations ou des descriptions uniques dans un voisinage proche. Les amers visuels permettent une calibration sans intervention d'utilisateur. Les mires de calibration nécessitent l'intervention d'un utilisateur qui doit localiser la mire approximativement dans la représentation virtuelle. La mire peut être positionnée sur une surface pour définir une normale à la surface. L'utilisateur peut reproduire la normalité et le positionnement rapidement dans la représentation virtuelle. De plus, un ajout ultérieur de mires localisées automatiquement sur la représentation numérique permet d'accroitre encore la robustesse du procédé et la précision de la position du dispositif dans la représentation numérique. La localisation est automatique lorsque que la nouvelle mire positionnée est captée par la caméra dans une image comportant au moins une structure sémantique déjà référencée.
Après la localisation de la première mire, une corrélation entre les systèmes sémantiques discriminants des images captées et ceux de la représentation virtuelle est effectuée Préférentiellement, la corrélation est effectuée à partir des contours extraits de la représentation virtuelle qui sont ensuite alignés aux contours extraits de l'image. Ceci permet une réduction de la dérive lors d'une utilisation en mode vidéo. L'étape 12 d'initialisation peut être totalement automatisée si le nombre d'amers visuels est suffisant pour ne pas avoir à placer une mire. De plus, la sélection des amers ou mires à extraire peut être effectuée selon différents critères : la proximité d'un objet d'intérêt repéré dans la représentation virtuelle ou la dimension des amers ou des mires, par exemple. Lors de l'étape 12 de localisation, la position initiale de la centrale inertielle est définie.
L'étape 13 de détermination du déplacement peut être effectuée en trois sous-étapes, 13-1, 13-2 et 13-3. L'étape 13-1 d'estimation du mouvement par la centrale inertielle, est une étape de calcul du déplacement entre la position initiale de la centrale inertielle définie à l'étape 12 et la position estimée de la centrale inertielle après déplacement du dispositif. L'étape 13-2 d'estimation du mouvement relatif entre les images captées à un instant et les images captées à un instant ultérieur, est une étape de traitement d'image. Plus particulièrement, une reconnaissance des structures sémantiques est effectuée dans les deux images. En comparant les positions de ces structures dans l'image, on peut déterminer une estimation du mouvement du dispositif. L'étape 13-2 peut être itérative et exploite les capacités de la représentation virtuelle, par exemple un rendu de texture, une carte de profondeurs, une carte des normales. Préférentiellement, l'étape est un appariement des primitives 3D extraites des rendus précédemment cités à des primitives 2D ou 3D extraites de l'image acquise par la caméra. La sélection des primitives 3D visibles est gérée de manière intrinsèque et une étape de préparation de modèle est évitée. L'étape 13-3 de combinaison des estimations de mouvements déterminées aux étapes 13-1 et 13-2 détermine un déplacement du dispositif. Préférentiellement, une estimation de la position utilisant la corrélation de l'étape 12 est combinée aux estimations de mouvement pour déterminer la position du dispositif à un instant ultérieur. Un niveau de confiance peut être attribué à chaque estimation. La détermination du déplacement est préférentiellement effectuée par pondération des estimations par les niveaux de confiance correspondant. Le procédé est donc plus robuste et précis. Par exemple, lorsque l'image est floue, le niveau de confiance attribué à l'estimation de la position par corrélation est faible. L'étape 13-3 est configurée pour : - limiter l'effort de recalage en réduisant le nombre d'amers de référence, et donc le nombre de primitives définies à l'étape 13-2, - accroître la robustesse du ré-accrochage en cas de perte momentanée du recalage visuel si la caméra est masquée par exemple. L'étape 14 d'atténuation du déplacement déterminé à l'étape 13-3 est configurée pour atténuer l'impression de flottement entre la représentation virtuelle et les images captées. L'étape 14 peut être un filtrage des données de rotation et de translation issues de la centrale inertielle. Par exemple, l'estimation du mouvement par la centrale inertielle est filtrée pour minimiser l'impact des vibrations ou petits mouvements dus à l'utilisateur. Selon le mode de sélection des structures sémantiques, les petits mouvements peuvent être atténués tout en conservant un alignement sur les points d'intérêt de l'image. L'étape 15 de modification de la position du dispositif dans la représentation virtuelle en fonction du déplacement déterminé, est configurée pour actualiser précisément la position du dispositif en fonction du déplacement déterminé à l'étape 13-3 et atténué à l'étape 14.
L'étape 16, d'affichage conjoint d'images captées et d'une partie de la représentation virtuelle correspondant à l'image captée affichée, utilise la position et l'orientation du dispositif, modifiée à l'étape 15 et localisée dans le référentiel de la représentation virtuelle, pour définir la partie de la représentation virtuelle à afficher. L'affichage conjoint peut être un affichage en : juxtaposition, dans lequel les images sont placées l'une à côté de l'autre, afin de permettre une comparaison par exemple ou, en superposition dans lequel la représentation virtuelle est en transparence, afin d'avoir l'affichage des informations ajoutées à la maquette numérique brute et liées au processus industriel.
L'affichage peut être : en vue globale qui est une vue en champ large afin d'avoir une vision globale de la scène à analyser, en vue locale qui est une vue détaillée ou un zoom d'une partie d'une vue globale, la vue locale étant indiquée dans une vue globale.
L'étape 17 d'édition d'informations localisées sur la représentation virtuelle est effectuée à partir de l'affichage des informations réalisé à l'étape 16. Des informations précisément localisées peuvent être associées automatiquement ou manuellement à la représentation virtuelle. Ces informations sont par exemple fournies par : l'opérateur, tel une indication de non-conformité dans l'environnement réel par exemple, la camera, tel une photo, une vidéo, ou un scan 3D par exemple, un dispositif externe permettant par exemple une mesure de pression, de température, de niveau d'éclairement. Ces informations sont enregistrées dans la représentation virtuelle et peuvent servir pour une utilisation ultérieure. Ces informations peuvent être éditées pour rendre compte d'une évolution d'une situation locale par exemple, telle la correction d'une non-conformité, par exemple.
L'étape d'édition peut aussi être un contrôle par l'utilisateur de l'alignement local. Ce contrôle est préférentiellement effectué au moyen de l'affichage en superposition défini précédemment. Préférentiellement, la position de la représentation virtuelle est transparente et l'alignement est effectué à partir d'une image fixe. L'opérateur peut déplacer une position ponctuelle en 3D sans remettre en cause l'alignement global. L'utilisateur peut aligner précisément le réel sur le virtuel grâce à un zoom centré sur le point à aligner. Le procédé 10 est effectué au moyen d'un dispositif 20. On observe sur la figure 2, un mode de réalisation particulier du dispositif 20, objet de la présente invention.
Une caméra 205 capte une image 210 et une image 215 ultérieure à l'image 210. Les images 210 et 215 représentent un environnement réel. L'image 210 est transmise à un dispositif 225. Le dispositif 225 prend aussi en compte une représentation virtuelle 220 de l'environnement réel. Le dispositif 225 extrait des structures sémantiques discriminantes de la représentation virtuelle et de l'image capturée et effectue une corrélation configurée pour obtenir une localisation 230 du dispositif dans le référentiel de la représentation numérique selon l'étape 12 du procédé 10. Le dispositif 225 est un microprocesseur, par exemple. L'image 210 est aussi transmise avec l'image 215 à un dispositif 235. Le dispositif 235 extrait les structures sémantiques discriminantes des deux images et les compare pour en déduire une estimation du mouvement que le dispositif 20 a effectué entre l'instant où l'image 210 a été captée et l'instant ultérieur où l'image 215 a été captée. Le dispositif 235 est par exemple un microprocesseur qui effectue l'estimation selon l'étape 13-2 du procédé 10. L'information 240 est l'estimation du mouvement du dispositif 20 en sortie du dispositif 235.
Une centrale inertielle 245 est initialisée lorsque l'image 210 est captée. La centrale inertielle donne une information 250 d'estimation de mouvement à un dispositif 255 conformément à l'étape 13-1 du procédé 10. Le dispositif 255 peut être un microprocesseur. Le dispositif 255 prend en compte l'information 230 de localisation initiale du dispositif 20 et, en fonction des estimations de mouvement 240 et 250, transmet un signal 260 correspondant à la nouvelle position du dispositif 20 dans la représentation virtuelle. Le dispositif 255 réalise les étapes 13-3, 14 et 15 du procédé 10. Un dispositif 270 est un dispositif d'affichage. Le dispositif 270 affiche conjointement l'image 215 et la représentation virtuelle 220 à la position 260 correspondant à l'image 215. Le dispositif 270 peut aussi prendre en compte une information 265 qui doit être éditée sur la représentation virtuelle. L'information 275 en sortie du dispositif 270 est la représentation virtuelle éditée. On observe sur la figure 3, un mode de réalisation particulier du terminal portable communiquant 30, objet de la présente invention. Le terminal portable communiquant 30 comporte un écran d'affichage 270 relié au reste du dispositif 20. Le terminal portable communiquant 30 est préférentiellement : une tablette numérique, un dispositif de type « smartphone », des lunettes, un casque ou, un ordinateur.25
Claims (10)
- REVENDICATIONS1. Procédé (10) de traitement d'informations locales acquises au moyen d'une représentation virtuelle (220) et d'un dispositif (20) comportant une centrale inertielle (245) et un capteur d'images (205) caractérisé en ce qu'il comporte les étapes suivantes: - capture (11) d'au moins une image (210) d'un environnement réel du dispositif, - localisation (12) du dispositif dans la représentation virtuelle, correspondant à la localisation du dispositif dans l'environnement réel, par corrélation de parties d'une image captée et de parties de la représentation virtuelle, - détermination (13) du déplacement du dispositif au moins au moyen de la centrale inertielle et - modification (15) de la localisation du dispositif dans la représentation virtuelle en fonction du déplacement déterminé par la centrale inertielle pour que la position réelle du dispositif corresponde, pendant le déplacement, à la localisation du dispositif dans la représentation virtuelle.
- 2. Procédé (10) de traitement d'informations locales selon la revendication 1, dans lequel, l'étape (13) de détermination du déplacement comporte les étapes suivantes : - estimation (13-1) d'un mouvement par la centrale inertielle, - estimation (13-2) d'un mouvement relatif entre les images captées à un instant et les images captées à un instant ultérieur et - combinaison (13-3) des estimations de mouvement.
- 3. Procédé (10) de traitement d'informations locales selon l'une des revendications 1 ou 2, dans lequel, au cours de l'étape de localisation (12) du dispositif, la 30 corrélation est effectuée par reconnaissance dans au moins une image captée (210) de structures sémantiques prédéfinies dans la représentation virtuelle (220).
- 4. Procédé de traitement d'informations locales selon l'une des revendications 1 à 3, qui comporte une étape (14) d'atténuation du déplacement déterminé au cours de l'étape (13) de détermination du déplacement.
- 5. Procédé (10) de traitement d'informations locales selon l'une des revendications 1 à 4, qui comporte une étape (16) d'affichage conjoint d'une image captée (210) et d'une partie de la représentation virtuelle (220) correspondant à l'image captée affichée.
- 6. Procédé (10) de traitement d'informations locales selon l'une des revendications 1 à 5, qui comporte une étape (17) d'édition d'informations localisées (265) sur la représentation virtuelle (220).
- 7. Dispositif (20) de traitement d'informations locales qui comporte : un capteur d'images (205), qui fournit au moins une image (210) de l'environnement réel du dispositif, un moyen d'accès à une représentation virtuelle (220), caractérisé en ce qu'il comporte en outre : - un moyen de localisation (225) du dispositif dans la représentation virtuelle, correspondant à la localisation du dispositif dans l'environnement réel, par corrélation de parties d'une image captée et de parties de la représentation virtuelle, - une centrale inertielle (245) qui détermine un déplacement (250) du dispositif et, - un moyen de modification (255) de la localisation du dispositif dans la représentation virtuelle en fonction du déplacement déterminé par la centrale inertielle pour que la position réelle du dispositif corresponde, pendant le déplacement, à la localisation du dispositif dans la représentation virtuelle.
- 8. Dispositif (20) de traitement d'informations locales selon la revendication 7, qui comporte un moyen d'affichage (270) configuré pour afficher conjointement une image captée (210) et une partie de la représentation virtuelle (220) correspondant à l'image captée affichée.
- 9. Dispositif (20) de traitement d'informations locales selon l'une des revendications 7 ou 8, qui comporte un moyen (270) d'édition d'informations localisées sur une représentation virtuelle (220).
- 10. Terminal portable communiquant (30) caractérisé en ce qu'il comporte un dispositif (20) selon l'une des revendications 7 à 9.
Priority Applications (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1454556A FR3021442B1 (fr) | 2014-05-21 | 2014-05-21 | Procede de traitement d'informations locales |
EP15167278.9A EP2947628B1 (fr) | 2014-05-21 | 2015-05-12 | Procédé de traitement d'informations locales |
CA2891159A CA2891159A1 (fr) | 2014-05-21 | 2015-05-13 | Procede de traitement d'informations locales |
BR102015011234A BR102015011234A2 (pt) | 2014-05-21 | 2015-05-15 | processo de tratamento de informações locais |
US14/714,273 US9940716B2 (en) | 2014-05-21 | 2015-05-16 | Method for processing local information |
RU2015119032A RU2015119032A (ru) | 2014-05-21 | 2015-05-20 | Способ обработки данных о местоположении |
JP2015102494A JP6516558B2 (ja) | 2014-05-21 | 2015-05-20 | 位置情報処理方法 |
CN201510259721.9A CN105091817B (zh) | 2014-05-21 | 2015-05-20 | 用于处理局部信息的方法 |
SG10201503996XA SG10201503996XA (en) | 2014-05-21 | 2015-05-21 | Method for processing local information |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1454556 | 2014-05-21 | ||
FR1454556A FR3021442B1 (fr) | 2014-05-21 | 2014-05-21 | Procede de traitement d'informations locales |
Publications (2)
Publication Number | Publication Date |
---|---|
FR3021442A1 true FR3021442A1 (fr) | 2015-11-27 |
FR3021442B1 FR3021442B1 (fr) | 2018-01-12 |
Family
ID=51610212
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1454556A Expired - Fee Related FR3021442B1 (fr) | 2014-05-21 | 2014-05-21 | Procede de traitement d'informations locales |
Country Status (9)
Country | Link |
---|---|
US (1) | US9940716B2 (fr) |
EP (1) | EP2947628B1 (fr) |
JP (1) | JP6516558B2 (fr) |
CN (1) | CN105091817B (fr) |
BR (1) | BR102015011234A2 (fr) |
CA (1) | CA2891159A1 (fr) |
FR (1) | FR3021442B1 (fr) |
RU (1) | RU2015119032A (fr) |
SG (1) | SG10201503996XA (fr) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR3022065B1 (fr) * | 2014-06-04 | 2017-10-13 | European Aeronautic Defence & Space Co Eads France | Procede de generation d'une maquette numerique enrichie |
EP3943888A1 (fr) | 2016-08-04 | 2022-01-26 | Reification Inc. | Procédés de localisation et cartographie simultanés (slam) et appareil et systèmes associés |
WO2018110432A1 (fr) | 2016-12-15 | 2018-06-21 | 株式会社ソニー・インタラクティブエンタテインメント | Système de traitement d'informations, dispositif de commande, procédé et programme de commande de dispositif de commande |
WO2018110434A1 (fr) | 2016-12-15 | 2018-06-21 | 株式会社ソニー・インタラクティブエンタテインメント | Dispositif de vibration et système de commande |
JP6626992B2 (ja) | 2016-12-15 | 2019-12-25 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理システム、振動制御方法、及びプログラム |
US11145172B2 (en) | 2017-04-18 | 2021-10-12 | Sony Interactive Entertainment Inc. | Vibration control apparatus |
WO2018193514A1 (fr) | 2017-04-18 | 2018-10-25 | 株式会社ソニー・インタラクティブエンタテインメント | Dispositif de commande de vibration |
JP6887011B2 (ja) | 2017-04-19 | 2021-06-16 | 株式会社ソニー・インタラクティブエンタテインメント | 振動制御装置 |
WO2018198229A1 (fr) | 2017-04-26 | 2018-11-01 | 株式会社ソニー・インタラクティブエンタテインメント | Dispositif de commande de vibration |
JP6771435B2 (ja) * | 2017-07-20 | 2020-10-21 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および位置情報取得方法 |
CN115033444B (zh) * | 2022-08-10 | 2022-11-15 | 合肥健天电子有限公司 | 基于8051core在线调试电路控制装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080177411A1 (en) * | 2007-01-23 | 2008-07-24 | Marsh Joseph C | Method and apparatus for localizing and mapping the position of a set of points on a digital model |
WO2011104167A1 (fr) * | 2010-02-23 | 2011-09-01 | Airbus Operations Limited | Enregistrement de la localisation d'un point d'intérêt sur un objet |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8044991B2 (en) * | 2007-09-28 | 2011-10-25 | The Boeing Company | Local positioning system and method |
JP5434608B2 (ja) * | 2010-01-08 | 2014-03-05 | トヨタ自動車株式会社 | 測位装置及び測位方法 |
US9600933B2 (en) * | 2011-07-01 | 2017-03-21 | Intel Corporation | Mobile augmented reality system |
JP5867176B2 (ja) * | 2012-03-06 | 2016-02-24 | 日産自動車株式会社 | 移動物体位置姿勢推定装置及び方法 |
JP2015532077A (ja) * | 2012-09-27 | 2015-11-05 | メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH | 少なくとも1つの画像を撮影する撮影装置に関連する装置の位置及び方向の決定方法 |
-
2014
- 2014-05-21 FR FR1454556A patent/FR3021442B1/fr not_active Expired - Fee Related
-
2015
- 2015-05-12 EP EP15167278.9A patent/EP2947628B1/fr active Active
- 2015-05-13 CA CA2891159A patent/CA2891159A1/fr not_active Abandoned
- 2015-05-15 BR BR102015011234A patent/BR102015011234A2/pt not_active Application Discontinuation
- 2015-05-16 US US14/714,273 patent/US9940716B2/en active Active
- 2015-05-20 RU RU2015119032A patent/RU2015119032A/ru not_active Application Discontinuation
- 2015-05-20 JP JP2015102494A patent/JP6516558B2/ja not_active Expired - Fee Related
- 2015-05-20 CN CN201510259721.9A patent/CN105091817B/zh active Active
- 2015-05-21 SG SG10201503996XA patent/SG10201503996XA/en unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080177411A1 (en) * | 2007-01-23 | 2008-07-24 | Marsh Joseph C | Method and apparatus for localizing and mapping the position of a set of points on a digital model |
WO2011104167A1 (fr) * | 2010-02-23 | 2011-09-01 | Airbus Operations Limited | Enregistrement de la localisation d'un point d'intérêt sur un objet |
Non-Patent Citations (4)
Title |
---|
BLESER G ET AL: "Advanced tracking through efficient image processing and visual-inertial sensor fusion", COMPUTERS AND GRAPHICS, ELSEVIER, GB, vol. 33, no. 1, 1 February 2009 (2009-02-01), pages 59 - 72, XP025911718, ISSN: 0097-8493, [retrieved on 20081121], DOI: 10.1016/J.CAG.2008.11.004 * |
G.S.W. KLEIN ET AL: "Tightly integrated sensor fusion for robust visual tracking", IMAGE AND VISION COMPUTING, vol. 22, no. 10, 1 September 2004 (2004-09-01), pages 769 - 776, XP055147118, ISSN: 0262-8856, DOI: 10.1016/j.imavis.2004.02.007 * |
GERHARD REITMAYR ET AL: "Going out: robust model-based tracking for outdoor augmented reality", MIXED AND AUGMENTED REALITY, 2006. ISMAR 2006. IEEE/ACM INTERNATIONAL SYMPOSIUM ON, IEEE, PI, 1 October 2006 (2006-10-01), pages 109 - 118, XP031014657, ISBN: 978-1-4244-0650-0 * |
JIANG B ET AL: "A robust hybrid tracking system for outdoor augmented reality", VIRTUAL REALITY, 2004. PROCEEDINGS. IEEE CHICAGO, IL, USA 27-31 MARCH 2004, PISCATAWAY, NJ, USA,IEEE, US, 27 March 2004 (2004-03-27), pages 3 - 275, XP010769450, ISBN: 978-0-7803-8415-6, DOI: 10.1109/VR.2004.1310049 * |
Also Published As
Publication number | Publication date |
---|---|
SG10201503996XA (en) | 2015-12-30 |
JP2015228215A (ja) | 2015-12-17 |
CN105091817A (zh) | 2015-11-25 |
RU2015119032A (ru) | 2016-12-10 |
CN105091817B (zh) | 2019-07-12 |
CA2891159A1 (fr) | 2015-11-21 |
JP6516558B2 (ja) | 2019-05-22 |
BR102015011234A2 (pt) | 2016-08-09 |
US9940716B2 (en) | 2018-04-10 |
US20150339819A1 (en) | 2015-11-26 |
EP2947628B1 (fr) | 2018-04-25 |
EP2947628A1 (fr) | 2015-11-25 |
FR3021442B1 (fr) | 2018-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2947628B1 (fr) | Procédé de traitement d'informations locales | |
US11393173B2 (en) | Mobile augmented reality system | |
US10242454B2 (en) | System for depth data filtering based on amplitude energy values | |
US10404969B2 (en) | Method and apparatus for multiple technology depth map acquisition and fusion | |
US9576183B2 (en) | Fast initialization for monocular visual SLAM | |
US8823732B2 (en) | Systems and methods for processing images with edge detection and snap-to feature | |
WO2016029939A1 (fr) | Procédé et système pour déterminer au moins une caractéristique d'image dans au moins une image | |
JP2020008502A (ja) | 偏光ステレオカメラによる深度取得装置及びその方法 | |
WO2017041740A1 (fr) | Procédés et systèmes destinés à la réalité virtuelle/réalité augmentée à champ lumineux sur des dispositifs mobiles | |
She et al. | Marine bubble flow quantification using wide-baseline stereo photogrammetry | |
KR101863647B1 (ko) | 3d 맵들에 대한 가설 라인 맵핑 및 검증 | |
JP2008203991A (ja) | 画像処理装置 | |
US9232132B1 (en) | Light field image processing | |
US11978161B2 (en) | 3D modelling method and system | |
JP2015005200A (ja) | 情報処理装置、情報処理システム、情報処理方法、プログラムおよび記憶媒体 | |
FR3013492A1 (fr) | Procede utilisant des donnees de geometrie 3d pour une presentation et une commande d'image de realite virtuelle dans un espace 3d | |
Schreyvogel et al. | Dense point cloud generation of urban scenes from nadir RGB images in a remote sensing system | |
TWI516744B (zh) | 距離估算系統、距離估算方法及電腦可讀取媒體 | |
FR3041747A1 (fr) | Procede de visee collaborative | |
FR3018362A1 (fr) | Procede et systeme d'aide a la localisation d'un element d'un systeme complexe, et methode et ensemble d'aide a la maintenance d'un systeme complexe |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20151127 |
|
PLFP | Fee payment |
Year of fee payment: 3 |
|
PLFP | Fee payment |
Year of fee payment: 4 |
|
CA | Change of address |
Effective date: 20170622 |
|
CD | Change of name or company name |
Owner name: AIRBUS GROUP SAS, FR Effective date: 20170622 |
|
PLFP | Fee payment |
Year of fee payment: 5 |
|
ST | Notification of lapse |
Effective date: 20200108 |