FR3081249A1 - METHOD OF INTEGRATION AND RESTITUTION OF DATA FOR RECOLERATING AND VISUALIZING THE INCREASED REALITY. - Google Patents
METHOD OF INTEGRATION AND RESTITUTION OF DATA FOR RECOLERATING AND VISUALIZING THE INCREASED REALITY. Download PDFInfo
- Publication number
- FR3081249A1 FR3081249A1 FR1870580A FR1870580A FR3081249A1 FR 3081249 A1 FR3081249 A1 FR 3081249A1 FR 1870580 A FR1870580 A FR 1870580A FR 1870580 A FR1870580 A FR 1870580A FR 3081249 A1 FR3081249 A1 FR 3081249A1
- Authority
- FR
- France
- Prior art keywords
- networks
- views
- model
- coordinates
- integration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 10
- 230000010354 integration Effects 0.000 title claims description 7
- 230000003190 augmentative effect Effects 0.000 claims description 9
- 238000013461 design Methods 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 5
- 238000011161 development Methods 0.000 claims description 5
- 238000004140 cleaning Methods 0.000 claims description 4
- 239000011521 glass Substances 0.000 claims description 4
- 230000007704 transition Effects 0.000 claims description 4
- 238000012800 visualization Methods 0.000 claims description 4
- 238000003306 harvesting Methods 0.000 claims description 2
- 238000011065 in-situ storage Methods 0.000 claims description 2
- 230000004807 localization Effects 0.000 claims description 2
- 238000010276 construction Methods 0.000 description 3
- 239000012530 fluid Substances 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000012958 reprocessing Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/08—Construction
-
- H—ELECTRICITY
- H02—GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
- H02G—INSTALLATION OF ELECTRIC CABLES OR LINES, OR OF COMBINED OPTICAL AND ELECTRIC CABLES OR LINES
- H02G1/00—Methods or apparatus specially adapted for installing, maintaining, repairing or dismantling electric cables or lines
-
- H—ELECTRICITY
- H02—GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
- H02G—INSTALLATION OF ELECTRIC CABLES OR LINES, OR OF COMBINED OPTICAL AND ELECTRIC CABLES OR LINES
- H02G9/00—Installations of electric cables or lines in or on the ground or water
- H02G9/06—Installations of electric cables or lines in or on the ground or water in underground tubes or conduits; Tubes or conduits therefor
-
- E—FIXED CONSTRUCTIONS
- E02—HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
- E02D—FOUNDATIONS; EXCAVATIONS; EMBANKMENTS; UNDERGROUND OR UNDERWATER STRUCTURES
- E02D29/00—Independent underground or underwater structures; Retaining walls
- E02D29/10—Tunnels or galleries specially adapted to house conduits, e.g. oil pipe-lines, sewer pipes ; Making conduits in situ, e.g. of concrete ; Casings, i.e. manhole shafts, access or inspection chambers or coverings of boreholes or narrow wells
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F17—STORING OR DISTRIBUTING GASES OR LIQUIDS
- F17D—PIPE-LINE SYSTEMS; PIPE-LINES
- F17D5/00—Protection or supervision of installations
Landscapes
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
Abrégéabstract
Description
DescriptionDescription
Procédé d’intégration et de restitution de données visant à récoler et à visualiser en réalité augmentée les réseaux enterrés.Method of integration and restitution of data aiming to collect and visualize in augmented reality the buried networks.
. Domaine technique de l’invention [0001] L’invention concerne un procédé d’intégration et de restitution de données visant à récoler et à visualiser en réalité augmentée les réseaux enterrés avec un smartphone.. TECHNICAL FIELD OF THE INVENTION The invention relates to a data integration and restitution process aiming to collect and visualize in augmented reality the networks buried with a smartphone.
[0002] Par réseaux enterrés, on comprend des réseaux de fluides, de gaz, d énergie, de données, comprenant des gaines, des tuyaux, des câbles et enterrés sous la surface.[0002] By buried networks is meant networks of fluids, gas, energy, data, comprising sheaths, pipes, cables and buried beneath the surface.
L’art antérieur.The prior art.
[0003] Il existe des procédés de collecte et de traitement de données visant à représenter des réseaux de canalisations en 3D. La demande de brevet US2011209081 décrit des procédés, des systèmes et un support lisible par ordinateur permettant de construire des modèles de données multidimensionnels pour des réseaux de distribution. Les caractéristiques géométriques sont extraites d'une représentation 2D d'un réseau de distribution comprenant une pluralité d'objets ayant une relation les uns avec les autres au sein d'un réseau. Les éléments de réseau de distribution sont générés à partir des éléments géométriques selon un modèle de distribution de réseau. Les éléments de réseau de distribution comprennent des objets et des composants du réseau et comprennent des informations sémantiques sur les attributs associés et les relations de ceux-ci. Les éléments de réseau de distribution peuvent être validés en utilisant des règles pour détecter des erreurs dans la génération du ou des éléments de réseau de distribution. Les éléments de réseaux de distribution peuvent être affinés et un modèle numérique multidimensionnel construit à partir des éléments de réseau de distnbution selon le modèle de réseau de distribution.There are data collection and processing methods aimed at representing networks of pipelines in 3D. Patent application US2011209081 describes methods, systems and a computer-readable medium making it possible to construct multidimensional data models for distribution networks. The geometric characteristics are extracted from a 2D representation of a distribution network comprising a plurality of objects having a relationship with each other within a network. The distribution network elements are generated from the geometric elements according to a network distribution model. Distribution network elements include objects and components of the network and include semantic information on associated attributes and their relationships. Distribution network elements can be validated using rules to detect errors in the generation of the distribution network element (s). The distribution network elements can be refined and a multidimensional digital model constructed from the distribution network elements according to the distribution network model.
[0004] Ce procédé antérieur permet entre-autres de réaliser des représentations de réseaux en 3D à partir de plans traditionnels en 2D et de bibliothèques d'objets. Il ne permet pas d’enrichir ces plans de données issues de photos prises sur le terrain, ni de réaliser un plan du réseau en réalité augmentée permettant à un chef de chantier ou à un ouvrier de voir sur le terrain le réseau sur lequel il intervient pour construire ou réparer un réseau enterré.This prior method allows among other things to make representations of networks in 3D from traditional 2D plans and object libraries. It does not make it possible to enrich these plans with data from photos taken in the field, or to produce a network map in augmented reality allowing a site manager or a worker to see on the field the network on which he intervenes. to build or repair a buried network.
2. Description de l’invention.2. Description of the invention.
[0005] Lé procédé d’intégration et de restitution de données visant à récoler et a visualiser en réalité augmentée les réseaux enterrés comprend les étapes principales suivantes :The process of integration and restitution of data aiming to collect and visualize in augmented reality the buried networks comprises the following main steps:
[0006] Prise de vues (photos ou vidéos) in situ des réseaux, de la tranchée et de son environnement par l’équipe de chantier avec un appareil, par exemple un smartphone, permettant de localiser chaque vue et de transmettre les vues a un bureau d’études, [0007] Acceptation ou refus des vues par l’application informatique en fonction de leur qualité, [0008] Modélisation dans un nuage de points en 3D des dites vues, comprenant les sous-étapes suivantes :In situ shooting (photos or videos) of the networks, the trench and its environment by the site team with a device, for example a smartphone, making it possible to locate each view and transmit the views to a design office, [0007] Acceptance or refusal of views by the computer application according to their quality, [0008] Modeling in a point cloud in 3D of said views, comprising the following sub-steps:
[0009] Nettoyage du nuage de points consistant à extraire des éléments extérieurs au réseau, par exemple le mobilier urbain et les façades environnantes.Cleaning the point cloud consisting of extracting elements external to the network, for example street furniture and the surrounding facades.
[0010] Elaboration du plan de récolement géolocalisé ainsi que de l’environnement [0011] Elaboration du plan MNT (Modèle Numérique Terrain) 3D des réseaux et de leur environnement pour visualisation avec tranchées fictives, sélection des réseaux, détails sur la profondeur et les caractéristiques des réseaux.Development of the geolocalized harvesting plan as well as the environment [0011] Development of the 3D DTM (Digital Land Model) plan of the networks and their environment for visualization with fictitious trenches, selection of networks, details on depth and characteristics of networks.
[0012] Intégration dans une plateforme de développement 3D [0013] Détermination du point de calage, de la mise à l’échelle et de minimisation des dérives de positionnement.Integration into a 3D development platform [0013] Determination of the calibration point, scaling and minimization of positioning drifts.
[0014] Mise à disposition pour visualisation sur smartphone et/ou lunettes de réalité augmentée.Available for viewing on smartphone and / or augmented reality glasses.
[0015] Plus précisément, l’étape de modélisation dans un nuage 3D des vues comprend les sous étapes suivantes :More specifically, the step of modeling in a 3D cloud of views includes the following sub-steps:
[0016] Détection, localisation et identification de points de référence dans toutes les vues, [0017] Détermination de l’orientation relative et passage des coordonnées photos à des coordonnées modèles, [0018] Détection et identification dans le modèle 3D, de points de référence servant à envoyer un géomètre relever en absolu les points exacts à lever dans un référentiel déterminé, [0019] Détermination de l’orientation absolue et passage de coordonnées modèles à des coordonnées terrains.Detection, localization and identification of reference points in all the views, [0017] Determination of the relative orientation and transition from photo coordinates to model coordinates, [0018] Detection and identification in the 3D model, of reference used to send a surveyor to record in absolute terms the exact points to be surveyed in a determined reference frame, Determination of the absolute orientation and passage from model coordinates to terrain coordinates.
3. Description détaillée d’un mode de réalisation du procédé.3. Detailed description of an embodiment of the process.
[0020] La description détaillée, donnée à titre d’exemple, s’appuie sur les dessins et photos annexés dans lesquels :The detailed description, given by way of example, is based on the attached drawings and photos in which:
[0021] La figure 1 présente un ensemble de photos d’un réseau enterré prises sur un chantier.Figure 1 shows a set of photos of a buried network taken on a construction site.
[0022] Les figures 2 à 6 illustrent les étapes de travail sur les photos pour la réalisation du procédé selon l’invention.Figures 2 to 6 illustrate the working steps in the photos for carrying out the method according to the invention.
[0023] En référence à la figure 1, les différentes vues, prises avec un smartphone, montrent des réseaux enterrés en cours de construction, de maintenance ou simplement excavés. On y voit des tuyaux de fluide dans des tranchées ouvertes. Ces photos sont prises avant remblaiement de la tranchée afin d’obtenir une vue exhaustive des réseaux. Les photographies sont prises par le chef de chantier ou l’un de ses collaborateurs.Referring to Figure 1, the different views, taken with a smartphone, show buried networks during construction, maintenance or simply excavated. Fluid pipes can be seen in open trenches. These photos are taken before backfilling the trench to obtain an exhaustive view of the networks. The photographs are taken by the site foreman or one of his collaborators.
Les photos sont prises à intervalles réguliers tout autour de la tranchée. Chaque point, ou pixel, de chaque photo doit se retrouver sur 3 photos au moins. Ces photos sont ensuite envoyées via une application au bureau d’études. Cette application va décider d’accepter ou non la série de photos, sur des critères de recouvrement, de taille du pixel image et de distance. En cas de refus, un message est envoyé à l’expéditeur lui demandant de recommencer la série de photos. En cas d’acceptation, les photos sont transmises au bureau d’études.Photos are taken at regular intervals around the trench. Each point, or pixel, of each photo must be found on at least 3 photos. These photos are then sent via an application to the design office. This application will decide whether to accept the series of photos, on the basis of overlap, image pixel size and distance. In case of refusal, a message is sent to the sender asking him to restart the series of photos. In case of acceptance, the photos are sent to the design office.
[0024] La figure 2, présente une modélisation 3D d’une partie du reseau, apres retraitement des photos avec le logiciel Agisoft Photoscan. Le traitement d’images sous PhotoScan comprend trois étapes principales : le chargement des images, l’alignement des caméras et la construction d’un nuage de points dense.FIG. 2 shows a 3D modeling of part of the network, after reprocessing the photos with the Agisoft Photoscan software. Image processing in PhotoScan consists of three main steps: loading images, aligning cameras, and building a dense point cloud.
Le chargement des images : le logiciel PhotoScan propose un calcul automatique sur la qualité des images qui analyse le contraste entre les pixels, complément utile pour sélectionner les photos à conserver.Image loading: PhotoScan software offers automatic calculation of the image quality which analyzes the contrast between the pixels, a useful complement for selecting the photos to be stored.
Le logiciel va retrouver la position de l’appareil de prise de vue ainsi que l’orientation de chaque image. Un nuage de point éparse va également être créé.The software will find the position of the camera as well as the orientation of each image. A scattered point cloud will also be created.
L’alignement des caméras repose sur la détection de points d’intérêts dans les images. Pour chaque point généré, un descripteur local est calculé. Un descripteur est un élément que l’on peut retrouver d’une image à l’autre. Ces descripteurs sont donc utilisés par la suite pour apparier les points d’intérêts entre images. Egalement, un géomètre est mandaté pour obtenir les coordonnées de ces points selon un référentiel topographique prédéterminé.The alignment of the cameras is based on the detection of points of interest in the images. For each point generated, a local descriptor is calculated. A descriptor is an element that can be found from one image to another. These descriptors are therefore used subsequently to match the points of interest between images. Also, a surveyor is mandated to obtain the coordinates of these points according to a predetermined topographic referential.
L’orientation des caméras : le logiciel PhotoScan commence un premier calcul grossier en déterminant approximativement la localisation des caméras puis avec un jeu d’itération, ce positionnement est affinéThe orientation of the cameras: the PhotoScan software begins a rough rough calculation by determining approximately the location of the cameras then with an iteration game, this positioning is refined
La modélisation en nuage de points est relative (chaque voxel par rapport à l’autre) puis absolue après l’insertion des coordonnées des descripteurs selon le référentiel topographique. Dès que 3 points sont connus dans le modèle, le logiciel calcule la totalité des coordonnées en absolu dans le référentiel topographique en question.The point cloud modeling is relative (each voxel relative to the other) and then absolute after the insertion of the coordinates of the descriptors according to the topographic referential. As soon as 3 points are known in the model, the software calculates the totality of the coordinates in absolute in the topographic referential in question.
[0025] La figure 3 présente une modélisation 3D après nettoyage avec le logiciel Trimble Realworks.Figure 3 shows a 3D model after cleaning with the Trimble Realworks software.
Trimble Realworks est utilisé pour deux actions sur le nuage de points 3D:Trimble Realworks is used for two actions on the 3D point cloud:
Le nettoyage des points inutilesCleaning up unnecessary points
L’échantillonnage par maillage (réduction de la densité des points).Mesh sampling (reduction of point density).
[0026] La figure 4 montre un plan DWG d'un réseau enterré tel que construit. Le passage du nuage de points en plan DWG se fait avec le logiciel Trimble Realworks et se décompose en 2 étapes :Figure 4 shows a DWG plan of a buried network as constructed. The transition from the point cloud to the DWG plan is done with Trimble Realworks software and is broken down into 2 steps:
La création de polylignes 3D représentant les conduites et les arêtes des points haut et bas des voiries, des façades de bâtiments, des fenêtres, ...The creation of 3D polylines representing the pipes and edges of the high and low points of roads, building facades, windows, ...
L’export vers Autocad qui transforme le nuage de points et ses polylignes en fichier DWG.Export to Autocad which transforms the point cloud and its polylines into a DWG file.
[0027] La figure 5 montre un plan MNT 3D d’un réseau et de son environnement. Dans le logiciel Autocad, le fichier DWG est récupéré et permet la construction du Modèle Numérique Terrain (MNT) en 3D, à partir des polylignes 3D créés à l’étape précédente.Figure 5 shows a 3D terrain map of a network and its environment. In the Autocad software, the DWG file is recovered and allows the construction of the Digital Terrain Model (DTM) in 3D, from the 3D polylines created in the previous step.
Le modèle MNT inclut les réseaux enterrés ainsi que les symboles extérieurs de l’environnement (Mobilier urbain, façade, zone sensible, ...).The DTM model includes buried networks as well as external symbols of the environment (Street furniture, facade, sensitive area, ...).
C’est à ce moment qu’est créée une tranchée fictive autour des reseaux qui va permettre une meilleure visualisation des réseaux enterrés par contraste entre la couleur et la profondeur de la tranchée et les couleurs et profondeur des réseaux.It is at this moment that a fictitious trench is created around the networks which will allow a better visualization of the buried networks by contrast between the color and the depth of the trench and the colors and depth of the networks.
[0028] La figure 6 montre un plan en réalité augmentée dans son environnement. Préalablement, le modèle a été importé en DWG puis exporté en FBX ou OBJ depuis le logiciel 3ds Max pour être importé en FBX ou OBJ dans Unity.Figure 6 shows an augmented reality plan in its environment. Beforehand, the model was imported in DWG then exported in FBX or OBJ from the 3ds Max software to be imported in FBX or OBJ in Unity.
[0029] Unity va permettre de modifier le modèle :Unity will allow you to modify the model:
En identifiant plusieurs points de calage que l’utilisateur va utiliser lors de ses déplacements pour éviter les dérives de positionnement.By identifying several calibration points that the user will use when traveling to avoid positioning drifts.
En important dans une boîte de dialogue des informations concernant les réseaux visualisables à travers le smartphone ou les lunettes (Date de pose, fluide transporté, Matériau du réseau, ...).By importing in a dialog box information concerning the networks viewable through the smartphone or glasses (Date of installation, fluid transported, Material of the network, ...).
En insérant une boite de dialogue permettant de sélectionner les réseaux à visualiser en réalité augmentée.By inserting a dialog box allowing you to select the networks to be viewed in augmented reality.
En mettant le modèle à l’échelle.By scaling the model.
En permettant la visualisation en profondeur des réseaux grâce à la mise en perspective des réseaux dans la tranchée.By allowing in-depth visualization of the networks thanks to the perspective of the networks in the trench.
Ensuite, le modèle est importé dans l’appareil de visualisation via une plateforme pour enfin être calé / ancré dans son environnement réel puis visualisé sur smartphone et / ou lunettes de réalitéThen, the model is imported into the viewing device via a platform to finally be wedged / anchored in its real environment and then viewed on smartphone and / or reality glasses
Claims (1)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1870580A FR3081249A1 (en) | 2018-05-19 | 2018-05-19 | METHOD OF INTEGRATION AND RESTITUTION OF DATA FOR RECOLERATING AND VISUALIZING THE INCREASED REALITY. |
FR1871449A FR3081247A1 (en) | 2018-05-19 | 2018-11-11 | METHOD OF INTEGRATION AND RESTITUTION OF DATA FOR RECOLERATING AND VISUALIZING THE INCREASED REALITY |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1870580A FR3081249A1 (en) | 2018-05-19 | 2018-05-19 | METHOD OF INTEGRATION AND RESTITUTION OF DATA FOR RECOLERATING AND VISUALIZING THE INCREASED REALITY. |
Publications (1)
Publication Number | Publication Date |
---|---|
FR3081249A1 true FR3081249A1 (en) | 2019-11-22 |
Family
ID=66166115
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1870580A Pending FR3081249A1 (en) | 2018-05-19 | 2018-05-19 | METHOD OF INTEGRATION AND RESTITUTION OF DATA FOR RECOLERATING AND VISUALIZING THE INCREASED REALITY. |
FR1871449A Withdrawn FR3081247A1 (en) | 2018-05-19 | 2018-11-11 | METHOD OF INTEGRATION AND RESTITUTION OF DATA FOR RECOLERATING AND VISUALIZING THE INCREASED REALITY |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1871449A Withdrawn FR3081247A1 (en) | 2018-05-19 | 2018-11-11 | METHOD OF INTEGRATION AND RESTITUTION OF DATA FOR RECOLERATING AND VISUALIZING THE INCREASED REALITY |
Country Status (1)
Country | Link |
---|---|
FR (2) | FR3081249A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2620519A (en) * | 2019-07-30 | 2024-01-10 | British Telecomm | Duct blockage risk location prediction |
GB2620520A (en) * | 2019-07-30 | 2024-01-10 | British Telecomm | Duct blockage risk location prediction |
GB2592849B (en) * | 2019-07-30 | 2024-01-24 | British Telecomm | Duct blockage risk location prediction |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110209081A1 (en) | 2010-02-23 | 2011-08-25 | Honeywell International Inc. | Methods and systems for constructing multi-dimensional data models for distribution networks |
-
2018
- 2018-05-19 FR FR1870580A patent/FR3081249A1/en active Pending
- 2018-11-11 FR FR1871449A patent/FR3081247A1/en not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2620519A (en) * | 2019-07-30 | 2024-01-10 | British Telecomm | Duct blockage risk location prediction |
GB2620520A (en) * | 2019-07-30 | 2024-01-10 | British Telecomm | Duct blockage risk location prediction |
GB2592849B (en) * | 2019-07-30 | 2024-01-24 | British Telecomm | Duct blockage risk location prediction |
GB2620520B (en) * | 2019-07-30 | 2024-04-17 | British Telecomm | Duct blockage risk location prediction |
GB2620519B (en) * | 2019-07-30 | 2024-05-22 | British Telecomm | Duct blockage risk location prediction |
Also Published As
Publication number | Publication date |
---|---|
FR3081247A1 (en) | 2019-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Jones et al. | Photogrammetry is for everyone: Structure-from-motion software user experiences in archaeology | |
Marteau et al. | Application of Structure‐from‐Motion photogrammetry to river restoration | |
Li et al. | Mapping urban landscapes along streets using google street view | |
US10593104B2 (en) | Systems and methods for generating time discrete 3D scenes | |
US9495764B1 (en) | Verifying object measurements determined from mobile device images | |
Tavani et al. | Building a virtual outcrop, extracting geological information from it, and sharing the results in Google Earth via OpenPlot and Photoscan: An example from the Khaviz Anticline (Iran) | |
CA3040959A1 (en) | Computer platform for the aggregation and visualization of digital data | |
FR3081249A1 (en) | METHOD OF INTEGRATION AND RESTITUTION OF DATA FOR RECOLERATING AND VISUALIZING THE INCREASED REALITY. | |
EP2973409A2 (en) | Determining object volume from mobile device images | |
FR3010192A1 (en) | METHOD FOR OPERATING A UNDERGROUND STORAGE COMPRISING AT LEAST ONE GEOLOGICAL DISCHARGE USING PHOTOGRAMMETRY | |
Magnini et al. | Object‐based shell craters classification from LiDAR‐derived sky‐view factor | |
US11543080B2 (en) | Automated pipeline construction modelling | |
CN114494633B (en) | Filling and digging data processing method and device, computer equipment and storage medium | |
Su et al. | Zero-reference deep learning for low-light image enhancement of underground utilities 3D reconstruction | |
US10755484B1 (en) | Estimating subsurface feature locations during excavation | |
Li et al. | 3D map system for tree monitoring in hong kong using google street view imagery and deep learning | |
Bash et al. | Evaluation of SfM for surface characterization of a snow-covered glacier through comparison with aerial lidar | |
US20150154738A1 (en) | Adaptive artifact removal | |
Chodoronek | The use and application of photogrammetry for the in-field documentation of archaeological features: three case studies from the Great Plains and Southeastern Alaska | |
Capolupo et al. | Integration of terrestrial laser scanning and UAV-SFM technique to generate a detailed 3D textured model of a heritage building | |
Hong et al. | The use of CCTV in the emergency response: A 3D GIS perspective | |
Pezzica et al. | Photogrammetry as a participatory recovery tool after disasters: A grounded framework for future guidelines | |
Lopez et al. | Identifying urban features from LiDAR for a high‐resolution urban hydrologic model | |
FR2992413A1 (en) | Method for collecting verification data to represent geographical configuration of e.g. water pipe network, has capturing images representing under different angles of scene of inspection by camera, and processing captured images | |
Kehl et al. | Mapping field photographs to textured surface meshes directly on mobile devices |