FR2739707A1 - Dispositif d'edition cartographique - Google Patents

Dispositif d'edition cartographique Download PDF

Info

Publication number
FR2739707A1
FR2739707A1 FR9612146A FR9612146A FR2739707A1 FR 2739707 A1 FR2739707 A1 FR 2739707A1 FR 9612146 A FR9612146 A FR 9612146A FR 9612146 A FR9612146 A FR 9612146A FR 2739707 A1 FR2739707 A1 FR 2739707A1
Authority
FR
France
Prior art keywords
cartographic
point
map
change
editing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR9612146A
Other languages
English (en)
Other versions
FR2739707B1 (fr
Inventor
Yukio Ogawa
Tomoko Hatakeyama
Shigeru Kakumoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of FR2739707A1 publication Critical patent/FR2739707A1/fr
Application granted granted Critical
Publication of FR2739707B1 publication Critical patent/FR2739707B1/fr
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models

Abstract

Dispositif d'édition cartographique capable de compléter facilement des informations insuffisantes et de mesurer à nouveau avec facilité un objet qui a changé. Une image, une carte en perspective, un centre de projection et un angle de projection sont affichés de manière superposée (112). Lorsqu'un utilisateur change manuellement le centre de projection et l'angle de projection, une carte en perspective, après ce changement est engendrée et affichée. Lorsqu'une carte en perspective permettant d'obtenir des informations suffisantes est déterminée, un paramètre de prise de vue permettant d'obtenir les informations manquantes peut être jugé sur la base du centre de projection et de l'angle de projection à cet instant (110a). Les informations insuffisantes peuvent être facilement complétées si l'agencement permet de faire l'acquisition d'images en conformité avec le paramètre de prise de vue. Le paramètre nécessaire pour une nouvelle mesure peut être déterminé.

Description

La présente invention concerne un dispositif d'édition cartographique et, de manière plus particulière, un appareil d'édition cartographique qui aide à la mise à jour d'une carte numérique tridimensionnelle d'une zone en utilisant des images obtenues en photographiant la zone.
Le document JP-A-60-95 474 divulgue une technologie de la technique antérieure intitulée "GENERATION METHOD OF PREMISE MANAGEMENT
DIAGRAM" qui confronte une photographie aérienne d'une zone et une carte (carte bidimensionnelle) de la zone, et détecte des formes d'objets ne coïncidant pas entre elles.
Le document JP-A-3-196 372 divulgue une technologie intitulée "POSITIONING APPARATUS OF IMAGES" qui effectue une transformation de coordonnées pour une carte de valeurs numériques bidimensionnelle constituée de lignes de coordonnées (X, Y) afin de produire une carte représentée en perspective, et confronte la carte à des images.
Le document JP-A-5-181 411 divulgue une technologie intitulée "MAP
INFORMATION COLLATION/UPDATING METHOD" qui effectue une transformation de coordonnées pour une carte de valeurs numériques tridimensionnelle constituée de lignes de coordonnées (X Y, Z) afin de produire une carte représentée en perspective, confronte cette carte à une photographie aérienne et met à jour les informations cartographiques en utilisant les informations relatives à des objets visibles sur les images prises par photographie aérienne lorsque la confrontation des objets présents dans la carte représentée en perspective avec des objets visibles sur les images prises par photographie aérienne est réussie.
Conformément à la technologie de la technique antérieure décrite dans le document JP-A-60-95 474 décrit ci-dessus, la photographie aérienne et la carte sont superposées et confrontées l'une à l'autre. Cependant, la photographie aérienne est basée sur une projection en perspective, tandis que la carte est basée sur une projection orthogonale, et un écart résultant de ces méthodes de projection est inévitable, et la précision de la détection est faible. En outre, du fait que la carte bidimensionnelle ne contient pas d'informations relatives à l'altitude des objets, un problème subsiste en ce sens que le changement virtuel de l'objet ne peut pas être détecté.
La technologie de la technique antérieure du document
JP-A-3-196 372 implique comme problème qu'elle ne peut détecter un changement virtuel de l'objet du fait que la carte numérique bidimensionnelle constituée des lignes de coordonnées (x, Y) ne contient pas d'informations relatives à l'altitude des objets.
Bien que la technologie décrite dans le document JP-A-5-181 411 puisse détecter le changement des objets, y compris le changement virtuel, il subsiste comme problème que les informations cartographiques ne peuvent être mises à jour que par une opération manuelle si la confrontation entre l'objet représenté sur la carte en perspective et l'objet visible sur l'image prise par photographie aérienne se révèle infructueuse (lorsqu'une construction est perdue ou est fraîchement construite, par exemple, les informations cartographiques ne peuvent pas être mises àjour de manière automatique).
Aucune de ces technologies de la technique antérieure n'envisage la possibilité d'utiliser des moyens pour compléter des informations insuffisantes, des moyens pour faciliter à nouveau la mesure d'un objet qui a changé, des moyens pour faciliter la saisie d'une zone dans laquelle un grand nombre de changements concernant des objets se sont produits, et ainsi de suite.
Un premier but de la présente invention est de fournir un dispositif d'édition cartographique permettant de compléter facilement des informations insuffisantes et d'effectuer à nouveau facilement la mesure d'un objet qui a changé.
Un deuxième but de la présente invention consiste à fournir un dispositif d'édition cartographique qui permette de saisir avec facilité une zone dans laquelle un nombre important de changements se sont produits concernant des objets.
Un troisième but de la présente invention consiste à fournir un dispositif d'édition cartographique permettant de mettre à jour de manière automatique une carte numérique tridimensionnelle, même lorsqu'une construction est perdue ou est fraîchement construite.
Selon le premier aspect de la présente invention, on fournit un dispositif d'édition cartographique destiné à aider à la mise à jour d'une carte numérique tridimensionnelle d'une zone en utilisant une image obtenue en photographiant la zone, lequel comporte des moyens de transformation de coordonnées destinés à produire une carte en perspective à partir de la carte numérique tridimensionnelle dans un système de coordonnées dans lequel sont référencées les images, en utilisant des paramètres de prise de vue des images, des moyens de confrontation destinés à établir une correspondance entre un point choisi comme référence de la forme d'un objet contenu dans la carte en perspective (point de base cartographique) et un point choisi comme référence de la forme d'un objet contenu dans l'image (point de repérage au sol), des moyens de stipulation de point de changement cartographique destinés à stipuler un point (point de changement cartographique) au niveau duquel change un objet, à partir d'un point de base cartographique et d'un point de repérage au sol ne correspondant pas l'un à l'autre, des moyens d'édition cartographique destinés à éditer une carte numérique tridimensionnelle sur la base du point de changement cartographique, des moyens d'affichage de carte en perspective destinés à produire une nouvelle carte représentée en perspective à partir d'un centre de projection et d'un angle de projection modifiés conformément à une instruction délivrée par un utilisateur et à partir de la carte numérique tridimensionnelle obtenue après l'édition, et à afficher la carte, et des moyens d'acquisition de paramètre de prise de vue destinés à acquérir un paramètre de prise de vue correspondant au centre de projection et à l'angle de projection choisis par l'utilisateur.
Le dispositif d'édition cartographique, décrit ci-dessus, détecte le changement de l'objet, y compris le changement virtuel, et met à jour la carte en formant une carte numérique tridimensionnelle. Du fait que l'image est prise à partir d'un point de vue sur la carte, cependant, il existe une partie qui n'est pas représentée dans l'image du fait de l'existence d'un angle mort, et il existe un cas dans lequel les informations nécessaires à la mise à jour sont partiellement insuffisantes. Par conséquent, l'utilisateur déplace manuellement le point de vue sur la carte.Ensuite, la carte représentée en perspective, observée à partir du point de vue cartographique ainsi déplacé, est engendrée à partir de la carte tridimensionnelle mise à jour et est affichée et, de cette manière, le point de vue cartographique au niveau duquel les informations insuffisantes sont obtenues peut être déterminé. Le paramètre de prise de vue en présence duquel les informations insuffisantes sont obtenues peut être déterminé sur la base de ce point de vue cartographique. Par conséquent, les informations insuffisantes peuvent être facilement complétées en faisant en sorte que l'image rattachée à ce paramètre de prise de vue soit acquise.
Selon le deuxième aspect de la présente invention, on fournit un dispositif d'édition cartographique dans lequel des moyens d'acquisition d'image supplémentaires destinés à l'acquisition d'une nouvelle image correspondant au paramètre de prise de vue décrit ci-dessus sont en outre adjoints au dispositif d'édition cartographique réalisé selon le premier aspect décrit ci-dessus. Conformément à cette construction, les nouvelles données pour l'acquisition des informations insuffisantes, qui correspondent au paramètre de prise de vue, peuvent être acquises à partir d'une base de données ou d'un réseau, et les informations insuffisantes peuvent être facilement complétées.
Selon le troisième aspect de la présente invention, on fournit un dispositif d'édition cartographique dans lequel des moyens d'indication de date de programme d'acquisition d'image nouvelle, destinés à indiquer la date à laquelle la nouvelle image correspondant au paramètre de prise de vue peut être acquise, sont en outre adjoints au dispositif d'édition cartographique réalisé selon les premier et deuxième aspects décrits ci-dessus.Conformément à cette construction, la date à laquelle la nouvelle image (par exemple, une photographie satellite) destinée à l'acquisition des informations insuffisantes, correspondant au paramètre de prise de vue, peut être acquise (par exemple, la date à laquelle est programmée la photographie satellite prise à partir de la position correspondant au paramètre de prise de vue décrit ci-dessus) est indiquée, de sorte que la date à laquelle les informations insuffisantes peuvent être complétées peut être connue de manière commode.
Selon le quatrième aspect de la présente invention, on fournit un dispositif d'édition cartographique dans lequel des moyens d'indication d'informations d'aide à la mesure destinés à indiquer des informations d'attribut, telles que l'adresse de la position existante du point de changement cartographique etc., en tant qu'informations d'aide à la mesure, sont en outre adjoints au dispositif d'édition cartographique réalisé selon les premier à troisième aspects décrits ci-dessus.
Du fait que le dispositif d'édition cartographique, décrit ci-dessus, offre des informations d'attribut, telles que l'adresse de la position existante du point de changement cartographique, etc., le programme de la nouvelle mesure de l'objet qui à changé peut être facilement établi.
Selon le cinquième aspect de la présente invention, on fournit un dispositif d'édition cartographique destiné à aider à la mise à jour d'une carte numérique tridimensionnelle d'une zone en utilisant les images obtenues en photographiant la zone, qui comporte des moyens de transformation de coordonnées destinés à produire une carte en perspective dans un système de coordonnées dans lequel sont référencées les images, à partir de la carte numérique tridimensionnelle en utilisant des paramètres de prise de vue des images, des moyens de confrontation destinés à établir une correspondance entre un point utilisé comme référence de la forme d'un objet contenu dans la carte en perspective (point de base cartographique) et un point utilisé comme référence de la forme d'un objet contenu dans l'image (point de repérage au sol), des moyens de stipulation de point de changement cartographique destinés à stipuler un point au niveau duquel un objet change (point de changement cartographique) à partir d'un point de base cartographique et d'un point de repérage au sol ne correspondant pas l'un à l'autre, et des moyens d'indication de nombre de points de changement cartographiques destinés à calculer et à indiquer le nombre ou la densité de points de changement cartographiques de toute la zone ou d'une région à l'intérieur de la zone.
Du fait que le dispositif d'édition cartographique réalisé selon le cinquième aspect quantifie les changements de forme des objets, une région contenant un grand nombre de changements au niveau des objets peut être facilement saisie, et le programme de la nouvelle mesure peut être établi avec facilité.
Selon le sixième aspect de la présente invention, on fournit un dispositif d'édition cartographique destiné à aider à la mise à jour d'une carte numérique tridimensionnelle d'une zone en utilisant des images obtenues en photographiant la zone, qui comporte des moyens de transformation de coordonnées destinés à produire une carte en perspective dans un système de coordonnées dans lequel sont référencées les images, à partir de la carte numérique tridimensionnelle en utilisant les paramètres de prise de vue de l'image, des moyens de confrontation destinés à établir une correspondance entre un point utilisé comme référence de la forme d'un objet contenu dans la carte en perspective (point de base cartographique) et un point utilisé comme référence de la forme d'un objet contenu dans l'image (point de repérage au sol), et des moyens d'édition cartographique destinés à ajouter un nouvel objet à la carte numérique tridimensionnelle sur la base d'un point de repérage au sol ne possédant pas de point de base cartographique correspondant, et à supprimer un objet correspondant au point de base cartographique de la carte numérique tridimensionnelle sur la base du point de base cartographique ne possédant pas le point de repérage au sol correspondant.
Dans le dispositif d'édition cartographique décrit ci-dessus, L'objet est automatiquement complété ou supprimé, même lorsque le point de base cartographique et le point de repérage au sol ne correspondent pas l'un à l'autre. Par conséquent, même lorsqu'une construction est perdue ou est construite, la carte numérique tridimensionnelle peut être mise à jour de manière automatique.
D'autres avantages de la présente invention apparaîtront clairement à l'homme du métier à la lecture de la description détaillée qui va suivre de modes préférés de réalisation ainsi que d'autres modes proposés en variante.
On va maintenant décrire la présente invention, à titre d'exemple uniquement, en se reportant aux dessins annexés sur lesquels:
- la figure 1 est une vue structurelle fonctionnelle d'un dispositif d'édition cartographique selon un mode de réalisation de la présente invention,
- la figure 2 est un ordinogramme représentant le déroulement des opérations dans le dispositif d'édition cartographique selon un mode de réalisation de la présente invention,
- la figure 3 est un ordinogramme représentant un traitement de confrontation entre une carte et une image,
- la figure 4 est un ordinogramme représentant un traitement de stipulation de point de changement cartographique,
- la figure 5 est un ordinogramme représentant un traitement d'édition cartographique,
- les figures 6(a) et 6(b) sont des ordinogrammes représentant un traitement d'acquisition de paramètre de prise de vue et un traitement effectué pour compléter les informations insuffisantes,
- la figure 7 est une vue d'un exemple d'image utilisée pour un traitement d'édition cartographique,
- la figure 8 est une vue conceptuelle d'une carte numérique tridimensionnelle,
- la figure 9 est une vue d'un exemple de carte en perspective,
- la figure 10 est une vue explicative destinée à expliquer la production de la projection en perspective à partir d'une carte numérique tridimensionnelle,
- la figure 11 est un exemple de vue par superposition lorsqu'une image et une vue en perspective sont superposées l'une à l'autre,
- la figure 12 est une vue explicative d'un point de référence cartographique et d'un point de repérage au sol correspondant au précédent,
- la figure 13 est un exemple de vue par superposition d'un point de référence cartographique et d'un point de repérage au sol correspondant,
- les figures 14(a) à 14(c) sont des vues explicatives d'un point de changement cartographique,
- la figure 15 est un diagramme de distribution de points de changement cartographique,
- les figures 16(a) et 16(b) sont des vues explicatives d'un traitement d'édition cartographique concernant un point de changement cartographique d'un objet perdu,
- les figures 17(a) et (17(b) sont des vues explicatives d'un traitement d'édition cartographique concernant un point de changement cartographique d'un objet qui a changé,
- les figures 18(a) à 18(g) sont des vues explicatives d'un traitement d'édition cartographique concernant un point de changement cartographique d'un objet construit,
- les figures 19(a) et 19(b) sont des vues explicatives d'un changement de centre de projection et d'angle de projection,
- la figure 20 est une vue explicative d'un écran offrant une date de programme d'acquisition d'image nouvelle,
- la figure 21 est une vue d'un exemple d'écran offrant une date de programme d'acquisition d'image nouvelle, et
- la figure 22 est une vue structurelle du système lorsque la présente invention est réalisée par des logiciels.
On va maintenant décrire des modes préférés de réalisation de la présente invention en se reportant aux dessins annexés, mais la présente invention n'est nullement limitée à ces modes.
La figure 1 représente sous la forme d'un schéma fonctionnel et structurel un dispositif d'édition cartographique selon un mode de réalisation de la présente invention.
Des moyens d'entrée d'image 101 envoient en entrée une image provenant d'un dispositif à balayage (scanneur) ou d'un réseau, et des paramètres de prise de vue, tels que la position, la direction, la longueur focale, etc., d'un dispositif photographique au moment de l'acquisition de l'image, vers des moyens d'extraction de point de repérage au sol 103. Les moyens d'entrée d'image 101 acquièrent une image rattachée au paramètre de prise de vue qui apparaîtra ultérieurement à partir d'une base de données ou du réseau, et envoient l'image et les paramètres de prise de vue, tels que la position, la direction, la longueur focale, etc., du dispositif photographique au moment de l'acquisition de l'image, en entrée vers les moyens d'extraction de point de repérage au sol 103.
Les moyens d'extraction de point de repérage au sol 103 exécutent un traitement d'image pour l'image ainsi entrée, et extraient un point en tant que référence des formes des objets contenus dans l'image (point de repérage au sol).
Des moyens de récupération de carte 104 récupèrent une carte numérique tridimensionnelle d'une zone correspondant à la zone visualisée de l'image dans un fichier de cartes situé à l'intérieur d'une unité de mémorisation 100 sur la base des paramètres de prise de vue de l'image entrée, et envoient la carte numérique tridimensionnelle en entrée vers des moyens de transformation de coordonnées tridimensionnelles 105.Les moyens de transformation de coordonnées tridimensionnelles 105 exécutent une transformation de coordonnées tridimensionnelles pour la carte numérique tridimensionnelle ainsi entrée sur la base des paramètres de prise de vue, engendrent une carte en perspective exprimée par une projection en perspective, extraient des points caractérisants (points d'extrémité de lignes de contour de formes, telles que routes, croisements, etc.) dans la carte numérique tridimensionnelle, et les définissent comme points de base cartographiques.
Les moyens de confrontation 106 superposent l'image à la carte en perspective, et établissent la correspondance entre le point de repérage au sol et le point de référence cartographique.
Des moyens de stipulation de point de changement cartographique 107 stipulent ou spécifient ceux des points de base cartographiques qui n'ont pas de points de repérage au sol correspondants et ceux des points de repérage au sol qui n'ont pas de points de base cartographiques correspondants, en tant que points de changement cartographiques.
Des moyens d'indication de nombre de points de changement cartographiques 108 calculent le nombre (ou la densité) des points de changement cartographiques de la zone entière et le nombre (ou la densité) des points de changement cartographiques pour chaque région, telle qu'un district administratif ou des blocs dans chaque zone, et les présentent sous la forme d'un graphique ou de valeurs numériques.
Des moyens de traitement de carte 102 transmettent une instruction utilisateur concernant un traitement à effectuer sur la carte, à des moyens d'édition cartographique 109, des moyens d'acquisition de paramètre de prise de vue 110a, des moyens d'indication de date de programme d'acquisition d'image nouvelle 110b et des moyens d'indication d'informations d'aide à la mesure 111.
Les moyens d'édition cartographique 109 exécutent un traitement d'édition cartographique qui ajoute un changement lié au point de changement cartographique, à la carte numérique tridimensionnelle.
Les moyens d'acquisition de paramètre de prise de vue 110a acquièrent un paramètre de prise de vue d'une image permettant de compléter des informations insuffisantes.
Les moyens d'indication de date de programme d'acquisition d'image nouvelle 110b indiquent la date à laquelle une nouvelle image correspondant au paramètre de prise de vue décrit ci-dessus peut être acquise.
Les moyens d'indication d'informations d'aide à la mesure 111 indiquent des informations d'attribut, telles que les adresses des positions existantes des points de changement cartographiques, des cartes environnantes, et ainsi de suite, en tant qu'informations d'aide à la mesure.
Des moyens d'affichage résumé du traitement 112 affichent le résultat général des traitements des moyens d'édition cartographique 109, des moyens d'acquisition de paramètre de prise de vue 110a, des moyens d'indication de date de programme d'acquisition d'image nouvelle il Ob et des moyens d'indication d'informations d'aide à la mesure 111, pour l'utilisateur, et facilitent le jugement de l'utilisateur.
Des moyens de sortie de résultats de traitement 113 délivrent en sortie les résultats des traitements des moyens d'édition cartographique 109, des moyens d'acquisition de paramètre de prise de vue lita, des moyens d'indication de date de programme d'acquisition d'image nouvelle 110b et des moyens d'indication d'informations d'aide à la mesure 111 vers une imprimante ou vers l'unité de mémorisation 100.
La figure 2 est un ordinogramme utilisant la procédure de traitement du dispositif d'édition cartographique 1.
A l'étape 200, les moyens d'image 101 envoient l'image de la zone de gestion d'une communauté, par exemple, en tant qu'images numériques, en entrée vers les moyens d'extraction de point de repérage au sol 103. De manière plus spécifique, ces moyens d'entrée 103 envoient en entrée des images numériques obtenues en lisant des photographies aériennes ou des photographies satellite à l'aide d'un scanneur, ou déchargent les images numériques via le réseau. De manière préférée, les images numériques prises par photographie satellite sont périodiquement déchargées du fait que les informations géographiques les plus récentes peuvent être facilement acquises.
La figure 7 représente un exemple de l'image entrée.
A l'étape 201, les paramètres de prise de vue de l'image entrée sont entrés par les moyens d'entrée d'image 101 vers les moyens de récupération de carte 104 et les moyens de conversion de coordonnées tridimensionnelles 105.
A l'étape 202, les moyens d'extraction de point de repérage au sol 103 analysent l'image et extraient le point en tant que référence de l'objet (point de repérage au sol). De manière plus spécifique, la détection des bords et le tracé de l'image sont exécutés, les formes d'une route 700, d'une construction 701, d'un champ 702 et de bois 703 sont reconnues en association avec les informations de couleur, les informations de forme, etc., de l'objet, et les points caractérisants, tels que les points d'extrémité, les croisements, etc., des lignes de contour de formes, sont extraient en tant que points de repérage au sol 704.
A l'étape 203, les moyens de récupération de carte 104 récupèrent la carte numérique tridimensionnelle correspondant à la zone visualisée de l'image, à partir du fichier de cartes situé à l'intérieur du dispositif de mémorisation 100 sur la base des paramètres de prise de vue entrés, et l'envoient vers les moyens de transformation de coordonnées tridimensionnelles 105. La figure 8 représente un exemple de la carte numérique tridimensionnelle. La carte tridimensionnelle est produite en transformant les formes des objets en données vectorielles et en ajoutant des informations de hauteur et des informations d'attribut, telles que l'adresse d'objets individuels.Les objets dans la carte numérique tridimensionnelle, tels que la route 800, la construction 801, le champ 802, etc., sont constitués d'ensembles de points caractérisants 803, tels que le point d'intersection, les points d'extrémité, etc., des segments de lignes, et sont gérés par une ligne 804 de coordonnées (X, Y, Z). Ces points caractérisants 803 sont utilisés en tant que points de base cartographiques.
A l'étape 204, les moyens de transformation de coordonnées tridimensionnelles 105 calculent un coefficient de transformation à partir des paramètres de prise de vue entrés. Comme représenté sur la figure 10, le système de coordonnées tridimensionnelles de la carte numérique tridimensionnelle 1000 est (X,
Y, Z), le système de coordonnées bidimensionnelles du plan de projection 1002 correspondant au plan de l'image entrée est (u, v), la position du centre de projection
O du dispositif photographique 1001 dans le système de coordonnées (X Y, Z) est (XO, YO, ZO), la position o du pied de la perpendiculaire tracée à partir du centre de projection O jusqu'au plan de projection 1002 est l'origine (0, 0) du système de coordonnées (u, v), la distance de l'écran (longueur focale) du dispositif photographique est c, l'angle d'inclinaison de la caméra 1001 est o vers la gauche dans le sens positif par rapport à l'axe X + vers la gauche dans le sens positif par rapport à l'axe Y, et K vers la gauche dans le sens positif par rapport à l'axe Z. Dans le présent cas, le coefficient de transformation peut être calculé à partir de la formule suivante (1):
Figure img00120001
A l'étape 205, les moyens de transformation de coordonnées tridimensionnelles 105 transforment le point (x, Y, Z), sur la carte numérique tridimensionnelle 100n en point (u, v) sur le plan de projection conformément à la formule (2) suivante, et engendrent une carte en perspective exprimée par la même projection en perspective que l'image.
Figure img00120002
La figure 9 représente un exemple de carte en perspective engendrée à partir de la carte numérique tridimensionnelle représentée sur la figure 8. L'objet ayant une hauteur, tel que la construction 801 représentée sur la figure 8, est exprimé avec une profondeur, tel que représenté par la construction 901 représentée sur la figure 9.
Le point de base cartographique 803 est converti en chaque point de base cartographique 900 représenté sur la figure 9.
A l'étape 206, les moyens de transformation de coordonnées tridimensionnelles 105 calculent l'écart (écart de la transformation cartographique) des coordonnées (u, v) à partir des écarts des paramètres de prise de vue.
A l'étape 207, les moyens de confrontation 106 exécutent les traitements des étapes 300 à 312 représentées sur la figure 3, et confronte la carte, c'est-à-dire la carte représentée en perspective, avec l'image.
La figure 3 représente l'ordinogramme des procédures de confrontation entre la carte et l'image.
A l'étape 300, la position du dispositif photographique dans l'image (lorsque la position du dispositif photographique n'est pas située dans l'image, l'image est agrandie, et la position du dispositif photographique dans cette image agrandie) est ajustée sur la position du dispositif photographique dans la carte en perspective (lorsque la position du dispositif photographique n'est pas située dans la carte en perspective, la projection en perspective est agrandie, et la position du dispositif photographique dans cette projection en perspective agrandie), et leurs directions sont aussi ajustées ensemble de manière à recouvrir l'image par la carte représentée en perspective. En variante, L'image et la carte représentée en perspective sont superposées l'une avec l'autre par une opération manuelle de l'utilisateur.La figure 11 représente de manière typique l'image (traits interrompus) et la carte représentée en perspective (traits pleins) ainsi superposées. Si l'écart résultant de la transformation cartographique est "0", l'image et la carte représentée en perspective coïncident mutuellement. Du fait que 6 n'est pas "0" dans la pratique, cependant, un écart de position apparaît entre la route 1101 située dans l'image et la route 1100 située dans la carte représentée en perspective, comme représenté sur la figure 11. L'écart de position apparaît aussi entre la construction 1103 située dans l'image et la construction 1102 située dans la carte représentée en perspective.
A l'étape 302, au moins six points de base cartographiques 1104, possédant des coordonnées X, Y, Z mutuellement différentes, parmi lesquelles au moins un point de repérage au sol existe à une distance inférieure à l'écart de transformation cartographique 6, sont sélectionnés de manière uniforme et aléatoire à partir de l'ensemble de la carte en perspective, et ceux-ci sont utilisés en tant que points de référence cartographiques. Sur la figure 11, par exemple, le point de repérage au sol 1105 (cercle blanc) se trouve à une distance inférieure à l'écart de transformation cartographique 8 du point de référence cartographique 1104 (cercle noir).Les points de repérage au sol 1107 et 1108 (cercles blancs) sont situés à une distance inférieure à l'écart de transformation cartographique 8 du point de référence cartographique 1106 (cercle noir).
A l'étape 303, la combinaison 1:1 du point de référence cartographique et du point de repérage au sol correspondant est déterminée. Sur la figure 11, par exemple, deux points de repérage au sol 1107 et 1108 (cercles blancs) sont situés à une distance inférieure à l'écart de conversion cartographique 8 du point de référence cartographique 1106 (cercle noir), mais le point de repérage au sol 1108 le plus proche est sélectionné pour former l'ensemble 1:1 avec le point de référence cartographique 1006 (cercle noir).
Incidemment, les étapes 302 et 303, décrites ci-dessus, utilisent le système qui détermine de manière automatique l'ensemble constitué du point de référence cartographique et du point de repérage correspondant, mais un système qui désigne l'ensemble constitué d'un point de référence cartographique approprié et d'un point correspondant dans l'image conformément au choix de l'utilisateur peut aussi être utilisé.
A l'étape 306, les points de référence cartographiques (X1, Y1, Z1) à (Xi, Yi, Zi) (i > 6) et les points de repérage au sol formant les ensembles avec ceuxi, c'est-à-dire (ul, vl) à (ui, vi), sont injectés dans la formule (3) suivante, et les coefficients de transformation cartographique al à all et H sont déterminés par la méthode des moindres carrés. Ici, H est une valeur associée à la distance de l'écran (longueur focale) c du dispositif photographique.
Figure img00140001
A l'étape 307, les valeurs des points de coordonnées (ul', vl') à (ui', vi') sont calculées à partir des points de référence cartographiques (X1, Y1, Z1) à (Xi,
Yi, Zi) en utilisant la formule (4) obtenue en injectant les coefficients de transformation cartographique al à ail et H, et les valeurs de ces points de coordonnées (ul', vl') à (ui', vi') sont comparées à (ul, vl) à (ui, vi) de manière à calculer l'écart de confrontation A.
u=Hu/H v=Hv/H (4)
A l'étape 308, la carte en perspective est engendrée à partir de la carte numérique tridimensionnelle en utilisant les coefficients de transformation cartographique al à all ainsi calculés, ainsi que la formule (4) décrite ci-dessus, et la carte représentée en perspective et l'image sont superposées.
A l'étape 312, un objet dont la forme n'a pratiquement pas changée entre le moment où a été produite la carte et le moment où a été acquise l'image est établi en tant qu'objet de référence pour le jugement de confrontation. Par exemple, une route est établie comme référence pour le jugement de confrontation, et le point de base cartographique constituant la route sur la carte est discriminé à partir des informations d'attribut imparties à la carte. D'autres objets peuvent être utilisés en tant que référence pour le jugement de confrontation selon le type de la carte. Des objets possédant des attributs plus détaillés, comme une route nationale ou une route départementale, peuvent être utilisés en tant que référence pour le jugement de confrontation, sur la base des informations d'attribut de la carte.Ensuite, il est jugé si oui ou non la majeure partie des points de base cartographiques utilisés en tant que référence pour le jugement de confrontation possèdent des points de repérage au sol correspondants. Par exemple, il est jugé si oui ou non la proportion des points de repérage au sol, situés au moins au nombre de un, existant à une distance du point de repérage au sol qui est inférieure à l'écart de confrontation A, dépasse 80 %. Si la majeure partie des points de base cartographiques utilisés comme référence pour le jugement de confrontation possèdent des points de repérage au sol correspondants, la confrontation est terminée.D'autre part, si la majorité des points de base cartographiques utilisés comme référence pour le jugement de confrontation ne possèdent pas les points de repérage au sol correspondants, on retourne à l'étape 302, et les étapes 302 à 312 sont exécutées de manière récursive et répétée jusqu'à ce que la confrontation soit terminée. De cette manière, l'écart de position au moment de la superposition peut être réduit, comme représenté sur la figure 13. Incidemment, la proportion qui sert de référence au jugement permettant d'établir que "la majorité des points de base cartographiques possèdent des points de repérage au sol correspondants" est déterminée par la précision d'extraction des points de repérage au sol.
En se reportant à nouveau à la figure 2, les moyens de stipulation de point de changement cartographique 107 exécutent le traitement des étapes 400 à 404 représentées sur la figure 4 à l'étape 208, et stipulent le point (point de changement cartographique) au niveau duquel le changement s'est produit entre le moment où a été produite la carte numérique tridimensionnelle et celui où a été acquise l'image.
La figure 4 représente l'ordinogramme des procédures de stipulation de point de changement cartographique.
A l'étape 400, un point de base cartographique est pris en considération, et l'exécution de l'étape 401 pour ce point de base cartographique est répétée pour tous les points de base cartographiques.
A l'étape 401, il est jugé si oui ou non le point de repérage au sol est situé à une distance du point de base cartographique qui est inférieure à l'écart de confrontation A, et, si tel est le cas, on retourne à l'étape 400, et si tel n'est pas le cas, on passe à l'étape 402.
A l'étape 402, le point de base cartographique qui est pris en considération est établi comme point de changement cartographique (l'objet est perdu). Pour expliquer le point de changement cartographique, les figures 14(a) à 14(c) représentent une partie du dessin dans laquelle une image (traits interrompus) qui vient d'être obtenue est superposée à la carte en perspective (trait plein). Par exemple, aucun point de repérage au sol n'existe à une distance inférieure à l'écart de confrontation A du point de base cartographique 1400 représenté sur la figure 14(a), ni des points de base cartographiques 1401 et 1402 représentés sur la figure 14(b), et ceux-ci deviennent les points de changement cartographiques.
A l'étape 403, un point de repérage au sol qui ne correspond à aucun point de base cartographique est pris en considération, et l'exécution de l'étape 404 pour ce point de repérage au sol est répétée pour tous les points de repérage au sol qui ne correspondent à aucun point de base cartographique.
A l'étape 404, le point de base cartographique qui est pris en considération est établi comme point de changement cartographique (l'objet est construit). Par exemple, le point de base cartographique ne correspond pas au point de repérage au sol 1406 représenté sur la figure 14(c), et ceux-ci sont déterminés comme étant des points de changement cartographiques.
En se reportant à nouveau à la figure 2, les moyens d'indication de nombre de points de changement cartographiques 108 calculent le nombre de points de changement cartographiques par district administratif ou par bloc, ou la densité de points de changement cartographiques par unité de surface, et présentent graphiquement le résultat du calcul. L'utilisateur peut juger la zone préférée de l'édition cartographique sur la base de cet affichage graphique.
En se reportant à nouveau à la figure 2, les moyens d'édition cartographique 109 éditent la carte numérique tridimensionnelle sur la base des points de changement cartographiques à l'étape 210.
La figure 5 est un ordinogramme représentant la procédure d'édition cartographique.
A l'étape 451, un point de changement cartographique est pris en considération, et l'exécution de l'étape 452 pour ce point de changement cartographique est répétée pour tous les points de changement cartographiques.
A l'étape 452, il est jugé si le type du point de changement cartographique est un objet perdu ou un objet qui a changé ou un objet construit, en examinant le point de changement cartographique pris en considération ou les informations du point de base cartographique ou du point de repérage au sol relié à ce point de changement cartographique. Lorsque le point de changement cartographique est du type objet perdu, on passe à l'étape 453, si celui-ci est du type objet qui a changé, on passe à l'étape 455, et s'il s'agit d'un objet du type construit, on passe à l'étape 500.
Le point de changement cartographique du type objet perdu va être expliqué en référence aux figures 16(a) et 16(b).
La figure 16(a) est un exemple de dessin représentant de manière superposée la carte en perspective mémorisée à l'avance (le contour est représenté par un trait plein et le cercle noir représente le point de base cartographique) et l'image qui vient d'être acquise (son contour est représenté par des traits interrompus, l'intérieur de la construction est représenté par un trait oblique, et le cercle blanc représente le point de repérage au sol). La carte en perspective de la figure 16(a) représente trois constructions. Cependant, L'image acquise ne représente que deux bâtiments.D'après la relation existant entre le point de référence cartographique et le point de repérage au sol, le point de repérage au sol 1662 qui est situé à une distance vis-à-vis des points de référence cartographiques (1161, 1163, 1664) qui est inférieure à l'écart de changement cartographique correspond au point 1661 et le point 1164 correspond au point 1665, mais le point de repérage au sol correspondant au point de référence cartographique 1663 n'existe pas. Par conséquent, le point de référence cartographique 1663 est déterminé comme étant un point de changement cartographique de l'objet perdu.
A l'étape 453 de la figure 5, les points de base cartographiques qui sont déterminés comme points de changement cartographiques de l'objet perdu sont supprimés. Sur la figure 16(a), par exemple, tous les points de référence cartographiques constituant la construction à laquelle appartient le point de référence cartographique 1663 sont supprimés, comme représenté sur la figure 16(b). Du fait de la suppression, il ne subsiste que deux constructions. A l'étape 454, la déformation nécessaire des formes (correction des informations d'attribut) est exécutée.
Le point de changement cartographique de l'objet qui a changé va être expliqué en référence aux figures 17(a) et 17(b).
La figure 17(a) est un exemple de dessin représentant de manière superposée la carte en perspective mémorisée à l'avance (son contour est représenté par un trait plein, et un cercle noir représente le point de référence cartographique) et l'image fraîchement acquise (son contour est représenté par des traits interrompus,
I'intérieur de la construction est représenté par un trait oblique, et un cercle blanc représente le point de repérage au sol). Sur la figure 17(a), la forme de la construction fournie par la carte en perspective à laquelle appartiennent les points de référence cartographiques 1651, 1653 et 1655 et la forme de l'image d'entrée à laquelle appartiennent les points de repérage au sol 1652, 1654 et 1656 sont différentes.Cette différence peut être jugée d'après l'existence d'un point situé à une distance supérieure à l'écart de changement cartographique point de repérage au sol, et de tels points de référence cartographiques 1651 et 1655 sont jugés comme points de changement cartographiques de l'objet qui a changé.
A l'étape 455 représentée sur la figure 5, le point de base cartographique, déterminé comme point de changement cartographique de l'objet qui a changé, est déplacé vers les positions de l'autre point de référence cartographique 1653 et des autres points de repérage au sol 1652, 1656 de l'image à laquelle appartient le point de repérage au sol 1654 correspondant. La figure 17(b) représente le résultat du déplacement. La figure 17(b) représente l'état dans lequel le point de référence cartographique, en tant que point de changement cartographique de l'objet qui a changé, est déplacé vers la position du point de changement d'image correspondant. En d'autres termes, les formes des constructions sur la carte en perspective et l'image d'entrée coïncident mutuellement, et le point de référence cartographique 1651 correspond au point de repérage au sol 1652. A l'étape 456, la modification nécessaire de la forme (correction des informations d'attribut) est exécutée.
Le point de changement cartographique de l'objet construit va être expliqué en référence aux figures 18(a) à 18(g).
Lorsque la carte en perspective correspondant à l'image 1601, fraîchement acquise (son contour est représenté par des traits interrompus, l'intérieur est représenté par des traits obliques et un cercle blanc représente le point de repérage au sol), n'existe pas, cette nouvelle image 1601 est utilisée en tant qu'objet 1601 constitué du point de changement cartographique de l'objet construit. Comme représenté sur la figure 18(a), un rectangle 1600 ayant une taille à peu près égale à celle de l'objet 1601 est engendrée à proximité de l'objet 1601 constitué du point de repérage au sol, en tant que point de changement cartographique de l'objet construit (étape 500).
A l'étape 502, le rectangle 1600 est déplacé (fixé au niveau d'un point) de telle sorte que l'un des sommets 1602 de celui-ci coïncide avec le point de repérage au sol 1603 de l'objet 1601 lui correspondant, comme représenté sur la figure 18(b).
A l'étape 503, le rectangle 1600 est déformé (fixé au niveau d'un côté) de manière à ce que le sommet 1605 situé au niveau de l'autre extrémité du côté 1604 comportant le sommet 1602, qui a été fixé à l'étape 502 au niveau de l'une de ses extrémités, coïncide avec le point de repérage au sol 1606 de l'objet 1601 correspondant, comme représenté sur la figure 18(c).
A l'étape 504, le rectangle 1600 est déformé (fixé dans un plan) de manière à ce que le sommet 1608 du côté opposé du plan 1607, dont le côté 1604, qui a été fixé à l'étape 503, constitue l'un de ses côtés, coïncide avec le point de repérage au sol 1609 de l'objet 1601 correspondant.
A l'étape 505, le rectangle 1600 est déformé (fixé sur un côté perpendiculaire au plan fixe) de manière à ce que le sommet 1611 situé au niveau de l'autre extrémité du côté 1610 perpendiculaire au plan 1607, qui a été fixé à l'étape 504, coïncide avec le point de repérage au sol 1612 de l'objet 1601 correspondant, comme représenté sur la figure 18(e).
A l'étape 506, le point de base cartographique est engendré, déplacé et supprimé de telle sorte que le rectangle 1600 et l'objet 1601 coïncident mutuellement, et le rectangle 1600 est déformé. En d'autres termes, comme représenté sur la figure 18(f), les points de base cartographiques 1613 et 1614 sont engendrés au niveau du côté du rectangle 1600, ou les sommets 1615 et 1617 sont déplacés vers les positions des points de repérage au sol 1616 et 1618. De cette manière, la structure de l'objet, constituée des points de base cartographiques, dont la forme coïncide avec celle de l'objet 1601, peut être obtenue comme représenté sur la figure 18(g).
Incidemment, une partie de la construction 1408 (correspondant au point 1620 sur la figure 18), représentée sur la figure 14(c), est cachée par la construction 1407 (correspondant au point 1601 sur la figure 18), et les informations relatives à cette construction 1408 ne sont pas suffisantes. Dans un tel cas, les points de base cartographiques peuvent être établis provisoirement au niveau de positions adaptées conformément à une instruction de l'utilisateur.
A l'étape 520, chaque sommet de la structure de l'objet, obtenue aux étapes 451 à 506, est utilisé en tant que point de base cartographique, les coordonnées (X Y, Z) sont calculées d'après la formule (3), la carte numérique tridimensionnelle est mise à jour en ajoutant l'attribut à ces données de coordonnées, et les données mises à jour sont envoyées vers le dispositif de mémorisation 100.
En se reportant à nouveau à la figure 2, le paramètre de prise de vue destiné à compléter les informations insuffisantes est acquis par l'intermédiaire des moyens d'acquisition de paramètre de prise de vue il 0a à l'étape 211. Par exemple, la construction 1408 sur la figure 14(c) est partiellement masquée par la construction 1407 et les informations relatives à cette construction 1408 sont par conséquent insuffisantes.
La figure 6(a) est l'ordinogramme de la procédure d'acquisition de paramètre de prise de vue.
A l'étape 601, la position du dispositif photographique dans la carte en perspective (lorsque la position du dispositif photographique ne se trouve pas dans la carte en perspective, la carte en perspective est agrandie, et la position du dispositif photographique dans la carte en perspective agrandie) et l'angle de projection sont affichés en tant que point visuel cartographique 1700 sur la carte obtenue par superposition telle que représentée sur la figure 19(a), et l'utilisateur est amené à effectuer une opération pour changer cette position, ainsi que l'angle de projection.
A l'étape 602, la carte en perspective 1704 est engendrée en utilisant le point visuel cartographique 1703, ainsi modifié, en tant que centre de projection, comme représenté sur la figure i 9(b), et est affichée superposée à l'image (traits interrompus).
A l'étape 603, I'utilisateur juge si oui ou non les informations insuffisantes dans l'image atteignent le point visuel cartographique apparaissant sur la carte en perspective, et, lorsqu'un tel point visuel cartographique est atteint, on passe à l'étape 604 et, si tel n'est pas le cas, on retourne à l'étape 601 et les étapes 601 à 603 sont exécutées de manière récursive et répétée jusqu'à ce qu'un tel point visuel cartographique soit atteint.
A l'étape 604, les paramètres de prise de vue de l'image sont mis à jour par la position du point visuel cartographique et l'angle de projection au niveau desquels les informations insuffisantes de l'image apparaissent sur la carte en perspective (d'autres paramètres, tels que l'altitude, ne sont pas mis à jour), et les données mises ajour sont utilisées en tant que paramètre de prise de vue.
En se reportant à nouveau à la figure 2, les informations insuffisantes dans l'image sont complétées à l'étape 212.
La figure 6(b) est un ordinogramme représentant la procédure utilisée pour compléter les informations insuffisantes.
A l'étape 605, les moyens d'acquisition de paramètre de prise de vue 110a déterminent si oui ou non l'image satisfaisant au paramètre de prise de vue peut être immédiatement acquise dans le dispositif de mémorisation 100 ou le réseau, et si celle-ci peut être acquise immédiatement, on passe à l'étape 606, et si tel n'est pas le cas, on passe à l'étape 607.
A l'étape 606, les moyens d'entrée d'image 101 reçoivent en entrée l'image satisfaisant au paramètre de prise de vue, en provenance du dispositif de mémorisation 100 ou du réseau.
Lorsqu'on connaît à l'avance le programme d'acquisition de l'image, tel que par une lecture à distance à l'aide d'un satellite, les moyens d'indication de date de programme d'acquisition d'image nouvelle 110b examinent la période pendant laquelle l'image correspondant à peu près au paramètre de prise de vue peut être entrée. Si cette période s'étend du ler Janvier 1995 au 20 Janvier 1995, par exemple, les cartes en perspective, depuis la carte en perspective 1705 correspondant à l'image qui est programmée pour être acquise le ler Janvier 1995, jusqu'à la carte en perspective 1707 correspondant à l'image qui est programmée pour être acquise le 20 Janvier 1995, sont produites en série et sont affichées comme représenté sur la figure 20.
A l'étape 608, la date du programme d'acquisition de l'image correspondant à la carte en perspective, sélectionnée par l'utilisateur, est indiquée.
En se reportant à nouveau à la figure 2, les moyens d'indication d'informations d'aide à la mesure 111 fournissent les informations d'aide à la mesure nécessaires pour effectuer une nouvelle mesure de la zone désignée par l'utilisateur, à l'étape 213. Lorsque l'utilisateur, désigne la zone recouvrant les points de changement cartographiques, comme représenté sur la figure 18, par exemple, ces moyens d'indication 111 indiquent les informations d'aide à la mesure, telles que l'adresse de la zone, la taille de la zone, la date de la dernière mesure effectuée, etc.
Les procédures expliquées jusqu'à présent ont été réalisées par l'intermédiaires des moyens matériels représentés sur la figure 1. Cependant, la présente invention peut aussi être mise en oeuvre par l'assemblage de logiciels dans un système informatique de construction ordinaire, comportant un dispositif de mémorisation 2201 destiné à mémoriser des données cartographiques, un dispositif d'entrée d'image 2202 destiné à l'acquisition de nouvelles images cartographiques, de moyens de sortie 2203 destinés à délivrer en sortie une valeur intermédiaire de traitement et un résultat de traitement, de moyens d'entrée 2204 destinés à entrer des instructions de traitement en provenance de l'extérieur, une mémoire 2205 comportant divers programmes de traitement et zones de mémorisation, et des moyens de traitement d'informations 2206 destinés à exécuter des traitements conformément au programme de traitement contenu dans la mémoire, comme représenté sur la figure 22. Le terme "assemblage de logiciels" signifie que la même fonction que celle représentée sur la figure 1, c'est-à-dire la fonction de la présente invention, est assurée par l'exécution du programme mémorisé dans la mémoire 2205, par la partie de traitement d'informations.
La mémoire 2205 peut être une mémoire à disque dans laquelle est chargée un support amovible, tel qu'un disque magnétique, un disque optique, un disque opto-magnétique, un disque vidéo numérique ou analogue. Dans un tel cas, le programme mémorisé dans le support comporte le programme de récupération de carte 2211, le programme de transformation de coordonnées tridimensionnelles 2212, le programme d'extraction de point de repérage au sol 2213, le programme de confrontation 2214, le programme de stipulation de point de changement cartographique 2215, le programme d'indication de nombre de points de changement cartographiques 2216, le programme d'édition cartographique 2217, le programme d'acquisition de paramètre de prise de vue 2218, le programme d'indication de date de programme d'acquisition d'image nouvelle 2219, le programme d'indication d'informations d'aide à la mesure 2220, et un autre programme nécessaire à l'activation du système et de la zone de mémorisation des informations, ces deux derniers n'étant pas représentés sur le dessin.
Le système représenté sur la figure 22 exécute le traitement expliqué en référence à la figure 2, grâce à l'exécution du programme mémorisé dans la mémoire 2205, par l'intermédiaire du processeur d'informations 2206.
L'image est entrée à partir du dispositif d'entrée d'image 2202 (un scanneur, par exemple) (étape 200 sur la figure 2). Les paramètres de prise de vue sont entrés à partir des moyens d'entrée 2204 (un clavier ou une souris, par exemple) (étape 201 sur la figure 2). Le point de repérage au sol est extrait en activant le programme d'extraction de point de repérage au sol 2213 (étape 202 sur la figure 2).
L'entrée de la carte s'effectue à partir du dispositif de mémorisation 2201 conformément au programme de récupération de carte 2211 (étape 203 sur la figure 2). Le coefficient de transformation est calculé d'après les paramètres envoyés en entrée par le programme de transformation de coordonnées tridimensionnelles 2212 (étape 204 sur la figure 2), et la carte en perspective est engendrée conformément à la formule (2) (étape 205 sur la figure 2). En outre, l'écart 8 est calculé (étape 206 sur la figure 2). Le programme de confrontation 2214 exécute le traitement représenté sur la figure 3 et confronte la carte et l'image d'entrée (étape 207 sur la figure 2). Le programme de stipulation de point de changement cartographique 2215 exécute le traitement représenté sur la figure 4 et stipule le point de changement cartographique (étape 208 sur la figure 2).Le programme d'indication de nombre de points de changement cartographiques 2216 calcule la densité des points de changement cartographiques à l'intérieur d'une plage spécifique et l'affiche par l'intermédiaire des moyens de sortie (étape 209). Le programme d'édition cartographique 2217 exécute le traitement représenté sur la figure 5 sur la base du point de changement cartographique acquis à partir du programme de stipulation de point de changement cartographique 2215 et édite la carte numérique tridimensionnelle (étape 210 sur la figure 2). Le programme d'acquisition de paramètre de prise de vue 2218 acquiert le paramètre de prise de vue conformément au traitement représenté sur la figure 6(a) (étape 211 sur la figure 2).Lorsque les informations sont insuffisantes, le programme d'indication de date de programme d'acquisition d'image nouvelle 2219 exécute le traitement représenté sur la figure 6(b) pour compléter les informations insuffisantes (étape 212 sur la figure 2). Le programme d'indication d'informations d'aide à la mesure 2220 indique les informations d'aide à la mesure nécessaires, lorsqu'une nouvelle mesure de la zone désignée par l'utilisateur est effectuée (étape 213 sur la figure 2). De cette manière, une série de traitements est exécutée.
Le dispositif d'édition cartographique ou le programme d'édition cartographique selon la présente invention fournit les effets et les avantages suivants.
(1) Même lorsqu'une construction est perdue ou est fraîchement construite, la carte numérique tridimensionnelle peut être mise à jour de manière automatique. Par conséquent, la charge incombant à l'utilisateur pour mettre à jour la carte peut être réduite.
(2) Les zones comportant de nombreux changements quant aux objets peuvent être facilement saisies, et le plan de remesure peut être facilement établi.
(3) Du fait que les informations d'attribut, telles que l'adresse de la position existante du point de changement cartographique, peuvent être acquises, le plan de remesure peut être facilement établi.
(4) La date à laquelle l'image permettant de compléter les informations insuffisantes pour la mise à jour de la carte numérique tridimensionnelle peut être acquise est indiquée.
(5) L'image permettant de compléter les informations insuffisantes pour mettre à jour la carte numérique tridimensionnelle peut être acquise à partir de la base de données ou du réseau.
(6) Il est possible de connaître le paramètre de prise de vue pour l'acquisition des informations qui sont manquantes, pour mettre à jour la carte numérique tridimensionnelle.
On a décrit la présente invention en se reportant à des modes préférés de réalisation de celle-ci, ainsi qu'à des modes donnés en variante. Des modifications et des changements peuvent être apportés de manière évidente par l'homme du métier, à la lecture de la présente invention, sans s'écarter de la portée de la présente invention telle que définie dans les revendications annexées.

Claims (8)

REVENDICATIONS
1. Dispositif d'édition cartographique pour aider à la mise à jour d'une carte numérique tridimensionnelle d'une zone, utilisant des images obtenues en photographiant ladite zone, caractérisé en ce qu'il comporte:
des moyens de transformation de coordonnées (105) destinés à produire une carte en perspective dans un système de coordonnées dans lequel sont référencées lesdites images, à partir de ladite carte numérique tridimensionnelle en utilisant des paramètres de prise de vue desdites images,
des moyens de confrontation (106) destinés à confronter un point de base cartographique représentant un point de référence de la forme d'un objet contenu dans ladite carte en perspective, et un point de repérage au sol représentant un point de référence de la forme d'un objet contenu dans lesdites images,
des moyens de stipulation de point de changement cartographique (107) réagissant à la confrontation effectuée par lesdits moyens de confrontation (106) pour spécifier un point de changement cartographique au niveau duquel l'objet change, à partir dudit point de base cartographique et dudit point de repérage au sol qui sont jugés comme ne correspondant pas l'un à l'autre,
des moyens d'édition cartographique (109) réagissant auxdits moyens de stipulation de point de changement cartographique pour éditer une carte numérique tridimensionnelle sur la base dudit point de changement cartographique spécifié par lesdits moyens de stipulation (107),
des moyens d'affichage de carte en perspective (112) destinés à produire une nouvelle carte en perspective basée sur un centre de projection et un angle de projection modifiés par une instruction de l'utilisateur et la carte numérique tridimensionnelle après ladite édition effectuée par lesdits moyens d'édition cartographique (109), et afficher ladite nouvelle carte en perspective sur un affichage, et
des moyens d'acquisition de paramètre de prise de vue (110a) destinés à faire l'acquisition d'un paramètre de prise de vue correspondant au centre de projection et à l'angle de projection indiqués par l'utilisateur.
2. Dispositif d'édition cartographique selon la revendication 1, caractérisé en ce qu'il comporte en outre des moyens d'acquisition d'image supplémentaires (110) destinés à l'acquisition d'une nouvelle image correspondant audit paramètre de prise de vue.
3. Dispositif d'édition cartographique selon la revendication 1, caractérisé en ce qu'il comporte en outre des moyens d'indication de date de programme d'acquisition d'image nouvelle (11 ou) destinés à indiquer la date à laquelle une nouvelle image correspondant audit paramètre de prise de vue peut être acquise.
4. Dispositif d'édition cartographique selon la revendication 1, caractérisé en ce qu'il comporte en outre des moyens d'indication d'informations d'aide à la mesure (111) destinés à indiquer des informations d'attribut, telles que l'adresse de la position existante du point de changement cartographique, etc., en tant qu'informations d'aide à la mesure.
5. Dispositif d'édition cartographique destiné à aider à la mise à jour d'une carte numérique tridimensionnelle d'une zone en utilisant des images obtenues en photographiant ladite zone, caractérisé en ce qu'il comporte:
des moyens de transformation de coordonnées (105) destinés à produire une carte en perspective dans un système de coordonnées dans lequel lesdites images sont référencées, à partir de ladite carte numérique tridimensionnelle en utilisant des paramètres de prise de vue desdites images,
des moyens de confrontation (106) destinés à confronter un point (point de base cartographique), en tant que référence de la forme d'un objet contenu dans ladite carte en perspective, et un point (point de repérage au sol), en tant que référence de la forme d'un objet contenu dans lesdites images,
des moyens de stipulation de point de changement cartographique (107) destinés à stipuler un point (point de changement cartographique) au niveau duquel un objet change, lorsque ledit point de base cartographique et ledit point de repérage au sol ne correspondent pas l'un à l'autre, et
des moyens d'indication de nombre de points de changement cartographiques (108) destinés à calculer le nombre ou la densité de points de changement cartographiques de ladite zone dans son ensemble ou d'une région située à l'intérieur de ladite zone, et à indiquer le nombre ou la densité.
6. Dispositif d'édition cartographique pour aider à la mise à jour d'une carte numérique tridimensionnelle d'une zone en utilisant des images obtenues en photographiant ladite zone, caractérisé en ce qu'il comporte:
des moyens de transformation de coordonnées (105) destinés à produire une carte en perspective dans un système de coordonnées dans lequel lesdites images sont référencées, à partir de ladite carte numérique tridimensionnelle en utilisant des paramètres de prise de vue desdites images,
des moyens de confrontation (106) destinés à confronter un point (point de base cartographique), en tant que référence de la forme d'un objet contenu dans ladite carte en perspective, et un point (point de repérage au sol), en tant que référence de la forme d'un objet contenu dans lesdites images, et
des moyens d'édition cartographique (109) destinés à ajouter un nouvel objet à ladite carte numérique tridimensionnelle sur la base d'un point de repérage au sol ne possédant pas de point de base cartographique correspondant, et à supprimer un objet correspondant à un point de base cartographique sur la base dudit point de base cartographique ne possédant pas de point de repérage au sol lui correspondant, à partir de ladite carte numérique tridimensionnelle.
7. Support de mémorisation lisible pour ordinateur contenant en mémoire un programme d'édition cartographique, ledit programme d'édition cartographique étant caractérisé en ce qu'il comporte les étapes consistant à:
entrer des informations cartographiques à partir d'un dispositif de mémorisation situé à l'intérieur d'un système et produire une carte en perspective à partir desdites informations cartographiques,
entrer des images cartographiques,
confronter ladite carte en perspective auxdites images cartographiques, et détecter un point différent en tant que point de changement cartographique,
éditer lesdites informations cartographiques sur la base dudit point de changement cartographique, et
calculer un paramètre de prise de vue de manière à faire l'acquisition d'une image contenant ledit point de changement cartographique.
8. Mémoire pour ordinateur destinée à commander une opération d'édition cartographique sur l'ordinateur, ladite mémoire étant caractérisée en ce qu'elle comporte:
des moyens pour entrer des informations cartographiques à partir d'un dispositif de mémorisation situé à l'intérieur d'un système et produire une carte en perspective à partir desdites informations cartographiques,
des moyens pour entrer des images cartographiques,
des moyens pour confronter ladite carte en perspective auxdites images cartographiques pour détecter un point différent en tant que point de changement cartographique,
des moyens pour éditer lesdites informations cartographiques sur la base dudit point de changement cartographique, et
des moyens pour calculer un paramètre de prise de vue de manière à faire l'acquisition d'une image contenant ledit point de changement cartographique.
FR9612146A 1995-10-05 1996-10-04 Dispositif d'edition cartographique Expired - Lifetime FR2739707B1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25899595A JP3622094B2 (ja) 1995-10-05 1995-10-05 地図更新支援装置および地図情報の編集方法

Publications (2)

Publication Number Publication Date
FR2739707A1 true FR2739707A1 (fr) 1997-04-11
FR2739707B1 FR2739707B1 (fr) 2000-11-10

Family

ID=17327897

Family Applications (1)

Application Number Title Priority Date Filing Date
FR9612146A Expired - Lifetime FR2739707B1 (fr) 1995-10-05 1996-10-04 Dispositif d'edition cartographique

Country Status (5)

Country Link
US (1) US5864632A (fr)
JP (1) JP3622094B2 (fr)
CN (1) CN1104702C (fr)
CA (1) CA2186975C (fr)
FR (1) FR2739707B1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8259993B2 (en) 2006-03-17 2012-09-04 Pasco Corporation Building shape change detecting method, and building shape change detecting system

Families Citing this family (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3426919B2 (ja) * 1997-07-28 2003-07-14 シャープ株式会社 図形作成装置
JP3317211B2 (ja) * 1997-09-24 2002-08-26 松下電器産業株式会社 地図編集装置
JPH11184375A (ja) 1997-12-25 1999-07-09 Toyota Motor Corp デジタル地図データ処理装置及びデジタル地図データ処理方法
JP3703297B2 (ja) * 1998-04-27 2005-10-05 株式会社日立製作所 地理情報データ管理方法
JP3776591B2 (ja) * 1998-05-13 2006-05-17 株式会社日立製作所 地図情報更新方法および装置
US6408085B1 (en) * 1998-07-22 2002-06-18 Space Imaging Lp System for matching nodes of spatial data sources
JP4065611B2 (ja) * 1998-09-28 2008-03-26 住友電気工業株式会社 立体地図作成方法
JP2000194726A (ja) * 1998-10-19 2000-07-14 Sony Corp 情報処理装置及び方法、情報処理システム並びに提供媒体
US6895557B1 (en) * 1999-07-21 2005-05-17 Ipix Corporation Web-based media submission tool
US6732162B1 (en) 1999-11-15 2004-05-04 Internet Pictures Corporation Method of providing preprocessed images for a plurality of internet web sites
US7308117B2 (en) * 2000-02-04 2007-12-11 National Science And Technology Development Agency System and method for manipulating information and map for geographical resource management
US6757445B1 (en) 2000-10-04 2004-06-29 Pixxures, Inc. Method and apparatus for producing digital orthophotos using sparse stereo configurations and external models
US6873998B1 (en) * 2000-10-18 2005-03-29 Navteq North America, Llc System and method for updating a geographic database using satellite imagery
JP3992452B2 (ja) * 2000-11-09 2007-10-17 日立ソフトウエアエンジニアリング株式会社 変化検出装置、変化検出方法及び該方法に係るプログラムを記憶した記憶媒体並びにシステム
US6963662B1 (en) * 2000-11-15 2005-11-08 Sri International Method and system for detecting changes in three dimensional shape
JP2002157576A (ja) * 2000-11-22 2002-05-31 Nec Corp ステレオ画像処理装置及びステレオ画像処理方法並びにステレオ画像処理用プログラムを記録した記録媒体
JP3823724B2 (ja) * 2000-12-14 2006-09-20 日本電気株式会社 3次元空中遊覧改良サーバ、その方法、及び記録媒体
WO2003003194A1 (fr) 2001-06-27 2003-01-09 Sony Corporation Dispositif a circuit integre, dispositif de traitement de l'information, procede de gestion de memoire de support d'information, terminal mobile, dispositif a circuit integre a semi-conducteur, et procede de communication par terminal mobile
JP3661187B2 (ja) * 2002-03-27 2005-06-15 ソニー株式会社 3次元地形情報生成システム及び方法、並びにコンピュータ・プログラム
US6847888B2 (en) * 2002-08-07 2005-01-25 Hrl Laboratories, Llc Method and apparatus for geographic shape preservation for identification
US8797402B2 (en) * 2002-11-19 2014-08-05 Hewlett-Packard Development Company, L.P. Methods and apparatus for imaging and displaying a navigable path
DE10354752B4 (de) * 2002-11-25 2006-10-26 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur automatischen Entzerrung von einkanaligen oder mehrkanaligen Bildern
JP2004199496A (ja) 2002-12-19 2004-07-15 Sony Corp 情報処理装置および方法、並びにプログラム
US20040218910A1 (en) * 2003-04-30 2004-11-04 Chang Nelson L. Enabling a three-dimensional simulation of a trip through a region
US7526718B2 (en) * 2003-04-30 2009-04-28 Hewlett-Packard Development Company, L.P. Apparatus and method for recording “path-enhanced” multimedia
US20050060299A1 (en) * 2003-09-17 2005-03-17 George Filley Location-referenced photograph repository
US20050111756A1 (en) * 2003-11-25 2005-05-26 Turner Robert W. System and method for generating coherent data sets of images from various sources
KR100571429B1 (ko) * 2003-12-26 2006-04-17 한국전자통신연구원 지상기준점 영상 칩을 이용한 온라인 기하 보정 서비스제공 방법
CA2455359C (fr) * 2004-01-16 2013-01-08 Geotango International Corp. Systeme, programme informatique et methode applicables a la mesure et a la cartographie d'un objet tridimensionnel a partir d'une seule imagerie
US7657124B2 (en) * 2004-02-27 2010-02-02 The Boeing Company Multiple image data source information processing systems and methods
JP4443327B2 (ja) * 2004-07-01 2010-03-31 パイオニア株式会社 情報表示装置
JP4751886B2 (ja) * 2005-07-19 2011-08-17 富士通株式会社 画像判定方法
JP5134792B2 (ja) * 2006-08-01 2013-01-30 株式会社パスコ 地図情報更新支援装置、地図情報更新支援方法及び地図情報更新支援プログラム
US9063950B2 (en) * 2006-10-27 2015-06-23 Avenza Systems Inc. Methods and systems for modifying raster graphics software programs
US8542884B1 (en) * 2006-11-17 2013-09-24 Corelogic Solutions, Llc Systems and methods for flood area change detection
US8077927B1 (en) * 2006-11-17 2011-12-13 Corelogic Real Estate Solutions, Llc Updating a database with determined change identifiers
US8649567B1 (en) * 2006-11-17 2014-02-11 Corelogic Solutions, Llc Displaying a flood change map with change designators
CN101464148B (zh) * 2007-12-21 2012-05-23 财团法人工业技术研究院 三维影像侦测、编修及重建系统
JP4915698B2 (ja) * 2007-12-25 2012-04-11 株式会社ジオ技術研究所 3次元電子地図データの生成方法
US9208458B2 (en) 2008-10-02 2015-12-08 Certusview Technologies, Llc Methods and apparatus for analyzing locate and marking operations with respect to facilities maps
US8527308B2 (en) 2008-10-02 2013-09-03 Certusview Technologies, Llc Methods and apparatus for overlaying electronic locate information on facilities map information and/or other image information displayed on a locate device
US8478617B2 (en) 2008-10-02 2013-07-02 Certusview Technologies, Llc Methods and apparatus for generating alerts on a locate device, based on comparing electronic locate information to facilities map information and/or other image information
US20100198663A1 (en) 2008-10-02 2010-08-05 Certusview Technologies, Llc Methods and apparatus for overlaying electronic marking information on facilities map information and/or other image information displayed on a marking device
US20100188407A1 (en) * 2008-10-02 2010-07-29 Certusview Technologies, Llc Methods and apparatus for displaying and processing facilities map information and/or other image information on a marking device
US8510141B2 (en) * 2008-10-02 2013-08-13 Certusview Technologies, Llc Methods and apparatus for generating alerts on a marking device, based on comparing electronic marking information to facilities map information and/or other image information
CA2691780C (fr) * 2009-02-11 2015-09-22 Certusview Technologies, Llc Systeme de gestion et procedes et appareil associes pour fournir une evaluation automatique d'une operation de localisation
JP5310130B2 (ja) * 2009-03-11 2013-10-09 オムロン株式会社 3次元視覚センサによる認識結果の表示方法および3次元視覚センサ
JP5245938B2 (ja) * 2009-03-12 2013-07-24 オムロン株式会社 3次元認識結果の表示方法および3次元視覚センサ
JP5714232B2 (ja) 2009-03-12 2015-05-07 オムロン株式会社 キャリブレーション装置および3次元計測のためのパラメータの精度の確認支援方法
JP5316118B2 (ja) * 2009-03-12 2013-10-16 オムロン株式会社 3次元視覚センサ
JP2010210585A (ja) * 2009-03-12 2010-09-24 Omron Corp 3次元視覚センサにおけるモデル表示方法および3次元視覚センサ
JP5282614B2 (ja) * 2009-03-13 2013-09-04 オムロン株式会社 視覚認識処理用のモデルデータの登録方法および視覚センサ
JP5299054B2 (ja) * 2009-04-21 2013-09-25 ソニー株式会社 電子機器、表示制御方法およびプログラム
US8422641B2 (en) * 2009-06-15 2013-04-16 Calabrio, Inc. Distributed record server architecture for recording call sessions over a VoIP network
CA2710269C (fr) * 2009-08-11 2012-05-22 Certusview Technologies, Llc Localisation d'un equipement en liaison avec un dispositif de communication mobile et/ou portatif ou, encore, muni d'un tel dispositif
US8467810B2 (en) 2010-11-29 2013-06-18 Navteq B.V. Method and system for reporting errors in a geographic database
US8681176B1 (en) 2011-09-20 2014-03-25 Google Inc. Rendering a map using style identifiers
US8560600B2 (en) 2011-09-26 2013-10-15 Google Inc. Managing map elements using aggregate feature identifiers
US8928691B2 (en) 2011-09-26 2015-01-06 Google Inc. Rendering map images using modifications of non-raster map data
US8896630B1 (en) 2011-10-24 2014-11-25 Google Inc. Keeping map labels consistent across multiple zoom levels
CN103287267B (zh) * 2012-03-02 2016-05-18 北京四维图新科技股份有限公司 基于超高信息的辅助驾驶的方法及装置
US8937627B1 (en) 2012-03-28 2015-01-20 Google Inc. Seamless vector map tiles across multiple zoom levels
US10107887B2 (en) * 2012-04-13 2018-10-23 Qualcomm Incorporated Systems and methods for displaying a user interface
US9245360B2 (en) 2012-06-21 2016-01-26 Google Inc. Computing devices and methods for deterministically placing geometric shapes within geographic maps
US9091628B2 (en) 2012-12-21 2015-07-28 L-3 Communications Security And Detection Systems, Inc. 3D mapping with two orthogonal imaging views
CA2902040C (fr) * 2013-02-22 2019-07-23 Ohio University Reduction de donnees capturees par des capteurs diffusees en continu pour un operateur
US9396508B2 (en) 2013-05-15 2016-07-19 Google Inc. Use of map data difference tiles to iteratively provide map data to a client device
JP6144364B2 (ja) * 2014-01-17 2017-06-07 株式会社日立製作所 作業支援用データ作成プログラム
US10007677B1 (en) 2014-12-04 2018-06-26 Google Llc System and method for geospatial indexing
JP6673699B2 (ja) * 2016-01-13 2020-03-25 株式会社パスコ 地形表示システム
JP6762108B2 (ja) * 2016-02-19 2020-09-30 三菱重工業株式会社 目標物検知装置、処理方法、プログラム
JP6969149B2 (ja) * 2017-05-10 2021-11-24 富士フイルムビジネスイノベーション株式会社 三次元形状データの編集装置、及び三次元形状データの編集プログラム
CN107590863A (zh) * 2017-09-19 2018-01-16 黄奇坡 一种全民3d地图高精度漫游编辑方法
US11361490B2 (en) 2020-08-18 2022-06-14 Here Global B.V. Attention guidance for ground control labeling in street view imagery
KR102479976B1 (ko) * 2021-11-15 2022-12-20 국방과학연구소 서로 다른 항공사진에서 변화를 감지하는 변화 감지 장치 및 방법

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1990014627A1 (fr) * 1989-05-15 1990-11-29 Bennett Mark J Procede de production de cartes
US4984279A (en) * 1989-01-04 1991-01-08 Emyville Enterprises Limited Image processing and map production systems
US5034812A (en) * 1988-11-14 1991-07-23 Smiths Industries Public Limited Company Image processing utilizing an object data store to determine information about a viewed object
US5053778A (en) * 1989-08-10 1991-10-01 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Generation of topographic terrain models utilizing synthetic aperture radar and surface level data
US5146228A (en) * 1990-01-24 1992-09-08 The Johns Hopkins University Coherent correlation addition for increasing match information in scene matching navigation systems
EP0525792A2 (fr) * 1991-08-01 1993-02-03 Fujitsu Limited Système d'édition d'image pour la supervision d'un réseau de transmission
US5187754A (en) * 1991-04-30 1993-02-16 General Electric Company Forming, with the aid of an overview image, a composite image from a mosaic of images

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6095474A (ja) * 1983-10-28 1985-05-28 中日本写真工業株式会社 土地家屋管理図の作成方法
US4876651A (en) * 1988-05-11 1989-10-24 Honeywell Inc. Digital map system
JPH03196372A (ja) * 1989-12-26 1991-08-27 Toshiba Corp 画像の位置合わせ装置
JPH05181411A (ja) * 1991-12-27 1993-07-23 Toshiba Corp 地図情報照合更新方式

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5034812A (en) * 1988-11-14 1991-07-23 Smiths Industries Public Limited Company Image processing utilizing an object data store to determine information about a viewed object
US4984279A (en) * 1989-01-04 1991-01-08 Emyville Enterprises Limited Image processing and map production systems
WO1990014627A1 (fr) * 1989-05-15 1990-11-29 Bennett Mark J Procede de production de cartes
US5053778A (en) * 1989-08-10 1991-10-01 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Generation of topographic terrain models utilizing synthetic aperture radar and surface level data
US5146228A (en) * 1990-01-24 1992-09-08 The Johns Hopkins University Coherent correlation addition for increasing match information in scene matching navigation systems
US5187754A (en) * 1991-04-30 1993-02-16 General Electric Company Forming, with the aid of an overview image, a composite image from a mosaic of images
EP0525792A2 (fr) * 1991-08-01 1993-02-03 Fujitsu Limited Système d'édition d'image pour la supervision d'un réseau de transmission

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SOLBERG R ET AL: "SATELLITE IMAGERY FOR SEMI-AUTOMATIC MAP REVISION", REMOTE SENSING: MOVING TOWARDS THE 21ST. CENTURY, EDINBURGH, SEPT. 12 - 16, 1988, vol. 2, no. SYMP. 8, 12 September 1988 (1988-09-12), GUYENNE T D;HUNT J J, pages 1179 - 1183, XP000092549 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8259993B2 (en) 2006-03-17 2012-09-04 Pasco Corporation Building shape change detecting method, and building shape change detecting system

Also Published As

Publication number Publication date
US5864632A (en) 1999-01-26
JPH09101742A (ja) 1997-04-15
CN1104702C (zh) 2003-04-02
CN1159036A (zh) 1997-09-10
FR2739707B1 (fr) 2000-11-10
CA2186975C (fr) 2001-01-02
JP3622094B2 (ja) 2005-02-23
CA2186975A1 (fr) 1997-04-06

Similar Documents

Publication Publication Date Title
FR2739707A1 (fr) Dispositif d'edition cartographique
KR100743485B1 (ko) 영상 오브젝트 인식 장치 및 인식 방법, 영상 애너테이션부여 장치 및 부여 방법과 프로그램
Maiwald et al. Photogrammetric analysis of historical image repositories for virtual reconstruction in the field of digital humanities
FR2751067A1 (fr) Systeme et sous-systeme de determination de l'attitude d'une camera a l'interieur d'un objet
Murphy et al. Developing historic building information modelling guidelines and procedures for architectural heritage in Ireland
KR20200110120A (ko) 3d-vr 멀티센서 시스템 기반의 도로 시설물 관리 솔루션을 구현하는 시스템 및 그 방법
US20100260438A1 (en) Image processing apparatus and medium storing image processing program
Lussu et al. Ultra close-range digital photogrammetry in skeletal anthropology: A systematic review
Rüther et al. From point cloud to textured model, the zamani laser scanning pipeline in heritage documentation
Zhang et al. Automatic object removal with obstructed façades completion using semantic segmentation and generative adversarial inpainting
Rüther et al. Challenges in heritage documentation with terrestrial laser scanning
CN114399692A (zh) 基于深度学习的违建识别监控检测方法及系统
Powlesland 3Di–Enhancing the record, extending the returns, 3D imaging from free range photography and its application during excavation
Guidi et al. The Indiana University-Uffizi project: Metrologica! challenges and workflow for massive 3D digitization of sculptures
Ebrahimikia et al. True orthophoto generation based on unmanned aerial vehicle images using reconstructed edge points
Rodríguez‐Gonzálvez et al. A hybrid approach to create an archaeological visualization system for a Palaeolithic cave
Zhang et al. Primitive-based building reconstruction by integration of Lidar data and optical imagery
de Lima Hernandez et al. On combining epigraphy, TLS, photogrammetry, and interactive media for heritage documentation: the case study of Djehutihotep’s tomb in Dayr al-Barsha
Church The forensic utility of photogrammetry in surface scene documentation
Budianti et al. Background blurring and removal for 3d modelling of cultural heritage objects
KR100473953B1 (ko) 지리정보체계 구축을 위한 항공사진 표정정보가 기록된수치지도의 제작방법
Wallace Retrospective Photogrammetry:“Building a Time Machine”
Morita et al. New Photogrammetric Systems for Easy low-Cost 3D Digitization of Cultural Heritage
Lussu Ultra close-range digital photogrammetry as a tool to preserve, study, and share skeletal remains
Drap et al. Photogrammetry and archaeological knowledge: toward a 3D information system dedicated to medieval archaeology: A case study of Shawbak Castle in Jordan

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 20