JP4103898B2 - Map information updating method and map updating apparatus - Google Patents

Map information updating method and map updating apparatus Download PDF

Info

Publication number
JP4103898B2
JP4103898B2 JP2005114068A JP2005114068A JP4103898B2 JP 4103898 B2 JP4103898 B2 JP 4103898B2 JP 2005114068 A JP2005114068 A JP 2005114068A JP 2005114068 A JP2005114068 A JP 2005114068A JP 4103898 B2 JP4103898 B2 JP 4103898B2
Authority
JP
Japan
Prior art keywords
map
feature
edge
building
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005114068A
Other languages
Japanese (ja)
Other versions
JP2005234603A (en
Inventor
祐紀雄 小川
岩村  一昭
野本  安栄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2005114068A priority Critical patent/JP4103898B2/en
Publication of JP2005234603A publication Critical patent/JP2005234603A/en
Application granted granted Critical
Publication of JP4103898B2 publication Critical patent/JP4103898B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、地図情報更新方法及び地図情報更新装置に関し、さらに詳しくは、地域を撮影した画像を利用し、当該地域の地図に記載された図形の存続、変化情報を検出し、さらに地図に未記載の新たな地物を検出し地図情報の更新を行う地図情報更新方法及び地図情報更新装置に関する。   The present invention relates to a map information updating method and a map information updating device, and more specifically, using an image obtained by photographing a region, detecting continuity and change information of a graphic described in the map of the region, The present invention relates to a map information update method and a map information update device for detecting a new feature described and updating map information.

特開平5-181411号公報「地図情報照合更新方式」には、数値地図に対して座標変換を行って中心投影図を作成し、それと航空写真画像を照合し、照合図から地図情報を利用して経年変化や景観情報を抽出し、地図情報を更新する従来技術が開示されている。   Japanese Patent Laid-Open No. 5-181411, “Map Information Collation Update Method” creates a central projection by performing coordinate transformation on a numerical map, collates it with an aerial photograph image, and uses the map information from the collation map. Conventional techniques for extracting aging and landscape information and updating map information have been disclosed.

特開平5−181411号公報Japanese Patent Laid-Open No. 5-181411

上記特開平5-181411号公報に開示の従来技術では、地図に未記載の新規地物の位置を特定できない。また、隣接地物をまとめた複数地物とそれらに対応する複数図形との対応付けは考慮されていない。従って、地物間の距離が画像の解像度より小さい場合、隣接する複数地物は一つのセグメントで表されるが、それら複数地物は図形データと対応付けられない。   With the prior art disclosed in the above-mentioned Japanese Patent Application Laid-Open No. 5-181411, the position of a new feature not described on the map cannot be specified. In addition, the association between a plurality of features obtained by collecting adjacent features and a plurality of figures corresponding to them is not considered. Therefore, when the distance between features is smaller than the resolution of the image, adjacent multiple features are represented by one segment, but these multiple features are not associated with graphic data.

また、画像から地物のエッジを抽出する手法については言及されておらず、図形に対応するエッジを抽出できない場合がある。また、画像を領域分割する際のしきい値の決定手法については言及されていない。領域分割しきい値は、画像に含まれる全ての地物に対して共通であって、地物毎に変えられない。従って、領域分割に失敗し、図形に対応するセグメントを抽出できないことがある。   Further, there is no mention of a technique for extracting the edge of a feature from an image, and there are cases where an edge corresponding to a figure cannot be extracted. Further, there is no mention of a method for determining a threshold value when an image is divided into regions. The area division threshold is common to all the features included in the image and cannot be changed for each feature. Therefore, the region division may fail and the segment corresponding to the graphic may not be extracted.

また、画像や写真をスキャナーなどを用いて入力、デジタル化する際の読み取り値設定方法については言及されていない。地物毎に異なる読み取り設定の画像を利用することはできない。また、図形情報を更新した結果の表示方法については言及されていない。   Further, there is no mention of a reading value setting method when inputting or digitizing an image or a photograph using a scanner or the like. Images with different reading settings for each feature cannot be used. Further, there is no mention of a method for displaying the result of updating the graphic information.

そこで、本発明の第1の目的は、地図に未記載の新規地物の位置を特定できる地図情報更新方法及び地図更新装置を提供することにある。   Accordingly, a first object of the present invention is to provide a map information updating method and a map updating apparatus capable of specifying the position of a new feature not described in a map.

また、本発明の第2の目的は、地物間の距離が画像の解像度より小さい場合に、隣接する複数地物は一つのセグメントで表されるが、それら複数地物を図形データとを対応付けることができ、一まとまりの複数地物を抽出できる地図情報更新方法及び地図更新装置を提供することにある。   A second object of the present invention is that when a distance between features is smaller than the resolution of the image, a plurality of adjacent features are represented by one segment, and the plurality of features are associated with graphic data. Another object of the present invention is to provide a map information updating method and a map updating apparatus that can extract a plurality of features in a batch.

また、本発明の第3の目的は、画像中の地物に照合した図形情報を利用して適切なエッジ抽出フィルタを選択し、図形に対応する地物のエッジを抽出することにより地物形状を抽出できる地図情報更新方法及び地図更新装置を提供することにある。   A third object of the present invention is to select an appropriate edge extraction filter using graphic information collated with a feature in an image and extract an edge of the feature corresponding to the graphic to obtain a feature shape. Is to provide a map information updating method and a map updating apparatus capable of extracting the information.

また、本発明の第4の目的は、画像中の地物に照合した図形情報を利用して地物毎に適切なしきい値で領域分割を行い、図形に対応する地物のセグメントを選択することにより地物形状を抽出できる地図情報更新方法及び地図更新装置を提供することにある。   A fourth object of the present invention is to perform segmentation with an appropriate threshold value for each feature using graphic information collated with the feature in the image, and select a segment of the feature corresponding to the graphic. The present invention provides a map information updating method and a map updating apparatus that can extract a feature shape.

また、本発明の第5の目的は、地物抽出のときに、個々の地物毎に入力、デジタル化時の適切な読み込み特性を持つ画像を利用できる地図情報更新方法及び地図更新装置を提供することにある。   A fifth object of the present invention is to provide a map information updating method and map updating apparatus that can use an image having an appropriate reading characteristic that is input and digitized for each feature when extracting features. There is to do.

また、本発明の第6の目的は、更新前の地図の情報を保存したまま、最小のデータ量の増加で、更新された地図を表示できる地図情報更新方法及び地図更新装置を提供することにある。   A sixth object of the present invention is to provide a map information updating method and a map updating apparatus capable of displaying an updated map with a minimum increase in data amount while preserving map information before updating. is there.

上記第1の目的を達成するために、地図DB内の図形をテンプレート化し、地図の図形とは未対応の領域においてテンプレートマッチングを繰り返し、マッチングする地物を見つけ出すことにより、地図に未記載の新規地物の位置を検出する図形テンプレート化手段および図形/地物マッチング手段を設けている。   In order to achieve the first object, a graphic in the map DB is made into a template, template matching is repeated in an area that does not correspond to the map graphic, and a matching feature is found to find a new feature not described in the map. A graphic template forming means for detecting the position of the feature and a graphic / feature matching means are provided.

また、上記第2の目的を達成するために、画像に重畳した隣接図形間の距離が1画素以下の場合に、これらの隣接する複数図形をまとめて1図形グループとし、対応する複数地物領域を抽出することにより、隣接地物をまとめた複数地物とそれらに対応する複数図形とを対応付ける隣接図形グループ化手段を設けている。   In order to achieve the second object, when the distance between adjacent graphics superimposed on the image is 1 pixel or less, these adjacent graphics are grouped together into one graphics group, and the corresponding multiple feature regions are collected. Is extracted, and adjacent graphic grouping means is provided for associating a plurality of features obtained by collecting adjacent features with a plurality of corresponding graphics.

また、上記第3の目的を達成するために、画像中の地物に照合した図形情報を利用して、エッジ位置、方向、幅を推定し、さらに適切なエッジ抽出フィルタを選択、抽出エッジから不適切なエッジを除去することにより、図形に対応する地物のエッジを抽出する図形対応エッジ抽出手段を設けている。   Further, in order to achieve the third object, the edge position, direction, and width are estimated using graphic information collated with the feature in the image, and an appropriate edge extraction filter is selected. A graphic corresponding edge extracting means for extracting an edge of a feature corresponding to the graphic by removing an inappropriate edge is provided.

また、上記第4の目的を達成するために、画像中の地物に照合した図形情報を利用して、地物毎に抽出したエッジもしくは重畳図形線分をセグメントがまたがらないように図形毎の領域分割しきい値を決定し、図形の形状情報を利用してセグメントを選択することにより、図形に対応する地物セグメントを抽出する図形対応セグメント抽出手段を設けている。   Further, in order to achieve the fourth object, the graphic information collated with the feature in the image is used to prevent the segment from straddling the edge or the superimposed graphic line segment extracted for each feature. There is provided a figure corresponding segment extracting means for extracting a feature segment corresponding to a figure by determining the region division threshold value and selecting a segment using the figure shape information.

また、上記第5の目的を達成するために、衛星や航空機により撮影された一枚の写真に対して、デジタル化時の読み込み特性の異なる画像を複数枚作成し、一つの画像で地物抽出に失敗した時には他の読み込み設定画像で再抽出することにより、地物毎にデジタル化時の適切な読み込み特性を持つ画像を利用する事を可能とする画像入力手段を設けている。   In addition, in order to achieve the fifth object, a plurality of images having different reading characteristics at the time of digitization are created for one photograph taken by a satellite or an aircraft, and feature extraction is performed with one image. The image input means is provided which makes it possible to use an image having an appropriate reading characteristic at the time of digitization for each feature by re-extracting with another reading setting image when it fails.

また、上記第6の目的を達成するために、更新前の地図の上に、地図の更新情報のみからなる地図を時系列順に重ねて表示する手段を設けている。   In order to achieve the sixth object, means for displaying a map composed only of map update information in a time-series order on a map before update is provided.

本発明は以上の構成を備えているので、地図に未記載の新規地物の位置を特定することにより、新規地物抽出が可能になる。   Since the present invention has the above-described configuration, it is possible to extract a new feature by specifying the position of a new feature not described in the map.

また、隣接地物をまとめた複数地物とそれらに対応する複数図形とを対応付けることにより、低解像のために一まとまりになった複数地物を抽出できる。 In addition, by associating a plurality of features in which adjacent features are grouped with a plurality of figures corresponding to them, a plurality of features combined for low resolution can be extracted.

また、地物のエッジ抽出のために適切なエッジ抽出フィルタを選択し、図形に対応する地物のエッジを抽出することにより、地物形状を抽出できる。   In addition, the feature shape can be extracted by selecting an appropriate edge extraction filter for extracting the feature edge and extracting the feature edge corresponding to the figure.

また、地物毎に自動決定したしきい値で領域分割を行い、図形に対応する地物のセグメントを選択することにより、地物形状を抽出できる。   Further, the feature shape can be extracted by performing region division with a threshold automatically determined for each feature and selecting a segment of the feature corresponding to the figure.

また、地物抽出のときに、個々の地物毎に、入力、デジタル化時の適切な読み込み特性を持つ画像を利用できる。   Also, when extracting features, an image having appropriate reading characteristics at the time of input and digitization can be used for each individual feature.

また、更新前の地図の情報を保存したまま、最小のデータ量の増加で、更新された地図を表示できる。   In addition, an updated map can be displayed with a minimum increase in the amount of data while pre-update map information is stored.

本発明は以上の構成を備えているので、地図DB内の既存図形をテンプレート化し、マッチングする地物を見つけ出すことにより、地図に未記載の新規地物の位置を特定することが可能となる。   Since the present invention has the above-described configuration, it is possible to specify the position of a new feature that is not described in the map by creating a template from an existing graphic in the map DB and finding a matching feature.

また、隣接図形グループ化することにより、グループ化された複数図形と、対応する一まとまりの複数地物との対応付けが可能となり、低解像のために一まとまりになった複数地物を抽出することが可能となる。 また、地物に照合した図形の情報から地物のエッジの位置、方向、幅を推定し、適切なエッジ抽出フィルタを選択することにより、地物のエッジを精度良く抽出することが可能となる。 In addition, by grouping adjacent figures , it is possible to associate multiple grouped figures with a corresponding set of multiple features, and to collect multiple sets of features together for low resolution. It becomes possible to extract. Further, it is possible to accurately extract the edge of the feature by estimating the position, direction, and width of the edge of the feature from the graphic information collated with the feature and selecting an appropriate edge extraction filter. .

また、地物のエッジや照合図形線分を利用することにより、画像領域分割しきい値を自動決定することが可能となる。さらに、図形形状の直交性や直線性に着目して、図形に対応する地物セグメントを抽出することが可能となる。これらの処理により、画像全領域に対して同一の領域分割しきい値を用いるのではなく、個々の地物に対して適切な領域分割しきい値を決定することが可能となる。   Further, it is possible to automatically determine the image region division threshold value by using the edge of the feature or the matching graphic line segment. Furthermore, it becomes possible to extract a feature segment corresponding to a graphic by paying attention to the orthogonality and linearity of the graphic shape. By these processes, it is possible to determine an appropriate area division threshold value for each feature, instead of using the same area division threshold value for the entire image area.

また、一枚の画像に対して、デジタル化時の読み込み特性の異なる画像を複数枚作成し、一つの画像で地物抽出に失敗した時に他の画像で再抽出することにより、地物毎に抽出時に最も適切な読込設値でデジタル化した画像を利用することが可能となる。
また、更新前の地図の上に、地図の更新情報のみからなる地図を時系列順に重ねて表示することにより、更新前の地図の情報を保存したまま、最小のデータ量の増加で、更新された地図を表示できる。
Also, by creating multiple images with different reading characteristics at the time of digitization for one image and reextracting with other images when feature extraction fails with one image, for each feature the most appropriate read setting values during extraction it is possible to use the digitized image.
In addition, by displaying a map consisting only of the map update information in chronological order on the map before update, the map is updated with the smallest increase in data volume while preserving the map information before update. Can display the map.

以上のことより、画像を利用した地図の自動更新が可能になり、地図更新にかかるユーザの負担や費用を軽減することが可能となる。   As described above, it is possible to automatically update the map using the image, and it is possible to reduce the burden and cost on the user for the map update.

以下、図を参照して本発明の実施形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態にかかる地図情報更新に関する機能構成例であり、図2は、地物の代表として建物を例に取った画像処理例である。 Figure 1 is a functional configuration example related to the map information update according to an embodiment of the present invention, FIG. 2 is an image processing example taken as an example building as a representative of a feature.

まず、入力部を説明する。
地図データベース(DBと記す)101は、上記方法が作用するシステムの内部、あるいは接続しているネットワーク上に存在する。また、地図データベース101は、図形102(図2の201)を含む。図形102は、(x,y)座標列からなるの平面数値地図、あるいは、(x,y,z)座標列からなる立体数値地図(以下地図と記す)であり、ともに、ベクトルデータ構造をしており、広い地域の地物の位置や形状情報、属性情報を含む。属性情報とは、建物や道路、田畑や裸地、草地、森といったいった図形に付属する情報である。また、図形の形状情報と属性情報を合わせて図形情報と呼ぶ。
First, the input unit will be described.
A map database (DB) 101 exists in the system in which the above method operates or on a connected network. The map database 101 includes a graphic 102 (201 in FIG. 2). The figure 102 is a two-dimensional numerical map composed of (x, y) coordinate sequences or a three-dimensional numerical map (hereinafter referred to as a map) composed of (x, y, z) coordinate sequences, and has a vector data structure. It includes position, shape information, and attribute information of features in a wide area. Attribute information is information attached to figures such as buildings, roads, fields, bare land, grassland, and forests. Further, the shape information of the figure and the attribute information are collectively referred to as figure information.

画像データベース(DBと記す)103も同様に、上記方法が作用するシステムの内部、あるいは接続しているネットワーク上に存在する。また、画像データベース103は、地物のデジタル画像(以下画像と記す)104を含む。ここでの、画像104のソースは、航空写真や衛画像であり、スキャナーなどを利用して入力、デジタル化される際に、1枚の画像は、設定1、設定2、…、設定nというように設定数分の画像として読み込まれる。また、画像104の中には、当該地域の道路や建物などの地物105を表す画像(図2の202)が含まれる。 Similarly, an image database (denoted as DB) 103 exists in the system in which the above method operates or on a connected network. The image database 103 includes a digital image (hereinafter referred to as an image) 104 of a feature. Here, the source image 104 is an aerial photograph or satellite image, input by using, for example a scanner, when digitized, one image is set 1, set 2, ..., set n Thus, it is read as the number of images set. Also, the image 104 includes an image (202 in FIG. 2) representing the feature 105 such as a road or a building in the area.

次に、処理部を説明する。地図/画像位置合わせ手段106は、図形変化検出時に、上記地図を射影変換して上記画像に重畳することにより地図の図形と画像中の対応地物を対応付ける。   Next, the processing unit will be described. The map / image positioning means 106 associates the map figure with the corresponding feature in the image by projective transforming the map and superimposing it on the image when detecting a graphic change.

隣接図形グループ化手段107は、画像に重畳した隣接図形間の距離が1画素以下の場合に、これらの隣接する複数図形をまとめて図形グループとし、隣接地物をまとめた複数地物とそれらに対応する、上記図形グループとを対応付ける。 これら結果、図形/地物画像照合図110(図2の203)が出力される。   When the distance between adjacent graphics superimposed on an image is 1 pixel or less, the adjacent graphic grouping means 107 collects these adjacent graphics into a graphic group, Corresponding to the corresponding graphic group. As a result, a figure / feature image collation diagram 110 (203 in FIG. 2) is output.

図形テンプレート化手段108は、新築された建物といった新規地物の検出のために、地図DB内の図形をテンプレート化する。   The graphic template forming means 108 forms a graphic in the map DB in order to detect a new feature such as a newly built building.

図形/地物マッチング手段109は、図形テンプレートを用いて、地図の図形とは未対応の領域においてテンプレートマッチングを繰り返し、マッチングする地物を見つけ出すことにより、地図に未記載の新規地物の位置を検出する。 これらの結果、図形/地物画像照合図110(図2の203)が出力される。   The figure / feature matching means 109 uses the figure template to repeat template matching in an area that does not correspond to the figure on the map, and finds the matching feature, thereby determining the position of the new feature not described in the map. To detect. As a result, a figure / feature image collation diagram 110 (203 in FIG. 2) is output.

図形/地物照合図110より、重畳した図形の形状より地物周辺領域を推定する。この結果、地物周辺領域抽出図(図2の204)が出力される。   From the figure / feature matching diagram 110, the feature peripheral area is estimated from the shape of the superimposed figure. As a result, a feature peripheral region extraction diagram (204 in FIG. 2) is output.

画像図形対応エッジ抽出手段111は、図形形状に対応する地物形状抽出時に、地物に照合した図形情報を利用して、エッジ位置、方向、幅を推定し、さらに適切なエッジ抽出フィルタを選択、抽出エッジから不適切なエッジを除去することにより、図形に対応する地物のエッジを抽出する。この結果、地物エッジ抽出図112(図2の205)が出力される。   The image figure corresponding edge extraction means 111 estimates the edge position, direction, and width using the figure information matched to the feature when extracting the feature shape corresponding to the figure shape, and selects an appropriate edge extraction filter. The edge of the feature corresponding to the figure is extracted by removing the inappropriate edge from the extracted edge. As a result, the feature edge extraction diagram 112 (205 in FIG. 2) is output.

図形対応セグメント抽出手段113は、画像中の地物に照合した図形情報を利用して、地物毎に抽出したエッジもしくは重畳図形線分をセグメントがまたがらないように図形毎に領域分割しきい値を決定し、図形の形状情報を利用してセグメントを選択することにより、図形に対応する地物セグメントを抽出する。この結果、地物セグメント抽出図114(図2の206)が出力される。   The figure-corresponding segment extracting means 113 uses the figure information collated with the feature in the image to segment the area for each figure so that the segment does not span the edge or the superimposed figure line segment extracted for each feature. A feature segment corresponding to the figure is extracted by determining a value and selecting a segment using shape information of the figure. As a result, the feature segment extraction diagram 114 (206 in FIG. 2) is output.

図形利用地物画素分類手段115は、地物の形状を抽出できないときに、照合した図形内の画素が地物を表す画素であるとして分類、抽出する。この結果、地物画素抽出図118(図2の207)が出力される。   When the shape of the feature cannot be extracted, the figure-use feature pixel classification means 115 classifies and extracts the pixel in the matched graphic as a pixel representing the feature. As a result, the feature pixel extraction diagram 118 (207 in FIG. 2) is output.

図形/地物形状対応判定手段117は、抽出された地物形状と図形形状とを比較し対応しているか否かを判定する。   The figure / feature shape correspondence determining means 117 compares the extracted feature shape with the graphic shape to determine whether or not they correspond.

図形/地物属性対応判定手段118は、抽出された地物を表す画素の特性値(明るさ、色相、彩度)やテクスチャの特徴と図形属性を比較し対応しているか否かを判定する。 これらの結果、図形変化情報119、新規地物情報120が出力される。   The figure / feature attribute correspondence determining means 118 compares the characteristic values (brightness, hue, saturation) of the pixel representing the extracted feature and the features of the texture with the graphic attributes, and determines whether they correspond. . As a result, graphic change information 119 and new feature information 120 are output.

最後に、出力部を説明する。
地図データベース121は前述の地図データベース101と同様の装置であり、処理部から出力された図形変化情報119、新規地物情報120に基き、あらたに情報更新図形122が格納される。
Finally, the output unit will be described.
The map database 121 is the same device as the map database 101 described above, and an information update graphic 122 is newly stored based on the graphic change information 119 and the new feature information 120 output from the processing unit.

時系列地図表示手段123は、更新前の地図の上に、情報更新図形122のみからなる地図を時系列順に重ねて表示する。   The time-series map display means 123 displays a map composed only of the information update graphic 122 on the pre-update map in chronological order.

図3は、地図情報更新方法における図形変化検出処理の手順を示すフローチャートである。以下、図3および図5から図8の処理解説図に従い、図形変化検出処理を説明する。   FIG. 3 is a flowchart showing the procedure of the graphic change detection process in the map information update method. Hereinafter, the graphic change detection process will be described with reference to the process explanatory diagrams of FIGS. 3 and 5 to 8.

なお、図5から図8の処理解説図においては地物の代表例として建物を用いているだけであり、以下の処理は建物に限定されない。   In addition, in the process explanatory diagrams of FIGS. 5 to 8, only buildings are used as representative features, and the following processes are not limited to buildings.

(Step 301) 更新すべき地図をシステムに入力する。   (Step 301) A map to be updated is input to the system.

(Step 302) 地図よりも新しい時期に撮影された衛星画像や航空写真などのリモートセンシング画像を用意し、読込設定数n分だけ読込を行い、n枚のデジタル画像としてシステムに入力する。   (Step 302) A remote sensing image such as a satellite image or aerial photograph taken at a newer time than the map is prepared, read by the read setting number n, and input to the system as n digital images.

例えば、輝度について複数の読込設定を設けて複数枚のデジタル画像とした場合の例を図5に示す。図5(a)の場合、原画像に対して、設定1(501)、設定2(502)、…、設定n(503)と変わるにつれ、原画像の低輝度部分の輝度階調が細かく、原画像の高輝度部分の輝度階調が粗いデジタル画像となる。読込設定に従い、同一の建物も建物画像504、建物画像505、…、建物画像506というように変化していく。   For example, FIG. 5 shows an example in which a plurality of reading settings for luminance are provided to form a plurality of digital images. In the case of FIG. 5A, as the setting changes from setting 1 (501), setting 2 (502),..., Setting n (503) to the original image, the luminance gradation of the low luminance portion of the original image becomes finer. A digital image with a rough luminance gradation in a high luminance portion of the original image is obtained. According to the reading setting, the same building also changes to a building image 504, a building image 505,.

逆に、図5(b)の場合、原画像に対して、設定1(507)、設定2(508)、…、設定n(509)と変わるにつれ、原画像の低輝度部分の輝度階調が粗く、原画像の高輝度部分の輝度階調が細かいデジタル画像となる。   On the other hand, in the case of FIG. 5B, the luminance gradation of the low-luminance portion of the original image is changed as setting 1 (507), setting 2 (508),..., Setting n (509) is changed with respect to the original image. Is a digital image with a coarse luminance and a fine luminance gradation in the high luminance portion of the original image.

ここでは、輝度を例としたが、カラー画像であれば、RGB各成分について同様のことを行ってもよく、また、彩度や色相について同様のことを行ってもよい。読込設定曲線についても、検出対象となる地物画像の特徴に応じて、ユーザが自由に設定できる。   Here, the luminance is taken as an example, but in the case of a color image, the same may be performed for each of the RGB components, and the same may be performed for the saturation and the hue. The reading setting curve can be set freely by the user according to the feature of the feature image to be detected.

(Step 303) 地図と画像とから対応点を選び、地図座標と画像座標間の座標変換係数を求めることにより、地図と画像を重畳し照合する。   (Step 303) Corresponding points are selected from the map and the image, and a coordinate conversion coefficient between the map coordinates and the image coordinates is obtained, thereby superimposing and collating the map and the image.

ここで、地図の幾何変換のために画像座標と地図座標の関係を考える。地図と画像の関係は,地図座標から画像座標への射影変換で表される。   Here, the relationship between image coordinates and map coordinates is considered for map geometric transformation. The relationship between a map and an image is represented by projective transformation from map coordinates to image coordinates.

地図座標( X,Y )と画像座標( u v )の関係は、 The relationship between the map coordinates (X, Y) and the image coordinates (u v) is

Figure 0004103898
Figure 0004103898

と表される。地図座標点( Xi,Yi )に対応する画像座標点( ui,vi )が分かれば,最小二乗法で座標変換係数C11からC32を求めることが可能である。 It is expressed. Map coordinate point (Xi, Yi) image coordinate point corresponding to the (ui, vi) if is known, it is possible to determine the C 32 from the coordinate transformation coefficient C 11 by the least squares method.

(Step 304) 変化検出対象となる全図形について図形グループ化処理(Step 305, Step 306)を行う。   (Step 304) The graphic grouping process (Step 305, Step 306) is performed for all the figures to be detected.

図6に例示するように、建物間の距離D601が画像の解像度より小さい場合、隣接する建物602と建物603とは一つのセグメント604で表される。この、一つのセグメントとなった複数建物604は、建物図形605、606と個別に対応付けることはできない。このように低解像のために一まとまりになった複数地物を抽出するためには、隣接地物をまとめた複数地物とそれらに対応する複数図形とを対応付けることが必要となる。   As illustrated in FIG. 6, when the distance D601 between buildings is smaller than the resolution of the image, the adjacent building 602 and the building 603 are represented by one segment 604. The plurality of buildings 604 that become one segment cannot be individually associated with the building figures 605 and 606. In order to extract a plurality of features that are grouped for low resolution in this way, it is necessary to associate a plurality of features that are a collection of adjacent features and a plurality of figures corresponding to them.

(Step 305) 建物図形606と建物図形607との距離d605と画像の解像度を比較する。   (Step 305) The distance d605 between the building figure 606 and the building figure 607 is compared with the resolution of the image.

(Step 306) 図形間の距離d605が画像解像度より小さい場合、これらの図形をグループ化する。図形606と図形608とがグループ化された複数図形608と、一つのセグメントとなった複数建物604とを対応付ける。   (Step 306) When the distance d605 between figures is smaller than the image resolution, these figures are grouped. A plurality of figures 608 in which the figure 606 and the figure 608 are grouped and a plurality of buildings 604 formed as one segment are associated with each other.

このように、隣接図形間の距離が1画素以下の場合に、対応する画像中の隣接地物は一つのセグメントになっていると推定される。隣接図形のグループ化により、グループ化された複数図形と、対応する一まとまりの複数地物との対応付けが可能となる。   Thus, when the distance between adjacent figures is 1 pixel or less, it is estimated that the adjacent feature in a corresponding image is one segment. By grouping adjacent figures, it is possible to associate a plurality of grouped figures with a corresponding group of features.

(Step 307) 街区などの複数図形グループ単位で図形/地物位置合わせ補正を行う。さらに各図形グループ単位で図形/地物位置合わせ補正を行い、図形グループと地物を照合し、図形と地物が位置合わせされて重ね合わされた図形/地物画像照合図(図2の203)を作成する。   (Step 307) Perform figure / feature alignment correction in units of multiple figure groups such as a block. Furthermore, figure / feature alignment correction is performed for each figure group unit, figure group and feature are collated, figure / feature image collation diagram in which figure and feature are aligned and superimposed (203 in FIG. 2) Create

位置合わせ補正手法は、画像に重ね合わせた図形を平行移動しつつ、画像とのマッチングをとり、最もマッチングする位置を探すことによる。複数図形グループ単位で大きく補正した後、各図形グループで小さく補正することにより、類似形状の隣接地物と照合されることはない。位置合わせの補正を行うので、地表面の起伏のために地物の位置がずれて、単に重畳しただけでは図形と合わない場合でも、正確な位置合わせによる照合が可能となる。   The alignment correction method is based on searching for the most matching position by matching the image while moving the figure superimposed on the image in parallel. After making large corrections in units of multiple graphic groups and then making small corrections in each graphic group, matching with adjacent features of similar shapes is not possible. Since the alignment is corrected, the position of the feature is shifted due to the undulation of the ground surface, and even if it does not match the figure simply by superimposition, it is possible to perform collation by accurate alignment.

(Step 308) 変化検出対象となる全図形グループについて変化判定処理(Step 309〜Step 325)を行う。   (Step 308) The change determination process (Steps 309 to 325) is performed for all the graphic groups to be changed.

(Step 309) 画像の読込枚数分だけ(Step 310〜Step 325)の処理により地物を抽出する。図形グループに対応する地物セグメントが抽出された時点で処理終了(Step 322)とする。地物セグメント抽出の失敗時は、別設定画像を用いて再処理(Step 324)を行う。全画像において図形対応地物が抽出されない場合は図形変化と判定して処理を終了(Step 325)とする。   (Step 309) The features are extracted by the processing (Step 310 to Step 325) for the number of images to be read. When the feature segment corresponding to the graphic group is extracted, the processing ends (Step 322). When the feature segment extraction fails, re-processing (Step 324) is performed using another setting image. If no figure-corresponding feature is extracted from all the images, it is determined that the figure has changed, and the process ends (Step 325).

このように、一枚の画像に対して、デジタル化時の読み込み特性の異なる画像を複数枚作成し、一つの画像で地物抽出に失敗した時に他の画像で再抽出することにより、個々の地物に対して最も適切な読込設値でデジタル化した画像を利用することが可能となる。 In this way, by creating a plurality of images with different reading characteristics at the time of digitization for one image and reextracting with other images when feature extraction fails with one image, individual images can be obtained. it is possible to use the digitized image in the most appropriate read set value to the feature.

(Step 310) 変化検出対象図形が形状抽出可能であるか属性により判定する。変化検出対象図形が、建物のような明確な形状を持つ地物である場合、(Step 311〜Step 325)の形状および属性変化判定による図形変化判定処理を行う。変化検出対象図形が、森林のように明確な形状を持たない地物である場合、(Step 320〜Step 325)の属性変化判定による図形変化判定処理を行う。形状抽出を行うか否かは、ユーザの指示により判定してもよい。   (Step 310) It is determined according to the attribute whether the shape of the change detection target figure can be extracted. When the change detection target figure is a feature having a clear shape such as a building, the figure change determination process is performed by the shape and attribute change determination of (Step 311 to Step 325). When the change detection target graphic is a feature having no clear shape such as a forest, graphic change determination processing is performed by attribute change determination in (Step 320 to Step 325). Whether or not to perform shape extraction may be determined by a user instruction.

(Step 311) 照合図形の範囲に、図形座標誤差、画像解像度、図形と地物の照合誤差を考慮した範囲を加えた領域内に、地物は存在すると推定し、地物周辺領域抽出図(図2の204)を出力する。   (Step 311) Estimate that the feature exists in the area of the matching figure range plus the range that takes into account the figure coordinate error, image resolution, and figure and feature matching error. 204) of FIG. 2 is output.

(Step 312) 図7に例示するように、照合された図形の全線分について対応するエッジを抽出することにより(Step 313〜Step 315)、地物エッジ抽出図(図2の205)を作成する。 (Step 312) As illustrated in FIG. 7, a feature edge extraction diagram (205 in FIG. 2) is created by extracting corresponding edges for all line segments of the matched figure (Steps 313 to 315). .

(Step 313) 建物画像701に重畳した建物図形702における線分703を中心として図形座標誤差、画像解像度、図形と地物の照合誤差を考慮した範囲内704に、線分に対応するエッジは位置すると推定する。これをエッジ周辺領域704とする。エッジ抽出処理に先立ち、予め、エッジの方向、および、幅を幾つかに分類して、それらに応じたエッジ抽出フィルタを作成しておく。図形線分703の方向から、エッジの方向を推定し、図形の属性、画像解像度よりエッジ幅の大きさを推定し、準備したフィルタの中から適切なフィルタを選択する。図7の例であれば、エッジの方向を8方向に分類して、それぞれの方向に対するフィルタ705を用意しておき、線分の方向から推測されるエッジの方向から、対応するフィルタ706を選択する。   (Step 313) The edge corresponding to the line segment is located within the range 704 in consideration of the figure coordinate error, the image resolution, and the matching error between the figure and the feature around the line segment 703 in the building figure 702 superimposed on the building image 701. I guess. This is referred to as an edge peripheral region 704. Prior to the edge extraction process, the edge direction and width are classified in advance and an edge extraction filter corresponding to them is created. The direction of the edge is estimated from the direction of the graphic line segment 703, the size of the edge width is estimated from the graphic attribute and the image resolution, and an appropriate filter is selected from the prepared filters. In the example of FIG. 7, the edge directions are classified into eight directions, filters 705 for each direction are prepared, and the corresponding filter 706 is selected from the edge directions estimated from the direction of the line segment. To do.

(Step 314) エッジ周辺領域704において、選択したフィルタ706を利用してエッジ707を抽出する。   (Step 314) In the edge peripheral region 704, the edge 707 is extracted using the selected filter 706.

(Step 315) 抽出されたエッジ707において、図形線分に平行方向の長さがしきい値より小さいものを除去して、ノイズを除去したエッジ708とする。   (Step 315) Of the extracted edges 707, those whose length in the direction parallel to the graphic line segment is smaller than the threshold value are removed to obtain the edge 708 from which noise has been removed.

(Step 313〜Step 315)のように、照合図形の情報を利用することにより、地物のエッジの位置、方向、幅を推定し、さらに、適切なエッジ抽出フィルタを選択して使用することにより、線分に対応する地物のエッジを抽出することが可能となる。   As in (Step 313 to Step 315), by using the matching graphic information, the position, direction, and width of the edge of the feature are estimated, and further, an appropriate edge extraction filter is selected and used. It is possible to extract the edge of the feature corresponding to the line segment.

(Step 316) (Step 311)において推定された地物周辺領域(図2の204)おいて、図8に例示するように、建物画像801を領域分割して生じたセグメントが、(Step 312〜Step 315)により抽出したエッジ802をまたがらないような領域分割しきい値のうち、その最大値を領域分割しきい値とする。エッジの代わりに重畳した図形線分を利用して同様の処理を行うことも可能である。 (Step 316) Oite the estimated feature peripheral region (204 in FIG. 2) in (Step 311), as illustrated in FIG. 8, the segments produced building image 801 and area division, (Step 312 Among the region division threshold values that do not cross the edge 802 extracted in Step 315), the maximum value is set as the region division threshold value. It is also possible to perform the same processing using the superimposed graphic line segment instead of the edge.

(Step 317) 地物周辺領域において、決定された領域分割しきい値を用いて領域分割処理を行い、セグメント803に分割する。   (Step 317) In the region around the feature, region division processing is performed using the determined region division threshold value, and the region is divided into segments 803.

(Step 318) 画像領域分割処理の結果生じた各セグメント803のうち地物(図8では建物)を表すセグメントを抽出し、地物セグメント抽出図(図2の206)を作成する。   (Step 318) A segment representing a feature (a building in FIG. 8) is extracted from each segment 803 generated as a result of the image region dividing process, and a feature segment extraction diagram (206 in FIG. 2) is created.

抽出エッジの図形内部側に隣接するセグメントは確定セグメント804とし、エッジが抽出されなかった部分のセグメントは選択セグメント805とする。照合図形の直交性が高いならば、確定セグメントと選択セグメントとを組み合わせたセグメント全体として直交性が最大になるように選択セグメントを選ぶ。対応地物の直線性が高いならば、確定セグメントと選択セグメントとを組み合わせたセグメント全体の周囲長が最短になるように選択セグメントを選ぶ。この結果、地物セグメント806が抽出される。   The segment adjacent to the extracted edge inside the figure is defined segment 804, and the segment where the edge is not extracted is selected segment 805. If the collation graphic has a high orthogonality, the selected segment is selected so that the orthogonality is maximized as a whole segment combining the determined segment and the selected segment. If the linearity of the corresponding feature is high, the selected segment is selected so that the entire perimeter of the combined segment of the confirmed segment and the selected segment is the shortest. As a result, the feature segment 806 is extracted.

(Step 316〜Step 318)のように、地物のエッジや照合図形線分を利用することにより、画像領域分割しきい値を自動決定することが可能となる。さらに、図形形状の直交性や直線性に着目して、図形に対応する地物セグメントを抽出することが可能となる。   As in (Step 316 to Step 318), it is possible to automatically determine the image region division threshold by using the edge of the feature or the matching graphic line segment. Furthermore, it becomes possible to extract a feature segment corresponding to a graphic by paying attention to the orthogonality and linearity of the graphic shape.

また、これらの処理により、画像全領域に対して同一の領域分割しきい値を用いるのではなく、個々の地物に対して適切な領域分割しきい値を決定することが可能である。   Also, with these processes, it is possible to determine an appropriate region division threshold value for each feature, instead of using the same region division threshold value for the entire image region.

(Step 319) 抽出セグメント領域の形状や属性と、図形の形状や属性とが対応するかを判定する。   (Step 319) It is determined whether the shape and attribute of the extracted segment area correspond to the shape and attribute of the figure.

抽出セグメントの属性は、セグメントのテクスチャより推定する。対応判定条件は、図形と抽出セグメントとの面積比、重なりの程度、属性の一致、抽出セグメントの重心位置、抽出セグメントと他の図形との重なりによる。   The attribute of the extracted segment is estimated from the texture of the segment. The correspondence determination condition depends on the area ratio between the graphic and the extracted segment, the degree of overlap, the attribute match, the barycentric position of the extracted segment, and the overlap between the extracted segment and another graphic.

(Step 320) 地物の形状を抽出できない場合は、地物形状を照合図形の形状で代用することにより、図形内画素を地物を表す画素であるとして切り出し、図形内画素抽出図(図2の207)を作成する。   (Step 320) If the shape of the feature cannot be extracted, the feature shape is substituted with the shape of the matching figure, so that the pixel in the figure is extracted as a pixel representing the feature, and the pixel extraction diagram in the figure (FIG. 2). 207).

(Step 321) 抽出画素領域の属性と図形の属性の一致判定により、図形と抽出領域が対応するか判定する。抽出画素領域の属性はテクスチャより推定する。   (Step 321) It is determined whether or not the figure corresponds to the extracted area by determining whether the attribute of the extracted pixel area matches the attribute of the figure. The attribute of the extracted pixel area is estimated from the texture.

(Step 322) 図形と抽出領域が対応すると判定された場合は、図形に対応する地物が存在するとして図形存続と判定する。処理結果を地図DBに格納する。   (Step 322) If it is determined that the figure corresponds to the extraction area, it is determined that the figure exists because the feature corresponding to the figure exists. The processing result is stored in the map DB.

(Step 323) 図形と抽出領域が対応しないと判定された場合は、対応地物抽出に失敗、あるいは、図形に対応する地物が存在しないとする。   (Step 323) If it is determined that the figure does not correspond to the extraction area, it is assumed that the corresponding feature extraction has failed or there is no feature corresponding to the figure.

(Step 324) 別設定の画像がある場合は、別設定画像を用いて再処理(Step 310〜)を行う。   (Step 324) If there is an image with another setting, reprocessing (Step 310 and subsequent steps) is performed using the other setting image.

(Step 325) 別設定の画像がない場合は、全ての設定画像において対応地物抽出失敗ということである。この場合は、図形に対応する地物が存在しないと判断して図形変化と判定する。そして、処理結果を地図DBに格納する。   (Step 325) When there is no image of another setting, it means that corresponding feature extraction has failed in all setting images. In this case, it is determined that there is no feature corresponding to the graphic, and the graphic change is determined. Then, the processing result is stored in the map DB.

次に、図4のフローチャート、および図9の処理解説図に従い、新規地物検出処理を説明する。なお、図形変化検出処理の説明時と同様に、図9の処理解説図においては地物の代表例として建物を用いているだけであり、以下の処理は建物に限定されない。   Next, the new feature detection process will be described with reference to the flowchart of FIG. 4 and the process explanatory diagram of FIG. Similarly to the description of the graphic change detection process, the process explanatory diagram of FIG. 9 merely uses a building as a representative example of the feature, and the following process is not limited to the building.

(Step 401) 図形変化検出時(図3のStep301)と同様に、更新すべき地図をシステムに入力する。   (Step 401) The map to be updated is input to the system in the same manner as when the figure change is detected (Step 301 in FIG. 3).

(Step 402) 図形変化検出時(図3のStep302)と同様に、衛星画像や航空写真などのリモートセンシング画像を複数枚のデジタル画像としてシステムに入力する。   (Step 402) As in the case of detecting a graphic change (Step 302 in FIG. 3), remote sensing images such as satellite images and aerial photographs are input to the system as a plurality of digital images.

(Step 403) 新規地物の存在領域を推定する。新規地物の存在領域は、地図と画像との照合図において、図形変化検出処理により抽出された地物セグメントの存在領域以外、あるいは、対象地物に照合された図形の存在領域以外とする。   (Step 403) Estimate the existence area of new features. The new feature existence area is assumed to be other than the existence area of the feature segment extracted by the graphic change detection process or other than the existence area of the figure collated with the target feature in the collation diagram of the map and the image.

(Step 404) 地図データベース内の新規地物に対応する全図形(新規地物と同様の属性を持つ全図形)について図形をテンプレート化し、地物検出処理(Step 405〜Step 421)を行う。処理は、図形の存在確の高い順に行うものとする。存在確率がわからない場合は、図形面積の大きな順に処理してもよい。テンプレート化する図形には、地図に記載され画像に照合された既存の図形に加えて、その他の代表的な地物形状、属性を表す図形も含まれる。また、これらの図形を、拡大、縮小、回転、変形した図形も含まれる。 (Step 404) Templates are created for all figures corresponding to new features in the map database (all figures having the same attributes as the new features), and feature detection processing (Steps 405 to 421) is performed. Processing shall be performed with high presence probability figure forward. If the existence probability is unknown, the processing may be performed in descending order of the graphic area. The graphics to be templated include graphics representing other typical feature shapes and attributes in addition to the existing graphics described on the map and collated with the image. Moreover, the figure which expanded, reduced, rotated, and deform | transformed these figures is also contained.

(Step 405) 図9に例示するように、図形901を図形テンプレート902とする。図9の場合は、建物図形であるので、テンプレートが建物図形内部と外部の輝度差を出力するように+値と−値の成分を配列している。   (Step 405) As illustrated in FIG. In the case of FIG. 9, since it is a building graphic, + value and -value components are arranged so that the template outputs a luminance difference between the inside and the outside of the building graphic.

(Step 406) 新規地物存在領域903において、図形テンプレート902を用いたテンプレートマッチングを行い、テンプレートの一致位置904を探索する。マッチング位置において、対象地物が存在する可能性があるとして図形/地物照合図(図2の203)を作成する。   (Step 406) In the new feature existence region 903, template matching using the graphic template 902 is performed to search for a template matching position 904. A graphic / feature matching diagram (203 in FIG. 2) is created assuming that there is a possibility that the target feature exists at the matching position.

(Step 407) テンプレートの一致位置数分だけ、(Step 408〜Step 421)の地物抽出処理を行う。   (Step 407) The feature extraction process of (Step 408 to Step 421) is performed for the number of matching positions of the template.

(Step 408) 画像の枚数分だけ(Step 409〜Step 421)の処理により地物抽出を行う。図形に対応する地物セグメントが抽出された時点で処理終了(Step 418)とする。地物セグメント抽出失敗時は、別設定画像を用いて再処理(Step 420)を行う。全画像において図形対応地物が抽出されない場合は、地物は存在しないと判定して処理を終了(Step 421)する。   (Step 408) Feature extraction is performed by the processing of (Step 409 to Step 421) for the number of images. When the feature segment corresponding to the figure is extracted, the processing ends (Step 418). When the feature segment extraction fails, re-processing (Step 420) is performed using another setting image. When the figure-corresponding feature is not extracted from all the images, it is determined that the feature does not exist, and the processing is ended (Step 421).

(Step 409〜Step 417) 図形変化検出時(図3のStep 311〜Step 319)と同様の地物セグメント抽出処理を行う。   (Step 409 to Step 417) The same feature segment extraction processing as that at the time of figure change detection (Step 311 to Step 319 in FIG. 3) is performed.

(Step 418) 図形と抽出セグメントが対応すると判定された場合は、図形に対応する地物が存在するとして新規地物出現と判定し、処理結果を地図DBに格納する。   (Step 418) If it is determined that the figure corresponds to the extracted segment, it is determined that a feature corresponding to the figure exists and a new feature appears, and the processing result is stored in the map DB.

(Step 404〜Step 418)以上のように、地図DB内の既存図形をテンプレート化し、マッチングする地物を見つけ出すことにより、地図に未記載の新規地物の位置を特定することが可能となる。 (Step 404~Step 418) As described above, the template of existing shapes in the map DB, by finding a feature matching, we are possible to specify the position of the new feature not described in the map.

(Step 419) 図形と抽出セグメントが対応しないと判定された場合は、図形対応地物抽出に失敗、あるいは、図形に対応する地物が存在しないとする。   (Step 419) If it is determined that the figure does not correspond to the extracted segment, it is assumed that the figure-corresponding feature extraction has failed or the feature corresponding to the figure does not exist.

(Step 420) 別設定の画像がある場合は、別設定画像を用いて再処理(Step 409〜)を行う。   (Step 420) If there is an image with another setting, reprocessing (Steps 409 and after) is performed using the other setting image.

(Step 421) 別設定の画像がない場合は、全設定画像において地物抽出失敗ということである。この場合は、図形に対応する地物が存在しないと判定する。   (Step 421) When there is no image of another setting, it means that the feature extraction has failed in all the setting images. In this case, it is determined that there is no feature corresponding to the figure.

最後に、図10を参照して、更新された地図の表示方法について説明する。   Finally, with reference to FIG. 10, the display method of the updated map is demonstrated.

地図1007は更新前の地図であり、道路図形や建物図形1008を含む。ここでは他の図形は省略してある。この地図1007は1998年12月の時点での地物の情報を表示しているとする。 A map 1007 is a map before update, and includes road figures and building figures 1008. Other figures are omitted here. It is assumed that this map 1007 displays feature information as of December 1998.

地図1004は、1998年12月から1999年1月の間に更新された図形情報を表示しており、この間に新たに出現した物図形1005や、消滅した建物図形1006を含む。   The map 1004 displays graphic information updated between December 1998 and January 1999, and includes an object graphic 1005 that has newly appeared and a building graphic 1006 that has disappeared during this time.

地図1001は、1999年1月から1999年2月の間に更新された図形情報を表示しており、この間に新たに出現した物図形1002や、消滅した建物図形1003を含む。   The map 1001 displays graphic information updated between January 1999 and February 1999, and includes a newly appearing object graphic 1002 and an extinguished building graphic 1003.

地図1009は、更新前の地図1007に、更新情報のみからなる地図1004、1001を時系列順に重ねて表示した地図であり、1998年12月以降の地物の状態を表示している。このようにして、更新前の地図の情報を保存したまま、最小のデータ量の増加で、更新された地図を表示することができる。   A map 1009 is a map in which maps 1004 and 1001 consisting only of update information are superimposed on a map 1007 before update and displayed in chronological order, and displays the state of features after December 1998. In this way, an updated map can be displayed with a minimum increase in the amount of data while preserving the map information before the update.

本発明にかかる地図情報更新システムの機能構成図である。It is a functional block diagram of the map information update system concerning this invention. 地図情報更新システムの画像処理例である。It is an image processing example of a map information update system. 本発明にかかる図形変化検出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the figure change detection process concerning this invention. 本発明にかかる新規地物検出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the novel feature detection process concerning this invention. 入力デジタル画像読込の解説図である。It is explanatory drawing of input digital image reading. 図形グループ化の解説図である。It is explanatory drawing of figure grouping. 地物エッジ抽出の解説図である。It is explanatory drawing of a feature edge extraction. 地物セグメント抽出の解説図である。It is explanatory drawing of feature segment extraction. 図形テンプレート化の解説図である。It is explanatory drawing of figure template formation. 地図更新結果の表示例である。It is a display example of a map update result.

符号の説明Explanation of symbols

101……地図DB 102……図形 103……画像DB 104……画像(設定1)…(設定n) 105……地物 106……地図/画像位置合わせ手段 107……隣接図形グループ化手段 108……図形テンプレート化手段 109……図形/地物マッチング手段 110……図形/地物画像照合図 111……図形対応エッジ抽出手段 112……地物エッジ抽出図 113……図形対応セグメント抽出手段 114……地物セグメント抽出図 115……図形利用地物画素分類手段 116……図形内画素抽出図 117……図形/地物形状対応判定手段 118……図形/地物属性対応判定手段 119……図形変化情報 120……新規地物情報 121……地図DB 122……情報更新図形 123……時系列地図表示手段。 101 …… Map DB 102 …… Figure 103 …… Image DB 104 …… Image (Setting 1)… (Setting n) 105 …… Features 106 …… Map / image alignment means 107 …… Adjacent figure grouping means 108 ...... Figure template forming means 109 ...... Figure / feature matching means 110 ...... Figure / feature image collation diagram 111 ...... Figure corresponding edge extraction means 112 ...... Feature edge extraction diagram 113 ...... Figure corresponding segment extraction means 114 …… Feature segment extraction diagram 115 ...... Graphic feature feature pixel classification means 116 …… Pixel pixel extraction diagram 117 …… Graph / feature shape correspondence determining means 118 …… Graphic / feature attribute correspondence determining means 119 …… Figure change information 120 …… New feature information 121 …… Map DB 122 …… Information update figure 123 …… Time series map display Step.

Claims (6)

(X,Y)座標列からなる平面数値地図あるいは(X,Y,Z)座標列からなる立体数値地図を記録するデータベースと、
上記地図を射影変換して上記変換された地図と地域を撮影した静止画像とを重畳する位置合わせ手段と、
上記重畳された地図の建物図形の線分に対応するエッジが位置すると推定したエッジ周辺領域を選択し、上記エッジ周辺領域に含まれる線分の方向からエッジの方向を推定し、上記エッジの方向の推定結果に基づいて選択されたフィルタを用いて上記エッジ周辺領域における上記地図の建物図形に重畳される上記静止画像の建物のエッジを抽出するエッジ抽出手段と、
上記建物のエッジに基づき、上記地図の建物図形に対応する静止画像上の地物セグメントを抽出する手段と、
上記地図の建物図形と上記静止画像の地物セグメントとを比較し、対応しているか否かを判定する対応判定手段とを有することを特徴とする地図処理装置。
A database that records a planar numerical map composed of (X, Y) coordinate sequences or a three-dimensional numerical map composed of (X, Y, Z) coordinate sequences;
Alignment means for projectively converting the map and superimposing the converted map and a still image obtained by photographing the area;
Select the edge peripheral area where the edge corresponding to the line segment of the building figure of the superimposed map is located, estimate the direction of the edge from the direction of the line segment included in the edge peripheral area, and the direction of the edge Edge extracting means for extracting the edge of the building of the still image to be superimposed on the building figure of the map in the peripheral region of the edge using a filter selected based on the estimation result of
Based on the edge of the building, it means for extracting the feature segments on the still image corresponding to the building geometry of the map,
A map processing apparatus, comprising: a correspondence determination unit that compares the building figure of the map with the feature segment of the still image and determines whether or not it corresponds.
上記エッジ抽出手段は、上記建物図形の属性、上記静止画像の解像度からエッジ幅の大きさも推定することを特徴とする請求項1記載の地図処理装置。 The map processing apparatus according to claim 1, wherein the edge extraction unit also estimates the size of the edge width from the attribute of the building graphic and the resolution of the still image. 上記位置合わせ手段は、複数の図形を有するグループ単位で上記静止画像と上記地図を位置合わせ補正し、さらに上記各図形について位置合わせ補正して上記重畳を行うことを特徴とする請求項1又は2に記載の地図情報更新装置。   3. The registration unit according to claim 1 or 2, wherein the registration unit corrects registration of the still image and the map in a group unit having a plurality of graphics, and further performs registration correction for each of the graphics to perform the superposition. The map information update device described in 1. 上記地物のセグメント抽出手段は、上記静止画像中の建物毎に、上記エッジ抽出手段によって抽出されたエッジをまたがない領域分割のしきい値を設定し、該しきい値に基づいて領域分割を行って図形対応セグメントを抽出することを特徴とする請求項1乃至3の何れかに記載の地図情報更新装置。 The feature segment extraction means sets a threshold value for area division that does not extend over the edge extracted by the edge extraction means for each building in the still image, and performs area division based on the threshold value. The map information updating apparatus according to claim 1, wherein a graphic corresponding segment is extracted. 上記地図中の建物図形をテンプレート化する図形テンプレート化手段と、
上記図形テンプレートを用いたマッチングによって上記静止画像中の地図と未対応領域から新規建物を検出するテンプレートマッチング手段とを更に有することを特徴とする請求項1乃至4の何れかに記載の地図処理装置。
A figure template forming means for making a building figure in the map into a template;
5. The map processing apparatus according to claim 1, further comprising a template matching unit that detects a new building from a map in the still image and an uncorresponding region by matching using the graphic template. .
前記地図の建物図形は、属性情報を用いて判定された建物であることを特徴とする請求項1記載の地図処理装置。 Building shapes of the map, the map processor according to claim 1, characterized in that the building is determined using the attribute information.
JP2005114068A 2005-04-12 2005-04-12 Map information updating method and map updating apparatus Expired - Fee Related JP4103898B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005114068A JP4103898B2 (en) 2005-04-12 2005-04-12 Map information updating method and map updating apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005114068A JP4103898B2 (en) 2005-04-12 2005-04-12 Map information updating method and map updating apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP12125699A Division JP4088386B2 (en) 1999-04-28 1999-04-28 How to update map information

Publications (2)

Publication Number Publication Date
JP2005234603A JP2005234603A (en) 2005-09-02
JP4103898B2 true JP4103898B2 (en) 2008-06-18

Family

ID=35017535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005114068A Expired - Fee Related JP4103898B2 (en) 2005-04-12 2005-04-12 Map information updating method and map updating apparatus

Country Status (1)

Country Link
JP (1) JP4103898B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4791998B2 (en) * 2006-04-12 2011-10-12 株式会社東芝 Pattern shape evaluation method and program
JP5134792B2 (en) 2006-08-01 2013-01-30 株式会社パスコ Map information update support device, map information update support method, and map information update support program
JP4378571B2 (en) 2007-05-31 2009-12-09 Necシステムテクノロジー株式会社 MAP CHANGE DETECTION DEVICE, MAP CHANGE DETECTION METHOD, AND PROGRAM
US8682064B2 (en) 2008-11-25 2014-03-25 Nec System Technologies, Ltd. Building change detection apparatus, building change detection method and program
JP5768719B2 (en) * 2010-01-06 2015-08-26 日本電気株式会社 Learning device, identification device, learning identification system, and learning identification device
JP6419327B2 (en) * 2015-05-26 2018-11-07 三菱電機株式会社 Map drawing apparatus and map drawing method
KR101558467B1 (en) 2015-07-28 2015-10-12 (주)한성개발공사 System for revising coordinate in the numerical map according to gps receiver
KR101578822B1 (en) * 2015-07-28 2015-12-21 (주)동광지엔티 Recovering apparatus using the coordinated aerial oblique image for 3d-texture on the 2d-image
US11408740B2 (en) 2016-05-30 2022-08-09 Mitsubishi Electric Corporation Map data update apparatus, map data update method, and computer readable medium
KR102137471B1 (en) * 2018-11-23 2020-07-24 주식회사 모디엠 Map auto-editing system and method based on Feature Database
JP7369653B2 (en) 2020-03-26 2023-10-26 株式会社タダノ Guide display system and cranes equipped with it

Also Published As

Publication number Publication date
JP2005234603A (en) 2005-09-02

Similar Documents

Publication Publication Date Title
JP4103898B2 (en) Map information updating method and map updating apparatus
JP4172941B2 (en) Land parcel data creation method and apparatus
US7616828B2 (en) Geospatial modeling system providing geospatial model data target point filtering based upon radial line segments and related methods
JP4521235B2 (en) Apparatus and method for extracting change of photographed image
CN108961286B (en) Unmanned aerial vehicle image segmentation method considering three-dimensional and edge shape characteristics of building
Grigillo et al. Automated building extraction from IKONOS images in suburban areas
JP4131930B2 (en) Map update program and map update device
JP2001143054A (en) Satellite image-processing method
JP2019207535A (en) Information processing apparatus, information processing method, and program
JP3776591B2 (en) Map information updating method and apparatus
US20080040076A1 (en) Geospatial modeling system for separating foliage data from building data based upon noise filtering operations and related methods
CN110852207A (en) Blue roof building extraction method based on object-oriented image classification technology
JP4088386B2 (en) How to update map information
JPH05181411A (en) Map information collation and update system
Chaloeivoot et al. Building detection from terrestrial images
US7487046B2 (en) Geospatial modeling system for performing filtering operations based upon a sum of differences of a given and neighboring location points and related methods
JP2009176163A (en) Section data creation system
JP2000310940A5 (en)
JPH10269347A (en) Method for eliminating shade shadow element on geographic image, geographic image processor and recording medium
KR102204040B1 (en) Image processing system for unifying collecting images by altitude
JP2009289078A (en) Target detection system
JP4639044B2 (en) Contour shape extraction device
Xiao et al. Utilizing edge to extract roads in high-resolution satellite imagery
Beumier et al. Building change detection by histogram classification
Peled et al. Toward automatic updating of the Israeli National GIS-Phase II

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070614

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071214

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080317

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110404

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120404

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120404

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140404

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees