JP4850161B2 - Road map data creation device - Google Patents

Road map data creation device Download PDF

Info

Publication number
JP4850161B2
JP4850161B2 JP2007255043A JP2007255043A JP4850161B2 JP 4850161 B2 JP4850161 B2 JP 4850161B2 JP 2007255043 A JP2007255043 A JP 2007255043A JP 2007255043 A JP2007255043 A JP 2007255043A JP 4850161 B2 JP4850161 B2 JP 4850161B2
Authority
JP
Japan
Prior art keywords
road
data
vector
width
node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007255043A
Other languages
Japanese (ja)
Other versions
JP2009086956A (en
Inventor
光晴 大峡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Solutions Ltd
Original Assignee
Hitachi Solutions Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Solutions Ltd filed Critical Hitachi Solutions Ltd
Priority to JP2007255043A priority Critical patent/JP4850161B2/en
Publication of JP2009086956A publication Critical patent/JP2009086956A/en
Application granted granted Critical
Publication of JP4850161B2 publication Critical patent/JP4850161B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、道路地図データ作成技術に関し、特に、衛星や航空機等を用いて高度・上空から地表を撮影して得られた観測画像を解析し、特に、地理画像に含まれる道路の抽出を容易にするための道路地図データ作成装置に関する。   The present invention relates to road map data creation technology, and in particular, analyzes an observation image obtained by photographing a ground surface from an altitude and the sky using a satellite, an aircraft, etc., and in particular, easily extracts a road included in a geographic image. The present invention relates to a road map data creation device for

近年、衛星画像や航空写真画像(以下、「地理画像」と称する。)の利用が広まってきており、それらの画像を使った地図の作成や地表の分析等に関する技術が開発されている。その中で、例えばカーナビゲーション(以下、「カーナビ」と略す。)用の道路地図を作成するにためには、画像内の道路領域を抽出することが必要である。   In recent years, the use of satellite images and aerial photograph images (hereinafter referred to as “geographic images”) has become widespread, and techniques relating to the creation of maps and the analysis of the ground surface using these images have been developed. Among them, for example, in order to create a road map for car navigation (hereinafter abbreviated as “car navigation”), it is necessary to extract a road area in an image.

従来、地理画像からの道路領域の抽出処理は、目視作業で行なわれていた。そのため、多大な人的コストがかかるという問題があった。そこで、画像内の道路領域を抽出する処理をコンピュータにより自動化する方法が提案されている。その一例として、下記非特許文献1では、まず、地理画像に対して被覆分類処理を適用し、道路らしい色調特徴を持つ領域を抽出する。また、地理画像に対してエッジ抽出処理及びノイズ除去処理を適用し、道路らしいエッジ特徴を持つ領域を抽出する。そして、それら2つの領域の情報をもとに、道路中心線の追跡を行なう。具体的には、上記2つの領域を重ね合わせた画像に対して、ユーザが、道路1本につき1点の開始点を指定する。すると、プログラムが開始点から自動的に道路中心線を追跡していき道路1本の中心線を抽出することができる。その後、ユーザが画像内のすべての道路に対して開始点を指定していくことにより、画像内の全ての道路中心線を抽出することができる。このような処理により、道路中心線の抽出を半自動的に行なうことができる。その後、目視作業により、道路の幅員情報を付加し、最終的な道路領域データが作成される。   Conventionally, a road region extraction process from a geographic image has been performed by visual inspection. Therefore, there has been a problem that a great human cost is required. Therefore, a method of automating the process of extracting the road area in the image by a computer has been proposed. As an example, in Non-Patent Document 1 below, first, a cover classification process is applied to a geographic image to extract a region having a color tone characteristic like a road. In addition, an edge extraction process and a noise removal process are applied to the geographic image to extract a region having an edge feature like a road. Based on the information of these two areas, the road center line is tracked. Specifically, the user designates one start point for each road on the image obtained by superimposing the two regions. Then, the program can automatically track the road center line from the starting point and extract the center line of one road. Thereafter, the user can extract all road centerlines in the image by designating start points for all roads in the image. By such processing, the road center line can be extracted semi-automatically. Thereafter, road width information is added by visual work, and final road area data is created.

熊谷潤,中川雅史,趙卉菁,柴崎亮介,「高解像度衛星画像からの道路抽出」 日本写真測量学会平成14年度年次学術講演会発表論文集,155-158,2002年。Jun Kumagai, Masafumi Nakagawa, Satoshi, Ryosuke Shibasaki, “Road Extraction from High-Resolution Satellite Images” Proceedings of the 2002 Annual Meeting of the Photogrammetric Society of Japan, 155-158, 2002. J.Canny,「A Computational Approach to Edge Detection」IEEE Transactions on Pattern Analysis and Machine Intelligence,Vol.PAMI-8,No6,1986年11月.J. Canny, “A Computational Approach to Edge Detection” IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. PAMI-8, No6, November 1986.

しかしながら、非特許文献1の手法においては、道路1本毎に開始点を指定する必要があり、この作業が煩雑であり、コストがかかるという問題がある。また、この手法は、道路中心線を追跡する際に、同一道路の中心線を複数回抽出する処理であり、抽出後のデータが重複してしまうことがある。さらに、この手法で半自動的に抽出された道路情報は、道路の中心線のベクトルデータのみであり、道路の幅員情報を持たない。地図情報において、道路の幅員情報は重要度が高い情報であるため、この手法で抽出した道路情報をもとに、後に幅員情報を付加する作業を行なう必要がある。また、広範囲の画像に対して限られた時間で作業を行なうためには、一般に複数の作業者が必要となるが、この場合、各作業者の主観的判断基準の差によって、幅員の精度にばらつきが生じてしまう可能性が高いという問題もある。   However, in the method of Non-Patent Document 1, it is necessary to specify a starting point for each road, and this work is complicated and expensive. This method is a process of extracting the center line of the same road a plurality of times when tracking the road center line, and the extracted data may be duplicated. Furthermore, the road information extracted semi-automatically by this method is only the vector data of the road center line, and does not have road width information. In the map information, the width information of the road is highly important information. Therefore, it is necessary to add the width information later based on the road information extracted by this method. In addition, in order to work on a wide range of images in a limited time, generally a plurality of workers are required. In this case, the accuracy of the width is reduced due to the difference in subjective judgment criteria of each worker. There is also a problem that there is a high possibility that variations will occur.

本発明はこのような状況に鑑みてなされたものであり、衛星画像や航空写真画像などの地理画像から、幅員情報を含む道路領域データを容易かつ均質に作成することができる道路地図データ作成技術を提供することを目的とする。   The present invention has been made in view of such a situation, and road map data creation technology capable of easily and uniformly creating road area data including width information from geographic images such as satellite images and aerial photograph images. The purpose is to provide.

上記解決課題に鑑みて鋭意研究の結果、本発明者は、非特許文献1の手法によって抽出された道路の候補領域と道路の候補エッジを重ね合わせた画像データに対して、開始点を自動的に与える処理と、抽出した道路データの重複部分を統合する処理と、道路の幅員を推定する処理を加えることによって、上記問題が解決されることに想到した。   As a result of diligent research in view of the above problem, the present inventor automatically sets a starting point for image data obtained by superimposing road candidate areas and road candidate edges extracted by the method of Non-Patent Document 1. It was conceived that the above problem can be solved by adding a process to the above, a process of integrating overlapping portions of the extracted road data, and a process of estimating the width of the road.

本発明の一観点によれば、地理画像を解析し、道路地図データを作成する道路地図データ作成装置であって、前記地理画像データから抽出された前記地理画像の領域において複数の開始点をまんべんなく与え、与えられた該複数の開始点のそれぞれから道路を追跡していくことにより得られる追跡線に沿って、各開始点における座標及びそれと結合しているノードの座標とにより定義される道路のベクトルデータを抽出する道路追跡処理部と、前記地理画像内の各道路領域において、前記道路のベクトルデータのうち重複データと推定されるベクトルデータを統合する道路統合処理部と、前記地理画像データ内の各道路領域の幅員を統合された前記ベクトルデータの数に基づいて推定する幅員推定処理部と、を備えることを特徴とする道路地図データ作成装置が提供される。   According to one aspect of the present invention, a road map data creation device that analyzes a geographic image and creates road map data, wherein a plurality of start points are uniformly distributed in the region of the geographic image extracted from the geographic image data. A road defined by the coordinates at each start point and the coordinates of the node associated with it along a tracking line obtained by following the road from each of the given start points. A road tracking processing unit for extracting vector data, a road integration processing unit for integrating vector data estimated as duplicate data among vector data of the road in each road region in the geographic image, and in the geographic image data A road width estimation processing unit that estimates the width of each road area based on the number of integrated vector data. Data creation device is provided.

前記幅員推定処理部は、統合された前記ベクトルデータの数が多いほど幅員を大きくし、統合した道路の前記ベクトルデータの長さが短いほど幅員を大きくする方向に推定することが好ましい。   It is preferable that the width estimation processing unit estimates the width as the number of the integrated vector data increases, and increases the width as the vector data of the integrated road is shorter.

前記道路統合処理部は、抽出された第1の道路ベクトルと第2の道路ベクトルとのノードの中から最も近接しているノードを探索してノードペアとし、該ノードペアにおいて前記追跡線方向に沿った前後のノードについてノード間の距離が一定範囲内であるノードペアを探索し、該探索されたノードペアを統合対象のノードとし、該統合対象のノードペアの間に新しいノードを生成することが好ましい。   The road integration processing unit searches for the closest node from the extracted nodes of the first road vector and the second road vector to form a node pair, and along the tracking line direction in the node pair It is preferable to search for a node pair whose distance between nodes is within a certain range with respect to the preceding and succeeding nodes, set the searched node pair as a node to be integrated, and generate a new node between the node pairs to be integrated.

以上に説明したように、本発明による地理画像処理装置では、衛星画像や航空写真画像などの地理画像から道路の中心線および幅員を抽出する作業を効率化することができる。また、作業者の技量に頼っていた作業工程を自動化することができるため、作業者の熟練度による差の影響を低減できる。   As described above, the geographic image processing apparatus according to the present invention can improve the efficiency of extracting the center line and width of a road from a geographic image such as a satellite image or an aerial photograph image. Further, since the work process that relies on the skill of the worker can be automated, the influence of the difference due to the skill level of the worker can be reduced.

以下、本発明の一実施の形態による地理画像処理技術について、図面を参照しながら詳細に説明する。図1から図13までにおいて、同一の符号を付した部分は同一の構成を表し、基本的な構成及び動作は同様であるものとする。尚、本発明は、本実施の形態に記載した範囲に限定されるものではない。当業者であれば、本発明の要旨を逸脱しない範囲内において、実施形態にかかる発明の構成及び機能に様々な変更・改良を加えることが可能である。   Hereinafter, a geographic image processing technique according to an embodiment of the present invention will be described in detail with reference to the drawings. 1 to 13, the same reference numerals denote the same configuration, and the basic configuration and operation are the same. Note that the present invention is not limited to the scope described in the present embodiment. A person skilled in the art can make various changes and improvements to the configuration and function of the invention according to the embodiments without departing from the gist of the present invention.

<システム構成>
図1は、本実施の形態による地理画像処理装置の一構成例を示す機能ブロック図である。図1に示すように、地理画像処理装置は、パーソナルコンピュータ、ワークステーション等から構成される処理装置10と、メインメモリとして使用されるRAM(ランダムアクセスメモリ)及び磁気ディスク記憶装置等の補助記憶装置とを含む記憶装置20と、入出力装置30と、を備えている。
<System configuration>
FIG. 1 is a functional block diagram showing a configuration example of a geographic image processing apparatus according to this embodiment. As shown in FIG. 1, a geographic image processing apparatus includes a processing apparatus 10 composed of a personal computer, a workstation, and the like, and an auxiliary storage device such as a RAM (random access memory) and a magnetic disk storage device used as a main memory. And the input / output device 30.

入出力装置30は、例えば、キーボード及びマウス等のポインティングデバイスを含む入力装置31と、液晶ディスプレイ装置等の表示装置32と、プリンタ33と、を備えている。入力装置31は、ユーザによるパラメータの入力やコマンドの起動等、並びに、地理画像処理装置により処理を施した地理画像を用いた土地区画データ生成処理に用いられる。表示装置32及びプリンタ33は、地理画像や土地区画データをユーザに提示するために用いられる。尚、表示装置としては、表示装置32及びプリンタ33のいずれか一方のみを備える構成としてもよい。   The input / output device 30 includes, for example, an input device 31 including a pointing device such as a keyboard and a mouse, a display device 32 such as a liquid crystal display device, and a printer 33. The input device 31 is used for parameter input by a user, activation of a command, and the like, and land parcel data generation processing using a geographic image processed by the geographic image processing device. The display device 32 and the printer 33 are used for presenting geographic images and land parcel data to the user. Note that the display device may include only one of the display device 32 and the printer 33.

処理装置10は、地理画像処理プログラム40を含んでいる。地理画像処理プログラム40は、プログラムモジュールとして、地理画像に含まれる色調情報をもとにして道路らしい領域(道路候補)を抽出する道路候補領域抽出部101と、地理画像のエッジ情報をもとにして道路らしいエッジを抽出する道路候補エッジ抽出部102と、道路らしい領域および道路らしいエッジをもとに道路の中心線を抽出する道路追跡処理部103と、抽出した道路中心線の重複部分を統合する道路統合処理部104と、抽出した道路の幅員情報を推定する幅員推定処理部105と、を含む。   The processing device 10 includes a geographic image processing program 40. As a program module, the geographic image processing program 40 is based on the road candidate area extraction unit 101 that extracts a road-like area (road candidate) based on the color tone information included in the geographic image, and the edge information of the geographic image. The road candidate edge extraction unit 102 for extracting road-like edges, the road tracking processing unit 103 for extracting road centerlines based on road-like areas and road-like edges, and overlapping portions of the extracted road centerlines are integrated. And a width estimation processing unit 105 that estimates the extracted width information of the road.

記憶装置20は、地理画像データ記憶領域21と、道路候補領域データ記憶領域22と、道路候補エッジデータ記憶領域23と、道路領域データ記憶領域24と、を有する。図では、領域という用語を除いて示している。これらの記憶領域のうち、地理画像データ記憶領域21は、人工衛星又は航空写真画像から得られるデータを記憶する領域であり、地理画像処理装置による処理の実行前に予め記憶されているデータである。一方、道路候補領域データ記憶領域22、道路候補エッジデータ記憶領域23、道路領域データ記憶領域24は、地理画像処理装置において地理画像データ記憶領域21データに基づいて生成される。   The storage device 20 includes a geographic image data storage area 21, a road candidate area data storage area 22, a road candidate edge data storage area 23, and a road area data storage area 24. In the figure, the term “region” is omitted. Of these storage areas, the geographic image data storage area 21 is an area for storing data obtained from an artificial satellite or an aerial photograph image, and is data stored in advance before execution of processing by the geographic image processing apparatus. . On the other hand, the road candidate area data storage area 22, the road candidate edge data storage area 23, and the road area data storage area 24 are generated based on the geographic image data storage area 21 data in the geographic image processing apparatus.

<地理画像処理の概要>
図2は、画像処理の概要を示す図である。図2(a)は、予め記憶装置20に記憶されている地理画像データに基づく画像を示している。この地理画像データに対して、被覆分類処理を行ない、さらに、その結果をもとに、道路らしい領域を抽出することにより、図2(b)に示す道路候補領域画像が得られる。この道路候補領域画像は、道路候補領域データ記憶領域22に格納される。また、地理画像データに対してエッジ抽出処理を行ない、さらに抽出したエッジから道路らしくないノイズを除去することにより、図2(c)に示す道路候補エッジ画像が得られる。
<Outline of geographic image processing>
FIG. 2 is a diagram showing an outline of image processing. FIG. 2A shows an image based on geographic image data stored in the storage device 20 in advance. Cover classification processing is performed on the geographic image data, and a road-like area is extracted based on the result, thereby obtaining a road candidate area image shown in FIG. This road candidate area image is stored in the road candidate area data storage area 22. Further, an edge extraction process is performed on the geographic image data, and noise that is not likely to be a road is removed from the extracted edges, whereby a road candidate edge image shown in FIG. 2C is obtained.

この道路候補エッジ画像は、各画素でエッジの方向を表すデータを保持している。このデータは道路候補エッジデータとして道路候補エッジデータ記憶領域23に格納される。そして、道路候補領域データと道路候補エッジデータとをもとに、道路の中心線を抽出するため道路追跡処理を行なう。道路追跡処理では、自動的に与えられた開始点から道路を追跡していく。各開始点から道路を追跡すると、図2(d)に示す道路の追跡線を表示した画像が得られる。この道路追跡線(図中の白く細い線)は、各ノードにおける座標および結合しているノード情報を持つベクトルデータである。このベクトルデータは、道路領域データとして道路領域データ記憶領域24に格納される。但し、右上の領域には、ノイズのような表示が存在する。道路領域データにおける道路抽出線は、同一道路上に複数存在する可能性があり、その場合、推定されるデータが冗長となる。そのため重複したデータを統合する処理(道路統合処理)を行なうことでノイズを除去する。   This road candidate edge image holds data representing the edge direction at each pixel. This data is stored in the road candidate edge data storage area 23 as road candidate edge data. Then, based on the road candidate area data and the road candidate edge data, a road tracking process is performed to extract the center line of the road. In the road tracking process, the road is automatically tracked from the given starting point. When the road is tracked from each starting point, an image displaying the road tracking line shown in FIG. 2D is obtained. This road tracking line (white thin line in the figure) is vector data having coordinates at each node and node information connected thereto. This vector data is stored in the road area data storage area 24 as road area data. However, a noise-like display exists in the upper right area. There may be a plurality of road extraction lines in the road area data on the same road, and in this case, the estimated data becomes redundant. Therefore, noise is removed by performing processing (road integration processing) for integrating duplicate data.

図2(e)は、図2(d)における道路データを統合した結果を示す図である。統合後のベクトルデータは、道路領域データ記憶領域24に上書きされて格納される。統合データでは、ノイズはほぼ除去されてきれいな白い線として表されていることがわかる。次いで、幅員推定処理を行なう。道路領域データにおける各道路の道路ベクトル長と、統合したベクトルの本数から、道路の幅員を推定する。図2(f)は、道路データにおける各道路のベクトルデータの幅員を推定した結果を示す図である。明るい領域が道路として抽出された領域であり、幅員が示されている。幅員データは道路領域データ記憶部24に追加される。   FIG.2 (e) is a figure which shows the result of having integrated the road data in FIG.2 (d). The integrated vector data is overwritten and stored in the road area data storage area 24. In the integrated data, it can be seen that the noise is almost removed and represented as a clean white line. Next, a width estimation process is performed. The width of the road is estimated from the road vector length of each road in the road area data and the number of integrated vectors. FIG. 2F is a diagram illustrating a result of estimating the width of the vector data of each road in the road data. A bright area is an area extracted as a road, and the width is shown. The width data is added to the road area data storage unit 24.

<地理画像処理の詳細>
以下に、上記の地理画像処理における各処理の詳細について説明を行う。本実施の形態による地理画像処理装置において、地理画像処理プログラム40が起動されると、道路候補領域抽出部101、道路候補エッジ抽出部102、道路追跡部103、道路統合処理部104、幅員推定処理部105、が順に起動される。以下、それぞれの処理部における各処理について詳細に説明する。
<Details of geographic image processing>
Details of each process in the geographic image process will be described below. In the geographic image processing apparatus according to the present embodiment, when the geographic image processing program 40 is started, a road candidate area extraction unit 101, a road candidate edge extraction unit 102, a road tracking unit 103, a road integration processing unit 104, and a width estimation process. Units 105 are sequentially activated. Hereinafter, each process in each processing unit will be described in detail.

(1)道路候補領域抽出処理
図3(a)は、地理画像処理プログラム40の道路候補領域抽出部101による処理の流れを示すフローチャート図である。図3(a)において、図1に示す〈以下同様〉道路候補領域抽出部101は、記憶装置20の地理画像データ記憶領域21から地理画像データを読み込み(S301)、被覆分類(上記非特許文献1参照。)を行なう(S302)。被覆分類は、地理画像内に含まれる各画素を、予め決められた様々な物体のクラス(道路、各色の建物、樹木、水域、土壌など)に分類する手法である。近年では、リモートセンシング技術の発達により、1m以下の高分解能衛星画像データが利用可能になった。従来の低分解能の衛星画像と異なり、人工構造物、樹木、道路などの地表物について、コンピュータによる被覆分類でもある程度の認識が可能である。また、航空写真画像も同様の特徴を持っている。
(1) Road Candidate Area Extraction Processing FIG. 3A is a flowchart showing the flow of processing by the road candidate area extraction unit 101 of the geographic image processing program 40. In FIG. 3 (a), the <Same as below> road candidate area extraction unit 101 shown in FIG. 1 reads geographic image data from the geographic image data storage area 21 of the storage device 20 (S301), and covers classification (the above non-patent document). 1) (S302). Cover classification is a method of classifying each pixel included in a geographic image into various predetermined object classes (roads, buildings of different colors, trees, water areas, soil, etc.). In recent years, with the development of remote sensing technology, high-resolution satellite image data of 1 m or less has become available. Unlike conventional low-resolution satellite images, surface structures such as artificial structures, trees, and roads can be recognized to some extent even by cover classification using a computer. In addition, aerial photograph images have similar characteristics.

図3(b)は、図2(a)の画像に対する被覆分類処理の結果を示す図である。この画像においては、道路、各色の建物、樹木など数クラスの地表物に分類されている。しかしながら、現実的には「道路」と分類された領域が正確に実際の道路を表しているとは限らず、通常は、抽出漏れや、誤抽出を起こしている場合もある。そこで、この被覆分類結果をもとに、抽出漏れした領域を補い、また誤抽出の影響を緩和するため、道路候補領域抽出処理を行なう(S303)。道路候補領域を抽出する際には、被覆分類結果の中から、道路クラス以外に道路と誤認しやすいクラス(例えば、白色系や黒色系の色調特徴を持つ建造物のクラス)を、誤認しやすさの重みを考慮して抽出する。また、道路と誤認する可能性が低いクラス(例えば、樹木や土壌などのクラス)はこの処理の対象から除外する。そのような処理を加えることにより、被覆分類結果画像から、道路らしい領域(道路候補領域)を抽出することができる。図3(c)は、道路候補領域を示す図であり、明るく示されている領域が道路候補領域である。図3(c)に示す道路候補領域を特定するデータは、道路候補領域データとして道路候補領域データ記憶領域22に出力され格納される(S304)。   FIG. 3B is a diagram showing the result of the cover classification process for the image of FIG. In this image, it is classified into several classes of surface objects such as roads, buildings of various colors, and trees. However, in reality, an area classified as “road” does not always accurately represent an actual road, and usually there are cases where an extraction omission or an erroneous extraction occurs. Therefore, based on the covering classification result, road candidate region extraction processing is performed in order to compensate for the region where extraction has been omitted and to reduce the influence of erroneous extraction (S303). When extracting candidate road areas, it is easy to misidentify classes that are easily misidentified as roads other than road classes (for example, classes of buildings with white or black color characteristics) from the coverage classification results. This is extracted in consideration of the weight. In addition, classes that are unlikely to be mistaken for roads (for example, classes such as trees and soil) are excluded from this processing target. By adding such processing, it is possible to extract an area (road candidate area) that seems to be a road from the cover classification result image. FIG. 3C is a diagram showing a road candidate area, and a brightly shown area is a road candidate area. The data specifying the road candidate area shown in FIG. 3C is output and stored in the road candidate area data storage area 22 as road candidate area data (S304).

(2)道路候補エッジ抽出処理
図4(a)は、図1に示す(以下同様)地理画像処理プログラム40の道路候補エッジ抽出部102による処理の流れを示すフローチャート図である。図4(a)において道路候補エッジ抽出部102は、記憶装置20の地理画像データ記憶領域21から地図画像データを読み込み(S401)、エッジ抽出を行なう(S402)。尚、画像におけるエッジ抽出処理には様々な手法があるが、特にCanny法(上記非特許文献2参照。)が適している。図4(b)は、図2(a)の地理画像に対してCanny法によりエッジ抽出を行なった結果として得られた画像である。この画像には、道路のエッジが含まれているが、同時にノイズも多数含まれている可能性がある。そこで、次に、この画像から道路以外のノイズを除去する(S403)。ノイズを除去する際には、短いエッジや、道路らしくない急激に方向が変化しているエッジを除去する(上記非特許文献1参照。)。図4(c)は、図4(b)の画像に対してノイズ除去処理を行なった結果として得られた画像である。ノイズ除去後の各画素上のエッジデータは道路候補エッジデータとして道路候補エッジデータ記憶領域23に格納される(S404)。
(2) Road Candidate Edge Extraction Processing FIG. 4A is a flowchart showing the flow of processing by the road candidate edge extraction unit 102 of the geographic image processing program 40 shown in FIG. In FIG. 4A, the road candidate edge extraction unit 102 reads map image data from the geographic image data storage area 21 of the storage device 20 (S401), and performs edge extraction (S402). Although there are various methods for edge extraction processing in an image, the Canny method (see Non-Patent Document 2 above) is particularly suitable. FIG. 4B is an image obtained as a result of performing edge extraction on the geographic image of FIG. 2A by the Canny method. This image contains road edges, but may also contain many noises at the same time. Therefore, next, noise other than roads is removed from this image (S403). When noise is removed, short edges or edges whose direction is not changed like a road are removed (see Non-Patent Document 1 above). FIG. 4C is an image obtained as a result of performing noise removal processing on the image of FIG. The edge data on each pixel after noise removal is stored in the road candidate edge data storage area 23 as road candidate edge data (S404).

(3)道路追跡処理
図5は、地理画像処理プログラム40の道路追跡処理部103における処理の流れを示すフローチャート図である。図5において、図1に示す(以下同様)道路追跡処理部103は、記憶装置20の道路候補領域データ記憶領域21と道路候補エッジデータ記憶領域22からそれぞれのデータ(図3(c)の道路候補領域データと図4(c)の道路候補エッジデータ)を読み込み、その2つのデータを画像上で重ねあわせる処理を行う(S501)。図6(a)は、これら2つのデータを重ね合わせた様子を示す図である。道路追跡処理部103(図1)では、この図において道路追跡を行い道路の中心線のデータを抽出する。道路追跡を行なう際には、まず追跡時の開始点を設定する(S502)。開始点は、画像全体に対してまんべんなく多数点を設定するのが好ましい。例えば、図6(b)に示すように、画像における互いに直交する座標軸であるx軸とy軸とに対して平行で、かつ、等間隔に開始点を多数設定する方法が好ましい。このような方法によれば、ユーザが開始点を設定する必要がないという利点がある。
(3) Road Tracking Process FIG. 5 is a flowchart showing the flow of processing in the road tracking processing unit 103 of the geographic image processing program 40. In FIG. 5, the road tracking processing unit 103 shown in FIG. 1 (the same applies hereinafter) stores the respective data from the road candidate area data storage area 21 and the road candidate edge data storage area 22 of the storage device 20 (the road in FIG. 3C). The candidate area data and the road candidate edge data in FIG. 4C are read, and the two data are superimposed on the image (S501). FIG. 6A is a diagram showing a state in which these two data are superimposed. The road tracking processing unit 103 (FIG. 1) performs road tracking in this figure and extracts road centerline data. When performing road tracking, first, a starting point for tracking is set (S502). It is preferable to set a large number of starting points for the entire image. For example, as shown in FIG. 6B, it is preferable to set a large number of start points that are parallel to the x axis and the y axis, which are coordinate axes orthogonal to each other in the image, at equal intervals. According to such a method, there is an advantage that the user does not need to set a starting point.

次に、各開始点から道路の追跡を行なう。道路の追跡処理としては、ラインテンプレートマッチング法により行なうのが好ましい(上記非特許文献1参照。)。まず、未処理の開始点を1つ選択し(S503)、スタート方向を決定する(S504)。スタート方向を決定する際には、図6(c)に示すように、長方形のテンプレートT1を画像に重ね、道路候補領域データと道路候補エッジデータとを参照する。そしてテンプレートT1の角度を変えて各角度での、両データから算出される道路らしさを測定し、より道路らしい方向をスタート方向とする。図6(c)の場合で説明すると、左上の方向がより道路らしい(道路候補領域データおよび道路候補エッジデータの明るい画素が多いことにより判定することができる)ため、左上の方向をスタート方向として決定する(スタート方向は、図中の矢印の方向である)。スタート方向を決定した後に、延長方向を探索する(S505)。延長方向を決定する際にも、ラインテンプレートの角度を変えながら、より道路らしい方向(を延長方向とする処理を継続する(図6(d)の明るい矩形と破線で示される角度の異なる矩形)。   Next, the road is tracked from each starting point. The road tracking process is preferably performed by a line template matching method (see Non-Patent Document 1 above). First, one unprocessed start point is selected (S503), and the start direction is determined (S504). When determining the start direction, as shown in FIG. 6C, a rectangular template T1 is superimposed on the image, and road candidate area data and road candidate edge data are referred to. Then, the angle of the template T1 is changed and the road-likeness calculated from both data at each angle is measured, and a more road-like direction is set as the start direction. In the case of FIG. 6C, the upper left direction is more likely to be a road (can be determined by the fact that there are many bright pixels in the road candidate area data and road candidate edge data), so the upper left direction is taken as the start direction. Determine (starting direction is the direction of the arrow in the figure). After determining the start direction, the extension direction is searched (S505). Even when the extension direction is determined, the direction of the road is changed while changing the angle of the line template (the process of making the extension direction is continued (the bright rectangle in FIG. 6 (d) and the rectangle with different angles indicated by the broken line)). .

但し、スタート方向の決定時と異なり、延長方向を決定する際には、変化させる角度範囲を狭くすることが好ましい。それは、一般に道路は交差点や山間部などの特殊な場合を除けば、それほど急激に曲がることは少なく、比較的緩やかな曲線を描くことが多いためである。そして、延長方向を決定すると(道路候補エッジデータの明るい画素が多い方向)、ラインテンプレートの長さの分だけ道路候補エッジデータを延長し、延長先の点を、道路ベクトルを構成するノード(起点)とする。   However, unlike the determination of the start direction, it is preferable to narrow the angle range to be changed when determining the extension direction. This is because roads generally do not bend so rapidly except for special cases such as intersections and mountainous areas and often draw relatively gentle curves. When the extension direction is determined (the direction where there are many bright pixels in the road candidate edge data), the road candidate edge data is extended by the length of the line template, and the extension destination point is set as a node (starting point) constituting the road vector. ).

ここで、ラインテンプレートの角度を変えて延長方向を決定する際に、どの方向でも道路らしさが低いと判定される場合には、延長処理を中止し、道路の追跡を終了しフローチャートのS507の反対側の処理を行なう(S506)。延長方向が決定した場合は、延長先で再び延長方向を決定する(S505)。この処理を、延長方向が決定できなくなるまで、すなわち道路が途切れるまで行なう。このような道路の追跡を、S504で決定したスタート方向の反対側でも行なう。S507は反対側を追跡したかどうかの判定処理である。S503で設定した開始点に対して両側で道路の追跡を完了した後に、追跡時に設定されたノードを結合させることで生成された線分の連結データを1本の道路領域データとする(図6(e)のL1)。以上のS503からS507までの処理を、S502で設定した各開始点に関して行なう。S508はその判定処理である。図6(f)は道路追跡処理後の結果を示した図である。図6(f)に示すように、多数の開始点に基づいて、道路の追跡を行うため、多数の細い線が抽出されていることがわかる。各道路ベクトルのデータは、図10に示すような形式で記憶装置20〈図1〉に格納される。但し、“統合数”および“幅員”の項目は、この段階では求められていないため、これらの項目のデータは格納されていない。“道路ベクトル長”の項目は、後述する幅員推定処理で算出するため、この段階ではデータが格納されていないが、この段階でも算出可能であるためデータを格納しておいてもよい。   Here, when determining the extension direction by changing the angle of the line template, if it is determined that the road-likeness is low in any direction, the extension process is stopped, the road tracking is ended, and the opposite of S507 in the flowchart is performed. Side processing is performed (S506). If the extension direction is determined, the extension direction is determined again at the extension destination (S505). This process is performed until the extension direction cannot be determined, that is, until the road is interrupted. Such road tracking is also performed on the side opposite to the start direction determined in S504. S507 is processing for determining whether or not the other side has been tracked. After completing the tracking of the road on both sides with respect to the start point set in S503, the connection data of the line segment generated by combining the nodes set at the time of tracking is set as one road area data (FIG. 6). L1 of (e). The processes from S503 to S507 are performed for each start point set in S502. S508 is the determination process. FIG. 6F shows the result after the road tracking process. As shown in FIG. 6F, it can be seen that a large number of thin lines are extracted in order to track the road based on a large number of starting points. Each road vector data is stored in the storage device 20 <FIG. 1> in the format as shown in FIG. However, since the “integrated number” and “width” items are not obtained at this stage, data of these items is not stored. Since the item “road vector length” is calculated in the width estimation process described later, data is not stored at this stage. However, since data can be calculated at this stage, data may be stored.

(4)道路統合処理
図7は、地理画像処理プログラム40の図1に示す(以下同様)道路追跡処理部103における処理の流れを示すフローチャート図である。図7において、道路統合処理部104は、記憶装置20の道路領域データ記録領域24から道路領域データを読み込み(S701)、道路領域データの中から道路ベクトルを1本だけ読み込む(S702)。各道路ベクトルに対して近傍の道路ベクトルと統合処理を行なう。まず、注目している道路ベクトル(A)の近傍に、距離と方向とが近い道路ベクトル(B)があるか否かをチェックする(S703)。距離と方向が近い道路ベクトルが近くに見つからなかった場合はS702に戻り、別の道路ベクトルを読み込む。距離と方向が近い道路ベクトルが近くに見つかった場合はS705に進み、2つの道路ベクトル(A)と道路ベクトル(B)とが統合すべきデータと推定されるためこれらを統合する。図8(b)および(c)は、図8(a)に示すような道路に対して抽出された2つの道路ベクトル(A)と(B)とが統合される様子を示すステップ図である。道路ベクトル(A)と(B)とを統合する際には、まず2つの道路ベクトルのノードの中から最も近接しているノードを探索し、このノードペアP1、P2、…を基準とする。この基準のノードペアP1、P2、…において前後のノードを調べ、それぞれのノードペアP1、P2、…におけるノード間の距離が一定範囲内であるノードペアを探索する。
(4) Road Integration Processing FIG. 7 is a flowchart showing the flow of processing in the road tracking processing unit 103 shown in FIG. In FIG. 7, the road integration processing unit 104 reads road area data from the road area data recording area 24 of the storage device 20 (S701), and reads only one road vector from the road area data (S702). For each road vector, integration processing is performed with neighboring road vectors. First, it is checked whether or not there is a road vector (B) whose distance and direction are close in the vicinity of the road vector (A) of interest (S703). If no road vector having a close distance and direction is found nearby, the process returns to S702, and another road vector is read. If a road vector with a close distance and direction is found nearby, the process proceeds to S705, where the two road vectors (A) and the road vector (B) are estimated as data to be integrated, and these are integrated. FIGS. 8B and 8C are step diagrams showing how the two road vectors (A) and (B) extracted for the road as shown in FIG. 8A are integrated. . When the road vectors (A) and (B) are integrated, first, the closest node is searched from the nodes of the two road vectors, and this node pair P1, P2,. In this reference node pair P1, P2,..., The previous and next nodes are examined, and a node pair in which the distance between the nodes in each node pair P1, P2,.

ここで探索されたノードペアを統合対象のノードとする。この際、ノード間の距離が一定以上となり近接するノードがなくなったと判定されると探索処理を終了する。次に、統合対象のノードペアの中間位置に統合後のノードを設定する。図8(b)では、統合対象のノードペアが6ペアあるため、各ノードペアの中間に6個の新しいノードPA1、…が設定される。そしてこれらの新しいノードPA1、…を近い順に結合し、結合させて生成される連結した線分を新しい道路ベクトルとする。この際、統合比で、新たなノード座標を求めても良い、図8(c)では、統合比が2:5であるため、下に引き出した図に示すように、ノード座標が統合数の大きい方に近い位置になる。   The node pair searched here is set as a node to be integrated. At this time, if it is determined that the distance between the nodes is equal to or greater than a certain distance and there are no adjacent nodes, the search process is terminated. Next, the node after integration is set at an intermediate position of the node pair to be integrated. In FIG. 8B, since there are six node pairs to be integrated, six new nodes PA1,... Are set in the middle of each node pair. These new nodes PA1,... Are connected in the closest order, and a connected line segment generated by combining them is set as a new road vector. At this time, a new node coordinate may be obtained by the integration ratio. In FIG. 8C, since the integration ratio is 2: 5, the node coordinates indicate the integration number as shown in the drawing drawn below. It will be close to the larger one.

また、前の処理で近接したノードがなく切断された部分では、切断された部分のノードと新しい道路ベクトルのノードとを結合させる。この際、枝分かれした部分のノードは3つの道路ベクトルで共有される。また、統合の際には、これまでに統合した道路ベクトルの数(統合数)を記憶する。この統合数の情報は、後述する幅員推定処理で幅員を推定する際に使用することができる。道路ベクトル(A)と(B)との統合後に、道路領域データを更新する(S706)。この際、統合によって道路IDに増減が生じることがあるため、道路IDを付与し直す。S702からS706までの処理をすべての道路ベクトルに対して行なう(S707)。最後に、S702からS707までの処理の結果、道路領域データが更新されたか否かをチェックする(S708)。S702からS707までの処理の中で少なくとも1つの道路ベクトルが更新されていれば、S702に戻り再帰的に処理を繰り返す。更新がなければ処理を終了する。   Further, in a portion where there is no adjacent node and is cut in the previous processing, the node of the cut portion and the node of the new road vector are combined. At this time, the node of the branched portion is shared by the three road vectors. Further, at the time of integration, the number of road vectors integrated so far (number of integration) is stored. This information on the number of integrations can be used when the width is estimated in the width estimation process described later. After the road vectors (A) and (B) are integrated, the road area data is updated (S706). At this time, since the road ID may increase or decrease due to the integration, the road ID is reassigned. The processing from S702 to S706 is performed for all road vectors (S707). Finally, it is checked whether or not the road area data has been updated as a result of the processing from S702 to S707 (S708). If at least one road vector has been updated in the processes from S702 to S707, the process returns to S702 and the process is recursively repeated. If there is no update, the process ends.

図9は道路統合処理を示す概略図である。二又に分かれた道路上に4本の道路ベクトル(ID:0001〜0004)が存在しており、道路統合処理を適用した結果、統合数4の道路ベクトル(ID:0001)1本と、統合数2の道路ベクトル(ID:0002、0003)が2本生成されている様子が示されている。   FIG. 9 is a schematic diagram showing road integration processing. There are four road vectors (ID: 0001 to 0004) on the bifurcated road, and as a result of applying the road integration process, one road vector (ID: 0001) with an integrated number of four is integrated. A state in which two road vectors (ID: 0002, 0003) of Formula 2 are generated is shown.

(5)幅員推定処理
図11は、地理画像処理プログラム40の幅員推定処理部105(図1参照)における処理の流れを示すフローチャート図である。図11において、幅員推定処理部105は、記憶装置20の道路領域データ記憶領域24から道路領域データを読み込む(S1101)。次いで、各道路ベクトルに対してS1102以降の処理を行なう。まず、各道路ベクトルに対し、道路ベクトル長(各ノード間のショートベクトルの長さの合計)を計算する(S1102)。次に、各道路ベクトルの道路ベクトル長と統合数とから幅員を推定する。本実施の形態では、道路追跡処理部103において道路ベクトルを抽出する際に、画像全体に対して均等に開始点を設定しているため、道路の面積が大きいほど多くの道路ベクトルが抽出される。そのため、道路統合処理部104において重複した道路ベクトルを統合する際には、道路の面積が大きいほど統合される道路ベクトルの本数も多くなる。面積は道路の長さと幅員とから概算することができるため、道路ベクトル長と道路ベクトルの統合数とから幅員を推定することができる。幅員の概算の例は、道路ベクトルの統合数/道路ベクトル(比)の長さである。幅員の推定は、基準となる幅員に上記の比を乗算することにより行う。より具体的には、下記の式(1)により求めることができる。
(5) Width Estimation Processing FIG. 11 is a flowchart showing the flow of processing in the width estimation processing unit 105 (see FIG. 1) of the geographic image processing program 40. In FIG. 11, the width estimation processing unit 105 reads road area data from the road area data storage area 24 of the storage device 20 (S1101). Next, the processing after S1102 is performed on each road vector. First, for each road vector, the road vector length (total length of short vectors between nodes) is calculated (S1102). Next, the width is estimated from the road vector length of each road vector and the number of integrations. In the present embodiment, when the road vector is extracted by the road tracking processing unit 103, the start point is set uniformly for the entire image, so that the larger the road area, the more road vectors are extracted. . Therefore, when the overlapping road vectors are integrated in the road integration processing unit 104, the number of road vectors to be integrated increases as the area of the road increases. Since the area can be estimated from the length and width of the road, the width can be estimated from the road vector length and the number of road vectors integrated. An example of the approximate width is the number of road vectors integrated / the length of the road vector (ratio). The width is estimated by multiplying the reference width by the above ratio. More specifically, it can be obtained by the following equation (1).

(道路ベクトルの統合数/道路ベクトルの長さ)×a(比例定数) (1)
比例定数は、経験的に求めても良いし、同じ国、地域であれば、同じと推定して予め決めておいても良い。後に、実測値と比較して修正しても良い。
(Number of integrated road vectors / length of road vector) x a (proportional constant) (1)
The proportionality constant may be obtained empirically, or may be determined in advance assuming that the same country or region is the same. Later, it may be corrected by comparison with the actually measured value.

図12は、本実施の形態によって道路のベクトル及び幅員を抽出される様子を示す図である。図12(a)は、Y字型の道路の画像と、その上に設定された開始点を表している。図12(b)は、図12(a)の画像に対して道路追跡処理を適用した結果の画像である。道路上の複数の開始点から道路を追跡したため同一道路上に複数の道路ベクトルが存在する。図12(c)は、図12(b)の結果に対して道路統合処理を適用した結果画像である。道路統合処理により、同一道路内に複数存在した道路ベクトルが統合されている様子が示されている。図12(d)は、図12(c)の結果に対して幅員推定処理を適用した結果画像である。道路ベクトル長データと統合数データとをもとに、幅員を推定した結果を表している。   FIG. 12 is a diagram illustrating how road vectors and widths are extracted according to the present embodiment. FIG. 12A shows an image of a Y-shaped road and a start point set thereon. FIG. 12B is an image obtained as a result of applying the road tracking process to the image of FIG. Since the road is tracked from a plurality of starting points on the road, a plurality of road vectors exist on the same road. FIG. 12C is a result image obtained by applying road integration processing to the result of FIG. The road integration process shows a state in which a plurality of road vectors existing on the same road are integrated. FIG.12 (d) is a result image which applied the width | variety estimation process with respect to the result of FIG.12 (c). This shows the result of estimating the width based on the road vector length data and the integrated number data.

図13は、図10に対応する図であり、道路領域データ24の最終的な処理結果を例示した図である。各道路ベクトルのIDごとに各データが格納される。道路ID00001では、統合数が60、道路ベクトル長が150であり、道路ID00002では、統合数が40、道路ベクトル長が100である。S1103では、例えば、幅員は、統合数/ベクトル長で概算され、より具体的には上記の式(1)により求めると、以下のようになる。   FIG. 13 is a diagram corresponding to FIG. 10, and illustrates the final processing result of the road area data 24. Each data is stored for each road vector ID. In the road ID00001, the integration number is 60 and the road vector length is 150. In the road ID00002, the integration number is 40 and the road vector length is 100. In S1103, for example, the width is approximated by the integration number / vector length. More specifically, the width is calculated as follows by the above equation (1).

すなわち、上記の式(1)において、a=125(この値は任意)とすると、ID00001の道路の幅員は(60/150)×125=50となり、ID00002の道路の幅員は(40/100)×125=50となり、共に50となる。   That is, in the above formula (1), if a = 125 (this value is arbitrary), the width of the road of ID00001 is (60/150) × 125 = 50, and the width of the road of ID00002 is (40/100) X125 = 50, both 50.

<まとめ>
以上のように本発明の実施形態は、地表を撮影して得られた地理画像データを解析し、地表上の道路領域データを容易に作成する道路地図データ作成システムに関するものである。そしてそのシステムは、地理画像データから色調情報をもとにして道路の候補となる領域を抽出する道路候補領域抽出部(モジュール)と、地理画像データからエッジ情報をもとにして道路の候補となる領域を抽出する道路候補エッジ抽出部(モジュール)と、道路領域を追跡して道路のベクトル情報を抽出する道路追跡処理部(モジュール)と、重複した道路のベクトルを統合する道路統合処理部(モジュール)と、道路の幅員情報を推定する幅員推定処理部(モジュール)と、を備える。これにより幅員情報を含む重複の無い道路領域の抽出を自動化できる。
<Summary>
As described above, the embodiment of the present invention relates to a road map data creation system that analyzes geographic image data obtained by photographing a ground surface and easily creates road area data on the ground surface. The system includes a road candidate area extraction unit (module) that extracts a road candidate area from geographic image data based on color tone information, and a road candidate based on edge information from geographic image data. A road candidate edge extracting unit (module) for extracting a region, a road tracking processing unit (module) for tracking the road region and extracting road vector information, and a road integration processing unit for integrating overlapping road vectors ( Module) and a width estimation processing unit (module) for estimating road width information. This makes it possible to automate the extraction of road areas that do not include overlapping width information.

尚、本実施の形態の機能を実現するソフトウェアのプログラムコードによっても本発明は実現できる。この場合、プログラムコードを記録した記憶媒体をシステム或は装置に提供し、そのシステム或は装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、プロッピィ(登録商標)ディスク、CD−ROM、DVD−ROM、ハードディスク、光ディスク、光磁気ディスク、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。   The present invention can also be realized by a program code of software that implements the functions of the present embodiment. In this case, a storage medium in which the program code is recorded is provided to the system or apparatus, and the computer (or CPU or MPU) of the system or apparatus reads the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code itself and the storage medium storing the program code constitute the present invention. Examples of the storage medium for supplying such program code include a Propi (registered trademark) disk, CD-ROM, DVD-ROM, hard disk, optical disk, magneto-optical disk, CD-R, magnetic tape, and nonvolatile medium. A memory card, ROM, or the like is used.

また、プログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した実施の形態の機能が実現されるようにしてもよい。さらに、記憶媒体から読み出されたプログラムコードが、コンピュータ上のメモリに書き込まれた後、そのプログラムコードの指示に基づき、コンピュータのCPUなどが実際の処理の一部又は全部を行い、その処理によって前述した実施の形態の機能が実現されるようにしてもよい。   Also, based on the instruction of the program code, an OS (operating system) running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing. May be. Furthermore, after the program code read from the storage medium is written in the memory on the computer, the CPU of the computer or the like performs part or all of the actual processing based on the instruction of the program code. You may make it implement | achieve the function of embodiment mentioned above.

また、実施の形態の機能を実現するソフトウェアのプログラムコードがディスクやメモリ等の記憶手段又はCD−RW、CD−R等の記憶媒体に格納され、そのシステム又は装置のコンピュータ(又はCPUやMPU)が当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行することによっても、達成されるようにしてもよい。   Also, software program codes for realizing the functions of the embodiments are stored in a storage means such as a disk or memory or a storage medium such as a CD-RW or CD-R, and a computer (or CPU or MPU) of the system or apparatus thereof. However, it may be achieved by reading and executing the program code stored in the storage means or the storage medium.

本発明は、道路の地図データ作成装置に利用可能である。   The present invention can be used in a road map data creation device.

本発明の一実施の形態による地理画像処理装置の一構成例を示す機能ブロック図である。It is a functional block diagram which shows the example of 1 structure of the geographic image processing apparatus by one embodiment of this invention. 本実施の形態による地理画像処理装置ムにより行われる画像処理の概要を例示する図である。It is a figure which illustrates the outline | summary of the image processing performed by the geographic image processing apparatus according to this embodiment. 道路候補領域抽出部の処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of a process of a road candidate area | region extraction part. 道路候補エッジ抽出部の処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of a process of a road candidate edge extraction part. 道路追跡処理部の処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of a process of a road tracking process part. 道路追跡処理部の処理の概要を例示する図である。It is a figure which illustrates the outline | summary of the process of a road tracking process part. 道路統合処理部の処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of a process of a road integrated process part. 道路統合処理部の処理の概要を例示する図である。It is a figure which illustrates the outline | summary of the process of a road integrated process part. 道路統合処理部の処理の結果を例示する図である。It is a figure which illustrates the result of the process of a road integrated process part. 道路領域データの内容を例示する図である。It is a figure which illustrates the contents of road field data. 幅員推定処理部の処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of a process of the width | variety estimation process part. 幅員推定処理部の処理の概要を例示する図である。It is a figure which illustrates the outline | summary of the process of a width estimation process part. 最終的な処理結果を例示する図である。It is a figure which illustrates a final processing result.

符号の説明Explanation of symbols

10 処理装置
20 記憶装置
21 地理画像データ記憶領域
22 道路候補領域データ記憶領域
23 道路候補エッジデータ記憶領域
24 道路領域データ記憶領域
30 入出力装置
31 入力装置
32 表示装置
33 プリンタ
40 地理画像処理プログラム
101 道路候補領域抽出部
102 道路候補エッジ抽出部
103 道路追跡処理部
104 道路統合処理部
105 幅員推定処理部
10 processing device 20 storage device 21 geographic image data storage region 22 road candidate region data storage region 23 road candidate edge data storage region 24 road region data storage region 30 input / output device 31 input device 32 display device 33 printer 40 geographic image processing program 101 Road candidate region extraction unit 102 Road candidate edge extraction unit 103 Road tracking processing unit 104 Road integration processing unit 105 Width estimation processing unit

Claims (3)

地理画像を解析し、道路地図データを作成する道路地図データ作成装置であって、
前記地理画像データから抽出された前記地理画像の領域において複数の開始点をまんべんなく与え、与えられた該複数の開始点のそれぞれから道路を追跡していくことにより得られる追跡線に沿って、各開始点における座標及びそれと結合しているノードの座標とにより定義される道路のベクトルデータを抽出する道路追跡処理部と、
前記地理画像内の各道路領域において、前記道路のベクトルデータのうち重複データと推定されるベクトルデータを統合する道路統合処理部と、
前記地理画像データ内の各道路領域の幅員を統合された前記ベクトルデータの数に基づいて推定する幅員推定処理部と、
を備えることを特徴とする道路地図データ作成装置。
A road map data creation device that analyzes geographic images and creates road map data,
A plurality of starting points are uniformly provided in the region of the geographic image extracted from the geographic image data, and each of the plurality of starting points is traced along a tracking line obtained by tracking the road from each of the given starting points. A road tracking processing unit that extracts vector data of a road defined by the coordinates at the start point and the coordinates of the node connected to the start point;
In each road area in the geographic image, a road integration processing unit that integrates vector data estimated as duplicate data among vector data of the road;
A width estimation processing unit that estimates the width of each road area in the geographic image data based on the number of integrated vector data;
A road map data creation device comprising:
前記幅員推定処理部は、統合された前記ベクトルデータの数が多いほど幅員を大きくし、統合した道路の前記ベクトルデータの長さが短いほど幅員を大きくする方向に推定することを特徴とする請求項1に記載の道路地図データ作成装置。   The width estimation processing unit estimates the width so that the width increases as the number of the integrated vector data increases, and the width increases as the length of the vector data of the integrated road decreases. Item 2. The road map data creation device according to Item 1. 前記道路統合処理部は、抽出された第1の道路ベクトルと第2の道路ベクトルとのノードの中から最も近接しているノードを探索してノードペアとし、該ノードペアにおいて前記追跡線方向に沿った前後のノードについてノード間の距離が一定範囲内であるノードペアを探索し、該探索されたノードペアを統合対象のノードとし、該統合対象のノードペアの間に新しいノードを生成することを特徴とする請求項1又は2に記載の道路地図データ作成装置。   The road integration processing unit searches for the closest node from the extracted nodes of the first road vector and the second road vector to form a node pair, and along the tracking line direction in the node pair A node pair having a distance between nodes within a certain range is searched for the preceding and following nodes, the searched node pair is set as a node to be integrated, and a new node is generated between the node pairs to be integrated. Item 3. A road map data creation device according to item 1 or 2.
JP2007255043A 2007-09-28 2007-09-28 Road map data creation device Expired - Fee Related JP4850161B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007255043A JP4850161B2 (en) 2007-09-28 2007-09-28 Road map data creation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007255043A JP4850161B2 (en) 2007-09-28 2007-09-28 Road map data creation device

Publications (2)

Publication Number Publication Date
JP2009086956A JP2009086956A (en) 2009-04-23
JP4850161B2 true JP4850161B2 (en) 2012-01-11

Family

ID=40660312

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007255043A Expired - Fee Related JP4850161B2 (en) 2007-09-28 2007-09-28 Road map data creation device

Country Status (1)

Country Link
JP (1) JP4850161B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113468922B (en) * 2020-03-31 2023-04-18 宇通客车股份有限公司 Road boundary identification method and device based on radar point cloud
CN113155033A (en) * 2020-12-30 2021-07-23 交通运输部科学研究院 Method for calculating rural highway pavement width based on remote sensing image
CN113487900A (en) * 2021-07-06 2021-10-08 北京邮电大学 Asynchronous road information extraction system for satellite images and control method thereof

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004246554A (en) * 2003-02-13 2004-09-02 Zenrin Co Ltd Road data generation method

Also Published As

Publication number Publication date
JP2009086956A (en) 2009-04-23

Similar Documents

Publication Publication Date Title
US10198632B2 (en) Survey data processing device, survey data processing method, and survey data processing program
EP2120009B1 (en) Measuring device and measuring method
CN100371952C (en) Video object recognition device and recognition method, video annotation giving device and giving method, and program
JP5360989B2 (en) Geographic information generation system and geographical information generation method
US8649632B2 (en) System and method for correlating oblique images to 3D building models
JP4825836B2 (en) Road map data creation system
US20080298638A1 (en) Map change detection device, map change detection method, and program
KR100971778B1 (en) Method, system and computer-readable recording medium for matching of panoramic image using graph structure
JP4103898B2 (en) Map information updating method and map updating apparatus
US10473453B2 (en) Operating device, operating method, and program therefor
JP2015138428A (en) Additional information display apparatus and additional information display program
JP4928993B2 (en) Farm district drawing data creation system
Harvey Performance evaluation for road extraction
JP2007128141A (en) System and method for determining road lane number in road image
JP4850161B2 (en) Road map data creation device
TW202022804A (en) Method and system for road image reconstruction and vehicle positioning
Portugal et al. Extracting Topological Information from Grid Maps for Robot Navigation.
JP5097629B2 (en) Feature shape change detection program and feature shape change detection system
US9811889B2 (en) Method, apparatus and computer program product for generating unobstructed object views
Fischler et al. Automated techniques for road network modeling
CN107808160B (en) Three-dimensional building extraction method and device
Chen et al. Multi-type change detection of building models by integrating spatial and spectral information
Fusco et al. An application of artificial intelligence to support the discovering of roman centuriation remains
JP2006023958A (en) Program capable of determining road area and method for determining road area
JP2008276436A (en) Method and unit for deciding edge line and ridge by image processing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111011

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111018

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141028

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees