JP4850161B2 - Road map data creation device - Google Patents
Road map data creation device Download PDFInfo
- Publication number
- JP4850161B2 JP4850161B2 JP2007255043A JP2007255043A JP4850161B2 JP 4850161 B2 JP4850161 B2 JP 4850161B2 JP 2007255043 A JP2007255043 A JP 2007255043A JP 2007255043 A JP2007255043 A JP 2007255043A JP 4850161 B2 JP4850161 B2 JP 4850161B2
- Authority
- JP
- Japan
- Prior art keywords
- road
- data
- vector
- width
- node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Description
本発明は、道路地図データ作成技術に関し、特に、衛星や航空機等を用いて高度・上空から地表を撮影して得られた観測画像を解析し、特に、地理画像に含まれる道路の抽出を容易にするための道路地図データ作成装置に関する。 The present invention relates to road map data creation technology, and in particular, analyzes an observation image obtained by photographing a ground surface from an altitude and the sky using a satellite, an aircraft, etc., and in particular, easily extracts a road included in a geographic image. The present invention relates to a road map data creation device for
近年、衛星画像や航空写真画像(以下、「地理画像」と称する。)の利用が広まってきており、それらの画像を使った地図の作成や地表の分析等に関する技術が開発されている。その中で、例えばカーナビゲーション(以下、「カーナビ」と略す。)用の道路地図を作成するにためには、画像内の道路領域を抽出することが必要である。 In recent years, the use of satellite images and aerial photograph images (hereinafter referred to as “geographic images”) has become widespread, and techniques relating to the creation of maps and the analysis of the ground surface using these images have been developed. Among them, for example, in order to create a road map for car navigation (hereinafter abbreviated as “car navigation”), it is necessary to extract a road area in an image.
従来、地理画像からの道路領域の抽出処理は、目視作業で行なわれていた。そのため、多大な人的コストがかかるという問題があった。そこで、画像内の道路領域を抽出する処理をコンピュータにより自動化する方法が提案されている。その一例として、下記非特許文献1では、まず、地理画像に対して被覆分類処理を適用し、道路らしい色調特徴を持つ領域を抽出する。また、地理画像に対してエッジ抽出処理及びノイズ除去処理を適用し、道路らしいエッジ特徴を持つ領域を抽出する。そして、それら2つの領域の情報をもとに、道路中心線の追跡を行なう。具体的には、上記2つの領域を重ね合わせた画像に対して、ユーザが、道路1本につき1点の開始点を指定する。すると、プログラムが開始点から自動的に道路中心線を追跡していき道路1本の中心線を抽出することができる。その後、ユーザが画像内のすべての道路に対して開始点を指定していくことにより、画像内の全ての道路中心線を抽出することができる。このような処理により、道路中心線の抽出を半自動的に行なうことができる。その後、目視作業により、道路の幅員情報を付加し、最終的な道路領域データが作成される。
Conventionally, a road region extraction process from a geographic image has been performed by visual inspection. Therefore, there has been a problem that a great human cost is required. Therefore, a method of automating the process of extracting the road area in the image by a computer has been proposed. As an example, in Non-Patent
しかしながら、非特許文献1の手法においては、道路1本毎に開始点を指定する必要があり、この作業が煩雑であり、コストがかかるという問題がある。また、この手法は、道路中心線を追跡する際に、同一道路の中心線を複数回抽出する処理であり、抽出後のデータが重複してしまうことがある。さらに、この手法で半自動的に抽出された道路情報は、道路の中心線のベクトルデータのみであり、道路の幅員情報を持たない。地図情報において、道路の幅員情報は重要度が高い情報であるため、この手法で抽出した道路情報をもとに、後に幅員情報を付加する作業を行なう必要がある。また、広範囲の画像に対して限られた時間で作業を行なうためには、一般に複数の作業者が必要となるが、この場合、各作業者の主観的判断基準の差によって、幅員の精度にばらつきが生じてしまう可能性が高いという問題もある。
However, in the method of Non-Patent
本発明はこのような状況に鑑みてなされたものであり、衛星画像や航空写真画像などの地理画像から、幅員情報を含む道路領域データを容易かつ均質に作成することができる道路地図データ作成技術を提供することを目的とする。 The present invention has been made in view of such a situation, and road map data creation technology capable of easily and uniformly creating road area data including width information from geographic images such as satellite images and aerial photograph images. The purpose is to provide.
上記解決課題に鑑みて鋭意研究の結果、本発明者は、非特許文献1の手法によって抽出された道路の候補領域と道路の候補エッジを重ね合わせた画像データに対して、開始点を自動的に与える処理と、抽出した道路データの重複部分を統合する処理と、道路の幅員を推定する処理を加えることによって、上記問題が解決されることに想到した。
As a result of diligent research in view of the above problem, the present inventor automatically sets a starting point for image data obtained by superimposing road candidate areas and road candidate edges extracted by the method of Non-Patent
本発明の一観点によれば、地理画像を解析し、道路地図データを作成する道路地図データ作成装置であって、前記地理画像データから抽出された前記地理画像の領域において複数の開始点をまんべんなく与え、与えられた該複数の開始点のそれぞれから道路を追跡していくことにより得られる追跡線に沿って、各開始点における座標及びそれと結合しているノードの座標とにより定義される道路のベクトルデータを抽出する道路追跡処理部と、前記地理画像内の各道路領域において、前記道路のベクトルデータのうち重複データと推定されるベクトルデータを統合する道路統合処理部と、前記地理画像データ内の各道路領域の幅員を統合された前記ベクトルデータの数に基づいて推定する幅員推定処理部と、を備えることを特徴とする道路地図データ作成装置が提供される。 According to one aspect of the present invention, a road map data creation device that analyzes a geographic image and creates road map data, wherein a plurality of start points are uniformly distributed in the region of the geographic image extracted from the geographic image data. A road defined by the coordinates at each start point and the coordinates of the node associated with it along a tracking line obtained by following the road from each of the given start points. A road tracking processing unit for extracting vector data, a road integration processing unit for integrating vector data estimated as duplicate data among vector data of the road in each road region in the geographic image, and in the geographic image data A road width estimation processing unit that estimates the width of each road area based on the number of integrated vector data. Data creation device is provided.
前記幅員推定処理部は、統合された前記ベクトルデータの数が多いほど幅員を大きくし、統合した道路の前記ベクトルデータの長さが短いほど幅員を大きくする方向に推定することが好ましい。 It is preferable that the width estimation processing unit estimates the width as the number of the integrated vector data increases, and increases the width as the vector data of the integrated road is shorter.
前記道路統合処理部は、抽出された第1の道路ベクトルと第2の道路ベクトルとのノードの中から最も近接しているノードを探索してノードペアとし、該ノードペアにおいて前記追跡線方向に沿った前後のノードについてノード間の距離が一定範囲内であるノードペアを探索し、該探索されたノードペアを統合対象のノードとし、該統合対象のノードペアの間に新しいノードを生成することが好ましい。 The road integration processing unit searches for the closest node from the extracted nodes of the first road vector and the second road vector to form a node pair, and along the tracking line direction in the node pair It is preferable to search for a node pair whose distance between nodes is within a certain range with respect to the preceding and succeeding nodes, set the searched node pair as a node to be integrated, and generate a new node between the node pairs to be integrated.
以上に説明したように、本発明による地理画像処理装置では、衛星画像や航空写真画像などの地理画像から道路の中心線および幅員を抽出する作業を効率化することができる。また、作業者の技量に頼っていた作業工程を自動化することができるため、作業者の熟練度による差の影響を低減できる。 As described above, the geographic image processing apparatus according to the present invention can improve the efficiency of extracting the center line and width of a road from a geographic image such as a satellite image or an aerial photograph image. Further, since the work process that relies on the skill of the worker can be automated, the influence of the difference due to the skill level of the worker can be reduced.
以下、本発明の一実施の形態による地理画像処理技術について、図面を参照しながら詳細に説明する。図1から図13までにおいて、同一の符号を付した部分は同一の構成を表し、基本的な構成及び動作は同様であるものとする。尚、本発明は、本実施の形態に記載した範囲に限定されるものではない。当業者であれば、本発明の要旨を逸脱しない範囲内において、実施形態にかかる発明の構成及び機能に様々な変更・改良を加えることが可能である。 Hereinafter, a geographic image processing technique according to an embodiment of the present invention will be described in detail with reference to the drawings. 1 to 13, the same reference numerals denote the same configuration, and the basic configuration and operation are the same. Note that the present invention is not limited to the scope described in the present embodiment. A person skilled in the art can make various changes and improvements to the configuration and function of the invention according to the embodiments without departing from the gist of the present invention.
<システム構成>
図1は、本実施の形態による地理画像処理装置の一構成例を示す機能ブロック図である。図1に示すように、地理画像処理装置は、パーソナルコンピュータ、ワークステーション等から構成される処理装置10と、メインメモリとして使用されるRAM(ランダムアクセスメモリ)及び磁気ディスク記憶装置等の補助記憶装置とを含む記憶装置20と、入出力装置30と、を備えている。
<System configuration>
FIG. 1 is a functional block diagram showing a configuration example of a geographic image processing apparatus according to this embodiment. As shown in FIG. 1, a geographic image processing apparatus includes a
入出力装置30は、例えば、キーボード及びマウス等のポインティングデバイスを含む入力装置31と、液晶ディスプレイ装置等の表示装置32と、プリンタ33と、を備えている。入力装置31は、ユーザによるパラメータの入力やコマンドの起動等、並びに、地理画像処理装置により処理を施した地理画像を用いた土地区画データ生成処理に用いられる。表示装置32及びプリンタ33は、地理画像や土地区画データをユーザに提示するために用いられる。尚、表示装置としては、表示装置32及びプリンタ33のいずれか一方のみを備える構成としてもよい。
The input /
処理装置10は、地理画像処理プログラム40を含んでいる。地理画像処理プログラム40は、プログラムモジュールとして、地理画像に含まれる色調情報をもとにして道路らしい領域(道路候補)を抽出する道路候補領域抽出部101と、地理画像のエッジ情報をもとにして道路らしいエッジを抽出する道路候補エッジ抽出部102と、道路らしい領域および道路らしいエッジをもとに道路の中心線を抽出する道路追跡処理部103と、抽出した道路中心線の重複部分を統合する道路統合処理部104と、抽出した道路の幅員情報を推定する幅員推定処理部105と、を含む。
The
記憶装置20は、地理画像データ記憶領域21と、道路候補領域データ記憶領域22と、道路候補エッジデータ記憶領域23と、道路領域データ記憶領域24と、を有する。図では、領域という用語を除いて示している。これらの記憶領域のうち、地理画像データ記憶領域21は、人工衛星又は航空写真画像から得られるデータを記憶する領域であり、地理画像処理装置による処理の実行前に予め記憶されているデータである。一方、道路候補領域データ記憶領域22、道路候補エッジデータ記憶領域23、道路領域データ記憶領域24は、地理画像処理装置において地理画像データ記憶領域21データに基づいて生成される。
The
<地理画像処理の概要>
図2は、画像処理の概要を示す図である。図2(a)は、予め記憶装置20に記憶されている地理画像データに基づく画像を示している。この地理画像データに対して、被覆分類処理を行ない、さらに、その結果をもとに、道路らしい領域を抽出することにより、図2(b)に示す道路候補領域画像が得られる。この道路候補領域画像は、道路候補領域データ記憶領域22に格納される。また、地理画像データに対してエッジ抽出処理を行ない、さらに抽出したエッジから道路らしくないノイズを除去することにより、図2(c)に示す道路候補エッジ画像が得られる。
<Outline of geographic image processing>
FIG. 2 is a diagram showing an outline of image processing. FIG. 2A shows an image based on geographic image data stored in the
この道路候補エッジ画像は、各画素でエッジの方向を表すデータを保持している。このデータは道路候補エッジデータとして道路候補エッジデータ記憶領域23に格納される。そして、道路候補領域データと道路候補エッジデータとをもとに、道路の中心線を抽出するため道路追跡処理を行なう。道路追跡処理では、自動的に与えられた開始点から道路を追跡していく。各開始点から道路を追跡すると、図2(d)に示す道路の追跡線を表示した画像が得られる。この道路追跡線(図中の白く細い線)は、各ノードにおける座標および結合しているノード情報を持つベクトルデータである。このベクトルデータは、道路領域データとして道路領域データ記憶領域24に格納される。但し、右上の領域には、ノイズのような表示が存在する。道路領域データにおける道路抽出線は、同一道路上に複数存在する可能性があり、その場合、推定されるデータが冗長となる。そのため重複したデータを統合する処理(道路統合処理)を行なうことでノイズを除去する。
This road candidate edge image holds data representing the edge direction at each pixel. This data is stored in the road candidate edge data storage area 23 as road candidate edge data. Then, based on the road candidate area data and the road candidate edge data, a road tracking process is performed to extract the center line of the road. In the road tracking process, the road is automatically tracked from the given starting point. When the road is tracked from each starting point, an image displaying the road tracking line shown in FIG. 2D is obtained. This road tracking line (white thin line in the figure) is vector data having coordinates at each node and node information connected thereto. This vector data is stored in the road area
図2(e)は、図2(d)における道路データを統合した結果を示す図である。統合後のベクトルデータは、道路領域データ記憶領域24に上書きされて格納される。統合データでは、ノイズはほぼ除去されてきれいな白い線として表されていることがわかる。次いで、幅員推定処理を行なう。道路領域データにおける各道路の道路ベクトル長と、統合したベクトルの本数から、道路の幅員を推定する。図2(f)は、道路データにおける各道路のベクトルデータの幅員を推定した結果を示す図である。明るい領域が道路として抽出された領域であり、幅員が示されている。幅員データは道路領域データ記憶部24に追加される。
FIG.2 (e) is a figure which shows the result of having integrated the road data in FIG.2 (d). The integrated vector data is overwritten and stored in the road area
<地理画像処理の詳細>
以下に、上記の地理画像処理における各処理の詳細について説明を行う。本実施の形態による地理画像処理装置において、地理画像処理プログラム40が起動されると、道路候補領域抽出部101、道路候補エッジ抽出部102、道路追跡部103、道路統合処理部104、幅員推定処理部105、が順に起動される。以下、それぞれの処理部における各処理について詳細に説明する。
<Details of geographic image processing>
Details of each process in the geographic image process will be described below. In the geographic image processing apparatus according to the present embodiment, when the geographic
(1)道路候補領域抽出処理
図3(a)は、地理画像処理プログラム40の道路候補領域抽出部101による処理の流れを示すフローチャート図である。図3(a)において、図1に示す〈以下同様〉道路候補領域抽出部101は、記憶装置20の地理画像データ記憶領域21から地理画像データを読み込み(S301)、被覆分類(上記非特許文献1参照。)を行なう(S302)。被覆分類は、地理画像内に含まれる各画素を、予め決められた様々な物体のクラス(道路、各色の建物、樹木、水域、土壌など)に分類する手法である。近年では、リモートセンシング技術の発達により、1m以下の高分解能衛星画像データが利用可能になった。従来の低分解能の衛星画像と異なり、人工構造物、樹木、道路などの地表物について、コンピュータによる被覆分類でもある程度の認識が可能である。また、航空写真画像も同様の特徴を持っている。
(1) Road Candidate Area Extraction Processing FIG. 3A is a flowchart showing the flow of processing by the road candidate
図3(b)は、図2(a)の画像に対する被覆分類処理の結果を示す図である。この画像においては、道路、各色の建物、樹木など数クラスの地表物に分類されている。しかしながら、現実的には「道路」と分類された領域が正確に実際の道路を表しているとは限らず、通常は、抽出漏れや、誤抽出を起こしている場合もある。そこで、この被覆分類結果をもとに、抽出漏れした領域を補い、また誤抽出の影響を緩和するため、道路候補領域抽出処理を行なう(S303)。道路候補領域を抽出する際には、被覆分類結果の中から、道路クラス以外に道路と誤認しやすいクラス(例えば、白色系や黒色系の色調特徴を持つ建造物のクラス)を、誤認しやすさの重みを考慮して抽出する。また、道路と誤認する可能性が低いクラス(例えば、樹木や土壌などのクラス)はこの処理の対象から除外する。そのような処理を加えることにより、被覆分類結果画像から、道路らしい領域(道路候補領域)を抽出することができる。図3(c)は、道路候補領域を示す図であり、明るく示されている領域が道路候補領域である。図3(c)に示す道路候補領域を特定するデータは、道路候補領域データとして道路候補領域データ記憶領域22に出力され格納される(S304)。 FIG. 3B is a diagram showing the result of the cover classification process for the image of FIG. In this image, it is classified into several classes of surface objects such as roads, buildings of various colors, and trees. However, in reality, an area classified as “road” does not always accurately represent an actual road, and usually there are cases where an extraction omission or an erroneous extraction occurs. Therefore, based on the covering classification result, road candidate region extraction processing is performed in order to compensate for the region where extraction has been omitted and to reduce the influence of erroneous extraction (S303). When extracting candidate road areas, it is easy to misidentify classes that are easily misidentified as roads other than road classes (for example, classes of buildings with white or black color characteristics) from the coverage classification results. This is extracted in consideration of the weight. In addition, classes that are unlikely to be mistaken for roads (for example, classes such as trees and soil) are excluded from this processing target. By adding such processing, it is possible to extract an area (road candidate area) that seems to be a road from the cover classification result image. FIG. 3C is a diagram showing a road candidate area, and a brightly shown area is a road candidate area. The data specifying the road candidate area shown in FIG. 3C is output and stored in the road candidate area data storage area 22 as road candidate area data (S304).
(2)道路候補エッジ抽出処理
図4(a)は、図1に示す(以下同様)地理画像処理プログラム40の道路候補エッジ抽出部102による処理の流れを示すフローチャート図である。図4(a)において道路候補エッジ抽出部102は、記憶装置20の地理画像データ記憶領域21から地図画像データを読み込み(S401)、エッジ抽出を行なう(S402)。尚、画像におけるエッジ抽出処理には様々な手法があるが、特にCanny法(上記非特許文献2参照。)が適している。図4(b)は、図2(a)の地理画像に対してCanny法によりエッジ抽出を行なった結果として得られた画像である。この画像には、道路のエッジが含まれているが、同時にノイズも多数含まれている可能性がある。そこで、次に、この画像から道路以外のノイズを除去する(S403)。ノイズを除去する際には、短いエッジや、道路らしくない急激に方向が変化しているエッジを除去する(上記非特許文献1参照。)。図4(c)は、図4(b)の画像に対してノイズ除去処理を行なった結果として得られた画像である。ノイズ除去後の各画素上のエッジデータは道路候補エッジデータとして道路候補エッジデータ記憶領域23に格納される(S404)。
(2) Road Candidate Edge Extraction Processing FIG. 4A is a flowchart showing the flow of processing by the road candidate
(3)道路追跡処理
図5は、地理画像処理プログラム40の道路追跡処理部103における処理の流れを示すフローチャート図である。図5において、図1に示す(以下同様)道路追跡処理部103は、記憶装置20の道路候補領域データ記憶領域21と道路候補エッジデータ記憶領域22からそれぞれのデータ(図3(c)の道路候補領域データと図4(c)の道路候補エッジデータ)を読み込み、その2つのデータを画像上で重ねあわせる処理を行う(S501)。図6(a)は、これら2つのデータを重ね合わせた様子を示す図である。道路追跡処理部103(図1)では、この図において道路追跡を行い道路の中心線のデータを抽出する。道路追跡を行なう際には、まず追跡時の開始点を設定する(S502)。開始点は、画像全体に対してまんべんなく多数点を設定するのが好ましい。例えば、図6(b)に示すように、画像における互いに直交する座標軸であるx軸とy軸とに対して平行で、かつ、等間隔に開始点を多数設定する方法が好ましい。このような方法によれば、ユーザが開始点を設定する必要がないという利点がある。
(3) Road Tracking Process FIG. 5 is a flowchart showing the flow of processing in the road
次に、各開始点から道路の追跡を行なう。道路の追跡処理としては、ラインテンプレートマッチング法により行なうのが好ましい(上記非特許文献1参照。)。まず、未処理の開始点を1つ選択し(S503)、スタート方向を決定する(S504)。スタート方向を決定する際には、図6(c)に示すように、長方形のテンプレートT1を画像に重ね、道路候補領域データと道路候補エッジデータとを参照する。そしてテンプレートT1の角度を変えて各角度での、両データから算出される道路らしさを測定し、より道路らしい方向をスタート方向とする。図6(c)の場合で説明すると、左上の方向がより道路らしい(道路候補領域データおよび道路候補エッジデータの明るい画素が多いことにより判定することができる)ため、左上の方向をスタート方向として決定する(スタート方向は、図中の矢印の方向である)。スタート方向を決定した後に、延長方向を探索する(S505)。延長方向を決定する際にも、ラインテンプレートの角度を変えながら、より道路らしい方向(を延長方向とする処理を継続する(図6(d)の明るい矩形と破線で示される角度の異なる矩形)。
Next, the road is tracked from each starting point. The road tracking process is preferably performed by a line template matching method (see
但し、スタート方向の決定時と異なり、延長方向を決定する際には、変化させる角度範囲を狭くすることが好ましい。それは、一般に道路は交差点や山間部などの特殊な場合を除けば、それほど急激に曲がることは少なく、比較的緩やかな曲線を描くことが多いためである。そして、延長方向を決定すると(道路候補エッジデータの明るい画素が多い方向)、ラインテンプレートの長さの分だけ道路候補エッジデータを延長し、延長先の点を、道路ベクトルを構成するノード(起点)とする。 However, unlike the determination of the start direction, it is preferable to narrow the angle range to be changed when determining the extension direction. This is because roads generally do not bend so rapidly except for special cases such as intersections and mountainous areas and often draw relatively gentle curves. When the extension direction is determined (the direction where there are many bright pixels in the road candidate edge data), the road candidate edge data is extended by the length of the line template, and the extension destination point is set as a node (starting point) constituting the road vector. ).
ここで、ラインテンプレートの角度を変えて延長方向を決定する際に、どの方向でも道路らしさが低いと判定される場合には、延長処理を中止し、道路の追跡を終了しフローチャートのS507の反対側の処理を行なう(S506)。延長方向が決定した場合は、延長先で再び延長方向を決定する(S505)。この処理を、延長方向が決定できなくなるまで、すなわち道路が途切れるまで行なう。このような道路の追跡を、S504で決定したスタート方向の反対側でも行なう。S507は反対側を追跡したかどうかの判定処理である。S503で設定した開始点に対して両側で道路の追跡を完了した後に、追跡時に設定されたノードを結合させることで生成された線分の連結データを1本の道路領域データとする(図6(e)のL1)。以上のS503からS507までの処理を、S502で設定した各開始点に関して行なう。S508はその判定処理である。図6(f)は道路追跡処理後の結果を示した図である。図6(f)に示すように、多数の開始点に基づいて、道路の追跡を行うため、多数の細い線が抽出されていることがわかる。各道路ベクトルのデータは、図10に示すような形式で記憶装置20〈図1〉に格納される。但し、“統合数”および“幅員”の項目は、この段階では求められていないため、これらの項目のデータは格納されていない。“道路ベクトル長”の項目は、後述する幅員推定処理で算出するため、この段階ではデータが格納されていないが、この段階でも算出可能であるためデータを格納しておいてもよい。
Here, when determining the extension direction by changing the angle of the line template, if it is determined that the road-likeness is low in any direction, the extension process is stopped, the road tracking is ended, and the opposite of S507 in the flowchart is performed. Side processing is performed (S506). If the extension direction is determined, the extension direction is determined again at the extension destination (S505). This process is performed until the extension direction cannot be determined, that is, until the road is interrupted. Such road tracking is also performed on the side opposite to the start direction determined in S504. S507 is processing for determining whether or not the other side has been tracked. After completing the tracking of the road on both sides with respect to the start point set in S503, the connection data of the line segment generated by combining the nodes set at the time of tracking is set as one road area data (FIG. 6). L1 of (e). The processes from S503 to S507 are performed for each start point set in S502. S508 is the determination process. FIG. 6F shows the result after the road tracking process. As shown in FIG. 6F, it can be seen that a large number of thin lines are extracted in order to track the road based on a large number of starting points. Each road vector data is stored in the
(4)道路統合処理
図7は、地理画像処理プログラム40の図1に示す(以下同様)道路追跡処理部103における処理の流れを示すフローチャート図である。図7において、道路統合処理部104は、記憶装置20の道路領域データ記録領域24から道路領域データを読み込み(S701)、道路領域データの中から道路ベクトルを1本だけ読み込む(S702)。各道路ベクトルに対して近傍の道路ベクトルと統合処理を行なう。まず、注目している道路ベクトル(A)の近傍に、距離と方向とが近い道路ベクトル(B)があるか否かをチェックする(S703)。距離と方向が近い道路ベクトルが近くに見つからなかった場合はS702に戻り、別の道路ベクトルを読み込む。距離と方向が近い道路ベクトルが近くに見つかった場合はS705に進み、2つの道路ベクトル(A)と道路ベクトル(B)とが統合すべきデータと推定されるためこれらを統合する。図8(b)および(c)は、図8(a)に示すような道路に対して抽出された2つの道路ベクトル(A)と(B)とが統合される様子を示すステップ図である。道路ベクトル(A)と(B)とを統合する際には、まず2つの道路ベクトルのノードの中から最も近接しているノードを探索し、このノードペアP1、P2、…を基準とする。この基準のノードペアP1、P2、…において前後のノードを調べ、それぞれのノードペアP1、P2、…におけるノード間の距離が一定範囲内であるノードペアを探索する。
(4) Road Integration Processing FIG. 7 is a flowchart showing the flow of processing in the road
ここで探索されたノードペアを統合対象のノードとする。この際、ノード間の距離が一定以上となり近接するノードがなくなったと判定されると探索処理を終了する。次に、統合対象のノードペアの中間位置に統合後のノードを設定する。図8(b)では、統合対象のノードペアが6ペアあるため、各ノードペアの中間に6個の新しいノードPA1、…が設定される。そしてこれらの新しいノードPA1、…を近い順に結合し、結合させて生成される連結した線分を新しい道路ベクトルとする。この際、統合比で、新たなノード座標を求めても良い、図8(c)では、統合比が2:5であるため、下に引き出した図に示すように、ノード座標が統合数の大きい方に近い位置になる。 The node pair searched here is set as a node to be integrated. At this time, if it is determined that the distance between the nodes is equal to or greater than a certain distance and there are no adjacent nodes, the search process is terminated. Next, the node after integration is set at an intermediate position of the node pair to be integrated. In FIG. 8B, since there are six node pairs to be integrated, six new nodes PA1,... Are set in the middle of each node pair. These new nodes PA1,... Are connected in the closest order, and a connected line segment generated by combining them is set as a new road vector. At this time, a new node coordinate may be obtained by the integration ratio. In FIG. 8C, since the integration ratio is 2: 5, the node coordinates indicate the integration number as shown in the drawing drawn below. It will be close to the larger one.
また、前の処理で近接したノードがなく切断された部分では、切断された部分のノードと新しい道路ベクトルのノードとを結合させる。この際、枝分かれした部分のノードは3つの道路ベクトルで共有される。また、統合の際には、これまでに統合した道路ベクトルの数(統合数)を記憶する。この統合数の情報は、後述する幅員推定処理で幅員を推定する際に使用することができる。道路ベクトル(A)と(B)との統合後に、道路領域データを更新する(S706)。この際、統合によって道路IDに増減が生じることがあるため、道路IDを付与し直す。S702からS706までの処理をすべての道路ベクトルに対して行なう(S707)。最後に、S702からS707までの処理の結果、道路領域データが更新されたか否かをチェックする(S708)。S702からS707までの処理の中で少なくとも1つの道路ベクトルが更新されていれば、S702に戻り再帰的に処理を繰り返す。更新がなければ処理を終了する。 Further, in a portion where there is no adjacent node and is cut in the previous processing, the node of the cut portion and the node of the new road vector are combined. At this time, the node of the branched portion is shared by the three road vectors. Further, at the time of integration, the number of road vectors integrated so far (number of integration) is stored. This information on the number of integrations can be used when the width is estimated in the width estimation process described later. After the road vectors (A) and (B) are integrated, the road area data is updated (S706). At this time, since the road ID may increase or decrease due to the integration, the road ID is reassigned. The processing from S702 to S706 is performed for all road vectors (S707). Finally, it is checked whether or not the road area data has been updated as a result of the processing from S702 to S707 (S708). If at least one road vector has been updated in the processes from S702 to S707, the process returns to S702 and the process is recursively repeated. If there is no update, the process ends.
図9は道路統合処理を示す概略図である。二又に分かれた道路上に4本の道路ベクトル(ID:0001〜0004)が存在しており、道路統合処理を適用した結果、統合数4の道路ベクトル(ID:0001)1本と、統合数2の道路ベクトル(ID:0002、0003)が2本生成されている様子が示されている。
FIG. 9 is a schematic diagram showing road integration processing. There are four road vectors (ID: 0001 to 0004) on the bifurcated road, and as a result of applying the road integration process, one road vector (ID: 0001) with an integrated number of four is integrated. A state in which two road vectors (ID: 0002, 0003) of
(5)幅員推定処理
図11は、地理画像処理プログラム40の幅員推定処理部105(図1参照)における処理の流れを示すフローチャート図である。図11において、幅員推定処理部105は、記憶装置20の道路領域データ記憶領域24から道路領域データを読み込む(S1101)。次いで、各道路ベクトルに対してS1102以降の処理を行なう。まず、各道路ベクトルに対し、道路ベクトル長(各ノード間のショートベクトルの長さの合計)を計算する(S1102)。次に、各道路ベクトルの道路ベクトル長と統合数とから幅員を推定する。本実施の形態では、道路追跡処理部103において道路ベクトルを抽出する際に、画像全体に対して均等に開始点を設定しているため、道路の面積が大きいほど多くの道路ベクトルが抽出される。そのため、道路統合処理部104において重複した道路ベクトルを統合する際には、道路の面積が大きいほど統合される道路ベクトルの本数も多くなる。面積は道路の長さと幅員とから概算することができるため、道路ベクトル長と道路ベクトルの統合数とから幅員を推定することができる。幅員の概算の例は、道路ベクトルの統合数/道路ベクトル(比)の長さである。幅員の推定は、基準となる幅員に上記の比を乗算することにより行う。より具体的には、下記の式(1)により求めることができる。
(5) Width Estimation Processing FIG. 11 is a flowchart showing the flow of processing in the width estimation processing unit 105 (see FIG. 1) of the geographic
(道路ベクトルの統合数/道路ベクトルの長さ)×a(比例定数) (1)
比例定数は、経験的に求めても良いし、同じ国、地域であれば、同じと推定して予め決めておいても良い。後に、実測値と比較して修正しても良い。
(Number of integrated road vectors / length of road vector) x a (proportional constant) (1)
The proportionality constant may be obtained empirically, or may be determined in advance assuming that the same country or region is the same. Later, it may be corrected by comparison with the actually measured value.
図12は、本実施の形態によって道路のベクトル及び幅員を抽出される様子を示す図である。図12(a)は、Y字型の道路の画像と、その上に設定された開始点を表している。図12(b)は、図12(a)の画像に対して道路追跡処理を適用した結果の画像である。道路上の複数の開始点から道路を追跡したため同一道路上に複数の道路ベクトルが存在する。図12(c)は、図12(b)の結果に対して道路統合処理を適用した結果画像である。道路統合処理により、同一道路内に複数存在した道路ベクトルが統合されている様子が示されている。図12(d)は、図12(c)の結果に対して幅員推定処理を適用した結果画像である。道路ベクトル長データと統合数データとをもとに、幅員を推定した結果を表している。 FIG. 12 is a diagram illustrating how road vectors and widths are extracted according to the present embodiment. FIG. 12A shows an image of a Y-shaped road and a start point set thereon. FIG. 12B is an image obtained as a result of applying the road tracking process to the image of FIG. Since the road is tracked from a plurality of starting points on the road, a plurality of road vectors exist on the same road. FIG. 12C is a result image obtained by applying road integration processing to the result of FIG. The road integration process shows a state in which a plurality of road vectors existing on the same road are integrated. FIG.12 (d) is a result image which applied the width | variety estimation process with respect to the result of FIG.12 (c). This shows the result of estimating the width based on the road vector length data and the integrated number data.
図13は、図10に対応する図であり、道路領域データ24の最終的な処理結果を例示した図である。各道路ベクトルのIDごとに各データが格納される。道路ID00001では、統合数が60、道路ベクトル長が150であり、道路ID00002では、統合数が40、道路ベクトル長が100である。S1103では、例えば、幅員は、統合数/ベクトル長で概算され、より具体的には上記の式(1)により求めると、以下のようになる。
FIG. 13 is a diagram corresponding to FIG. 10, and illustrates the final processing result of the
すなわち、上記の式(1)において、a=125(この値は任意)とすると、ID00001の道路の幅員は(60/150)×125=50となり、ID00002の道路の幅員は(40/100)×125=50となり、共に50となる。 That is, in the above formula (1), if a = 125 (this value is arbitrary), the width of the road of ID00001 is (60/150) × 125 = 50, and the width of the road of ID00002 is (40/100) X125 = 50, both 50.
<まとめ>
以上のように本発明の実施形態は、地表を撮影して得られた地理画像データを解析し、地表上の道路領域データを容易に作成する道路地図データ作成システムに関するものである。そしてそのシステムは、地理画像データから色調情報をもとにして道路の候補となる領域を抽出する道路候補領域抽出部(モジュール)と、地理画像データからエッジ情報をもとにして道路の候補となる領域を抽出する道路候補エッジ抽出部(モジュール)と、道路領域を追跡して道路のベクトル情報を抽出する道路追跡処理部(モジュール)と、重複した道路のベクトルを統合する道路統合処理部(モジュール)と、道路の幅員情報を推定する幅員推定処理部(モジュール)と、を備える。これにより幅員情報を含む重複の無い道路領域の抽出を自動化できる。
<Summary>
As described above, the embodiment of the present invention relates to a road map data creation system that analyzes geographic image data obtained by photographing a ground surface and easily creates road area data on the ground surface. The system includes a road candidate area extraction unit (module) that extracts a road candidate area from geographic image data based on color tone information, and a road candidate based on edge information from geographic image data. A road candidate edge extracting unit (module) for extracting a region, a road tracking processing unit (module) for tracking the road region and extracting road vector information, and a road integration processing unit for integrating overlapping road vectors ( Module) and a width estimation processing unit (module) for estimating road width information. This makes it possible to automate the extraction of road areas that do not include overlapping width information.
尚、本実施の形態の機能を実現するソフトウェアのプログラムコードによっても本発明は実現できる。この場合、プログラムコードを記録した記憶媒体をシステム或は装置に提供し、そのシステム或は装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、プロッピィ(登録商標)ディスク、CD−ROM、DVD−ROM、ハードディスク、光ディスク、光磁気ディスク、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。 The present invention can also be realized by a program code of software that implements the functions of the present embodiment. In this case, a storage medium in which the program code is recorded is provided to the system or apparatus, and the computer (or CPU or MPU) of the system or apparatus reads the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code itself and the storage medium storing the program code constitute the present invention. Examples of the storage medium for supplying such program code include a Propi (registered trademark) disk, CD-ROM, DVD-ROM, hard disk, optical disk, magneto-optical disk, CD-R, magnetic tape, and nonvolatile medium. A memory card, ROM, or the like is used.
また、プログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した実施の形態の機能が実現されるようにしてもよい。さらに、記憶媒体から読み出されたプログラムコードが、コンピュータ上のメモリに書き込まれた後、そのプログラムコードの指示に基づき、コンピュータのCPUなどが実際の処理の一部又は全部を行い、その処理によって前述した実施の形態の機能が実現されるようにしてもよい。 Also, based on the instruction of the program code, an OS (operating system) running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing. May be. Furthermore, after the program code read from the storage medium is written in the memory on the computer, the CPU of the computer or the like performs part or all of the actual processing based on the instruction of the program code. You may make it implement | achieve the function of embodiment mentioned above.
また、実施の形態の機能を実現するソフトウェアのプログラムコードがディスクやメモリ等の記憶手段又はCD−RW、CD−R等の記憶媒体に格納され、そのシステム又は装置のコンピュータ(又はCPUやMPU)が当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行することによっても、達成されるようにしてもよい。 Also, software program codes for realizing the functions of the embodiments are stored in a storage means such as a disk or memory or a storage medium such as a CD-RW or CD-R, and a computer (or CPU or MPU) of the system or apparatus thereof. However, it may be achieved by reading and executing the program code stored in the storage means or the storage medium.
本発明は、道路の地図データ作成装置に利用可能である。 The present invention can be used in a road map data creation device.
10 処理装置
20 記憶装置
21 地理画像データ記憶領域
22 道路候補領域データ記憶領域
23 道路候補エッジデータ記憶領域
24 道路領域データ記憶領域
30 入出力装置
31 入力装置
32 表示装置
33 プリンタ
40 地理画像処理プログラム
101 道路候補領域抽出部
102 道路候補エッジ抽出部
103 道路追跡処理部
104 道路統合処理部
105 幅員推定処理部
10
Claims (3)
前記地理画像データから抽出された前記地理画像の領域において複数の開始点をまんべんなく与え、与えられた該複数の開始点のそれぞれから道路を追跡していくことにより得られる追跡線に沿って、各開始点における座標及びそれと結合しているノードの座標とにより定義される道路のベクトルデータを抽出する道路追跡処理部と、
前記地理画像内の各道路領域において、前記道路のベクトルデータのうち重複データと推定されるベクトルデータを統合する道路統合処理部と、
前記地理画像データ内の各道路領域の幅員を統合された前記ベクトルデータの数に基づいて推定する幅員推定処理部と、
を備えることを特徴とする道路地図データ作成装置。 A road map data creation device that analyzes geographic images and creates road map data,
A plurality of starting points are uniformly provided in the region of the geographic image extracted from the geographic image data, and each of the plurality of starting points is traced along a tracking line obtained by tracking the road from each of the given starting points. A road tracking processing unit that extracts vector data of a road defined by the coordinates at the start point and the coordinates of the node connected to the start point;
In each road area in the geographic image, a road integration processing unit that integrates vector data estimated as duplicate data among vector data of the road;
A width estimation processing unit that estimates the width of each road area in the geographic image data based on the number of integrated vector data;
A road map data creation device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007255043A JP4850161B2 (en) | 2007-09-28 | 2007-09-28 | Road map data creation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007255043A JP4850161B2 (en) | 2007-09-28 | 2007-09-28 | Road map data creation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009086956A JP2009086956A (en) | 2009-04-23 |
JP4850161B2 true JP4850161B2 (en) | 2012-01-11 |
Family
ID=40660312
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007255043A Expired - Fee Related JP4850161B2 (en) | 2007-09-28 | 2007-09-28 | Road map data creation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4850161B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113468922B (en) * | 2020-03-31 | 2023-04-18 | 宇通客车股份有限公司 | Road boundary identification method and device based on radar point cloud |
CN113155033A (en) * | 2020-12-30 | 2021-07-23 | 交通运输部科学研究院 | Method for calculating rural highway pavement width based on remote sensing image |
CN113487900A (en) * | 2021-07-06 | 2021-10-08 | 北京邮电大学 | Asynchronous road information extraction system for satellite images and control method thereof |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004246554A (en) * | 2003-02-13 | 2004-09-02 | Zenrin Co Ltd | Road data generation method |
-
2007
- 2007-09-28 JP JP2007255043A patent/JP4850161B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009086956A (en) | 2009-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10198632B2 (en) | Survey data processing device, survey data processing method, and survey data processing program | |
EP2120009B1 (en) | Measuring device and measuring method | |
CN100371952C (en) | Video object recognition device and recognition method, video annotation giving device and giving method, and program | |
JP5360989B2 (en) | Geographic information generation system and geographical information generation method | |
US8649632B2 (en) | System and method for correlating oblique images to 3D building models | |
JP4825836B2 (en) | Road map data creation system | |
US20080298638A1 (en) | Map change detection device, map change detection method, and program | |
KR100971778B1 (en) | Method, system and computer-readable recording medium for matching of panoramic image using graph structure | |
JP4103898B2 (en) | Map information updating method and map updating apparatus | |
US10473453B2 (en) | Operating device, operating method, and program therefor | |
JP2015138428A (en) | Additional information display apparatus and additional information display program | |
JP4928993B2 (en) | Farm district drawing data creation system | |
Harvey | Performance evaluation for road extraction | |
JP2007128141A (en) | System and method for determining road lane number in road image | |
JP4850161B2 (en) | Road map data creation device | |
TW202022804A (en) | Method and system for road image reconstruction and vehicle positioning | |
Portugal et al. | Extracting Topological Information from Grid Maps for Robot Navigation. | |
JP5097629B2 (en) | Feature shape change detection program and feature shape change detection system | |
US9811889B2 (en) | Method, apparatus and computer program product for generating unobstructed object views | |
Fischler et al. | Automated techniques for road network modeling | |
CN107808160B (en) | Three-dimensional building extraction method and device | |
Chen et al. | Multi-type change detection of building models by integrating spatial and spectral information | |
Fusco et al. | An application of artificial intelligence to support the discovering of roman centuriation remains | |
JP2006023958A (en) | Program capable of determining road area and method for determining road area | |
JP2008276436A (en) | Method and unit for deciding edge line and ridge by image processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110929 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111011 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111018 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141028 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |