JP2009211150A - Extraction device for road network - Google Patents

Extraction device for road network Download PDF

Info

Publication number
JP2009211150A
JP2009211150A JP2008050793A JP2008050793A JP2009211150A JP 2009211150 A JP2009211150 A JP 2009211150A JP 2008050793 A JP2008050793 A JP 2008050793A JP 2008050793 A JP2008050793 A JP 2008050793A JP 2009211150 A JP2009211150 A JP 2009211150A
Authority
JP
Japan
Prior art keywords
road
processing unit
point
segment
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008050793A
Other languages
Japanese (ja)
Other versions
JP4847482B2 (en
Inventor
Kanji Yokogawa
完治 横川
Mitsuharu Ohazama
光晴 大峡
Sen Kubota
仙 久保田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Software Engineering Co Ltd
Original Assignee
Hitachi Software Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Software Engineering Co Ltd filed Critical Hitachi Software Engineering Co Ltd
Priority to JP2008050793A priority Critical patent/JP4847482B2/en
Publication of JP2009211150A publication Critical patent/JP2009211150A/en
Application granted granted Critical
Publication of JP4847482B2 publication Critical patent/JP4847482B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily extract a road network from a remote sensing image at high speed. <P>SOLUTION: An extraction device for the road network has: a selection processing part 206 selecting endpoints of a prescribed number N of road segments adjacent to each other after performing covering processing and line thinning processing based on the remote sensing image 211; a straight line generation processing part step 207 for generating straight lines in directions of ±θ of an extension direction from the endpoint of each road segment about a prescribed angle θ; an optimization processing part 208 obtaining a point (xmax, ymax) wherein a value obtained by dividing the number of pixels of a binary image corresponding to a line segment connecting each endpoint and a point (x, y) by the number of all the pixels becomes maximum about all the points inside an area surrounded by the generated 2N pieces of straight lines; and a connection processing part 209 generating the line segment connecting each endpoint and the point (xmax, ymax). <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、衛星画像や航空写真などのリモートセンシング画像から道路ネットワークを抽出して道路地図を作成する技術に係わる。   The present invention relates to a technology for creating a road map by extracting a road network from remote sensing images such as satellite images and aerial photographs.

リモートセンシング画像から道路地図を作成するには、大きく分けて2つの過程を経る。第1の過程は、リモートセンシング画像に対して被覆分類を行って道路と思われる領域を抽出する道路領域抽出過程である。通常、この道路領域抽出過程の結果では、何箇所か道路がギャップによって寸断されており、これを連結する必要がある。特に複数の道路が交差する地点で寸断されている場合が多い。第2の過程は、複数の道路領域の間のギャップを埋めて道路ネットワークを生成する道路ネットワーク化過程である。   Creating a road map from a remote sensing image is roughly divided into two processes. The first process is a road area extraction process in which coverage classification is performed on the remote sensing image to extract an area considered to be a road. Usually, in the result of this road area extraction process, some roads are cut by gaps and need to be connected. In particular, there are many cases where the road is cut off at a point where a plurality of roads intersect. The second process is a road networking process in which a road network is generated by filling a gap between a plurality of road areas.

埋めるべきギャップの形状は、主にI字路・Y字路・X字路・T字路がある。I字路では二つの道路が一点で交わる。Y字路では三つの道路が一点で交わる。X字路では四つの道路が一点で交わる。T字路ではある道路に斜めに別の道路が交わる。   The shape of the gap to be filled mainly includes I-junction, Y-junction, X-junction, and T-junction. In I-junction, two roads meet at one point. On the Y-junction, three roads meet at one point. On the X-junction, four roads meet at one point. On a T-junction, one road crosses diagonally with another road.

下記非特許文献1のネットワーク化の方法では、交差点をモデル化して複数のテンプレートを予め用意しておき、これらのテンプレートとリモートセンシング画像とのテンプレートマッチング処理を行い、最もマッチするものを選び出してギャップを埋める。その他、出願人の発明として、下記の特許文献1から3までがあり、いずれも画像から道路領域を切り出す技術を開示している。  In the networking method described in Non-Patent Document 1 below, a plurality of templates are prepared in advance by modeling intersections, template matching processing between these templates and remote sensing images is performed, and the best matching is selected and a gap is selected. Fill. In addition, as the invention of the applicant, there are the following Patent Documents 1 to 3, which all disclose a technique for cutting out a road region from an image.

G. Koutani, K. Uchimura and Z. Hu:Road updating from high resolution arial imagery using road intersection model:http://www.photogrammetry.ethz.ch/pitsanulok_workshop/papers/25.pdfG. Koutani, K. Uchimura and Z. Hu: Road updating from high resolution arial imagery using road intersection model: http://www.photogrammetry.ethz.ch/pitsanulok_workshop/papers/25.pdf ウィキペディア:K平均法:http://ja.wikipedia.org/wiki/K%E5%B9%B3%E5%9D%87%E6%B3%95Wikipedia: K-average method: http://en.wikipedia.org/wiki/K%E5%B9%B3%E5%9D%87%E6%B3%95 酒井幸市:デジタル画像処理入門:pp.68-70、pp.87-90 CQ出版(2002)Yukiichi Sakai: Introduction to Digital Image Processing: pp.68-70, pp.87-90 CQ Publishing (2002) 柳井久江:エクセル統計 ――実用多変量解析編――:pp.115-117 オーエムエス出版(2004)Hisae Yanai: Excel Statistics-Practical Multivariate Analysis-: pp.115-117 OM Publishing (2004) 特開2006−23958号公報JP 2006-23958 A 特開2007−73009号公報JP 2007-73009 A 特開2007−33931号公報JP 2007-33931 A

非特許文献1に記載の方法の問題点は、計算量を大きくなることである。例えば、Y字路を処理する場合、3つの道路間の角度の違うテンプレートごとに、そのテンプレートの向きと位置をパラメータとしてテンプレートマッチングを行う必要があり、テンプレートの数×テンプレートの向きの数×テンプレートの位置の数に比例する計算量を必要とする。一般に、従来の道路ネットワーク化の方法は、多くの計算量を必要としていた。   The problem with the method described in Non-Patent Document 1 is that the amount of calculation becomes large. For example, when processing a Y-junction, it is necessary to perform template matching for each template with different angles between three roads, using the template orientation and position as parameters, and the number of templates x the number of template orientations x templates It requires a calculation amount proportional to the number of positions. In general, the conventional road networking method requires a large amount of calculation.

本発明は、リモートセンシング画像から道路ネットワークを簡単かつ高速に抽出することを目的とする。   An object of the present invention is to extract a road network from a remote sensing image easily and at high speed.

本発明は、リモートセンシング画像から道路を抽出する処理を行う道路ネットワーク抽出装置であって、前記リモートセンシング画像に被覆分類を適用して、道路領域を示す画素の値と、道路領域でない画素の値と、する2値画像を生成する被覆分類処理部と、前記2値画像を細線化して道路セグメントを生成する細線化処理部と、前記道路セグメントの互いに隣接する端点、又は、前記道路セグメントとそれに隣接する道路セグメントの端点を選択する選択処理部と、所定の角度θについて各道路セグメントの端点からその延長方向の±θの方向に直線を生成するか、又は、所定の角度θについて道路セグメントの端点からその延長方向の±θの方向に直線を生成する直線生成処理部と、±θの方向に延びる直線が囲む領域内の全ての点(x, y)内において、端点と点(x, y)を結ぶ線分と対応する前記道路領域を示す画素の数を線分の全画素数で除算した値が最大になる点(xmax, ymax)を求める最適化処理部と、端点と前記点(xmax, ymax)とを結ぶ線分を生成する結合処理部と、を有することを特徴とする道路ネットワーク抽出装置が提供される。   The present invention is a road network extraction apparatus that performs a process of extracting a road from a remote sensing image, and applies a cover classification to the remote sensing image to obtain a pixel value indicating a road area and a pixel value that is not a road area. A covering classification processing unit that generates a binary image, a thinning processing unit that generates a road segment by thinning the binary image, an adjacent end point of the road segment, or the road segment and the road segment A selection processing unit that selects an end point of an adjacent road segment, and generates a straight line from the end point of each road segment in the direction of ± θ with respect to a predetermined angle θ, or a road segment at a predetermined angle θ. A straight line generation processing unit that generates a straight line from the end point in the direction of ± θ of the extension direction, and all points (x, y) in the region surrounded by the straight line extending in the direction of ± θ In this case, the optimum value is obtained by finding the maximum value (xmax, ymax) obtained by dividing the number of pixels indicating the road region corresponding to the line segment connecting the end point and the point (x, y) by the total number of pixels of the line segment. There is provided a road network extraction apparatus comprising: a processing unit; and a joint processing unit that generates a line segment connecting the end point and the point (xmax, ymax).

ここで、2本の道路セグメントを選択した場合に、いずれか一方のみの延長線が他方に交わるか否かを判定して、T字路であるか、T字路以外であるかを判定する。   Here, when two road segments are selected, it is determined whether only one of the extension lines intersects the other, and it is determined whether the road is a T-junction or other than a T-junction. .

また、本発明は、リモートセンシング画像から道路を抽出する処理を行う道路ネットワーク抽出装置であって、前記リモートセンシング画像に被覆分類を適用して、道路領域を示す画素の値と、道路領域でない画素の値と、する2値画像を生成する被覆分類処理部と、前記2値画像を細線化して道路セグメントを生成する細線化処理部と、前記道路セグメントのうちから2本を選択した場合に、いずれか一方のみの延長線が他方に交わるか否かを判定して、交わる場合にはT字路であると判定し、所定の数Nの互いに隣接する道路セグメントの端点を選択する選択処理部と、所定の角度θについて各道路セグメントの端点からその延長方向の±θの方向に直線を生成する直線生成処理部と、生成された2N個の直線が囲む領域内の全ての点(x, y)について、各端点と点(x, y)を結ぶ線分と対応する前記道路領域を示す画素の数を線分の全画素数で除算した値が最大になる点(xmax, ymax)を求める最適化処理部と、各端点と前記点(xmax, ymax)とを結ぶ線分を生成する結合処理部と、を有することを特徴とする道路ネットワーク抽出装置である。なお、細線化処理には微小な道路セグメントを消去する処理を含む。この方法が必要とする計算量は2N個の直線が囲む領域内の点の数に比例する。   Further, the present invention is a road network extraction device that performs a process of extracting a road from a remote sensing image, and applies a cover classification to the remote sensing image to obtain a pixel value indicating a road area and a pixel that is not a road area When selecting two of the road segment, a cover classification processing unit that generates a binary image, a thinning processing unit that generates a road segment by thinning the binary image, and the road segment, A selection processing unit that determines whether or not only one of the extension lines intersects the other, and determines that it is a T-junction if it intersects and selects a predetermined number N of adjacent road segment end points A straight line generation processing unit that generates a straight line from the end point of each road segment in the direction of ± θ in the extension direction at a predetermined angle θ, and all the points (x, y) Optimum to find a point (xmax, ymax) that maximizes the value obtained by dividing the number of pixels indicating the road region corresponding to the line segment connecting each end point and the point (x, y) by the total number of pixels of the line segment A road network extraction apparatus comprising: a processing unit; and a joint processing unit that generates a line segment connecting each end point and the point (xmax, ymax). The thinning process includes a process of deleting a minute road segment. The amount of computation required by this method is proportional to the number of points in the region surrounded by 2N straight lines.

本発明は、リモートセンシング画像から道路を抽出する処理を行う道路ネットワーク抽出装置であって、前記リモートセンシング画像に被覆分類を適用して、道路領域を示す画素の値と、道路領域でない画素の値と、する2値画像を生成する被覆分類処理部と、前記2値画像を細線化して道路セグメントを生成する細線化処理部と、前記道路セグメントのうちから2本を選択した場合に、両方が互いに交わるか否かを判定して、交わる場合にはT字路以外であると判定し、道路セグメントとそれに隣接する道路セグメントの端点を選択する選択処理部と、所定の角度θについて道路セグメントの端点からその延長方向の±θの方向に直線を生成する直線生成処理部と、生成された2個の直線ともう一方の道路セグメントとの交点を求め、これらの二つの交点を結ぶ線分上の点(x, y)と端点を結ぶ線分とに対応する前記道路領域を示す画素の数を点(x, y)と端点を結ぶ線分の全画素数で除算した値が最大になる点(xmax, ymax)を求める最適化処理部と、端点と前記点(xmax, ymax)を結ぶ線分を生成する結合処理部と、を有することを特徴とする道路ネットワーク抽出装置であっても良い。なお、細線化処理には微小な道路セグメントを消去する処理を含む。この方法が必要とする計算量は二つの交点を結ぶ線分上の点の数に比例する。   The present invention is a road network extraction apparatus that performs a process of extracting a road from a remote sensing image, and applies a cover classification to the remote sensing image to obtain a pixel value indicating a road area and a pixel value that is not a road area. Both of the covering classification processing unit that generates a binary image, the thinning processing unit that generates a road segment by thinning the binary image, and two of the road segments are selected. It is determined whether or not they intersect with each other, and when intersecting, it is determined that the road segment is not a T-junction, a selection processing unit that selects a road segment and an end point of a road segment adjacent to the road segment, and a road segment The straight line generation processing unit that generates a straight line from the end point in the direction of ± θ of the extension direction, and the intersection of the two generated straight lines and the other road segment are obtained. The number of pixels indicating the road region corresponding to the point (x, y) on the line segment connecting the two intersections and the line segment connecting the end points is the total number of pixels of the line segment connecting the point (x, y) to the end points And an optimization processing unit for obtaining a point (xmax, ymax) where the value divided by the maximum is obtained, and a joint processing unit for generating a line segment connecting the end point and the point (xmax, ymax) It may be a road network extraction device. The thinning process includes a process of deleting a minute road segment. The amount of computation required by this method is proportional to the number of points on the line segment connecting the two intersections.

また、本発明は、上記処理ステップを実行する方法、該ステップをコンピュータに実行させるためのプログラム、該プログラムを記録するコンピュータ読みとり可能な記録媒体であっても良い。   The present invention may also be a method for executing the above processing steps, a program for causing a computer to execute the steps, and a computer-readable recording medium for recording the program.

本発明によれば、道路領域間のギャップを埋める処理は、必要な計算量が定義域に属する点の数に比例するので、テンプレートマッチングなどにより処理するよりも高速に処理を行なうことができる。   According to the present invention, the process for filling the gap between road areas can be performed at a higher speed than the process by template matching or the like because the necessary calculation amount is proportional to the number of points belonging to the definition area.

以下、本発明の実施の形態による道路抽出技術について図面を参照しながら説明を行う。図1は、本実施の形態による道路ネットワークの抽出処理の概要を示すフローチャート図である。図2は、本実施の形態による道路ネットワークの抽出装置のハードウェアシステムの一例を示す機能ブロック図である。   Hereinafter, a road extraction technique according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a flowchart showing an outline of road network extraction processing according to the present embodiment. FIG. 2 is a functional block diagram showing an example of a hardware system of a road network extraction device according to this embodiment.

図2に示すように、本実施の形態による道路抽出装置は、入力装置、出力装置、処理装置203、および、記憶装置210を有している。入力装置としては、マウス201とキーボード202とがシステムの処理装置203に接続されている。マウス201とキーボード202とは、コマンドの起動やパラメータの入力などに用いられる。出力装置としては、例えばディスプレイ装置215がシステムの処理装置に接続されている。ディスプレイ装置215は、画像データ、システムの状態、および、入力のプロンプトなどを表示するのに用いられる。   As illustrated in FIG. 2, the road extraction device according to the present embodiment includes an input device, an output device, a processing device 203, and a storage device 210. As an input device, a mouse 201 and a keyboard 202 are connected to the processing device 203 of the system. The mouse 201 and the keyboard 202 are used for starting commands and inputting parameters. As an output device, for example, a display device 215 is connected to a processing device of the system. The display device 215 is used to display image data, system status, input prompts, and the like.

処理装置203は、被覆分類処理部204・細線化処理部205・選択処理部206・直線生成処理部207・最適化処理部208・結合処理部209を含む。記憶装置210は、リモートセンシング画像の記憶領域211・分類画像の記憶領域212・作業用2値画像の記憶領域213・出力2値画像の記憶領域214を含む。   The processing device 203 includes a cover classification processing unit 204, a thinning processing unit 205, a selection processing unit 206, a straight line generation processing unit 207, an optimization processing unit 208, and a combination processing unit 209. The storage device 210 includes a remote sensing image storage area 211, a classification image storage area 212, a work binary image storage area 213, and an output binary image storage area 214.

被覆分類処理部204は、リモートセンシング画像211を入力として道路と分類された画像等の画像の分類処理を行い、得られた結果を分類画像の記憶領域212に出力する。細線化処理部205は、道路と分類された領域に対して細線化処理を適用して、道路セグメントを、作業用2値画像記憶領域213および出力2値画像記憶領域214に出力する。選択処理部206は、作業用2値画像記憶領域213に記憶されている作業用2値画像を走査して、互いに隣接している道路セグメントの端点のクラスタ、または、互いに隣接している道路セグメントと道路セグメントの端点との組を選択する。   The cover classification processing unit 204 performs a classification process of an image such as an image classified as a road using the remote sensing image 211 as an input, and outputs the obtained result to the classification image storage area 212. The thinning processing unit 205 applies the thinning process to the area classified as a road, and outputs the road segment to the work binary image storage area 213 and the output binary image storage area 214. The selection processing unit 206 scans the work binary image stored in the work binary image storage area 213, and clusters the end points of road segments adjacent to each other or road segments adjacent to each other. And a pair of road segment endpoints.

尚、ここで、近くにある2本の道路セグメントを選択した場合に、いずれか一方のみの延長線が他方に交わるか否かを判定して、YesであればT字路であると判定し、Noであれば(道路セグメントの両方の延長線が交わる場合)、T字路以外(Y字路、X字路、I字路)であると判定する。   Here, when two nearby road segments are selected, it is determined whether or not only one of the extension lines intersects the other. If Yes, it is determined that the road is a T-junction. If it is No (when both extension lines of the road segment intersect), it is determined that it is other than the T-shaped road (Y-shaped road, X-shaped road, I-shaped road).

直線生成処理部207は、所定の角度θについて、選択された各道路セグメントの端点からその延長方向の±θの方向に引かれた直線の情報を算出する。最適化処理部208は、直線生成処理部207により得られた直線の情報から、作業用2値画像213上に最適化の定義域を求める。次に定義域内の全ての点について、各端点と点とを結ぶ線分に対応する2値画像である分類画像212の道路領域を示す画素の数を線分の全画素数で除算した値が最大になる点を求める。   The straight line generation processing unit 207 calculates information on a straight line drawn in the direction of ± θ of the extension direction from the end point of each selected road segment for a predetermined angle θ. The optimization processing unit 208 obtains an optimization definition area on the work binary image 213 from the straight line information obtained by the straight line generation processing unit 207. Next, for all points in the definition area, a value obtained by dividing the number of pixels indicating the road region of the classification image 212 that is a binary image corresponding to the line segment connecting each end point by the total number of pixels of the line segment is Find the maximum point.

尚、本実施の形態においては、「線分の道路らしさ」は値1の道路領域を示す画素の、線分上の全画素に対する割合としている。一般に、画素値の総和に基づくと、線分は道路の領域を通るが、道路以外の領域も無制限に通ることを許してしまうため、適していない。   In the present embodiment, the “line-like road-likeness” is a ratio of pixels indicating a road area having a value of 1 to all pixels on the line segment. Generally, based on the sum of pixel values, a line segment passes through a road area, but it is not suitable because it allows an area other than the road to pass through indefinitely.

すなわち、例えば、以下の2つの線分のパターンを考える。
L1:000111010010000
L2:0011101000
画素値の総和では、L1は5、L2は4となり、L1の方が値は大きくなってしまうが、「道路らしさ」、すなわち割合では、L1は5/15=0.333…となり、L2は4/10=0.4となり、L2の方が値は大きくなる。従って、割合で考えるのが妥当である。
That is, for example, consider the following two line segment patterns.
L1: 000111010010000
L2: 0011101000
In the sum of the pixel values, L1 is 5 and L2 is 4, and the value of L1 is larger. However, in the “road likeness”, that is, the ratio, L1 is 5/15 = 0.333. 4/10 = 0.4, and the value of L2 is larger. Therefore, it is reasonable to think in proportion.

結合処理部209は、各端点と最大になる点とを結ぶ線分を、出力2値画像214内に生成する。表示処理部は、ディスプレイ215に表示させる制御を行う。   The combination processing unit 209 generates a line segment connecting each end point and the maximum point in the output binary image 214. The display processing unit performs control to display on the display 215.

図1に示すように、上記の処理装置において、まず処理を開始すると(start)、ステップ101の被覆分類は、次のようにして処理する。まず、リモートセンシング画像の画素をRGB色空間に写像する。次にRGB色空間において、K平均法に基づいてクラスタリングする(上記非特許文献2参照)。すなわち、
(1)各要素xiに対してランダムにクラスタに割り振る。
(2)割り振った要素をもとに、各クラスタにおいて中心Vjを計算する。計算は、通常、割り当てられた各要素の平均が使用される。
(3)各xiと各Vjとのユークリッド距離を求め、xiを最も近い中心のクラスタに割り当て直す。
(4)上記の処理で全てのxiのクラスタの割り当てが変化しなかった場合は処理を終了する。それ以外の場合は、新しく割り振られたクラスタからVjを再計算して上記の処理を繰り返す。
As shown in FIG. 1, in the above processing apparatus, when processing is started (start), the covering classification in step 101 is processed as follows. First, the pixels of the remote sensing image are mapped to the RGB color space. Next, clustering is performed based on the K-average method in the RGB color space (see Non-Patent Document 2 above). That is,
(1) A cluster is randomly assigned to each element xi.
(2) Calculate the center Vj in each cluster based on the allocated elements. The calculation typically uses the average of each assigned element.
(3) Find the Euclidean distance between each xi and each Vj, and reassign xi to the nearest central cluster.
(4) If the allocation of all xi clusters has not changed in the above processing, the processing is terminated. Otherwise, Vj is recalculated from the newly allocated cluster and the above process is repeated.

また、別途、リモートセンシング画像から道路の色情報を求めておく。この色情報に基づいて、クラスタリング結果から道路領域と判断されるものを、マウスなどを利用して手作業で抽出し、道路領域に対応する画素の値を“1”、それ以外の画素の値を“0”とする分類画像を生成する。この作業は画像認識などを利用して自動的に行うこともできる(上記非特許文献2参照)。   Separately, road color information is obtained from the remote sensing image. Based on this color information, what is determined to be a road area from the clustering result is manually extracted using a mouse or the like, the pixel value corresponding to the road area is set to “1”, and the other pixel values A classification image with “0” is generated. This operation can also be performed automatically using image recognition or the like (see Non-Patent Document 2 above).

ステップ102の細線化処理においては、ステップ101で得られた2値画像を、例えば左上から順次ラスタ走査し、値が“1”の画素を囲む周辺の8個の画素を調べ、いくつかのパターン条件のうち、少なくとも1つに合致すれば、その中心の値“1”の画素を値“0”に変更する。これを変更が生じなくなるまで繰り返す(上記非特許文献3参照]。   In the thinning process in step 102, the binary image obtained in step 101 is raster-scanned sequentially from the upper left, for example, and the surrounding eight pixels surrounding the pixel having the value “1” are examined, and several patterns are obtained. If at least one of the conditions is met, the pixel having the center value “1” is changed to the value “0”. This is repeated until no change occurs (see Non-Patent Document 3 above).

図1のステップ103の選択処理においては、画像の全体をみて、端点が近いもの(クラスタ)を検索する。すべての細線の端点を要素とする階層的クラスタ分析を行う。階層的クラスタ分析は、以下の手順で行われる(上記非特許文献4参照)。
(1)1つの要素からなるクラスタを生成する。
(2)閾値以下の、最も距離の短い2つのクラスタを融合して1つのクラスタを生成する。
(3)融合が起きなければ処理を終了し、融合が起きれば上記の(2)に戻る。
In the selection process in step 103 of FIG. 1, the entire image is searched for a cluster (cluster) having close endpoints. Perform hierarchical cluster analysis with the endpoints of all thin lines as elements. The hierarchical cluster analysis is performed according to the following procedure (see Non-Patent Document 4 above).
(1) Generate a cluster consisting of one element.
(2) One cluster is generated by fusing two shortest clusters that are equal to or less than the threshold.
(3) If fusion does not occur, the process ends. If fusion occurs, return to (2) above.

ここで、距離は最長距離に基づいて決める。すなわち、2つのクラスタ間の距離をそれぞれのクラスタから1つずつ選んだ要素間のユークリッド距離の中で最も大きな値として定義する。上記の階層的クラスタ分析により、互いに隣接する端点の組が生成できる(上記比特許文献4参照)。選択ができる場合(YES)には、ステップ105に進むが、選択ができなくなった場合には、処理を終了させる(end)。   Here, the distance is determined based on the longest distance. That is, the distance between two clusters is defined as the largest value among the Euclidean distances between elements selected one by one from each cluster. By the above-described hierarchical cluster analysis, a pair of end points adjacent to each other can be generated (see the above-mentioned comparative patent document 4). If the selection can be made (YES), the process proceeds to step 105. If the selection cannot be made, the process is ended (end).

図1のステップ106の最適化処理は、直線で囲まれた定義域を求める処理と、求めた定義域上での計算の処理と、から構成される。定義域を求める処理は、次の手順で行われる。
(1)2次元配列を用意して、その各要素に0を代入する。
(2)互いに隣接する全ての端点について、その端点を始点とする直線の組で囲まれる2次元配列の要素の値を1つ増やす。
The optimization process in step 106 in FIG. 1 includes a process for obtaining a definition area surrounded by a straight line and a process for calculation on the obtained definition area. The process for obtaining the domain is performed in the following procedure.
(1) Prepare a two-dimensional array and substitute 0 for each element.
(2) For all end points adjacent to each other, the value of the element of the two-dimensional array surrounded by a set of straight lines starting from the end points is increased by one.

端点の数をNとすると、上記の処理の結果、値がNである2次元配列の要素が定義域に対応するようになる。   Assuming that the number of end points is N, as a result of the above processing, the elements of the two-dimensional array whose value is N correspond to the domain.

定義域上での計算の処理は、定義域上の全ての点と隣接する端点とを結ぶ線分の道路らしさを計算し、道路らしさが最大になる定義域上の点を求める。線分の道路らしさは線分に対応する2値画像の画素の数を線分の全画素数で除算した値で定義される。   In the calculation process on the domain, the road-likeness of a line segment connecting all the points on the domain and the adjacent end points is calculated, and the point on the domain where the road-likeness is maximized is obtained. The road-likeness of the line segment is defined by a value obtained by dividing the number of pixels of the binary image corresponding to the line segment by the total number of pixels of the line segment.

次いで、最適化された道路・端点を結合して道路を生成する(ステップ107)。ステップ103からステップ107の処理を継続的に実行し、選択する対象となる端点がなくなると(104でNO)、処理を終了する(end)。   Next, a road is generated by combining the optimized road / end points (step 107). The processing from step 103 to step 107 is continuously executed, and when there is no end point to be selected (NO in 104), the processing ends (end).

図3A・Bは、本発明の第1の実施の形態による道路抽出技術であって、その抽出方法をI字路に適用した例を示す図である。図3A(a)においては、被覆分類処理部204が、上記非特許文献2に示されているように、被覆分類処理を行った結果として得られた2値画像を表示画面301に表示させた図であり、2つの道路領域303a・303bが示されている。この道路領域303a・303bは、ノイズなどを含んでいるため、太めの領域として示されている。図3A(b)は、細線化処理部205が上記非特許文献3に記載されているように、被覆分類処理がなされた道路領域303a・303bに細線化処理を適用した結果として生成された道路セグメント305a・305bを示す図である。   3A and 3B are diagrams showing an example of road extraction technology according to the first embodiment of the present invention, in which the extraction method is applied to an I-junction. In FIG. 3A (a), the cover classification processing unit 204 displays a binary image obtained as a result of performing the cover classification process on the display screen 301 as shown in Non-Patent Document 2 above. It is a figure and two road area | regions 303a * 303b are shown. Since the road areas 303a and 303b include noise and the like, they are shown as thick areas. FIG. 3A (b) shows a road generated as a result of thinning processing applied to the road regions 303a and 303b subjected to the cover classification processing as described in Non-Patent Document 3 by the thinning processing unit 205. It is a figure which shows segment 305a * 305b.

ここで、近くにある2本の道路セグメント305a・305bを選択処理部206が選択した場合に、いずれか一方のみの延長線が他方に交わるか否かを判定すると、この場合にはNoであるため(道路セグメントの両方の延長線L1・L4が交わる場合に該当する)、T字路以外(この場合はI字路)であると判定する。図3A(c)は、所定の角度θについて選択処理部206が選択した各道路セグメント305a・305bの端点P1、P2からその延長方向の±θの方向に直線生成処理部207が生成した直線L2、L3、及び、L5、L6を示す。図3A(d)は四つの直線L2・L3、L5、L6で囲まれた領域R1(α、β、γ)を示す。この領域R1内の全ての点(x, y)について、最適化処理部208は、各端点P1、P2と点(x, y)とを結ぶ線分に対応する2値画像の画素の数を線分の全画素数で除算した値が最大になる点を求める。図3A(e)の黒丸Pmaxはその値が最大になる点を示している。図3A(f)は、結合処理部209が、値が最大となる点Pmaxと二つの道路セグメントの端点P1、P2とを結合し、道路のネットワーク化が完了したことを示す図である。   Here, when the selection processing unit 206 selects two nearby road segments 305a and 305b, it is No in this case when it is determined whether only one of the extension lines intersects the other. For this reason (corresponding to the case where both extension lines L1 and L4 of the road segment intersect), it is determined that the road segment is other than the T-shaped road (in this case, the I-shaped road). FIG. 3A (c) shows a straight line L2 generated by the straight line generation processing unit 207 from the end points P1 and P2 of the road segments 305a and 305b selected by the selection processing unit 206 for a predetermined angle θ in the direction of ± θ in the extension direction. , L3, and L5 and L6. FIG. 3A (d) shows a region R1 (α, β, γ) surrounded by four straight lines L2, L3, L5, and L6. For all the points (x, y) in the region R1, the optimization processing unit 208 calculates the number of pixels of the binary image corresponding to the line segment connecting each of the end points P1, P2 and the point (x, y). Find the point where the value divided by the total number of pixels in the line segment is maximum. The black circle Pmax in FIG. 3A (e) indicates the point where the value becomes maximum. FIG. 3A (f) shows that the combination processing unit 209 combines the point Pmax having the maximum value with the end points P1 and P2 of the two road segments, and the networking of the road is completed.

図3Bは、図3A(d)に対応する図であり、最適化処理の詳細を示す図である。交点(x,y)は、領域R1内に存在するが、最適化の例として、この交点のうち図に示される点P31とP32とを比較してみる。交点P31を形成する線L31−L32と、交点P32を形成する線L41−L42と、を比較すると、線L31−L32は2値画素の画素値が“1”である領域R11と対応する画素数が、線41−42と領域R12とが対応する領域の画素数よりもはるかに多いことがわかる(L31−L32>>L41−L42)。このようにして、領域R1内の交点(x、y)について、それぞれの交点における、交点を形成する線と対応する2値画素の画素値が“1”である画素の割合が最大となる交点Pmaxを求めることができる。尚、対応する画素は、必ずしも領域R1内に入っていなくても、交点が領域R1内に入っていれば良い。値“1”の画素の割合が最大となるということは、その線に沿った領域が実際の道路であるとすることが最も確かであるという考え方に基づくものである。   FIG. 3B is a diagram corresponding to FIG. 3A (d) and is a diagram illustrating details of the optimization process. Although the intersection (x, y) exists in the region R1, as an example of optimization, the points P31 and P32 shown in the figure among these intersections will be compared. Comparing the line L31-L32 forming the intersection point P31 with the line L41-L42 forming the intersection point P32, the line L31-L32 indicates the number of pixels corresponding to the region R11 in which the pixel value of the binary pixel is “1”. However, it can be seen that the number of pixels in the region corresponding to the line 41-42 and the region R12 is much larger (L31-L32 >> L41-L42). In this way, for the intersection (x, y) in the region R1, the intersection at which the ratio of the pixels whose binary pixel values corresponding to the lines forming the intersection are “1” at the intersection is the maximum. Pmax can be determined. Note that the corresponding pixel does not necessarily fall within the region R1, as long as the intersection is within the region R1. The fact that the ratio of the pixels having the value “1” is the maximum is based on the idea that it is most certain that the area along the line is an actual road.

次に、本発明の第2の実施の形態による道路抽出技術であって、その抽出方法をT字路に適用した例について図4を参照しながら説明を行う。図4A(a)は、被覆分類処理部204が、上記非特許文献2に示されているように、被覆分類処理を行った結果として得られた2値画像を表示画面401に表示させた図であり、2つの道路領域403a・403bが示されている。図4A(b)は、道路領域403a・403bに細線化処理部205が細線化処理を適用した結果として生成された道路セグメント405a・405bの例を示す図である。   Next, an example of road extraction technology according to the second embodiment of the present invention in which the extraction method is applied to a T-junction will be described with reference to FIG. FIG. 4A (a) is a diagram in which the cover classification processing unit 204 displays a binary image obtained as a result of performing the cover classification process on the display screen 401 as shown in Non-Patent Document 2 above. Two road areas 403a and 403b are shown. FIG. 4A (b) is a diagram illustrating an example of road segments 405a and 405b generated as a result of the thinning processing unit 205 applying the thinning process to the road areas 403a and 403b.

ここで、近くにある2本の道路セグメント405a・405bを選択処理部206が選択した場合に、いずれか一方のみの延長線が他方に交わるか否かを判定すると、この場合にはYesであるため(道路セグメントの一方の延長線L51が他方の道路セグメント405bに交わる場合に該当する)、T字路であると判定する。   Here, when the selection processing unit 206 selects two nearby road segments 405a and 405b, it is Yes in this case when it is determined whether only one of the extension lines intersects the other. Therefore, it is determined to be a T-junction (corresponding to the case where one extension line L51 of the road segment intersects the other road segment 405b).

図4A(c)は、直線生成処理部207が、所定の角度θについて各道路セグメントの端点(図ではP50)からその延長方向の±θの方向に生成した直線L52・L53を示す。点線L51は、道路セグメントの端点P50からの延長方向を示す線である。   FIG. 4A (c) shows straight lines L52 and L53 generated by the straight line generation processing unit 207 in the direction of ± θ in the extension direction from the end point (P50 in the figure) of each road segment at a predetermined angle θ. A dotted line L51 is a line indicating the extending direction from the end point P50 of the road segment.

図4A(d)の太線領域R51は、生成された2個の直線L52・L53と、もう一方の道路セグメント405bとの交点P51・P52を求め、これらの2つの交点P51・P52を結ぶ線分である。   The thick line region R51 in FIG. 4A (d) obtains intersections P51 and P52 between the two generated straight lines L52 and L53 and the other road segment 405b, and a line segment connecting these two intersections P51 and P52. It is.

最適化処理部208は、この線分P51−P52(R51)上の点と端点P50とを結ぶ線分に対応する2値画像の画素の数をこの点と端点P50とを結ぶ線分の全画素数で除算した値が最大になる点Pmaxを求める。図4A(e)の黒丸Pmaxは、その値が最大になる点を示す。図4A(f)は、結合処理部209が、値が最大となる点Pmaxと道路セグメントの端点P50を結合し、道路ネットワーク化が完了したことを示す図である。   The optimization processing unit 208 calculates the number of pixels of the binary image corresponding to the line segment connecting the point on the line segment P51-P52 (R51) and the end point P50 to all the line segments connecting the point and the end point P50. A point Pmax at which the value divided by the number of pixels is maximized is obtained. The black circle Pmax in FIG. 4A (e) indicates the point where the value becomes the maximum. FIG. 4A (f) is a diagram illustrating that the combination processing unit 209 combines the point Pmax having the maximum value with the end point P50 of the road segment, and road networking is completed.

図4Bは、図4A(d)に対応する図であり、最適化処理の詳細を示す図である。交点最適化の例として、端点P50と線分領域R51内に交点を形成する線L51〜L54までを比較すると、線L51は2値画素の画素値が“1”である領域R21と対応する画素数が、線L54における2値画素の画素値が“1”である領域R23と対応する画素数よりもはるかに多いことがわかる(L51>>L54)。このようにして、領域R21内の交点(x、y)について、それぞれの交点における、交点を形成する線と対応する2値画素の画素値が“1”である画素の割合が最大となる交点Pmaxを求めることができる。値“1”の画素の割合が最大となるということは、その線に沿った領域が実際の道路であるとすることが最も確かであるという考え方に基づくものである。   FIG. 4B is a diagram corresponding to FIG. 4A (d) and shows details of the optimization process. As an example of intersection optimization, when comparing the end point P50 and lines L51 to L54 forming intersections in the line segment region R51, the line L51 is a pixel corresponding to the region R21 in which the pixel value of the binary pixel is “1”. It can be seen that the number is much larger than the number of pixels corresponding to the region R23 in which the pixel value of the binary pixel in the line L54 is “1” (L51 >> L54). In this way, for the intersection (x, y) in the region R21, the intersection at which the ratio of the pixels whose binary pixel values corresponding to the lines forming the intersection are “1” at the respective intersections is the maximum. Pmax can be determined. The fact that the ratio of the pixels having the value “1” is the maximum is based on the idea that it is most certain that the area along the line is an actual road.

図5は、本実施の形態による道路ネットワークの抽出装置を用いて、衛星画像における道路抽出処理を行った例を示す図である。図5(a)は、処理対象である表示領域301を撮影した衛星画像である。この画像は200×160画素のサイズである。符号R101で示された領域が道路であるようにも見えるが、ほとんど見分けがつかないことがわかる。図5(b)は、衛星画像に被覆分類を適用した結果として得られた画像である。表示領域301内に道路領域R102がほぼ白色の領域R102として表されており、その他の領域R103とは区別ができるようになっている。図5(c)は、領域R104内における細線化処理の結果として得られた道路セグメントL101・L102を示す図である。図5(d)は最適化処理により探索された点P101と道路セグメントL101・L102の端点とを線分L103・L104で結合して得られ抽出された道路L101−L103−L104−L102を示す図であり、道路ネットワークがきれいに抽出されていることがわかる。尚、図5に示す道路は、図3に示すように、第1の実施の形態に対応する処理を用いて得られたものである。   FIG. 5 is a diagram illustrating an example in which road extraction processing is performed on a satellite image using the road network extraction device according to the present embodiment. FIG. 5A is a satellite image obtained by photographing the display area 301 to be processed. This image is 200 × 160 pixels in size. It can be seen that the area indicated by the reference symbol R101 appears to be a road, but is almost indistinguishable. FIG. 5B is an image obtained as a result of applying the cover classification to the satellite image. The road area R102 is represented as a substantially white area R102 in the display area 301, and can be distinguished from the other areas R103. FIG. 5C is a diagram showing road segments L101 and L102 obtained as a result of the thinning process in the region R104. FIG. 5 (d) is a diagram showing roads L101-L103-L104-L102 obtained by combining the points P101 searched by the optimization processing and the end points of the road segments L101 and L102 with line segments L103 and L104. It can be seen that the road network is clearly extracted. The road shown in FIG. 5 is obtained by using processing corresponding to the first embodiment as shown in FIG.

以上に説明したように、本発明の実施の形態による道路抽出技術によれば、道路領域間のギャップを埋める処理は、必要な計算量が定義域に属する点の数に比例するため、処理の負担を軽減することができ、高速な道路抽出処理を行なうことができる。   As described above, according to the road extraction technique according to the embodiment of the present invention, the process of filling the gap between road areas is proportional to the number of points belonging to the definition area. The burden can be reduced and high-speed road extraction processing can be performed.

本発明は、道路の抽出装置に利用可能である。   The present invention can be used for a road extraction device.

本発明の道路ネットワークの抽出方法の概要を示すフローチャート図である。It is a flowchart figure which shows the outline | summary of the extraction method of the road network of this invention. 本発明の道路ネットワークの抽出方法の一実施例を示すハードウェアシステムのブロック図である。It is a block diagram of a hardware system showing an embodiment of a road network extraction method of the present invention. 本発明の第1の実施の形態による道路ネットワークの抽出方法をI字路に適用した一実施例の説明図である。It is explanatory drawing of the Example which applied the extraction method of the road network by the 1st Embodiment of this invention to I-junction. 図3Aの最適化処理の様子を詳細に示した図である。It is the figure which showed the mode of the optimization process of FIG. 3A in detail. 本発明の第2の実施の形態による道路ネットワークの抽出方法をT字路に適用した一実施例の説明図である。It is explanatory drawing of the Example which applied the extraction method of the road network by the 2nd Embodiment of this invention to the T-junction. 図4Aの最適化処理の様子を詳細に示した図である。It is the figure which showed the mode of the optimization process of FIG. 4A in detail. 本実施の形態による道路ネットワークの抽出装置により、実際の衛星画像から道路の抽出処理を行った例を示す図である。It is a figure which shows the example which performed the extraction process of the road from the actual satellite image by the road network extraction apparatus by this Embodiment.

符号の説明Explanation of symbols

201…マウス、202…キーボード、203…処理装置、204…被覆分類処理部、205…細線化処理部、206…選択処理部、207…直線生成処理部、208…最適化処理部、209…結合処理部、210…記憶装置、211…リモートセンシング画像、212…分類画像、213…作業用2値画像、214…出力2値画像、215…ディスプレイ 201 ... Mouse, 202 ... Keyboard, 203 ... Processing device, 204 ... Cover classification processing unit, 205 ... Thinning processing unit, 206 ... Selection processing unit, 207 ... Linear generation processing unit, 208 ... Optimization processing unit, 209 ... Combination Processing unit 210 ... Storage device 211 ... Remote sensing image 212 ... Classification image 213 ... Working binary image 214 ... Output binary image 215 ... Display

Claims (3)

リモートセンシング画像から道路を抽出する処理を行う道路ネットワーク抽出装置であって、
前記リモートセンシング画像に被覆分類を適用して、道路領域を示す画素の値と、道路領域でない画素の値と、の2値画像を生成する被覆分類処理部と、
前記2値画像を細線化して道路セグメントを生成する細線化処理部と、
前記道路セグメントの互いに隣接する端点、又は、前記道路セグメントとそれに隣接する道路セグメントの端点を選択する選択処理部と、
所定の角度θについて各道路セグメントの端点からその延長方向の±θの方向に直線を生成するか、又は、所定の角度θについて道路セグメントの端点からその延長方向の±θの方向に直線を生成する直線生成処理部と、
±θの方向に延びる直線が囲む領域内の全ての点(x, y)内において、端点と点(x, y)を結ぶ線分と対応する前記道路領域を示す画素の数を線分の全画素数で除算した値が最大になる点(xmax, ymax)を求める最適化処理部と、
端点と前記点(xmax, ymax)とを結ぶ線分を生成する結合処理部と
を有することを特徴とする道路ネットワーク抽出装置。
A road network extraction device that performs a process of extracting a road from a remote sensing image,
A cover classification processing unit that applies a cover classification to the remote sensing image to generate a binary image of a pixel value indicating a road area and a pixel value that is not a road area;
A thinning processing unit for thinning the binary image to generate a road segment;
A selection processing unit that selects the end points of the road segments adjacent to each other, or the end points of the road segment and the adjacent road segments;
A straight line is generated from the end point of each road segment for the predetermined angle θ in the direction of ± θ in the extension direction, or a straight line is generated from the end point of the road segment in the direction of ± θ for the predetermined angle θ. A straight line generation processing unit,
Within all the points (x, y) in the area surrounded by the straight line extending in the direction of ± θ, the number of pixels indicating the road area corresponding to the line connecting the end point and the point (x, y) is the line segment. An optimization processing unit for obtaining a point (xmax, ymax) where the value divided by the total number of pixels is maximum;
A road network extraction apparatus comprising: a connection processing unit that generates a line segment connecting an end point and the point (xmax, ymax).
リモートセンシング画像から道路を抽出する処理を行う道路ネットワーク抽出装置であって、
前記リモートセンシング画像に被覆分類を適用して、道路領域を示す画素の値と、道路領域でない画素の値と、の2値画像を生成する被覆分類処理部と、
前記2値画像を細線化して道路セグメントを生成する細線化処理部と、
前記道路セグメントのうちから2本を選択した場合に、いずれか一方のみの延長線が他方に交わるか否かを判定して、交わる場合にはT字路であると判定し、所定の数Nの互いに隣接する道路セグメントの端点を選択する選択処理部と、
所定の角度θについて各道路セグメントの端点からその延長方向の±θの方向に直線を生成する直線生成処理部と、
生成された2N個の直線が囲む領域内の全ての点(x, y)について、各端点と点(x, y)を結ぶ線分と対応する前記道路領域を示す画素の数を線分の全画素数で除算した値が最大になる点(xmax, ymax)を求める最適化処理部と、
各端点と前記点(xmax, ymax)とを結ぶ線分を生成する結合処理部と
を有することを特徴とする道路ネットワーク抽出装置。
A road network extraction device that performs a process of extracting a road from a remote sensing image,
A cover classification processing unit that applies a cover classification to the remote sensing image to generate a binary image of a pixel value indicating a road area and a pixel value that is not a road area;
A thinning processing unit for thinning the binary image to generate a road segment;
When two of the road segments are selected, it is determined whether only one of the extension lines intersects the other, and if it intersects, it is determined that the road is a T-junction, and a predetermined number N A selection processing unit for selecting end points of road segments adjacent to each other,
A straight line generation processing unit that generates a straight line in the direction of ± θ of the extension direction from the end point of each road segment for a predetermined angle θ;
For all the points (x, y) in the area surrounded by the generated 2N straight lines, the number of pixels indicating the road area corresponding to the line segment connecting each end point and the point (x, y) is determined as the line segment. An optimization processing unit for obtaining a point (xmax, ymax) where the value divided by the total number of pixels is maximum;
A road network extraction apparatus comprising: a joint processing unit that generates a line segment connecting each end point and the point (xmax, ymax).
リモートセンシング画像から道路を抽出する処理を行う道路ネットワーク抽出装置であって、
前記リモートセンシング画像に被覆分類を適用して、道路領域を示す画素の値と、道路領域でない画素の値と、の2値画像を生成する被覆分類処理部と、
前記2値画像を細線化して道路セグメントを生成する細線化処理部と、
前記道路セグメントのうちから2本を選択した場合に、両方が互いに交わるか否かを判定して、交わる場合にはT字路以外であると判定し、道路セグメントとそれに隣接する道路セグメントの端点を選択する選択処理部と、
所定の角度θについて道路セグメントの端点からその延長方向の±θの方向に直線を生成する直線生成処理部と、
生成された2個の直線ともう一方の道路セグメントとの交点を求め、これらの二つの交点を結ぶ線分上の点(x, y)と端点を結ぶ線分とに対応する前記道路領域を示す前記2値画像の画素の数を点(x, y)と端点を結ぶ線分の全画素数で除算した値が最大になる点(xmax, ymax)を求める最適化処理部と、
端点と前記点(xmax, ymax)を結ぶ線分を生成する結合処理部と
を有することを特徴とする道路ネットワーク抽出装置。
A road network extraction device that performs a process of extracting a road from a remote sensing image,
A cover classification processing unit that applies a cover classification to the remote sensing image to generate a binary image of a pixel value indicating a road area and a pixel value that is not a road area;
A thinning processing unit for thinning the binary image to generate a road segment;
When two of the road segments are selected, it is determined whether or not both intersect each other. If they intersect, it is determined that the road segment is not a T-junction, and the end points of the road segment and the adjacent road segment are determined. A selection processing unit for selecting
A straight line generation processing unit that generates a straight line in the direction of ± θ of the extension direction from the end point of the road segment for a predetermined angle θ;
The intersection of the two generated straight lines and the other road segment is obtained, and the road region corresponding to the point (x, y) on the line connecting these two intersections and the line connecting the end points is determined. An optimization processing unit for obtaining a point (xmax, ymax) having a maximum value obtained by dividing the number of pixels of the binary image shown by the total number of pixels of a line segment connecting the point (x, y) and the end point;
A road network extraction apparatus comprising: a joint processing unit that generates a line segment connecting an end point and the point (xmax, ymax).
JP2008050793A 2008-02-29 2008-02-29 Road network extraction device Expired - Fee Related JP4847482B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008050793A JP4847482B2 (en) 2008-02-29 2008-02-29 Road network extraction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008050793A JP4847482B2 (en) 2008-02-29 2008-02-29 Road network extraction device

Publications (2)

Publication Number Publication Date
JP2009211150A true JP2009211150A (en) 2009-09-17
JP4847482B2 JP4847482B2 (en) 2011-12-28

Family

ID=41184281

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008050793A Expired - Fee Related JP4847482B2 (en) 2008-02-29 2008-02-29 Road network extraction device

Country Status (1)

Country Link
JP (1) JP4847482B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012097499A1 (en) * 2011-01-18 2012-07-26 Google Inc. Constructing an integrated road network
JP2016024619A (en) * 2014-07-18 2016-02-08 富士通株式会社 Information processing method, information processing device and information processing program
CN107704840A (en) * 2017-10-24 2018-02-16 汕头大学 A kind of remote sensing images Approach for road detection based on deep learning
CN112634396A (en) * 2019-09-24 2021-04-09 北京四维图新科技股份有限公司 Road network determining method and device
CN112733800A (en) * 2021-01-22 2021-04-30 中国科学院地理科学与资源研究所 Remote sensing image road information extraction method and device based on convolutional neural network
CN114821342A (en) * 2022-06-02 2022-07-29 中国科学院地理科学与资源研究所 Remote sensing image road extraction method and system
WO2023170997A1 (en) * 2022-03-11 2023-09-14 日立Astemo株式会社 Map information processing device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003005633A (en) * 2001-06-25 2003-01-08 Toyo Keiki Co Ltd Road extracting method from electronic housing map
JP2003248832A (en) * 2002-02-25 2003-09-05 Canon Inc Extracting method for continuous segment array, program for realizing the extracting method for the continuous segment array, and extracting device for the continuous segment array
JP2003296726A (en) * 2002-03-29 2003-10-17 Fujitsu Fip Corp Method, device and program for converting drawing and recording medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003005633A (en) * 2001-06-25 2003-01-08 Toyo Keiki Co Ltd Road extracting method from electronic housing map
JP2003248832A (en) * 2002-02-25 2003-09-05 Canon Inc Extracting method for continuous segment array, program for realizing the extracting method for the continuous segment array, and extracting device for the continuous segment array
JP2003296726A (en) * 2002-03-29 2003-10-17 Fujitsu Fip Corp Method, device and program for converting drawing and recording medium

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012097499A1 (en) * 2011-01-18 2012-07-26 Google Inc. Constructing an integrated road network
US9350810B2 (en) 2011-01-18 2016-05-24 Google Inc. Constructing an integrated road network
JP2016024619A (en) * 2014-07-18 2016-02-08 富士通株式会社 Information processing method, information processing device and information processing program
CN107704840A (en) * 2017-10-24 2018-02-16 汕头大学 A kind of remote sensing images Approach for road detection based on deep learning
CN112634396A (en) * 2019-09-24 2021-04-09 北京四维图新科技股份有限公司 Road network determining method and device
CN112733800A (en) * 2021-01-22 2021-04-30 中国科学院地理科学与资源研究所 Remote sensing image road information extraction method and device based on convolutional neural network
CN112733800B (en) * 2021-01-22 2021-10-22 中国科学院地理科学与资源研究所 Remote sensing image road information extraction method and device based on convolutional neural network
WO2023170997A1 (en) * 2022-03-11 2023-09-14 日立Astemo株式会社 Map information processing device
CN114821342A (en) * 2022-06-02 2022-07-29 中国科学院地理科学与资源研究所 Remote sensing image road extraction method and system

Also Published As

Publication number Publication date
JP4847482B2 (en) 2011-12-28

Similar Documents

Publication Publication Date Title
JP4847482B2 (en) Road network extraction device
CN105574524B (en) Based on dialogue and divide the mirror cartoon image template recognition method and system that joint identifies
US10062192B2 (en) Fast high-fidelity flood-filling on vector artwork
EP2871612B1 (en) Structure model creation from a three dimensional surface
JP2019149148A (en) Semantic segmentation of 2d floor plans using pixel-wise classifier
US8619074B2 (en) Rendering personalized text on curved image surfaces
CN111199531A (en) Interactive data expansion method based on Poisson image fusion and image stylization
US9305329B2 (en) Low memory content aware fill
Horn et al. Artificial intelligence, 3D documentation, and rock art—approaching and reflecting on the automation of identification and classification of rock art images
CN104995657A (en) Systems and methods for resizing an image
US8648861B2 (en) Two-dimensional vector fills using topological recipes
CN110675463B (en) Method and device for generating partial color pencil drawing
CN115861609A (en) Segmentation labeling method of remote sensing image, electronic device and storage medium
Fritsch et al. Modeling facade structures using point clouds from dense image matching
JP2003141567A (en) Three-dimensional city model generating device and method of generating three-dimensional city model
JP2011210160A (en) Image processing method, image processor, program and program storage medium
WO2021250734A1 (en) Coordinate conversion device, coordinate conversion method, and coordinate conversion program
Li et al. Automatic Keyline Recognition and 3D Reconstruction For Quasi‐Planar Façades in Close‐range Images
RU2470368C2 (en) Image processing method
CN101300602A (en) Sketching reality
JP2004102402A (en) Partition data creating method and device
JP4795820B2 (en) Map data creation device, map data creation method, map data check program
Li et al. Enhancing extraction of two-dimensional engineering drawings from three-dimensional data of existing buildings
CN113790730B (en) Mobile robot navigation map conversion method and system based on DXF format
CN116152382B (en) Digital representation conversion method and device of structural floor plan and electronic equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110705

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110816

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110927

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111013

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141021

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees