JP6652865B2 - Feature detection device, feature detection method, and program - Google Patents

Feature detection device, feature detection method, and program Download PDF

Info

Publication number
JP6652865B2
JP6652865B2 JP2016055060A JP2016055060A JP6652865B2 JP 6652865 B2 JP6652865 B2 JP 6652865B2 JP 2016055060 A JP2016055060 A JP 2016055060A JP 2016055060 A JP2016055060 A JP 2016055060A JP 6652865 B2 JP6652865 B2 JP 6652865B2
Authority
JP
Japan
Prior art keywords
edge
feature
space
destination
layered
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016055060A
Other languages
Japanese (ja)
Other versions
JP2017167092A (en
Inventor
鎮男 真鍋
鎮男 真鍋
育夫 北川
育夫 北川
克巌 所
克巌 所
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pasco Corp
Original Assignee
Pasco Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pasco Corp filed Critical Pasco Corp
Priority to JP2016055060A priority Critical patent/JP6652865B2/en
Publication of JP2017167092A publication Critical patent/JP2017167092A/en
Application granted granted Critical
Publication of JP6652865B2 publication Critical patent/JP6652865B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は対象空間における地物表面から抽出された点群の三次元座標データに基づいて、地表から立ち上がった目的地物を検出する地物検出装置、地物検出方法及びプログラムに関する。   The present invention relates to a feature detection device, a feature detection method, and a program for detecting a target feature rising from the ground based on three-dimensional coordinate data of a point cloud extracted from a feature surface in a target space.

従来、レーザスキャナを用いて、地物の形状を表す三次元点群データを取得する技術が示されている。例えば、モービルマッピングシステムでは、レーザスキャナは自動車の上部に搭載され、周囲にレーザを照射する。レーザの光軸は仰俯角及び方位角を変えることにより垂直方向及び水平方向に走査され、走査範囲内にて微小角度ごとにレーザパルスが発射される。レーザの発射から反射光の受信までの時間に基づいて距離が計測され、またその際、レーザの発射方向、時刻、及び車体の位置・姿勢などが計測される。それら計測データから、レーザパルスを反射した点の三次元座標を表す点群データが求められる。   2. Description of the Related Art Conventionally, there has been disclosed a technique for acquiring three-dimensional point cloud data representing a shape of a terrestrial object using a laser scanner. For example, in a mobile mapping system, a laser scanner is mounted on an upper part of an automobile and irradiates a laser to the surroundings. The optical axis of the laser is scanned in the vertical direction and the horizontal direction by changing the elevation angle and the azimuth angle, and laser pulses are emitted at small angles within the scanning range. The distance is measured based on the time from the emission of the laser to the reception of the reflected light, and at that time, the emission direction of the laser, the time, and the position / posture of the vehicle body are measured. From these measurement data, point group data representing the three-dimensional coordinates of the point reflecting the laser pulse is obtained.

特許文献1は点群データから地物の壁面を自動的に検出する技術を開示しており、また特許文献2は点群データから電柱などの円柱形状の地物を自動的に検出する技術を開示している。   Patent Document 1 discloses a technology for automatically detecting the wall surface of a feature from point cloud data, and Patent Document 2 discloses a technology for automatically detecting a columnar feature such as a telephone pole from point cloud data. Has been disclosed.

特開2013−053915号公報JP 2013-053915 A 特開2013−064688号公報JP 2013-064688 A

点群データから複数の種類の地物を検出する場合、従来は地物の種類ごとに点群データに対する処理を行っており、必ずしも処理効率が良いとは言えない。この点、予め決まっている複数種類の地物を点群データから直接的に検出する装置やプログラム等を作成することで、処理効率の改善を図ることも考えられる。しかし、検出対象の地物の種類を追加しようとすると、必要となる装置、プログラムの構成などの変更が複雑になるという問題があった。   In the case of detecting a plurality of types of features from the point cloud data, processing for the point cloud data is conventionally performed for each type of the features, and the processing efficiency is not necessarily high. In this regard, it is conceivable to improve the processing efficiency by creating a device or a program for directly detecting a plurality of types of predetermined features from point cloud data. However, there is a problem in that adding a type of a feature to be detected complicates changes in necessary devices, program configurations, and the like.

本発明は上記問題点を解決するためになされたものであり、点群データから複数種類の目的地物を検出する処理の効率を向上させることができ、また目的地物の追加・変更に柔軟に対応できる地物検出装置、地物検出方法及びプログラムを提供することを目的とする。   The present invention has been made to solve the above problems, and can improve the efficiency of processing for detecting a plurality of types of destinations from point cloud data, and can flexibly add / change destinations. An object of the present invention is to provide a feature detection device, a feature detection method, and a program that can cope with the above.

(1)本発明に係る地物検出装置は、対象空間における地物表面から抽出された点群の三次元座標データに基づいて、地表から立ち上がった目的地物を検出する装置であって、三次元空間における予め定められた形状特徴を有する複数種類の要素図形を用い、前記目的地物の標準形状を1つ又は高さ方向に沿って並ぶ複数の前記要素図形で表した地物モデルを予め記憶したモデル記憶手段と、前記対象空間を水平な複数の層状空間に分割する層状空間設定手段と、前記各層状空間にて、水平面に射影され予め設定した基準以上に近傍に集まる前記点群を地物表面の位置であるエッジとして検出するエッジ検出手段と、前記エッジを前記要素図形のうち当該エッジの形状に対応する射影を生じるものに分類し、当該エッジと当該分類とを対応付けた層別オブジェクトを生成するオブジェクト生成手段と、それぞれの前記エッジが高さ方向に沿って並ぶ複数の前記層別オブジェクトからなるグループを求め、当該グループにおける高さ方向に沿った前記分類の並び方を前記地物モデルと照合して前記目的地物を検出する目的地物検出手段と、を有する。   (1) A feature detection device according to the present invention is a device for detecting a target feature rising from the ground surface based on three-dimensional coordinate data of a point cloud extracted from a feature surface in a target space. Using a plurality of types of element figures having predetermined shape characteristics in the original space, a feature model in which the standard shape of the destination is represented by one or a plurality of the element figures arranged in a height direction in advance. The stored model storage means, the layered space setting means for dividing the target space into a plurality of horizontal layered spaces, and in each of the layered spaces, the point group projected on a horizontal plane and gathered near a predetermined reference or more. Edge detecting means for detecting an edge that is a position of a feature surface, and classifying the edge into ones of the elemental figures that produce a projection corresponding to the shape of the edge, and associating the edge with the classification Object generation means for generating a stratified object, and obtaining a group consisting of a plurality of stratified objects, each edge of which is arranged along the height direction, and determining how to sort the classification along the height direction in the group. A destination feature detecting unit that detects the destination feature by comparing with the feature model.

(2)上記(1)の地物検出装置において、前記複数の層状空間それぞれの高さ方向の寸法は同一である構成とすることができる。   (2) In the feature detection device according to (1), the plurality of layered spaces may have the same height dimension.

(3)上記(1)又は(2)の地物検出装置において、前記目的地物検出手段は、互いに異なる前記層状空間に存在する第1エッジと第2エッジの水平面内での位置に関し、前記第1エッジを中心線とし所定幅を有するエッジ近傍領域と前記第2エッジとが重なりを有する場合に前記第1エッジと前記第2エッジとは高さ方向に並ぶと判断する構成とすることができる。   (3) In the feature detection device according to (1) or (2), the destination feature detection unit may be configured to determine a position of a first edge and a second edge existing in the different layered spaces in a horizontal plane with each other. The first edge and the second edge may be determined to be aligned in the height direction when an edge vicinity region having a predetermined width with the first edge as a center line and the second edge overlap. it can.

(4)上記(1)〜(3)の地物検出装置において、前記要素図形は、水平断面にて非円形の形状及び予め定めた閾値長さ以上の長さを有する第1の略垂直面と、水平断面にて非円形の形状及び前記閾値長さ未満の長さを有する第2の略垂直面と、水平断面が予め定めた閾値半径以上の半径を有する円形である第1の円柱と、水平断面が前記閾値半径未満の半径を有する円形である第2の円柱と、を含む構成とすることができる。   (4) In the feature detection device according to any one of (1) to (3), the element graphic has a non-circular shape in a horizontal cross section and a first substantially vertical surface having a length equal to or longer than a predetermined threshold length. And a second substantially vertical surface having a non-circular shape in a horizontal cross section and a length less than the threshold length, and a first cylinder having a horizontal cross section having a radius equal to or greater than a predetermined threshold radius. And a second cylinder having a horizontal cross section having a circular shape having a radius smaller than the threshold radius.

(5)本発明に係る地物検出方法は、対象空間における地物表面から抽出された点群の三次元座標データに基づいて、地表から立ち上がった目的地物を検出する方法であって、前記対象空間を水平な複数の層状空間に分割する層状空間設定ステップと、前記各層状空間にて、水平面に射影され予め設定した基準以上に近傍に集まる前記点群を地物表面の位置であるエッジとして検出するエッジ検出ステップと、前記エッジを三次元空間における予め定められた形状特徴を有する複数種類の要素図形のうち当該エッジの形状に対応する射影を生じるものに分類し、当該エッジと当該分類とを対応付けた層別オブジェクトを生成するオブジェクト生成ステップと、それぞれの前記エッジが高さ方向に沿って並ぶ複数の前記層別オブジェクトからなるグループを求めるグループ化ステップと、前記目的地物の標準形状を1つ又は高さ方向に沿って並ぶ複数の前記要素図形で表した地物モデルを予め記憶したモデル記憶手段から前記地物モデルを読み出し、前記グループにおける高さ方向に沿った前記分類の並び方を当該地物モデルと照合して前記目的地物を検出する地物モデル照合ステップと、を有する。   (5) The feature detection method according to the present invention is a method for detecting a target feature rising from the ground based on three-dimensional coordinate data of a point cloud extracted from a feature surface in a target space, A layered space setting step of dividing the target space into a plurality of horizontal layered spaces; and, in each of the layered spaces, an edge which is a position on the surface of the feature, wherein the point cloud projected on a horizontal plane and gathered near a predetermined reference or more is located. Edge detection step, and classifying the edge into a plurality of types of elemental figures having a predetermined shape characteristic in a three-dimensional space that produce a projection corresponding to the shape of the edge, and the edge and the classification And an object generating step of generating a stratified object in which each of the stratums is arranged along the height direction. A grouping step of obtaining a group; and a step of storing the feature model from a model storage unit in which a feature model represented by one or a plurality of the elemental figures arranged in a standard shape of the destination feature along one or more height directions is stored in advance. Reading, and a feature model matching step of detecting the destination feature by matching the arrangement of the classifications along the height direction in the group with the feature model.

(6)本発明に係るプログラムは、対象空間における地物表面から抽出された点群の三次元座標データに基づいて、地表から立ち上がった目的地物を検出する処理をコンピュータに行わせるためのプログラムであって、当該コンピュータを、三次元空間における予め定められた形状特徴を有する複数種類の要素図形を用い、前記目的地物の標準形状を1つ又は高さ方向に沿って並ぶ複数の前記要素図形で表した地物モデルを予め記憶したモデル記憶手段、前記対象空間を水平な複数の層状空間に分割する層状空間設定手段、前記各層状空間にて、水平面に射影され予め設定した基準以上に近傍に集まる前記点群を地物表面の位置であるエッジとして検出するエッジ検出手段、前記エッジを前記要素図形のうち当該エッジの形状に対応する射影を生じるものに分類し、当該エッジと当該分類とを対応付けた層別オブジェクトを生成するオブジェクト生成手段、及び、それぞれの前記エッジが高さ方向に沿って並ぶ複数の前記層別オブジェクトからなるグループを求め、当該グループにおける高さ方向に沿った前記分類の並び方を前記地物モデルと照合して前記目的地物を検出する目的地物検出手段、として機能させる。   (6) A program according to the present invention is a program for causing a computer to perform a process of detecting a destination object rising from the ground surface based on three-dimensional coordinate data of a point cloud extracted from a surface of a feature in a target space. Wherein the computer uses a plurality of types of element figures having a predetermined shape characteristic in a three-dimensional space, and the standard shape of the destination object is one or a plurality of the element elements arranged in a height direction. Model storage means pre-stored a feature model represented by a graphic, layered space setting means for dividing the target space into a plurality of horizontal layered spaces, and in each of the layered spaces, a level projected on a horizontal plane and higher than a predetermined reference. Edge detecting means for detecting the point group gathering in the vicinity as an edge which is a position on the surface of a feature, and projecting the edge corresponding to the shape of the edge in the element graphic Object generating means for generating a stratified object in which the edge and the classification are associated with each other, and a group including a plurality of stratified objects in which the edges are arranged along the height direction. Then, it is made to function as destination feature detection means for detecting the destination by comparing the arrangement of the classifications along the height direction in the group with the feature model.

本発明によれば、点群データから複数種類の目的地物を検出する処理の効率を向上させることができ、また目的地物の追加・変更に柔軟に対応できる。   ADVANTAGE OF THE INVENTION According to this invention, the efficiency of the process which detects several types of destinations from point cloud data can be improved, and it can respond flexibly to addition / change of a destination.

本発明の実施形態に係る地物検出システムの概略の構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of a feature detection system according to an embodiment of the present invention. 本発明の実施形態に係る地物検出システムの層状空間設定手段、エッジ検出手段及びオブジェクト生成手段の処理の概略のフロー図である。It is a general | schematic flowchart of the process of the layered space setting means of the feature detection system which concerns on embodiment of this invention, an edge detection means, and an object generation means. 本発明の実施形態に係る地物検出システムの層状空間設定手段、エッジ検出手段及びオブジェクト生成手段の処理の概略のフロー図である。It is a general | schematic flowchart of the process of the layered space setting means of the feature detection system which concerns on embodiment of this invention, an edge detection means, and an object generation means. 本発明の実施形態に係る地物検出システムの層状空間設定手段、エッジ検出手段及びオブジェクト生成手段の処理の概略のフロー図である。It is a general | schematic flowchart of the process of the layered space setting means of the feature detection system which concerns on embodiment of this invention, an edge detection means, and an object generation means. ブロック空間でのエッジの探索処理を説明する模式図である。FIG. 9 is a schematic diagram illustrating an edge search process in a block space. エッジが目的地物の可能性があるか否かを調べる処理を説明する模式的な平面図である。It is a schematic plan view explaining the processing which checks whether an edge has a possibility of a destination. エッジが目的地物の可能性があるか否かを調べる処理を説明する模式的な平面図である。It is a schematic plan view explaining the processing which checks whether an edge has a possibility of a destination. 連続エッジ探索処理の概略のフロー図である。It is an outline flow figure of a continuous edge search processing. 連続エッジ探索処理の概略のフロー図である。It is an outline flow figure of a continuous edge search processing. 連続追尾処理の概略のフロー図である。It is a schematic flowchart of a continuous tracking process. 連続追尾処理の概略のフロー図である。It is a schematic flowchart of a continuous tracking process. 円柱探索処理の概略のフロー図である。It is a general | schematic flowchart of a cylinder search process. 連続追尾処理により生成された連続線分の一例を示す模式的な平面図である。It is a schematic plan view which shows an example of the continuous line segment produced | generated by the continuous tracking process. エッジの微調整処理の概略のフロー図である。FIG. 9 is a schematic flowchart of edge fine adjustment processing. エッジの微調整処理を説明する模式的な平面図である。It is a schematic plan view explaining the fine adjustment processing of an edge. 図13に示す連続線分に対する微調整処理により得られた代表点を示す模式図である。FIG. 14 is a schematic diagram showing representative points obtained by fine adjustment processing on the continuous line segment shown in FIG. 13. 再探索空間の一例を示す模式図である。It is a schematic diagram which shows an example of a re-search space. 短エッジ処理の概略のフロー図である。FIG. 4 is a schematic flowchart of a short edge process. 細いポールを判定する処理を説明する模式的な平面図である。It is a schematic plan view explaining the process which determines a thin pole. 異なる層状空間のエッジの重なりを説明する模式的な平面図である。It is a schematic plan view explaining the overlap of the edge of a different layered space. 道路標識などポールを含む目的地物についての目的地物検出手段の処理例を示す概略のフロー図である。It is a general | schematic flowchart which shows the example of a process of the destination detection means about the destination including a pole, such as a road sign. ポール判別処理の概略のフロー図である。It is a general | schematic flowchart of a pole discriminating process. ポール判別処理の概略のフロー図である。It is a general | schematic flowchart of a pole discriminating process.

以下、本発明の実施の形態(以下実施形態という)である地物検出システムについて、図面に基づいて説明する。本システムは、対象空間における地物表面から抽出された点群の三次元座標データに基づいて、地表から立ち上がった目的地物を検出する地物検出装置である。点群のデータは例えば、上述のモービルマッピングシステムのように地上を走行する車両に搭載されたレーザスキャナにより取得される。また、レーザスキャナを地上に設置して計測を行っても良い。点群データが地物表面の三次元形状を表すには、地物表面の凹凸のスケールに応じた点密度でレーザスキャンが行われる必要がある。この点、車両や三脚を用いて道路等の地上から行うレーザスキャンは、例えば、道路の近傍に建つ建物、塀、看板、標識、電柱などの形状を捉えることができる程度の走査密度を実現できる。   Hereinafter, a feature detection system according to an embodiment of the present invention (hereinafter, referred to as an embodiment) will be described with reference to the drawings. This system is a feature detection device that detects a destination feature rising from the ground surface based on three-dimensional coordinate data of a point cloud extracted from a feature surface in a target space. The data of the point cloud is acquired by, for example, a laser scanner mounted on a vehicle traveling on the ground as in the above-described mobile mapping system. Alternatively, the measurement may be performed by installing a laser scanner on the ground. In order for the point cloud data to represent the three-dimensional shape of the feature surface, laser scanning must be performed at a point density corresponding to the scale of the unevenness of the feature surface. In this regard, a laser scan performed from the ground such as a road using a vehicle or a tripod can achieve a scan density enough to capture shapes of buildings, walls, signboards, signs, telephone poles, and the like that are built near the road, for example. .

図1は、地物検出システム2の概略の構成を示すブロック図である。本システムは、演算処理装置4、記憶装置6、入力装置8及び出力装置10を含んで構成される。演算処理装置4として、本システムの各種演算処理を行う専用のハードウェアを作ることも可能であるが、本実施形態では演算処理装置4は、コンピュータ及び、当該コンピュータ上で実行されるプログラムを用いて構築される。   FIG. 1 is a block diagram illustrating a schematic configuration of the feature detection system 2. The present system includes an arithmetic processing unit 4, a storage device 6, an input device 8, and an output device 10. Although it is possible to create dedicated hardware for performing various arithmetic processes of the present system as the arithmetic processing device 4, in the present embodiment, the arithmetic processing device 4 uses a computer and a program executed on the computer. Is built.

当該コンピュータのCPU(Central Processing Unit)が演算処理装置4を構成し、後述する層状空間設定手段20、エッジ検出手段22、オブジェクト生成手段24及び目的地物検出手段26として機能する。   A CPU (Central Processing Unit) of the computer constitutes the arithmetic processing unit 4 and functions as a layered space setting unit 20, an edge detection unit 22, an object generation unit 24, and a destination object detection unit 26, which will be described later.

記憶装置6はコンピュータに内蔵されるハードディスクなどで構成される。記憶装置6は演算処理装置4を層状空間設定手段20、エッジ検出手段22、オブジェクト生成手段24及び目的地物検出手段26として機能させるためのプログラム及びその他のプログラムや、本システムの処理に必要な各種データを記憶する。例えば、記憶装置6は、処理対象データとして解析の対象空間の点群データ30を格納する。例えば、道路に沿った地域が解析の対象空間とされる。また、記憶装置6は、検出対象とする地物である目的地物の典型的な形状、標準的な形状又はその条件を記述した地物モデル32を予め記憶するモデル記憶手段である。   The storage device 6 is configured by a hard disk or the like built in the computer. The storage device 6 is a program for causing the arithmetic processing device 4 to function as the layered space setting unit 20, the edge detection unit 22, the object generation unit 24, and the destination object detection unit 26, and other programs, and necessary for processing of the present system. Various data is stored. For example, the storage device 6 stores the point cloud data 30 of the analysis target space as the processing target data. For example, an area along a road is a target space for analysis. The storage device 6 is a model storage unit that stores in advance a feature model 32 that describes a typical shape, a standard shape, or a condition of a destination feature that is a feature to be detected.

入力装置8は、キーボード、マウスなどであり、ユーザが本システムへの操作を行うために用いる。   The input device 8 is a keyboard, a mouse, and the like, and is used by a user to operate the system.

出力装置10は、ディスプレイ、プリンタなどであり、例えば、本システムにより生成されたオブジェクトや検出された目的地物の対象空間内での位置を画面表示、印刷等によりユーザに示す等に用いられる。   The output device 10 is a display, a printer, or the like, and is used, for example, to display the position of the object generated by the present system or the detected destination in the target space to the user by screen display, printing, or the like.

層状空間設定手段20は対象空間を水平な複数の層状空間に分割する。高さ方向の上向きを正とする軸をZ軸とし水平面を定義する2軸をX軸及びY軸とするXYZ直交座標系で対象空間を定義すると、層状空間設定手段20は複数のZ値に設定した水平面(XY平面)を分割面として対象空間を分割する。各層状空間の高さ方向の寸法、つまり厚みは同一にすることが好適であり、これにより処理の単純化、処理効率の確保を図ることができる。例えば、各層状空間の厚みHは50センチメートル[cm]に設定することができる。なお、層状空間設定手段20を構成するプログラムでは、Hはパラメータ化されており、例えば、ユーザが入力装置8を用いて変更することができる。また、後述するように層状空間設定手段20は、エッジ検出の処理上、各層状空間をさらにメッシュ状に分割する。 The layered space setting means 20 divides the target space into a plurality of horizontal layered spaces. When the target space is defined by an XYZ orthogonal coordinate system in which two axes defining the horizontal plane are defined as the X axis and the Y axis with the axis having the upward direction in the height direction as the positive axis defined as the Z axis, the layered space setting means 20 sets a plurality of Z values. The target space is divided using the set horizontal plane (XY plane) as a division plane. It is preferable that the dimensions in the height direction, that is, the thicknesses, of the respective layered spaces be the same, thereby simplifying the processing and ensuring the processing efficiency. For example, the thickness HL of each layered space can be set to 50 cm [cm]. In the program constituting the layered space setting means 20, HL is parameterized and can be changed by the user using the input device 8, for example. In addition, as described later, the layered space setting unit 20 further divides each layered space into a mesh in the processing of edge detection.

エッジ検出手段22は各層状空間にて、当該層状空間内に存在する点群を水平面に射影し、射影された点群が予め設定した基準以上に近傍に集まる線を地物表面の位置であるエッジとして検出する。   In each layered space, the edge detecting means 22 projects a point group existing in the layered space on a horizontal plane, and indicates a line on which the projected point group gathers closer than a predetermined reference or more on the surface of the feature. Detect as an edge.

オブジェクト生成手段24は各エッジを、三次元空間における予め定められた形状特徴を有する複数種類の要素図形のうち当該エッジの形状に対応する射影を生じるものに分類し、当該エッジと当該分類とを対応付けた層別オブジェクトを生成する。   The object generation unit 24 classifies each edge into a plurality of types of elemental figures having a predetermined shape characteristic in a three-dimensional space that generate a projection corresponding to the shape of the edge, and classifies the edge and the classification. Generate the associated stratified object.

目的地物検出手段26は、複数の層別オブジェクトからなるグループであって、それぞれの層別オブジェクトにおけるエッジが高さ方向に沿って並ぶグループを求める。そして目的地物検出手段26は、記憶装置6から地物モデル32を読み出し、当該グループにおける高さ方向に沿った層別オブジェクトの分類の並び方を地物モデル32と照合して目的地物を検出する。   The destination feature detection unit 26 obtains a group including a plurality of stratified objects, in which the edges of the stratified objects are arranged along the height direction. Then, the destination feature detecting means 26 reads the feature model 32 from the storage device 6 and detects the destination feature by comparing the arrangement of the classification of stratified objects along the height direction in the group with the feature model 32. I do.

地物モデル32は、上述したように、1つ又は高さ方向に沿って並ぶ複数の要素図形で表された目的地物の標準形状又は当該形状を規定する条件である。要素図形は三次元空間における予め定められた特徴を有する形状である。例えば、要素図形は、水平断面にて非円形の形状を有する略垂直面、及び水平断面が円形である円柱を含む。さらに、要素図形をサイズに応じて区分することができる。例えば、本実施形態では、略垂直面を予め定めた閾値長さLTH1(例えば、1.5メートル[m])以上の長さを有する第1の略垂直面と、閾値長さLTH1未満の長さを有する第2の略垂直面とに区分する。また、円柱を水平断面が予め定めた閾値半径RTH(例えば0.1m)以上の半径を有する円形である第1の円柱と、水平断面が閾値半径RTH未満の半径を有する円形である第2の円柱とに区分する。 The feature model 32 is, as described above, a standard shape of a destination feature represented by one or a plurality of element figures arranged along the height direction or a condition for defining the shape. The element graphic is a shape having a predetermined characteristic in a three-dimensional space. For example, the element graphic includes a substantially vertical surface having a non-circular shape in a horizontal cross section, and a cylinder having a circular horizontal cross section. Further, the element graphics can be classified according to the size. For example, in the present embodiment, the substantially vertical surface has a first substantially vertical surface having a length equal to or longer than a predetermined threshold length L TH1 (for example, 1.5 m [m]), and the first vertical surface has a length less than the threshold length L TH1. And a second substantially vertical surface having a length of Further, the first cylinder is a circular cylinder having a horizontal cross section having a radius equal to or larger than a predetermined threshold radius R TH (for example, 0.1 m), and the first cylinder is a circle having a horizontal cross section having a radius smaller than the threshold radius R TH . It is divided into 2 cylinders.

図2〜図4は、地物検出システム2の層状空間設定手段20、エッジ検出手段22及びオブジェクト生成手段24の処理の概略のフロー図である。   FIGS. 2 to 4 are schematic flowcharts of the processing of the layered space setting unit 20, the edge detection unit 22, and the object generation unit 24 of the feature detection system 2.

地物検出システム2は層状空間設定手段20により、対象空間をZ軸方向に間隔Hで分割して層状空間を設定し、各層状空間に存在するエッジを検出する処理を行う。本実施形態では層状空間をさらに二次元メッシュ状に分割したブロック空間のうちエッジが存在するものを探し、エッジが存在するブロック空間が見つかると、当該エッジの層状空間内での連続性を調べる。例えば、対象空間をX軸方向及びY軸方向に沿ってメッシュ状に分割する。ここで、メッシュのX軸方向の間隔を幅W、Y軸方向の間隔を奥行きDとすると、W,DはHと同様、パラメータとして設定される。本実施形態ではW,Dは50cmに設定する。対象空間をメッシュ状に分割すると、対象空間は柱状の空間に分割される。当該柱状の空間を部分空間と称する。部分空間は層状空間の層ごとのブロック空間が縦に積み重なった構造となる。対象空間のサイズ、並びに幅W及び奥行きDの値に応じて部分空間のX,Y各方向の配列個数が定まり、当該配列個数により、X,Y各方向の部分空間の位置を示すインデックスの範囲が決定される。エッジ検出手段22は、部分空間の二次元メッシュ状の配置を表すインデックスを所定の順番で変更し、設定されたインデックスに応じた位置(X,Y各方向の座標範囲)で定義される部分空間を処理対象として選択する(ステップS2)。 In the feature detection system 2, the layered space setting means 20 divides the target space at intervals HL in the Z-axis direction to set a layered space, and performs processing for detecting an edge existing in each layered space. In the present embodiment, a block space obtained by further dividing the layered space into a two-dimensional mesh is searched for a block having an edge, and when a block space having an edge is found, the continuity of the edge in the layered space is checked. For example, the target space is divided into meshes along the X-axis direction and the Y-axis direction. Here, assuming that an interval of the mesh in the X-axis direction is width W and an interval of the mesh in the Y-axis direction is depth D, W and D are set as parameters similarly to HL . In this embodiment, W and D are set to 50 cm. When the target space is divided into meshes, the target space is divided into columnar spaces. The columnar space is referred to as a partial space. The partial space has a structure in which block spaces for each layer of the layered space are vertically stacked. The number of arrays in the X and Y directions of the subspace is determined according to the size of the target space and the values of the width W and the depth D, and the range of the index indicating the position of the subspace in the X and Y directions is determined by the number of arrays. Is determined. The edge detecting means 22 changes indices representing the two-dimensional mesh arrangement of the subspace in a predetermined order, and defines a subspace defined by a position (coordinate range in each of the X and Y directions) according to the set index. Is selected as a processing target (step S2).

インデックス指定されたメッシュの部分空間が未処理のものであれば(ステップS4にて「No」の場合)、層状空間設定手段20は当該部分空間内の点群を例えば、ハードディスク等の記憶装置6からRAM(Random Access Memory)等の作業領域に取り込む(ステップS6)。部分空間に取り込んだ点群内に所定閾値Th1以上の高低差がある場合(ステップS8にて「Yes」の場合)には、層状空間設定手段20は当該部分空間を注目部分空間と判断して、当該注目部分空間内におけるエッジの探索等の処理が開始される(図3のノードBへ処理が進む)。例えば、閾値Th1は道路等の地表の略平坦な部分のみを含む部分空間を排除できる程度に小さく設定することができる。   If the partial space of the mesh designated by the index is unprocessed ("No" in step S4), the layered space setting means 20 stores the point group in the partial space in a storage device 6 such as a hard disk. (Step S6). When there is a height difference equal to or greater than the predetermined threshold Th1 in the point group taken into the partial space (in the case of "Yes" in step S8), the layered space setting means 20 determines that the partial space is the target partial space. Then, processing such as searching for an edge in the focused partial space is started (processing proceeds to node B in FIG. 3). For example, the threshold Th1 can be set small enough to exclude a partial space including only a substantially flat portion of the ground such as a road.

設定した部分空間から取り込んだ点群の高低差が閾値Th1未満である場合(S8にて「No」の場合)には、当該部分空間におけるエッジ検出処理は行わない。この場合は、層状空間設定手段20が次の部分空間を選択する(ノードAへ処理が戻る)。   If the height difference of the point group taken from the set partial space is smaller than the threshold value Th1 ("No" in S8), the edge detection processing in the partial space is not performed. In this case, the layered space setting means 20 selects the next partial space (the processing returns to the node A).

全てのメッシュについて処理が終わっている場合は(S4にて「Yes」の場合)、演算処理装置4はエッジ検出処理及びオブジェクト生成処理を終える(ステップS10)。   If the processing has been completed for all the meshes ("Yes" in S4), the arithmetic processing unit 4 ends the edge detection processing and the object generation processing (step S10).

対象空間に設定される層状空間の層数をnとし、各層状空間をインデックスIを用いて下から順に第I層(I=1,2,…,n)と表す。   The number of layers in the layered space set in the target space is n, and each layered space is represented as an I-th layer (I = 1, 2,..., N) from the bottom using an index I.

層状空間設定手段20は選択された部分空間に含まれるn段のブロック空間を順番に選択する。例えば、層状空間設定手段20はインデックスIを1ずつ増加させて、エッジの存在を調べるブロック空間を選択する(ステップS20,S22)。ここで、Iがnを越えた場合には、図2のノードAに戻り、次の注目部分空間を選択する(ステップS24)。エッジ検出手段22は選択された第I層のブロック空間に含まれる点群を読み込み(ステップS26)、当該ブロック空間にエッジが存在するかを調べる(ステップS28)。エッジ検出手段22は、選択した第I層のブロック空間にエッジが存在しない場合には(ステップS30にて「No」の場合)、次のブロック空間を選択する(S22)。なお、ステップS28にてブロック空間に属する点群の個数が所定の閾値以下の場合はエッジ検出処理を省略して、ステップS30にてエッジが存在しないと判断することができる。   The layered space setting means 20 sequentially selects the n-stage block spaces included in the selected partial space. For example, the layered space setting means 20 increments the index I by one and selects a block space for examining the presence of an edge (steps S20, S22). If I exceeds n, the process returns to the node A in FIG. 2 and selects the next target partial space (step S24). The edge detecting means 22 reads a point group included in the selected block space of the I-th layer (step S26), and checks whether an edge exists in the block space (step S28). When there is no edge in the selected block space of the I-th layer (in the case of “No” in step S30), the edge detection unit 22 selects the next block space (S22). If the number of point groups belonging to the block space is equal to or smaller than the predetermined threshold value in step S28, the edge detection processing can be omitted, and it can be determined in step S30 that no edge exists.

図5はブロック空間でのエッジの探索処理S28を説明する模式図である。図5は、ブロック空間を上面から見た図であり、ブロック空間の幅W及び奥行きDで定義される矩形40と、ブロック空間内の点群のXY面内での配置の一例が示されている。エッジ検出手段22は、ブロック空間内の点群から任意の2つのデータ点PA,PBを選択し、それら2点を両端とするXY面内での線分L0をエッジの候補線として設定すると共に、線分L0を中心としてその両側にそれぞれ幅w(合計幅2w)の帯状領域EAを設定する。エッジ検出手段22は点群のうちXY平面での座標が当該領域EA内に位置するデータ点の個数をカウントする。データ点が領域EA内であるか否かは例えば、XY平面上での当該データ点から線分L0への垂線の長さがw以下であるか否かによって判定可能である。また、エッジの条件として、領域EA内の点群が表す三次元形状が平坦でないことを課す。具体的には、エッジ検出手段22は、領域EA内に包含されるデータ点の高低差(最大標高と最小標高との差)ΔZが予め設定した段差閾値γ以上であれば平坦ではないと判定する。   FIG. 5 is a schematic diagram illustrating edge search processing S28 in the block space. FIG. 5 is a view of the block space as viewed from above, showing an example of a rectangle 40 defined by a width W and a depth D of the block space and an arrangement of point groups in the block space on the XY plane. I have. The edge detecting means 22 selects any two data points PA and PB from the point group in the block space, sets a line segment L0 in the XY plane having these two points as both ends as a candidate line of the edge, and A band-shaped area EA having a width w (total width 2w) is set on both sides of the line segment L0. The edge detecting means 22 counts the number of data points in the point group whose coordinates on the XY plane are located in the area EA. Whether or not a data point is within the area EA can be determined, for example, based on whether or not the length of a perpendicular from the data point to the line segment L0 on the XY plane is equal to or less than w. In addition, as a condition of the edge, the three-dimensional shape represented by the point group in the area EA is not flat. Specifically, the edge detecting unit 22 determines that the data point is not flat if the height difference (the difference between the maximum elevation and the minimum elevation) ΔZ of the data points included in the area EA is equal to or larger than a preset step threshold γ. I do.

ここで、幅wはパラメータであり、目的地物の表面に対応するデータ点のエッジに直交する方向の位置のばらつきを吸収する。例えば、wは3cm程度とすることができる。また、高低差の閾値γは例えば2cm程度に設定できる。   Here, the width w is a parameter, and absorbs a variation in position in a direction orthogonal to the edge of the data point corresponding to the surface of the destination. For example, w can be about 3 cm. In addition, the height difference threshold γ can be set to, for example, about 2 cm.

エッジ検出手段22は、ブロック空間内の2つのデータ点の全ての組み合わせについて候補線を設定して上述の判定を行い、領域EA内に最もデータ点が多く集まり、かつΔZが閾値γ以上である線分L0をブロック空間にて見つけられたエッジとする。エッジが存在した場合には(S30にて「Yes」の場合)、当該エッジが新規に検出されたものであるか判定される(ステップS32)。具体的には、当該エッジが同じ層の層状空間の別のブロック空間にて検出されたエッジに連続するものとして既に検知されたエッジではなければ新規エッジと判定される。当該判定は、以前に検出されたエッジを検索して、処理S28で見つけられたエッジと同一のものが存在するか否かに基づいて行われる。リストに同一のものが存在しなければ新規なエッジと判定し(S32にて「No」の場合)、リストにエッジの両端PA,PBの座標(ax,ay),(bx,by)を登録すると共に、エッジの長さとして線分L0(線分PA−PB)の長さLを求める(ステップS34)。 The edge detecting means 22 sets the candidate lines for all combinations of two data points in the block space and makes the above-described determination. The most data points are gathered in the area EA, and ΔZ is equal to or larger than the threshold γ. The line segment L0 is an edge found in the block space. If there is an edge ("Yes" in S30), it is determined whether the edge is newly detected (step S32). Specifically, if the edge is not an edge already detected as being continuous with an edge detected in another block space in the layered space of the same layer, it is determined as a new edge. The determination is made based on whether or not the same edge as the edge found in the process S28 exists by searching for the previously detected edge. If the same item does not exist in the list, it is determined that the edge is a new edge (in the case of “No” in S32), and the coordinates (ax, ay) and (bx, by) of both ends PA and PB of the edge are registered in the list. while, determine the length L E of the line segment L0 (line PA-PB) as the length of the edge (step S34).

一方、処理S28にて見つけられたエッジと同一のエッジが既に登録されている場合は(S32にて「Yes」の場合)、当該エッジについての登録は省略され、演算処理装置4は次のブロック空間について処理を行う(ノードCへ処理が戻る)。   On the other hand, if the same edge as the edge found in the processing S28 has already been registered (in the case of “Yes” in S32), the registration for the edge is omitted, and the arithmetic processing device 4 proceeds to the next block. Processing is performed on the space (processing returns to node C).

エッジ検出手段22は新規検出エッジが、Lが閾値LTH2(LTH2<LTH1)以下である短いエッジである場合には(S40にて「Yes」の場合)、後述する短いエッジに関する処理(短エッジ処理)を行う(ステップS42)。 Edge detection means 22 is newly detected edge, and when L E is the threshold L TH2 (L TH2 <L TH1 ) short edge is below (the case of "Yes" in S40), processing relating to short edges to be described later (Short edge processing) is performed (step S42).

一方、新規検出エッジのLが閾値LTH2より大きい場合には(S40にて「No」の場合)、エッジ検出手段22は当該エッジが壁面などの目的地物である可能性があるか、または本実施形態では目的地物とはしない植栽(樹木の葉)などであるかを調べる(ステップS44)。植栽ではなく目的地物とする人工構造物である場合は(ステップS46にて「No」の場合)、エッジ検出手段22は後述する連続エッジ探索処理を行う(ステップS48)。 On the other hand, if L E new detection edge (the case of "No" in S40) is greater than the threshold L TH2, the edge detection means 22 is likely the edge is the object feature, such as a wall, Alternatively, it is checked whether the plant is a plant (leaf of a tree) that is not a destination in the present embodiment (step S44). If it is an artificial structure that is not a plant but a destination (in the case of "No" in step S46), the edge detecting means 22 performs a continuous edge search process described later (step S48).

エッジが植栽であると判定された場合(S46にて「Yes」の場合)、並びに短エッジ処理S42及び連続エッジ探索処理S48が完了した場合は、演算処理装置4は次のブロック空間についての処理に移行する(ノードCへ処理が戻る)。   When it is determined that the edge is planting (“Yes” in S46), and when the short edge processing S42 and the continuous edge search processing S48 are completed, the arithmetic processing device 4 performs processing for the next block space. The processing shifts to processing (processing returns to node C).

図6及び図7はエッジが目的地物の可能性があるか否かを調べるステップS44の処理を説明する模式的な平面図である。エッジ検出手段22は図6に示す空間S、図7に示す空間SB1,SB2を、処理対象としているブロック空間と同じ層状空間内に設定し、エッジ近傍の点群の分布を調べる。そして当該点群がエッジの位置に好適に集中している場合、人工的な面であると判定し、エッジの位置に対する点群のばらつきが大きい場合、植栽であると判定する。具体的には、図6に示す空間Sは水平断面が線分L0を中心線とする矩形42である直方体である。当該直方体の高さはHであり、エッジ方向のサイズはLであり、エッジに直交する方向のサイズは線分L0を中心としてその両側にそれぞれ幅w(合計幅2w)とする。幅wはパラメータであり、例えば、20cm程度とすることができる。図7に示す空間SB1,SB2は線分L0を間に挟んで線分L0に直交する方向に並び、それぞれ線分から距離gの位置に置かれた直方体である。当該直方体の高さはHであり、エッジ方向のサイズはLであり、エッジに直交する方向のサイズはwとする。g,wはそれぞれパラメータであり、例えば、gは3cm程度とすることができる。 6 and 7 are schematic plan views illustrating the process of step S44 for checking whether or not the edge may be a destination. The edge detecting means 22 sets the space S A shown in FIG. 6 and the spaces S B1 and S B2 shown in FIG. 7 in the same layered space as the block space to be processed, and checks the distribution of point groups near the edge. When the point group is appropriately concentrated at the edge position, it is determined that the point group is an artificial surface. When the point group has a large variation with respect to the edge position, it is determined that the plant is planting. Specifically, the space S A shown in FIG. 6 is a rectangular parallelepiped is a rectangular 42 horizontal section and the center line of the line segment L0. The height of the cuboid is H L, the size of the edge direction is L E, the direction of the size perpendicular to the edge and width respectively on both sides about the line segment L0 w A (total width 2w A) . Width w A is a parameter, for example, it may be about 20 cm. Space S B1, S B2 shown in FIG. 7 are aligned in a direction perpendicular to the line segment L0 is sandwiched between the line L0, a rectangular parallelepiped placed from line segments at a distance g B. The height of the cuboid is H L, the size of the edge direction is L E, the direction of the size perpendicular to the edge and w B. g B and w B are parameters, for example, g B can be about 3 cm.

エッジ検出手段22は以下の(A1)〜(A3)のいずれかの場合に、エッジが人工的な面によるものであり植栽ではないと判定する。
(A1)空間S内の点群のうち線分L0への垂線の長さが閾値(例えば、3cm)内である点が予め定めた個数(例えば10個)より多い場合。
(A2)空間S内の点群から線分L0への垂線の長さの平均値が閾値(例えば、3cm)内である場合。
(A3)空間SB1,SB2内に点群が存在しない場合。
In any of the following cases (A1) to (A3), the edge detection unit 22 determines that the edge is due to an artificial surface and is not a plant.
(A1) A case where the number of points in the group of points in the space SA whose perpendicular to the line L0 is within a threshold (for example, 3 cm) is larger than a predetermined number (for example, 10).
(A2) A case where the average value of the length of the perpendicular from the point group in the space SA to the line segment L0 is within a threshold (for example, 3 cm).
(A3) A case where no point group exists in the spaces S B1 and S B2 .

図8及び図9は連続エッジ探索処理S48の概略のフロー図である。エッジ検出手段22は、エッジの情報をバッファするための線形リストを生成する。連続エッジ探索処理では、ステップS28にて検出されたエッジを基点としてこれにつながるエッジを追尾する処理が行われる。エッジの追尾処理では、基点となるエッジをブロック空間内にて探索したのと同様に、直方体の空間を設定し当該空間内にてエッジを探索する。以降、基点となるエッジの抽出を行ったブロック空間を基点空間とし、追尾処理で設定される直方体の空間を追尾空間と呼ぶことにする。   8 and 9 are schematic flowcharts of the continuous edge search processing S48. The edge detecting means 22 generates a linear list for buffering edge information. In the continuous edge search process, a process of tracking an edge connected to the edge detected in step S28 as a base point is performed. In the edge tracking processing, a rectangular parallelepiped space is set and the edge is searched for in the space, similarly to the case where the edge serving as the base point is searched for in the block space. Hereinafter, the block space from which the edge serving as the base point is extracted is referred to as a base space, and the space of the rectangular solid set in the tracking processing is referred to as a tracking space.

追尾処理はエッジの両端PA,PBから互いに反対方向に行われることに対応して線形リストを2つ作成する。ここではエッジの一方端PAからの追尾をA方向の追尾、エッジの他方端PBからの追尾をB方向の追尾と称する。エッジ検出手段22はA方向に追尾するための線形リストと、B方向に追尾するための線形リストとを作成する(S60)。ステップS28にて得られた追尾の基点となるエッジの図形データは、例えば、A方向の線形リストに格納することができる(S62)。しかる後、エッジ検出手段22は、A方向の連続追尾処理S64とB方向の連続追尾処理S66とを行う。   The tracking processing is performed in opposite directions from both ends PA and PB of the edge, and two linear lists are created in correspondence with each other. Here, tracking from one end PA of the edge is referred to as tracking in the A direction, and tracking from the other end PB of the edge is referred to as tracking in the B direction. The edge detection unit 22 creates a linear list for tracking in the A direction and a linear list for tracking in the B direction (S60). The graphic data of the edge serving as the tracking base point obtained in step S28 can be stored in, for example, a linear list in the A direction (S62). Thereafter, the edge detecting means 22 performs the continuous tracking process S64 in the A direction and the continuous tracking process S66 in the B direction.

A方向及びB方向それぞれの連続追尾処理で得られたエッジの情報は、A方向及びB方向の線形リストに格納される。エッジ検出手段22は或る基点空間にて得られたエッジについての2方向の追尾が終了すると、A方向の線形リスト及びB方向の線形リストに格納されているエッジの端点を追尾順序に従ってつなぎ合わせて連続線分を作成する(S68)。なお、連続線分は直線とは限らず、折れ線であり得る。   The edge information obtained by the continuous tracking processing in each of the A direction and the B direction is stored in a linear list in the A direction and the B direction. When the two-way tracking of the edge obtained in a certain base space is completed, the edge detecting means 22 connects the end points of the edges stored in the linear list in the A direction and the linear list in the B direction according to the tracking order. To create a continuous line segment (S68). The continuous line segment is not limited to a straight line, but may be a polygonal line.

処理は図9のノードEへ続き、オブジェクト生成手段24は連続線分の長さLが閾値長さLTH1以上である場合(ステップS80にて「Yes」の場合)、当該連続線分を第1の略垂直面に分類し、作成された連続線分と当該分類とを対応付けて層別オブジェクトを生成し、記憶装置6に登録する(ステップS82)。この場合、連続エッジ探索処理は、分類が決定されたことを意味する“TRUE”を戻り値に設定されて終了し(ステップS84)、連続エッジ探索処理をサブルーチンとして呼び出した呼び出し元に処理が戻る。層別オブジェクトは連続線分の形状の情報及び位置の情報を含む。 The process continues to the node E in FIG. 9. If the length L C of the continuous line segment is equal to or longer than the threshold length L TH1 (“Yes” in step S80), the object generating unit 24 The object is classified into the first substantially vertical plane, and a stratified object is generated by associating the created continuous line segment with the classification, and registered in the storage device 6 (step S82). In this case, the continuous edge search process ends with “TRUE” indicating that the classification has been set as the return value (step S84), and returns to the calling source that called the continuous edge search process as a subroutine. . The stratified object includes information on the shape and position of the continuous line segment.

なお、本実施形態では、第1の略垂直面を当該層別オブジェクトが存在する層状空間の高さに応じて「建物壁面」及び「塀・柵」の2種類に分類する。具体的には、塀・柵の高さ程度に設定された閾値(例えば路面から3m)を用い、当該閾値未満であるオブジェクトは「塀・柵」に分類し、当該閾値以上であるオブジェクトは「建物壁面」に分類する。但し、この「建物壁面」か「塀・柵」かの分類は便宜的・暫定的なものであり、必ずしもそのオブジェクトが当該分類と同じ地物であることを意味しない。ここで層別オブジェクトに対応付けられた要素図形の分類を表すコードを図形コードとし、「建物壁面」は図形コード201、「塀・柵」は図形コード202と定義する。   In the present embodiment, the first substantially vertical plane is classified into two types of “building wall surface” and “fence / fence” according to the height of the layered space in which the stratified object exists. Specifically, using a threshold (for example, 3 m from the road surface) set at about the height of the fence / fence, objects that are less than the threshold are classified as “fence / fence”, and objects that are more than the threshold are “fence / fence”. Classified as "Building wall". However, this classification of “building wall surface” or “fence / fence” is for convenience and provisional purposes, and does not necessarily mean that the object is the same feature as the classification. Here, a code representing the classification of the elemental graphic associated with the stratified object is defined as a graphic code, and a “building wall” is defined as a graphic code 201 and a “fence / fence” is defined as a graphic code 202.

連続線分の長さLが閾値長さLTH1未満である場合(ステップS80にて「No」の場合)、オブジェクト生成手段24はさらに長さLが閾値長さLTH3より大きいかを調べる(ステップS86)。閾値長さLTH3は例えば、目的地物のうち最も小さいもののサイズに応じて設定でき、本実施形態では0.2mとする。 If the length L C of the continuous line segment is less than the threshold length L TH1 (“No” in step S80), the object generation unit 24 further checks whether the length L C is greater than the threshold length L TH3. Check (step S86). The threshold length L TH3 can be set, for example, according to the size of the smallest destination object, and is set to 0.2 m in the present embodiment.

長さLが閾値長さLTH3以下である場合(S86にて「No」の場合)、オブジェクト生成手段24は当該連続線分に対する分類を行わず、連続エッジ探索処理は分類が決定されなかったことを意味する“FALSE”を戻り値に設定されて終了し(ステップS88)、処理は呼び出し元に戻る。 If the length L C is equal to or less than a threshold length L TH3 (the case of "No" in S86), the object generation unit 24 does not perform the classification with respect to the continuous line segment, the continuous edge search processing not determined classification Is set as the return value, and the process ends (step S88), and the process returns to the calling source.

一方、長さLが閾値長さLTH3より大きい場合、つまりLTH3<L<LTH1である場合(S86にて「Yes」の場合)、オブジェクト生成手段24は層状空間における連続線分に対応する略垂直面が円柱形状であるかを調べる円柱探索処理を行う(ステップS90)。具体的には、連続線分の形状が円であるかを調べる。 On the other hand, if the length L C is larger than the threshold length L TH3 , that is, if L TH3 <L C <L TH1 (“Yes” in S86), the object generation unit 24 sets a continuous line segment in the layered space. Is performed to determine whether the substantially vertical plane corresponding to is cylindrical (step S90). Specifically, it is checked whether the shape of the continuous line segment is a circle.

円柱形状である場合(ステップS92にて「Yes」の場合)、オブジェクト生成手段24は当該連続線分を第1の円柱(図形コード2005)に分類し、作成された連続線分と当該分類とを対応付けて層別オブジェクトを生成し、記憶装置6に登録する(ステップS94)。この場合、連続エッジ探索処理は“TRUE”を戻り値に設定されて終了し(ステップS96)、処理は呼び出し元に戻る。   When the object is in the shape of a cylinder (in the case of “Yes” in step S92), the object generating unit 24 classifies the continuous line segment into a first cylinder (figure code 2005), and creates the generated continuous line segment and the classification. Are associated with each other and a stratified object is generated and registered in the storage device 6 (step S94). In this case, the continuous edge search process ends with "TRUE" set as the return value (step S96), and the process returns to the calling source.

円柱形状でない場合(S92にて「No」の場合)、オブジェクト生成手段24は当該連続線分をそれを構成する個々のエッジに分解し、当該個々のエッジを第2の略垂直面(図形コード2003)に分類して層別オブジェクトを生成し、記憶装置6に登録する(ステップS98)。当該分類は「短い線分で円の要素を持たない」という属性を有する。例えば、道路標識や看板などの目的地物がこの分類に該当し得る。この場合、連続エッジ探索処理は“TRUE”を戻り値に設定されて終了し(ステップS100)、処理は呼び出し元に戻る。   If the object is not a columnar shape ("No" in S92), the object generating means 24 decomposes the continuous line segment into individual edges constituting the continuous line segment, and separates the individual edges into a second substantially vertical plane (graphic code). 2003), a stratified object is generated, and registered in the storage device 6 (step S98). The classification has an attribute of “short line segment and no circle element”. For example, destinations such as road signs and signboards may fall into this category. In this case, the continuous edge search process ends with "TRUE" set as the return value (step S100), and the process returns to the calling source.

図10及び図11はエッジ検出手段22による連続追尾処理S64,S66の概略のフロー図である。エッジ検出手段22は、基点空間又は先行して設定された追尾空間にてエッジが検出されると、それら先行してエッジ検出が行われた空間(解析単位空間と呼ぶ)に隣接する追尾空間を設定する(ステップS120)。新たな追尾空間は切断平面における断面である矩形の中心線を、先行する解析単位空間にて検出されているエッジの向きに合わせて配置される。また、先行して設定された追尾空間にてエッジが検出された場合には、当該追尾空間を求めた方向と同一方向上に、当該エッジの方向線を延長して、さらに追尾が行われる。   FIG. 10 and FIG. 11 are schematic flowcharts of the continuous tracking processing S64 and S66 by the edge detecting means 22. When an edge is detected in the base space or the previously set tracking space, the edge detection unit 22 determines a tracking space adjacent to the space in which the preceding edge detection was performed (referred to as an analysis unit space). It is set (step S120). The new tracking space is arranged so that the center line of the rectangle, which is a cross section in the cutting plane, matches the direction of the edge detected in the preceding analysis unit space. When an edge is detected in the previously set tracking space, the direction line of the edge is extended in the same direction as the direction in which the tracking space was obtained, and further tracking is performed.

エッジ検出手段22は追尾空間を設定すると、当該追尾空間内の点群を記憶装置6からRAM等の作業領域に取り込み(ステップS122)、先行する解析単位空間のエッジの延長線に沿って設定した追尾空間にエッジが存在するかを調べる(ステップS124)。延長線に沿って設定した追尾空間内に基準以上の点群が集まっており、その高低差が閾値γ以上であれば、当該追尾空間にエッジが存在すると判定する(ステップS126にて「Yes」の場合)。   When the tracking space is set, the edge detecting means 22 fetches the points in the tracking space from the storage device 6 into a work area such as a RAM (step S122), and sets the points along the extension of the edge of the preceding analysis unit space. It is checked whether an edge exists in the tracking space (step S124). If a group of points equal to or more than the reference point are gathered in the tracking space set along the extension line and the height difference is equal to or greater than the threshold γ, it is determined that an edge exists in the tracking space (“Yes” in step S126). in the case of).

エッジ検出手段22は抽出したエッジ(エッジ候補)が線形リスト上に格納されているエッジと交差するか否かを調べる(ステップS128)。ここで、線形リストに登録されているエッジは新たに追尾空間から抽出されたエッジと同じ基点空間に端を発するものである。トンネルの横断面のようにエッジが閉じた図形を形成する場合、或る1つの基点空間からの連続追尾処理で当該閉じた図形が抽出される可能性がある。そこで、ステップS128にて、新たに抽出されたエッジと線形リスト上のエッジとの交差(一致を含む)の有無を判定し、交差が検出された場合(ステップS130にて「Yes」の場合)、自己ループ又は無限ループを回避するために、新たに抽出されたエッジは線形リストに追加せずに連続追尾処理を終了する(ステップS132)。   The edge detecting unit 22 checks whether or not the extracted edge (edge candidate) intersects with the edge stored on the linear list (step S128). Here, the edges registered in the linear list originate in the same base space as the edges newly extracted from the tracking space. When a figure having a closed edge such as a cross section of a tunnel is formed, the closed figure may be extracted by continuous tracking processing from a certain base space. Therefore, in step S128, it is determined whether there is an intersection (including coincidence) between the newly extracted edge and the edge on the linear list, and when the intersection is detected (in the case of "Yes" in step S130). In order to avoid the self-loop or the infinite loop, the continuous tracking process ends without adding the newly extracted edge to the linear list (step S132).

交差が検出されなかった場合(S130にて「No」の場合)、さらにエッジ検出手段22は、新たに抽出されたエッジがすでに図形登録されているかを調べる(ステップS134)。図形登録されている場合(ステップS136にて「Yes」の場合)、新たに抽出されたエッジは線形リストに追加せずに連続追尾処理を終了し(S138)、当該処理をサブルーチンとして呼び出した図8のステップS64,S66に戻る。   If no intersection is detected ("No" in S130), the edge detection unit 22 further checks whether the newly extracted edge is already registered in the figure (step S134). If the figure is registered (in the case of “Yes” in step S136), the continuous tracking process is terminated without adding the newly extracted edge to the linear list (S138), and the process is called as a subroutine. The process returns to Steps S64 and S66 of FIG.

一方、図形登録されていなければ(S136にて「No」の場合)、エッジ検出手段22は、現在の追尾空間についてのエッジの情報を線形リストに追加して(ステップS140)、図10のノードFに戻り、現在の追尾空間に続く新たな追尾空間を設定する。このようにしてエッジ検出手段22は追尾空間を順次設定してエッジを追尾する。   On the other hand, if the figure is not registered (in the case of “No” in S136), the edge detection unit 22 adds the edge information about the current tracking space to the linear list (step S140), and the node in FIG. Returning to F, a new tracking space following the current tracking space is set. In this way, the edge detecting means 22 sequentially sets the tracking space and tracks the edge.

エッジ検出手段22は既検出エッジの延長線に沿って設定した追尾空間内にてエッジを検出できない場合(S126にて「No」の場合)、図11のノードGに進み、既検出エッジの延長線からずれた方向における探索処理が行われる。当該探索処理では、追尾空間をその中心軸を切断平面内にて当該延長線の位置から時計回り方向と反時計回り方向とに変化させて設定する。例えば、延長線の向きからの中心軸の向きの変化範囲(±θ)とその分割数kを設定し、θ/kずつ切断平面内での角度が異なる複数の追尾空間を設定し、各追尾空間にてエッジを探し、そして角度を変えて設定した複数の追尾空間にて得られたエッジのうち最も点群が集まるものを抽出する(ステップS160)。   If the edge detecting means 22 cannot detect the edge in the tracking space set along the extension of the detected edge ("No" in S126), the process proceeds to node G in FIG. 11 to extend the detected edge. A search process is performed in a direction deviating from the line. In the search processing, the tracking space is set by changing its center axis in the cutting plane from the position of the extension line in the clockwise direction and the counterclockwise direction. For example, a change range (± θ) of the direction of the central axis from the direction of the extension line and the division number k are set, a plurality of tracking spaces having different angles in the cutting plane by θ / k are set, and each tracking is performed. An edge is searched for in the space, and an edge that collects the most point groups is extracted from the edges obtained in the plurality of tracking spaces set by changing the angle (step S160).

これによりエッジが抽出された場合(ステップS162にて「Yes」の場合)、エッジ検出手段22はステップS128〜S140と同様の処理を行う。すなわち、抽出したエッジと線形リスト上のエッジとの交差の有無を調べ(ステップS166)、また、抽出したエッジがすでに図形登録されているものの中にあるかを調べる(ステップS172)。そして、交差が検出された場合(ステップS168にて「Yes」の場合)及び図形登録されている場合(ステップS174にて「Yes」の場合)は、新たに抽出されたエッジは線形リストに追加せずに連続追尾処理を終了し(ステップS170及びS176)、当該処理をサブルーチンとして呼び出した図8のステップS64,S66に戻る。一方、交差が検出されず(S168にて「No」の場合)、かつ図形登録されていなければ(S174にて「No」の場合)、エッジ検出手段22は、抽出したエッジの情報を線形リストに追加して(ステップS178)、図10のノードFに戻り、現在の追尾空間に続く新たな追尾空間を設定する。なお、エッジが抽出されなかった場合(S162にて「No」の場合)は連続追尾処理をサブルーチンとして呼び出した図8のステップS64,S66に戻る(S164)。   When an edge is thus extracted (in the case of “Yes” in step S162), the edge detecting unit 22 performs the same processing as in steps S128 to S140. That is, it is checked whether or not the extracted edge intersects with the edge on the linear list (step S166), and it is checked whether the extracted edge is already registered in the figure (step S172). When an intersection is detected (“Yes” in step S168) and when a figure is registered (“Yes” in step S174), the newly extracted edge is added to the linear list. Without this, the continuous tracking process is terminated (steps S170 and S176), and the process returns to steps S64 and S66 in FIG. 8 where the process is called as a subroutine. On the other hand, if no intersection is detected (in the case of “No” in S168) and the figure is not registered (in the case of “No” in S174), the edge detecting means 22 stores the extracted edge information in a linear list. (Step S178), and returns to the node F in FIG. 10 to set a new tracking space following the current tracking space. If no edge has been extracted ("No" in S162), the process returns to steps S64 and S66 in FIG. 8 where the continuous tracking process is called as a subroutine (S164).

次に図9の円柱探索処理S90について説明する。図12は円柱探索処理S90の概略のフロー図である。図13は図8のステップS68で生成された連続線分の一例を示す模式的な平面図であり、円柱50に対応して検出される連続線分52を示している。複数の垂直平面が折れ曲がって接続された地物表面からは当然に連続線分52のような複数の直線(線分)がつながった折れ線のエッジが生じ得るが、上述したようにブロック空間などにてエッジを検出する処理は基本的に直線近似であるので、滑らかに曲がる円柱側面からも連続線分52のようなエッジが検出され得る。そこで、エッジ検出手段22は、比較的大きな基点空間(ブロック空間)や追尾空間にて検出されたエッジを地物の概略のエッジであると位置づけ、円柱探索処理S90では、概略エッジである線分に基づいてより詳細な地物表面のエッジを表す折線を求めるエッジの微調整処理を行う(ステップS200)。   Next, the cylinder search processing S90 in FIG. 9 will be described. FIG. 12 is a schematic flowchart of the cylinder search processing S90. FIG. 13 is a schematic plan view showing an example of the continuous line segment generated in step S68 of FIG. 8, and shows a continuous line segment 52 detected corresponding to the cylinder 50. Naturally, from the surface of the feature in which a plurality of vertical planes are bent and connected, there may occur a polygonal line edge in which a plurality of straight lines (line segments) such as a continuous line segment 52 are connected. Since the process of detecting an edge is basically a straight line approximation, an edge like a continuous line segment 52 can be detected even from a smoothly curved cylindrical side surface. Therefore, the edge detection unit 22 positions the edge detected in the relatively large base space (block space) or the tracking space as the approximate edge of the feature, and in the cylinder search processing S90, the line segment which is the approximate edge , An edge fine adjustment process for obtaining a more detailed fold line representing the edge of the terrestrial feature is performed (step S200).

図14はエッジの微調整処理S200の概略のフロー図であり、図15はエッジの微調整処理を説明する模式的な平面図である。図14及び図15を用いて微調整処理S200を説明する。図15は、連続線分52を構成する1つの概略エッジL0に対応して生成される詳細エッジLfの例を示している。エッジ検出手段22は概略エッジを示す線分L0を一方端から一定の長さずつ区切り(ステップS220)、これにより生成された各区間にて詳細エッジが通る点(代表点)を探索し、XY面内にてPA,PBを結ぶ概略エッジを示す線分L0に代えて、各区間にて求めた代表点をつなぐ折線Lfをエッジとする。ここでは区間数をNとする。演算処理装置4は、図14のエッジ微調整処理のS224〜S232のループ処理において、選択した区間Kから代表点Pが得られると、当該代表点PのXY面内の座標(X,Y)を代表点情報として求める。 FIG. 14 is a schematic flowchart of the edge fine adjustment processing S200, and FIG. 15 is a schematic plan view illustrating the edge fine adjustment processing. The fine adjustment processing S200 will be described with reference to FIGS. FIG. 15 shows an example of a detailed edge Lf generated corresponding to one general edge L0 constituting the continuous line segment 52. The edge detecting means 22 divides the line segment L0 indicating the approximate edge by a predetermined length from one end (step S220), searches for a point (representative point) through which the detailed edge passes in each of the generated sections, and Instead of the line segment L0 indicating a general edge connecting PA and PB in the plane, a bent line Lf connecting representative points obtained in each section is set as an edge. Here, the number of sections is N. Processing device 4, in the loop process of S224~S232 edge fine adjusting process of FIG. 14, the representative point P K is obtained from the section K selected, the coordinates in the XY plane of the representative point P K (X K , Y K ) as representative point information.

エッジ検出手段22は、エッジ微調整処理において、区間番号Kを1ずつ増加させて、区間を選択し(ステップS222,S224)、各区間にて代表点を探索する(ステップS228)。探索は、エッジ周辺空間60を区間ごとに分割したコンパートメント62内で行われる。エッジ周辺空間60はXY面に射影した形状が概略エッジの近傍領域であり、Z方向に層状空間の高さHを有する空間に設定することができる。具体的にはエッジ周辺空間60のXY面上の形状は、対向する2辺の中点に概略エッジの両端PA,PBが位置した矩形である。当該矩形の概略エッジに直交する方向の寸法は、検出対象とする円柱地物の断面形状に想定される曲率や凹凸の大きさを考慮して設定することができる。本実施形態における検出対象の円柱地物は電柱とし、エッジ周辺空間60の概略エッジに直交する方向の寸法は、電柱の切断平面でのエッジを正確に捉えることができる程度に大きくする必要がある。一方、当該寸法は、電柱のエッジに起因しない点群が代表点として誤検出されにくいようにする観点からは小さくすることが好適であり、例えば部分空間の幅Wや奥行きDより小さく設定される。コンパートメント62は、概略エッジを区切った区間の境界点を通り概略エッジに直交する面でエッジ周辺空間60を区切って生成される。エッジ検出手段22は区間ごとに当該区間に対応するコンパートメント62内に点群データを取り込んで、当該コンパートメント62のXY面内における最も点群が密集する位置を求める。密集位置は、当該点群の任意の点を中心とする円内に包含される点群の数で判断される。例えば、円の半径は2cmとすることができる。そして当該位置に密集する点の数が予め定めた個数以上であれば(ステップS230にて「Yes」の場合)、当該位置を代表点としてエッジ代表点リストに追加し(ステップS232)、次の区間の処理に進む(ステップS224)。一方、当該位置に密集する点の数が予め定めた個数未満であれば(S230にて「No」の場合)、当該区間にエッジの代表点が存在しないとしてエッジ代表点リストに追加せずに次の区間の処理に進む(S224)。全ての区間について処理が終わると(ステップS226にて「Yes」の場合)、エッジ形状の微調整処理を終了する。 In the edge fine adjustment process, the edge detecting means 22 increments the section number K by one, selects a section (steps S222, S224), and searches for a representative point in each section (step S228). The search is performed in a compartment 62 obtained by dividing the edge peripheral space 60 into sections. The edge peripheral space 60 is a region whose shape projected on the XY plane is substantially in the vicinity of the edge, and can be set as a space having the height HL of the layered space in the Z direction. Specifically, the shape of the edge peripheral space 60 on the XY plane is a rectangle in which both ends PA and PB of the edge are located at the midpoint of two opposing sides. The dimension of the rectangle in the direction orthogonal to the general edge can be set in consideration of the curvature and the size of the unevenness assumed in the cross-sectional shape of the columnar feature to be detected. In the present embodiment, the columnar feature to be detected is a telephone pole, and the dimension of the edge peripheral space 60 in the direction orthogonal to the general edge needs to be large enough to accurately capture the edge of the telephone pole in the cutting plane. . On the other hand, it is preferable that the dimension is set smaller than the width W and the depth D of the partial space, for example, from the viewpoint that a point group not caused by the edge of the telephone pole is hardly erroneously detected as a representative point. . The compartment 62 is generated by partitioning the edge peripheral space 60 by a plane passing through the boundary point of the section that has partitioned the general edge and being orthogonal to the general edge. The edge detecting means 22 takes in the point cloud data in the compartment 62 corresponding to the section for each section, and obtains the position of the compartment 62 where the point cloud is most dense in the XY plane. The dense position is determined by the number of point groups included in a circle centered on an arbitrary point of the point group. For example, the radius of the circle can be 2 cm. If the number of points densely located at the position is equal to or greater than a predetermined number ("Yes" in step S230), the position is added to the edge representative point list as a representative point (step S232), and the next The process proceeds to the section (Step S224). On the other hand, if the number of points densely located at the position is less than the predetermined number (in the case of “No” in S230), it is determined that there is no edge representative point in the section and the point is not added to the edge representative point list. The process proceeds to the next section (S224). When the processing is completed for all the sections (in the case of “Yes” in step S226), the fine adjustment processing of the edge shape ends.

図15に示す例では、概略エッジを示す線分L0は例えば4つの区間に分割されており、L0を中心線とする点線の矩形で表されるエッジ周辺空間60も区間に対応して4つのコンパートメント62a〜62dに区画される。例えば、コンパートメント62a,62b,62dにて代表点P,Pk+1,Pk+2が抽出され、それらをコンパートメントの並び順につないだ折線Pk+1k+2が詳細エッジLfとなる。ちなみに、図15に示す例では、エッジ周辺空間60の分割はPA側から一定間隔ごとに行われており、その結果、最後の区間が他の区間より小さくなり得ることが示されている。 In the example illustrated in FIG. 15, the line segment L <b> 0 indicating an approximate edge is divided into, for example, four sections, and the edge peripheral space 60 represented by a dotted rectangle having L <b> 0 as a center line also has four sections corresponding to the section. It is partitioned into compartments 62a to 62d. For example, the representative points P k , P k + 1 , and P k + 2 are extracted in the compartments 62 a, 62 b, and 62 d, and the fold line P k P k + 1 P k + 2 connecting these in the arrangement order of the compartments becomes the detailed edge Lf. Incidentally, in the example shown in FIG. 15, it is shown that the division of the edge peripheral space 60 is performed at regular intervals from the PA side, and as a result, the last section can be smaller than other sections.

上述の微調整処理は、図13に示す連続線分52を構成する複数の概略エッジについて行われ、それが完了するとエッジ検出手段22は図12の処理に戻り、円柱か否かを推定する(ステップS202)。図16は連続線分52に対する微調整処理により得られた代表点70を示しており、この図を用いてステップS202の処理を説明する。   The above-described fine adjustment processing is performed on a plurality of general edges constituting the continuous line segment 52 shown in FIG. 13, and upon completion thereof, the edge detecting means 22 returns to the processing of FIG. 12 and estimates whether or not the column is a cylinder ( Step S202). FIG. 16 shows the representative point 70 obtained by the fine adjustment processing on the continuous line segment 52. The processing of step S202 will be described with reference to FIG.

エッジ検出手段22は連続線分52に沿って並ぶ代表点70のうち両端のもの(代表点70a,70b)を結ぶ直線72に対して、代表点70a,70b以外の代表点が全て同じ側にあるか否かを調べる。同じ側にない場合は連続線分52は円柱ではないと判定する(ステップS204にて「No」の場合)。   The edge detecting means 22 determines that all the representative points other than the representative points 70a and 70b are on the same side with respect to a straight line 72 connecting both ends (representative points 70a and 70b) among the representative points 70 arranged along the continuous line segment 52. Check if there is. If not on the same side, it is determined that the continuous line segment 52 is not a column (in the case of “No” in step S204).

図16のように代表点70a,70b以外の代表点が全て直線72に対して同じ側にある場合には、各代表点70から直線72への垂線の長さを求める。そして、最大の垂線74の長さが所定の基準長以上である場合は、円柱であると判定し(ステップS204にて「Yes」の場合)、その垂線の足を円柱の仮の中心点Cαに定める(ステップS206)。一方、最大の垂線長が基準長未満である場合は円柱ではないと判定する(ステップS204にて「No」の場合)。所定の基準長は例えば、代表点70a,70b間の距離の所定割合(例えば、3〜4割程度)に設定することができる。 When all the representative points other than the representative points 70a and 70b are on the same side of the straight line 72 as shown in FIG. 16, the length of the perpendicular from each representative point 70 to the straight line 72 is obtained. If the length of the maximum perpendicular 74 is equal to or longer than the predetermined reference length, it is determined that the cylinder is a cylinder (in the case of “Yes” in step S204), and the foot of the perpendicular is moved to the temporary center point C of the cylinder. α is set (step S206). On the other hand, if the maximum perpendicular length is less than the reference length, it is determined that the object is not a cylinder (in the case of “No” in step S204). The predetermined reference length can be set to, for example, a predetermined ratio (for example, about 30 to 40%) of the distance between the representative points 70a and 70b.

円柱と判定した場合には、再探索空間を設定し、当該空間内に存在する点群のデータを記憶装置6から読み込む(ステップS208)。図17は再探索空間の一例を示す模式図である。図17は、対象空間を上から見た図であり、再探索空間の配置(矩形80)、及び電柱の円柱面から得られる点群82の分布が示されている。再探索空間は、水平断面の中心を円柱の仮の中心点Cαに一致させて設定される。また矩形80の一辺はブロック空間より大きく設定することができる。例えば、本実施形態ではブロック空間のW,Dを50cmとしており、矩形80の一辺はそれより10cm大きい60cmに設定される。このように再探索空間の大きさに余裕を持たせることにより、円柱面から生じる点群が漏れなく再探索空間に処理対象点群として取り込まれ得る。 If it is determined that the column is a cylinder, a re-search space is set, and data of a point group existing in the space is read from the storage device 6 (step S208). FIG. 17 is a schematic diagram illustrating an example of the re-search space. FIG. 17 is a diagram of the target space as viewed from above, and shows the arrangement of the search space (rectangle 80) and the distribution of the point group 82 obtained from the cylindrical surface of the telephone pole. Re-search space is set the center of the horizontal cross-section to match the center point C alpha provisional cylindrical. One side of the rectangle 80 can be set larger than the block space. For example, in the present embodiment, W and D of the block space are set to 50 cm, and one side of the rectangle 80 is set to 60 cm, which is 10 cm larger than that. By giving a margin to the size of the re-search space in this way, the point group generated from the cylindrical surface can be taken into the re-search space as a processing target point group without omission.

エッジ検出手段22は再探索空間内の処理対象点群の広がりが目的地物のサイズに基づいて設定された上限以下であるかを調べる(ステップS210)。本実施形態では、処理対象点群のX軸方向の広がり、及びY軸方向の広がりがそれぞれ50cm以下であるか調べる。そして上限以下でない場合は(S210にて「No」の場合)、目的地物の円柱、具体的には電柱ではないと判定され、円柱探索処理S90のサブルーチンの呼び出し元に戻る。   The edge detection unit 22 checks whether the spread of the processing target point group in the re-search space is equal to or smaller than the upper limit set based on the size of the destination object (step S210). In the present embodiment, it is checked whether or not the spread of the processing target point group in the X-axis direction and the spread in the Y-axis direction are each 50 cm or less. If it is not equal to or less than the upper limit (in the case of “No” in S210), it is determined that the destination is not a cylinder, specifically a telephone pole, and the process returns to the caller of the subroutine of the cylinder search processing S90.

一方、上限以下である場合は(S210にて「Yes」の場合)、エッジ検出手段22は再探索空間内の処理対象点群に基づいて円柱面の中心及び半径を求める処理を行う(ステップS212)。具体的には、処理対象点群から選択された4点を通る円を探索する処理を、処理対象点群における4点の全ての組み合わせについて行う。そして探索された円のうちその円の近傍に存在する処理対象点の数が最も多いものを選択する。例えば、探索された円(中心C、半径R)のうち、中心がCで半径が[R−δ,R+δ]であるドーナツ状の領域内に存在する点が最も多くなる円(中心Cβ、半径Rβ)を選択する。ここでδは予め定められた値であり、検出対象の円柱地物に応じて設定することができ、例えば、電柱については2〜3cmとすることができる。 On the other hand, if it is equal to or less than the upper limit (in the case of “Yes” in S210), the edge detecting means 22 performs processing for obtaining the center and radius of the cylindrical surface based on the processing target point group in the re-search space (step S212). ). Specifically, a process of searching for a circle passing through the four points selected from the processing target point group is performed for all combinations of the four points in the processing target point group. Then, the searched circle having the largest number of processing target points near the circle is selected. For example, among the searched circles (center C, radius R), circles (center C β , center C β , where the center is C and the radius is [R−δ, R + δ]) in the donut-shaped region are the largest. Select the radius R β ). Here, δ is a predetermined value, and can be set according to the columnar feature to be detected. For example, it can be set to 2-3 cm for a utility pole.

そして、上述の処理で求めた円の中心Cβ、半径Rβを用い、中心がCβで半径が[Rβ−δ,Rβ+δ]であるドーナツ状の領域内に存在する点を抽出し、当該抽出した点群に適合する円の中心Cγ、半径Rγを最小二乗法により算出する。円柱探索処理は当該円(中心Cγ、半径Rγ)を探索結果とし、呼び出し元に処理を戻す。図9の連続エッジ探索処理では円柱探索処理S90にて探索結果として円(中心Cγ、半径Rγ)が得られると、連続線分52に対し、分類が第1の円柱である層別オブジェクト(図形コード2005)を生成する。オブジェクト生成手段24は当該層別オブジェクトに、図16に示す連続線分52の形状特徴を表す情報として中心Cγ、半径Rγを対応付けることができる。 Then, using the center C β and the radius R β of the circle obtained in the above-described processing, a point existing in a donut-shaped region whose center is C β and whose radius is [R β −δ, R β + δ] is extracted. and, the center C gamma compatible circle to the extracted point cloud, the radius R gamma is calculated by the least squares method. In the cylinder search processing, the circle (center , radius ) is set as a search result, and the processing is returned to the calling source. In the continuous edge search processing of FIG. 9, when a circle (center , radius ) is obtained as a search result in the cylinder search processing S90, the stratified object whose classification is the first cylinder is obtained for the continuous line segment 52. (Graphic code 2005) is generated. Object generating means 24 to the stratified object can be associated with the center C gamma, radius R gamma as information representing the shape characteristics of the continuous line segment 52 shown in FIG. 16.

図18は図4のステップS42の短エッジ処理の概略のフロー図である。オブジェクト生成手段24は検出された短エッジが細いポールであるかを調べ(ステップS240)、細いポールと判定した場合(ステップS242にて「Yes」の場合)、当該エッジについて第2の円柱を分類として設定された層別オブジェクトを生成し記憶装置6に登録する(ステップS244)。本実施形態では具体的には当該層別オブジェクトは第2の円柱の1つの種類である「細いポール」(図形コード1001)に分類される。   FIG. 18 is a schematic flowchart of the short edge processing in step S42 in FIG. The object generation unit 24 checks whether the detected short edge is a thin pole (step S240), and if it is determined to be a thin pole ("Yes" in step S242), classifies the second cylinder with respect to the edge. Then, a stratified object set as is generated and registered in the storage device 6 (step S244). In the present embodiment, specifically, the stratified object is classified as a “thin pole” (graphic code 1001), which is one type of the second cylinder.

図19は細いポールを判定する処理S240を説明する模式的な平面図である。短エッジ90を内包する水平断面を有する空間Sを設定し、当該空間S内の点群データを処理対象点群として取り込む。空間Sの水平断面は短エッジ90に沿った方向(ζ軸とする)の辺と直交する方向(η軸とする)の辺とを有する矩形とすることができる。当該矩形はζ軸方向に関しては、エッジ90の両端から当該矩形の辺までそれぞれ距離dとし、空間Sのζ軸方向のサイズを(L+2d)とすることができる。一方、η軸方向に関しては、エッジ90を中心としてサイズ2wとすることができる。また、空間SのZ軸方向の範囲はエッジ90が検出された層状空間と同じとすることができる。オブジェクト生成手段24は空間S内の処理対象点群の水平面内での広がりが目的地物である細いポールのサイズに基づいて設定された上限以下であるかを調べる。本実施形態では、処理対象点群のX軸方向の広がり、及びY軸方向の広がりがそれぞれ20cm以下であるか調べる。 FIG. 19 is a schematic plan view illustrating a process S240 of determining a thin pole. Set the space S C having a horizontal cross-section containing the short edges 90, capturing point cloud data of the space S C as a processing target point group. Horizontal section space S C may be a rectangle having a side in a direction perpendicular to the sides of the direction along the short edge 90 (the ζ axis) (the η axis). The rectangular respect to the ζ-axis direction, and opposite ends from to the side of the rectangle distance d C of the edge 90, can be the ζ axial size of the space S C and (L E + 2d C). On the other hand, in the η-axis direction, the size can be set to 2w C with the edge 90 as the center. Further, Z-axis direction of the range of the space S C may be the same as the layered space edge 90 has been detected. Object generating means 24 checks whether or not more than the upper limit the spread in the horizontal plane of the target point groups in space S C is set based on the size of the thin pole is an object feature. In the present embodiment, it is checked whether the spread of the processing target point group in the X-axis direction and the spread in the Y-axis direction are each 20 cm or less.

そして上限以下である場合は空間S内の点群は細いポールであると判定され(ステップS242にて「Yes」の場合)、オブジェクト生成手段24は、エッジ90に対し、分類が第2の円柱「細いポール」である層別オブジェクトを生成する(ステップS244)。オブジェクト生成手段24は当該層別オブジェクトに、細いポールの中心点として処理対象点群の分布の中心を対応付け、また細いポールの半径として例えば0を対応付けることができる。なお、当該層別オブジェクトを生成すると、処理は短エッジ処理S42のサブルーチンの呼び出し元に戻る。 Then (if at step S242 "Yes") when the upper limit or less point cloud in the space S C is determined to be narrow pole, object generator 24, to edge 90, classification of the second A stratified object that is a column “thin pole” is generated (step S244). The object generating means 24 can associate the stratified object with the center of the distribution of the processing target point group as the center point of the thin pole, and can associate, for example, 0 as the radius of the thin pole. When the stratified object is generated, the process returns to the calling source of the subroutine of the short edge processing S42.

一方、処理対象点群の分布が上限より広い場合は空間S内の点群は細いポールではないと判定される(ステップS242にて「No」の場合)。この場合は、エッジ検出手段22が図4のステップS44と同様の処理を行い、当該エッジが植栽(樹木の葉)などであるかを調べる(ステップS246)。植栽ではなく目的地物とする人工構造物である場合は(ステップS248にて「No」の場合)、エッジ検出手段22は図4のステップS48と同様に図8、図9等を用いて説明した連続エッジ探索処理を行う(ステップS250)。その後、図4の短エッジ処理S42のサブルーチンの呼び出し元に戻る。 On the other hand, point cloud in the space S C if the distribution of the target point group is wider than the upper limit is determined not to be a thin pole (if at step S242 "No"). In this case, the edge detecting means 22 performs the same processing as in step S44 in FIG. 4, and checks whether the edge is a planting (leaf of a tree) or the like (step S246). In the case of an artificial structure that is not a plant but a destination (in the case of “No” in step S248), the edge detection unit 22 uses FIGS. 8 and 9 as in step S48 of FIG. The described continuous edge search process is performed (step S250). Thereafter, the process returns to the calling source of the subroutine of the short edge processing S42 in FIG.

以上説明した、層状空間設定手段20、エッジ検出手段22及びオブジェクト生成手段24の処理により、地物検出システム2は対象空間をZ軸方向に積み重なる層状空間に分け、各層状空間内の点群から、予め定められた形状特徴を有する複数種類の要素図形のオブジェクトを抽出し、記憶装置6に登録する。   By the processing of the layered space setting unit 20, the edge detecting unit 22, and the object generating unit 24 described above, the feature detection system 2 divides the target space into layered spaces stacked in the Z-axis direction, and calculates a point group in each layered space. Then, an object of a plurality of types of element graphics having predetermined shape characteristics is extracted and registered in the storage device 6.

目的地物検出手段26は層別オブジェクトを垂直方向に組み合わせ、それが地表から立ち上がった目的地物であるかを調べる。具体的には、目的地物検出手段26は、層別オブジェクトのうちエッジが高さ方向に沿って並ぶものを組み合わせる。ここで、地表から立ち上がった1つの目的地物の各層状空間における断面は、理想的には、隣接する層状空間では共通部分を有したり交差したりするものかもしれないが、点群から生成したエッジで表される地物表面はそうならないことも多い。そこで、目的地物検出手段26は、互いに異なる層状空間に存在する第1のエッジと第2のエッジの水平面内での位置が或る程度近ければ高さ方向に並んでいると扱う。図20は異なる層状空間のエッジの重なりを説明する模式的な平面図である。目的地物検出手段26は、互いに異なる層状空間に属する第1のエッジ100及び第2のエッジ102について、第1のエッジ100を中心線とし所定幅wを有するエッジ近傍領域104と第2のエッジ102とが重なりを有する場合にエッジ100,102が高さ方向に並んでいると判断する。wは例えば、5cm程度に設定することができる。 The destination detecting means 26 combines the stratified objects in the vertical direction, and checks whether or not the object is a destination standing on the ground. Specifically, the destination feature detecting means 26 combines stratified objects whose edges are arranged along the height direction. Here, the cross section of each destination object rising from the ground surface in each layered space may ideally have a common part or intersect in an adjacent layered space, but is generated from a point cloud. Often, the feature surface represented by a sharp edge does not. Therefore, the target object detecting means 26 treats the first edge and the second edge existing in different layered spaces as being arranged in the height direction if the positions on the horizontal plane are somewhat close to each other. FIG. 20 is a schematic plan view for explaining the overlapping of edges in different layered spaces. Object feature detection unit 26 is different for the first edge 100 and second edge 102 which belongs to a layer space, the near edge region 104 having a predetermined width w M a first edge 100 and the center line second mutually When the edge 102 and the edge 102 overlap, it is determined that the edges 100 and 102 are arranged in the height direction. w M, for example, it can be set to about 5cm.

目的地物検出手段26は層別オブジェクトの垂直方向の並びが図1の地物モデル32に記述されている目的地物の特徴を有するかどうかを調べ、有している場合、その垂直方向に並ぶ層別オブジェクトが当該目的地物であると判断する。簡単な例としては、目的地物「道路脇の道路標識」は支柱に相当する円柱とその上の標識に相当する垂直面とからなり、その地物モデル32として、高さが0〜3mの範囲に要素図形として「細いポール」のような第2の円柱が縦に並ぶ部分を有し、その上部に要素図形として標識に想定される大きさに対応した第2の略垂直面が存在するといった特徴が記憶装置6に格納される。また、目的地物「道路上の案内標識」の地物モデル32として、比較的高い位置の複数の連続する層状空間に要素図形として第1の略垂直面が縦に並び、その下は要素図形が存在しないといった特徴が記憶装置6に格納される。このように地物モデル32が要素図形の簡単な配列パターンで表現される場合には、目的地物検出手段26は層別オブジェクトの垂直方向の並びを当該配列パターンと照合する比較的簡単な処理で目的地物を判別することができる。しかし、地物モデル32は要素図形に関するより複雑な条件を定めるものであってもよく、当該条件を満たすか否かを判別するプログラムが実質的に地物モデル32として記憶装置6に格納されるものであってもよい。   The destination detecting means 26 checks whether or not the vertical arrangement of stratified objects has the characteristics of the destination described in the feature model 32 of FIG. 1. It is determined that the stratified objects arranged are the destination. As a simple example, the destination feature "road sign beside the road" is composed of a cylinder corresponding to a pillar and a vertical plane corresponding to a sign thereon, and the feature model 32 having a height of 0 to 3 m. In the range, a second column such as a "thin pole" is vertically arranged as an element graphic in the range, and a second substantially vertical plane corresponding to the size expected for the sign as the element graphic exists above the second column. Are stored in the storage device 6. Also, as the feature model 32 of the destination feature "guide sign on the road", a first substantially vertical plane is vertically arranged as an element graphic in a plurality of continuous layered spaces at relatively high positions, and the element graphic below the element graphic is shown below. Are stored in the storage device 6. When the feature model 32 is represented by a simple array pattern of element figures as described above, the destination feature detection unit 26 performs a relatively simple process of comparing the vertical arrangement of stratified objects with the array pattern. Can be used to determine the destination. However, the feature model 32 may define more complicated conditions relating to the element figure, and a program for determining whether or not the conditions are satisfied is stored in the storage device 6 as the feature model 32 substantially. It may be something.

目的地物検出手段26のより詳細な処理の例を説明する。図21は道路標識などポールを含む目的地物についての目的地物検出手段26の処理例を示す概略のフロー図であり、当該処理を記述したプログラムを上述したように地物モデル32として記憶装置6に予め格納しておくことができる。オブジェクト生成手段24により対象空間に生成された層別オブジェクトには1から順番に自然数の番号Indexが付される。目的地物検出手段26はIndexを処理開始時に設定される初期値0(ステップS280)から順番にインクリメントして処理対象の層別オブジェクトを選択し(ステップS282)、Indexが層別オブジェクトの総数NTOTを超えると処理を終了する(ステップS284にて「No」の場合)。 An example of a more detailed process of the destination object detecting means 26 will be described. FIG. 21 is a schematic flow chart showing a processing example of the destination object detecting means 26 for a destination object including a pole such as a road sign, and a program describing the processing is stored in the storage device as the object model 32 as described above. 6 can be stored in advance. The stratified objects generated in the target space by the object generating means 24 are assigned a natural number Number from 1 in order. The destination object detecting means 26 increments the Index in order from the initial value 0 (step S280) set at the start of the process and selects a stratified object to be processed (step S282), and the Index indicates the total number N of stratified objects. If TOT is exceeded, the process ends ("No" in step S284).

層別オブジェクトを選択すると(ステップS284にて「Yes」の場合)、目的地物検出手段26は当該層別オブジェクトの図形コードCodeが“1001”で、かつ当該層別オブジェクトが地物の構成に既に使用されているか否かを示す図形マークMarkが、未使用であることを示す値“0”であり(ステップS286にて「Yes」の場合)、さらに当該層別オブジェクトに高さ方向に並ぶ他の層別オブジェクトの個数Nが予め定めた基準値NVTH以上であれば(ステップS288にて「Yes」の場合)、高さ方向に並ぶ位置関係にある複数の層別オブジェクトを標高の低い順にソートする(ステップS290)。NVTHは例えば2又は3とすることができる。 When the stratified object is selected (in the case of “Yes” in step S284), the destination object detecting means 26 determines that the graphic code Code of the stratified object is “1001” and the stratified object is in the form of a feature. The graphic mark Mark indicating whether or not it is already used is a value “0” indicating that it is not used (if “Yes” in step S286), and is further arranged in the height direction on the stratified object. If the number N V of other stratified object predetermined reference value N VTH above (if in step S288 "Yes"), the elevation multiple stratification objects in the positional relationship arranged in a height direction Sorted in ascending order (step S290). NVTH can be, for example, 2 or 3.

なお、選択した層別オブジェクトのCodeが“1001”でない場合及び当該層別オブジェクトのMarkが既使用を示す値“1”である場合(ステップS286にて「No」の場合)、並びに高さ方向に並ぶ層別オブジェクトの個数Nが基準値未満である場合(ステップS288にて「No」の場合)は、処理はノードAに戻り、次の層別オブジェクトを選択する(ステップS282)。 Note that when the code of the selected stratified object is not “1001”, when the Mark of the stratified object is a value “1” indicating “used” (“No” in step S286), and in the height direction If the number N V of stratification objects arranged in is less than the reference value (step S288 "No"), the process returns to node a, to select the next stratified object (step S282).

ステップS290のソート処理後、目的地物検出手段26は後述するポール判別処理S292を行う。ポール判別処理のサブルーチンからの戻り値が“1”であれば、ポールが検出されたことになり(ステップS294にて「Yes」の場合)、目的地物検出手段26はその水平断面の中心と半径を計算する(ステップS296)。そして、その計算結果等に基づいて、当該ポールがすでに検出済みの地物として記憶装置6に登録されているか否かを調べる。既登録でなければ(ステップS298にて「No」の場合)、ポールの半径と中心点からポールの下側及び上側の標高を求め(ステップS300)、当該ポールを検出済みの地物として記憶装置6に新規登録する(ステップS302)。さらに、現在、ステップS282にて設定されたIndexを有しCode=“1001”である層別オブジェクト及び、当該層別オブジェクトと高さ方向に並ぶCode=“1001”である層別オブジェクトをMark=“1”とし既使用として(ステップS304)、処理はノードAに戻り、次の層別オブジェクトを選択する(ステップS282)。   After the sorting process in step S290, the destination object detecting means 26 performs a pole determination process S292 described later. If the return value from the subroutine of the pole discrimination processing is "1", it means that a pole has been detected ("Yes" in step S294), and the destination object detecting means 26 determines that the center of the horizontal section is The radius is calculated (step S296). Then, based on the calculation result or the like, it is determined whether or not the pole is already registered in the storage device 6 as a detected feature. If not already registered (in the case of "No" in step S298), the lower and upper elevations of the pole are obtained from the radius and the center point of the pole (step S300), and the pole is stored as a detected feature. 6 is newly registered (step S302). Further, the stratified object having the index set in step S282 and having Code = “1001” and the stratified object having Code = “1001” aligned in the height direction with the stratified object are marked with Mark = If it is set to “1” and used (step S304), the process returns to the node A, and selects the next stratified object (step S282).

また、ポール判別処理S292の結果、ポールでないと判断された場合(ステップS294にて「No」の場合)、及び検出されたポールが既登録であった場合(ステップS298にて「Yes」の場合)も、処理はノードAに戻り、次の層別オブジェクトを選択する(ステップS282)。   Also, as a result of the pole discriminating process S292, when it is determined that it is not a pole (in the case of "No" in step S294) and when the detected pole is already registered (in the case of "Yes" in step S298) ) Also returns to the node A, and selects the next stratified object (step S282).

図22及び図23はポール判別処理S292の概略のフロー図である。ポール判別処理S292は高さ方向に並ぶ層別オブジェクトからなるオブジェクトグループに対応する地物がポールを含むものであるかを判別する。目的地物検出手段26は入力装置8からの入力又は記憶装置6に設定されたパラメータを読み込むことにより、ポールと判断するのに必要とする「細いポール」オブジェクトの最低積層数CMIN1001を設定する(ステップS320)。また、処理対象とするオブジェクトグループにおける各層別オブジェクトを識別するインデックスCI、ポールである確からしさを示す値PL、Code=“1001”である層別オブジェクトのカウント数FC1001、Code=“2001”である層別オブジェクトのカウント数FC2001、Code=“2003”である層別オブジェクトのカウント数FC2003、Code=“2005”である層別オブジェクトのカウント数FC2005をそれぞれ0に初期化する(ステップS322)。 FIG. 22 and FIG. 23 are schematic flowcharts of the pole discrimination processing S292. The pole discriminating process S292 discriminates whether a feature corresponding to an object group composed of stratified objects arranged in the height direction includes a pole. The destination object detecting means 26 reads the input from the input device 8 or the parameters set in the storage device 6 to set the minimum number CMIN1001 of “thin pole” objects required for judging a pole. (Step S320). Also, an index CI for identifying each stratified object in the object group to be processed, a value PL indicating the probability of being a pole, a count number FC 1001 of stratified objects with Code = “1001”, and Code = “2001”. initialize count FC 2001 of a stratified object, Code = "2003" count FC 2003 stratification object is, Code = "2005" the count FC 2005 stratification object is to 0, respectively (step S322).

目的地物検出手段26はCIを初期値0から順番にインクリメントして処理対象の層別オブジェクトを選択し(ステップS324)、CIが処理対象のオブジェクトグループを構成する層別オブジェクトの個数Nを超えると処理はノードDに移る(ステップS326にて「No」の場合)。 Object feature detection unit 26 selects the stratified object to be processed is incremented sequentially CI from the initial value 0 (step S324), CI is the number N V of stratification objects constituting the object group to be processed If it exceeds, the process proceeds to the node D (in the case of “No” in step S326).

また、カウントFC1001がCMIN1001以上であれば(ステップS328にて「Yes」の場合)、オブジェクトグループがポールを含む地物であると判断し、PLの値を当該判断結果を示す値“1”に設定して(ステップS330)、処理はノードDに移る。 If the count FC 1001 is equal to or more than C MIN 1001 (“Yes” in step S328), it is determined that the object group is a feature including a pole, and the value of PL is set to a value “1” indicating the determination result. "(Step S330), and the process proceeds to node D.

FC1001<CMIN1001である場合(ステップS328にて「No」の場合)には、目的地物検出手段26は選択した層別オブジェクトがCode=“1001”であれば(ステップS332にて「Yes」の場合)カウント数FC1001を1増やし(ステップS334)、Code=“2001”であれば(ステップS336にて「Yes」の場合)カウント数FC2001を1増やし(ステップS338)、Code=“2003”であれば(ステップS340にて「Yes」の場合)カウント数FC2003を1増やし(ステップS342)、Code=“2005”であれば(ステップS344にて「Yes」の場合)カウント数FC2005を1増やし(ステップS346)、ノードBに戻る。 If FC 1001 <C MIN 1001 (“No” in step S328), the destination object detecting unit 26 determines that the selected stratified object is Code = “1001” (“Yes” in step S332). ")", The count number FC 1001 is increased by 1 (step S334), and if Code = "2001"("Yes" in step S336), the count number FC 2001 is increased by 1 (step S338), and Code = " If “2003” (“Yes” in step S340), the count FC 2003 is incremented by 1 (step S342), and if Code = “2005” (if “Yes” in step S344), the count FC 2005 is increased by 1 (step S346), and the process returns to the node B.

一方、FC1001<CMIN1001である場合(ステップS328にて「No」の場合)において、選択した層別オブジェクトがCode=“1001”,“2001”,“2003”,“2005”のいずれでもない場合は、選択した層別オブジェクトが下から2番目以上のものであるか判断する(ステップS364)。当該層別オブジェクトが処理対象オブジェクトグループ中、一番下のものである場合は(ステップS364にて「No」の場合)、処理はノードBに戻る。 On the other hand, if FC 1001 <C MIN 1001 (“No” in step S328), the selected stratified object is not Code = “1001”, “2001”, “2003”, or “2005”. In this case, it is determined whether or not the selected stratified object is the second or more from the bottom (step S364). If the stratified object is the lowest object in the object group to be processed (“No” in step S364), the process returns to node B.

2番目以上である場合は(ステップS364にて「Yes」の場合)、当該層別オブジェクトが「建物壁面」を示すCode=“201”であり、かつ当該層別オブジェクトの高さZ(CI)とその下の層別オブジェクトの高さZ(CI−1)との差が1.5m未満であるかを調べる(ステップS366)。これらの条件が満たされる場合(ステップS366にて「Yes」の場合)、目的地物検出手段26はオブジェクトグループが「建物壁面」を含む地物でありポールを含む地物である可能性は低いと判断し、PLの値を当該判断結果を示す値“−1”に設定し(ステップS368)、処理はノードDに移る。ちなみに、Z(CI)−Z(CI−1)が1.5m以上である場合については、例えば、道路標識の上方に離れて高架橋の壁面が存在するような状況が可能性として存在するため、PLは0のままとする。   If it is the second or more (if “Yes” in step S364), the stratified object is Code = “201” indicating “building wall surface”, and the height Z (CI) of the stratified object is It is checked whether or not the difference between the height and the height Z (CI-1) of the stratified object below it is less than 1.5 m (step S366). When these conditions are satisfied (in the case of “Yes” in step S366), the destination feature detecting unit 26 has a low possibility that the object group is a feature including a “building wall surface” and a feature including a pole. Is determined, the value of PL is set to a value “−1” indicating the determination result (step S368), and the process proceeds to the node D. By the way, in the case where Z (CI) -Z (CI-1) is 1.5 m or more, for example, there is a possibility that a viaduct wall is located above a road sign and exists as a possibility. PL remains at 0.

PL=1である場合は(ステップS370にて「Yes」の場合)、戻り値が“1”に設定され(ステップS372)、処理はポール判別処理のサブルーチンの呼び出し元に戻る。   If PL = 1 (“Yes” in step S370), the return value is set to “1” (step S372), and the process returns to the call source of the poll determination subroutine.

PL=−1である場合は(ステップS374にて「Yes」の場合)、戻り値が“0”に設定され(ステップS376)、処理はポール判別処理のサブルーチンの呼び出し元に戻る。   If PL = −1 (“Yes” in step S374), the return value is set to “0” (step S376), and the process returns to the call source of the poll determination subroutine.

FC1001が1、つまり「細いポール」のオブジェクトの高さ方向への積み重なりが確認されない場合には(ステップS378にて「No」の場合)、戻り値が“0”に設定され(ステップS380)、処理はポール判別処理のサブルーチンの呼び出し元に戻る。 If FC 1001 is 1, that is, it is not confirmed that the objects of “thin poles” are stacked in the height direction (“No” in step S378), the return value is set to “0” (step S380). The processing returns to the caller of the subroutine of the pole determination processing.

PLが0であり、かつFC1001が2以上である場合(ステップS370及びS374にて「No」、かつステップS378にて「Yes」の場合)、処理対象オブジェクトグループがポールと標識とが組み合わさったポール標識であるかを判別する(ステップS382)。具体的にはCode=“1001の「細いポール」にCode=“2003”の層別オブジェクトが組み合わさっている場合、ポール標識と判断される(ステップS382にて「Yes」の場合)。この場合、戻り値が“1”に設定され(ステップS384)、処理はポール判別処理のサブルーチンの呼び出し元に戻る。一方、ポール標識でないと判断された場合は(ステップS382にて「No」の場合)、戻り値が“0”に設定され(ステップS386)、処理はポール判別処理のサブルーチンの呼び出し元に戻る。 If PL is 0 and FC 1001 is 2 or more (“No” in steps S370 and S374 and “Yes” in step S378), the processing target object group is a combination of a pole and a sign. It is determined whether it is a pole marker that has been set (step S382). Specifically, when a stratified object with Code = “2003” is combined with a “thin pole” with Code = “1001”, it is determined to be a pole marker (in the case of “Yes” in step S382). In this case, the return value is set to "1" (step S384), and the process returns to the caller of the subroutine of the poll determination process. On the other hand, if it is determined that it is not a pole indicator ("No" in step S382), the return value is set to "0" (step S386), and the process returns to the call source of the pole determination subroutine.

以上、目的地物検出手段26の処理の一例を説明した。当該処理では基本的に、点群データそのものではなく、高さ方向に沿って並ぶ複数の層別オブジェクトからなるグループが処理対象となる。地物検出システム2は、当該グループにおける高さ方向に沿った層別オブジェクトの分類の並び方を、例えば、図21〜図23を用いて説明したような処理で、地物モデル32として記述される条件と照合して目的地物を検出する。目的地物検出手段26における処理では、層別オブジェクトはいわば地物を構成する部品として、各種の目的地物の検出に共通に利用される。つまり、目的地物ごとに点群データから当該目的地物の形状の特徴を探索・抽出するという処理が省略され処理効率が向上する。また、部品化されたオブジェクトの組み合わせに基づいて目的地物の形状の特徴を探索・抽出する処理は、点群データから目的地物の形状の特徴を探索・抽出するという処理よりもより少ない工数で作成でき、ひいては目的地物の追加・変更に柔軟に対応できる。   The example of the processing of the destination object detecting means 26 has been described above. In this process, basically, not the point cloud data itself, but a group consisting of a plurality of stratified objects arranged along the height direction is to be processed. The feature detection system 2 describes, as a feature model 32, how to classify the stratified objects in the group along the height direction, for example, by the processing described with reference to FIGS. The destination is detected by matching the condition. In the processing in the destination detecting means 26, the stratified objects are commonly used for detecting various destinations as so-called components constituting the terrestrial feature. In other words, the process of searching and extracting the feature of the shape of the destination object from the point cloud data for each destination object is omitted, and the processing efficiency is improved. In addition, the process of searching and extracting the feature of the shape of the destination based on the combination of the componentized objects requires less man-hour than the process of searching and extracting the feature of the shape of the destination from the point cloud data. And can flexibly respond to the addition / change of destinations.

2 地物検出システム、4 演算処理装置、6 記憶装置、8 入力装置、10 出力装置、20 層状空間設定手段、22 エッジ検出手段、24 オブジェクト生成手段、26 目的地物検出手段、30 点群データ、32 地物モデル。   2 feature detection system, 4 arithmetic processing device, 6 storage device, 8 input device, 10 output device, 20 layered space setting means, 22 edge detection means, 24 object generation means, 26 destination feature detection means, 30 point group data , 32 feature model.

Claims (6)

対象空間における地物表面から抽出された点群の三次元座標データに基づいて、地表から立ち上がった目的地物を検出する地物検出装置であって、
三次元空間における予め定められた形状特徴を有する複数種類の要素図形を用い、前記目的地物の標準形状を1つ又は高さ方向に沿って並ぶ複数の前記要素図形で表した地物モデルを予め記憶したモデル記憶手段と、
前記対象空間を水平な複数の層状空間に分割する層状空間設定手段と、
前記各層状空間にて、水平面に射影され予め設定した基準以上に近傍に集まる前記点群を地物表面の位置であるエッジとして検出するエッジ検出手段と、
前記エッジを前記要素図形のうち当該エッジの形状に対応する射影を生じるものに分類し、当該エッジと当該分類とを対応付けた層別オブジェクトを生成するオブジェクト生成手段と、
それぞれの前記エッジが高さ方向に沿って並ぶ複数の前記層別オブジェクトからなるグループを求め、当該グループにおける高さ方向に沿った前記分類の並び方を前記地物モデルと照合して前記目的地物を検出する目的地物検出手段と、
を有することを特徴とする地物検出装置。
Based on three-dimensional coordinate data of a point cloud extracted from the surface of the feature in the target space, a feature detection device that detects a target feature rising from the ground surface,
Using a plurality of types of elemental figures having a predetermined shape characteristic in a three-dimensional space, a feature model representing a standard shape of the destination by one or a plurality of the elemental figures arranged in a height direction. Model storage means stored in advance,
Layered space setting means for dividing the target space into a plurality of horizontal layered spaces,
In each of the layered spaces, an edge detection unit that detects the point group that is projected on a horizontal plane and gathers in the vicinity of a predetermined reference or more as an edge that is a position on the surface of a feature,
Object generation means for classifying the edge into those which produce a projection corresponding to the shape of the edge among the element figures, and generating a stratified object in which the edge is associated with the classification,
Obtain a group consisting of a plurality of the stratified objects, each edge of which is arranged along the height direction, and collate the classification in the group along the height direction with the feature model to determine the destination feature. Destination detecting means for detecting
A feature detection device comprising:
請求項1に記載の地物検出装置において、
前記複数の層状空間それぞれの高さ方向の寸法は同一であること、を特徴とする地物検出装置。
The feature detection device according to claim 1,
The feature detecting device, wherein the plurality of layered spaces have the same dimension in the height direction.
請求項1又は請求項2に記載の地物検出装置において、
前記目的地物検出手段は、互いに異なる前記層状空間に存在する第1エッジと第2エッジの水平面内での位置に関し、前記第1エッジを中心線とし所定幅を有するエッジ近傍領域と前記第2エッジとが重なりを有する場合に前記第1エッジと前記第2エッジとは高さ方向に並ぶと判断すること、を特徴とする地物検出装置。
In the feature detection device according to claim 1 or 2,
The destination feature detecting means is configured to determine a position of a first edge and a second edge existing in the layered space different from each other in a horizontal plane, the edge vicinity area having a predetermined width with the first edge as a center line, and The feature detection device, wherein when the edge has an overlap, the first edge and the second edge are determined to be arranged in a height direction.
請求項1から請求項3のいずれか1つに記載の地物検出装置において、
前記要素図形は、水平断面にて非円形の形状及び予め定めた閾値長さ以上の長さを有する第1の略垂直面と、水平断面にて非円形の形状及び前記閾値長さ未満の長さを有する第2の略垂直面と、水平断面が予め定めた閾値半径以上の半径を有する円形である第1の円柱と、水平断面が前記閾値半径未満の半径を有する円形である第2の円柱と、を含むことを特徴とする地物検出装置。
In the feature detection device according to any one of claims 1 to 3,
The element graphic has a non-circular shape in a horizontal cross section and a first substantially vertical surface having a length equal to or greater than a predetermined threshold length, and a non-circular shape in a horizontal cross section and a length less than the threshold length. A second column having a second substantially vertical surface, a first column having a horizontal cross section having a radius greater than or equal to a predetermined threshold radius, and a second column having a horizontal cross section having a radius smaller than the threshold radius. A feature detection device comprising: a column.
対象空間における地物表面から抽出された点群の三次元座標データに基づいて、地表から立ち上がった目的地物を検出する地物検出方法であって、
前記対象空間を水平な複数の層状空間に分割する層状空間設定ステップと、
前記各層状空間にて、水平面に射影され予め設定した基準以上に近傍に集まる前記点群を地物表面の位置であるエッジとして検出するエッジ検出ステップと、
前記エッジを三次元空間における予め定められた形状特徴を有する複数種類の要素図形のうち当該エッジの形状に対応する射影を生じるものに分類し、当該エッジと当該分類とを対応付けた層別オブジェクトを生成するオブジェクト生成ステップと、
それぞれの前記エッジが高さ方向に沿って並ぶ複数の前記層別オブジェクトからなるグループを求めるグループ化ステップと、
前記目的地物の標準形状を1つ又は高さ方向に沿って並ぶ複数の前記要素図形で表した地物モデルを予め記憶したモデル記憶手段から前記地物モデルを読み出し、前記グループにおける高さ方向に沿った前記分類の並び方を当該地物モデルと照合して前記目的地物を検出する地物モデル照合ステップと、
を有することを特徴とする地物検出方法。
A feature detection method for detecting a destination feature rising from the ground based on three-dimensional coordinate data of a point cloud extracted from a feature surface in a target space,
A layered space setting step of dividing the target space into a plurality of horizontal layered spaces,
In each of the layered spaces, an edge detection step of detecting the point cloud projected on a horizontal plane and gathering in the vicinity of a predetermined reference or more as an edge that is a position on the surface of a feature,
The edge is classified into a plurality of types of elemental figures having a predetermined shape characteristic in a three-dimensional space that generate a projection corresponding to the shape of the edge, and a stratified object in which the edge is associated with the classification. An object generation step for generating
A grouping step of obtaining a group consisting of a plurality of the stratified objects, each edge of which is arranged along a height direction;
The feature model is read from a model storage unit in which a feature model represented by one or a plurality of the elemental figures arranged in one or more standard shapes of the destination feature along the height direction is read in the height direction in the group. A feature model matching step of matching the arrangement of the classification along the feature model with the feature model to detect the destination feature;
A feature detection method comprising:
対象空間における地物表面から抽出された点群の三次元座標データに基づいて、地表から立ち上がった目的地物を検出する処理をコンピュータに行わせるためのプログラムであって、当該コンピュータを、
三次元空間における予め定められた形状特徴を有する複数種類の要素図形を用い、前記目的地物の標準形状を1つ又は高さ方向に沿って並ぶ複数の前記要素図形で表した地物モデルを予め記憶したモデル記憶手段、
前記対象空間を水平な複数の層状空間に分割する層状空間設定手段、
前記各層状空間にて、水平面に射影され予め設定した基準以上に近傍に集まる前記点群を地物表面の位置であるエッジとして検出するエッジ検出手段、
前記エッジを前記要素図形のうち当該エッジの形状に対応する射影を生じるものに分類し、当該エッジと当該分類とを対応付けた層別オブジェクトを生成するオブジェクト生成手段、及び、
それぞれの前記エッジが高さ方向に沿って並ぶ複数の前記層別オブジェクトからなるグループを求め、当該グループにおける高さ方向に沿った前記分類の並び方を前記地物モデルと照合して前記目的地物を検出する目的地物検出手段、
として機能させることを特徴とするプログラム。
Based on the three-dimensional coordinate data of a point cloud extracted from the surface of the feature in the target space, a program for causing a computer to perform a process of detecting a destination feature rising from the surface of the ground, the computer,
Using a plurality of types of elemental figures having a predetermined shape characteristic in a three-dimensional space, a feature model representing a standard shape of the destination by one or a plurality of the elemental figures arranged in a height direction. Model storage means stored in advance,
Layered space setting means for dividing the target space into a plurality of horizontal layered spaces,
In each of the layered spaces, an edge detection unit that detects the point group that is projected on a horizontal plane and gathers in the vicinity of a predetermined reference or more as an edge that is a position of a feature surface,
An object generating unit that classifies the edge into those that generate a projection corresponding to the shape of the edge among the element figures, and generates a stratified object that associates the edge with the classification; and
Obtain a group consisting of a plurality of the stratified objects, each edge of which is arranged along the height direction, and collate the classification in the group along the height direction with the feature model to determine the destination feature. Destination detecting means for detecting
A program characterized by functioning as a program.
JP2016055060A 2016-03-18 2016-03-18 Feature detection device, feature detection method, and program Active JP6652865B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016055060A JP6652865B2 (en) 2016-03-18 2016-03-18 Feature detection device, feature detection method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016055060A JP6652865B2 (en) 2016-03-18 2016-03-18 Feature detection device, feature detection method, and program

Publications (2)

Publication Number Publication Date
JP2017167092A JP2017167092A (en) 2017-09-21
JP6652865B2 true JP6652865B2 (en) 2020-02-26

Family

ID=59913128

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016055060A Active JP6652865B2 (en) 2016-03-18 2016-03-18 Feature detection device, feature detection method, and program

Country Status (1)

Country Link
JP (1) JP6652865B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020035226A (en) * 2018-08-30 2020-03-05 パイオニア株式会社 Determination device, control method, program, and storage medium
JP2022176248A (en) * 2018-08-30 2022-11-25 パイオニア株式会社 Determination apparatus, control method, program, and storage medium
JP7497365B2 (en) * 2019-02-25 2024-06-10 デカ・プロダクツ・リミテッド・パートナーシップ Systems and methods for surface feature detection and traversal - Patents.com
JP6785933B1 (en) * 2019-09-13 2020-11-18 株式会社パスコ Porosity estimation device, porosity estimation method and program
JP7324097B2 (en) * 2019-09-13 2023-08-09 株式会社トプコン Three-dimensional surveying device, three-dimensional surveying method and three-dimensional surveying program
JP7417466B2 (en) * 2020-05-07 2024-01-18 株式会社トヨタマップマスター Information processing device, information processing method, and information processing program
JP7417465B2 (en) * 2020-05-07 2024-01-18 株式会社トヨタマップマスター Information processing device, information processing method, and information processing program
JP6931501B1 (en) * 2021-05-24 2021-09-08 株式会社マプリィ Single tree modeling system and single tree modeling method
WO2024023900A1 (en) * 2022-07-25 2024-02-01 日本電信電話株式会社 Extraction device, extraction method, and extraction program
JP2023038285A (en) * 2022-09-22 2023-03-16 パイオニア株式会社 Determination apparatus, control method, program, and storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI358606B (en) * 2007-12-28 2012-02-21 Ind Tech Res Inst Method for three-dimension (3d) measurement and an
JP5451457B2 (en) * 2010-03-04 2014-03-26 株式会社ゼンリン 3D model generation apparatus and computer program
JP5430627B2 (en) * 2011-09-02 2014-03-05 株式会社パスコ Road accessory detection device, road accessory detection method, and program
JP5577312B2 (en) * 2011-09-20 2014-08-20 株式会社パスコ Data analysis apparatus, data analysis method, and program

Also Published As

Publication number Publication date
JP2017167092A (en) 2017-09-21

Similar Documents

Publication Publication Date Title
JP6652865B2 (en) Feature detection device, feature detection method, and program
JP5161936B2 (en) Data analysis apparatus, data analysis method, and program
WO2020134082A1 (en) Path planning method and apparatus, and mobile device
KR102143108B1 (en) Lane recognition modeling method, device, storage medium and device, and recognition method, device, storage medium and device
JP5566353B2 (en) Data analysis apparatus, data analysis method, and program
JP5430627B2 (en) Road accessory detection device, road accessory detection method, and program
US8385599B2 (en) System and method of detecting objects
CN110349260B (en) Automatic pavement marking extraction method and device
Guo et al. Graph-based 2D road representation of 3D point clouds for intelligent vehicles
CN111325138B (en) Road boundary real-time detection method based on point cloud local concave-convex characteristics
JP6125296B2 (en) Data analysis apparatus, data analysis method, and program
Fan et al. Identifying man-made objects along urban road corridors from mobile LiDAR data
CN117015813A (en) Apparatus, system, method, and medium for adaptively enhancing point cloud data sets for training
CN113570665A (en) Road edge extraction method and device and electronic equipment
WO2022226831A1 (en) Method and apparatus for detecting category-undefined obstacle, and computer device
CN115273018A (en) Obstacle identification method and device and electronic equipment
CN108074232A (en) A kind of airborne LIDAR based on volume elements segmentation builds object detecting method
JP5577312B2 (en) Data analysis apparatus, data analysis method, and program
Eum et al. Vehicle detection from airborne LiDAR point clouds based on a decision tree algorithm with horizontal and vertical features
JP6397386B2 (en) Region division processing apparatus, method, and program
Masuda et al. Shape reconstruction of poles and plates from vehicle-based laser scanning data
KR102114558B1 (en) Ground and non ground detection apparatus and method utilizing lidar
CN113095112A (en) Point cloud data acquisition method and device
JP6018959B2 (en) Data analysis apparatus, data analysis method, and program
WO2022021209A9 (en) Electronic map generation method and apparatus, computer device, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200124

R150 Certificate of patent or registration of utility model

Ref document number: 6652865

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250