JP2013002909A - Object identification device and object identification program - Google Patents
Object identification device and object identification program Download PDFInfo
- Publication number
- JP2013002909A JP2013002909A JP2011133283A JP2011133283A JP2013002909A JP 2013002909 A JP2013002909 A JP 2013002909A JP 2011133283 A JP2011133283 A JP 2011133283A JP 2011133283 A JP2011133283 A JP 2011133283A JP 2013002909 A JP2013002909 A JP 2013002909A
- Authority
- JP
- Japan
- Prior art keywords
- point
- voting
- shape
- grid
- normal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
この発明は、検知対象物の形状及び大きさを識別する物体識別装置及び物体識別プログラムに関するものである。 The present invention relates to an object identification device and an object identification program for identifying the shape and size of a detection target.
近年、GPS受信機、ジャイロやレーザスキャナなどを搭載している車両を利用して、車両の走行中に周辺の情報を連続的に取得するモービルマッピングシステム技術が発展してきている。
例えば、モービルマッピングシステムにより取得された情報から、周辺に存在している地物を識別する技術の適用などが期待される。
2. Description of the Related Art In recent years, mobile mapping system technology has been developed in which a vehicle equipped with a GPS receiver, a gyroscope, a laser scanner, or the like is used to continuously acquire peripheral information while the vehicle is running.
For example, application of a technique for identifying features existing in the vicinity from information acquired by a mobile mapping system is expected.
モービルマッピングシステムにより取得される情報は、レーザスキャナから発信されたレーザが当たる範囲に限られ、他の障害物によって一部が隠れているような地物については、一部の情報しか得ることができない。
例えば、地面の中に一部が埋め込まれている地物の情報は、多くても地面から露出した部分の情報に限られる。
The information acquired by the mobile mapping system is limited to the area where the laser emitted from the laser scanner hits, and only some information can be obtained for features that are partially hidden by other obstacles. Can not.
For example, information on a feature partially embedded in the ground is limited to information on a portion exposed from the ground at most.
以下の特許文献1には、レーザスキャナから発信されたレーザの照射結果から、検知対象物である航空機の特徴点を抽出し、その特徴点とデータベースに記録されている各種の航空機の特徴点とをマッチングさせることで、その検知対象物である航空機が、どの航空機に最も近いかを判別する物体識別装置が開示されている。 In Patent Document 1 below, feature points of an aircraft that is an object to be detected are extracted from a laser irradiation result transmitted from a laser scanner, and the feature points of various aircraft recorded in a database An object identification device that discriminates to which aircraft the aircraft that is the detection target is closest is disclosed by matching.
従来の物体識別装置は以上のように構成されているので、検知対象物である航空機の一部が他の障害物によって隠れている場合などの状況化では、レーザの照射結果から検知対象物の十分な特徴点を抽出することができず、検知対象物の識別精度が劣化してしまう課題があった。
また、検知対象物である航空機の形状を識別することができても、その航空機の形状と大きさがリンクしていない限り、その航空機の大きさを特定することができない課題があった。
Since the conventional object identification device is configured as described above, in a situation such as when a part of the aircraft that is the detection target is hidden by another obstacle, the detection target is determined based on the laser irradiation result. There was a problem that sufficient feature points could not be extracted, and the identification accuracy of the detection object deteriorated.
Further, even if the shape of the aircraft that is the detection target can be identified, there is a problem that the size of the aircraft cannot be specified unless the shape and size of the aircraft are linked.
この発明は上記のような課題を解決するためになされたもので、検知対象物の一部が他の障害物によって隠れているような状況下でも、その検知対象物の形状を正確に識別することができる物体識別装置及び物体識別プログラムを得ることを目的とする。
また、この発明は、検知対象物の大きさを識別することができる物体識別装置及び物体識別プログラムを得ることを目的とする。
The present invention has been made to solve the above-described problems, and accurately identifies the shape of the detection object even in a situation where a part of the detection object is hidden by another obstacle. It is an object to obtain an object identification device and an object identification program.
Another object of the present invention is to obtain an object identification device and an object identification program that can identify the size of a detection target.
この発明に係る物体識別装置は、レーザ測量の測量結果が示す検知対象物上の各点の3次元座標を用いて、検知対象物上の各点の法線を算出する法線算出手段と、検知対象物上の各点の3次元座標と法線算出手段により算出された各点の法線から各点を通過する直線を求め、3次元空間内の一定範囲の区切りである格子の中で、その直線が通過する格子を特定し、その格子に対する投票を行う投票処理手段とを設け、形状推定手段が、3次元空間内の各格子に対する投票処理手段の投票結果から検知対象物の形状を推定するようにしたものである。 The object identification device according to the present invention includes a normal calculation unit that calculates a normal of each point on the detection target using the three-dimensional coordinates of each point on the detection target indicated by the survey result of the laser surveying; A straight line passing through each point is obtained from the three-dimensional coordinates of each point on the object to be detected and the normal of each point calculated by the normal calculation means, and in a grid that is a delimiter of a certain range in the three-dimensional space. And a voting processing means for specifying a grid through which the straight line passes and voting on the grid, and a shape estimation means determines the shape of the detection object from the voting result of the voting processing means for each grid in the three-dimensional space. This is what we estimated.
この発明によれば、レーザ測量の測量結果が示す検知対象物上の各点の3次元座標を用いて、検知対象物上の各点の法線を算出する法線算出手段と、検知対象物上の各点の3次元座標と法線算出手段により算出された各点の法線から各点を通過する直線を求め、3次元空間内の一定範囲の区切りである格子の中で、その直線が通過する格子を特定し、その格子に対する投票を行う投票処理手段とを設け、形状推定手段が、3次元空間内の各格子に対する投票処理手段の投票結果から検知対象物の形状を推定するように構成したので、検知対象物の一部が他の障害物によって隠れているような状況下でも、その検知対象物の形状を正確に識別することができる効果がある。 According to this invention, the normal calculation means for calculating the normal of each point on the detection target using the three-dimensional coordinates of each point on the detection target indicated by the survey result of the laser surveying, and the detection target A straight line passing through each point is obtained from the three-dimensional coordinates of each point above and the normal of each point calculated by the normal line calculation means, and the straight line in a grid that is a delimiter of a certain range in the three-dimensional space. And a voting processing means for voting on the lattice, and the shape estimation means estimates the shape of the detection object from the voting result of the voting processing means for each lattice in the three-dimensional space. Thus, there is an effect that the shape of the detection target can be accurately identified even in a situation where a part of the detection target is hidden by another obstacle.
実施の形態1.
図1はこの発明の実施の形態1による物体識別装置を示す構成図である。
図1において、点群データ記憶部1は例えばRAMやハードディスクなどの記憶装置から構成されており、レーザ測量の測量結果が示す検知対象物上の各点の3次元座標を点群データとして記憶している。
点群入力部2は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコン、あるいは、キーボードやマウスなどのマンマシンインタフェースなどから構成されており、点群データ記憶部1により記憶されている点群データの中から、特定部分の点群データ(例えば、金属で構成されている地物上の点群に係るデータ、指定された部分の点群に係るデータ)を抽出する処理を実施する。なお、点群入力部2は3次元座標抽出手段を構成している。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing an object identification device according to Embodiment 1 of the present invention.
In FIG. 1, the point cloud data storage unit 1 is composed of a storage device such as a RAM or a hard disk, and stores the three-dimensional coordinates of each point on the detection target indicated by the survey result of the laser survey as point cloud data. ing.
The point
法線算出処理部3は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、点群入力部2により抽出された点群データを用いて、検知対象物上の各点の法線を算出する処理を実施する。なお、法線算出処理部3は法線算出手段を構成している。
直線生成処理部4は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、点群入力部2により抽出された点群データと法線算出処理部3により算出された各点の法線から各点を通過する直線を生成する処理を実施する。
The normal
The straight line generation processing unit 4 is composed of, for example, a semiconductor integrated circuit mounted with a CPU or a one-chip microcomputer, and is calculated by the point cloud data extracted by the point
通過格子特定処理部5は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、3次元空間内の一定範囲の区切りである格子の中で、直線生成処理部4により生成された直線が通過する格子を特定する処理を実施する。
投票処理部6は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、通過格子特定処理部5により特定された格子に対する投票を行う。
なお、直線生成処理部4、通過格子特定処理部5及び投票処理部6から投票処理手段が構成されている。
The passing grid specifying
The
The straight line generation processing unit 4, the passing grid specifying
形状推定処理部7は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、3次元空間内の各格子に対する投票処理部6の投票結果から検知対象物の形状を推定する処理を実施する。
即ち、形状推定処理部7は投票数が多い格子が集中している場合、検知対象物の形状が球であると推定し、投票数が多い格子が直線状に並んでいる場合、検知対象物の形状が円柱であると推定する。また、投票数が多い格子が集中しておらず、投票数が多い格子が直線状に並んでもいない場合、法線算出処理部3により算出された各点の法線の値が一定範囲内であれば、検知対象物の形状が平面であると推定する。なお、形状推定処理部7は形状推定手段を構成している。
The shape
That is, the shape
大きさ算出処理部8は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、点群入力部2により抽出された点群データを用いて、形状推定処理部7により推定された形状に対応する大きさ算出処理を実施することで、検知対象物の大きさを算出する。
即ち、大きさ算出処理部8は形状推定処理部7により推定された形状が球である場合、点群入力部2により抽出された点群データを用いて、投票数が多い格子が集中している範囲の重心の位置を求め、その重心の位置と各点との距離に対する投票を実施し、その投票結果が最も多い距離を球の半径として、検知対象物の大きさを算出する。
また、形状推定処理部7により推定された形状が円柱である場合、点群入力部2により抽出された点群データを用いて、投票数が多い格子が並んでいる範囲の重心の位置を求めて、その重心の位置から円柱の軸を算出し、その円柱の軸と各点との距離に対する投票を実施し、その投票結果が最も多い距離を円柱の半径として、検知対象物の大きさを算出する。なお、大きさ算出処理部8は大きさ算出手段を構成している。
The size
That is, when the shape estimated by the shape
Further, when the shape estimated by the shape
図1の例では、物体識別装置の構成要素である点群データ記憶部1、点群入力部2、 法線算出処理部3、直線生成処理部4、通過格子特定処理部5、投票処理部6、形状推定処理部7及び大きさ算出処理部8のそれぞれが専用のハードウェアで構成されているものを想定しているが、物体識別装置がコンピュータで構成されていてもよい。
物体識別装置がコンピュータで構成されている場合、点群データ記憶部1の記憶内容をコンピュータのメモリに格納するとともに、点群入力部2、法線算出処理部3、直線生成処理部4、通過格子特定処理部5、投票処理部6、形状推定処理部7及び大きさ算出処理部8の処理内容を記述している物体識別プログラムをコンピュータのメモリに格納し、コンピュータのCPUが当該メモリに格納されている物体識別プログラムを実行するようにすればよい。
図2はこの発明の実施の形態1による物体識別装置の処理内容を示すフローチャートである。
In the example of FIG. 1, a point cloud data storage unit 1, a point
When the object identification device is configured by a computer, the stored contents of the point cloud data storage unit 1 are stored in the memory of the computer, the point
FIG. 2 is a flowchart showing the processing contents of the object identification device according to Embodiment 1 of the present invention.
次に動作について説明する。
点群データ記憶部1に記憶される点群データは、レーザ測量の測量結果が示す検知対象物上の各点の3次元座標であるが、そのレーザ測量が、偏光レーザの測量器を用いて行われている場合、一般的なレーザ測量器と異なり、金属等の物体判別が可能である。
この実施の形態1では、一般的なレーザ測量器によるレーザ測量でもよいが、偏光レーザの測量器によるレーザ測量であるものとして説明する。
ここで、図3は点群データ記憶部1に記憶されている点群データ(検知対象物上の各点の3次元座標)が画像化されたものであり、各点の色(画像が白黒画像であれば、各点の濃淡)が距離を表している。
Next, the operation will be described.
The point cloud data stored in the point cloud data storage unit 1 is the three-dimensional coordinates of each point on the detection target indicated by the survey result of the laser survey. The laser survey is performed using a surveying instrument of a polarized laser. If it is performed, unlike a general laser surveying instrument, an object such as metal can be discriminated.
In the first embodiment, laser surveying by a general laser surveying instrument may be used, but it will be described as being laser surveying by a surveying instrument of a polarized laser.
Here, FIG. 3 is an image of the point cloud data (three-dimensional coordinates of each point on the detection target) stored in the point cloud data storage unit 1, and the color of each point (the image is black and white). In the case of an image, the density of each point represents the distance.
点群入力部2は、点群データ記憶部1により記憶されている点群データの中から、特定部分の点群データを抽出する(図2のステップST1)。
上述したように、偏光レーザの測量器によるレーザ測量である場合、金属等の物体判別が可能であるため、他の物体(障害物)の中に紛れ込んでいる金属地物上の点群データを検知対象物の点群データとして抽出する。
これにより、検知対象物が金属地物である場合、その検知対象物が他の物体(障害物)の中に紛れ込んでいても識別することが可能になる。
また、検知対象物が存在している場所の概略を把握しているような場合には、図4に示すように、内蔵しているマンマシンインタフェースを用いて指定された領域内の点群データを検知対象物の点群データとして抽出する。
これにより、処理対象の点群データが限定されるため、処理速度の高速化を図ることができる。
The point
As described above, in the case of laser surveying using a polarization laser surveying instrument, it is possible to discriminate objects such as metal, so point cloud data on metal features that are interspersed with other objects (obstacles) Extracted as point cloud data of the detection object.
Thereby, when the detection target is a metal feature, the detection target can be identified even if the detection target is mixed in another object (obstacle).
When the outline of the place where the detection target exists is grasped, as shown in FIG. 4, the point cloud data in the area designated by using the built-in man-machine interface. Are extracted as point cloud data of the detection object.
Thereby, since the point cloud data to be processed is limited, the processing speed can be increased.
なお、この実施の形態1では、点群入力部2が点群データ記憶部1により記憶されている点群データの中から、特定部分の点群データを抽出するものを示したが、点群入力部2を実装せずに、点群データ記憶部1により記憶されている点群データの全てが、後段の法線算出処理部3等に与えられるようにしてもよい。
In the first embodiment, the point
法線算出処理部3は、点群入力部2から検知対象物の点群データを受けると、その点群データを用いて、検知対象物上の各点の法線を算出する(ステップST2)。
各点の法線の算出方法としては、例えば、次のような方法を用いることができる。
まず、点群データをTIN(不規則三角形網)化することでポリゴンを形成し、そのポリゴンの面の法線の平均値を算出する。
そして、ポリゴンを構成する点の法線として、そのポリゴンの面の法線の平均値を与えるものとする。
なお、TINは、平面を三角形の集合体として表現するものであり、TIN化は、点群データからTINを生成することを意味する。
TIN化については、例えば、下記の非特許文献1に開示されている。
[非特許文献1]
ArcGIS,「TINサーフェスとは」
http://help.arcgis.com/ja/arcgisdesktop/10.0/help/index.html#//006000000001000000.htm
When the normal
As a method for calculating the normal of each point, for example, the following method can be used.
First, a polygon is formed by converting the point cloud data into a TIN (irregular triangle network), and the average value of the normals of the surface of the polygon is calculated.
Then, the average value of the normals of the surface of the polygon is given as the normal of the points constituting the polygon.
TIN expresses a plane as a collection of triangles, and TIN means that TIN is generated from point cloud data.
The TIN conversion is disclosed, for example, in Non-Patent Document 1 below.
[Non-Patent Document 1]
ArcGIS, “What is a TIN surface?”
http://help.arcgis.com/en/arcgisdesktop/10.0/help/index.html#//006000000001000000.htm
直線生成処理部4は、法線算出処理部3が各点の法線を算出すると、各点の法線と点群入力部2により抽出された点群データから、各点を通過する直線を生成する(ステップST3)。
例えば、各点をi、点iの法線をベクトルni(明細書中では、電子出願の関係上、ベクトルを示す“→”の記号を文字の上部に付記することができないため、「ベクトルni」のように表記している)、点iの位置を示すベクトルpi、媒介変数をtとすると、点iを通過する直線lは、下記の式(1)のように表される。
When the normal
For example, each point is i, and the normal of the point i is a vector n i (in the specification, the symbol “→” indicating the vector cannot be added to the upper part of the character because of the electronic application. n i ”), a vector p i indicating the position of the point i, and a parametric variable t, a straight line l passing through the point i is expressed by the following equation (1). .
通過格子特定処理部5は、3次元空間内を格子状に分割(例えば、10cm立方の立方体に分割)する。
そして、通過格子特定処理部5は、3次元空間内の一定範囲の区切りである格子の中で、直線生成処理部4により生成された直線lが通過する格子を特定する(ステップST4)。
投票処理部6は、通過格子特定処理部5が、直線lが通過する格子を特定すると、その格子に対する投票を行う(ステップST5)。
即ち、点iを通過する直線lが通過する格子の投票数を1インクリメントする。なお、3次元空間内の各格子の投票数は、起動時に“0”に初期化されているものとする。
The passing grid specifying
Then, the passing grid specifying
When the passing
That is, the number of votes of the lattice through which the straight line l passing through the point i passes is incremented by one. It is assumed that the number of votes of each lattice in the three-dimensional space is initialized to “0” at the time of activation.
形状推定処理部7は、予め、各種の形状の特徴(大きさに依存しない形状の特徴)を形状パラメータとして記憶している。
図5は各種の形状の特徴を示す説明図である。
例えば、形状が球である場合、「表面上の各点の法線は、1点(球の中心)に集中する」という特徴がある。
形状が円柱である場合、「表面上の各点の法線は、円柱の中心軸に向かう」という特徴がある。
形状が直方体の平面である場合、「隣接する点の法線がほぼ等しい(近隣点の法線の方向が略同一)」という特徴がある。
The shape
FIG. 5 is an explanatory view showing characteristics of various shapes.
For example, when the shape is a sphere, “the normal of each point on the surface is concentrated at one point (the center of the sphere)”.
When the shape is a cylinder, there is a feature that “the normal of each point on the surface is directed to the central axis of the cylinder”.
When the shape is a rectangular parallelepiped plane, there is a feature that “the normals of adjacent points are substantially equal (the directions of the normals of neighboring points are substantially the same)”.
形状推定処理部7は、予め記憶している各種の形状の特徴を考慮して、3次元空間内の各格子に対する投票処理部6の投票結果から、検知対象物の形状を推定する(ステップST6)。
即ち、形状推定処理部7は、投票数が多い格子が集中している場合、検知対象物の形状が球であると推定する。
具体的には、3次元空間内の格子毎に、全ての格子の投票数の合計に対する当該格子の投票数の比Pを算出し、ある格子の投票数の比Pが閾値α(例えば、0.5)を上回る場合、検知対象物の形状が球であると推定する。
ここでは、ある格子の投票数の比Pが閾値αを上回る場合に、検知対象物の形状が球であると推定するものを示したが、格子のサイズが小さい場合、投票数が必ずしも1個の格子に集中せずに、例えば、3〜4個の格子に分散する。
このような場合には、3〜4個の格子の合計投票数の比Pが閾値αを上回る場合に、検知対象物の形状が球であると推定するようにする。
The shape
That is, the shape
Specifically, for each lattice in the three-dimensional space, a ratio P of the number of votes of the lattice to the total number of votes of all the lattices is calculated, and the ratio P of the number of votes of a certain lattice is a threshold value α (for example, 0 .5), it is estimated that the shape of the detection object is a sphere.
Here, when the ratio P of the number of votes of a certain grid exceeds the threshold value α, the detection object is estimated to be a sphere. However, when the size of the grid is small, the number of votes is not necessarily one. For example, it is distributed to 3 to 4 lattices without concentrating on the lattice.
In such a case, when the ratio P of the total number of votes of 3 to 4 lattices exceeds the threshold value α, it is estimated that the shape of the detection target is a sphere.
また、形状推定処理部7は、投票数が多い格子が直線状に並んでいる場合、検知対象物の形状が円柱であると推定する。
具体的には、3次元空間内の格子毎に、全ての格子の投票数の合計に対する当該格子の投票数の比Pを算出し、直線状に並んでいるN個(例えば、N=5)の格子の投票数の比Pのそれぞれが閾値β(例えば、0.05)を上回る場合、検知対象物の形状が円柱であると推定する。
Moreover, the shape
Specifically, for each lattice in the three-dimensional space, a ratio P of the number of votes of the lattice to the total number of votes of all the lattices is calculated, and N pieces (for example, N = 5) arranged in a straight line. When the ratio P of the number of votes of each grid exceeds a threshold value β (for example, 0.05), it is estimated that the shape of the detection target is a cylinder.
また、形状推定処理部7は、投票数が多い格子が集中しておらず、また、投票数が多い格子が直線状に並んでもいない場合、法線算出処理部3により算出された各点の法線の値が一定範囲内であれば(近隣点の法線の方向が略同一である場合)、検知対象物の形状が平面であると推定する。
Further, the shape
ここで、図6及び図7は点群と投票結果の一例を示す説明図である。図6と図7は同じ点群データを別方向の視点から表示している。
図6中の右側の楕円に囲まれている部分と、図7中の円に囲まれている部分とが投票数が多い箇所を表している。
この例では、点群が円柱の一部であると推定される。
Here, FIG.6 and FIG.7 is explanatory drawing which shows an example of a point group and a voting result. 6 and 7 display the same point cloud data from different viewpoints.
A portion surrounded by an ellipse on the right side in FIG. 6 and a portion surrounded by a circle in FIG. 7 represent places where the number of votes is large.
In this example, it is estimated that the point group is a part of a cylinder.
ここでは、形状推定処理部7が、検知対象物の形状が球、円柱又は平面であると推定するものを示したが、これは一例に過ぎず、他の形状を推定するようにしてもよいことは言うまでもない。
ただし、他の形状を推定する場合には、他の形状の特徴を形状パラメータとして記憶しておく必要がある。
Here, the shape
However, when estimating other shapes, it is necessary to store the features of the other shapes as shape parameters.
大きさ算出処理部8は、形状推定処理部7が検知対象物の形状を推定すると、点群入力部2により抽出された点群データを用いて、その検知対象物の形状に対応する大きさ算出処理を実施することで、検知対象物の大きさを算出する(ステップST7)。
即ち、大きさ算出処理部8は、形状推定処理部7により推定された形状が球である場合、投票数が多い格子が集中している範囲(例えば、投票数が多いN個の格子が集まっている範囲)をさらに細分化(例えば、1cm立方の立方体に分割)する。
そして、大きさ算出処理部8は、点群入力部2により抽出された点群データを用いて、各細分化した範囲の重心の位置を求めて、その重心の位置と各点との距離rを算出し、その距離rに対する投票を実施する。
When the shape
That is, when the shape estimated by the shape
Then, the size
大きさ算出処理部8は、実際の球の半径に近い距離に投票数が増えるため、投票数が最も多い距離rを球の半径として、検知対象物の大きさを算出する。
なお、投票の際には、距離を一定範囲(例えば、0.5cm)に区切り、算出した距離rが、どの範囲に収まるかで投票を行うものとする。
Since the number of votes increases at a distance close to the actual radius of the sphere, the size
When voting, the distance is divided into a certain range (for example, 0.5 cm), and voting is performed based on which range the calculated distance r falls.
また、球の半径を求める際、投票数に閾値を設け、投票数が閾値を越える距離に対して重み付けを行っても構わない。
例えば、閾値を越える投票数がviであり、その投票数viを有する距離(範囲の中心)がriである場合、球の半径rは、以下の式(2)のように算出される。
Further, when obtaining the radius of the sphere, a threshold value may be provided for the number of votes, and weighting may be applied to a distance where the number of votes exceeds the threshold value.
For example, when the number of votes exceeding the threshold is v i and the distance (center of the range) having the number of votes v i is r i , the radius r of the sphere is calculated as the following equation (2). The
また、大きさ算出処理部8は、形状推定処理部7により推定された形状が円柱である場合、点群入力部2により抽出された点群データを用いて、投票数が多い格子が並んでいる範囲(投票数の比Pが閾値βを上回る格子が集まっている範囲)の重心の位置を求め、その重心の位置に対して主成分分析を行うことで、円柱の軸(断面の円の中心を通る直線)のベクトルを算出する。
この際、主成分分析の第3成分(3次元のデータに対する主成分分析を行った結果、最も分散が少ない方向)を軸ベクトルとする。
In addition, when the shape estimated by the shape
At this time, the third component of the principal component analysis (the direction with the least variance as a result of the principal component analysis performed on the three-dimensional data) is set as the axis vector.
大きさ算出処理部8は、円柱の軸ベクトルを算出すると、下記の式(3)に示すように、投票数が最も多い範囲の重心の位置を示すベクトルPc、媒介変数tを用いて、円柱の軸を示す直線lcを求める。
When calculating the axis vector of the cylinder, the size
大きさ算出処理部8は、円柱の軸を示す直線lcを求めると、点群入力部2により抽出された点群データを用いて、検知対象物上の各点と円柱の軸との距離(円柱の半径)を算出する。
即ち、検知対象物上の各点iの位置を示すベクトルpiに対し、直線lc上に下ろした垂線の足をベクトルPiaとすると、下記の式(4)のように表すことができ、さらに、下記の式(5)が成立する。
When the size
That is, for a vector p i indicating the position of each point i on the object to be detected, when the perpendicular foot drawn down on the straight line l c and vector P ia, can be expressed as the following equation (4) Further, the following equation (5) is established.
そこで、大きさ算出処理部8は、式(4)からt’を求め、t’を利用して、各点iについて、検知対象物上の各点と円柱の軸との距離riを算出し、その距離riに対する投票を実施する。
大きさ算出処理部8は、実際の円柱の半径に近い距離に投票数が増えるため、投票数が最も多い距離riを円柱の半径として、検知対象物の大きさを算出する。
Therefore, the size
The size
なお、形状推定処理部7により推定された形状が平面である場合、大きさ算出処理部8は、検知対象物の大きさを算出しない。
形状が平面である場合、球や円柱と違って、平面がどこまでの大きさになっているのかを判断する情報が存在しないからである。
When the shape estimated by the shape
This is because, when the shape is a plane, unlike a sphere or a cylinder, there is no information for determining how large the plane is.
以上で明らかなように、この実施の形態1によれば、レーザ測量の測量結果が示す検知対象物上の各点の3次元座標を用いて、検知対象物上の各点の法線を算出する法線算出処理部3と、検知対象物上の各点の3次元座標と法線算出処理部3により算出された各点の法線から各点を通過する直線を生成する直線生成処理部4と、3次元空間内の一定範囲の区切りである格子の中で、直線生成処理部4により生成された直線が通過する格子を特定する通過格子特定処理部5と、通過格子特定処理部5により特定された格子に対する投票を行う投票処理部6とを設け、形状推定処理部7が、3次元空間内の各格子に対する投票処理部6の投票結果から検知対象物の形状を推定するように構成したので、検知対象物の一部が他の障害物によって隠れているような状況下でも、その検知対象物の形状を正確に識別することができる効果を奏する。
As apparent from the above, according to the first embodiment, the normal of each point on the detection target is calculated using the three-dimensional coordinates of each point on the detection target indicated by the survey result of the laser surveying. A normal line
また、この実施の形態1によれば、大きさ算出処理部8が、点群入力部2により抽出された点群データを用いて、形状推定処理部7により推定された形状に対応する大きさ算出処理を実施することで、検知対象物の大きさを算出するように構成したので、検知対象物の大きさを識別することができる効果を奏する。
Further, according to the first embodiment, the size
また、この実施の形態1によれば、点群入力部2が、点群データ記憶部1により記憶されている点群データの中から、特定部分の点群データを抽出するように構成したので、特定部分の点群データが、他の物体(障害物)の中に紛れ込んでいる金属地物上の点群データであれば、検知対象物である金属地物が他の物体(障害物)の中に紛れ込んでいても識別することができる効果を奏する。
また、特定部分の点群データが、マンマシンインタフェースを用いて指定された領域内の点群データであれば、処理対象の点群データが限定されるため、処理速度の高速化を図ることができる効果を奏する。
Further, according to the first embodiment, the point
In addition, if the point cloud data of a specific part is point cloud data within an area designated using a man-machine interface, the point cloud data to be processed is limited, so that the processing speed can be increased. There is an effect that can be done.
実施の形態2.
上記実施の形態1では、法線算出処理部3が、検知対象物の点群データを用いて、検知対象物上の各点の法線を算出する際、その点群データをTIN化することでポリゴンを形成し、そのポリゴンの面の法線の平均値を算出するものを示したが、距離画像(点群データを一定の大きさの画像上にマッピングし、各点の距離(基準点からの距離)を色で示している画像)を利用して、検知対象物上の各点の法線を算出するようにしてもよい。
距離画像を利用して、検知対象物上の各点の法線を算出する場合、距離画像上で、互いに隣接している点であって、距離が近い(色が近い)点を探索し、それらの点で三角形を構成する。
そして、その三角形の法線の平均値を求め、その平均値を当該三角形を構成する点の法線として与えるようにする。
In the first embodiment, when the normal
When calculating the normal of each point on the detection object using the distance image, search for points that are adjacent to each other on the distance image and that are close to each other (the colors are close), These points constitute a triangle.
Then, an average value of the normal lines of the triangle is obtained, and the average value is given as a normal line of points constituting the triangle.
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。 In the present invention, within the scope of the invention, any combination of the embodiments, or any modification of any component in each embodiment, or omission of any component in each embodiment is possible. .
1 点群データ記憶部、2 点群入力部(3次元座標抽出手段)、3 法線算出処理部(法線算出手段)、4 直線生成処理部(投票処理手段)、5 通過格子特定処理部(投票処理手段)、6 投票処理部(投票処理手段)、7 形状推定処理部(形状推定手段)、8 大きさ算出処理部(大きさ算出手段)。 1 point group data storage unit, 2 point group input unit (three-dimensional coordinate extraction unit), 3 normal calculation processing unit (normal calculation unit), 4 straight line generation processing unit (voting processing unit), 5 pass grid identification processing unit (Voting processing means), 6 voting processing section (voting processing means), 7 shape estimation processing section (shape estimation means), 8 size calculation processing section (size calculation means).
Claims (10)
レーザ測量の測量結果が示す上記検知対象物上の各点の3次元座標を用いて、上記検知対象物上の各点の法線を算出する法線算出処理手順と、上記検知対象物上の各点の3次元座標と上記法線算出処理手順により算出された各点の法線から各点を通過する直線を求め、3次元空間内の一定範囲の区切りである格子の中で、上記直線が通過する格子を特定し、上記格子に対する投票を行う投票処理手順と、上記3次元空間内の各格子に対する上記投票処理手順の投票結果から上記検知対象物の形状を推定する形状推定処理手順とから構成されていることを特徴とする物体識別プログラム。 An object identification program describing the processing contents of a computer for identifying the shape and size of a detection object,
Using the three-dimensional coordinates of each point on the detection target indicated by the survey result of laser surveying, a normal calculation processing procedure for calculating the normal of each point on the detection target, and on the detection target A straight line passing through each point is obtained from the three-dimensional coordinates of each point and the normal of each point calculated by the normal calculation processing procedure, and the straight line in a grid that is a delimiter of a certain range in the three-dimensional space. A voting process procedure for identifying a grid through which the object passes and voting on the grid; and a shape estimation process procedure for estimating the shape of the detection object from the voting result of the voting process procedure for each grid in the three-dimensional space; An object identification program comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011133283A JP2013002909A (en) | 2011-06-15 | 2011-06-15 | Object identification device and object identification program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011133283A JP2013002909A (en) | 2011-06-15 | 2011-06-15 | Object identification device and object identification program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013002909A true JP2013002909A (en) | 2013-01-07 |
Family
ID=47671638
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011133283A Withdrawn JP2013002909A (en) | 2011-06-15 | 2011-06-15 | Object identification device and object identification program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013002909A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014153336A (en) * | 2013-02-13 | 2014-08-25 | Nippon Telegr & Teleph Corp <Ntt> | Point group analysis processing device and point group analysis processing program |
JP2018124973A (en) * | 2017-01-27 | 2018-08-09 | 株式会社デンソーアイティーラボラトリ | Object detection system, object detection device, object detection program, and object detection method |
JP2019050035A (en) * | 2014-04-25 | 2019-03-28 | ウェイモ エルエルシー | Methods and systems for object detection using laser point clouds |
US12018969B2 (en) | 2018-11-21 | 2024-06-25 | Nec Communication Systems, Ltd. | Volume measurement apparatus, system, method, and program |
-
2011
- 2011-06-15 JP JP2011133283A patent/JP2013002909A/en not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014153336A (en) * | 2013-02-13 | 2014-08-25 | Nippon Telegr & Teleph Corp <Ntt> | Point group analysis processing device and point group analysis processing program |
JP2019050035A (en) * | 2014-04-25 | 2019-03-28 | ウェイモ エルエルシー | Methods and systems for object detection using laser point clouds |
JP2018124973A (en) * | 2017-01-27 | 2018-08-09 | 株式会社デンソーアイティーラボラトリ | Object detection system, object detection device, object detection program, and object detection method |
US12018969B2 (en) | 2018-11-21 | 2024-06-25 | Nec Communication Systems, Ltd. | Volume measurement apparatus, system, method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Xiao et al. | Three-dimensional point cloud plane segmentation in both structured and unstructured environments | |
US8687001B2 (en) | Apparatus and method extracting light and texture, and rendering apparatus using light and texture | |
KR101822185B1 (en) | Method and apparatus for poi detection in 3d point clouds | |
JP5181704B2 (en) | Data processing apparatus, posture estimation system, posture estimation method and program | |
TWI496090B (en) | Method and apparatus for object positioning by using depth images | |
CN110073362A (en) | System and method for lane markings detection | |
EP2249311A1 (en) | Systems and methods for extracting planar features, matching the planar features, and estimating motion from the planar features | |
US10451403B2 (en) | Structure-based camera pose estimation system | |
US20110268316A1 (en) | Multiple centroid condensation of probability distribution clouds | |
US20130271461A1 (en) | Systems and methods for obtaining parameters for a three dimensional model from reflectance data | |
US12106438B2 (en) | Point cloud annotation device, method, and program | |
CN110998671B (en) | Three-dimensional reconstruction method, device, system and storage medium | |
JP2020518918A (en) | Information processing method, apparatus, cloud processing device, and computer program product | |
CN110781937B (en) | Point cloud feature extraction method based on global visual angle | |
JP6381137B2 (en) | Label detection apparatus, method, and program | |
TW201531868A (en) | Multiview pruning of feature database for object recognition system | |
JP2014032623A (en) | Image processor | |
JP2013002909A (en) | Object identification device and object identification program | |
JP2015184061A (en) | Extracting device, method, and program | |
JP2010197378A (en) | Radar image processing device | |
JP6188345B2 (en) | Information processing apparatus and information processing method | |
CN113033248A (en) | Image identification method and device and computer readable storage medium | |
CN112418316B (en) | Robot repositioning method and device, laser robot and readable storage medium | |
Yu et al. | Saliency computation and simplification of point cloud data | |
JP5928240B2 (en) | Three-dimensional shape interpretation apparatus and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140902 |