JP2013002909A - Object identification device and object identification program - Google Patents

Object identification device and object identification program Download PDF

Info

Publication number
JP2013002909A
JP2013002909A JP2011133283A JP2011133283A JP2013002909A JP 2013002909 A JP2013002909 A JP 2013002909A JP 2011133283 A JP2011133283 A JP 2011133283A JP 2011133283 A JP2011133283 A JP 2011133283A JP 2013002909 A JP2013002909 A JP 2013002909A
Authority
JP
Japan
Prior art keywords
point
voting
shape
grid
normal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011133283A
Other languages
Japanese (ja)
Inventor
Yosuke Ishiwatari
要介 石渡
Hideaki Maehara
秀明 前原
Masakazu Ozaki
真和 小崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2011133283A priority Critical patent/JP2013002909A/en
Publication of JP2013002909A publication Critical patent/JP2013002909A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable accurate identification of the shape of a detection object even under a situation where a part of the detection object is hidden by another obstacle.SOLUTION: An object identification device includes: a normal calculation process part 3 for calculating the normal of each point on a detection object; a line generation process part 4 for generating a line passing through each point of the detection object; a passing grid specification process part 5 for specifying a grid through which a line generated by the line generation process part 4 passes, from among grids being sections of a predetermined zone within a three-dimensional space; and a voting process part 6 for voting for the grid specified by the passing grid specification process part 5. Further, a shape estimation process part 7 estimates the shape of a detection object from the voting result of the voting process part 6 for voting for each grid within the three-dimensional space.

Description

この発明は、検知対象物の形状及び大きさを識別する物体識別装置及び物体識別プログラムに関するものである。   The present invention relates to an object identification device and an object identification program for identifying the shape and size of a detection target.

近年、GPS受信機、ジャイロやレーザスキャナなどを搭載している車両を利用して、車両の走行中に周辺の情報を連続的に取得するモービルマッピングシステム技術が発展してきている。
例えば、モービルマッピングシステムにより取得された情報から、周辺に存在している地物を識別する技術の適用などが期待される。
2. Description of the Related Art In recent years, mobile mapping system technology has been developed in which a vehicle equipped with a GPS receiver, a gyroscope, a laser scanner, or the like is used to continuously acquire peripheral information while the vehicle is running.
For example, application of a technique for identifying features existing in the vicinity from information acquired by a mobile mapping system is expected.

モービルマッピングシステムにより取得される情報は、レーザスキャナから発信されたレーザが当たる範囲に限られ、他の障害物によって一部が隠れているような地物については、一部の情報しか得ることができない。
例えば、地面の中に一部が埋め込まれている地物の情報は、多くても地面から露出した部分の情報に限られる。
The information acquired by the mobile mapping system is limited to the area where the laser emitted from the laser scanner hits, and only some information can be obtained for features that are partially hidden by other obstacles. Can not.
For example, information on a feature partially embedded in the ground is limited to information on a portion exposed from the ground at most.

以下の特許文献1には、レーザスキャナから発信されたレーザの照射結果から、検知対象物である航空機の特徴点を抽出し、その特徴点とデータベースに記録されている各種の航空機の特徴点とをマッチングさせることで、その検知対象物である航空機が、どの航空機に最も近いかを判別する物体識別装置が開示されている。   In Patent Document 1 below, feature points of an aircraft that is an object to be detected are extracted from a laser irradiation result transmitted from a laser scanner, and the feature points of various aircraft recorded in a database An object identification device that discriminates to which aircraft the aircraft that is the detection target is closest is disclosed by matching.

特表2009−529665号公報(段落番号[0006])JP-T 2009-529665 (paragraph number [0006])

従来の物体識別装置は以上のように構成されているので、検知対象物である航空機の一部が他の障害物によって隠れている場合などの状況化では、レーザの照射結果から検知対象物の十分な特徴点を抽出することができず、検知対象物の識別精度が劣化してしまう課題があった。
また、検知対象物である航空機の形状を識別することができても、その航空機の形状と大きさがリンクしていない限り、その航空機の大きさを特定することができない課題があった。
Since the conventional object identification device is configured as described above, in a situation such as when a part of the aircraft that is the detection target is hidden by another obstacle, the detection target is determined based on the laser irradiation result. There was a problem that sufficient feature points could not be extracted, and the identification accuracy of the detection object deteriorated.
Further, even if the shape of the aircraft that is the detection target can be identified, there is a problem that the size of the aircraft cannot be specified unless the shape and size of the aircraft are linked.

この発明は上記のような課題を解決するためになされたもので、検知対象物の一部が他の障害物によって隠れているような状況下でも、その検知対象物の形状を正確に識別することができる物体識別装置及び物体識別プログラムを得ることを目的とする。
また、この発明は、検知対象物の大きさを識別することができる物体識別装置及び物体識別プログラムを得ることを目的とする。
The present invention has been made to solve the above-described problems, and accurately identifies the shape of the detection object even in a situation where a part of the detection object is hidden by another obstacle. It is an object to obtain an object identification device and an object identification program.
Another object of the present invention is to obtain an object identification device and an object identification program that can identify the size of a detection target.

この発明に係る物体識別装置は、レーザ測量の測量結果が示す検知対象物上の各点の3次元座標を用いて、検知対象物上の各点の法線を算出する法線算出手段と、検知対象物上の各点の3次元座標と法線算出手段により算出された各点の法線から各点を通過する直線を求め、3次元空間内の一定範囲の区切りである格子の中で、その直線が通過する格子を特定し、その格子に対する投票を行う投票処理手段とを設け、形状推定手段が、3次元空間内の各格子に対する投票処理手段の投票結果から検知対象物の形状を推定するようにしたものである。   The object identification device according to the present invention includes a normal calculation unit that calculates a normal of each point on the detection target using the three-dimensional coordinates of each point on the detection target indicated by the survey result of the laser surveying; A straight line passing through each point is obtained from the three-dimensional coordinates of each point on the object to be detected and the normal of each point calculated by the normal calculation means, and in a grid that is a delimiter of a certain range in the three-dimensional space. And a voting processing means for specifying a grid through which the straight line passes and voting on the grid, and a shape estimation means determines the shape of the detection object from the voting result of the voting processing means for each grid in the three-dimensional space. This is what we estimated.

この発明によれば、レーザ測量の測量結果が示す検知対象物上の各点の3次元座標を用いて、検知対象物上の各点の法線を算出する法線算出手段と、検知対象物上の各点の3次元座標と法線算出手段により算出された各点の法線から各点を通過する直線を求め、3次元空間内の一定範囲の区切りである格子の中で、その直線が通過する格子を特定し、その格子に対する投票を行う投票処理手段とを設け、形状推定手段が、3次元空間内の各格子に対する投票処理手段の投票結果から検知対象物の形状を推定するように構成したので、検知対象物の一部が他の障害物によって隠れているような状況下でも、その検知対象物の形状を正確に識別することができる効果がある。   According to this invention, the normal calculation means for calculating the normal of each point on the detection target using the three-dimensional coordinates of each point on the detection target indicated by the survey result of the laser surveying, and the detection target A straight line passing through each point is obtained from the three-dimensional coordinates of each point above and the normal of each point calculated by the normal line calculation means, and the straight line in a grid that is a delimiter of a certain range in the three-dimensional space. And a voting processing means for voting on the lattice, and the shape estimation means estimates the shape of the detection object from the voting result of the voting processing means for each lattice in the three-dimensional space. Thus, there is an effect that the shape of the detection target can be accurately identified even in a situation where a part of the detection target is hidden by another obstacle.

この発明の実施の形態1による物体識別装置を示す構成図である。It is a block diagram which shows the object identification device by Embodiment 1 of this invention. この発明の実施の形態1による物体識別装置の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the object identification device by Embodiment 1 of this invention. 点群データ記憶部1に記憶されている点群データ(検知対象物上の各点の3次元座標)を示す説明図である。It is explanatory drawing which shows the point cloud data (The three-dimensional coordinate of each point on a detection target object) memorize | stored in the point cloud data storage part 1. FIG. 指定部分の点群データ(検知対象物上の各点の3次元座標)を示す説明図である。It is explanatory drawing which shows the point group data (three-dimensional coordinate of each point on a detection target) of a designated part. 各種の形状の特徴を示す説明図である。It is explanatory drawing which shows the characteristic of various shapes. 点群と投票結果の一例を示す説明図である。It is explanatory drawing which shows an example of a point cloud and a voting result. 点群と投票結果の一例を示す説明図である。It is explanatory drawing which shows an example of a point cloud and a voting result.

実施の形態1.
図1はこの発明の実施の形態1による物体識別装置を示す構成図である。
図1において、点群データ記憶部1は例えばRAMやハードディスクなどの記憶装置から構成されており、レーザ測量の測量結果が示す検知対象物上の各点の3次元座標を点群データとして記憶している。
点群入力部2は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコン、あるいは、キーボードやマウスなどのマンマシンインタフェースなどから構成されており、点群データ記憶部1により記憶されている点群データの中から、特定部分の点群データ(例えば、金属で構成されている地物上の点群に係るデータ、指定された部分の点群に係るデータ)を抽出する処理を実施する。なお、点群入力部2は3次元座標抽出手段を構成している。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing an object identification device according to Embodiment 1 of the present invention.
In FIG. 1, the point cloud data storage unit 1 is composed of a storage device such as a RAM or a hard disk, and stores the three-dimensional coordinates of each point on the detection target indicated by the survey result of the laser survey as point cloud data. ing.
The point cloud input unit 2 includes, for example, a semiconductor integrated circuit on which a CPU is mounted, a one-chip microcomputer, or a man-machine interface such as a keyboard or a mouse, and is stored in the point cloud data storage unit 1. To extract point cloud data of a specific part (for example, data related to a point cloud on a feature made of metal, data related to a point cloud of a specified part) from point cloud data To do. The point cloud input unit 2 constitutes a three-dimensional coordinate extraction unit.

法線算出処理部3は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、点群入力部2により抽出された点群データを用いて、検知対象物上の各点の法線を算出する処理を実施する。なお、法線算出処理部3は法線算出手段を構成している。
直線生成処理部4は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、点群入力部2により抽出された点群データと法線算出処理部3により算出された各点の法線から各点を通過する直線を生成する処理を実施する。
The normal calculation processing unit 3 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted, a one-chip microcomputer, or the like, and uses the point cloud data extracted by the point cloud input unit 2 on the object to be detected. The process of calculating the normal of each point is performed. The normal calculation processing unit 3 constitutes normal calculation means.
The straight line generation processing unit 4 is composed of, for example, a semiconductor integrated circuit mounted with a CPU or a one-chip microcomputer, and is calculated by the point cloud data extracted by the point cloud input unit 2 and the normal calculation processing unit 3. A process of generating a straight line passing through each point from the normal line of each point is executed.

通過格子特定処理部5は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、3次元空間内の一定範囲の区切りである格子の中で、直線生成処理部4により生成された直線が通過する格子を特定する処理を実施する。
投票処理部6は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、通過格子特定処理部5により特定された格子に対する投票を行う。
なお、直線生成処理部4、通過格子特定処理部5及び投票処理部6から投票処理手段が構成されている。
The passing grid specifying processing unit 5 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted or a one-chip microcomputer, and a straight line generation processing unit in a grid that is a delimiter of a certain range in a three-dimensional space. The process which specifies the grid | lattice through which the straight line produced | generated by 4 passes is implemented.
The voting processing unit 6 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted, a one-chip microcomputer, or the like, and performs voting on the grid specified by the passing grid specifying processing unit 5.
The straight line generation processing unit 4, the passing grid specifying processing unit 5, and the voting processing unit 6 constitute voting processing means.

形状推定処理部7は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、3次元空間内の各格子に対する投票処理部6の投票結果から検知対象物の形状を推定する処理を実施する。
即ち、形状推定処理部7は投票数が多い格子が集中している場合、検知対象物の形状が球であると推定し、投票数が多い格子が直線状に並んでいる場合、検知対象物の形状が円柱であると推定する。また、投票数が多い格子が集中しておらず、投票数が多い格子が直線状に並んでもいない場合、法線算出処理部3により算出された各点の法線の値が一定範囲内であれば、検知対象物の形状が平面であると推定する。なお、形状推定処理部7は形状推定手段を構成している。
The shape estimation processing unit 7 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted, a one-chip microcomputer, or the like, and the shape of the detection object is determined from the voting result of the voting processing unit 6 for each lattice in the three-dimensional space. The process which estimates is carried out.
That is, the shape estimation processing unit 7 estimates that the shape of the detection target object is a sphere when the grids with a large number of votes are concentrated, and the detection target object when the grids with a large number of votes are arranged in a straight line. Is estimated to be a cylinder. Further, when the grids with a large number of votes are not concentrated and the grids with a large number of votes are not arranged in a straight line, the normal value of each point calculated by the normal calculation processing unit 3 is within a certain range. If there is, it is estimated that the shape of the detection object is a plane. The shape estimation processing unit 7 constitutes shape estimation means.

大きさ算出処理部8は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、点群入力部2により抽出された点群データを用いて、形状推定処理部7により推定された形状に対応する大きさ算出処理を実施することで、検知対象物の大きさを算出する。
即ち、大きさ算出処理部8は形状推定処理部7により推定された形状が球である場合、点群入力部2により抽出された点群データを用いて、投票数が多い格子が集中している範囲の重心の位置を求め、その重心の位置と各点との距離に対する投票を実施し、その投票結果が最も多い距離を球の半径として、検知対象物の大きさを算出する。
また、形状推定処理部7により推定された形状が円柱である場合、点群入力部2により抽出された点群データを用いて、投票数が多い格子が並んでいる範囲の重心の位置を求めて、その重心の位置から円柱の軸を算出し、その円柱の軸と各点との距離に対する投票を実施し、その投票結果が最も多い距離を円柱の半径として、検知対象物の大きさを算出する。なお、大きさ算出処理部8は大きさ算出手段を構成している。
The size calculation processing unit 8 is composed of, for example, a semiconductor integrated circuit on which a CPU is mounted, a one-chip microcomputer, or the like, and uses the point cloud data extracted by the point cloud input unit 2 to use a shape estimation processing unit. By executing the size calculation process corresponding to the shape estimated by 7, the size of the detection target is calculated.
That is, when the shape estimated by the shape estimation processing unit 7 is a sphere, the size calculation processing unit 8 uses the point cloud data extracted by the point cloud input unit 2 to concentrate a grid having a large number of votes. The position of the center of gravity of a certain range is obtained, voting is performed on the distance between the position of the center of gravity and each point, and the size of the detection object is calculated with the distance having the largest voting result as the radius of the sphere.
Further, when the shape estimated by the shape estimation processing unit 7 is a cylinder, the position of the center of gravity in the range where the grids with many votes are arranged is obtained using the point cloud data extracted by the point cloud input unit 2. Then, calculate the axis of the cylinder from the position of the center of gravity, perform voting on the distance between the axis of the cylinder and each point, and determine the size of the object to be detected, using the distance with the most voting results as the radius of the cylinder. calculate. The size calculation processing unit 8 constitutes a size calculation unit.

図1の例では、物体識別装置の構成要素である点群データ記憶部1、点群入力部2、 法線算出処理部3、直線生成処理部4、通過格子特定処理部5、投票処理部6、形状推定処理部7及び大きさ算出処理部8のそれぞれが専用のハードウェアで構成されているものを想定しているが、物体識別装置がコンピュータで構成されていてもよい。
物体識別装置がコンピュータで構成されている場合、点群データ記憶部1の記憶内容をコンピュータのメモリに格納するとともに、点群入力部2、法線算出処理部3、直線生成処理部4、通過格子特定処理部5、投票処理部6、形状推定処理部7及び大きさ算出処理部8の処理内容を記述している物体識別プログラムをコンピュータのメモリに格納し、コンピュータのCPUが当該メモリに格納されている物体識別プログラムを実行するようにすればよい。
図2はこの発明の実施の形態1による物体識別装置の処理内容を示すフローチャートである。
In the example of FIG. 1, a point cloud data storage unit 1, a point cloud input unit 2, a normal line calculation processing unit 3, a straight line generation processing unit 4, a passing grid specifying processing unit 5, and a voting processing unit that are components of the object identification device. 6. It is assumed that each of the shape estimation processing unit 7 and the size calculation processing unit 8 is configured by dedicated hardware, but the object identification device may be configured by a computer.
When the object identification device is configured by a computer, the stored contents of the point cloud data storage unit 1 are stored in the memory of the computer, the point cloud input unit 2, the normal calculation processing unit 3, the straight line generation processing unit 4, and the passage An object identification program describing the processing contents of the lattice identification processing unit 5, the voting processing unit 6, the shape estimation processing unit 7 and the size calculation processing unit 8 is stored in the memory of the computer, and the CPU of the computer stores it in the memory. What is necessary is just to run the object identification program currently performed.
FIG. 2 is a flowchart showing the processing contents of the object identification device according to Embodiment 1 of the present invention.

次に動作について説明する。
点群データ記憶部1に記憶される点群データは、レーザ測量の測量結果が示す検知対象物上の各点の3次元座標であるが、そのレーザ測量が、偏光レーザの測量器を用いて行われている場合、一般的なレーザ測量器と異なり、金属等の物体判別が可能である。
この実施の形態1では、一般的なレーザ測量器によるレーザ測量でもよいが、偏光レーザの測量器によるレーザ測量であるものとして説明する。
ここで、図3は点群データ記憶部1に記憶されている点群データ(検知対象物上の各点の3次元座標)が画像化されたものであり、各点の色(画像が白黒画像であれば、各点の濃淡)が距離を表している。
Next, the operation will be described.
The point cloud data stored in the point cloud data storage unit 1 is the three-dimensional coordinates of each point on the detection target indicated by the survey result of the laser survey. The laser survey is performed using a surveying instrument of a polarized laser. If it is performed, unlike a general laser surveying instrument, an object such as metal can be discriminated.
In the first embodiment, laser surveying by a general laser surveying instrument may be used, but it will be described as being laser surveying by a surveying instrument of a polarized laser.
Here, FIG. 3 is an image of the point cloud data (three-dimensional coordinates of each point on the detection target) stored in the point cloud data storage unit 1, and the color of each point (the image is black and white). In the case of an image, the density of each point represents the distance.

点群入力部2は、点群データ記憶部1により記憶されている点群データの中から、特定部分の点群データを抽出する(図2のステップST1)。
上述したように、偏光レーザの測量器によるレーザ測量である場合、金属等の物体判別が可能であるため、他の物体(障害物)の中に紛れ込んでいる金属地物上の点群データを検知対象物の点群データとして抽出する。
これにより、検知対象物が金属地物である場合、その検知対象物が他の物体(障害物)の中に紛れ込んでいても識別することが可能になる。
また、検知対象物が存在している場所の概略を把握しているような場合には、図4に示すように、内蔵しているマンマシンインタフェースを用いて指定された領域内の点群データを検知対象物の点群データとして抽出する。
これにより、処理対象の点群データが限定されるため、処理速度の高速化を図ることができる。
The point cloud input unit 2 extracts point cloud data of a specific part from the point cloud data stored in the point cloud data storage unit 1 (step ST1 in FIG. 2).
As described above, in the case of laser surveying using a polarization laser surveying instrument, it is possible to discriminate objects such as metal, so point cloud data on metal features that are interspersed with other objects (obstacles) Extracted as point cloud data of the detection object.
Thereby, when the detection target is a metal feature, the detection target can be identified even if the detection target is mixed in another object (obstacle).
When the outline of the place where the detection target exists is grasped, as shown in FIG. 4, the point cloud data in the area designated by using the built-in man-machine interface. Are extracted as point cloud data of the detection object.
Thereby, since the point cloud data to be processed is limited, the processing speed can be increased.

なお、この実施の形態1では、点群入力部2が点群データ記憶部1により記憶されている点群データの中から、特定部分の点群データを抽出するものを示したが、点群入力部2を実装せずに、点群データ記憶部1により記憶されている点群データの全てが、後段の法線算出処理部3等に与えられるようにしてもよい。   In the first embodiment, the point cloud input unit 2 extracts the point cloud data of a specific part from the point cloud data stored in the point cloud data storage unit 1. Without installing the input unit 2, all of the point cloud data stored in the point cloud data storage unit 1 may be given to the normal calculation processing unit 3 and the like in the subsequent stage.

法線算出処理部3は、点群入力部2から検知対象物の点群データを受けると、その点群データを用いて、検知対象物上の各点の法線を算出する(ステップST2)。
各点の法線の算出方法としては、例えば、次のような方法を用いることができる。
まず、点群データをTIN(不規則三角形網)化することでポリゴンを形成し、そのポリゴンの面の法線の平均値を算出する。
そして、ポリゴンを構成する点の法線として、そのポリゴンの面の法線の平均値を与えるものとする。
なお、TINは、平面を三角形の集合体として表現するものであり、TIN化は、点群データからTINを生成することを意味する。
TIN化については、例えば、下記の非特許文献1に開示されている。
[非特許文献1]
ArcGIS,「TINサーフェスとは」
http://help.arcgis.com/ja/arcgisdesktop/10.0/help/index.html#//006000000001000000.htm
When the normal calculation processing unit 3 receives the point cloud data of the detection target from the point cloud input unit 2, the normal calculation processing unit 3 calculates the normal of each point on the detection target using the point cloud data (step ST2). .
As a method for calculating the normal of each point, for example, the following method can be used.
First, a polygon is formed by converting the point cloud data into a TIN (irregular triangle network), and the average value of the normals of the surface of the polygon is calculated.
Then, the average value of the normals of the surface of the polygon is given as the normal of the points constituting the polygon.
TIN expresses a plane as a collection of triangles, and TIN means that TIN is generated from point cloud data.
The TIN conversion is disclosed, for example, in Non-Patent Document 1 below.
[Non-Patent Document 1]
ArcGIS, “What is a TIN surface?”
http://help.arcgis.com/en/arcgisdesktop/10.0/help/index.html#//006000000001000000.htm

直線生成処理部4は、法線算出処理部3が各点の法線を算出すると、各点の法線と点群入力部2により抽出された点群データから、各点を通過する直線を生成する(ステップST3)。
例えば、各点をi、点iの法線をベクトルn(明細書中では、電子出願の関係上、ベクトルを示す“→”の記号を文字の上部に付記することができないため、「ベクトルn」のように表記している)、点iの位置を示すベクトルp、媒介変数をtとすると、点iを通過する直線lは、下記の式(1)のように表される。

Figure 2013002909
When the normal calculation processing unit 3 calculates the normal of each point, the straight line generation processing unit 4 calculates a straight line passing through each point from the normal of each point and the point cloud data extracted by the point cloud input unit 2. Generate (step ST3).
For example, each point is i, and the normal of the point i is a vector n i (in the specification, the symbol “→” indicating the vector cannot be added to the upper part of the character because of the electronic application. n i ”), a vector p i indicating the position of the point i, and a parametric variable t, a straight line l passing through the point i is expressed by the following equation (1). .
Figure 2013002909

通過格子特定処理部5は、3次元空間内を格子状に分割(例えば、10cm立方の立方体に分割)する。
そして、通過格子特定処理部5は、3次元空間内の一定範囲の区切りである格子の中で、直線生成処理部4により生成された直線lが通過する格子を特定する(ステップST4)。
投票処理部6は、通過格子特定処理部5が、直線lが通過する格子を特定すると、その格子に対する投票を行う(ステップST5)。
即ち、点iを通過する直線lが通過する格子の投票数を1インクリメントする。なお、3次元空間内の各格子の投票数は、起動時に“0”に初期化されているものとする。
The passing grid specifying processing unit 5 divides the three-dimensional space into a grid (for example, divides into a 10 cm cube).
Then, the passing grid specifying processing unit 5 specifies the grid through which the straight line 1 generated by the straight line generating processing unit 4 passes among the grids that are delimiters of a certain range in the three-dimensional space (step ST4).
When the passing grid specifying processor 5 specifies the grid through which the straight line l passes, the voting processor 6 performs voting on the grid (step ST5).
That is, the number of votes of the lattice through which the straight line l passing through the point i passes is incremented by one. It is assumed that the number of votes of each lattice in the three-dimensional space is initialized to “0” at the time of activation.

形状推定処理部7は、予め、各種の形状の特徴(大きさに依存しない形状の特徴)を形状パラメータとして記憶している。
図5は各種の形状の特徴を示す説明図である。
例えば、形状が球である場合、「表面上の各点の法線は、1点(球の中心)に集中する」という特徴がある。
形状が円柱である場合、「表面上の各点の法線は、円柱の中心軸に向かう」という特徴がある。
形状が直方体の平面である場合、「隣接する点の法線がほぼ等しい(近隣点の法線の方向が略同一)」という特徴がある。
The shape estimation processing unit 7 stores various shape features (shape features independent of size) as shape parameters in advance.
FIG. 5 is an explanatory view showing characteristics of various shapes.
For example, when the shape is a sphere, “the normal of each point on the surface is concentrated at one point (the center of the sphere)”.
When the shape is a cylinder, there is a feature that “the normal of each point on the surface is directed to the central axis of the cylinder”.
When the shape is a rectangular parallelepiped plane, there is a feature that “the normals of adjacent points are substantially equal (the directions of the normals of neighboring points are substantially the same)”.

形状推定処理部7は、予め記憶している各種の形状の特徴を考慮して、3次元空間内の各格子に対する投票処理部6の投票結果から、検知対象物の形状を推定する(ステップST6)。
即ち、形状推定処理部7は、投票数が多い格子が集中している場合、検知対象物の形状が球であると推定する。
具体的には、3次元空間内の格子毎に、全ての格子の投票数の合計に対する当該格子の投票数の比Pを算出し、ある格子の投票数の比Pが閾値α(例えば、0.5)を上回る場合、検知対象物の形状が球であると推定する。
ここでは、ある格子の投票数の比Pが閾値αを上回る場合に、検知対象物の形状が球であると推定するものを示したが、格子のサイズが小さい場合、投票数が必ずしも1個の格子に集中せずに、例えば、3〜4個の格子に分散する。
このような場合には、3〜4個の格子の合計投票数の比Pが閾値αを上回る場合に、検知対象物の形状が球であると推定するようにする。
The shape estimation processing unit 7 estimates the shape of the detection object from the voting results of the voting processing unit 6 for each lattice in the three-dimensional space in consideration of the characteristics of various shapes stored in advance (step ST6). ).
That is, the shape estimation processing unit 7 estimates that the shape of the detection target is a sphere when lattices with a large number of votes are concentrated.
Specifically, for each lattice in the three-dimensional space, a ratio P of the number of votes of the lattice to the total number of votes of all the lattices is calculated, and the ratio P of the number of votes of a certain lattice is a threshold value α (for example, 0 .5), it is estimated that the shape of the detection object is a sphere.
Here, when the ratio P of the number of votes of a certain grid exceeds the threshold value α, the detection object is estimated to be a sphere. However, when the size of the grid is small, the number of votes is not necessarily one. For example, it is distributed to 3 to 4 lattices without concentrating on the lattice.
In such a case, when the ratio P of the total number of votes of 3 to 4 lattices exceeds the threshold value α, it is estimated that the shape of the detection target is a sphere.

また、形状推定処理部7は、投票数が多い格子が直線状に並んでいる場合、検知対象物の形状が円柱であると推定する。
具体的には、3次元空間内の格子毎に、全ての格子の投票数の合計に対する当該格子の投票数の比Pを算出し、直線状に並んでいるN個(例えば、N=5)の格子の投票数の比Pのそれぞれが閾値β(例えば、0.05)を上回る場合、検知対象物の形状が円柱であると推定する。
Moreover, the shape estimation process part 7 estimates that the shape of a detection target object is a cylinder, when the lattice with many votes is located in a line.
Specifically, for each lattice in the three-dimensional space, a ratio P of the number of votes of the lattice to the total number of votes of all the lattices is calculated, and N pieces (for example, N = 5) arranged in a straight line. When the ratio P of the number of votes of each grid exceeds a threshold value β (for example, 0.05), it is estimated that the shape of the detection target is a cylinder.

また、形状推定処理部7は、投票数が多い格子が集中しておらず、また、投票数が多い格子が直線状に並んでもいない場合、法線算出処理部3により算出された各点の法線の値が一定範囲内であれば(近隣点の法線の方向が略同一である場合)、検知対象物の形状が平面であると推定する。   Further, the shape estimation processing unit 7 does not concentrate the grids with a large number of votes, and if the grids with a large number of votes are not arranged in a straight line, the shape estimation processing unit 7 calculates each point calculated by the normal calculation processing unit 3. If the value of the normal is within a certain range (when the directions of the normals of neighboring points are substantially the same), it is estimated that the shape of the detection target is a plane.

ここで、図6及び図7は点群と投票結果の一例を示す説明図である。図6と図7は同じ点群データを別方向の視点から表示している。
図6中の右側の楕円に囲まれている部分と、図7中の円に囲まれている部分とが投票数が多い箇所を表している。
この例では、点群が円柱の一部であると推定される。
Here, FIG.6 and FIG.7 is explanatory drawing which shows an example of a point group and a voting result. 6 and 7 display the same point cloud data from different viewpoints.
A portion surrounded by an ellipse on the right side in FIG. 6 and a portion surrounded by a circle in FIG. 7 represent places where the number of votes is large.
In this example, it is estimated that the point group is a part of a cylinder.

ここでは、形状推定処理部7が、検知対象物の形状が球、円柱又は平面であると推定するものを示したが、これは一例に過ぎず、他の形状を推定するようにしてもよいことは言うまでもない。
ただし、他の形状を推定する場合には、他の形状の特徴を形状パラメータとして記憶しておく必要がある。
Here, the shape estimation processing unit 7 has shown that the shape of the detection object is estimated to be a sphere, a cylinder, or a plane, but this is only an example, and other shapes may be estimated. Needless to say.
However, when estimating other shapes, it is necessary to store the features of the other shapes as shape parameters.

大きさ算出処理部8は、形状推定処理部7が検知対象物の形状を推定すると、点群入力部2により抽出された点群データを用いて、その検知対象物の形状に対応する大きさ算出処理を実施することで、検知対象物の大きさを算出する(ステップST7)。
即ち、大きさ算出処理部8は、形状推定処理部7により推定された形状が球である場合、投票数が多い格子が集中している範囲(例えば、投票数が多いN個の格子が集まっている範囲)をさらに細分化(例えば、1cm立方の立方体に分割)する。
そして、大きさ算出処理部8は、点群入力部2により抽出された点群データを用いて、各細分化した範囲の重心の位置を求めて、その重心の位置と各点との距離rを算出し、その距離rに対する投票を実施する。
When the shape estimation processing unit 7 estimates the shape of the detection target object, the size calculation processing unit 8 uses the point cloud data extracted by the point cloud input unit 2 to correspond to the size of the detection target object. By executing the calculation process, the size of the detection target is calculated (step ST7).
That is, when the shape estimated by the shape estimation processing unit 7 is a sphere, the size calculation processing unit 8 is a range in which grids with a large number of votes are concentrated (for example, N grids with a large number of votes are gathered). Are further subdivided (for example, divided into 1 cm cubic cubes).
Then, the size calculation processing unit 8 uses the point cloud data extracted by the point cloud input unit 2 to obtain the position of the center of gravity of each subdivided range, and the distance r between the position of the center of gravity and each point. And voting for the distance r is performed.

大きさ算出処理部8は、実際の球の半径に近い距離に投票数が増えるため、投票数が最も多い距離rを球の半径として、検知対象物の大きさを算出する。
なお、投票の際には、距離を一定範囲(例えば、0.5cm)に区切り、算出した距離rが、どの範囲に収まるかで投票を行うものとする。
Since the number of votes increases at a distance close to the actual radius of the sphere, the size calculation processing unit 8 calculates the size of the detection object using the distance r having the largest number of votes as the radius of the sphere.
When voting, the distance is divided into a certain range (for example, 0.5 cm), and voting is performed based on which range the calculated distance r falls.

また、球の半径を求める際、投票数に閾値を設け、投票数が閾値を越える距離に対して重み付けを行っても構わない。
例えば、閾値を越える投票数がvであり、その投票数vを有する距離(範囲の中心)がrである場合、球の半径rは、以下の式(2)のように算出される。

Figure 2013002909
Further, when obtaining the radius of the sphere, a threshold value may be provided for the number of votes, and weighting may be applied to a distance where the number of votes exceeds the threshold value.
For example, when the number of votes exceeding the threshold is v i and the distance (center of the range) having the number of votes v i is r i , the radius r of the sphere is calculated as the following equation (2). The
Figure 2013002909

また、大きさ算出処理部8は、形状推定処理部7により推定された形状が円柱である場合、点群入力部2により抽出された点群データを用いて、投票数が多い格子が並んでいる範囲(投票数の比Pが閾値βを上回る格子が集まっている範囲)の重心の位置を求め、その重心の位置に対して主成分分析を行うことで、円柱の軸(断面の円の中心を通る直線)のベクトルを算出する。
この際、主成分分析の第3成分(3次元のデータに対する主成分分析を行った結果、最も分散が少ない方向)を軸ベクトルとする。
In addition, when the shape estimated by the shape estimation processing unit 7 is a cylinder, the size calculation processing unit 8 uses the point cloud data extracted by the point cloud input unit 2 to arrange grids with a large number of votes. The position of the center of gravity of a certain range (the range where the ratio P of the number of votes is greater than the threshold β is gathered) is calculated, and the principal component analysis is performed on the position of the center of gravity. A straight line passing through the center).
At this time, the third component of the principal component analysis (the direction with the least variance as a result of the principal component analysis performed on the three-dimensional data) is set as the axis vector.

大きさ算出処理部8は、円柱の軸ベクトルを算出すると、下記の式(3)に示すように、投票数が最も多い範囲の重心の位置を示すベクトルP、媒介変数tを用いて、円柱の軸を示す直線lを求める。

Figure 2013002909
When calculating the axis vector of the cylinder, the size calculation processing unit 8 uses the vector P c indicating the position of the center of gravity in the range with the largest number of votes and the parameter t as shown in the following equation (3). obtaining a straight line l c that indicates the axis of the cylinder.
Figure 2013002909

大きさ算出処理部8は、円柱の軸を示す直線lを求めると、点群入力部2により抽出された点群データを用いて、検知対象物上の各点と円柱の軸との距離(円柱の半径)を算出する。
即ち、検知対象物上の各点iの位置を示すベクトルpに対し、直線l上に下ろした垂線の足をベクトルPiaとすると、下記の式(4)のように表すことができ、さらに、下記の式(5)が成立する。

Figure 2013002909
When the size calculation processing unit 8 obtains the straight line l c indicating the axis of the cylinder, the distance between each point on the detection target object and the axis of the cylinder using the point cloud data extracted by the point cloud input unit 2. (Circular radius) is calculated.
That is, for a vector p i indicating the position of each point i on the object to be detected, when the perpendicular foot drawn down on the straight line l c and vector P ia, can be expressed as the following equation (4) Further, the following equation (5) is established.
Figure 2013002909

そこで、大きさ算出処理部8は、式(4)からt’を求め、t’を利用して、各点iについて、検知対象物上の各点と円柱の軸との距離rを算出し、その距離rに対する投票を実施する。

Figure 2013002909
大きさ算出処理部8は、実際の円柱の半径に近い距離に投票数が増えるため、投票数が最も多い距離rを円柱の半径として、検知対象物の大きさを算出する。 Therefore, the size calculation processing unit 8 calculates t ′ from the equation (4), and calculates the distance r i between each point on the detection target and the axis of the cylinder for each point i using t ′. And vote for the distance r i .
Figure 2013002909
The size calculation processing unit 8, because the actual number of votes in a close distance to the radius of the cylinder is increased, the largest distance r i is votes as the radius of the cylinder, to calculate the size of the detection object.

なお、形状推定処理部7により推定された形状が平面である場合、大きさ算出処理部8は、検知対象物の大きさを算出しない。
形状が平面である場合、球や円柱と違って、平面がどこまでの大きさになっているのかを判断する情報が存在しないからである。
When the shape estimated by the shape estimation processing unit 7 is a plane, the size calculation processing unit 8 does not calculate the size of the detection target.
This is because, when the shape is a plane, unlike a sphere or a cylinder, there is no information for determining how large the plane is.

以上で明らかなように、この実施の形態1によれば、レーザ測量の測量結果が示す検知対象物上の各点の3次元座標を用いて、検知対象物上の各点の法線を算出する法線算出処理部3と、検知対象物上の各点の3次元座標と法線算出処理部3により算出された各点の法線から各点を通過する直線を生成する直線生成処理部4と、3次元空間内の一定範囲の区切りである格子の中で、直線生成処理部4により生成された直線が通過する格子を特定する通過格子特定処理部5と、通過格子特定処理部5により特定された格子に対する投票を行う投票処理部6とを設け、形状推定処理部7が、3次元空間内の各格子に対する投票処理部6の投票結果から検知対象物の形状を推定するように構成したので、検知対象物の一部が他の障害物によって隠れているような状況下でも、その検知対象物の形状を正確に識別することができる効果を奏する。   As apparent from the above, according to the first embodiment, the normal of each point on the detection target is calculated using the three-dimensional coordinates of each point on the detection target indicated by the survey result of the laser surveying. A normal line calculation processing unit 3 for generating a straight line passing through each point from the three-dimensional coordinates of each point on the detection target and the normal of each point calculated by the normal line calculation processing unit 3 4 and a passing grid specification processing unit 5 for specifying a grid through which a straight line generated by the straight line generation processing unit 4 passes in a grid that is a delimiter of a certain range in a three-dimensional space, and a passing grid specification processing unit 5 And a voting processing unit 6 that performs voting on the grid specified by, so that the shape estimation processing unit 7 estimates the shape of the detection object from the voting result of the voting processing unit 6 for each lattice in the three-dimensional space. Because it is configured, part of the detection object is hidden by other obstacles Even under situations where there is an effect that it is possible to accurately identify the shape of the object to be detected.

また、この実施の形態1によれば、大きさ算出処理部8が、点群入力部2により抽出された点群データを用いて、形状推定処理部7により推定された形状に対応する大きさ算出処理を実施することで、検知対象物の大きさを算出するように構成したので、検知対象物の大きさを識別することができる効果を奏する。   Further, according to the first embodiment, the size calculation processing unit 8 uses the point cloud data extracted by the point cloud input unit 2 and uses a size corresponding to the shape estimated by the shape estimation processing unit 7. Since the size of the detection target is calculated by performing the calculation process, the size of the detection target can be identified.

また、この実施の形態1によれば、点群入力部2が、点群データ記憶部1により記憶されている点群データの中から、特定部分の点群データを抽出するように構成したので、特定部分の点群データが、他の物体(障害物)の中に紛れ込んでいる金属地物上の点群データであれば、検知対象物である金属地物が他の物体(障害物)の中に紛れ込んでいても識別することができる効果を奏する。
また、特定部分の点群データが、マンマシンインタフェースを用いて指定された領域内の点群データであれば、処理対象の点群データが限定されるため、処理速度の高速化を図ることができる効果を奏する。
Further, according to the first embodiment, the point cloud input unit 2 is configured to extract the point cloud data of a specific part from the point cloud data stored in the point cloud data storage unit 1. If the point cloud data of a specific part is point cloud data on a metal feature that is mixed in another object (obstacle), the metal feature that is the object to be detected is another object (obstacle). Even if it is mixed in, there is an effect that can be identified.
In addition, if the point cloud data of a specific part is point cloud data within an area designated using a man-machine interface, the point cloud data to be processed is limited, so that the processing speed can be increased. There is an effect that can be done.

実施の形態2.
上記実施の形態1では、法線算出処理部3が、検知対象物の点群データを用いて、検知対象物上の各点の法線を算出する際、その点群データをTIN化することでポリゴンを形成し、そのポリゴンの面の法線の平均値を算出するものを示したが、距離画像(点群データを一定の大きさの画像上にマッピングし、各点の距離(基準点からの距離)を色で示している画像)を利用して、検知対象物上の各点の法線を算出するようにしてもよい。
距離画像を利用して、検知対象物上の各点の法線を算出する場合、距離画像上で、互いに隣接している点であって、距離が近い(色が近い)点を探索し、それらの点で三角形を構成する。
そして、その三角形の法線の平均値を求め、その平均値を当該三角形を構成する点の法線として与えるようにする。
Embodiment 2. FIG.
In the first embodiment, when the normal calculation processing unit 3 calculates the normal of each point on the detection target using the point cloud data of the detection target, the point cloud data is converted to TIN. In this example, a polygon is formed and the average of the normals of the polygon surface is calculated. The distance image (point cloud data is mapped onto an image of a certain size, and the distance between each point (reference point A normal line of each point on the detection target may be calculated using an image indicating a distance from the image).
When calculating the normal of each point on the detection object using the distance image, search for points that are adjacent to each other on the distance image and that are close to each other (the colors are close), These points constitute a triangle.
Then, an average value of the normal lines of the triangle is obtained, and the average value is given as a normal line of points constituting the triangle.

なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。   In the present invention, within the scope of the invention, any combination of the embodiments, or any modification of any component in each embodiment, or omission of any component in each embodiment is possible. .

1 点群データ記憶部、2 点群入力部(3次元座標抽出手段)、3 法線算出処理部(法線算出手段)、4 直線生成処理部(投票処理手段)、5 通過格子特定処理部(投票処理手段)、6 投票処理部(投票処理手段)、7 形状推定処理部(形状推定手段)、8 大きさ算出処理部(大きさ算出手段)。   1 point group data storage unit, 2 point group input unit (three-dimensional coordinate extraction unit), 3 normal calculation processing unit (normal calculation unit), 4 straight line generation processing unit (voting processing unit), 5 pass grid identification processing unit (Voting processing means), 6 voting processing section (voting processing means), 7 shape estimation processing section (shape estimation means), 8 size calculation processing section (size calculation means).

Claims (10)

レーザ測量の測量結果が示す検知対象物上の各点の3次元座標を用いて、上記検知対象物上の各点の法線を算出する法線算出手段と、上記検知対象物上の各点の3次元座標と上記法線算出手段により算出された各点の法線から各点を通過する直線を求め、3次元空間内の一定範囲の区切りである格子の中で、上記直線が通過する格子を特定し、上記格子に対する投票を行う投票処理手段と、上記3次元空間内の各格子に対する上記投票処理手段の投票結果から上記検知対象物の形状を推定する形状推定手段とを備えた物体識別装置。   Normal calculation means for calculating the normal of each point on the detection object using the three-dimensional coordinates of each point on the detection object indicated by the survey result of the laser surveying, and each point on the detection object A straight line passing through each point is obtained from the three-dimensional coordinates of the point and the normal of each point calculated by the normal calculation means, and the straight line passes through a grid that is a delimiter of a certain range in the three-dimensional space. An object comprising: voting processing means for specifying a lattice and voting on the lattice; and shape estimation means for estimating the shape of the detection object from the voting result of the voting processing means for each lattice in the three-dimensional space Identification device. 検知対象物上の各点の3次元座標を用いて、形状推定手段により推定された形状に対応する大きさ算出処理を実施することで、上記検知対象物の大きさを算出する大きさ算出手段を設けたことを特徴とする請求項1記載の物体識別装置。   A size calculation means for calculating the size of the detection object by performing a size calculation process corresponding to the shape estimated by the shape estimation means using the three-dimensional coordinates of each point on the detection object. The object identification device according to claim 1, wherein: 形状推定手段は、投票数が多い格子が集中している場合、検知対象物の形状が球であると推定し、投票数が多い格子が直線状に並んでいる場合、上記検知対象物の形状が円柱であると推定することを特徴とする請求項2記載の物体識別装置。   The shape estimation means estimates that the shape of the detection object is a sphere when a grid with a large number of votes is concentrated, and if the grid with a large number of votes is arranged in a straight line, the shape of the detection object The object identification device according to claim 2, wherein is estimated to be a cylinder. 形状推定手段は、投票数が多い格子が集中しておらず、投票数が多い格子が直線状に並んでもいない場合、法線算出手段により算出された各点の法線の値が一定範囲内であれば、検知対象物の形状が平面であると推定することを特徴とする請求項3記載の物体識別装置。   The shape estimation means is such that when the grid with a large number of votes is not concentrated and the grid with a large number of votes is not arranged in a straight line, the normal value of each point calculated by the normal calculation means is within a certain range. If it is, it will estimate that the shape of a detection target object is a plane, The object identification device of Claim 3 characterized by the above-mentioned. 大きさ算出手段は、形状推定手段により推定された形状が球である場合、検知対象物上の各点の3次元座標を用いて、投票数が多い格子が集中している範囲の重心の位置を求め、上記重心の位置と各点との距離に対する投票を実施し、その投票結果が最も多い距離を球の半径として、上記検知対象物の大きさを算出することを特徴とする請求項3記載の物体識別装置。   When the shape estimated by the shape estimation unit is a sphere, the size calculation unit uses the three-dimensional coordinates of each point on the detection target to determine the position of the center of gravity in a range where a large number of votes are concentrated And calculating the size of the object to be detected with the distance between the position of the center of gravity and the distance between each point being the most and the distance with the most voting results as the radius of the sphere. The object identification device described. 大きさ算出手段は、形状推定手段により推定された形状が円柱である場合、検知対象物上の各点の3次元座標を用いて、投票数が多い格子が並んでいる範囲の重心の位置を求めて、上記重心の位置から円柱の軸を算出し、上記円柱の軸と各点との距離に対する投票を実施し、その投票結果が最も多い距離を円柱の半径として、上記検知対象物の大きさを算出することを特徴とする請求項3記載の物体識別装置。   When the shape estimated by the shape estimation unit is a cylinder, the size calculation unit uses the three-dimensional coordinates of each point on the detection target to determine the position of the center of gravity in the range where the grids with a large number of votes are arranged. Then, calculate the axis of the cylinder from the position of the center of gravity, perform voting on the distance between the axis of the cylinder and each point, and set the radius of the cylinder as the distance with the most voting results, and the size of the object to be detected The object identification device according to claim 3, wherein the object identification device calculates a height. レーザ測量の測量結果が示す検知対象物上の各点の3次元座標の中から、金属で構成されている地物上の各点の3次元座標を抽出し、上記地物上の各点の3次元座標を上記検知対象物上の各点の3次元座標として法線算出手段、投票処理手段及び大きさ算出手段に出力する3次元座標抽出手段を設けたことを特徴とする請求項1から請求項6のうちのいずれか1項記載の物体識別装置。   From the three-dimensional coordinates of each point on the detection target indicated by the survey result of the laser survey, the three-dimensional coordinates of each point on the feature made of metal are extracted. 3. A three-dimensional coordinate extracting means for outputting the three-dimensional coordinates to the normal calculation means, the voting processing means, and the size calculation means as the three-dimensional coordinates of each point on the detection object is provided. The object identification device according to claim 6. レーザ測量の測量結果が示す検知対象物上の各点の3次元座標の中から、指定された領域内の3次元座標を抽出し、その3次元座標を法線算出手段、投票処理手段及び大きさ算出手段に出力する3次元座標抽出手段を設けたことを特徴とする請求項1から請求項6のうちのいずれか1項記載の物体識別装置。   From the three-dimensional coordinates of each point on the detection target indicated by the survey result of the laser survey, the three-dimensional coordinates in the designated area are extracted, and the three-dimensional coordinates are extracted as normal calculation means, voting processing means, and size. The object identification device according to any one of claims 1 to 6, further comprising a three-dimensional coordinate extraction unit that outputs to the height calculation unit. 検知対象物の形状及び大きさを識別するコンピュータの処理内容を記述している物体識別プログラムであって、
レーザ測量の測量結果が示す上記検知対象物上の各点の3次元座標を用いて、上記検知対象物上の各点の法線を算出する法線算出処理手順と、上記検知対象物上の各点の3次元座標と上記法線算出処理手順により算出された各点の法線から各点を通過する直線を求め、3次元空間内の一定範囲の区切りである格子の中で、上記直線が通過する格子を特定し、上記格子に対する投票を行う投票処理手順と、上記3次元空間内の各格子に対する上記投票処理手順の投票結果から上記検知対象物の形状を推定する形状推定処理手順とから構成されていることを特徴とする物体識別プログラム。
An object identification program describing the processing contents of a computer for identifying the shape and size of a detection object,
Using the three-dimensional coordinates of each point on the detection target indicated by the survey result of laser surveying, a normal calculation processing procedure for calculating the normal of each point on the detection target, and on the detection target A straight line passing through each point is obtained from the three-dimensional coordinates of each point and the normal of each point calculated by the normal calculation processing procedure, and the straight line in a grid that is a delimiter of a certain range in the three-dimensional space. A voting process procedure for identifying a grid through which the object passes and voting on the grid; and a shape estimation process procedure for estimating the shape of the detection object from the voting result of the voting process procedure for each grid in the three-dimensional space; An object identification program comprising:
検知対象物上の各点の3次元座標を用いて、形状推定処理手順により推定された形状に対応する大きさ算出処理を実施することで、上記検知対象物の大きさを算出する大きさ算出処理手順を備えていることを特徴とする請求項9記載の物体識別プログラム。   Using the three-dimensional coordinates of each point on the detection object, a size calculation process for calculating the size of the detection object is performed by performing a size calculation process corresponding to the shape estimated by the shape estimation process procedure. The object identification program according to claim 9, further comprising a processing procedure.
JP2011133283A 2011-06-15 2011-06-15 Object identification device and object identification program Withdrawn JP2013002909A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011133283A JP2013002909A (en) 2011-06-15 2011-06-15 Object identification device and object identification program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011133283A JP2013002909A (en) 2011-06-15 2011-06-15 Object identification device and object identification program

Publications (1)

Publication Number Publication Date
JP2013002909A true JP2013002909A (en) 2013-01-07

Family

ID=47671638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011133283A Withdrawn JP2013002909A (en) 2011-06-15 2011-06-15 Object identification device and object identification program

Country Status (1)

Country Link
JP (1) JP2013002909A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014153336A (en) * 2013-02-13 2014-08-25 Nippon Telegr & Teleph Corp <Ntt> Point group analysis processing device and point group analysis processing program
JP2018124973A (en) * 2017-01-27 2018-08-09 株式会社デンソーアイティーラボラトリ Object detection system, object detection device, object detection program, and object detection method
JP2019050035A (en) * 2014-04-25 2019-03-28 ウェイモ エルエルシー Methods and systems for object detection using laser point clouds
US12018969B2 (en) 2018-11-21 2024-06-25 Nec Communication Systems, Ltd. Volume measurement apparatus, system, method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014153336A (en) * 2013-02-13 2014-08-25 Nippon Telegr & Teleph Corp <Ntt> Point group analysis processing device and point group analysis processing program
JP2019050035A (en) * 2014-04-25 2019-03-28 ウェイモ エルエルシー Methods and systems for object detection using laser point clouds
JP2018124973A (en) * 2017-01-27 2018-08-09 株式会社デンソーアイティーラボラトリ Object detection system, object detection device, object detection program, and object detection method
US12018969B2 (en) 2018-11-21 2024-06-25 Nec Communication Systems, Ltd. Volume measurement apparatus, system, method, and program

Similar Documents

Publication Publication Date Title
Xiao et al. Three-dimensional point cloud plane segmentation in both structured and unstructured environments
US8687001B2 (en) Apparatus and method extracting light and texture, and rendering apparatus using light and texture
KR101822185B1 (en) Method and apparatus for poi detection in 3d point clouds
JP5181704B2 (en) Data processing apparatus, posture estimation system, posture estimation method and program
TWI496090B (en) Method and apparatus for object positioning by using depth images
CN110073362A (en) System and method for lane markings detection
EP2249311A1 (en) Systems and methods for extracting planar features, matching the planar features, and estimating motion from the planar features
US10451403B2 (en) Structure-based camera pose estimation system
US20110268316A1 (en) Multiple centroid condensation of probability distribution clouds
US20130271461A1 (en) Systems and methods for obtaining parameters for a three dimensional model from reflectance data
US12106438B2 (en) Point cloud annotation device, method, and program
CN110998671B (en) Three-dimensional reconstruction method, device, system and storage medium
JP2020518918A (en) Information processing method, apparatus, cloud processing device, and computer program product
CN110781937B (en) Point cloud feature extraction method based on global visual angle
JP6381137B2 (en) Label detection apparatus, method, and program
TW201531868A (en) Multiview pruning of feature database for object recognition system
JP2014032623A (en) Image processor
JP2013002909A (en) Object identification device and object identification program
JP2015184061A (en) Extracting device, method, and program
JP2010197378A (en) Radar image processing device
JP6188345B2 (en) Information processing apparatus and information processing method
CN113033248A (en) Image identification method and device and computer readable storage medium
CN112418316B (en) Robot repositioning method and device, laser robot and readable storage medium
Yu et al. Saliency computation and simplification of point cloud data
JP5928240B2 (en) Three-dimensional shape interpretation apparatus and program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140902