JP2011257244A - Body shape detection device and method - Google Patents
Body shape detection device and method Download PDFInfo
- Publication number
- JP2011257244A JP2011257244A JP2010131422A JP2010131422A JP2011257244A JP 2011257244 A JP2011257244 A JP 2011257244A JP 2010131422 A JP2010131422 A JP 2010131422A JP 2010131422 A JP2010131422 A JP 2010131422A JP 2011257244 A JP2011257244 A JP 2011257244A
- Authority
- JP
- Japan
- Prior art keywords
- shape
- sphere
- detection
- plane
- cone
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明の実施形態は、物体の3次元的計測結果から物体形状を検出する技術に関する。 Embodiments described herein relate generally to a technique for detecting an object shape from a three-dimensional measurement result of an object.
従来、画像処理により物体形状を検出する方法として、ハフ変換(Hough transform)を使用する物体形状検出方法がある。この方法は、カメラやレンジファインダにより得られる輝度画像や距離画像から物体の特定形状を検出する。具体的には、各画素がそれぞれ構成し得る形状のパラメータ値に投票し、投票数の多いパラメータ値を、検出された形状のパラメータ値とする方法である。 Conventionally, as a method for detecting an object shape by image processing, there is an object shape detection method using a Hough transform. In this method, a specific shape of an object is detected from a luminance image or a distance image obtained by a camera or a range finder. Specifically, this is a method of voting on parameter values of shapes that can be configured by each pixel, and setting parameter values having a large number of votes as parameter values of detected shapes.
具体例として、例えば距離画像から平面形状を検出する場合に、平面の法線方向を決定する2パラメータと、平面と原点との距離の計3個のパラメータで平面形状を定義する。各画素がその座標を通る全ての平面のパラメータ値に対応する3次元の投票空間中の座標に投票し、投票数の多い座標のパラメータ値で表される平面形状を検出する。 As a specific example, for example, when a planar shape is detected from a distance image, the planar shape is defined by a total of three parameters: two parameters for determining the normal direction of the plane and the distance between the plane and the origin. Each pixel votes for the coordinates in the three-dimensional voting space corresponding to the parameter values of all the planes passing through the coordinates, and detects the planar shape represented by the parameter values of the coordinates having the largest number of votes.
従来の物体形状検出方法により、円筒や円錐のようにパラメータ数が多い形状を検出する場合、投票するパラメータ空間の次元数が高くなるために、コンピュータ上にソフトウェアで実装することが困難である。この解決策として、投票及び検出処理を複数段階に分割して、一度に求めるパラメータ数を抑制することにより、少ない次元数の投票空間を使って形状を検出する方法がある。 When a shape having a large number of parameters such as a cylinder or a cone is detected by a conventional object shape detection method, the number of dimensions of the parameter space for voting becomes high, so that it is difficult to implement the software on a computer. As a solution to this, there is a method of detecting a shape using a voting space having a small number of dimensions by dividing voting and detection processing into a plurality of stages and suppressing the number of parameters required at a time.
この方法は、ハフ変換により円筒と円錐を検出するために、まず球体中心を検出し、その投票数をあらかじめ定められた閾値と比較して、球体であるか円筒と円錐の一部であるかを判定する。即ち、距離画像の解像度や画像中における対象物体の大きさによって適切な判定閾値、二値化閾値を設定する必要がある。また、投票による検出方法では、入力される距離画像中に大きさの異なる複数の形状が現れる場合に、表面積が大きいほど多くの画素からの投票数が入るため、大きな物体ほど検出されやすい傾向がある。 In this method, in order to detect a cylinder and a cone by the Hough transform, first, the center of the sphere is detected, and the number of votes is compared with a predetermined threshold value to determine whether it is a sphere or a part of a cylinder and a cone. Determine. That is, it is necessary to set an appropriate determination threshold value and binarization threshold value depending on the resolution of the distance image and the size of the target object in the image. In addition, in the detection method by voting, when a plurality of shapes having different sizes appear in the input distance image, the larger the surface area, the larger the number of votes from pixels, so that larger objects tend to be detected more easily. is there.
そこで、距離画像や表面形状データから、球体、円筒、円錐のようなパラメータ数の多い形状を検出する場合に、形状の大きさに依存せず、かつ対象依存の閾値設定を必要としない方法を実現するという課題がある。 Therefore, when detecting shapes with a large number of parameters such as spheres, cylinders, and cones from distance images and surface shape data, a method that does not depend on the size of the shape and does not require target-dependent threshold setting. There is a problem of realizing.
本実施形態によれば、物体形状検出装置は、入力手段と、検出手段と、円筒・円錐検出手段とを有する。入力手段は、物体の距離画像または表面形状点群データの入力データを取得する。検出手段は、前記入力データから平面形状、球体形状及び各パラメータを検出する。円筒・円錐検出手段は、前記検出手段の検出結果を使用して、円筒、円錐、円錐台のいずれかの形状パラメータを算出する。 According to the present embodiment, the object shape detection apparatus includes an input unit, a detection unit, and a cylinder / cone detection unit. The input unit obtains input data of a distance image of the object or surface shape point cloud data. The detecting means detects a planar shape, a spherical shape, and each parameter from the input data. The cylinder / cone detection means calculates a shape parameter of any one of the cylinder, the cone, and the truncated cone using the detection result of the detection means.
以下図面を参照して、実施形態を説明する。 Embodiments will be described below with reference to the drawings.
[物体形状検出装置の構成]
図1は、実施形態に関する物体形状検出装置の構成を説明するためのブロック図である。
[Configuration of Object Shape Detection Device]
FIG. 1 is a block diagram for explaining a configuration of an object shape detection apparatus according to the embodiment.
図1に示すように、物体形状検出装置は、画像入力装置10と、入力インターフェース11と、表示出力装置12と、制御部(コントローラ)13と、画像処理部14とを有する。
As illustrated in FIG. 1, the object shape detection apparatus includes an
画像入力装置10は、例えばステレオカメラやレンジファインダからなり、検出対象の物体の距離画像を取得する。入力インターフェース11は、画像入力装置10により入力された距離画像を画像処理部14に転送する。コントローラ13は装置全体の制御を実行し、特に画像処理部14から出力される処理結果(認識結果)を入力し、表示出力装置12の画面上に表示するように制御する。
The
画像処理部14は、入出力インターフェース15と、平面検出処理部16と、球体検出・判定処理部17と、円筒・円錐検出処理部18とを有する。入出力インターフェース15は、入力インターフェース11から転送された距離画像を、平面検出処理部16、球体検出・判定処理部17、及び円筒・円錐検出処理部18のそれぞれに提供する。
The
平面検出処理部16は、距離画像に基づいて物体の平面形状の検出、抽出、位置向き推定の処理を実行する。球体検出・判定処理部17は、距離画像に基づいて物体の球体形状の検出、抽出、位置向き推定の処理を実行する。円筒・円錐検出処理部18は、距離画像に基づいて物体の円筒・円錐形状の検出、抽出、位置向き推定の処理を実行する。
The plane
[物体形状検出装置の動作]
以下、図2から図7のフローチャートを参照して、実施形態の物体形状検出装置の動作を説明する。
[Operation of object shape detection device]
The operation of the object shape detection apparatus according to the embodiment will be described below with reference to the flowcharts of FIGS.
まず、図2のフローチャートを参照して、本実施形態に関する円筒(円柱)・円錐検出処理の概略を説明する。 First, the outline of the cylinder (column) / cone detection process according to the present embodiment will be described with reference to the flowchart of FIG.
円筒(円柱)、円錐(円錐台を含む)は、形状を表すパラメータがそれぞれ5個、6個である。このため、直接ハフ変換により求めることはほぼ不可能である。そこで、本実施形態の画像処理部14は、円筒、円錐上に多数の平面や球体が検出されることを利用して、平面と球体の分布を利用して検出する。
The cylinder (column) and the cone (including the truncated cone) have 5 and 6 parameters representing the shape, respectively. For this reason, it is almost impossible to obtain directly by the Hough transform. Therefore, the
円筒や円錐上の頂点が球体の一部として検出される場合、それらの頂点はそれぞれの球体上で、円筒・円錐の軸の周りに帯状に分布する。一方、これらの頂点が平面として検出される場合、平面は軸に沿って細長い帯状の形状になる。即ち、球体と平面のそれぞれ帯状の頂点群が直交するような形になるため、これらの組み合わせによって円筒・円錐の検出を行なう。 When vertices on a cylinder or cone are detected as part of a sphere, the vertices are distributed in a band around the axis of the cylinder / cone on each sphere. On the other hand, when these vertices are detected as a plane, the plane has an elongated strip shape along the axis. That is, since the belt-like vertex groups of the sphere and the plane are orthogonal to each other, the cylinder / cone is detected by combining them.
画像処理部14では、平面検出処理部16及び球体検出・判定処理部17はそれぞれ、入力データから平面と球体を検出する(ステップS1〜S3)。ここで、入力データは、物体表面の形状を点群で表す点群データとし、距離画像から生成される。さらに、球体検出・判定処理部17は、球体上での頂点の分布に基づいて、円筒・円錐の一部と球体に分類する球体情報の取得と分類処理を実行する(ステップS4)。円筒・円錐検出処理部18は、円筒・円錐の一部として分類された球体と平面を使用して、互いに共有する頂点があるものを纏めて円筒・円錐として検出する(ステップS5)。さらに、円筒・円錐検出処理部18は、球体中心の並びと半径から円筒・円錐のパラメータを算出する(ステップS6)。円筒・円錐検出処理部18は、互いに共有する頂点が無い場合には、平面のパラメータを算出する(ステップS7)。また、球体検出・判定処理部17は、球体のパラメータを算出する(ステップS8)。
In the
更に、図3のフローチャートを参照して、本実施形態に関する円筒(円柱)・円錐検出処理を具体的に説明する。 Furthermore, with reference to the flowchart of FIG. 3, the cylinder (column) / cone detection processing according to the present embodiment will be described in detail.
画像処理部14は、入出力インターフェース15により、画像入力装置10で取得された距離画像を入力データとして入力する(ステップS21)。平面検出処理部16は、入力データから平面を検出し、平面のパラメータを算出(推定)する(ステップS22)。これにより、平面検出処理部16は、入力データから平面を構成する平面形状点を抽出する(ステップS23)。
The
この処理と並行して、球体検出・判定処理部17は、入力データから球体またはその一部を検出し、それらのパラメータを算出(推定)する(ステップS24)。これにより、球体検出・判定処理部17は、球体を構成する球体形状点を抽出する(ステップS25)。さらに、球体検出・判定処理部17は、検出した球体それぞれについて、円筒または円錐の一部であるか否かを判定する(ステップS26)。球体検出・判定処理部17は、検出した球体が円筒または円錐の一部で無いと判定した場合には、後述する球体の検出処理またはノイズの判定処理に移行する。
In parallel with this process, the sphere detection /
画像処理部14は、平面及び球体の検出、それぞれのパラメータの算出、及び平面形状点と球体形状点の抽出の第1段階の処理後に、次の第2段階の処理に移行する。即ち、円筒・円錐検出処理部18は、第1段階の処理により取得したパラメータや形状点を使用して、円筒(円柱)及び円錐(円錐台を含む)を検出し、そのパラメータを算出(推定)する(ステップS27,S28)。
The
即ち、円筒・円錐検出処理部18は、平面と球体について形状点の共有(重複)を検出し、重複のある平面と球体の纏まりを一つのグループとして設定する。例えば、平面A、平面B、平面Cと、球体a、球体b、球体cがある場合に、平面Aと球体a、平面Bと球体a、平面Cと球体b、平面Cと球体cのそれぞれが形状点を共有する場合、平面A、平面B、球体aを一つのグループとして設定し、かつ平面C、球体b、球体cを別のグループとして設定する。
That is, the cylinder / cone
次に、円筒・円錐検出処理部18は、グループ内の平面と球体のパラメータを使用して、円筒、円錐、円錐台のいずれかの形状パラメータを算出する。さらに後処理として、円筒・円錐検出処理部18は、グループ内の平面と球体が有する形状点を、円筒または円錐を構成する形状点として抽出する(ステップS29)。さらに、円筒・円錐検出処理部18は、最小2乗法等の手法により形状パラメータを修正し、検出結果と形状位置向き推定結果として出力する(ステップS30,S31)。
Next, the cylinder / cone
次に、図4のフローチャート及び図5を参照して、球体検出・判定処理部17での球体検出処理(ステップS24,S25の処理)を具体的に説明する。
Next, the sphere detection processing (steps S24 and S25) in the sphere detection /
ここで、画像入力装置10で取得される入力データである距離画像の各画素には、予め形状表面の法線方向情報が付与されているものとする。球体検出・判定処理部17は、距離画像を入力データとして入力すると、距離画像の各画素が3次元空間中の球体中心座標で構成される投票空間に投票する投票処理を実行する(ステップS41,S42)。
Here, it is assumed that normal direction information of the shape surface is given in advance to each pixel of the distance image that is input data acquired by the
図5(A),(B)は、投票処理方法を説明するための図である。図5(A),(B)に示すように、各画素が表す表面形状上の形状点401は、その法線方向402と逆方向の位置403を表す投票空間の各座標位置に投票される。全ての形状点401の投票が終了した後、球体の中心位置404は、他と比べて投票数が多くなる。
FIGS. 5A and 5B are diagrams for explaining a voting processing method. As shown in FIGS. 5A and 5B, the
球体検出・判定処理部17は、投票数が例えば最大値、極大値、閾値以上である座標を抽出し、この座標を検出された球体の中心位置404と設定する(ステップS43)。次に、球体検出・判定処理部17は、球体中心位置404の周辺の形状点または中心位置404に投票した形状点の分布から球体の半径を推定する(ステップS44)。この半径推定方法としては、例えば球体中心と形状点との距離のヒストグラムからピークを検出する方法を利用する。
The sphere detection /
次に、球体検出・判定処理部17は、パラメータ推定された球体を構成する球体形状点を抽出する(ステップS45)。さらに、球体検出・判定処理部17は、最小2乗法などの手法を用いて球体パラメータを修正し、修正した球体パラメータとそれを構成する球体形状点を出力する(ステップS46,S47)。
Next, the sphere detection /
ここで、球体検出・判定処理部17の投票処理方法において、入力データである同じ距離画像中に、図5(A),(B)に示すように、相対的に大きい球体406と小さい球体407のように大きさの異なる複数の球体が存在する場合がある。大きい球体406は、小さい球体407と比較して多くの形状点401で構成されている。このため、各形状点401が投票空間に等しい重みで投票されると、大きい球体406の中心位置404の方が、投票数は多くなる。
Here, in the voting processing method of the sphere detection /
従って、投票元の形状点と投票先の投票空間中の座標との距離に応じて投票の重み付けをすることで、球体の大きさによらず同程度の投票数を取得することができる。具体的には、形状点401から遠いほど小さい重みで投票することで、半径(球体中心と表面形状との距離)が大きい球体406は、多くの形状点401から少しずつ投票される。一方、半径の小さい球体407は、少ない形状点401から大きい投票数を得る。このようにして、投票数に影響を及ぼすのは球体の見えている面積ではなく、球体の見えている部分の割合となる。
Therefore, by assigning voting weights according to the distance between the shape point of the voting source and the coordinates in the voting space of the voting destination, the same number of votes can be acquired regardless of the size of the sphere. Specifically, the sphere 406 having a larger radius (distance between the sphere center and the surface shape) is voted little by little from the
次に、図6のフローチャートを参照して、球体検出・判定処理部17での球体判定処理(ステップS26の処理)を具体的に説明する。
Next, with reference to the flowchart of FIG. 6, the sphere determination process (the process of step S26) in the sphere detection /
球体検出・判定処理部17は、球体検出処理(ステップS24)により得られる球体パラメータ及び球体形状点抽出処理(ステップS25)により得られる球体形状点群を入力する(ステップS51)。球体検出・判定処理部17は、入力された形状点群を使用し、最小2乗法により近似平面の法線方向を算出する(ステップS52)。球体が円筒や円錐の一部である場合、球体形状点群の分布は、主軸上の1点を中心とした円上に分布するので、法線方向は主軸とほぼ等しい方向となる。
The sphere detection /
次に、球体検出・判定処理部17は、各球体形状点の法線方向と求めた近似平面の法線方向とを比較し、その成す角の分布を求める(ステップS53)。即ち、球体検出・判定処理部17は、成す角の平均と分散を算出する。球体が円筒や円錐の一部であれば、球体形状点の法線方向は、主軸からほぼ等しい角度差で放射状に分布する。
Next, the sphere detection /
そこで、球体検出・判定処理部17は、成す角の分散が閾値未満の場合には、円筒または円錐の一部であると判定する(ステップS54のNO)。一方、球体検出・判定処理部17は、成す角の分散が閾値以上の場合には球体単体と判定する(ステップS54のYES,S56)。
Accordingly, when the variance of the formed angles is less than the threshold value, the sphere detection /
一方、球体検出・判定処理部17は、円筒または円錐の一部であると判定した場合に、成す角の平均が直交に近い場合には、円筒であると判定する(ステップS55のYES,S57)。これは、円筒の場合は、全ての法線方向が主軸とほぼ直交するのに対し、円錐の場合は偏りができる。従って、球体検出・判定処理部17は、成す角の平均が直交ではない場合に、円錐と判定する(ステップS55のNO,S58)。但し、円筒または円錐の判定処理は、その後の処理で必ずしも必要ではないため省略可能である。
On the other hand, when the sphere detection /
次に、図7のフローチャートを参照して、平面検出処理部16での平面検出処理(ステップS22)と平面形状点抽出処理(ステップS23)を具体的に説明する。
Next, with reference to the flowchart of FIG. 7, the plane detection process (step S22) and the plane shape point extraction process (step S23) in the plane
ここで、画像入力装置10で取得される入力データである距離画像の各画素には、予め形状表面の法線方向情報が付与されているものとする。平面検出処理部16は、距離画像を入力データとして入力すると、距離画像の各画素がその法線方向に基づいて、平面の法線方向を表すパラメータを各軸成分とする投票空間に投票する投票処理を実行する(ステップS61,S62)。投票空間は、平面の法線方向のみを表す2次元空間でも、平面の法線方向と原点との距離を表す3次元空間でもよい。法線方向のみの2次元空間への投票は、法線方向を量子化して、同じ法線方向を有する形状点同士をグルーピングする処理と同等である。
Here, it is assumed that normal direction information of the shape surface is given in advance to each pixel of the distance image that is input data acquired by the
平面検出処理部16は、全ての形状点の投票が終了した後に、投票空間から投票数が極大または閾値以上またはその両方を満たす座標を抽出し、それをパラメータとする平面を検出する(ステップS63)。さらに、平面検出処理部16は、検出された平面から距離が一定以内の形状点またはその平面パラメータに投票した形状点を抽出する(ステップS64)。次に、平面検出処理部16は、形状点同士の隣接情報に基づいて、繋がりのある領域毎に別の平面として分割する(ステップS65)。このようにして、平面検出処理部16は、一定の範囲内の法線方向を有する形状点で構成されて、繋がりのある領域がそれぞれ1枚の平面として検出し、平面パラメータ及び抽出した形状点を出力する(ステップS66)。
After the voting of all the shape points is completed, the plane
以上のように本実施形態によれば、距離画像や表面形状データから、円筒・円錐といったパラメータ数の多い形状を、対象依存の閾値の設定を行うことなく検出できる。また、距離画像中や表面形状データに大きさの異なる複数の球体が存在する場合でも、大きさに依存せず球体を検出できる。また、異なる大きさの球体が同程度の重要度で検出されることで、これを利用して高さによって円半径の異なる円錐を安定して検出できる。さらに、投票するパラメータ空間の次元数を削減することにより、コンピュータ上のソフトウェアによる実装を容易にすることができる。 As described above, according to the present embodiment, a shape having a large number of parameters such as a cylinder and a cone can be detected from a distance image and surface shape data without setting an object-dependent threshold. Even when a plurality of spheres having different sizes exist in the distance image or the surface shape data, the sphere can be detected regardless of the size. In addition, since spheres of different sizes are detected with the same degree of importance, it is possible to stably detect cones having different circular radii depending on the height by using this. Furthermore, by reducing the number of dimensions of the parameter space for voting, it is possible to facilitate implementation by software on a computer.
[応用例]
図8から図10は、実施形態の物体形状装置を応用した物体識別装置を説明するための図である。
[Application example]
8 to 10 are diagrams for explaining an object identification device to which the object shape device of the embodiment is applied.
図9に示すように、物体識別装置は、例えば路側に設置されたラインセンサ等の形状計測装置815に接続している。形状計測装置815は、道路を通行する車両801,802の形状を計測する。車両801は、本体に6個のタイヤ803〜808を装着している。また、車両802も、本体に6個のタイヤ809〜814を装着している。なお、車両801,802はそれぞれ、図10(B)に示すような燃料タンクを装着している。
As shown in FIG. 9, the object identification device is connected to a
図8のフローチャートに示すように、物体識別装置は、形状計測装置815により計測された形状データ(距離画像)を入力データとして入力する(ステップS71)。物体識別装置は、入力データを使用して、実施形態の図3に示すステップS22〜S30の各処理からなる円筒(円柱)・円錐検出処理を実行する(ステップS72〜S80)。
As shown in the flowchart of FIG. 8, the object identification device inputs shape data (distance image) measured by the
即ち、物体識別装置は、平面検出・抽出処理(ステップS72,S73)により、車両801,802のタイヤ及び燃料タンクの平面形状を示す平面検出結果を出力する。また、物体識別装置は、球体検出・抽出処理(ステップS74,S75)により、車両801,802のタイヤ及び燃料タンクの球体形状を示す球体検出結果を出力する。さらに、物体識別装置は、円筒・円錐検出・抽出処理(ステップS77〜S80)により、車両801,802のタイヤ及び燃料タンクの円筒、円錐形状を示す円筒・円錐検出結果を出力する。
That is, the object identification device outputs a plane detection result indicating the plane shapes of the tires and the fuel tanks of the
これらの検出結果を使用して、物体識別装置は、図10(A)〜(C)に示すように、タイヤ901,903及び燃料タンク902のような平面形状、円筒形状で近似できる部分物体形状を検出し、これらの部分物体形状の配置に基づいて車種を判別する車種判別処理を実行する(ステップS81)。物体識別装置は、車種判別処理による車種判別結果を出力する(ステップS82)。
Using these detection results, as shown in FIGS. 10 (A) to 10 (C), the object identification device can obtain a partial object shape that can be approximated by a planar shape or a cylindrical shape such as
以上のようにして、実施形態の物体形状装置を応用した物体識別装置により、道路を通行する車両801,802の車種を判別することが可能となる。なお、物体識別装置は、平面形状や円筒形状以外に、球体、円錐、円錐台で近似できる部分物体形状を含む車種であれば、それらの検出結果も利用して車種判別処理を実行する。
As described above, it is possible to discriminate the vehicle types of the
図11は、実施形態の物体形状装置を応用した植物監視装置を説明するための図である。 FIG. 11 is a diagram for explaining a plant monitoring device to which the object shape device of the embodiment is applied.
図11に示すように、植物監視装置は、例えば車両1004に搭載されており、距離画像入力装置1001と、画像処理装置1002と、情報記録装置1003とを有する。車両1004の移動に応じて、植物監視装置は、果樹園内を移動しながら、果樹1005に生る果実1006を検出する。
As illustrated in FIG. 11, the plant monitoring device is mounted on, for example, a
具体的には、植物監視装置は、距離画像入力装置1001により果実1006を含む範囲の距離画像を撮影する。画像処理装置1002は、実施形態の図3に示すような球体検出・抽出処理(ステップS24,S25)により、球体形状を検出、抽出し、位置・大きさ等を算出する。情報記録装置1003は、画像処理装置1002の処理結果を格納する。
Specifically, the plant monitoring apparatus captures a range image including a
以上のような実施形態の物体形状装置を応用した植物監視装置により、果樹園の果実を検出し、この検出結果を情報記録装置1003に蓄積することができる。従って、情報記録装置1003に蓄積された情報を利用して、果樹園の果実を計数し、果樹園での果実の位置や大きさを推定することが可能となる。また、数年に亘る蓄積の情報を利用して、果樹園での果実の育ち具合や分布などを認識し、早い段階でのその年の作物の出来具合などを予測することも可能となる。
The plant monitoring device to which the object shape device of the embodiment as described above is applied can detect the fruit of the orchard and accumulate the detection result in the
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
10…画像入力装置、11…入力インターフェース、12…表示出力装置、
13…制御部(コントローラ)、14…画像処理部、15…入出力インターフェース、
16…平面検出処理部、17…球体検出・判定処理部、
18…円筒・円錐検出処理部、801,802…車両、815…形状計測装置、
1001…距離画像入力装置、1002…画像処理装置、1003…情報記録装置、
1004…車両。
DESCRIPTION OF
13 ... Control unit (controller), 14 ... Image processing unit, 15 ... Input / output interface,
16... Plane detection processing unit, 17.
18 ... Cylinder / cone detection processing unit, 801,802 ... vehicle, 815 ... shape measuring device,
1001 ... Distance image input device, 1002 ... Image processing device, 1003 ... Information recording device,
1004 ... Vehicle.
Claims (13)
前記入力データから平面形状、球体形状及び各パラメータを検出する検出手段と、
前記検出手段の検出結果を使用して、円筒、円錐、円錐台のいずれかの形状パラメータを算出する円筒・円錐検出手段と
を具備したことを特徴とする物体形状検出装置。 An input means for acquiring input data of an object distance image or surface shape point cloud data;
Detecting means for detecting a planar shape, a spherical shape and each parameter from the input data;
An object shape detection apparatus comprising: a cylinder / cone detection means for calculating a shape parameter of any one of a cylinder, a cone, and a truncated cone using a detection result of the detection means.
前記入力データから平面を検出し、平面のパラメータを算出し、かつ平面を構成する平面形状点を抽出する平面検出手段と、
前記入力データから球体またはその一部を検出し、それらのパラメータを算出し、かつ球体を構成する球体形状点を抽出する球体検出手段と
を含む構成であることを特徴とする請求項1に記載の物体形状検出装置。 The detection means includes
Plane detection means for detecting a plane from the input data, calculating plane parameters, and extracting plane shape points constituting the plane;
2. A sphere detection unit that detects a sphere or a part thereof from the input data, calculates parameters thereof, and extracts a sphere shape point constituting the sphere. Object shape detection device.
平面と球体の一部が共有する形状領域の有無を検出する手段と、
共有する形状領域をもつ平面と球体を一つのグループとして抽出する手段と、
前記グループ内の平面と球体のパラメータ、またはグループ内の平面と球体を構成する画素もしくは形状点、またはその両方を使用して、円筒、円錐、円錐台のいずれかの形状パラメータを算出する手段と
を含む構成であることを特徴とする請求項1又は請求項2のいずれか1項に記載の物体形状検出装置。 The cylinder / cone detection means includes:
Means for detecting the presence or absence of a shape region shared by a plane and a part of a sphere;
Means for extracting a plane and a sphere having a shared shape area as one group;
Means for calculating a shape parameter of any one of a cylinder, a cone, and a truncated cone using a parameter of a plane and a sphere in the group, or a pixel or a shape point constituting the plane and a sphere in the group, or both; The object shape detection apparatus according to claim 1, wherein the object shape detection apparatus is configured to include:
前記形状パラメータを算出した後の後処理として、
前記グループ内の平面と球体が有する形状点を、円筒または円錐を構成する形状点として抽出する手段と、
最小2乗法等の手法により前記形状パラメータを修正して、検出結果と形状位置向き推定結果として出力する手段と
を含む構成であることを特徴とする請求項1から請求項3のいずれか1項に記載の物体形状検出装置。 The cylinder / cone detection means includes:
As post-processing after calculating the shape parameter,
Means for extracting shape points of the plane and sphere in the group as shape points constituting a cylinder or a cone;
4. The structure according to claim 1, further comprising means for correcting the shape parameter by a method such as a least square method and outputting the result as a detection result and a shape position direction estimation result. The object shape detection apparatus described in 1.
前記入力データから検出された球体の一部が、円筒、円錐、円錐台のいずれかの一部であるか否かを判定する手段を含む構成であることを特徴とする請求項2に記載の物体形状検出装置。 The sphere detecting means includes
The structure according to claim 2, further comprising means for determining whether a part of the sphere detected from the input data is a part of a cylinder, a cone, or a truncated cone. Object shape detection device.
前記入力データから検出された球体の一部が、円筒、円錐、円錐台のいずれかの一部であるか否かを、球体の一部に含まれる画素または形状点の表す3次元座標の分布またはその法線方向の分布に基づいて判定する手段を含む構成であることを特徴とする請求項2に記載の物体形状検出装置。 The sphere detecting means includes
Distribution of three-dimensional coordinates representing whether a part of a sphere detected from the input data is a part of a cylinder, a cone, or a truncated cone, and pixels or shape points included in the part of the sphere The object shape detection apparatus according to claim 2, wherein the object shape detection apparatus includes a determination unit based on a distribution in the normal direction.
前記入力データ中の各画素または各形状点が、球体の中心位置を表すパラメータを各軸成分として含む投票空間に投票する投票処理手段と、
前記投票処理手段による投票数の分布に基づいて選出されたパラメータ値で表される球体を検出結果として出力する球体検出手段とを有し、
前記球体検出手段は、
投票元の画素または形状点の表す3次元座標値と、投票先の投票空間の座標が表す3次元座標値との距離に応じて投票する値に重み付け処理を行なうことを特徴とする物体形状検出装置。 An input means for acquiring input data of an object distance image or surface shape point cloud data;
Voting processing means for voting to a voting space in which each pixel or each shape point in the input data includes a parameter representing the center position of a sphere as each axis component;
Sphere detection means for outputting a sphere represented by a parameter value selected based on the distribution of the number of votes by the voting processing means as a detection result;
The sphere detecting means includes
Object shape detection characterized by weighting a value to be voted in accordance with a distance between a three-dimensional coordinate value represented by a voting source pixel or a shape point and a three-dimensional coordinate value represented by a coordinate in a voting destination voting space apparatus.
前記重み付け処理において、投票元の画素または形状点の表す3次元座標値と、投票先の投票空間の座標値が表す3次元座標との距離が大きいほど小さな値を投票するように重み付け処理を行なうことを特徴とする請求項7に記載の物体形状検出装置。 The sphere detecting means includes
In the weighting process, the weighting process is performed so that the smaller the distance between the three-dimensional coordinate value represented by the voting source pixel or the shape point and the three-dimensional coordinate represented by the coordinate value of the voting destination voting space, the smaller the value is voted. The object shape detection apparatus according to claim 7.
球体半径の最小値を設定し、投票元の画素または形状点の表す3次元座標値と、投票先の投票空間の座標が表す3次元座標値との距離が最小値未満である場合には、投票処理を実行しない又は前記重み付け処理で決められた値よりも小さな値を投票することを特徴とする請求項7又は請求項8のいずれか1項に記載の物体形状検出装置。 The sphere detecting means includes
When the minimum value of the sphere radius is set and the distance between the three-dimensional coordinate value represented by the voting source pixel or the shape point and the three-dimensional coordinate value represented by the coordinates of the voting destination voting space is less than the minimum value, 9. The object shape detection apparatus according to claim 7, wherein the voting process is not executed or a value smaller than a value determined by the weighting process is voted.
前記入力データ中の各画素または各形状点が、平面の法線方向を表すパラメータを各軸成分として含む投票空間に投票する投票処理手段と、
前記投票処理手段による投票数の分布に基づいて選出されたパラメータ値で表される平面を検出結果として出力する平面検出手段とを有し、
前記平面検出手段は、
前記検出結果の平面に含まれる画素または形状点の隣接情報に基づいて、繋がりのある領域を一つの平面として抽出することを特徴とする物体形状検出装置。 An input means for acquiring input data of an object distance image or surface shape point cloud data;
Voting processing means for voting to a voting space in which each pixel or each shape point in the input data includes a parameter representing a normal direction of a plane as each axis component;
Plane detection means for outputting a plane represented by a parameter value selected based on the distribution of the number of votes by the voting processing means as a detection result;
The plane detection means includes
An object shape detection apparatus that extracts connected regions as one plane based on adjacent information of pixels or shape points included in the detection result plane.
前記検出結果に基づいて車両の種類を識別する車種判別手段と
を具備したことを特徴とする物体識別装置。 Means for detecting a partial object shape of a vehicle using the object shape detection device according to any one of claims 1 to 6;
An object identification device comprising vehicle type discrimination means for identifying the type of vehicle based on the detection result.
前記検出結果に基づいて植物の識別する情報を格納する情報記憶手段と
を具備したことを特徴とする植物監視装置。 Means for detecting the shape of a plant using the object shape detection device according to any one of claims 7 to 9;
An information storage means for storing information for identifying a plant based on the detection result.
前記入力データから平面形状、球体形状及び各パラメータを検出する処理と、
前記検出手段の検出結果を使用して、円筒、円錐、円錐台のいずれかの形状パラメータを算出する処理と
を具備したことを特徴とする物体形状検出方法。 Processing to obtain input data of an object distance image or surface shape point cloud data;
Processing for detecting a planar shape, a spherical shape, and each parameter from the input data;
And a process of calculating a shape parameter of any one of a cylinder, a cone, and a truncated cone using the detection result of the detection means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010131422A JP2011257244A (en) | 2010-06-08 | 2010-06-08 | Body shape detection device and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010131422A JP2011257244A (en) | 2010-06-08 | 2010-06-08 | Body shape detection device and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011257244A true JP2011257244A (en) | 2011-12-22 |
Family
ID=45473568
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010131422A Withdrawn JP2011257244A (en) | 2010-06-08 | 2010-06-08 | Body shape detection device and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011257244A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103267493A (en) * | 2013-05-10 | 2013-08-28 | 西南科技大学 | Linear array type ultra-large diameter plane optical element surface shape detection device and method |
CN103994735A (en) * | 2013-02-19 | 2014-08-20 | 精工电子有限公司 | Concentricity measuring device, sleeve classifying device, and concentricity measuring method |
CN104898658A (en) * | 2014-03-06 | 2015-09-09 | 丰田自动车株式会社 | Autonomous moving robot and control method thereof |
CN111062988A (en) * | 2019-11-29 | 2020-04-24 | 佛山科学技术学院 | Grape pose estimation method based on local point cloud |
JP2021022198A (en) * | 2019-07-29 | 2021-02-18 | 清水建設株式会社 | System, method, and program for estimating distribution |
-
2010
- 2010-06-08 JP JP2010131422A patent/JP2011257244A/en not_active Withdrawn
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103994735A (en) * | 2013-02-19 | 2014-08-20 | 精工电子有限公司 | Concentricity measuring device, sleeve classifying device, and concentricity measuring method |
JP2014160003A (en) * | 2013-02-19 | 2014-09-04 | Seiko Instruments Inc | Concentricity measuring apparatus, ferrule classification apparatus, concentricity measuring method, concentricity measuring program, and recording medium |
CN103267493A (en) * | 2013-05-10 | 2013-08-28 | 西南科技大学 | Linear array type ultra-large diameter plane optical element surface shape detection device and method |
CN103267493B (en) * | 2013-05-10 | 2016-04-06 | 西南科技大学 | Linear Array Realtime super large caliber surface shape of plane optical component pick-up unit and method |
CN104898658A (en) * | 2014-03-06 | 2015-09-09 | 丰田自动车株式会社 | Autonomous moving robot and control method thereof |
JP2015170127A (en) * | 2014-03-06 | 2015-09-28 | トヨタ自動車株式会社 | Autonomous mobile robot and control method of the same |
JP2021022198A (en) * | 2019-07-29 | 2021-02-18 | 清水建設株式会社 | System, method, and program for estimating distribution |
CN111062988A (en) * | 2019-11-29 | 2020-04-24 | 佛山科学技术学院 | Grape pose estimation method based on local point cloud |
CN111062988B (en) * | 2019-11-29 | 2024-02-13 | 佛山科学技术学院 | Grape pose estimation method based on local point cloud |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110660186B (en) | Method and device for identifying target object in video image based on radar signal | |
CN108845574B (en) | Target identification and tracking method, device, equipment and medium | |
CN108010036B (en) | Object symmetry axis detection method based on RGB-D camera | |
CN111160302A (en) | Obstacle information identification method and device based on automatic driving environment | |
KR101404640B1 (en) | Method and system for image registration | |
JP5258859B2 (en) | Runway estimation apparatus and program | |
CN107993488B (en) | Parking space identification method, system and medium based on fisheye camera | |
JP6397379B2 (en) | CHANGE AREA DETECTION DEVICE, METHOD, AND PROGRAM | |
CN111079518B (en) | Ground-falling abnormal behavior identification method based on law enforcement and case handling area scene | |
CN107609483B (en) | Dangerous target detection method and device for driving assistance system | |
WO2017176112A1 (en) | Spatial data analysis | |
CN113379712A (en) | Steel bridge bolt disease detection method and system based on computer vision | |
CN113970734B (en) | Method, device and equipment for removing snowfall noise points of road side multi-line laser radar | |
JP2011257244A (en) | Body shape detection device and method | |
CN112001226A (en) | Unmanned 3D target detection method and device and storage medium | |
CN104933398A (en) | vehicle identification system and method | |
KR101941878B1 (en) | System for unmanned aircraft image auto geometric correction | |
JP2013030183A (en) | Environment recognition device, and program | |
CN109238281B (en) | Visual navigation and obstacle avoidance method based on image spiral line | |
JP5523298B2 (en) | Target classifier | |
EP3207523B1 (en) | Obstacle detection apparatus and method | |
US20230009925A1 (en) | Object detection method and object detection device | |
US20210090260A1 (en) | Deposit detection device and deposit detection method | |
US11354794B2 (en) | Deposit detection device and deposit detection method | |
KR102547333B1 (en) | Depth Image based Real-time ground detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20130903 |