JP2011257244A - Body shape detection device and method - Google Patents

Body shape detection device and method Download PDF

Info

Publication number
JP2011257244A
JP2011257244A JP2010131422A JP2010131422A JP2011257244A JP 2011257244 A JP2011257244 A JP 2011257244A JP 2010131422 A JP2010131422 A JP 2010131422A JP 2010131422 A JP2010131422 A JP 2010131422A JP 2011257244 A JP2011257244 A JP 2011257244A
Authority
JP
Japan
Prior art keywords
shape
sphere
detection
plane
cone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010131422A
Other languages
Japanese (ja)
Inventor
Yuka Kono
優香 河野
Toshio Sato
俊雄 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2010131422A priority Critical patent/JP2011257244A/en
Publication of JP2011257244A publication Critical patent/JP2011257244A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a method that eliminates the need to set a threshold which does not depend upon the size of a shape and depends upon an object when detecting a shape which is large in number of parameters like a sphere, a cylinder, or a cone from a distance image and surface shape data.SOLUTION: A body shape detection device includes an input device, a detection processing unit, and a cylinder and cone detection unit. The input device acquires input data of distance image or surface shape dot group data of an object. The detection processing unit detects a plane shape, a sphere shape, and respective parameters from the input data. The cylinder and cone detection unit calculates shape parameters of one of a cylinder, a cone and a truncated cone using a detection result of detection means.

Description

本発明の実施形態は、物体の3次元的計測結果から物体形状を検出する技術に関する。   Embodiments described herein relate generally to a technique for detecting an object shape from a three-dimensional measurement result of an object.

従来、画像処理により物体形状を検出する方法として、ハフ変換(Hough transform)を使用する物体形状検出方法がある。この方法は、カメラやレンジファインダにより得られる輝度画像や距離画像から物体の特定形状を検出する。具体的には、各画素がそれぞれ構成し得る形状のパラメータ値に投票し、投票数の多いパラメータ値を、検出された形状のパラメータ値とする方法である。   Conventionally, as a method for detecting an object shape by image processing, there is an object shape detection method using a Hough transform. In this method, a specific shape of an object is detected from a luminance image or a distance image obtained by a camera or a range finder. Specifically, this is a method of voting on parameter values of shapes that can be configured by each pixel, and setting parameter values having a large number of votes as parameter values of detected shapes.

具体例として、例えば距離画像から平面形状を検出する場合に、平面の法線方向を決定する2パラメータと、平面と原点との距離の計3個のパラメータで平面形状を定義する。各画素がその座標を通る全ての平面のパラメータ値に対応する3次元の投票空間中の座標に投票し、投票数の多い座標のパラメータ値で表される平面形状を検出する。   As a specific example, for example, when a planar shape is detected from a distance image, the planar shape is defined by a total of three parameters: two parameters for determining the normal direction of the plane and the distance between the plane and the origin. Each pixel votes for the coordinates in the three-dimensional voting space corresponding to the parameter values of all the planes passing through the coordinates, and detects the planar shape represented by the parameter values of the coordinates having the largest number of votes.

電子情報通信学会技術研究報告、104巻、489号(MVE2004 40-49)、27-32頁、山本国士,中澤篤志,清川清,竹村治雄、ハフ変換と期待値最大化法による距離画像からの二次曲面モデルのパラメータ推定IEICE Technical Report, Vol. 104, No. 489 (MVE2004 40-49), pp. 27-32, Kunishi Yamamoto, Atsushi Nakazawa, Kiyoshi Kiyokawa, Haruo Takemura, Hough transform and expected value maximization Parameter estimation of quadratic surface model

従来の物体形状検出方法により、円筒や円錐のようにパラメータ数が多い形状を検出する場合、投票するパラメータ空間の次元数が高くなるために、コンピュータ上にソフトウェアで実装することが困難である。この解決策として、投票及び検出処理を複数段階に分割して、一度に求めるパラメータ数を抑制することにより、少ない次元数の投票空間を使って形状を検出する方法がある。   When a shape having a large number of parameters such as a cylinder or a cone is detected by a conventional object shape detection method, the number of dimensions of the parameter space for voting becomes high, so that it is difficult to implement the software on a computer. As a solution to this, there is a method of detecting a shape using a voting space having a small number of dimensions by dividing voting and detection processing into a plurality of stages and suppressing the number of parameters required at a time.

この方法は、ハフ変換により円筒と円錐を検出するために、まず球体中心を検出し、その投票数をあらかじめ定められた閾値と比較して、球体であるか円筒と円錐の一部であるかを判定する。即ち、距離画像の解像度や画像中における対象物体の大きさによって適切な判定閾値、二値化閾値を設定する必要がある。また、投票による検出方法では、入力される距離画像中に大きさの異なる複数の形状が現れる場合に、表面積が大きいほど多くの画素からの投票数が入るため、大きな物体ほど検出されやすい傾向がある。   In this method, in order to detect a cylinder and a cone by the Hough transform, first, the center of the sphere is detected, and the number of votes is compared with a predetermined threshold value to determine whether it is a sphere or a part of a cylinder and a cone. Determine. That is, it is necessary to set an appropriate determination threshold value and binarization threshold value depending on the resolution of the distance image and the size of the target object in the image. In addition, in the detection method by voting, when a plurality of shapes having different sizes appear in the input distance image, the larger the surface area, the larger the number of votes from pixels, so that larger objects tend to be detected more easily. is there.

そこで、距離画像や表面形状データから、球体、円筒、円錐のようなパラメータ数の多い形状を検出する場合に、形状の大きさに依存せず、かつ対象依存の閾値設定を必要としない方法を実現するという課題がある。   Therefore, when detecting shapes with a large number of parameters such as spheres, cylinders, and cones from distance images and surface shape data, a method that does not depend on the size of the shape and does not require target-dependent threshold setting. There is a problem of realizing.

本実施形態によれば、物体形状検出装置は、入力手段と、検出手段と、円筒・円錐検出手段とを有する。入力手段は、物体の距離画像または表面形状点群データの入力データを取得する。検出手段は、前記入力データから平面形状、球体形状及び各パラメータを検出する。円筒・円錐検出手段は、前記検出手段の検出結果を使用して、円筒、円錐、円錐台のいずれかの形状パラメータを算出する。   According to the present embodiment, the object shape detection apparatus includes an input unit, a detection unit, and a cylinder / cone detection unit. The input unit obtains input data of a distance image of the object or surface shape point cloud data. The detecting means detects a planar shape, a spherical shape, and each parameter from the input data. The cylinder / cone detection means calculates a shape parameter of any one of the cylinder, the cone, and the truncated cone using the detection result of the detection means.

実施形態に関する物体形状検出装置の構成を説明するためのブロック図。The block diagram for demonstrating the structure of the object shape detection apparatus regarding embodiment. 実施形態に関する円筒・円錐検出処理の概略的説明を行なうためのフローチャート。The flowchart for performing the rough description of the cylinder and cone detection process regarding embodiment. 実施形態に関する円筒・円錐検出処理を説明するためのフローチャート。The flowchart for demonstrating the cylinder and cone detection process regarding embodiment. 実施形態に関する球体検出処理を説明するためのフローチャート。The flowchart for demonstrating the spherical body detection process regarding embodiment. 実施形態に関する投票処理方法を説明するための図。The figure for demonstrating the voting processing method regarding embodiment. 実施形態に関する球体判定方法を説明するためのフローチャート。The flowchart for demonstrating the spherical body determination method regarding embodiment. 実施形態に関する平面検出処理を説明するためのフローチャート。The flowchart for demonstrating the plane detection process regarding embodiment. 実施形態の応用例に関する物体識別装置の動作を説明するためのフローチャート。The flowchart for demonstrating operation | movement of the object identification apparatus regarding the application example of embodiment. 実施形態の応用例に関する物体識別装置の構成を説明するための図。The figure for demonstrating the structure of the object identification apparatus regarding the application example of embodiment. 実施形態の応用例に関する物体識別装置の検出結果を示す図。The figure which shows the detection result of the object identification apparatus regarding the application example of embodiment. 実施形態の応用例に関する果実検出装置の構成を説明するための図。The figure for demonstrating the structure of the fruit detection apparatus regarding the application example of embodiment.

以下図面を参照して、実施形態を説明する。   Embodiments will be described below with reference to the drawings.

[物体形状検出装置の構成]
図1は、実施形態に関する物体形状検出装置の構成を説明するためのブロック図である。
[Configuration of Object Shape Detection Device]
FIG. 1 is a block diagram for explaining a configuration of an object shape detection apparatus according to the embodiment.

図1に示すように、物体形状検出装置は、画像入力装置10と、入力インターフェース11と、表示出力装置12と、制御部(コントローラ)13と、画像処理部14とを有する。   As illustrated in FIG. 1, the object shape detection apparatus includes an image input device 10, an input interface 11, a display output device 12, a control unit (controller) 13, and an image processing unit 14.

画像入力装置10は、例えばステレオカメラやレンジファインダからなり、検出対象の物体の距離画像を取得する。入力インターフェース11は、画像入力装置10により入力された距離画像を画像処理部14に転送する。コントローラ13は装置全体の制御を実行し、特に画像処理部14から出力される処理結果(認識結果)を入力し、表示出力装置12の画面上に表示するように制御する。   The image input device 10 includes, for example, a stereo camera or a range finder, and acquires a distance image of an object to be detected. The input interface 11 transfers the distance image input by the image input device 10 to the image processing unit 14. The controller 13 controls the entire apparatus, and in particular, inputs a processing result (recognition result) output from the image processing unit 14 and controls the display output apparatus 12 to display it on the screen.

画像処理部14は、入出力インターフェース15と、平面検出処理部16と、球体検出・判定処理部17と、円筒・円錐検出処理部18とを有する。入出力インターフェース15は、入力インターフェース11から転送された距離画像を、平面検出処理部16、球体検出・判定処理部17、及び円筒・円錐検出処理部18のそれぞれに提供する。   The image processing unit 14 includes an input / output interface 15, a plane detection processing unit 16, a sphere detection / determination processing unit 17, and a cylinder / cone detection processing unit 18. The input / output interface 15 provides the distance image transferred from the input interface 11 to each of the plane detection processing unit 16, the sphere detection / determination processing unit 17, and the cylinder / cone detection processing unit 18.

平面検出処理部16は、距離画像に基づいて物体の平面形状の検出、抽出、位置向き推定の処理を実行する。球体検出・判定処理部17は、距離画像に基づいて物体の球体形状の検出、抽出、位置向き推定の処理を実行する。円筒・円錐検出処理部18は、距離画像に基づいて物体の円筒・円錐形状の検出、抽出、位置向き推定の処理を実行する。   The plane detection processing unit 16 performs processing for detecting, extracting, and estimating the position and orientation of the plane shape of the object based on the distance image. The sphere detection / determination processing unit 17 executes processing for detecting, extracting, and estimating the position and orientation of the sphere of the object based on the distance image. The cylinder / cone detection processing unit 18 executes processing for detecting, extracting, and estimating the position / orientation of the cylinder / cone shape of the object based on the distance image.

[物体形状検出装置の動作]
以下、図2から図7のフローチャートを参照して、実施形態の物体形状検出装置の動作を説明する。
[Operation of object shape detection device]
The operation of the object shape detection apparatus according to the embodiment will be described below with reference to the flowcharts of FIGS.

まず、図2のフローチャートを参照して、本実施形態に関する円筒(円柱)・円錐検出処理の概略を説明する。   First, the outline of the cylinder (column) / cone detection process according to the present embodiment will be described with reference to the flowchart of FIG.

円筒(円柱)、円錐(円錐台を含む)は、形状を表すパラメータがそれぞれ5個、6個である。このため、直接ハフ変換により求めることはほぼ不可能である。そこで、本実施形態の画像処理部14は、円筒、円錐上に多数の平面や球体が検出されることを利用して、平面と球体の分布を利用して検出する。   The cylinder (column) and the cone (including the truncated cone) have 5 and 6 parameters representing the shape, respectively. For this reason, it is almost impossible to obtain directly by the Hough transform. Therefore, the image processing unit 14 according to the present embodiment uses the fact that a large number of planes and spheres are detected on a cylinder and a cone, and detects the plane and the distribution of the spheres.

円筒や円錐上の頂点が球体の一部として検出される場合、それらの頂点はそれぞれの球体上で、円筒・円錐の軸の周りに帯状に分布する。一方、これらの頂点が平面として検出される場合、平面は軸に沿って細長い帯状の形状になる。即ち、球体と平面のそれぞれ帯状の頂点群が直交するような形になるため、これらの組み合わせによって円筒・円錐の検出を行なう。   When vertices on a cylinder or cone are detected as part of a sphere, the vertices are distributed in a band around the axis of the cylinder / cone on each sphere. On the other hand, when these vertices are detected as a plane, the plane has an elongated strip shape along the axis. That is, since the belt-like vertex groups of the sphere and the plane are orthogonal to each other, the cylinder / cone is detected by combining them.

画像処理部14では、平面検出処理部16及び球体検出・判定処理部17はそれぞれ、入力データから平面と球体を検出する(ステップS1〜S3)。ここで、入力データは、物体表面の形状を点群で表す点群データとし、距離画像から生成される。さらに、球体検出・判定処理部17は、球体上での頂点の分布に基づいて、円筒・円錐の一部と球体に分類する球体情報の取得と分類処理を実行する(ステップS4)。円筒・円錐検出処理部18は、円筒・円錐の一部として分類された球体と平面を使用して、互いに共有する頂点があるものを纏めて円筒・円錐として検出する(ステップS5)。さらに、円筒・円錐検出処理部18は、球体中心の並びと半径から円筒・円錐のパラメータを算出する(ステップS6)。円筒・円錐検出処理部18は、互いに共有する頂点が無い場合には、平面のパラメータを算出する(ステップS7)。また、球体検出・判定処理部17は、球体のパラメータを算出する(ステップS8)。   In the image processing unit 14, the plane detection processing unit 16 and the sphere detection / determination processing unit 17 each detect a plane and a sphere from the input data (steps S1 to S3). Here, the input data is point cloud data representing the shape of the object surface as a point cloud, and is generated from the distance image. Further, the sphere detection / determination processing unit 17 acquires and classifies sphere information to be classified into a part of a cylinder / cone and a sphere based on the distribution of vertices on the sphere (step S4). The cylinder / cone detection processing unit 18 uses a sphere and a plane classified as a part of the cylinder / cone, and collectively detects those having vertices shared with each other (step S5). Further, the cylinder / cone detection processing unit 18 calculates the parameters of the cylinder / cone from the arrangement and radius of the sphere centers (step S6). If there are no vertices shared by each other, the cylinder / cone detection processing unit 18 calculates a plane parameter (step S7). In addition, the sphere detection / determination processing unit 17 calculates sphere parameters (step S8).

更に、図3のフローチャートを参照して、本実施形態に関する円筒(円柱)・円錐検出処理を具体的に説明する。   Furthermore, with reference to the flowchart of FIG. 3, the cylinder (column) / cone detection processing according to the present embodiment will be described in detail.

画像処理部14は、入出力インターフェース15により、画像入力装置10で取得された距離画像を入力データとして入力する(ステップS21)。平面検出処理部16は、入力データから平面を検出し、平面のパラメータを算出(推定)する(ステップS22)。これにより、平面検出処理部16は、入力データから平面を構成する平面形状点を抽出する(ステップS23)。   The image processing unit 14 inputs the distance image acquired by the image input device 10 through the input / output interface 15 as input data (step S21). The plane detection processing unit 16 detects a plane from the input data and calculates (estimates) the plane parameter (step S22). Thereby, the plane detection processing unit 16 extracts plane shape points constituting the plane from the input data (step S23).

この処理と並行して、球体検出・判定処理部17は、入力データから球体またはその一部を検出し、それらのパラメータを算出(推定)する(ステップS24)。これにより、球体検出・判定処理部17は、球体を構成する球体形状点を抽出する(ステップS25)。さらに、球体検出・判定処理部17は、検出した球体それぞれについて、円筒または円錐の一部であるか否かを判定する(ステップS26)。球体検出・判定処理部17は、検出した球体が円筒または円錐の一部で無いと判定した場合には、後述する球体の検出処理またはノイズの判定処理に移行する。   In parallel with this process, the sphere detection / determination processing unit 17 detects the sphere or a part thereof from the input data, and calculates (estimates) those parameters (step S24). Thereby, the sphere detection / determination processing unit 17 extracts sphere shape points constituting the sphere (step S25). Furthermore, the sphere detection / determination processing unit 17 determines whether each detected sphere is a cylinder or a part of a cone (step S26). When the sphere detection / determination processing unit 17 determines that the detected sphere is not a part of a cylinder or a cone, the sphere detection / determination processing unit 17 proceeds to a sphere detection process or a noise determination process described later.

画像処理部14は、平面及び球体の検出、それぞれのパラメータの算出、及び平面形状点と球体形状点の抽出の第1段階の処理後に、次の第2段階の処理に移行する。即ち、円筒・円錐検出処理部18は、第1段階の処理により取得したパラメータや形状点を使用して、円筒(円柱)及び円錐(円錐台を含む)を検出し、そのパラメータを算出(推定)する(ステップS27,S28)。   The image processing unit 14 proceeds to the next second stage process after the first stage process of detecting the plane and the sphere, calculating the respective parameters, and extracting the plane shape point and the sphere shape point. In other words, the cylinder / cone detection processing unit 18 detects a cylinder (column) and a cone (including a truncated cone) using the parameters and shape points acquired by the first stage process, and calculates (estimates) the parameters. (Steps S27 and S28).

即ち、円筒・円錐検出処理部18は、平面と球体について形状点の共有(重複)を検出し、重複のある平面と球体の纏まりを一つのグループとして設定する。例えば、平面A、平面B、平面Cと、球体a、球体b、球体cがある場合に、平面Aと球体a、平面Bと球体a、平面Cと球体b、平面Cと球体cのそれぞれが形状点を共有する場合、平面A、平面B、球体aを一つのグループとして設定し、かつ平面C、球体b、球体cを別のグループとして設定する。   That is, the cylinder / cone detection processing unit 18 detects sharing (overlap) of shape points for the plane and the sphere, and sets a group of planes and spheres with overlap as one group. For example, when there are plane A, plane B, plane C, and sphere a, sphere b, and sphere c, plane A and sphere a, plane B and sphere a, plane C and sphere b, plane C and sphere c, respectively When the shape points are shared, plane A, plane B, and sphere a are set as one group, and plane C, sphere b, and sphere c are set as another group.

次に、円筒・円錐検出処理部18は、グループ内の平面と球体のパラメータを使用して、円筒、円錐、円錐台のいずれかの形状パラメータを算出する。さらに後処理として、円筒・円錐検出処理部18は、グループ内の平面と球体が有する形状点を、円筒または円錐を構成する形状点として抽出する(ステップS29)。さらに、円筒・円錐検出処理部18は、最小2乗法等の手法により形状パラメータを修正し、検出結果と形状位置向き推定結果として出力する(ステップS30,S31)。   Next, the cylinder / cone detection processing unit 18 calculates a shape parameter of any of a cylinder, a cone, and a truncated cone using the plane and sphere parameters in the group. Further, as post-processing, the cylinder / cone detection processing unit 18 extracts the shape points of the plane and the sphere in the group as shape points constituting the cylinder or the cone (step S29). Further, the cylinder / cone detection processing unit 18 corrects the shape parameter by a method such as a least square method and outputs the result as a detection result and a shape position / orientation estimation result (steps S30 and S31).

次に、図4のフローチャート及び図5を参照して、球体検出・判定処理部17での球体検出処理(ステップS24,S25の処理)を具体的に説明する。   Next, the sphere detection processing (steps S24 and S25) in the sphere detection / determination processing unit 17 will be specifically described with reference to the flowchart of FIG. 4 and FIG.

ここで、画像入力装置10で取得される入力データである距離画像の各画素には、予め形状表面の法線方向情報が付与されているものとする。球体検出・判定処理部17は、距離画像を入力データとして入力すると、距離画像の各画素が3次元空間中の球体中心座標で構成される投票空間に投票する投票処理を実行する(ステップS41,S42)。   Here, it is assumed that normal direction information of the shape surface is given in advance to each pixel of the distance image that is input data acquired by the image input device 10. When the sphere detection / determination processing unit 17 inputs the distance image as input data, the sphere detection / determination processing unit 17 executes a voting process in which each pixel of the distance image votes for a voting space formed by the sphere center coordinates in the three-dimensional space (Step S41, S42).

図5(A),(B)は、投票処理方法を説明するための図である。図5(A),(B)に示すように、各画素が表す表面形状上の形状点401は、その法線方向402と逆方向の位置403を表す投票空間の各座標位置に投票される。全ての形状点401の投票が終了した後、球体の中心位置404は、他と比べて投票数が多くなる。   FIGS. 5A and 5B are diagrams for explaining a voting processing method. As shown in FIGS. 5A and 5B, the shape point 401 on the surface shape represented by each pixel is voted for each coordinate position in the voting space representing the position 403 in the direction opposite to the normal direction 402 thereof. . After voting for all the shape points 401 is completed, the sphere center position 404 has more votes than others.

球体検出・判定処理部17は、投票数が例えば最大値、極大値、閾値以上である座標を抽出し、この座標を検出された球体の中心位置404と設定する(ステップS43)。次に、球体検出・判定処理部17は、球体中心位置404の周辺の形状点または中心位置404に投票した形状点の分布から球体の半径を推定する(ステップS44)。この半径推定方法としては、例えば球体中心と形状点との距離のヒストグラムからピークを検出する方法を利用する。   The sphere detection / judgment processing unit 17 extracts the coordinates where the number of votes is, for example, the maximum value, the maximum value, or the threshold value and sets the coordinates as the detected sphere center position 404 (step S43). Next, the sphere detection / determination processing unit 17 estimates the radius of the sphere from the shape points around the sphere center position 404 or the distribution of the shape points voted for the center position 404 (step S44). As the radius estimation method, for example, a method of detecting a peak from a histogram of the distance between the sphere center and the shape point is used.

次に、球体検出・判定処理部17は、パラメータ推定された球体を構成する球体形状点を抽出する(ステップS45)。さらに、球体検出・判定処理部17は、最小2乗法などの手法を用いて球体パラメータを修正し、修正した球体パラメータとそれを構成する球体形状点を出力する(ステップS46,S47)。   Next, the sphere detection / determination processing unit 17 extracts the sphere shape points constituting the sphere whose parameters are estimated (step S45). Furthermore, the sphere detection / determination processing unit 17 corrects the sphere parameter using a method such as a least square method, and outputs the corrected sphere parameter and the sphere shape points constituting the sphere parameter (steps S46 and S47).

ここで、球体検出・判定処理部17の投票処理方法において、入力データである同じ距離画像中に、図5(A),(B)に示すように、相対的に大きい球体406と小さい球体407のように大きさの異なる複数の球体が存在する場合がある。大きい球体406は、小さい球体407と比較して多くの形状点401で構成されている。このため、各形状点401が投票空間に等しい重みで投票されると、大きい球体406の中心位置404の方が、投票数は多くなる。   Here, in the voting processing method of the sphere detection / determination processing unit 17, a relatively large sphere 406 and a small sphere 407 are included in the same distance image as input data, as shown in FIGS. There may be a plurality of spheres having different sizes. The large sphere 406 is composed of more shape points 401 than the small sphere 407. For this reason, when each shape point 401 is voted with a weight equal to the voting space, the number of votes is larger at the center position 404 of the large sphere 406.

従って、投票元の形状点と投票先の投票空間中の座標との距離に応じて投票の重み付けをすることで、球体の大きさによらず同程度の投票数を取得することができる。具体的には、形状点401から遠いほど小さい重みで投票することで、半径(球体中心と表面形状との距離)が大きい球体406は、多くの形状点401から少しずつ投票される。一方、半径の小さい球体407は、少ない形状点401から大きい投票数を得る。このようにして、投票数に影響を及ぼすのは球体の見えている面積ではなく、球体の見えている部分の割合となる。   Therefore, by assigning voting weights according to the distance between the shape point of the voting source and the coordinates in the voting space of the voting destination, the same number of votes can be acquired regardless of the size of the sphere. Specifically, the sphere 406 having a larger radius (distance between the sphere center and the surface shape) is voted little by little from the many shape points 401 by voting with a smaller weight as the distance from the shape point 401 increases. On the other hand, the sphere 407 with a small radius obtains a large number of votes from a small shape point 401. In this way, it is not the area where the sphere is visible that affects the number of votes, but the proportion of the part where the sphere is visible.

次に、図6のフローチャートを参照して、球体検出・判定処理部17での球体判定処理(ステップS26の処理)を具体的に説明する。   Next, with reference to the flowchart of FIG. 6, the sphere determination process (the process of step S26) in the sphere detection / determination processing unit 17 will be specifically described.

球体検出・判定処理部17は、球体検出処理(ステップS24)により得られる球体パラメータ及び球体形状点抽出処理(ステップS25)により得られる球体形状点群を入力する(ステップS51)。球体検出・判定処理部17は、入力された形状点群を使用し、最小2乗法により近似平面の法線方向を算出する(ステップS52)。球体が円筒や円錐の一部である場合、球体形状点群の分布は、主軸上の1点を中心とした円上に分布するので、法線方向は主軸とほぼ等しい方向となる。   The sphere detection / determination processing unit 17 inputs a sphere parameter obtained by the sphere detection process (step S24) and a sphere shape point group obtained by the sphere shape point extraction process (step S25) (step S51). The sphere detection / determination processing unit 17 calculates the normal direction of the approximate plane by the least square method using the input shape point group (step S52). When the sphere is a part of a cylinder or a cone, the distribution of the sphere-shaped point group is distributed on a circle centered on one point on the main axis, so that the normal direction is almost equal to the main axis.

次に、球体検出・判定処理部17は、各球体形状点の法線方向と求めた近似平面の法線方向とを比較し、その成す角の分布を求める(ステップS53)。即ち、球体検出・判定処理部17は、成す角の平均と分散を算出する。球体が円筒や円錐の一部であれば、球体形状点の法線方向は、主軸からほぼ等しい角度差で放射状に分布する。   Next, the sphere detection / determination processing unit 17 compares the normal direction of each sphere shape point with the obtained normal direction of the approximate plane, and obtains the distribution of angles formed by the normal direction (step S53). That is, the sphere detection / determination processing unit 17 calculates the average and variance of the formed angles. If the sphere is a part of a cylinder or a cone, the normal direction of the sphere shape point is distributed radially with an almost equal angular difference from the main axis.

そこで、球体検出・判定処理部17は、成す角の分散が閾値未満の場合には、円筒または円錐の一部であると判定する(ステップS54のNO)。一方、球体検出・判定処理部17は、成す角の分散が閾値以上の場合には球体単体と判定する(ステップS54のYES,S56)。   Accordingly, when the variance of the formed angles is less than the threshold value, the sphere detection / determination processing unit 17 determines that it is a part of a cylinder or a cone (NO in step S54). On the other hand, the sphere detection / determination processing unit 17 determines that the sphere is a single sphere when the variance of the formed angles is equal to or greater than the threshold (YES in step S54, S56).

一方、球体検出・判定処理部17は、円筒または円錐の一部であると判定した場合に、成す角の平均が直交に近い場合には、円筒であると判定する(ステップS55のYES,S57)。これは、円筒の場合は、全ての法線方向が主軸とほぼ直交するのに対し、円錐の場合は偏りができる。従って、球体検出・判定処理部17は、成す角の平均が直交ではない場合に、円錐と判定する(ステップS55のNO,S58)。但し、円筒または円錐の判定処理は、その後の処理で必ずしも必要ではないため省略可能である。   On the other hand, when the sphere detection / determination processing unit 17 determines that the cylinder is a part of a cylinder or a cone, the sphere detection / determination processing unit 17 determines that the cylinder is a cylinder if the average angle formed is nearly orthogonal (YES in step S55, S57). ). In the case of a cylinder, all normal directions are almost perpendicular to the main axis, whereas in the case of a cone, it can be biased. Therefore, the sphere detection / determination processing unit 17 determines that the cone is a cone when the average angle formed is not orthogonal (NO in step S55, S58). However, the cylindrical or conical determination process can be omitted because it is not always necessary in the subsequent processes.

次に、図7のフローチャートを参照して、平面検出処理部16での平面検出処理(ステップS22)と平面形状点抽出処理(ステップS23)を具体的に説明する。   Next, with reference to the flowchart of FIG. 7, the plane detection process (step S22) and the plane shape point extraction process (step S23) in the plane detection processing unit 16 will be specifically described.

ここで、画像入力装置10で取得される入力データである距離画像の各画素には、予め形状表面の法線方向情報が付与されているものとする。平面検出処理部16は、距離画像を入力データとして入力すると、距離画像の各画素がその法線方向に基づいて、平面の法線方向を表すパラメータを各軸成分とする投票空間に投票する投票処理を実行する(ステップS61,S62)。投票空間は、平面の法線方向のみを表す2次元空間でも、平面の法線方向と原点との距離を表す3次元空間でもよい。法線方向のみの2次元空間への投票は、法線方向を量子化して、同じ法線方向を有する形状点同士をグルーピングする処理と同等である。   Here, it is assumed that normal direction information of the shape surface is given in advance to each pixel of the distance image that is input data acquired by the image input device 10. When the plane detection processing unit 16 inputs a distance image as input data, each pixel of the distance image votes based on the normal direction to vote in a voting space having parameters representing the normal direction of the plane as axis components. Processing is executed (steps S61 and S62). The voting space may be a two-dimensional space that represents only the normal direction of the plane or a three-dimensional space that represents the distance between the normal direction of the plane and the origin. Voting to the two-dimensional space of only the normal direction is equivalent to a process of quantizing the normal direction and grouping shape points having the same normal direction.

平面検出処理部16は、全ての形状点の投票が終了した後に、投票空間から投票数が極大または閾値以上またはその両方を満たす座標を抽出し、それをパラメータとする平面を検出する(ステップS63)。さらに、平面検出処理部16は、検出された平面から距離が一定以内の形状点またはその平面パラメータに投票した形状点を抽出する(ステップS64)。次に、平面検出処理部16は、形状点同士の隣接情報に基づいて、繋がりのある領域毎に別の平面として分割する(ステップS65)。このようにして、平面検出処理部16は、一定の範囲内の法線方向を有する形状点で構成されて、繋がりのある領域がそれぞれ1枚の平面として検出し、平面パラメータ及び抽出した形状点を出力する(ステップS66)。   After the voting of all the shape points is completed, the plane detection processing unit 16 extracts coordinates that satisfy the maximum or the threshold value or both from the voting space, and detects a plane using the coordinates as parameters (step S63). ). Further, the plane detection processing unit 16 extracts a shape point whose distance is within a certain distance from the detected plane or a shape point voted for its plane parameter (step S64). Next, the plane detection processing unit 16 divides each connected area as another plane based on the adjacent information between the shape points (step S65). In this way, the plane detection processing unit 16 is configured with shape points having normal directions within a certain range, each connected region is detected as one plane, and the plane parameters and the extracted shape points are detected. Is output (step S66).

以上のように本実施形態によれば、距離画像や表面形状データから、円筒・円錐といったパラメータ数の多い形状を、対象依存の閾値の設定を行うことなく検出できる。また、距離画像中や表面形状データに大きさの異なる複数の球体が存在する場合でも、大きさに依存せず球体を検出できる。また、異なる大きさの球体が同程度の重要度で検出されることで、これを利用して高さによって円半径の異なる円錐を安定して検出できる。さらに、投票するパラメータ空間の次元数を削減することにより、コンピュータ上のソフトウェアによる実装を容易にすることができる。   As described above, according to the present embodiment, a shape having a large number of parameters such as a cylinder and a cone can be detected from a distance image and surface shape data without setting an object-dependent threshold. Even when a plurality of spheres having different sizes exist in the distance image or the surface shape data, the sphere can be detected regardless of the size. In addition, since spheres of different sizes are detected with the same degree of importance, it is possible to stably detect cones having different circular radii depending on the height by using this. Furthermore, by reducing the number of dimensions of the parameter space for voting, it is possible to facilitate implementation by software on a computer.

[応用例]
図8から図10は、実施形態の物体形状装置を応用した物体識別装置を説明するための図である。
[Application example]
8 to 10 are diagrams for explaining an object identification device to which the object shape device of the embodiment is applied.

図9に示すように、物体識別装置は、例えば路側に設置されたラインセンサ等の形状計測装置815に接続している。形状計測装置815は、道路を通行する車両801,802の形状を計測する。車両801は、本体に6個のタイヤ803〜808を装着している。また、車両802も、本体に6個のタイヤ809〜814を装着している。なお、車両801,802はそれぞれ、図10(B)に示すような燃料タンクを装着している。   As shown in FIG. 9, the object identification device is connected to a shape measuring device 815 such as a line sensor installed on the road side, for example. The shape measuring device 815 measures the shape of the vehicles 801 and 802 passing through the road. The vehicle 801 has six tires 803 to 808 attached to the main body. The vehicle 802 also has six tires 809 to 814 attached to the main body. Each of the vehicles 801 and 802 is equipped with a fuel tank as shown in FIG.

図8のフローチャートに示すように、物体識別装置は、形状計測装置815により計測された形状データ(距離画像)を入力データとして入力する(ステップS71)。物体識別装置は、入力データを使用して、実施形態の図3に示すステップS22〜S30の各処理からなる円筒(円柱)・円錐検出処理を実行する(ステップS72〜S80)。   As shown in the flowchart of FIG. 8, the object identification device inputs shape data (distance image) measured by the shape measurement device 815 as input data (step S71). The object identification device uses the input data to execute a cylinder (column) / cone detection process including steps S22 to S30 shown in FIG. 3 of the embodiment (steps S72 to S80).

即ち、物体識別装置は、平面検出・抽出処理(ステップS72,S73)により、車両801,802のタイヤ及び燃料タンクの平面形状を示す平面検出結果を出力する。また、物体識別装置は、球体検出・抽出処理(ステップS74,S75)により、車両801,802のタイヤ及び燃料タンクの球体形状を示す球体検出結果を出力する。さらに、物体識別装置は、円筒・円錐検出・抽出処理(ステップS77〜S80)により、車両801,802のタイヤ及び燃料タンクの円筒、円錐形状を示す円筒・円錐検出結果を出力する。   That is, the object identification device outputs a plane detection result indicating the plane shapes of the tires and the fuel tanks of the vehicles 801 and 802 by plane detection / extraction processing (steps S72 and S73). Further, the object identification device outputs a sphere detection result indicating the sphere shape of the tires and fuel tanks of the vehicles 801 and 802 by the sphere detection / extraction process (steps S74 and S75). Further, the object identification device outputs a cylinder / cone detection result indicating the cylinder and cone shape of the tires and fuel tanks of the vehicles 801 and 802 by the cylinder / cone detection / extraction process (steps S77 to S80).

これらの検出結果を使用して、物体識別装置は、図10(A)〜(C)に示すように、タイヤ901,903及び燃料タンク902のような平面形状、円筒形状で近似できる部分物体形状を検出し、これらの部分物体形状の配置に基づいて車種を判別する車種判別処理を実行する(ステップS81)。物体識別装置は、車種判別処理による車種判別結果を出力する(ステップS82)。   Using these detection results, as shown in FIGS. 10 (A) to 10 (C), the object identification device can obtain a partial object shape that can be approximated by a planar shape or a cylindrical shape such as tires 901 and 903 and a fuel tank 902. Is detected, and a vehicle type determination process for determining the vehicle type based on the arrangement of these partial object shapes is executed (step S81). The object identification device outputs a vehicle type discrimination result by the vehicle type discrimination process (step S82).

以上のようにして、実施形態の物体形状装置を応用した物体識別装置により、道路を通行する車両801,802の車種を判別することが可能となる。なお、物体識別装置は、平面形状や円筒形状以外に、球体、円錐、円錐台で近似できる部分物体形状を含む車種であれば、それらの検出結果も利用して車種判別処理を実行する。   As described above, it is possible to discriminate the vehicle types of the vehicles 801 and 802 passing through the road by the object identification device to which the object shape device of the embodiment is applied. In addition to the planar shape and the cylindrical shape, the object identification device executes a vehicle type determination process using a detection result of a vehicle type that includes a partial object shape that can be approximated by a sphere, a cone, or a truncated cone.

図11は、実施形態の物体形状装置を応用した植物監視装置を説明するための図である。   FIG. 11 is a diagram for explaining a plant monitoring device to which the object shape device of the embodiment is applied.

図11に示すように、植物監視装置は、例えば車両1004に搭載されており、距離画像入力装置1001と、画像処理装置1002と、情報記録装置1003とを有する。車両1004の移動に応じて、植物監視装置は、果樹園内を移動しながら、果樹1005に生る果実1006を検出する。   As illustrated in FIG. 11, the plant monitoring device is mounted on, for example, a vehicle 1004 and includes a distance image input device 1001, an image processing device 1002, and an information recording device 1003. According to the movement of the vehicle 1004, the plant monitoring device detects the fruit 1006 that grows in the fruit tree 1005 while moving in the orchard.

具体的には、植物監視装置は、距離画像入力装置1001により果実1006を含む範囲の距離画像を撮影する。画像処理装置1002は、実施形態の図3に示すような球体検出・抽出処理(ステップS24,S25)により、球体形状を検出、抽出し、位置・大きさ等を算出する。情報記録装置1003は、画像処理装置1002の処理結果を格納する。   Specifically, the plant monitoring apparatus captures a range image including a fruit 1006 using the range image input device 1001. The image processing apparatus 1002 detects and extracts a sphere shape and calculates a position / size and the like by a sphere detection / extraction process (steps S24 and S25) as shown in FIG. 3 of the embodiment. The information recording device 1003 stores the processing result of the image processing device 1002.

以上のような実施形態の物体形状装置を応用した植物監視装置により、果樹園の果実を検出し、この検出結果を情報記録装置1003に蓄積することができる。従って、情報記録装置1003に蓄積された情報を利用して、果樹園の果実を計数し、果樹園での果実の位置や大きさを推定することが可能となる。また、数年に亘る蓄積の情報を利用して、果樹園での果実の育ち具合や分布などを認識し、早い段階でのその年の作物の出来具合などを予測することも可能となる。   The plant monitoring device to which the object shape device of the embodiment as described above is applied can detect the fruit of the orchard and accumulate the detection result in the information recording device 1003. Therefore, the information stored in the information recording apparatus 1003 can be used to count the fruit in the orchard and estimate the position and size of the fruit in the orchard. It is also possible to use the information accumulated over several years to recognize the growth and distribution of fruits in an orchard and to predict the production of the crop in that year at an early stage.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

10…画像入力装置、11…入力インターフェース、12…表示出力装置、
13…制御部(コントローラ)、14…画像処理部、15…入出力インターフェース、
16…平面検出処理部、17…球体検出・判定処理部、
18…円筒・円錐検出処理部、801,802…車両、815…形状計測装置、
1001…距離画像入力装置、1002…画像処理装置、1003…情報記録装置、
1004…車両。
DESCRIPTION OF SYMBOLS 10 ... Image input device, 11 ... Input interface, 12 ... Display output device,
13 ... Control unit (controller), 14 ... Image processing unit, 15 ... Input / output interface,
16... Plane detection processing unit, 17.
18 ... Cylinder / cone detection processing unit, 801,802 ... vehicle, 815 ... shape measuring device,
1001 ... Distance image input device, 1002 ... Image processing device, 1003 ... Information recording device,
1004 ... Vehicle.

Claims (13)

物体の距離画像または表面形状点群データの入力データを取得する入力手段と、
前記入力データから平面形状、球体形状及び各パラメータを検出する検出手段と、
前記検出手段の検出結果を使用して、円筒、円錐、円錐台のいずれかの形状パラメータを算出する円筒・円錐検出手段と
を具備したことを特徴とする物体形状検出装置。
An input means for acquiring input data of an object distance image or surface shape point cloud data;
Detecting means for detecting a planar shape, a spherical shape and each parameter from the input data;
An object shape detection apparatus comprising: a cylinder / cone detection means for calculating a shape parameter of any one of a cylinder, a cone, and a truncated cone using a detection result of the detection means.
前記検出手段は、
前記入力データから平面を検出し、平面のパラメータを算出し、かつ平面を構成する平面形状点を抽出する平面検出手段と、
前記入力データから球体またはその一部を検出し、それらのパラメータを算出し、かつ球体を構成する球体形状点を抽出する球体検出手段と
を含む構成であることを特徴とする請求項1に記載の物体形状検出装置。
The detection means includes
Plane detection means for detecting a plane from the input data, calculating plane parameters, and extracting plane shape points constituting the plane;
2. A sphere detection unit that detects a sphere or a part thereof from the input data, calculates parameters thereof, and extracts a sphere shape point constituting the sphere. Object shape detection device.
前記円筒・円錐検出手段は、
平面と球体の一部が共有する形状領域の有無を検出する手段と、
共有する形状領域をもつ平面と球体を一つのグループとして抽出する手段と、
前記グループ内の平面と球体のパラメータ、またはグループ内の平面と球体を構成する画素もしくは形状点、またはその両方を使用して、円筒、円錐、円錐台のいずれかの形状パラメータを算出する手段と
を含む構成であることを特徴とする請求項1又は請求項2のいずれか1項に記載の物体形状検出装置。
The cylinder / cone detection means includes:
Means for detecting the presence or absence of a shape region shared by a plane and a part of a sphere;
Means for extracting a plane and a sphere having a shared shape area as one group;
Means for calculating a shape parameter of any one of a cylinder, a cone, and a truncated cone using a parameter of a plane and a sphere in the group, or a pixel or a shape point constituting the plane and a sphere in the group, or both; The object shape detection apparatus according to claim 1, wherein the object shape detection apparatus is configured to include:
前記円筒・円錐検出手段は、
前記形状パラメータを算出した後の後処理として、
前記グループ内の平面と球体が有する形状点を、円筒または円錐を構成する形状点として抽出する手段と、
最小2乗法等の手法により前記形状パラメータを修正して、検出結果と形状位置向き推定結果として出力する手段と
を含む構成であることを特徴とする請求項1から請求項3のいずれか1項に記載の物体形状検出装置。
The cylinder / cone detection means includes:
As post-processing after calculating the shape parameter,
Means for extracting shape points of the plane and sphere in the group as shape points constituting a cylinder or a cone;
4. The structure according to claim 1, further comprising means for correcting the shape parameter by a method such as a least square method and outputting the result as a detection result and a shape position direction estimation result. The object shape detection apparatus described in 1.
前記球体検出手段は、
前記入力データから検出された球体の一部が、円筒、円錐、円錐台のいずれかの一部であるか否かを判定する手段を含む構成であることを特徴とする請求項2に記載の物体形状検出装置。
The sphere detecting means includes
The structure according to claim 2, further comprising means for determining whether a part of the sphere detected from the input data is a part of a cylinder, a cone, or a truncated cone. Object shape detection device.
前記球体検出手段は、
前記入力データから検出された球体の一部が、円筒、円錐、円錐台のいずれかの一部であるか否かを、球体の一部に含まれる画素または形状点の表す3次元座標の分布またはその法線方向の分布に基づいて判定する手段を含む構成であることを特徴とする請求項2に記載の物体形状検出装置。
The sphere detecting means includes
Distribution of three-dimensional coordinates representing whether a part of a sphere detected from the input data is a part of a cylinder, a cone, or a truncated cone, and pixels or shape points included in the part of the sphere The object shape detection apparatus according to claim 2, wherein the object shape detection apparatus includes a determination unit based on a distribution in the normal direction.
物体の距離画像または表面形状点群データの入力データを取得する入力手段と、
前記入力データ中の各画素または各形状点が、球体の中心位置を表すパラメータを各軸成分として含む投票空間に投票する投票処理手段と、
前記投票処理手段による投票数の分布に基づいて選出されたパラメータ値で表される球体を検出結果として出力する球体検出手段とを有し、
前記球体検出手段は、
投票元の画素または形状点の表す3次元座標値と、投票先の投票空間の座標が表す3次元座標値との距離に応じて投票する値に重み付け処理を行なうことを特徴とする物体形状検出装置。
An input means for acquiring input data of an object distance image or surface shape point cloud data;
Voting processing means for voting to a voting space in which each pixel or each shape point in the input data includes a parameter representing the center position of a sphere as each axis component;
Sphere detection means for outputting a sphere represented by a parameter value selected based on the distribution of the number of votes by the voting processing means as a detection result;
The sphere detecting means includes
Object shape detection characterized by weighting a value to be voted in accordance with a distance between a three-dimensional coordinate value represented by a voting source pixel or a shape point and a three-dimensional coordinate value represented by a coordinate in a voting destination voting space apparatus.
前記球体検出手段は、
前記重み付け処理において、投票元の画素または形状点の表す3次元座標値と、投票先の投票空間の座標値が表す3次元座標との距離が大きいほど小さな値を投票するように重み付け処理を行なうことを特徴とする請求項7に記載の物体形状検出装置。
The sphere detecting means includes
In the weighting process, the weighting process is performed so that the smaller the distance between the three-dimensional coordinate value represented by the voting source pixel or the shape point and the three-dimensional coordinate represented by the coordinate value of the voting destination voting space, the smaller the value is voted. The object shape detection apparatus according to claim 7.
前記球体検出手段は、
球体半径の最小値を設定し、投票元の画素または形状点の表す3次元座標値と、投票先の投票空間の座標が表す3次元座標値との距離が最小値未満である場合には、投票処理を実行しない又は前記重み付け処理で決められた値よりも小さな値を投票することを特徴とする請求項7又は請求項8のいずれか1項に記載の物体形状検出装置。
The sphere detecting means includes
When the minimum value of the sphere radius is set and the distance between the three-dimensional coordinate value represented by the voting source pixel or the shape point and the three-dimensional coordinate value represented by the coordinates of the voting destination voting space is less than the minimum value, 9. The object shape detection apparatus according to claim 7, wherein the voting process is not executed or a value smaller than a value determined by the weighting process is voted.
物体の距離画像または表面形状点群データの入力データを取得する入力手段と、
前記入力データ中の各画素または各形状点が、平面の法線方向を表すパラメータを各軸成分として含む投票空間に投票する投票処理手段と、
前記投票処理手段による投票数の分布に基づいて選出されたパラメータ値で表される平面を検出結果として出力する平面検出手段とを有し、
前記平面検出手段は、
前記検出結果の平面に含まれる画素または形状点の隣接情報に基づいて、繋がりのある領域を一つの平面として抽出することを特徴とする物体形状検出装置。
An input means for acquiring input data of an object distance image or surface shape point cloud data;
Voting processing means for voting to a voting space in which each pixel or each shape point in the input data includes a parameter representing a normal direction of a plane as each axis component;
Plane detection means for outputting a plane represented by a parameter value selected based on the distribution of the number of votes by the voting processing means as a detection result;
The plane detection means includes
An object shape detection apparatus that extracts connected regions as one plane based on adjacent information of pixels or shape points included in the detection result plane.
請求項1から請求項6のいずれか1項の記載の物体形状検出装置を使用して、車両の部分物体形状を検出する手段と、
前記検出結果に基づいて車両の種類を識別する車種判別手段と
を具備したことを特徴とする物体識別装置。
Means for detecting a partial object shape of a vehicle using the object shape detection device according to any one of claims 1 to 6;
An object identification device comprising vehicle type discrimination means for identifying the type of vehicle based on the detection result.
請求項7から請求項9のいずれか1項の記載の物体形状検出装置を使用して、植物の形状を検出する手段と、
前記検出結果に基づいて植物の識別する情報を格納する情報記憶手段と
を具備したことを特徴とする植物監視装置。
Means for detecting the shape of a plant using the object shape detection device according to any one of claims 7 to 9;
An information storage means for storing information for identifying a plant based on the detection result.
物体の距離画像または表面形状点群データの入力データを取得する処理と、
前記入力データから平面形状、球体形状及び各パラメータを検出する処理と、
前記検出手段の検出結果を使用して、円筒、円錐、円錐台のいずれかの形状パラメータを算出する処理と
を具備したことを特徴とする物体形状検出方法。
Processing to obtain input data of an object distance image or surface shape point cloud data;
Processing for detecting a planar shape, a spherical shape, and each parameter from the input data;
And a process of calculating a shape parameter of any one of a cylinder, a cone, and a truncated cone using the detection result of the detection means.
JP2010131422A 2010-06-08 2010-06-08 Body shape detection device and method Withdrawn JP2011257244A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010131422A JP2011257244A (en) 2010-06-08 2010-06-08 Body shape detection device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010131422A JP2011257244A (en) 2010-06-08 2010-06-08 Body shape detection device and method

Publications (1)

Publication Number Publication Date
JP2011257244A true JP2011257244A (en) 2011-12-22

Family

ID=45473568

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010131422A Withdrawn JP2011257244A (en) 2010-06-08 2010-06-08 Body shape detection device and method

Country Status (1)

Country Link
JP (1) JP2011257244A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103267493A (en) * 2013-05-10 2013-08-28 西南科技大学 Linear array type ultra-large diameter plane optical element surface shape detection device and method
CN103994735A (en) * 2013-02-19 2014-08-20 精工电子有限公司 Concentricity measuring device, sleeve classifying device, and concentricity measuring method
CN104898658A (en) * 2014-03-06 2015-09-09 丰田自动车株式会社 Autonomous moving robot and control method thereof
CN111062988A (en) * 2019-11-29 2020-04-24 佛山科学技术学院 Grape pose estimation method based on local point cloud
JP2021022198A (en) * 2019-07-29 2021-02-18 清水建設株式会社 System, method, and program for estimating distribution

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103994735A (en) * 2013-02-19 2014-08-20 精工电子有限公司 Concentricity measuring device, sleeve classifying device, and concentricity measuring method
JP2014160003A (en) * 2013-02-19 2014-09-04 Seiko Instruments Inc Concentricity measuring apparatus, ferrule classification apparatus, concentricity measuring method, concentricity measuring program, and recording medium
CN103267493A (en) * 2013-05-10 2013-08-28 西南科技大学 Linear array type ultra-large diameter plane optical element surface shape detection device and method
CN103267493B (en) * 2013-05-10 2016-04-06 西南科技大学 Linear Array Realtime super large caliber surface shape of plane optical component pick-up unit and method
CN104898658A (en) * 2014-03-06 2015-09-09 丰田自动车株式会社 Autonomous moving robot and control method thereof
JP2015170127A (en) * 2014-03-06 2015-09-28 トヨタ自動車株式会社 Autonomous mobile robot and control method of the same
JP2021022198A (en) * 2019-07-29 2021-02-18 清水建設株式会社 System, method, and program for estimating distribution
CN111062988A (en) * 2019-11-29 2020-04-24 佛山科学技术学院 Grape pose estimation method based on local point cloud
CN111062988B (en) * 2019-11-29 2024-02-13 佛山科学技术学院 Grape pose estimation method based on local point cloud

Similar Documents

Publication Publication Date Title
CN110660186B (en) Method and device for identifying target object in video image based on radar signal
CN108845574B (en) Target identification and tracking method, device, equipment and medium
CN108010036B (en) Object symmetry axis detection method based on RGB-D camera
CN111160302A (en) Obstacle information identification method and device based on automatic driving environment
KR101404640B1 (en) Method and system for image registration
JP5258859B2 (en) Runway estimation apparatus and program
CN107993488B (en) Parking space identification method, system and medium based on fisheye camera
JP6397379B2 (en) CHANGE AREA DETECTION DEVICE, METHOD, AND PROGRAM
CN111079518B (en) Ground-falling abnormal behavior identification method based on law enforcement and case handling area scene
CN107609483B (en) Dangerous target detection method and device for driving assistance system
WO2017176112A1 (en) Spatial data analysis
CN113379712A (en) Steel bridge bolt disease detection method and system based on computer vision
CN113970734B (en) Method, device and equipment for removing snowfall noise points of road side multi-line laser radar
JP2011257244A (en) Body shape detection device and method
CN112001226A (en) Unmanned 3D target detection method and device and storage medium
CN104933398A (en) vehicle identification system and method
KR101941878B1 (en) System for unmanned aircraft image auto geometric correction
JP2013030183A (en) Environment recognition device, and program
CN109238281B (en) Visual navigation and obstacle avoidance method based on image spiral line
JP5523298B2 (en) Target classifier
EP3207523B1 (en) Obstacle detection apparatus and method
US20230009925A1 (en) Object detection method and object detection device
US20210090260A1 (en) Deposit detection device and deposit detection method
US11354794B2 (en) Deposit detection device and deposit detection method
KR102547333B1 (en) Depth Image based Real-time ground detection method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130903