JP6124566B2 - Image recognition method and image recognition apparatus - Google Patents
Image recognition method and image recognition apparatus Download PDFInfo
- Publication number
- JP6124566B2 JP6124566B2 JP2012260886A JP2012260886A JP6124566B2 JP 6124566 B2 JP6124566 B2 JP 6124566B2 JP 2012260886 A JP2012260886 A JP 2012260886A JP 2012260886 A JP2012260886 A JP 2012260886A JP 6124566 B2 JP6124566 B2 JP 6124566B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature
- feature point
- dog
- recognition method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 43
- 239000013598 vector Substances 0.000 claims description 29
- 230000006870 function Effects 0.000 claims description 5
- 230000004931 aggregating effect Effects 0.000 claims description 3
- 238000002474 experimental method Methods 0.000 description 20
- 230000036544 posture Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 241000282472 Canis lupus familiaris Species 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 239000012636 effector Substances 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Description
この発明は、画像認識方法および画像認識装置に関する。 The present invention relates to an image recognition method and an image recognition apparatus.
従来、予め登録された登録画像から識別器を作成し、作成された識別器を用いて入力された新規画像の属性を判定して、画像を認識する画像認識方法が知られている(たとえば、特許文献1参照)。上記特許文献1では、予め登録された登録画像(たとえばワークの画像)を部分画像に分解し、部分画像上の任意の2点の輝度差が特徴量として抽出され、登録画像が学習される。そして、学習された登録画像(部分画像)と、入力された新規画像(たとえばワークの画像)の部分画像とのマッチングに基づいて、新規画像の認識(たとえばワークの位置や姿勢の認識)が行われるように構成されている。なお、特徴量として部分画像上の任意の2点の輝度差を用いる場合、この特徴量が部分画像の回転に対して不変でないため、予め登録された登録画像に、光軸(ワークを撮影するレンズに垂直な軸)周りにワークを回転させた画像を含めておく必要がある。
Conventionally, an image recognition method is known in which an identifier is created from a registered image registered in advance, the attribute of a new image input using the created identifier is determined, and the image is recognized (for example, Patent Document 1). In
しかしながら、上記特許文献1に記載の画像認識方法では、ワークの位置や姿勢を求めるために、光軸周りにワークを回転させた画像(所定の角度毎に回転させたワークの画像)が必要になるため、その分、予め登録された登録画像の数が増大し、入力された新規画像の認識(登録画像と新規画像とのマッチング)に時間がかかるという問題点がある。
However, in the image recognition method described in
この発明は、上記のような課題を解決するためになされたものであり、この発明の1つの目的は、画像の認識に時間がかかるのを抑制することが可能な画像認識方法および画像認識装置を提供することである。 The present invention has been made to solve the above-described problems, and one object of the present invention is to provide an image recognition method and an image recognition apparatus capable of suppressing time-consuming image recognition. Is to provide.
上記目的を達成するために、第1の局面による画像認識方法は、学習画像に対して複数の特徴点を抽出するステップと、抽出された特徴点に対して、回転不変な特徴量を用いて特徴量を算出するステップと、算出された学習画像の特徴点の特徴量に基づいて、特徴点の属性を判定するための識別器を作成するステップと、推定画像に対して複数の特徴点を抽出するステップと、識別器を用いて抽出された推定画像の複数の特徴点の属性を集約して推定対象の位置を判定して、推定画像を認識するステップとを備える。 To achieve the above object, an image recognition method according to a first aspect uses a step of extracting a plurality of feature points from a learning image, and using a rotation-invariant feature amount for the extracted feature points. A step of calculating a feature amount, a step of creating a discriminator for determining the attribute of the feature point based on the calculated feature amount of the feature point of the learning image, and a plurality of feature points for the estimated image A step of extracting, and a step of recognizing the estimated image by aggregating the attributes of a plurality of feature points of the estimated image extracted using the classifier to determine the position of the estimation target .
この第1の局面による画像認識方法では、上記のように、抽出された特徴点に対して、回転不変な特徴量を用いて特徴量を算出するステップを備えることによって、回転不変でない特徴量を用いて特徴点の特徴量が抽出される場合と異なり、所定の角度毎に回転した学習画像を学習する必要がない。すなわち、回転不変でない特徴量に基づいて、特徴点の属性を判定するための識別器を作成する場合と比べて、より少ない学習画像から識別器を作成することができるので、識別器を用いて推定画像の特徴点の属性を判定する際に、推定画像の特徴点とマッチングされる学習画像の特徴点の数を少なくすることができ、その分、計算量を少なくすることができる。その結果、画像の認識に時間がかかるのを抑制することができる。 In the image recognition method according to the first aspect, as described above, a feature amount that is not rotation-invariant is obtained by including a step of calculating a feature amount using a rotation-invariant feature amount with respect to the extracted feature points. Unlike the case where the feature amount of the feature point is extracted by using, it is not necessary to learn a learning image rotated at every predetermined angle. That is, it is possible to create a discriminator from fewer learning images than when creating a discriminator for determining the attribute of a feature point based on a feature amount that is not rotation invariant. When determining the attribute of the feature point of the estimated image, the number of feature points of the learning image matched with the feature point of the estimated image can be reduced, and the amount of calculation can be reduced accordingly. As a result, it can be suppressed that it takes time to recognize the image.
第2の局面による画像認識装置は、学習画像に対して複数の特徴点を抽出する第1特徴点抽出手段と、抽出された特徴点に対して、回転不変な特徴量を用いて特徴量を算出する特徴量算出手段と、算出された学習画像の特徴点の特徴量に基づいて、特徴点の属性を判定するための識別器を作成する識別器作成手段と、推定画像に対して複数の特徴点を抽出する第2特徴点抽出手段と、識別器を用いて抽出された推定画像の複数の特徴点の属性を集約して推定対象の位置を判定して、推定画像を認識する認識手段とを備える。
An image recognition apparatus according to a second aspect is configured to extract a feature amount using a first feature point extraction unit that extracts a plurality of feature points from a learning image, and a rotation-invariant feature amount with respect to the extracted feature points. A feature amount calculating means for calculating, a discriminator creating means for creating a discriminator for determining the attribute of the feature point based on the calculated feature amount of the feature point of the learning image, and a plurality of the estimated images Second feature point extracting means for extracting feature points, and recognition means for recognizing the estimated image by determining the position of the estimation target by aggregating the attributes of the plurality of feature points of the estimated image extracted using the classifier With.
この第2の局面による画像認識装置では、上記のように、抽出された特徴点に対して、回転不変な特徴量を用いて特徴量を算出する特徴量算出手段を備えることによって、回転不変でない特徴量を用いて特徴点の特徴量が抽出される場合と異なり、所定の角度毎に回転した学習画像を学習する必要がない。すなわち、回転不変でない特徴量に基づいて、特徴点の属性を判定するための識別器を作成する場合と比べて、より少ない学習画像から識別器を作成することができるので、識別器を用いて推定画像の特徴点の属性を判定する際に、推定画像の特徴点とマッチングされる学習画像の特徴点の数を少なくすることができ、その分、計算量を少なくすることができる。その結果、画像の認識に時間がかかるのを抑制することが可能な画像認識装置を提供することができる。 In the image recognition apparatus according to the second aspect, as described above, the feature amount calculating means for calculating the feature amount using the rotation-invariant feature amount is provided for the extracted feature point, so that the rotation is not invariant. Unlike the case where the feature amount of the feature point is extracted using the feature amount, it is not necessary to learn the learning image rotated at every predetermined angle. That is, it is possible to create a discriminator from fewer learning images than when creating a discriminator for determining the attribute of a feature point based on a feature amount that is not rotation invariant. When determining the attribute of the feature point of the estimated image, the number of feature points of the learning image matched with the feature point of the estimated image can be reduced, and the amount of calculation can be reduced accordingly. As a result, it is possible to provide an image recognition apparatus capable of suppressing the time taken for image recognition.
上記のように構成することによって、画像の認識に時間がかかるのを抑制することができる。 By comprising as mentioned above, it can suppress that recognition of an image takes time.
以下、本実施形態を図面に基づいて説明する。 Hereinafter, the present embodiment will be described with reference to the drawings.
まず、図1および図2を参照して、本実施形態によるロボットシステム100の構成について説明する。
First, the configuration of the
図1および図2に示すように、ロボットシステム100には、ロボット1と、ロボットコントローラ2と、センサユニット(画像センサユニット)3とが設けられている。なお、センサユニット3は、本発明の「画像認識装置」の一例である。
As shown in FIGS. 1 and 2, the
図1に示すように、ロボット1は、基台11と、基台11に取り付けられるロボットアーム12と、ロボットアーム12の先端に取り付けられるエンドエフェクタ13とを備えている。ロボットアーム12は、6自由度を有して構成されている。ロボットアーム12は、複数のアーム構造体を有しており、ロボット1の設置面に対して垂直な回転軸A1まわりにアーム構造体12aが基台11に対して回転可能に連結されている。アーム構造体12bは、回転軸A1に対して垂直な回転軸A2まわりに回転可能にアーム構造体12aに連結されている。アーム構造体12cは、回転軸A2に対して平行な回転軸A3まわりに回転可能にアーム構造体12bに連結されている。アーム構造体12dは、回転軸A3に対して垂直な回転軸A4まわりに回転可能にアーム構造体12cに連結されている。アーム構造体12eは、回転軸A4に対して垂直な回転軸A5まわりに回転可能にアーム構造体12dに連結されている。アーム構造体12fは、回転軸A5に対して垂直な回転軸A6まわりに回転可能にアーム構造体12eに連結されている。なお、ここでいう「平行」「垂直」は、厳密な意味の「平行」および「垂直」だけでなく、「平行」および「垂直」から少しずれているものも含む広い意味である。各回転軸A1〜A6にはそれぞれサーボモータ(関節)が設けられており、各サーボモータは、それぞれの回転位置を検出するエンコーダを有している。各サーボモータは、ロボットコントローラ2に接続されており、ロボットコントローラ2の指令に基づいて各サーボモータが動作するように構成されている。
As shown in FIG. 1, the
図2に示すように、センサユニット3には、2次元画像を撮影するカメラ31と、レーザスキャナ32とが設けられている。また、センサユニット3の内部には、画像処理部34およびメモリ35を含むセンサコントローラ33が設けられている。また、センサユニット3は、レーザスキャナ32から、バラ積みされたワーク200(推定対象、図1参照)にレーザ光を照射するとともに、ワーク200から反射される光をカメラ31により撮影することにより、ワーク200の3次元形状を計測するように構成されている。また、センサユニット3は、ワーク200の3次元形状を計測(ワーク200までの距離や、ワーク200の詳細な位置および姿勢の推定)することが可能である一方、本実施形態では、詳細な位置や姿勢の推定の前に、カメラ31により撮影された2次元画像に基づいて、ワーク200(および後述するワーク201、図11参照)の概略の位置の推定が、画像処理部34により、行われるように構成されている。なお、画像処理部34は、「第1特徴点抽出手段」、「特徴量算出手段」、「識別器作成手段」、「第2特徴点抽出手段」および「認識手段」の一例である。また、ワーク200および201は、「推定対象」の一例である。以下では、本実施形態による画像認識方法(ワーク200および201の概略位置の推定方法)について説明する。
As shown in FIG. 2, the
(DoGに基づく回転不変な特徴量)
まず、画像認識方法において用いられる回転不変な特徴量について説明する。本実施形態では、回転不変な特徴量としてDoG(Difference−of−Gaussian)が用いられる。以下に、DoG(DoG値)について説明する。まず、任意の特徴点(x,y)において、学習画像I(x,y)に対して、下記の式(1)に示すガウス関数G(u,v,σ)を畳み込むことにより、下記の式(2)に示す平滑化画像L(x,y,σ)が生成される。
(Rotation invariant feature based on DoG)
First, the rotation invariant feature amount used in the image recognition method will be described. In this embodiment, DoG (Difference-of-Gaussian) is used as a rotation-invariant feature amount. Hereinafter, DoG (DoG value) will be described. First, by convolving a Gaussian function G (u, v, σ) shown in the following equation (1) with respect to a learning image I (x, y) at an arbitrary feature point (x, y), A smoothed image L (x, y, σ) shown in Expression (2) is generated.
次に、2つの平滑化パラメータσiおよびσjにより得れた2つの平滑化画像の差分画像D(i,j)(x,y)が下記の式(3)により生成される。 Next, a difference image D (i, j) (x, y) of two smoothed images obtained by the two smoothing parameters σ i and σ j is generated by the following equation (3).
そして、上記の式(3)により、σi,σj∈[σ1,σ2,...,σm]の範囲の∀σi∀σj(σi<σj)において、D(i,j)(x,y)が求められて、下記の式(4)に示される特徴ベクトルV(x,y)の要素とされる。 Then, according to the above equation (3), σ i , σ j ∈ [σ 1 , σ 2 ,. . . , Σ m ] in the range , σ i ∀σ j (σ i <σ j ), D (i, j) (x, y) is obtained and the feature vector V shown in the following equation (4) is obtained. The element is (x, y).
上記の式(4)に示される特徴ベクトルVは、DoG(DoG値)を要素としている。本実施形態では、DoGは、学習画像および推定シーン(推定画像)における範囲の異なる2つの同心円状の領域のそれぞれの輝度値の合算値の差(上記σiおよびσjより得れた2つの平滑化画像の差分)であるので、回転不変な特徴量である。なお、特徴ベクトルV(DoG)は、マザーウェーブレット関数(有限の長波形)を用いたウェーブレット特徴量(周波数解析)に似た特徴量である。ウェーブレット特徴量は、解像度と方位とを要素とする一方、DoGは、方位の要素を有しない。しかしながら、特徴ベクトルV(DoG)は、解像度(サイズ)に関して、多くのバリエーション(様々なσについてのD)を有する。このため、下記の特徴ベクトルVの次元数削減の手法を用いることにより、推定対象に適切なサイズの特徴量を選択することが可能となる。 The feature vector V shown in the above equation (4) has DoG (DoG value) as an element. In the present embodiment, DoG is the difference between the sum of the luminance values of two concentric regions with different ranges in the learning image and the estimated scene (estimated image) (the two values obtained from σ i and σ j above). Since the difference is a smoothed image, it is a rotation-invariant feature quantity. The feature vector V (DoG) is a feature amount similar to a wavelet feature amount (frequency analysis) using a mother wavelet function (finite long waveform). While the wavelet feature quantity has resolution and orientation as elements, DoG does not have an orientation element. However, the feature vector V (DoG) has many variations (D for various σ) with respect to resolution (size). For this reason, it is possible to select a feature quantity of an appropriate size for the estimation target by using the following technique for reducing the number of dimensions of the feature vector V.
(特徴ベクトルVの次元数削減)
上記の式(4)に示される特徴ベクトルVは、多くのDoG(次元数)を有することにより、特徴ベクトルVの分離能力が向上する。しかしながら、推定対象の推定時(認識時)のDoGの生成に多くの時間が割かれたり、無駄になる(特徴が似ている)DoGが生成される可能性がある。そこで、本実施形態では、DoG(DoG値)を要素とする複数のベクトル(後述するf)を生成し、複数のベクトルの間のハミング距離に基づいて、互いに相関の低いDoG値を選択する(特徴ベクトルVの次元を削減する)とともに、選択したDoG値に基づいて識別器を作成するように構成されている。以下に、特徴ベクトルVの次元数削減手法について詳細に説明する。
(Reducing the number of dimensions of feature vector V)
Since the feature vector V shown in the above equation (4) has many DoGs (dimensions), the separation capability of the feature vector V is improved. However, it may take a lot of time to generate DoG at the time of estimation (recognition) of the estimation target, or there may be wasted (similar features) DoG. Therefore, in the present embodiment, a plurality of vectors (f to be described later) having DoG (DoG value) as elements are generated, and DoG values having low correlation with each other are selected based on the Hamming distance between the plurality of vectors ( And the classifier is created based on the selected DoG value. Hereinafter, a method for reducing the number of dimensions of the feature vector V will be described in detail.
まず、特徴ベクトルVを求める上で、最適な要素Dを選択するために、全ての特徴点(学習画像上のn点)における分類性能を比較する必要がある。あるσi,σjにおいて、(x,y)∈[(x1,y1),(x2,y2),...,(xn,yn)]の範囲の∀(x,y)に対するD(i,j)(x,y)を要素とするベクトルf(i,j)が、下記の式(5)により新たに定義される。 First, in obtaining the feature vector V, it is necessary to compare the classification performance at all feature points (n points on the learning image) in order to select the optimum element D. For some σ i , σ j , (x, y) ε [(x 1 , y 1 ), (x 2 , y 2 ),. . . , (X n , y n )] with respect to ∀ (x, y), a vector f (i, j) whose elements are D (i, j) (x, y) is expressed by the following equation (5). Newly defined.
なお、上記の式(5)において、d(i,j)(x,y)は、上記の式(6)により、D(i,j)(x,y)を2値化したものである。また、上記の式(6)において、Dmed (i,j)は、上記の式(7)により求められる中央値である。なお、f(i,j)は、複数生成される。ここで、f(i,j)の要素であるDは、実数値である。そこで、f(i,j)の要素であるDの中央値を閾値として、各要素Dがこの閾値よりも大きいか否かによって、各要素Dを「0」または「1」に2値化する。これにより、f(i,j)内のbitに「0」と「1」とが等しく存在するようになり、この2値化された要素は、n点の特徴点を2つに分類する上で、適切な情報となる。 In the above equation (5), d (i, j) (x, y) is a binary value of D (i, j) (x, y) according to the above equation (6). . In the above equation (6), D med (i, j) is a median value obtained by the above equation (7). Note that a plurality of f (i, j) are generated. Here, D which is an element of f (i, j) is a real value. Therefore, the median value of D, which is an element of f (i, j) , is set as a threshold value, and each element D is binarized to “0” or “1” depending on whether each element D is larger than this threshold value. . As a result, “0” and “1” are equally present in the bits in f (i, j) , and this binarized element classifies n feature points into two. Therefore, it becomes appropriate information.
次に、最適なf(i,j)の集合であるFを決定するアルゴリズムについて説明する。まず、集合Fの最初の要素f1(t=1)が、全てのf(i,j)の中からランダムに選択される。その後、tが、2≦t≦Tmaxを満たす間、以下の処理が逐次的に行われる。具体的には、t番目のftを選択する際には、集合Fに含まれない全てのf(i,j)について、下記の式(8)に示されるH(i,j)が算出される。 Next, an algorithm for determining F, which is an optimal set of f (i, j) , will be described. First, the first element f 1 (t = 1) of the set F is randomly selected from all f (i, j) . Thereafter, while t satisfies 2 ≦ t ≦ T max , the following processing is sequentially performed. Specifically, when selecting the t-th f t , H (i, j) shown in the following equation (8 ) is calculated for all f (i, j) not included in the set F. Is done.
ここで、上記の式(8)内の関数ωH(f(i,j),f(k,l))は、下記の式(9)で表される。 Here, the function ω H (f (i, j) , f (k, l) ) in the above equation (8) is expressed by the following equation (9).
ここで、dH(f(i,j),f(k,l))は、f(i,j)とf(k,l)との間のハミング距離を表す。なお、ハミング距離とは、f(i,j)の要素(「0」または「1」)とf(k,l)の要素(「0」または「1」)との間の異なった要素の数を意味する。そして、全てのH(i,j)の中で、最小値であったH(i,j)の算出元であるf(i,j)(最小値であったH(i,j)に対応するf(i,j))が集合Fの要素として追加される。 Here, d H (f (i, j) , f (k, l) ) represents a Hamming distance between f (i, j) and f (k, l) . The Hamming distance refers to a different element between the element (“0” or “1”) of f (i, j) and the element (“0” or “1”) of f (k, l) . Means number. Then, among all the H (i, j), corresponding to the minimum value at which was H (i, j) is calculated source f (i, j) (the minimum value and which was H (i, j) F (i, j) ) to be added as an element of the set F.
上記のアルゴリズムは、未選択の要素Dを有するfの中で、選択された要素Dの群との相関が最も低い要素Dを有するfを、tがTmaxになるまで集合Fに逐次追加していく手法である。選択されたfの各々が異なる情報を有するDにより構成されるため、選択されたf(D)は、無駄のない特徴量となる(同じような特徴を有する特徴量が削減される)と考えられる。 The above algorithm sequentially adds f having an element D having the lowest correlation with the group of selected elements D among f having an unselected element D to the set F until t reaches T max. It is a technique to go. Since each selected f is composed of Ds having different information, the selected f (D) is considered to be a lean feature amount (features having similar features are reduced). It is done.
(アンサンブル分類木を用いた推定対象の概略位置推定)
次に、図3〜図6を参照して、アンサンブル分類木を用いた推定対象(認識対象)の概略位置の推定について説明する。
(Approximate position estimation of estimation target using ensemble classification tree)
Next, estimation of the approximate position of the estimation target (recognition target) using the ensemble classification tree will be described with reference to FIGS.
(学習時)
まず、学習時について説明する。本実施形態では、図3のステップS1に示すように、学習画像に対してランダムに特徴点が抽出される。そして、ステップS2において、各々の特徴点において上記の式(4)を用いて回転不変な特徴量であるDoG(DoG値)を用いた特徴量(特徴ベクトルV)が算出される。次に、ステップS3において、上記の式(5)〜(9)を用いて、特徴ベクトルVの次元数削減が行われる。そして、ステップS4において、生成された特徴量(特徴ベクトルV、選択したDoG)を分類基準として、分類木が作成される。分類木の作成手順を以下に説明する。
(During learning)
First, the learning time will be described. In the present embodiment, as shown in step S1 of FIG. 3, feature points are extracted at random from the learning image. In step S2, a feature amount (feature vector V) using DoG (DoG value), which is a rotation-invariant feature amount, is calculated using the above equation (4) at each feature point. Next, in step S3, the number of dimensions of the feature vector V is reduced using the above equations (5) to (9). In step S4, a classification tree is created using the generated feature quantity (feature vector V, selected DoG) as a classification criterion. The procedure for creating a classification tree is described below.
図4に示すように、まず、ノード(2分木の節点)に格納されている全ての特徴点について、各要素(特徴ベクトルVの要素)ごとの中央値を閾値として、2値化が行われる。すなわち、特徴ベクトルV(下記の式(10)参照)の要素(v(DoG)、式(10)参照)について、各要素が閾値よりも大きいか否かによって、各要素が「0」または「1」に2値化(特徴ベクトルVbin、下記の式(11)参照)される。 As shown in FIG. 4, first, binarization is performed for all feature points stored in a node (nodes of a binary tree) with a median value for each element (element of feature vector V) as a threshold value. Is called. That is, for each element (v (DoG), see Expression (10)) of the feature vector V (see Expression (10) below), each element is “0” or “ 1 ”is binarized (feature vector V bin , see formula (11) below).
次に、任意の距離dが生成されるとともに、任意の距離dと、2値化された特徴ベクトルVbin(上記の式(11)参照)とのハミング距離dH(Vbin(xi,yi),d)が算出される。そして、算出されたハミング距離dH(Vbin(xi,yi),d)と、子ノードの要素数が均等に分類できる閾値dthとの大小比較により、特徴ベクトルVbinの分類が行われる。以上の処理が再帰的に行われることにより、分類木が作成される。また、特徴点の抽出(ステップS1)が、分類木の作成時において毎回行われることにより、本実施形態では、独立性のある分類木が複数作成される。これらの複数の分類木は、アンサンブル分類木と呼ばれる。そして、作成されたアンサンブル分類木を用いることにより、後述する推定対象の位置が推定される。なお、アンサンブル分類木は、本発明の「識別器」の一例である。 Next, an arbitrary distance d is generated, and a Hamming distance d H (V bin (x i , x i ,) between the arbitrary distance d and the binarized feature vector V bin (see the above equation (11)). y i ), d) are calculated. Then, the classification of the feature vector V bin is performed by comparing the calculated Hamming distance d H (V bin (x i , y i ), d) with a threshold value d th in which the number of elements of the child nodes can be equally classified. Done. By performing the above processing recursively, a classification tree is created. In addition, in this embodiment, a plurality of independent classification trees are created by extracting feature points (step S1) every time a classification tree is created. These multiple classification trees are called ensemble classification trees. And the position of the estimation object mentioned later is estimated by using the created ensemble classification tree. The ensemble classification tree is an example of the “discriminator” of the present invention.
(推定時)
本実施形態では、図5に示すように、ステップS11において、推定シーン(推定画像)において、全探査が行われて、特徴点が抽出(図6参照)される。すなわち、推定シーンにおいて、たとえばラスタスキャンが行われるとともに、スキャンされた各点において、特徴ベクトルV(上記の式(4)参照)が算出される。次に、ステップS12において、学習時に作成されたアンサンブル分類木を用いることにより、ステップS11において、抽出された推定シーンの特徴点の特徴量と類似した学習画像の特徴点が、対応点として求められる(ステップS11において抽出された特徴点の属性が判定される、図6参照)。
(At the time of estimation)
In this embodiment, as shown in FIG. 5, in step S11, the entire scene is extracted in the estimated scene (estimated image), and feature points are extracted (see FIG. 6). That is, for example, a raster scan is performed in the estimated scene, and a feature vector V (see the above equation (4)) is calculated at each scanned point. Next, in step S12, by using the ensemble classification tree created at the time of learning, in step S11, the feature point of the learning image similar to the feature amount of the extracted feature point of the estimated scene is obtained as the corresponding point. (The attribute of the feature point extracted in step S11 is determined, see FIG. 6).
次に、ステップ13において、本実施形態では、図6に示すように、対応点(属性)に対応する投票面((x,y)平面)上の位置に、投票が行われる。なお、特徴量であるDoGは、回転不変な特徴量であるので、推定シーン中の推定対象の方向を一意に定めることはできない。このため、投票は、投票面に円状に行われる。その結果、投票面に投票が集まっている所(多く投票された場所)に、推定対象(認識対象)が存在していると判断(推定)することが可能となる。
Next, in
次に、図7〜図16を参照して、本実施形態による画像認識方法の有効性を確認するために行った、バラ積みされた状態のワーク200および201に対して、ワーク200および201の概略の中心位置を推定する実験について説明する。
Next, with reference to FIG. 7 to FIG. 16, the
(実験1)
実験1では、図7に示すように、3つの孔200aを有する平板状のワーク200に対して、ワーク200の概略の中心位置を推定する実験を行った。以下に、学習時の条件について説明する。なお、この条件は、以下に説明する実験2においても同様である。
(Experiment 1)
In
学習時では、3次元のCADデータに基づいて作成された仮想環境でのワーク200の画像が学習画像として用いられた。図8に示すように、本実施形態では、学習画像は、1つのワーク200を平面上に置いた画像からなる。また、学習画像(および推定シーン、図9参照)は、2次元画像からなる。また、1つの分類木の作成に用いられる学習画像上の特徴点数を、300とした。また、分類木の本数は、16本とした。また、推定時では、256×256pixelsの推定シーンに対して、1pixelごとの全探索は行わずに、4pixelsごとに特徴点を抽出(特徴量を算出)した。すなわち、本実施形態(実験1および2)では、推定シーンの特徴点は、推定シーンの局所画像からなる。
At the time of learning, an image of the
図9は、推定時に用いられたバラ積みされたワーク200の画像である。なお、図9における番号1〜5は、図10に示す投票結果に基づいて、ワーク200の中心位置と推定された場所を示している。また、図10には、アンサンブル分類木によって判定された特徴点の属性に基づいて、投票面上に投票された結果が示されている。具体的には、アンサンブル分類木によって判定された推定シーンの局所画像の属性に基づいて、ワーク200の中心位置が存在すると考えられる位置が投票面上に円状に投票された結果(局所画像ごとの属性に基づく投票の結果)が、等高線によって示されている。図10における数字は、等高線の高さを示している。また、投票面の極大値に対応する位置が、ワーク200の中心位置と推定された。そして、図9では、投票面の極大値に対応する位置が、投票面の極大値の大きさ順(投票順位順)に順位付けられて、上位第1位〜第5位(番号1〜5)まで記載されている。
FIG. 9 is an image of the
図9に示すように、投票順位の上位の結果(番号1〜4)は、概ねワーク200の実際の中心位置を正確に推定していることが確認された。すなわち、本実施形態の画像認識方法は、高い精度を有することが確認された。ワーク200は、平らな面を多く有しているので、バラ積みされた状態でもワーク200の姿勢の可能性が限定される(姿勢のバリエーションが比較的少ない)ことや、3つの孔200aを含むという特異な特徴を有していることから、高い精度で推定することができたと考えられる。一方、ワーク200がバラ積みされた面に対して傾いた姿勢を有している場合には、このような姿勢が未学習であるため、推定された中心位置が実際の中心位置とずれる場合があることが確認された。
As shown in FIG. 9, it was confirmed that the higher results of the voting rank (
(実験2)
実験2では、図11に示すように、6つの孔201aを有する平板状のワーク201に対して、ワーク201の概略の中心位置を推定する実験を行った。なお、ワーク201は、図12および図13に示すように、表面と裏面とで、形状が異なる。具体的には、ワーク201の表面は、周期的な凹凸形状を有している一方、裏面は、平らな面を有している。
(Experiment 2)
In
実験2では、図12および図13に示すように、平面上に置いたワーク201の表面の画像と、裏面の画像とが学習画像として用いられた。
In
図14は、推定時に用いられたバラ積みされたワーク201の画像である。なお、図14における番号1〜3は、図15および図16に示す投票結果に基づいて、ワーク201の中心位置と推定された場所を示している。なお、投票面は、図15および図16に示すように、ワーク201の表面と、裏面とでそれぞれ用意された。そして、ワーク201の表面の学習画像(図12参照)に基づいてアンサンブル分類木が作成された。また、作成されたアンサンブル分類木によって判定された推定シーンの局所画像の属性に基づいて、ワーク201の表面の中心位置が存在すると考えられる位置が投票面(図15参照)上に円状に投票された。同様に、ワーク201の裏面の学習画像(図13参照)に基づいてアンサンブル分類木が作成された。また、作成されたアンサンブル分類木によって判定された推定シーンの局所画像の属性に基づいて、ワーク201の裏面の中心位置が存在すると考えられる位置が投票面(図16参照)上に円状に投票された。そして、図14では、ワーク201の表面および裏面のそれぞれについて、投票面の極大値に対応する位置が、投票面の極大値の大きさ順(投票順位順)に順位付けられて、上位第1位〜第3位(番号1〜3)まで記載されている。
FIG. 14 is an image of the
図14に示すように、概ねワーク201の実際の中心位置が正確に推定されていることが確認された。すなわち、本実施形態の画像認識方法は、表面および裏面の形状が異なるワーク201についても、高い精度を有することが確認された。ワーク201もワーク200と同様に、平らな面を多く有しているので、バラ積みされた状態でもワーク201の姿勢の可能性が限定されることや、6つの孔201aおよび周期的な凹凸を含むという特異な特徴を有していることから、高い精度で推定することができたと考えられる
As shown in FIG. 14, it was confirmed that the actual center position of the
本実施形態では、上記のように、抽出された特徴点に対して、回転不変な特徴量であるDoGを用いて特徴量を算出することによって、回転不変でない特徴量を用いて特徴点の特徴量が抽出される場合と異なり、所定の角度毎に回転した学習画像を学習する必要がない。すなわち、回転不変でない特徴量に基づいて、特徴点の属性を判定するためのアンサンブル分類木を作成する場合と比べて、より少ない学習画像からアンサンブル分類木を作成することができるので、アンサンブル分類木を用いて推定シーンの特徴点の属性を判定する際に、推定画像の特徴点とマッチングされる学習画像の特徴点の数を少なくすることができ、その分、計算量を少なくすることができる。その結果、画像(推定対象)の認識(推定)に時間がかかるのを抑制することができる。 In the present embodiment, as described above, the feature point is calculated using the feature amount that is not rotation-invariant by calculating the feature amount using DoG that is the rotation-invariant feature amount with respect to the extracted feature point. Unlike the case where the amount is extracted, there is no need to learn a learning image rotated at every predetermined angle. In other words, an ensemble classification tree can be created from fewer learning images compared to creating an ensemble classification tree for determining feature point attributes based on feature quantities that are not rotation-invariant. When the feature point attribute of the estimated scene is determined using, the number of feature points of the learning image matched with the feature point of the estimated image can be reduced, and the amount of calculation can be reduced accordingly. . As a result, it can be suppressed that it takes time to recognize (estimate) an image (estimation target).
また、本実施形態では、上記のように、回転不変な特徴量として、学習画像の特徴点に対して、ガウス関数を畳み込むことにより複数の平滑化画像を生成するとともに、生成された複数の平滑化画像のうちの2つの平滑化画像の差分であるDoG値を用いる。これにより、容易に、学習画像から抽出された特徴点に対して回転不変な特徴量を算出することができる。 Further, in the present embodiment, as described above, a plurality of smoothed images are generated by convolving a Gaussian function with respect to the feature points of the learning image as the rotation-invariant feature quantity, and the generated plurality of smoothing features. A DoG value that is a difference between two smoothed images of the digitized image is used. Thereby, it is possible to easily calculate a rotation-invariant feature amount with respect to the feature point extracted from the learning image.
また、本実施形態では、上記のように、DoG値を、特徴点における範囲の異なる2つの同心円状の領域のそれぞれの輝度値の合算値の差として算出する。これにより、2つの同心円状の領域のそれぞれの輝度値は、回転不変な値であるので、学習画像から抽出された特徴点に対して回転不変な特徴量を算出することができる。 In the present embodiment, as described above, the DoG value is calculated as a difference between the sum values of the luminance values of the two concentric regions having different ranges at the feature points. Thereby, since the luminance values of the two concentric regions are rotation invariant values, it is possible to calculate a rotation invariant feature quantity with respect to the feature points extracted from the learning image.
また、本実施形態では、上記のように、複数のDoG値のうち、互いに相関の低いDoG値を選択するとともに、選択したDoG値に基づいて、識別器を作成する。これにより、全てのDoG値を用いて識別器を作成する場合と異なり、識別器を用いて推定シーンの特徴点の属性を判定する際の計算量をより少なくすることができる。その結果、画像の認識に時間がかかるのをより抑制することができる。 In the present embodiment, as described above, a DoG value having a low correlation among a plurality of DoG values is selected, and a discriminator is created based on the selected DoG value. Thereby, unlike the case where the classifier is created using all the DoG values, the amount of calculation when determining the attribute of the feature point of the estimated scene using the classifier can be further reduced. As a result, it is possible to further suppress the time taken for image recognition.
また、本実施形態では、上記のように、DoG値を要素とする複数のベクトルfを生成し、複数のベクトルfの間のハミング距離に基づいて、互いに相関の低いDoG値を選択するとともに、選択したDoG値に基づいてアンサンブル分類木を作成する。これにより、互いに相関の低いDoG値が選択されるので、特徴ベクトルVの次元数を効果的に削減することができる。 In the present embodiment, as described above, a plurality of vectors f having DoG values as elements are generated, and based on the Hamming distances between the plurality of vectors f, DoG values having low correlation with each other are selected. An ensemble classification tree is created based on the selected DoG value. As a result, DoG values having a low correlation with each other are selected, so that the number of dimensions of the feature vector V can be effectively reduced.
また、本実施形態では、上記のように、回転不変な特徴量を用いて算出された学習画像の特徴点の特徴量から、特徴点の属性を判定するための分類木を複数有するアンサンブル分類木を作成する。これにより、1つの分類木の判別性能(精度)が比較的低い場合でも、分類木を複数有するアンサンブル分類木により、特徴点の属性の判定性能を高めることができる。 In the present embodiment, as described above, an ensemble classification tree having a plurality of classification trees for determining the feature point attributes from the feature quantities of the feature points of the learning image calculated using the rotation-invariant feature quantities. Create As a result, even when the discrimination performance (accuracy) of one classification tree is relatively low, the ensemble classification tree having a plurality of classification trees can enhance the attribute judgment performance of feature points.
また、本実施形態では、上記のように、アンサンブル分類木により判定された特徴点の属性に基づいて、投票面に円状に投票することによって、推定対象の位置を推定する。これにより、特徴点の特徴量を回転不変な特徴量であるDoGを用いて算出した場合でも、投票を投票面に円状に行って、投票面に投票が集まっている所に推定対象が存在していると判断することにより、容易に、推定対象(ワーク200および201の中心位置)を推定することができる。
Further, in the present embodiment, as described above, the position of the estimation target is estimated by voting in a circle on the voting surface based on the attribute of the feature point determined by the ensemble classification tree. As a result, even when the feature amount of the feature point is calculated using DoG, which is a rotation-invariant feature amount, the voting is performed circularly on the voting surface, and the estimation target exists where the voting is gathered on the voting surface By determining that it is being performed, it is possible to easily estimate the estimation target (the center position of the
また、本実施形態では、上記のように、推定シーンは、バラ積みされた複数のワーク200および201の画像であり、アンサンブル分類木を用いて判定された特徴点の属性に基づいて、投票面に円状に投票することによって、バラ積みされた複数のワーク200および201の中心位置を推定する。これにより、回転不変な特徴量(DoG)に基づいて作成されたアンサンブル分類木により、バラ積みされた複数のワーク200および201の中心位置を迅速に推定することができる。
Further, in the present embodiment, as described above, the estimation scene is an image of a plurality of
また、本実施形態では、上記のように、学習画像を、1つのワーク200の画像から構成する。これにより、所定の角度毎に回転させたワークの学習画像を複数用意して、複数の学習画像からアンサンブル分類木を作成する場合と異なり、推定対象の推定(認識)に時間がかかるのを抑制することができる。
In the present embodiment, as described above, the learning image is configured from the image of one
また、本実施形態では、上記のように、学習画像および推定シーンを、2次元画像から構成する。これにより、学習画像および推定シーンを3次元画像から構成する場合と異なり、アンサンブル分類木の作成および推定対象の推定を迅速に行うことができる。 In the present embodiment, as described above, the learning image and the estimated scene are configured from two-dimensional images. Thereby, unlike the case where the learning image and the estimation scene are configured from three-dimensional images, it is possible to quickly create an ensemble classification tree and estimate an estimation target.
また、本実施形態では、上記のように、推定シーンの特徴点を、推定シーンの局所画像から構成する。これにより、推定シーンの全ての点(pixel)において、特徴点の特徴量を算出する場合と異なり、推定対象の認識を迅速に行うことができる。 In the present embodiment, as described above, the feature points of the estimated scene are configured from the local images of the estimated scene. Thereby, unlike the case where the feature amount of the feature point is calculated at all points (pixels) of the estimation scene, the estimation target can be quickly recognized.
なお、今回開示された実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施形態の説明ではなく特許請求の範囲によって示され、さらに特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれる。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above description of the embodiments but by the scope of claims for patent, and further includes all modifications within the meaning and scope equivalent to the scope of claims for patent.
たとえば、上記実施形態では、回転不変な特徴量としてDoG(DoG値)を用いる例を示したが、回転不変な特徴量としてDoG以外の特徴量を用いてもよい。たとえば、推定対象の中心から推定対象のエッジ(輪郭)までの距離を光軸周りに所定の角度間隔で算出するとともに、得られた結果を周波数解析することにより得られる特徴量を、回転不変な特徴量として用いてもよい。 For example, in the above-described embodiment, an example in which DoG (DoG value) is used as a rotation-invariant feature amount has been described. However, a feature amount other than DoG may be used as a rotation-invariant feature amount. For example, the distance from the center of the estimation target to the edge (contour) of the estimation target is calculated at a predetermined angular interval around the optical axis, and the feature amount obtained by frequency analysis of the obtained result is a rotation invariant. It may be used as a feature amount.
また、上記実施形態では、互いに相関の低いDoG(DoG値)を選択することにより、特徴ベクトルVの次元を削減する例を示したが、特徴ベクトルVの次元を削減しなくてもよい。 In the above-described embodiment, an example in which the dimension of the feature vector V is reduced by selecting DoGs (DoG values) having a low correlation with each other is shown. However, the dimension of the feature vector V may not be reduced.
また、上記実施形態では、特徴点における範囲の異なる2つの同心円状の領域のそれぞれの輝度値の合算値の差をDoG値とする例を示したが、たとえば、輝度値の平均値の差をDoG値としてもよい。 Moreover, in the said embodiment, although the example which made the difference of the luminance value of each two concentric area | regions where the range in a feature point differs in the DoG value was shown, the difference of the average value of a luminance value is shown, for example It may be a DoG value.
また、上記実施形態では、識別器としてアンサンブル分類木を用いる例を示したが、アンサンブル分類木以外の識別器(たとえば、1つの分類木や、サポートベクターマシン(SVM)など)を用いてもよい。 In the above embodiment, an example using an ensemble classification tree as a classifier has been shown. However, a classifier other than the ensemble classification tree (for example, one classification tree or a support vector machine (SVM)) may be used. .
また、上記実施形態では、バラ積みされた複数のワークの画像から、ワークの中心位置を推定する例を示したが、バラ積みされた複数のワーク以外の推定対象(写真の中の人物や、航空写真中の所定の建物など)を推定することも可能である。 Moreover, in the said embodiment, although the example which estimates the center position of a workpiece | work from the image of the several workpiece | work piled up separately was shown, the estimation object (person in a photograph, It is also possible to estimate a predetermined building in an aerial photograph.
また、上記実施形態では、平面上に載置された1つのワークの画像(1つのワークの表面と裏面との画像)を学習画像として用いる例を示したが、たとえば、平面上に載置されたワークの画像に加えて、載置面に対して傾斜した状態のワークの画像や、ワークの側面の画像を学習画像として用いてもよい。これにより、様々な姿勢でバラ積みされた複数のワークの推定を精度よく行うことが可能となる。 Moreover, although the example which uses the image of one workpiece | work (image of the surface of one workpiece | work and a back surface) as a learning image was shown in the said embodiment, for example, it is mounted on the plane. In addition to the image of the workpiece, an image of the workpiece inclined with respect to the placement surface or an image of the side surface of the workpiece may be used as a learning image. This makes it possible to accurately estimate a plurality of workpieces stacked in various postures.
また、上記実施形態では、センサユニットの画像処理部により、ワークの概略位置の推定が行われる例を示したが、センサユニットの画像処理部以外の部分(たとえば、ロボットコントローラや、別途設けられたパーソナルコンピュータ(PC))によって、ワークの概略位置の推定を行ってもよい。 In the above embodiment, an example is shown in which the approximate position of the workpiece is estimated by the image processing unit of the sensor unit. However, a part other than the image processing unit of the sensor unit (for example, a robot controller or a separate unit) The approximate position of the workpiece may be estimated by a personal computer (PC).
また、上記実施形態では、ロボットシステムに、上記した画像認識方法を用いる例を示したが、ロボットシステム以外のシステムに上記した画像認識方法を用いてもよい。 Moreover, although the example which uses the above-mentioned image recognition method for a robot system was shown in the said embodiment, you may use the above-mentioned image recognition method for systems other than a robot system.
3 センサユニット(画像認識装置)
34 画像処理部(第1特徴点抽出手段、特徴量算出手段、識別器作成手段、第2特徴点抽出手段、認識手段)
200、201 ワーク(推定対象)
3 Sensor unit (image recognition device)
34 Image processing unit (first feature point extraction means, feature amount calculation means, classifier creation means, second feature point extraction means, recognition means)
200, 201 Workpiece (estimation target)
Claims (12)
前記抽出された特徴点に対して、回転不変な特徴量を用いて特徴量を算出するステップと、
算出された前記学習画像の特徴点の特徴量に基づいて、前記特徴点の属性を判定するための識別器を作成するステップと、
推定画像に対して複数の特徴点を抽出するステップと、
前記識別器を用いて前記抽出された推定画像の複数の特徴点の属性を集約して推定対象の位置を判定して、前記推定画像を認識するステップとを備える、画像認識方法。 Extracting a plurality of feature points from the learning image;
Calculating a feature quantity using a rotation-invariant feature quantity for the extracted feature points;
Creating a discriminator for determining an attribute of the feature point based on the calculated feature amount of the feature point of the learning image;
Extracting a plurality of feature points from the estimated image;
A step of recognizing the estimated image by aggregating attributes of a plurality of feature points of the extracted estimated image using the classifier to determine a position of an estimation target .
前記特徴点の属性を判定するための識別器を作成するステップは、前記複数のDoG値のうち、互いに相関の低いDoG値を選択するとともに、選択した前記DoG値に基づいて、前記識別器を作成するステップを含む、請求項2または3に記載の画像認識方法。 The DoG value includes a plurality of DoG values;
The step of creating a discriminator for determining the attribute of the feature point selects a DoG value having a low correlation among the plurality of DoG values, and selects the discriminator based on the selected DoG value. The image recognition method according to claim 2, further comprising a creating step.
前記推定画像の位置を推定するステップは、前記識別器を用いて判定された前記特徴点の属性に基づいて、投票面に円状に投票することによって、前記バラ積みされた複数のワークの中心位置を推定するステップを含む、請求項7に記載の画像認識方法。 The estimated image includes images of a plurality of workpieces stacked in bulk,
The step of estimating the position of the estimated image is performed by voting in a circle on a voting surface based on the attribute of the feature point determined using the discriminator. The image recognition method according to claim 7, comprising a step of estimating a position.
前記抽出された特徴点に対して、回転不変な特徴量を用いて特徴量を算出する特徴量算出手段と、
算出された前記学習画像の特徴点の特徴量に基づいて、前記特徴点の属性を判定するための識別器を作成する識別器作成手段と、
推定画像に対して複数の特徴点を抽出する第2特徴点抽出手段と、
前記識別器を用いて前記抽出された推定画像の複数の特徴点の属性を集約して推定対象の位置を判定して、前記推定画像を認識する認識手段とを備える、画像認識装置。 First feature point extracting means for extracting a plurality of feature points from the learning image;
A feature quantity calculating means for calculating a feature quantity using a rotation-invariant feature quantity for the extracted feature points;
A discriminator creating means for creating a discriminator for determining an attribute of the feature point based on the calculated feature amount of the feature point of the learning image;
Second feature point extracting means for extracting a plurality of feature points from the estimated image;
An image recognition apparatus comprising: a recognizing unit that aggregates attributes of a plurality of feature points of the extracted estimated image using the classifier to determine a position of an estimation target and recognizes the estimated image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012260886A JP6124566B2 (en) | 2012-11-29 | 2012-11-29 | Image recognition method and image recognition apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012260886A JP6124566B2 (en) | 2012-11-29 | 2012-11-29 | Image recognition method and image recognition apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014106856A JP2014106856A (en) | 2014-06-09 |
JP6124566B2 true JP6124566B2 (en) | 2017-05-10 |
Family
ID=51028257
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012260886A Expired - Fee Related JP6124566B2 (en) | 2012-11-29 | 2012-11-29 | Image recognition method and image recognition apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6124566B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6916112B2 (en) * | 2014-11-21 | 2021-08-11 | ブルヴェクター, インコーポレーテッドBluvector, Inc. | Network data characterization system and method |
CN105197012B (en) * | 2015-10-10 | 2017-12-15 | 广东轻工职业技术学院 | A kind of vehicle automatic control method |
JP6588609B2 (en) * | 2018-09-27 | 2019-10-09 | 株式会社nittoh | Optical device |
CN117372790B (en) * | 2023-12-08 | 2024-03-08 | 浙江托普云农科技股份有限公司 | Plant leaf shape classification method, system and device |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4720913B2 (en) * | 2009-02-19 | 2011-07-13 | ソニー株式会社 | Learning device, learning method, identification device, identification method, and program |
JP5675214B2 (en) * | 2010-08-18 | 2015-02-25 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
-
2012
- 2012-11-29 JP JP2012260886A patent/JP6124566B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014106856A (en) | 2014-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kang et al. | Automatic targetless camera–lidar calibration by aligning edge with gaussian mixture model | |
US11360571B2 (en) | Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data | |
JP5328979B2 (en) | Object recognition method, object recognition device, autonomous mobile robot | |
KR101283262B1 (en) | Method of image processing and device thereof | |
JP6430064B2 (en) | Method and system for aligning data | |
US9044858B2 (en) | Target object gripping apparatus, method for controlling the same and storage medium | |
JP5726125B2 (en) | Method and system for detecting an object in a depth image | |
US8755562B2 (en) | Estimation apparatus, control method thereof, and program | |
Holz et al. | Active recognition and manipulation for mobile robot bin picking | |
WO2012077287A1 (en) | Orientation state estimation device and orientation state estimation method | |
JP4709668B2 (en) | 3D object recognition system | |
CN106529573A (en) | Real-time object detection method based on combination of three-dimensional point cloud segmentation and local feature matching | |
JP2015147256A (en) | Robot, robot system, control device, and control method | |
JP6172432B2 (en) | Subject identification device, subject identification method, and subject identification program | |
JP5297727B2 (en) | Robot apparatus and object position / orientation estimation method | |
JP2011179909A (en) | Device and method for measuring position and attitude, and program | |
JP6124566B2 (en) | Image recognition method and image recognition apparatus | |
CN110766750A (en) | A Vision Servo Target Recognition Method for Robot Arm Based on Local Contour | |
US11480661B2 (en) | Determining one or more scanner positions in a point cloud | |
JP6041710B2 (en) | Image recognition method | |
JP2017091202A (en) | Object recognition method and object recognition apparatus | |
Yamada et al. | Pose estimation of a simple-shaped object based on poseclass using RGBD camera | |
JP6085160B2 (en) | Object recognition system | |
Sidiropoulos et al. | Edge points detection in unorganized point clouds | |
JP7405607B2 (en) | 3D data generation device and robot system that interpolates 3D data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20151116 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161020 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161025 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161209 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170328 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170404 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6124566 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |