JP6369131B2 - Object recognition apparatus and object recognition method - Google Patents
Object recognition apparatus and object recognition method Download PDFInfo
- Publication number
- JP6369131B2 JP6369131B2 JP2014109325A JP2014109325A JP6369131B2 JP 6369131 B2 JP6369131 B2 JP 6369131B2 JP 2014109325 A JP2014109325 A JP 2014109325A JP 2014109325 A JP2014109325 A JP 2014109325A JP 6369131 B2 JP6369131 B2 JP 6369131B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- points
- dimensional image
- point
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、物体の位置を認識するための物体認識装置及び物体認識方法であって、特に、無人搬送車がパレットやケース等の物体を搬送する際に、物体の載置位置を認識するための物体認識装置及び物体認識方法に関する。特に、人の顔などの不特定の画像ではなく、パレット等の既定の物体の特定画像を認識する物体認識装置に関する。 The present invention relates to an object recognition apparatus and an object recognition method for recognizing the position of an object, and particularly for recognizing a placement position of an object when an automatic guided vehicle transports an object such as a pallet or a case. The present invention relates to an object recognition apparatus and an object recognition method. In particular, the present invention relates to an object recognition apparatus that recognizes a specific image of a predetermined object such as a palette, not an unspecified image such as a human face.
物体を撮影した画像情報に基づいて、物体の認識を行う物体認識装置は、種々のものが提案されている。
例えば、特許文献1には、位置を変えて設けられた一対のカメラにより撮影された2つの画像データに基づいて、距離情報を備える三次元画像を生成し、これに基づいて物体認識を行う装置が開示されている。
Various object recognition apparatuses that recognize an object based on image information obtained by photographing the object have been proposed.
For example,
また、特許文献2には、TOF(Time Of Flight)カメラにより得られる距離画像(三次元画像)を用いて、特徴点をヒストグラム化して特徴量を算出し、参照パターンとの比較により物体の認識を行う装置が開示されている。
さらに、特許文献3には、物体の二次元画像と距離画像とから物体の三次元座標を算出して、参照パターンとなる三次元モデルのデータを当てはめて、物体の認識を行う装置が開示されている。
Further,
Further,
二次元画像から物体の認識を行う場合には、各画素の輝度値パターンに基づいて物体の認識を行える。この場合、認識対象となる物体の形状が単純パターンであれば、誤認識を生じやすく、照明条件によっても誤認識が生じる。さらに、二次元画像上におけるパターンが、実際のどのような大きさであるかを判別することが困難である。特に、カメラの撮影方向が斜めである場合には、二次元画像上のパターンを正確に認識することが困難である。 When the object is recognized from the two-dimensional image, the object can be recognized based on the luminance value pattern of each pixel. In this case, if the shape of the object to be recognized is a simple pattern, erroneous recognition is likely to occur, and erroneous recognition also occurs depending on illumination conditions. Furthermore, it is difficult to determine the actual size of the pattern on the two-dimensional image. In particular, when the shooting direction of the camera is oblique, it is difficult to accurately recognize the pattern on the two-dimensional image.
このため、特許文献1〜3の物体認識装置では、物体を撮影した三次元画像から、物体の特徴点を抽出して、物体の認識を行っている。しかし、パターンマッチングを行うための特徴点の候補を多数抽出する必要があり、演算負荷が大きくなる。また、背景に含まれる特徴点や、対象となる物体と類似する特徴点を有する物体が画像情報に含まれる場合には、誤認識するおそれがある。また、画像全体に比して物体が小さい場合にも、誤認識を生じるおそれがある。
特許文献3に記載されているように、二次元画像において抽出した物体の画像特徴に、三次元画像により三次元座標を算出して、三次元モデルデータとの照合を行った場合には、多数の特徴点を抽出する際の演算負荷が大きくなる。このような演算負荷を低減するためには、パターンマッチングを行うための特徴点の候補を少なくすることが考えられるが、その場合、パターンマッチングの精度が低下するという問題がある。
For this reason, in the object recognition apparatus of patent documents 1-3, the feature point of an object is extracted from the three-dimensional image which image | photographed the object, and the object is recognized. However, it is necessary to extract a large number of feature point candidates for pattern matching, which increases the calculation load. In addition, when the image information includes a feature point included in the background or an object having a feature point similar to the target object, there is a risk of erroneous recognition. In addition, erroneous recognition may occur even when the object is smaller than the entire image.
As described in
本発明の課題は、物体認識装置において、物体認識の精度を低下させることなく、演算負荷を低減することにある。 An object of the present invention is to reduce a calculation load in an object recognition apparatus without reducing the accuracy of object recognition.
以下に、課題を解決するための手段として複数の態様を説明する。これら態様は、必要に応じて任意に組み合せることができる。
本発明の一見地による物体認識装置は、モデル保存部と、三次元画像入力部と、画像特徴点検出部と、特徴量算出部と、パターンマッチング部とを備える。モデル保存部は、認識対象である物体表面の点の集合及び各点を結んで構成される線分の集合によって定義される物体の幾何的特徴を表すモデルのデータを保存する。三次元画像入力部は、物体が含まれる三次元画像を入力する。画像特徴点検出部は、三次元画像における特徴点を検出する。特徴量算出部は、三次元画像上の各点における特徴量を算出する。パターンマッチング部は、画像特徴点検出部で検出された特徴点と、特徴点に対して特定の幾何的条件を満たす補間点とにおける特徴量に基づいて、モデルのデータとの類似度を比較することで物体の認識を行う。
物体の形状によっては、モデル上の特徴点ではない点に、物体の特徴を表す点としての属性を与えることができる。このような点を、特徴点と特定の幾何的条件を満たす補間点とすることで、パターンマッチングを行う際の特徴点のダウンサンプリングが可能となり、その結果、背景に存在する他の特徴点と識別して、物体の認識を確実に行うことができる。また、これにより、パターンマッチング処理の演算負荷を軽減できる。
Hereinafter, a plurality of modes will be described as means for solving the problems. These aspects can be arbitrarily combined as necessary.
An object recognition apparatus according to an aspect of the present invention includes a model storage unit, a three-dimensional image input unit, an image feature point detection unit, a feature amount calculation unit, and a pattern matching unit. The model storage unit stores model data representing a geometric feature of an object defined by a set of points on the object surface to be recognized and a set of line segments formed by connecting the points. The three-dimensional image input unit inputs a three-dimensional image including an object. The image feature point detection unit detects feature points in the three-dimensional image. The feature amount calculation unit calculates a feature amount at each point on the three-dimensional image. The pattern matching unit compares the similarity between the feature points detected by the image feature point detection unit and the model data based on the feature amounts between the feature points and the interpolation points satisfying a specific geometric condition. The object is recognized.
Depending on the shape of the object, an attribute as a point representing the feature of the object can be given to a point that is not a feature point on the model. By making such a point an interpolation point that satisfies a specific geometric condition with the feature point, it is possible to downsample the feature point when performing pattern matching, and as a result, other feature points existing in the background It is possible to identify and reliably recognize the object. Thereby, the calculation load of the pattern matching process can be reduced.
パターンマッチング部は、画像特徴点検出部で検出された特徴点から、所定の幾何的条件を満たす所定数の特徴点をマッチング候補点として抽出してもよい。
物体の特徴を表す特徴点の幾何的条件を設定することにより、三次元画像から検出した特徴点から、マッチングを行うためのマッチング候補点をダウンサンプリングすることが容易であり、この結果、演算負荷を低減できる。
The pattern matching unit may extract a predetermined number of feature points satisfying a predetermined geometric condition as matching candidate points from the feature points detected by the image feature point detection unit.
By setting the geometric conditions of the feature points representing the features of the object, it is easy to downsample the matching candidate points for matching from the feature points detected from the three-dimensional image. Can be reduced.
補間点は、1対又は複数対の特徴点の中間点であってもよい。
物体のエッジが断続するような部分では、検出される特徴点の間に、物体上の特徴点ではない点が存在することになる。このような点は、画像上に存在する物体を認識する際に、有効な情報となり得る。このため、特徴点の中間点を補間点としてマッチング候補点とすることで、マッチング精度を向上できる。
The interpolation point may be an intermediate point between one or more pairs of feature points.
In the part where the edge of the object is intermittent, there is a point that is not a feature point on the object between the detected feature points. Such a point can be effective information when recognizing an object present on the image. For this reason, matching accuracy can be improved by using an intermediate point of the feature points as an interpolation point as a matching candidate point.
パターンマッチング部は、特徴量算出部が作成するマッチング候補点のヒストグラムに基づいて、物体の認識を行ってもよい。
特徴量の算出には、公知の技術を用いることが可能であり、例えば、法線方向ヒストグラム、距離ヒストグラム、輝度レベルのヒストグラムなどを用いることが可能であり、より具体的には、FPFH(Fast Point Feature Histograms)を用いることができる。
物体は、3個の特徴点を有するパレットであってもよい。その場合、所定の幾何的条件を満たす所定数の特徴点とは、3個の特徴点のなす角度が所定範囲内である3個の特徴点である。
The pattern matching unit may recognize an object based on a histogram of matching candidate points created by the feature amount calculation unit.
For calculating the feature amount, a known technique can be used. For example, a normal direction histogram, a distance histogram, a luminance level histogram, and the like can be used. More specifically, FPFH (Fast Point Feature Histograms) can be used.
The object may be a pallet having three feature points. In this case, the predetermined number of feature points satisfying a predetermined geometric condition are three feature points whose angles formed by the three feature points are within a predetermined range.
三次元画像入力部は、TOF(Time Of Flight)カメラ、又はステレオカメラを有していてもよい。
この場合、TOFカメラ、又はステレオカメラを用いて撮影される物体の距離画像を三次元画像として入力できる。TOFカメラ及びステレオカメラにより撮影された距離画像を用いて特徴点を検出する技術については、公知のものを用いることができる。
The three-dimensional image input unit may include a TOF (Time Of Flight) camera or a stereo camera.
In this case, a distance image of an object photographed using a TOF camera or a stereo camera can be input as a three-dimensional image. As a technique for detecting a feature point using a distance image photographed by a TOF camera and a stereo camera, a known technique can be used.
画像特徴点検出部は、Harris処理、又はSIFT(Scale Invariant Feature Transform)処理することにより、特徴点を検出してもよい。また、ISS(Intrinsic Shape Signatures)でもよい。
特徴点の検出方法は、画像の各画素について、色や輝度変化が大きくなる点を検出できればよく、Harris作用素、又はSIFT作用素を用いる方法の他に、公知の技術を用いることができる。
The image feature point detection unit may detect feature points by performing Harris processing or SIFT (Scale Invariant Feature Transform) processing. Also, ISS (Intrinsic Shape Signatures) may be used.
The feature point detection method only needs to be able to detect a point at which a color or luminance change increases for each pixel of the image, and a known technique can be used in addition to the method using the Harris operator or SIFT operator.
物体認識装置は、三次元画像とほぼ同一視点で撮影された物体を含む二次元画像を入力する二次元画像入力部と、二次元画像における物体の画像特徴を検出する二次元画像処理部とをさらに備えていてもよい。
画像特徴点検出部が特徴点の検出を行うのは、三次元画像において、二次元画像処理部において検出された物体の画像特徴に対応する領域のみであってもよい。
この場合、二次元画像により特定された物体の画像特徴に対応する領域において、特徴点を検出していることから、通常の三次元画像からの特徴点の抽出に比して、演算負荷を軽減でき、高速化が可能になる。
特徴量算出部は、三次元画像において前記領域にある特徴点における特徴量を算出し、パターンマッチング部は、三次元画像において前記領域にある前記特徴点の前記特徴量を用いてもよい。
The object recognition device includes a two-dimensional image input unit that inputs a two-dimensional image including an object photographed from substantially the same viewpoint as the three-dimensional image, and a two-dimensional image processing unit that detects an image feature of the object in the two-dimensional image. Furthermore, you may provide.
The image feature point detection unit may detect the feature point only in a region corresponding to the image feature of the object detected by the two-dimensional image processing unit in the three-dimensional image.
In this case, since the feature points are detected in the region corresponding to the image features of the object specified by the two-dimensional image, the calculation load is reduced compared to the extraction of the feature points from the normal three-dimensional image. Can be speeded up.
The feature amount calculation unit may calculate a feature amount at a feature point in the region in the three-dimensional image, and the pattern matching unit may use the feature amount of the feature point in the region in the three-dimensional image.
本発明の他の見地に係る物体認識方法は、以下のステップを備えている。
◎認識対象である物体表面の点の集合及び各点を結んで構成される線分の集合によって定義される物体の幾何的特徴を表すモデルのデータを保存するステップ
◎物体が含まれる三次元画像を入力するステップ
◎三次元画像における特徴点を検出するステップ
◎特徴点と、特徴点に対して特定の幾何的条件を満たす補間点とにおける特徴量を算出するステップ
◎特徴量に基づいて、モデルのデータとの類似度を比較して物体の認識を行うステップ
この場合、CPU、ROM、RAMを備えるマイクロプロセッサにより、各ステップを備えるプログラムを実行することにより、サンプリング数の少ない特徴点から物体の認識を行うことができ、その結果、演算負荷を軽減できる。
An object recognition method according to another aspect of the present invention includes the following steps.
◎ Step of saving model data representing geometric features of an object defined by a set of points on the object surface to be recognized and a set of line segments connecting the points ◎ 3D image containing the object ◎ Step of detecting feature point in 3D image ◎ Step of calculating feature amount between feature point and interpolation point satisfying specific geometric condition for feature point ◎ Model based on feature amount In this case, by executing a program including each step by a microprocessor including a CPU, a ROM, and a RAM, the object is detected from a feature point with a small number of samplings. Recognition can be performed, and as a result, the calculation load can be reduced.
本発明によれば、物体認識の精度を低下させることなく、演算負荷を低減することが可能な物体認識装置を提供できる。 ADVANTAGE OF THE INVENTION According to this invention, the object recognition apparatus which can reduce a calculation load can be provided, without reducing the accuracy of object recognition.
(1)概略構成
図1は、物体認識装置を搭載する無人フォークリフトの説明図である。
無人フォークリフト2は、内部に設置された制御部(図示せず)の制御に基づいて自律走行可能な本体部21を備えている。
本体部21の前面には、上下移動可能に配置された1対のフォーク23,24を備えており、パレット3をリフトアップして搬送可能となっている。
さらに、本体部21は、物体認識装置22を備えている。物体認識装置22は、少なくとも本体部21の前方の画像情報を取得できるカメラ(詳細は後述する)を備えている。物体認識装置22は、カメラにより撮影された画像情報に基づく三次元画像から、認識対象であるパレット3を認識する。物体認識装置22のカメラをフォーク23,23の先端部に設けても良い。
(1) Schematic Configuration FIG. 1 is an explanatory diagram of an unmanned forklift equipped with an object recognition device.
The
The front surface of the
Furthermore, the
パレット3は、例えば、図示したように、フォーク23,24が挿入可能な差し込み口31,32が設けられている。パレット3の差し込み口31,32が形成される面には、差し込み口31,32を挟む垂直面33,34,35が形成されている。
物体認識装置22は、無人フォークリフト2に対向する面に形成された垂直面33〜35の特徴点を検出することによって、パレット3をその位置、形状及び大きさを含め認識・識別できる。
The
The
無人フォークリフト2は、例えば、倉庫内において物品が載置されるパレット3を搬送する。無人フォークリフト2の制御部は、倉庫内の環境上における自己の現在位置を把握し、搬送対象であるパレット3の近傍を目的位置として、走行経路を決定して走行制御する。物体認識装置22は、目的位置において、カメラにより撮影された画像方向に基づいて、パレット3の位置、形状及び大きさを認識・識別する。無人フォークリフト2の制御部は、フォーク23,24をパレット3の差し込み口31,32に差し込んでパレット3を持ち上げ、次の目的位置に移動する。
パレット3の上面には、物品が載置されている場合と物品が載置されていない場合があり、物体認識装置22は、そのいずれの場合にもパレット3を認識できるようにする。
The
There are cases where an article is placed on the upper surface of the
図2は、物体認識装置の概略構成を示すブロック図である。
物体認識装置22は、三次元画像入力部41と、画像特徴点検出部42と、特徴量算出部43と、パターンマッチング部44と、モデル保存部45とを備える。
三次元画像入力部41は、物体の三次元画像を入力する。例えば、三次元画像入力部41は、位置が異なる2つのカメラを有するステレオカメラを含んでいてもよく、その場合は、2つの二次元画像の視差により、二次元画像上の特徴点に距離データ処理がなされた距離画像を三次元画像として入力する。この他にも、TOFカメラ、又は距離センサで得られる距離データに基づいて生成される距離画像が、三次元画像として入力できる。
FIG. 2 is a block diagram illustrating a schematic configuration of the object recognition apparatus.
The
The three-dimensional
画像特徴点検出部42は、三次元画像に対して特徴点を検出する。具体的には、画像特徴点検出部42は、三次元画像の各画素について、色や濃淡変化が激しい点を検出することで、特徴点を検出できる。このことから、画像特徴点検出部42は、例えば、Harrris作用素を用いた方法により、特徴点を検出できる。画像特徴点検出部42は、この他に、SIFT作用素を用いた方法により特徴点を検出でき、その他、公知の技術を用いて特徴点の検出を行える。
The image
特徴量算出部43は、三次元画像上の各点における特徴量を算出する。特に、特徴量算出部43は、パターンマッチングを行う際のマッチング候補点について、特徴量を算出する。特徴量は、各点における法線方向ベクトルが、周辺特徴点の法線ベクトルとなす角度に基づいて生成される法線方向ヒストグラムにより算出できる。具体的には、FPFH(Fast Point Feature Histgrams)を用いることができる。また、入力される画像情報が三次元画像であることから、特徴量算出部43は、距離データに基づく各点における距離ヒストグラムを作成できる。この他にも、各画素の輝度に基づいて輝度ヒストグラムを作成して、各点の特徴量を算出することが可能である。 The feature amount calculation unit 43 calculates the feature amount at each point on the three-dimensional image. In particular, the feature amount calculation unit 43 calculates feature amounts for matching candidate points when pattern matching is performed. The feature amount can be calculated by a normal direction histogram generated based on an angle formed by a normal direction vector at each point and a normal vector of a peripheral feature point. Specifically, FPFH (Fast Point Feature Histograms) can be used. Further, since the input image information is a three-dimensional image, the feature amount calculation unit 43 can create a distance histogram at each point based on the distance data. In addition to this, it is possible to create a luminance histogram based on the luminance of each pixel and calculate the feature amount of each point.
パターンマッチング部44は、画像特徴点検出部42で検出された特徴点に基づいて、三次元画像上のマッチング候補点を抽出し、抽出されたマッチング候補点の特徴量と、モデルのデータとの類似度を比較することにより、物体の認識を行う。
例えば、パターンマッチング部44は、画像特徴点検出部42により検出された特徴点のうちから、特定の幾何的関係にある1又は複数の特徴点対を抽出する。例えば、パレット3の垂直面33〜35が、床面と接するエッジに複数の特徴点がある場合、各垂直面33〜35上に位置する特徴点は、ほぼ直線上にあると考えられる。したがって、3点の特徴点の中央に位置する特徴点と他の2つの特徴点を結ぶ線分がほぼ180度の角度となる。また、パレット3が規格に合致するものであれば、3点の特徴点の距離は所定範囲となる。
したがって、パターンマッチング部44は、所定範囲の距離だけ離間し、各点を結ぶ線分がなす角度が所定範囲であれば、この3点の特徴点をマッチング候補点とする。さらに、パターンマッチング部44は、中央に位置する特徴点と、他の2つの特徴点との間の中間点を、それぞれパターンマッチングの候補点とする。パターンマッチング部44は、このようにして、パターンマッチングを行うためのマッチング候補点を選択することによって、特徴点のダウンサンプリングを行う。
The
For example, the
Therefore, the
次に、パターンマッチング部44は、マッチング候補点について、それぞれ特徴量算出部43で算出される特徴量を、モデル保存部45に保存されたモデルのデータと比較する。このようにして、物体の認識が行われる。
モデル保存部45は、物体の幾何的特徴を表す二次元モデルのデータを保存する。二次元モデルのデータは、三次元画像に撮影された物体を認識する際に、物体の位置や姿勢を算出する際に用いられるものであり、例えば、点の集合及び各点を結んで構成される線分の集合によって定義される。具体的には、基本のモデルのデータは、1)特徴点3点の隣り合う点間の距離範囲、2)3点の両端の点間の距離範囲、3)3点の特徴点の間をなす角度範囲、4)各特徴点・補間点のFPFHヒストグラムの次元(角度)ごとの平均及び分散である。
また、二次元モデルのデータは、物体の三次元画像から得られる特徴点と、その特徴点の中間点における特徴量とすることもできる。この場合、特徴点を検出する方法は画像特徴点検出部42と同一の方法とし、各点の特徴量を算出する方法は、特徴量算出部43と同一の方法とする。
モデル保存部45は、EEPROM、RAM、ハードディスク、その他の記憶装置の所定の領域で構成される。
Next, the
The
In addition, the data of the two-dimensional model can be a feature point obtained from a three-dimensional image of an object and a feature amount at an intermediate point between the feature points. In this case, the feature point detection method is the same method as the image feature
The
(2)処理の概略構成
図3は、物体認識処理の概略構成を示すフローチャートである。
物体認識装置22は、CPU、ROM、RAMなどを含むマイクロプロセッサで構成される制御部が、所定のプログラムを実行することにより、画像情報から物体認識を行う。
ステップS301において、制御部は、二次元モデルのデータを保存する。制御部は、認識対象である物体表面の点の集合及び各点を結んで構成される線分の集合によって定義される二次元モデルのデータを、モデル保存部45に保存する。
(2) Schematic Configuration of Processing FIG. 3 is a flowchart showing a schematic configuration of object recognition processing.
The
In step S301, the control unit stores data of the two-dimensional model. The control unit stores, in the
ステップS302において、三次元画像入力部41は、物体の三次元画像を入力する。前述したように、三次元画像入力部41は、ステレオカメラ51が撮影した距離情報を含む三次元画像を入力できる。
In step S302, the three-dimensional
ステップS303において、画像特徴点検出部42は、三次元画像に対して特徴点を検出する。具体的には、画像特徴点検出部42は、Harrris作用素を用いて、三次元画像上の特徴点を検出する。前述したように、特徴点の検出は、三次元画像の各画素について、色や濃淡が変化する点を特徴点として検出できればよく、SIFT作用素による特徴点検出、その他、公知の技術を用いた検出が可能である。
また、パターンマッチング部44が、所定の幾何的条件を満たす所定数の特徴点をマッチング候補点として抽出し、さらに抽出された特徴点に対して特定の幾何的条件を満たす補間点を決定する。
In step S303, the image
The
ステップS304において、特徴量算出部43は、検出された特徴点と、補間点とにおける特徴量を算出する。
特徴量算出部43は、マッチング候補点に関して、FPFHにより法線方向ヒストグラムを作成し、各点における特徴量を算出する。
In step S304, the feature amount calculation unit 43 calculates feature amounts at the detected feature points and interpolation points.
The feature amount calculation unit 43 creates a normal direction histogram by FPFH for the matching candidate points, and calculates the feature amount at each point.
ステップS305において、パターンマッチング部44は、特徴点及び補間点により構成されるマッチング候補点のグループと、二次元モデルのデータとの類似度を求めることにより、パターンマッチングを行う。パターンマッチング部44は、幾何的条件を満たす特徴点を抽出し、抽出された特徴点に関連する補間点をマッチング候補点として、二次元モデルのデータと比較する。したがって、パターンマッチングにおける演算負荷を軽減でき、演算速度を向上できる。
In step S <b> 305, the
(3)三次元画像入力
三次元画像入力部41の具体例について、その一例を以下に説明する。
図4は、三次元画像入力部の一例を示すブロック図である。
図4に示す三次元画像入力部41は、ステレオカメラ51からの画像情報に基づいて、距離情報を有する三次元画像を生成する。
(3) Three-dimensional image input A specific example of the three-dimensional
FIG. 4 is a block diagram illustrating an example of a three-dimensional image input unit.
The three-dimensional
ステレオカメラ51は、二次元画像を撮影する2つのカメラが異なる位置に配置される。ステレオカメラ51は、例えば、無人フォークリフト2の前面に取り付けられ、少なくとも、フォーク23,24の前方位置の2次元画像を撮影する。
無人フォークリフト2に対する2つのカメラの位置及び向きに関するパラメータは、予め設定されており、物体認識装置1の所定の記憶領域に記憶されている。
In the
Parameters relating to the position and orientation of the two cameras with respect to the
フレームメモリ52は、ステレオカメラ51により撮影された2つの二次元画像情報を記憶する。フレームメモリ52に記憶される二次元画像情報は、画像バス53を介して、二次元特徴点抽出部54に提供される。
二次元特徴点抽出部54は、2つの二次元画像情報のそれぞれについて、輝度情報に基づく二次元特徴点を検出する。また、パレット3の垂直面33〜35に、所定のパターンが形成されている場合には、この所定のパターンに沿って二次元特徴点を検出することもできる。この場合、二次元特徴点抽出部54は、2つの二次元画像情報を同一方向に追跡して、所定のパターンの外周の曲がり点を検出して、これを二次元特徴点とすることができる。
The
The two-dimensional feature
対応付け処理部55は、二次元特徴点抽出部54により抽出された二次元特徴点の対応関係の候補を発生させる。対応付け処理部55は、各対応関係の候補に対して、変換行列を発生させ、この変換誤差を求めて、変換誤差が最小となる対応関係の候補を抽出する。
The
座標算出部56は、対応付け処理部55により抽出された対応関係の候補の各特徴点の座標を算出する。例えば、ステレオカメラ51による2つの二次元画像情報は、位置の異なるカメラにより同一点を撮影したものであることから、特徴点までの距離情報を得ることが可能である。座標算出部56は、対応付け処理部55により対応付けられた2つの二次元画像情報の特徴点に基づいて、各特徴点の3次元座標を発生させて、距離情報を備える三次元画像情報を生成する。
The coordinate
三次元画像は、TOF(Time Of Flight)カメラにより撮影された画像情報を用いることができる。TOFカメラは、カメラの周囲に設けられたLEDにより赤外光を照射し、対象物から反射した反射光が、カメラで観測されるまでの時間を計測することで、対象物まで距離を測定する。TOFカメラでは、画像を構成する各画素の距離を測定でき、各画素のカメラからの距離に応じて異なる輝度で表示される距離画像を生成する。
前述したステレオカメラ51を用いた場合には、2つの二次元画像の対応付け処理を行う必要があったが、TOFカメラにより撮影された画像情報を用いることで、処理コストを削減し、処理時間を削減してリアルタイム処理が可能となる。
Image information captured by a TOF (Time Of Flight) camera can be used as the three-dimensional image. A TOF camera measures the distance to an object by irradiating infrared light with LEDs provided around the camera and measuring the time until reflected light reflected from the object is observed by the camera. . The TOF camera can measure the distance of each pixel constituting the image, and generates a distance image displayed with different luminances according to the distance of each pixel from the camera.
When the above-described
(4)画像特徴点検出
画像特徴点検出部42において、入力される3次元画像情報から特徴点を検出する方法は、公知の方法を用いることができる。
例えば、SIFT作用素を用いた特徴点の検出方法では、拡大又は縮小を行った際に、形状が急激に変化するスケールの極値を利用する。
(4) Image Feature Point Detection A known method can be used as a method for detecting a feature point from input three-dimensional image information in the image feature
For example, in a feature point detection method using a SIFT operator, an extreme value of a scale whose shape changes rapidly when enlargement or reduction is performed is used.
SIFT作用素を用いた特徴点の検出方法では、様々なスケールのLoG(Laplacian of Gaussian)フィルタをかけたとき、特徴点として用いるのに適切なスケールの極値をもつことを利用する。実際には、LoGフィルタの代わりに、標準偏差を様々に変えたガウス関数を用いて画像を平滑化し、その差を計算するDoG(Difference of Gaussian)フィルタを用いて、LoGフィルタに近似させる。 In the feature point detection method using the SIFT operator, when a LoG (Laplacian of Gaussian) filter of various scales is applied, the feature point has an extreme value suitable for use as a feature point. Actually, instead of the LoG filter, the image is smoothed using a Gaussian function with various standard deviations, and a DoG (Difference of Gaussian) filter that calculates the difference is approximated to the LoG filter.
図5は、スケールσとDoGフィルタ出力値の一例を示す特性図である。
図5(a)に示すような、所定のパターンが形成された画像情報について、スケールσを変更してDoGフィルタの出力値を検出した特性図が、図5(b)である。
図示した例では、DoGフィルタの出力値が最も大きくなるスケールσの極値が、10.15程度であることがわかる。
画像特徴点検出部42は、図5(a)の画像情報上の特徴点の候補位置と、図5(b)で得られるスケールσとを決定する。
このことにより、画像特徴点検出部42は、スケール変化に対して、不変の特徴量をもつ特徴点を選択することができる。
FIG. 5 is a characteristic diagram showing an example of the scale σ and the DoG filter output value.
FIG. 5B is a characteristic diagram in which the scale σ is changed and the output value of the DoG filter is detected for image information on which a predetermined pattern is formed as shown in FIG.
In the illustrated example, it can be seen that the extreme value of the scale σ at which the output value of the DoG filter is the largest is about 10.15.
The image
Thus, the image feature
図6は、SIFT特徴量を用いて検出した特徴点の説明図である。
図6では、垂直面33〜35及び差し込み口31〜32を含むパレット3の前面61に特徴点が多く現れている。特に、第1領域62及び第2領域63に示すように、パレット3が床面と接するエッジ部分であって、差し込み口31〜32の近傍に特徴点が多く現れる。
スケールを変えた場合や、画像を回転させて、SIFT特徴量の算出を行った結果、同様にして、パレット3が床面と接するエッジ部分に多くの特徴点が現れる。
FIG. 6 is an explanatory diagram of feature points detected using SIFT feature values.
In FIG. 6, many characteristic points appear on the
As a result of changing the scale or rotating the image and calculating the SIFT feature value, many feature points appear in the edge portion where the
画像特徴点検出方法として、Harris作用素を用いる方法が知られている。
Harris作用素を用いる特徴点の検出方法では、所定領域内の画像を微少シフトさせた場合に、輝度値差の二乗和(SSD:Sum of Squared Difference)が大きくなる点を検出する。
図7は、Harris特徴点の検出方法に関する説明図である。
画像70上に物体画像71が存在するとして、画像70上に設定される所定領域72を微少シフトさせる場合を考える。
図7(a)に示すように、所定領域72が物体画像71上に設定されている場合、画像70の微少シフトによる輝度値の変化が少ない。したがって、この場合には、どの方向に移動させても、特徴点を検出することは難しい。
As an image feature point detection method, a method using a Harris operator is known.
In the feature point detection method using the Harris operator, a point at which the sum of squares (SSD: Sum of Squared Difference) of luminance value differences increases when an image in a predetermined region is slightly shifted is detected.
FIG. 7 is an explanatory diagram relating to a Harris feature point detection method.
Consider a case where the predetermined
As shown in FIG. 7A, when the
図7(b)に示すように、所定領域72が物体画像71のエッジ上に設定されている場合、図の上下方向への移動に対しては、輝度値の変化は少ないが、図の左右方向への移動に対しては、輝度値の変化が大きくなる。したがって、図の左右方向に画像70を移動させて、縦方向のエッジを特徴点として検出できる。
また、図7(c)に示すように、所定領域72が物体画像71のコーナー付近に設定されている場合、画像70をいずれの方向に移動させても、輝度値の変化が大きくなる。したがって、認識対象である物体のコーナー位置を特徴点として検出できる。
As shown in FIG. 7B, when the
Further, as shown in FIG. 7C, when the
このようなHarris作用素を用いる特徴点の検出方法によれば、図7(d)に示すように、床面73上に物体74が載置されている場合に、床面73と接するコーナー75を特徴点として検出できる。例えば、コーナー75を含む所定領域76を微少シフトして、輝度値の二乗和に基づいて、特徴点を検出できる。
According to the feature point detection method using such a Harris operator, when the
図8は、Harris作用素を用いて検出した特徴点の説明図である。
図8では、垂直面33〜35及び差し込み口31〜32を含むパレット3の前面81に特徴点が多く現れる。特に、第1領域82、第2領域83、第3領域84に示すように、パレット3の垂直面33〜35が床面と接するエッジ部分に特徴点が多く現れる。
スケールを変えた場合や、画像を回転させて、Harris特徴量の算出を行った結果、同様にして、垂直面33〜35が床面と接するエッジ部分に多くの特徴点が現れる。
このことから、三次元画像情報から検出した特徴点のうちから、所定の幾何的条件を満たす特徴点のグループをマッチング候補点として抽出すれば、効率良くパターンマッチングを行うことができる。
FIG. 8 is an explanatory diagram of feature points detected using a Harris operator.
In FIG. 8, many feature points appear on the
As a result of calculating the Harris feature amount when the scale is changed or by rotating the image, many feature points appear in the edge portions where the
Therefore, if a group of feature points satisfying a predetermined geometric condition is extracted from the feature points detected from the three-dimensional image information as matching candidate points, pattern matching can be performed efficiently.
(5)画像特徴点検出〜パターンマッチング処理
パターンマッチング部44は、画像特徴点検出部42により検出された特徴点に基づいて、マッチング候補点の特徴量を二次元モデルのデータの特徴量と比較して、画像上の物体の認識・識別を行う。この画像特徴量検出処理〜パターンマッチング処理を以下に詳述する。
図9は、画像特徴量検出処理〜パターンマッチング処理のフローチャートである。図9では、三次元画像情報が入力された後の処理を示すものであり、図3のステップS303〜ステップS305に対応する処理を示す。
ステップS901において、画像特徴点検出部42は、三次元画像上の点群から特徴点を検出する。具体的には、画像特徴点検出部42が、Harris作用素を用いた特徴点の検出方法を用いて、三次元画像上の特徴点を抽出する。
(5) Image feature point detection to pattern matching process The
FIG. 9 is a flowchart of image feature amount detection processing to pattern matching processing. FIG. 9 shows processing after the three-dimensional image information is input, and shows processing corresponding to steps S303 to S305 in FIG.
In step S901, the image
ステップS902において、パターンマッチング部44は、幾何的条件によるマッチング候補点の抽出を行う。例えば、パレット3の前面に位置する垂直面33〜35に対応する3点の特徴点を抽出する場合、各特徴点の間隔が所定の規格に合致するような距離であり、各特徴点を結ぶ線分の角度が所定範囲であるような幾何的条件が設定される。
In step S902, the
図10は、特徴点間の幾何的条件を示す説明図である。
前述したように、パレット3を撮影した3次元画像情報にHarris作用素を用いた特徴点の検出を行う場合、パレット3の前面下部に位置する3点を特徴点として抽出できる。
3つの特徴点は、それぞれ、パレット3の垂直面33〜35が床面と接するエッジに対応して現れる。したがって、3つの特徴点は、ほぼ直線上に並んで現われる。
このことから、第1特徴点と第2特徴点とを結ぶ線分と、第1特徴点と第3特徴点とを結ぶ線分とが、180度に近い角度範囲であるような3つの特徴点を抽出することで、パレット3の前面形状に対応する特徴点を抽出できる。
FIG. 10 is an explanatory diagram showing geometric conditions between feature points.
As described above, when the feature points are detected using the Harris operator on the three-dimensional image information obtained by photographing the
The three feature points appear corresponding to the edges where the
From this, three features such that the line segment connecting the first feature point and the second feature point and the line segment connecting the first feature point and the third feature point are in an angle range close to 180 degrees. By extracting the points, feature points corresponding to the front shape of the
図10に示すように、3つの特徴点のうち、中央に位置する特徴点を第1特徴点91とし、その両側に第2特徴点92、第3特徴点93があるとする。
第1特徴点91と第2特徴点92との距離α1、第1特徴点91と第3特徴点93との距離α2、第2特徴点92と第3特徴点93との距離をβとする。また、第1特徴点91と第2特徴点92とを結ぶ線分94と、第1特徴点91と第3特徴点93とを結ぶ線分95とがなす角度をθとする。
As shown in FIG. 10, it is assumed that the feature point located at the center among the three feature points is the
The distance α1 between the
パレット3が規格に合致したサイズである場合、第1特徴点91〜第3特徴点93間の距離α1、α2、βの値は、所定範囲内となる。例えば、日本で多く使用されているT11型のパレットのサイズは、1100×1100×144(mm)である。したがって、距離α1、α2の値は約500(mm)、距離βの値は約1000(mm)であると考えられる。
このことから、距離α1、α2が340(mm)〜600(mm)の範囲、距離βが800(mm)〜1050(mm)の範囲という幾何的条件を設定できる。
When the size of the
From this, it is possible to set the geometric conditions such that the distances α1 and α2 are in the range of 340 (mm) to 600 (mm) and the distance β is in the range of 800 (mm) to 1050 (mm).
また、第1特徴点91〜第3特徴点93はほぼ直線上にあることから、角度θはほぼ180度になる。したがって、cosθの値が−0.95以下であるという幾何的条件を設定できる。
このような幾何的条件を設定することにより、パレット3の参照パターンとパターンマッチングするための3つの特徴点を安定して抽出できる。
Further, since the
By setting such a geometric condition, three feature points for pattern matching with the reference pattern of the
図11は、幾何的条件を適用して抽出したマッチング候補点の説明図である。
このような幾何的条件を適用することにより、図11に示すように、パレット3の垂直面33〜35の下端エッジに対応するマッチング候補点101〜103を抽出できる。
ただし、パレット3が存在していない第1領域105、第2領域106においても、同様の特徴を有するマッチング候補が存在している。
第1領域105及び第2領域106に存在するマッチング候補を排除するためには、特徴点に対して特定の幾何的条件を満たす補間点を設定する。
ステップS903において、パターンマッチング部44は、マッチング候補として抽出された特徴点に基づいて、特徴点に対して特定の幾何的条件を満たす補間点を決定する。
FIG. 11 is an explanatory diagram of matching candidate points extracted by applying a geometric condition.
By applying such a geometric condition, matching candidate points 101 to 103 corresponding to the lower edge of the
However, in the
In order to eliminate matching candidates existing in the
In step S903, the
図12は、特徴点と補間点との関係を示す説明図である。
図12では、図1におけるパレット3を撮影した画像をパレット111として示し、垂直面33〜35に対応する画像を垂直面112〜114として示す。
図12に示す画像では、床面110上にパレット111が載置されており、パレット111の前面に垂直面112,113,114を有している。この垂直面112,113,114と、床面110の一部により形成される折れ曲がった折曲面に対応する第1領域115,第2領域116,第3領域117が存在している。特徴点118,119,120は、第1領域115,第2領域116,第3領域117において、垂直面112,113,114と床面110とが接する位置に現れる。
FIG. 12 is an explanatory diagram showing the relationship between feature points and interpolation points.
In FIG. 12, an image obtained by photographing the
In the image shown in FIG. 12, the
第1領域115及び第2領域116の中間、第2領域116及び第3領域117の中間には、それぞれ床面110からパレット111の内方に連続する平面に対応する第4領域121,第5領域122が存在する。この第4領域121及び第5領域122に、それぞれ補間点123、124を設定する。
制御部は、特徴点118,119,120と、補間点123,124とをマッチング候補点として抽出する。
In the middle of the
The control unit extracts the feature points 118, 119, and 120 and the interpolation points 123 and 124 as matching candidate points.
ステップS904において、特徴量算出部43は、マッチング候補点のそれぞれについて、特徴量を算出する。特徴量の算出は、各マッチング候補点について、法線方向ベクトルが、周辺特徴点の法線ベクトルとなす角度に基づいて生成される法線方向ヒストグラムにより算出できる。具体的には、FPFH(Fast Point Feature Histgrams)を用いることができる。 In step S904, the feature amount calculation unit 43 calculates a feature amount for each of the matching candidate points. The feature amount can be calculated from a normal direction histogram generated for each matching candidate point based on an angle between the normal direction vector and the normal vector of the peripheral feature points. Specifically, FPFH (Fast Point Feature Histograms) can be used.
図13及び図14は、FPFHによる特徴量算出方法の説明図である。
図13に示すように、対象となる特徴点Psに対して、近傍点Pk1〜Pk5、P6〜P11を設定する。
図14に示すように、特徴点Psの法線nsと、近傍点Ptの法線ntとの3次元座標u,v,wに対する角度差α、φ、θを求める。
特徴点Psの法線nsと、11個の近傍点Ptの法線ntとの角度差α、φ、θにより、180度を11分割したヒストグラムを3つ並べて、33次元のヒストグラムを構成する。
13 and 14 are explanatory diagrams of a feature amount calculation method using FPFH.
As shown in FIG. 13, the neighboring points Pk1 to Pk5 and P6 to P11 are set for the target feature point Ps.
As shown in FIG. 14, angle differences α, φ, and θ with respect to the three-dimensional coordinates u, v, and w between the normal line ns of the feature point Ps and the normal line nt of the neighboring point Pt are obtained.
Three histograms obtained by dividing 11 degrees of 180 degrees by the angle differences α, φ, θ between the normal line ns of the feature point Ps and the normal lines nt of 11 neighboring points Pt are arranged to form a 33-dimensional histogram.
図15は、FPFH特徴量を示すグラフである。
前述したようにしてFPFHによる特徴量をグラフ化すると、図15に示すように、角度差α、φ、θについて、頻度(%)が縦軸に現れる。
このようにして、制御部は、マッチング候補点として抽出した特徴点118,119,120と、補間点123,124とにおけるFPFH特徴量を算出する。
FIG. 15 is a graph showing the FPFH feature amount.
When the feature amount by FPFH is graphed as described above, the frequency (%) appears on the vertical axis for the angle differences α, φ, θ as shown in FIG.
In this way, the control unit calculates the FPFH feature quantity at the feature points 118, 119, 120 extracted as matching candidate points and the interpolation points 123, 124.
ステップS905において、制御部は、モデル保存部45に記憶されている二次元モデルのデータを読み出す。
FPFH特徴量を用いたパターンマッチングを行う場合、認識対象である物体の撮影した画像に基づいて、FPFH特徴量を予め算出して、これを二次元モデルのデータとしてモデル保存部45に記載する。
In step S905, the control unit reads the data of the two-dimensional model stored in the
When performing pattern matching using the FPFH feature value, the FPFH feature value is calculated in advance based on a captured image of the object that is the recognition target, and is stored in the
FPFH特徴量の算出は、例えば、パレット3を距離や角度を変更した様々な条件で撮影した所定数の画像から行われる。さらに、算出されたFPFH特徴量の平均値と分散値を算出し、これを特徴点のモデルとする。FPFH特徴量の平均値を33個、分散値を33個の計66個の値を1つの特徴点のモデルとする場合、パレット3の前面に位置する3つの特徴点118,119,120について、198個の値をパレット3の特徴として、モデル保存部45に記憶する。
The calculation of the FPFH feature amount is performed from, for example, a predetermined number of images obtained by photographing the
また、特徴点118,119,120の中間点である補間点123,124についても、同様に、FPFH特徴量が算出され、モデル保存部45に保存される。
図16は、マッチング候補点のFPFH特徴量の説明図である。
図16(a)は、パレット3の前面における中心に位置する特徴点119のFPFH特徴量を示している。特徴点119では、パレット3の前面中央に位置していることから、近傍点との法線方向の角度差が安定している。
図16(b)は、パレット3の前面における左右に位置する特徴点118,120のFPFH特徴量を示している。特徴点118,120では、パレット3の側面にある特徴点の影響を受けて、近傍点との法線方向の角度差が安定しておらず、角度差θに対応する右側のグラフにおける分散値が大きくなっている。
図16(c)は、角がない平面に位置する補間点123,124のFPFH特徴量であって、角度差φに対応する中央のグラフにおけるバラツキが小さくなっている。
Similarly, for the interpolation points 123 and 124 that are intermediate points between the feature points 118, 119, and 120, the FPFH feature amount is calculated and stored in the
FIG. 16 is an explanatory diagram of the FPFH feature amount of the matching candidate point.
FIG. 16A shows the FPFH feature quantity of the
FIG. 16B shows the FPFH feature values of the feature points 118 and 120 located on the left and right of the front surface of the
FIG. 16C shows the FPFH feature values of the interpolation points 123 and 124 located on a plane having no corners, and the variation in the central graph corresponding to the angle difference φ is small.
ステップS905では、パターンマッチング部44は、モデル保存部45に保存されている3つの特徴点と2つの補間点のFPFH特徴量を読み出す。
ステップS906において、パターンマッチング部44は、マッチング候補点の特徴量と、二次元モデルの特徴量とを照合する。具体的には、読み出された二次元モデルのFPFH特徴量と、特徴量算出部43により算出されたマッチング候補点のFPFH特徴量との差分を算出し、差分の最も小さいマッチング候補点のグループを選択する。
In step S905, the
In step S906, the
ステップS907において、パターンマッチング部44は、認識結果(物品の位置)を出力する。具体的には、二次元モデルのデータに最も類似すると判断されたマッチング候補点のグループについて、各特徴点の三次元座標を用いて、物体の位置を計算する。
In step S907, the
以上のようにした手順で、三次元画像に撮影されたパレット3の画像の位置を認識できる。この場合、パターンマッチングを行うためのマッチング候補点を、所定の幾何的条件を満たす特徴点により抽出していることから、演算負荷を低減することが可能となる。
また、特徴点に対して、所定の幾何的条件を満たす補間点をマッチング候補点として設定しているので、パターンマッチングの精度を向上できる。
With the procedure as described above, the position of the image of the
In addition, since the interpolation points satisfying a predetermined geometric condition are set as the matching candidate points for the feature points, the accuracy of pattern matching can be improved.
(6)実施形態の特徴
物体認識装置(例えば、物体認識装置22)は、モデル保存部(例えば、モデル保存部45)と、三次元画像入力部(例えば、三次元画像入力部41)と、画像特徴点検出部(例えば、画像特徴点検出部42)と、特徴量算出部(例えば、特徴量算出部43)と、パターンマッチング部(例えば、パターンマッチング部44)とを備える。モデル保存部(モデル保存部45)は、認識対象である物体表面の点の集合及び各点を結んで構成される線分の集合によって定義される物体(例えば、パレット3)の幾何的特徴を表すモデルのデータを保存する。三次元画像入力部(三次元画像入力部41)は、物体が含まれる三次元画像を入力する。画像特徴点検出部(画像特徴点検出部42)は、三次元画像における特徴点(例えば、特徴点118,119,120)を検出する。特徴量算出部(特徴量算出部43)は、三次元画像上の各点における特徴量(例えば、FPFH特徴量)を算出する。パターンマッチング部(パターンマッチング部44)は、画像特徴点検出部(画像特徴点検出部42)で検出された特徴点(特徴点118,119,120)と、特徴点(特徴点118,119,120)に対して特定の幾何的条件(特徴点の中間点)を満たす補間点(補間点123,124)とにおける特徴量に基づいて、モデルのデータとの類似度を比較することで物体の認識を行う。
物体の形状によっては、モデル上の特徴点ではない点に、物体の特徴を表す点が出現する場合がある。このような点を、特徴点と特定の幾何的条件を満たす補間点とすることで、パターンマッチングを行う際の特徴点のダウンサンプリングが可能となり、その結果、背景に存在する他の特徴点と識別して、物体の認識を確実に行うことができる。また、これにより、パターンマッチング処理の演算負荷を軽減できる。
(6) Features of Embodiment The object recognition device (for example, the object recognition device 22) includes a model storage unit (for example, model storage unit 45), a three-dimensional image input unit (for example, three-dimensional image input unit 41), An image feature point detection unit (for example, image feature point detection unit 42), a feature amount calculation unit (for example, feature amount calculation unit 43), and a pattern matching unit (for example, pattern matching unit 44) are provided. The model storage unit (model storage unit 45) determines the geometric features of an object (for example, palette 3) defined by a set of points on the surface of the object to be recognized and a set of line segments connecting the points. Save the model data that you want to represent. The 3D image input unit (3D image input unit 41) inputs a 3D image including an object. The image feature point detector (image feature point detector 42) detects feature points (for example, feature points 118, 119, 120) in the three-dimensional image. The feature amount calculation unit (feature amount calculation unit 43) calculates a feature amount (for example, FPFH feature amount) at each point on the three-dimensional image. The pattern matching unit (pattern matching unit 44) includes feature points (feature points 118, 119, 120) detected by the image feature point detection unit (image feature point detection unit 42) and feature points (feature points 118, 119, 120) based on the feature quantity at the interpolation points (interpolation points 123 and 124) satisfying a specific geometric condition (intermediate point of the feature points) with respect to the model data, Recognize.
Depending on the shape of the object, a point representing the feature of the object may appear at a point that is not a feature point on the model. By making such a point an interpolation point that satisfies a specific geometric condition with the feature point, it is possible to downsample the feature point when performing pattern matching, and as a result, other feature points existing in the background It is possible to identify and reliably recognize the object. Thereby, the calculation load of the pattern matching process can be reduced.
(7)他の実施形態
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、発明の要旨を逸脱しない範囲で種々の変更が可能である。特に、本明細書に書かれた複数の実施形態及び変形例は必要に応じて任意に組み合せ可能である。
(7) Other Embodiments Although one embodiment of the present invention has been described above, the present invention is not limited to the above embodiment, and various modifications can be made without departing from the scope of the invention. In particular, a plurality of embodiments and modifications described in this specification can be arbitrarily combined as necessary.
前記実施形態では、画像特徴点検出部42は得られた三次元画像の全ての領域において特徴点を検出していた。しかし、同時に得られる二次元画像に基づいて、三次元画像の領域を予め限定していてもよい。例えば、ステレオカメラ51のいずれか1つのカメラは、三次元画像とほぼ同一視点で撮影されたパレット3を含む二次元画像を入力する二次元画像入力部として機能する。また、二次元画像処理部(図示せず)が、二次元画像におけるパレットの画像特徴を抽出する。この抽出動作は高速に行われる。続いて、二次元画像処理部は、抽出されたパレットのカメラ座標(水平方向、垂直方向)をキャリブレーションによって、カメラ位置を原点とする現実世界の座標に変換する。
画像特徴点検出部42は、三次元画像に対して、二次元画像処理部によって絞られたパレットの画像特徴に対応する領域について、特徴点を検出する。この場合、二次元画像により特定された物体の画像特徴に対応する領域において特徴点を検出していることから、通常の三次元画像からの特徴点の抽出に比して演算負荷を軽減でき、高速化が可能になる。
特徴量算出部43は、三次元画像において前記領域にある特徴点における特徴量を算出する。パターンマッチング部44は、三次元画像において前記領域にある特徴点の特徴量を用いる。
なお、二次元画像を取得するカメラは、三次元画像を取得するカメラと別に設けられていてもよい。
In the embodiment, the image feature
The image feature
The feature amount calculation unit 43 calculates feature amounts at feature points in the region in the three-dimensional image. The
Note that the camera that acquires the two-dimensional image may be provided separately from the camera that acquires the three-dimensional image.
補間点は、少なくとも2個の特徴点に特定の幾何的条件を満たす点であれば何でもよく、2個の特徴点の中間点でなくてもよい。例えば、SIFTのオリエンテーション又はISSの主方向を使って、それらの極値、変曲点としてもよく、又は2個の特徴点の方向の線分に交差する線分の一点であってもよい。 The interpolation point may be any point as long as it satisfies a specific geometric condition for at least two feature points, and may not be an intermediate point between the two feature points. For example, the orientation of SIFT or the main direction of ISS may be used as those extreme values, inflection points, or one point of a line segment intersecting the line segment in the direction of two feature points.
本発明は、三次元画像から物体を認識する認識装置に適用でき、例えば、無人搬送車や無人フォークリフトなどに搭載される物体認識装置に適用可能である。 The present invention can be applied to a recognition device that recognizes an object from a three-dimensional image.
2 無人フォークリフト
3 パレット
21 本体部
22 物体認識装置
31 差し込み口
32 差し込み口
33 垂直面
34 垂直面
35 垂直面
41 三次元画像入力部
42 画像特徴点検出部
43 特徴量算出部
44 パターンマッチング部
45 モデル保存部
51 ステレオカメラ
52 フレームメモリ
53 画像バス
54 二次元特徴点検出部
55 対応付け処理部
56 座標算出部
61 前面
62 第1領域
63 第2領域
70 画像
71 物体画像
72 所定領域
73 床面
74 物体
75 コーナー
76 所定領域
81 前面
82 第1領域
83 第2領域
84 第3領域
91 第1特徴点
92 第2特徴点
93 第3特徴点
110 床面
111 パレット
112 垂直面
113 垂直面
114 垂直面
115 第1領域
116 第2領域
117 第3領域
118 特徴点
119 特徴点
120 特徴点
121 第4領域
122 第5領域
123 補間点
124 補間点
2
Claims (12)
前記物体が含まれる三次元画像を入力する三次元画像入力部と、
前記三次元画像における特徴点を検出する画像特徴点検出部と、
前記三次元画像上の各点における特徴量を算出する特徴量算出部と、
前記画像特徴点検出部で検出された特徴点と、前記特徴点に対して特定の幾何的条件を満たす補間点とをパターンマッチングのためのマッチング候補点のグループとし、各グループに含まれるマッチング候補点の特徴量に基づいて、前記モデルのデータとの類似度を比較することで前記物体の認識を行うパターンマッチング部と、
を備える物体認識装置。 A model storage unit that stores model data representing geometric features of the object defined by a set of points on the surface of the object to be recognized and a set of line segments connecting the points;
A three-dimensional image input unit for inputting a three-dimensional image including the object;
An image feature point detector for detecting feature points in the three-dimensional image;
A feature amount calculation unit for calculating a feature amount at each point on the three-dimensional image;
The feature points detected by the image feature point detection unit and interpolation points that satisfy a specific geometric condition for the feature points are grouped as matching candidate points for pattern matching, and matching candidates included in each group A pattern matching unit that recognizes the object by comparing the similarity with the data of the model based on the feature amount of the point;
An object recognition apparatus comprising:
前記所定の幾何的条件を満たす所定数の特徴点とは、3個の特徴点の特徴点のなす角度が所定範囲内である3個の特徴点である、請求項3に記載の物体認識装置。 The object is a pallet having three feature points;
The object recognition apparatus according to claim 3 , wherein the predetermined number of feature points satisfying the predetermined geometric condition are three feature points whose angles formed by the feature points of the three feature points are within a predetermined range. .
前記二次元画像における前記物体の画像特徴を検出する二次元画像処理部と、
をさらに備えている、請求項1〜8のいずれかに記載の物体認識装置。 A two-dimensional image input unit for inputting a two-dimensional image including the object photographed from substantially the same viewpoint as the three-dimensional image;
A two-dimensional image processing unit for detecting an image feature of the object in the two-dimensional image;
The object recognition apparatus according to claim 1, further comprising:
前記パターンマッチング部は、前記三次元画像において前記領域にある前記特徴点の前記特徴量を用いる、請求項10に記載の物体認識装置。 The feature amount calculation unit calculates a feature amount at the feature point in the region in the three-dimensional image,
The object recognition apparatus according to claim 10, wherein the pattern matching unit uses the feature amount of the feature point in the region in the three-dimensional image.
物体が含まれる三次元画像を入力するステップと、
前記三次元画像における特徴点を検出するステップと、
前記特徴点と、前記特徴点に対して特定の幾何的条件を満たす補間点とにおける特徴量を算出するステップと、
前記特徴量に基づいて、前記モデルのデータとの類似度を比較して物体の認識を行うステップと、
を備える物体認識方法。 Storing model data representing geometric features of the object defined by a set of points on the object surface to be recognized and a set of line segments connecting the points;
Inputting a three-dimensional image including the object;
Detecting feature points in the three-dimensional image;
Calculating a feature amount at the feature point and an interpolation point that satisfies a specific geometric condition for the feature point;
Recognizing an object by comparing the similarity with the model data based on the feature amount; and
An object recognition method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014109325A JP6369131B2 (en) | 2014-05-27 | 2014-05-27 | Object recognition apparatus and object recognition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014109325A JP6369131B2 (en) | 2014-05-27 | 2014-05-27 | Object recognition apparatus and object recognition method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015225453A JP2015225453A (en) | 2015-12-14 |
JP6369131B2 true JP6369131B2 (en) | 2018-08-08 |
Family
ID=54842157
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014109325A Active JP6369131B2 (en) | 2014-05-27 | 2014-05-27 | Object recognition apparatus and object recognition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6369131B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023238999A1 (en) * | 2022-06-07 | 2023-12-14 | 현대자동차주식회사 | Smart distribution vehicle and control method therefor |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6721998B2 (en) * | 2016-02-23 | 2020-07-15 | 村田機械株式会社 | Object state identification method, object state identification device, and transport vehicle |
JP6649796B2 (en) * | 2016-02-23 | 2020-02-19 | 村田機械株式会社 | Object state specifying method, object state specifying apparatus, and carrier |
JP2017178567A (en) * | 2016-03-30 | 2017-10-05 | 株式会社豊田中央研究所 | Fork lift |
JP2017201493A (en) * | 2016-05-06 | 2017-11-09 | 村田機械株式会社 | Columnar object recognition method, columnar object recognition apparatus, and unmanned traveling vehicle |
JP6889865B2 (en) * | 2017-09-22 | 2021-06-18 | オムロン株式会社 | Template creation device, object recognition processing device, template creation method and program |
JP7300646B2 (en) * | 2018-08-07 | 2023-06-30 | 住友ナコ フォ-クリフト株式会社 | Conveyor |
JP7049983B2 (en) * | 2018-12-26 | 2022-04-07 | 株式会社日立製作所 | Object recognition device and object recognition method |
US11972589B2 (en) * | 2019-01-09 | 2024-04-30 | Fuji Corporation | Image processing device, work robot, substrate inspection device, and specimen inspection device |
CN113673276A (en) * | 2020-05-13 | 2021-11-19 | 广东博智林机器人有限公司 | Target object identification docking method and device, electronic equipment and storage medium |
JP7569225B2 (en) | 2021-01-21 | 2024-10-17 | 住友重機械工業株式会社 | Loading support device, transport device, loading support method, and loading support program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5521676B2 (en) * | 2010-03-19 | 2014-06-18 | 富士通株式会社 | Image processing apparatus and image processing program |
-
2014
- 2014-05-27 JP JP2014109325A patent/JP6369131B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023238999A1 (en) * | 2022-06-07 | 2023-12-14 | 현대자동차주식회사 | Smart distribution vehicle and control method therefor |
Also Published As
Publication number | Publication date |
---|---|
JP2015225453A (en) | 2015-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6369131B2 (en) | Object recognition apparatus and object recognition method | |
US9635346B2 (en) | Autonomous vehicle, and object recognizing method in autonomous vehicle | |
US10347005B2 (en) | Object state identification method, object state identification apparatus, and carrier | |
US8947508B2 (en) | Image processing apparatus | |
EP3249579B1 (en) | Object recognition apparatus, objection recognition method, and program | |
US10163225B2 (en) | Object state identification method, object state identification apparatus, and carrier | |
EP3563345B1 (en) | Automatic detection, counting, and measurement of lumber boards using a handheld device | |
US20140177915A1 (en) | Method and apparatus for detecting object | |
US9020251B2 (en) | Image processing apparatus and method | |
CN107388960A (en) | A kind of method and device for determining object volume | |
US9576363B2 (en) | Object picking system, object detecting device, object detecting method | |
KR20160003776A (en) | Posture estimation method and robot | |
KR102073468B1 (en) | System and method for scoring color candidate poses against a color image in a vision system | |
JP6245880B2 (en) | Information processing apparatus, information processing method, and program | |
CN104268853A (en) | Infrared image and visible image registering method | |
JP2017199289A5 (en) | ||
Sansoni et al. | Optoranger: A 3D pattern matching method for bin picking applications | |
US11216905B2 (en) | Automatic detection, counting, and measurement of lumber boards using a handheld device | |
Varga et al. | Vision-based autonomous load handling for automated guided vehicles | |
JP6526527B2 (en) | Identification device and authentication system | |
CN116309882A (en) | Tray detection and positioning method and system for unmanned forklift application | |
CN113128346B (en) | Target identification method, system and device for crane construction site and storage medium | |
US20150063637A1 (en) | Image recognition method and robot | |
KR101717222B1 (en) | System for detecting gaze and method therefor | |
JP6540577B2 (en) | Object recognition device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180223 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180306 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180409 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180612 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180625 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6369131 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |