JP2008171147A - Object recognition device and method - Google Patents
Object recognition device and method Download PDFInfo
- Publication number
- JP2008171147A JP2008171147A JP2007002832A JP2007002832A JP2008171147A JP 2008171147 A JP2008171147 A JP 2008171147A JP 2007002832 A JP2007002832 A JP 2007002832A JP 2007002832 A JP2007002832 A JP 2007002832A JP 2008171147 A JP2008171147 A JP 2008171147A
- Authority
- JP
- Japan
- Prior art keywords
- image
- template
- recognition
- images
- rotation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、入力画像を複数のテンプレート画像と照合することにより、入力画像に含まれる認識対象物の位置及び姿勢を推定する物体認識装置及び物体認識方法に関する The present invention relates to an object recognition apparatus and an object recognition method for estimating the position and orientation of a recognition target included in an input image by collating the input image with a plurality of template images.
自身の判断により自律的に移動するロボットの視覚を担うコンピュータビジョンにおいては、カメラによって撮影された画像等から物体の位置及び姿勢を認識できることが必要である。このような物体認識に用いられる技術として、認識対象物の多方向からの見え方に対応する複数のテンプレート画像を予め記憶しておき、撮影によって得られた入力画像を複数のテンプレート画像と照合し、入力画像がどのテンプレート画像に類似するかによって認識対象物の姿勢を推定する方法が知られている。以下では、物体認識に用いる複数のテンプレート画像を記憶したデータをテンプレート辞書と呼ぶ。 In computer vision, which is responsible for the vision of a robot that moves autonomously based on its own judgment, it is necessary to be able to recognize the position and orientation of an object from an image taken by a camera. As a technique used for such object recognition, a plurality of template images corresponding to how a recognition target object is viewed from multiple directions are stored in advance, and an input image obtained by photographing is collated with a plurality of template images. There is known a method for estimating the posture of a recognition object depending on which template image an input image is similar to. Hereinafter, data storing a plurality of template images used for object recognition is referred to as a template dictionary.
入力画像とテンプレート辞書との照合は、入力画像から抽出した特徴量とテンプレート辞書に含まれるテンプレート画像の特徴量とを照合することによって行われる。ここで、特徴量とは、入力画像及びテンプレート画像が有する情報のうち、画像の識別に有用な本質的な成分を抽出したものである。通常、特徴量は複数の特徴量の値を要素とする特徴ベクトルとして記述される。特徴ベクトルの次元数は、特徴量の数に対応する。また、入力画像及びテンプレート画像はそれぞれ、特徴ベクトルによって張られる多次元の特徴空間上の点として表現される。 The collation between the input image and the template dictionary is performed by collating the feature amount extracted from the input image with the feature amount of the template image included in the template dictionary. Here, the feature amount is obtained by extracting essential components useful for image identification from information included in the input image and the template image. Usually, the feature amount is described as a feature vector having elements of a plurality of feature amount values. The number of dimensions of the feature vector corresponds to the number of feature quantities. Further, each of the input image and the template image is expressed as a point on a multidimensional feature space stretched by feature vectors.
最も単純な特徴ベクトルは、画像データ及びテンプレート画像を構成する各画素の値を要素とする特徴ベクトルである。しかしながら、これでは特徴ベクトルの次元数が画像データを構成する画素数に達し、その数が膨大となるため、テンプレート画像を格納するための記憶容量及び画像照合に要する時間も膨大となり現実的でない。 The simplest feature vector is a feature vector having the values of each pixel constituting the image data and the template image as elements. However, in this case, the number of dimensions of the feature vector reaches the number of pixels constituting the image data, and the number thereof is enormous. Therefore, the storage capacity for storing the template image and the time required for image matching become enormous, which is not realistic.
そこで、特徴ベクトルの次元数を圧縮することにより、少ない記憶容量でテンプレート辞書を記憶することができ、高速に画像照合を行うことができる固有空間法が知られている。固有空間法は、テンプレート画像の主成分分析(PCA:Principal Components Analysis)によって固有空間を生成し、テンプレート画像を固有空間に射影して得られる主成分を特徴量として、テンプレート画像の特徴ベクトルを生成するものである。 Therefore, an eigenspace method is known in which a template dictionary can be stored with a small storage capacity by compressing the number of dimensions of a feature vector, and image matching can be performed at high speed. The eigenspace method generates the eigenspace by principal component analysis (PCA: Principal Components Analysis) of the template image, and generates the feature vector of the template image using the principal components obtained by projecting the template image onto the eigenspace. To do.
また、上述した固有空間法を物体の位置及び姿勢の推定に応用したパラメトリック固有空間法が提案されている(非特許文献1、特許文献1を参照)。パラメトリック固有空間法では、認識対象物を回転させながら連続的に撮影したテンプレート画像を予め学習しておく。以下では、物体を多様な方向から撮影して得られるテンプレート画像を回転テンプレート画像と呼ぶ。回転テンプレート画像の集合は、固有空間上の多様体(以下、回転多様体と呼ぶ)として表現される。認識対象物の姿勢の推定は、入力画像を固有空間に射影して得られる射影点との距離が最も近いテンプレート画像の射影点を求めることにより行われる。
Further, a parametric eigenspace method in which the eigenspace method described above is applied to estimation of the position and orientation of an object has been proposed (see Non-Patent
さらに、入力画像内における認識対象物の位置の推定は以下のように行われる。即ち、入力画像内の一部を部分的に選択するための走査ウィンドウを設定し、走査ウィンドウによって入力画像を順次走査しながら、走査ウィンドウによって選択される部分画像に対して上述したパラメトリック固有空間法による物体の姿勢推定を行う。そして、認識対象物の姿勢が推定された走査ウィンドウの位置をもとに認識対象物の入力画像内における位置を推定する。
上述したように、テンプレート画像との照合による従来の物体認識方法は、学習段階において、認識対象物を回転させながら撮影することにより得られる回転テンプレート画像により構成されるテンプレート辞書を生成しておく。さらに、物体認識段階では、走査ウィンドウによって入力画像の一部が選択された部分画像を、テンプレート辞書に含まれる回転テンプレート画像と照合することにより、物体の位置及び姿勢の推定を行う。 As described above, the conventional object recognition method based on matching with a template image generates a template dictionary composed of a rotated template image obtained by photographing a recognition target object while rotating it at the learning stage. Further, in the object recognition stage, the position and orientation of the object are estimated by collating a partial image selected from a part of the input image by the scanning window with the rotation template image included in the template dictionary.
しかしながら、このような従来の物体認識方法では、走査ウィンドウによって選択される部分画像内に認識対象物の一部が含まれている場合、より詳細に述べると、撮影された認識対象物の中心と走査ウィンドウによって選択される部分画像の中心がずれている場合に、認識対象物の姿勢を誤認識しやすいため、姿勢推定の精度が低下するという問題がある。なお、以下では、認識対象物の中心と走査ウィンドウの中心とのずれを"並進ずれ"と表現する。 However, in such a conventional object recognition method, when a part of the recognition target object is included in the partial image selected by the scanning window, more specifically, the center of the recognized recognition target object is recorded. When the center of the partial image selected by the scanning window is deviated, there is a problem that the posture estimation accuracy is lowered because the posture of the recognition target object is easily misrecognized. In the following, the shift between the center of the recognition object and the center of the scanning window is expressed as “translational shift”.
本発明は、上述した問題を考慮してなされたものであり、認識対象物の中心と走査ウィンドウの中心とのずれ(並進ずれ)に起因する認識対象物の姿勢の誤認識を抑制することを目的とする。 The present invention has been made in consideration of the above-described problem, and suppresses misrecognition of the posture of the recognition object due to a shift (translational shift) between the center of the recognition object and the center of the scanning window. Objective.
本発明の第1の態様にかかる物体認識装置は、撮像手段により撮像されて入力される入力画像を用いて認識対象物の位置及び姿勢を推定する装置であって、前記入力画像と照合するための複数の回転テンプレート画像の特徴ベクトル及び複数の並進テンプレート画像の特徴ベクトルに関して記述されたテンプレート辞書を記憶する記憶部と、前記入力画像上を走査されて処理対象領域を指定する走査ウィンドウによって、前記入力画像から前記処理対象領域として部分的に選択される部分画像の特徴を示す特徴ベクトルを算出する特徴ベクトル算出部と、前記テンプレート辞書及び前記部分画像の特徴ベクトルに基づいて、前記入力画像内に含まれる認識対象物の位置及び姿勢を推定する推定部とを有する。さらに、前記複数の回転テンプレート画像は、前記認識対象物を複数の方向から見た画像の集合であり、前記複数の並進テンプレート画像は、直線軌道に沿った複数の視点から前記認識対象物を部分的に捉えた画像の集合である。なお、後述する発明の実施の形態1では、テンプレート照合部15及び結果統合部17が、前記第1の態様にかかる物体認識装置が有する推定部に相当する。
An object recognition apparatus according to a first aspect of the present invention is an apparatus that estimates the position and orientation of a recognition object using an input image that is captured and input by an imaging unit, and for collating with the input image. A storage unit for storing a template dictionary described with respect to a feature vector of a plurality of rotation template images and a feature vector of a plurality of translation template images, and a scanning window that scans the input image and designates a processing target region. A feature vector calculation unit that calculates a feature vector indicating a feature of a partial image that is partially selected as the processing target region from the input image, and based on the template dictionary and the feature vector of the partial image, And an estimation unit that estimates the position and orientation of the included recognition target object. Further, the plurality of rotation template images are a set of images obtained by viewing the recognition target object from a plurality of directions, and the plurality of translation template images are obtained by partially imaging the recognition target object from a plurality of viewpoints along a linear trajectory. It is a set of images captured as a target. In the first embodiment of the invention to be described later, the
ここで、前記回転テンプレート画像は、前記認識対象物を中心とする円軌道上に位置する複数の視点から前記認識対象物を見た画像の集合とし、前記並進テンプレート画像は、直線軌道上に位置する複数の視点から前記認識対象物を部分的に捉えた画像の集合としてもよい。 Here, the rotation template image is a set of images obtained by viewing the recognition target object from a plurality of viewpoints positioned on a circular trajectory centered on the recognition target object, and the translation template image is positioned on a linear trajectory. It is good also as a set of images which caught the above-mentioned recognition subject partially from a plurality of viewpoints.
また、前記複数の回転テンプレート画像は、前記認識対象物を中心とする円軌道に沿った複数の視点から前記認識対象物を含んで撮影された画像から前記認識対象物の全体を含むように切り出された画像の集合とし、前記複数の並進テンプレート画像は、前記認識対象物を含んで撮影された画像から前記認識対象物の部分のみを含むよう切り出された画像の集合としてもよい。 Further, the plurality of rotation template images are cut out so as to include the entire recognition target object from images photographed including the recognition target object from a plurality of viewpoints along a circular orbit centered on the recognition target object. The plurality of translation template images may be a set of images cut out so as to include only a part of the recognition target object from the image photographed including the recognition target object.
このような構成によって、入力画像から切り出される部分画像の特徴ベクトルが走査ウィンドウの移動に伴って示す変動特性と、並進テンプレート画像の特徴ベクトルが並進ずれに伴って示す変動特性とを照合させることができる。したがって、仮に、回転テンプレート画像との照合において並進ずれに起因する姿勢の誤判定が生じた場合にも、並進テンプレート画像との照合において、誤判定された回転テンプレート画像の並進多様体と評価対象の部分画像の並進多様体との間に不整合が生じるため、誤って推定された認識対象物の姿勢をリジェクトできる。これにより、並進ずれに起因する認識対象物の姿勢の誤認識を抑制することができる。 With such a configuration, it is possible to collate the variation characteristic that the feature vector of the partial image cut out from the input image shows with the movement of the scanning window and the variation characteristic that the feature vector of the translation template image shows with translational deviation. it can. Therefore, even if a misjudgment of a posture due to translational deviation occurs in the collation with the rotation template image, the translation manifold of the rotation template image misjudged in the collation with the translation template image and the evaluation target Since a mismatch occurs between the translation manifolds of the partial images, the posture of the recognition target object that is erroneously estimated can be rejected. Thereby, the misrecognition of the attitude | position of the recognition target object resulting from a translation shift can be suppressed.
上述した本発明の第1の態様にかかる物体認識装置において、前記複数の並進テンプレート画像は、前記複数の回転テンプレート画像の各々に比べて撮影画像の中心をずらして前記認識対象物を撮影した画像群を含むよう構成してもよい。 In the object recognition apparatus according to the first aspect of the present invention described above, the plurality of translation template images are images obtained by photographing the recognition object with the center of the photographed image shifted from each of the plurality of rotation template images. You may comprise so that a group may be included.
さらに、前記テンプレート照合部は、前記複数の回転テンプレート画像の特徴ベクトルによって作られる回転多様体と前記部分画像の特徴ベクトルとの間の特徴空間における距離が第1の閾値より小さく、かつ、前記第1の閾値より小さい前記回転多様体との距離を与える回転テンプレート画像に対応する並進テンプレート画像によって作られる並進多様体と前記部分画像の特徴ベクトルとの間の前記特徴空間における距離が第2の閾値より小さい場合に、前記第1の閾値より小さい前記回転多様体との距離を与える回転テンプレート画像によって特定される姿勢を前記認識対象物の姿勢と推定するよう構成してもよい。これにより、並進ずれに起因する認識対象物の姿勢の誤認識を効率よく抑制できる。 Further, the template matching unit has a distance in a feature space between a rotated manifold created by the feature vectors of the plurality of rotated template images and a feature vector of the partial image smaller than a first threshold, and the first A distance in the feature space between a translation manifold created by a translation template image corresponding to a rotation template image that gives a distance from the rotation manifold smaller than a threshold value of 1 and a feature vector of the partial image is a second threshold value. In the case of being smaller, the posture specified by the rotation template image that gives the distance from the rotating manifold smaller than the first threshold value may be estimated as the posture of the recognition target object. Thereby, the misrecognition of the attitude | position of the recognition target object resulting from translational displacement can be suppressed efficiently.
本発明の第2の態様にかかる物体認識方法は、処理対象領域を規定する走査ウィンドウによって入力画像上を走査する処理と、前記走査ウィンドウによって前記処理対象領域として前記入力画像から部分的に選択される部分画像の特徴を示す特徴ベクトルを算出する処理と、前記認識対象物を複数の方向から見た画像の集合である複数の回転テンプレート画像の特徴ベクトル、及び、直線軌道に沿った複数の視点から前記認識対象物を部分的に捉えた画像の集合である複数の並進テンプレート画像の特徴ベクトルに関して記述されたテンプレート辞書と前記部分画像の特徴ベクトルとを照合することによって、前記入力画像内に撮影されている認識対象物の位置及び姿勢を推定する処理とを含む。 An object recognition method according to a second aspect of the present invention includes a process of scanning an input image by a scanning window that defines a processing target area, and the scanning window is partially selected from the input image as the processing target area. A feature vector indicating the feature of the partial image, a plurality of rotation template image feature vectors that are a set of images obtained by viewing the recognition target object from a plurality of directions, and a plurality of viewpoints along a linear trajectory The template image described with respect to the feature vectors of a plurality of translation template images, which is a set of images partially capturing the recognition object, is compared with the feature vectors of the partial images, and photographed in the input image And a process for estimating the position and orientation of the recognized recognition object.
このような方法によって、入力画像から切り出される部分画像の特徴ベクトルが走査ウィンドウの移動に伴って示す変動特性と、並進テンプレート画像の特徴ベクトルが並進ずれに伴って示す変動特性とを照合させることができる。したがって、仮に、回転テンプレート画像との照合において並進ずれに起因する姿勢の誤判定が生じた場合にも、並進テンプレート画像との照合において、誤判定された回転テンプレート画像の並進多様体と評価対象の部分画像の並進多様体との間に不整合が生じるため、誤って推定された認識対象物の姿勢をリジェクトできる。これにより、並進ずれに起因する認識対象物の姿勢の誤認識を抑制することができる。 By such a method, it is possible to collate the variation characteristic that the feature vector of the partial image cut out from the input image shows with the movement of the scanning window and the variation characteristic that the feature vector of the translation template image shows with translational deviation. it can. Therefore, even if a misjudgment of a posture due to translational deviation occurs in the collation with the rotation template image, the translation manifold of the rotation template image misjudged in the collation with the translation template image and the evaluation target Since a mismatch occurs between the translation manifolds of the partial images, the posture of the recognition target object that is erroneously estimated can be rejected. Thereby, the misrecognition of the attitude | position of the recognition target object resulting from a translation shift can be suppressed.
さらに、前記第2の態様にかかる物体認識方法における認識対象物の姿勢推定では、前記複数の回転テンプレート画像の特徴ベクトルによって作られる回転多様体と前記部分画像の特徴ベクトルとの間の特徴空間における距離が第1の閾値より小さいか否かを判定し、前記第1の閾値より小さいと判定される場合に、前記第1の閾値より小さい前記回転多様体との距離を与える回転テンプレート画像に対応する並進テンプレート画像によって作られる並進多様体と前記部分画像の特徴ベクトルとの間の前記特徴空間における距離が第2の閾値より小さいか否かを判定し、前記第2の閾値より小さいと判定される場合に、前記第1の閾値より小さい前記回転多様体との距離を与える回転テンプレート画像によって特定される姿勢を前記認識対象物の姿勢推定結果としてもよい。これによって、部分画像と並進テンプレート画像との照合に要する計算量を削減し、物体認識を効率よく行うことができる。 Further, in the posture estimation of the recognition target object in the object recognition method according to the second aspect, in the feature space between the rotation manifold created by the feature vectors of the plurality of rotation template images and the feature vectors of the partial images. It is determined whether or not the distance is smaller than the first threshold, and corresponds to a rotation template image that gives a distance from the rotating manifold smaller than the first threshold when it is determined that the distance is smaller than the first threshold. Determining whether the distance in the feature space between the translation manifold created by the translation template image and the feature vector of the partial image is less than a second threshold, and is determined to be less than the second threshold. The posture identified by the rotation template image that gives a distance from the rotating manifold that is smaller than the first threshold is the recognition target. Of it may be used as the attitude estimation results. As a result, the amount of calculation required for collation between the partial image and the translation template image can be reduced, and object recognition can be performed efficiently.
本発明により、認識対象物の中心と走査ウィンドウの中心とのずれ(並進ずれ)に起因する認識対象物の姿勢の誤認識を抑制することが可能な物体認識装置及び物体認識方法を提供できる。 According to the present invention, it is possible to provide an object recognition apparatus and an object recognition method capable of suppressing erroneous recognition of the posture of a recognition target object due to a shift (translational shift) between the center of the recognition target object and the center of the scanning window.
以下では、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。各図面において、同一要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。 Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings. In the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted as necessary for the sake of clarity.
発明の実施の形態1.
本実施の形態にかかる物体認識装置1の構成を図1に示す。物体認識装置1は、入力画像に含まれる認識対象物の位置及び姿勢の推定結果を出力する装置である。より詳しく述べると、物体認識装置1は、入力画像を走査ウィンドウ単位で順に走査し、走査ウィンドウによって選択される部分画像を、認識対象物の多様な姿勢を表す複数のテンプレート画像と照合することによって、入力画像に含まれる認識対象物の位置及び姿勢を推定する。以下では、図1を参照して物体認識装置1が有する各構成要素について説明する。
A configuration of an
図1において、撮像部11は、CCD(Charge Coupled Device)等の撮像素子(不図示)、及び撮像素子によって得られたアナログ画像データをデジタル画像データに変換して出力する信号処理部(不図示)を備える。
In FIG. 1, an
画像特徴算出部12は、撮像部11から入力される入力画像に対する画像処理を行って入力画像の特徴量を算出する。より具体的に述べると、画像特徴算出部12は、入力画像から走査ウィンドウによって選択される部分画像を単位として特徴量を算出する。特徴量の算出は、例えば、入力画像データを濃淡画像データに変換し、変換後の濃淡画像データに対する微分処理を行って、エッジ強度やエッジの方向を求め特徴量とすることができる。また、入力画像データの各画素の正規化された輝度値を特徴量としてもよい。なお、画像特徴算出部12における特徴量の抽出手法は上述した手法に限られることはなく、従来知られている手法を含む様々な手法を適用可能である。入力画像(具体的には走査ウィンドウにより選択された部分画像)から算出されたp個(pは正の整数)の特徴量は、p次元の特徴ベクトルDとして表される。
The image
特徴ベクトル算出部13は、基底ベクトル記憶部14に予め格納された基底ベクトル群Eを用いて、画像特徴算出部12により算出された特徴ベクトルDを次元圧縮する。特徴ベクトル算出部13により次元圧縮された特徴ベクトルDの次元数をn(nは正の整数であり、n<p)とする。基底ベクトル群Eは、例えば、従来から知られている固有空間法を適用することによって得ることができる。具体的には、入力画像との照合に使用される複数のテンプレート画像(具体的には後述する回転テンプレート画像及び並進テンプレート画像)に対する主成分分析(PCA)を行うことで決定された固有ベクトルの集合とすればよい。このとき、基底ベクトル群Eは、n個のベクトルの集合として、以下の(1)式で表すことができる。また、次元圧縮された部分画像の特徴ベクトルDを(2)式に示す。
The feature
テンプレート照合部15は、走査ウィンドウによって入力画像から選択された部分画像と、複数のテンプレート画像との照合を行うことにより、入力画像に撮影されている認識対象物の位置及び姿勢の推定を行う。具体的には、テンプレート記憶部16に格納された複数のテンプレート画像の特徴ベクトルのうち、部分画像の特徴ベクトルDとの特徴空間における距離sが最小となるテンプレート画像を選択し、選択されたテンプレート画像に対応する認識対象物の姿勢を推定する。また、姿勢推定が行われた部分画像の位置をもとに認識対象物の入力画像内における位置を推定する。なお、テンプレート照合部15は、距離sの最小値が所定の閾値より大きい場合は、評価対象である部分画像に近いテンプレート画像が存在しない、つまり、入力画像中に認識対象の物体は含まれていないと判定して、その部分画像をリジェクトする。
The
テンプレート照合部15は、撮像部11によって撮影された入力画像から走査ウィンドウによって切り出される複数の部分画像に対して、認識対象物の姿勢を推定するための上述した演算処理を繰り返し行う。本実施の形態では、図2に示すように、入力画像21に対して走査ウィンドウ22を横方向に順次走査する方法、いわゆるラスタスキャンを行うことにより、部分画像の選択からテンプレート照合の一連の処理を繰り替えし行うものとする。なお、走査ウィンドウによる入力画像の走査方法は、図2に示す方法に限られないことはもちろんである。例えば、走査ウィンドウによる走査を入力画像21の上下方向に沿って行ってもよい。
The
テンプレート記憶部16は、認識対象物のテンプレート画像に関する特徴ベクトルの集合{Ti j}を保持する。なお、本実施の形態におけるテンプレート記憶部16は、回転テンプレート画像の特徴ベクトルの集合及び並進テンプレート画像の特徴ベクトル集合を保持することを特徴とする。ここで、回転テンプレート画像とは、上述したように、認識対象物を回転させながら撮影することにより得られるテンプレート画像である。言い換えると、回転テンプレート画像群は、認識対象物を複数の方向から見た画像の集合である。一方、並進テンプレート画像とは、走査ウィンドウの走査方向に応じて、撮影画像の中心と認識対象物の中心とがずれた状態で連続的に撮影することにより得られるテンプレート画像である。言い換えると、並進テンプレート画像群は、直線軌道に沿った複数の視点から認識対象物を部分的に捉えた画像の集合である。つまり、並進テンプレート画像をテンプレート記憶部16に保持することによって、認識処理時に"並進ずれ"が発生した場合の認識対象物の見え方を物体認識装置1に学習させることができる。
The
認識対象物の回転テンプレート画像及び並進テンプレート画像の一例を図3に示す。図3(a)は、円柱の表面に文字"A"が付された認識対象物23の一例を示している。図3(b)は、互いに90度ずつ異なる4方向から認識対象物23を撮影して得られる4つの回転テンプレート画像T1 0、T2 0、T3 0、及びT4 0を示している。具体的に述べると、回転テンプレート画像T1 0は、認識対象物23の文字Aが付された部分に対向する位置から撮影された画像である。回転テンプレート画像T2 0は、回転テンプレート画像T1 0に比べて認識対象物23を時計回りに90度だけ回転させた状態で撮影された画像である。回転テンプレート画像T3 0は、回転テンプレート画像T2 0に比べて認識対象物23を時計回りに90度だけ回転させた状態で撮影された画像である。また、回転テンプレート画像T4 0は、回転テンプレート画像T3 0に比べて認識対象物23を時計回りに90度だけ回転させた状態で撮影された画像である。
An example of the rotation template image and translation template image of the recognition object is shown in FIG. FIG. 3A shows an example of the
図3(c)は、回転テンプレート画像T1 0に関連づけて撮影された一連の並進テンプレート画像を示している。図3(c)の並進テンプレート画像の集合{T1 -2、T1 -1、T1 0、T1 1、T1 2}には、回転テンプレート画像T1 0のほかに、走査ウィンドウの走査方向に従って、回転テンプレート画像T1 0に比べて撮影画像の中心をずらして認識対象物23を撮影した画像群が含まれている。 FIG. 3 (c) shows a series of translational template images taken in relation to the rotating template image T 1 0. In the set of translation template images {T 1 -2 , T 1 -1 , T 1 0 , T 1 1 , T 1 2 } in FIG. 3 (c), in addition to the rotated template image T 1 0 , accordance scanning direction, includes images obtained by photographing the recognition subject 23 by shifting the center of the captured image compared to rotate the template image T 1 0 is.
なお、上述したように、複数の異なる視点から認識対象物を直接撮影することで全ての回転テンプレート画像及び全ての並進テンプレート画像を得てもよいが、少なくとも一部のテンプレート画像を他の画像に対する画像処理によって生成してもよい。つまり、回転テンプレート画像群は、認識対象物を中心とする円軌道上に位置する複数の視点から前記認識対象物を見た画像の集合として生成すればよく、並進テンプレート画像群は、直線軌道上に位置する複数の視点から認識対象物を部分的に捉えた画像の集合として生成すればよい。 As described above, all the rotation template images and all the translation template images may be obtained by directly capturing the recognition target object from a plurality of different viewpoints. It may be generated by image processing. That is, the rotation template image group may be generated as a set of images obtained by viewing the recognition target object from a plurality of viewpoints located on a circular orbit centered on the recognition target object. What is necessary is just to produce | generate as a collection of the image which caught the recognition target object partially from several viewpoints located in.
また、回転テンプレート画像群は、前記認識対象物を中心とする円軌道に沿った複数の視点から前記認識対象物を含んで撮影された画像から認識対象物の全体を含むように切り出された画像の集合として生成してもよい。並進テンプレート画像群は、認識対象物を含んで撮影された画像から認識対象物の部分のみを含むよう切り出された画像の集合として生成してもよい。 In addition, the rotation template image group is an image that is cut out so as to include the entire recognition target object from images taken including the recognition target object from a plurality of viewpoints along a circular orbit centered on the recognition target object. May be generated as a set of The translation template image group may be generated as a set of images cut out so as to include only a portion of the recognition object from an image captured including the recognition object.
テンプレート記憶部16に保持されるテンプレート画像の特徴ベクトルは、以下の(3)式により一般化して表される。(3)式において、mは回転テンプレートの総数である。qは、回転テンプレートに対して並進ずれを有する状態で撮影された並進テンプレート数を規定するパラメータである。
The feature vector of the template image held in the
図1に戻り、結果統合部17は、テンプレート照合部15による物体の位置及び姿勢の推定結果を統合して、最終的な推定結果を出力する。具体的には、走査ウィンドウによって入力画像を走査することにより選択される複数の部分画像のうち、テンプレート照合部15によって認識対象物の位置及び姿勢が推定された画像が1つだけである場合は、その部分画像の位置を認識対象物の最終的な推定位置とし、テンプレート照合部15の推定した姿勢を最終的な推定結果として出力すればよい。一方、テンプレート照合部15によって物体の位置及び姿勢が推定された画像が複数存在する場合は、これら複数の候補を以下の(4)式に示すような重み付けを行って統合するとよい。
Returning to FIG. 1, the
(4)式は、2つの候補C1=(x1、y1、θ1)及びC2=(x2、y2、θ2)の重み付け統合によって、最終的な物体位置及び姿勢の推定結果C3=(x3、y3、θ3)を得る場合を示している。(4)式において、x1及びy1は、第1の候補C1の入力画像中の位置座標を示し、θ1は第1の候補C1の姿勢を表す姿勢パラメータを表している。同様に、x2及びy2は、第2の候補C2の入力画像中の位置座標を示し、θ2は第2の候補C2の姿勢を表す姿勢パラメータを表している。また、x3及びy3は、推定結果Cの入力画像中での位置座標を示し、θ3は推定結果Cの姿勢を表す姿勢パラメータを表している。 Equation (4) is obtained by weighted integration of two candidates C1 = (x1, y1, θ1) and C2 = (x2, y2, θ2), and the final object position and orientation estimation result C3 = (x3, y3, In this case, θ3) is obtained. In the equation (4), x1 and y1 represent position coordinates in the input image of the first candidate C1, and θ1 represents a posture parameter representing the posture of the first candidate C1. Similarly, x2 and y2 represent position coordinates in the input image of the second candidate C2, and θ2 represents a posture parameter representing the posture of the second candidate C2. Further, x3 and y3 represent position coordinates in the input image of the estimation result C, and θ3 represents a posture parameter representing the posture of the estimation result C.
さらに、w1及びw2は、第1の候補C1及び第2の候補C2を統合する際の重みを表しており、これらは、テンプレート照合部15において算出されたテンプレート画像との距離s1及びs2の関数として決定する。なお、s1は第1の候補C1を推定した際のテンプレート画像との最小距離を表し、s2は第2の候補C2を推定した際のテンプレート画像との最小距離を表す。重みw1及びw2は様々に定めることができるが、最も簡単な一例は線形近似である。
Further, w1 and w2 represent weights when the first candidate C1 and the second candidate C2 are integrated, and these are functions of the distances s1 and s2 from the template image calculated by the
続いて、本実施の形態にかかる物体認識装置1が行う物体認識処理に関して、図4のフローチャートを用いて詳細に説明する。図4は、物体認識装置1が行う物体認識処理手順を示すフローチャートである。ステップS101では、撮像部11から画像特徴算出部12に対して撮影画像データが入力される。ステップS102では、画像特徴算出部12が、入力画像から走査ウィンドウによって選択される部分画像より特徴量を算出する。ステップS103では、特徴ベクトル算出部13が、n次元の特徴空間に射影された入力画像の特徴ベクトル、具体的には走査ウィンドウによって選択された部分画像の特徴ベクトルDを算出する。
Next, object recognition processing performed by the
続いて、ステップS104では、テンプレート照合部15が、複数の回転テンプレート画像の特徴ベクトル{Ti 0}によって作られる特徴空間における回転多様体と、入力画像の特徴ベクトルDとの最小距離Lscを算出する。具体的には、回転テンプレート画像の特徴ベクトルと入力画像の特徴ベクトルDとの間の距離scを回転テンプレート画像の各々について算出し、距離scの最小値を最小距離Lscとすればよい。距離scは以下の(5)式により算出でき、このときの最小距離Lscは、(6)式により表される。ここで、Mは信頼度重みであり、Confは回転多様体を表す。
Subsequently, in step S104, the
ステップS105では、テンプレート照合部15が、ステップS104において算出された最小距離Lscが所定の第1の閾値Th1以下であるか否かを判定する。判定の結果、最小距離Lscが第1の閾値Th1より大きい場合には、走査ウィンドウを次の画素に移動して、ステップS102以降の処理を繰り返す(ステップS111)。一方、最小距離Lscが第1の閾値Th1以下であると判定された場合は、ステップS106以降の処理を行う。
In step S105, the
ステップS106では、テンプレート照合部15が、最小距離Lscを与える回転テンプレート画像の並進多様体と、現在の評価対象である部分画像の並進多様体との最小距離Lstを算出する。ここで、回転テンプレート画像の並進多様体とは、図3(c)に示したような回転テンプレート画像に関連づけて撮影された一連の並進テンプレート画像の特徴ベクトル群{Ti j}を、特徴空間に射影して得られる多様体である。また、部分画像の並進多様体とは、現在の評価対象である部分画像の特徴ベクトルと、現在の評価対象である部分画像の前後に走査ウィンドウによって選択される複数の部分画像の特徴ベクトル群を特徴空間に射影して得られる多様体である。
In step S106, the
図5は、回転テンプレート画像及び並進テンプレート画像に関する特徴空間の一例を示す概念図である。回転多様体300は、複数の回転テンプレート画像によって形成される多様体を示している。並進多様体311は、ある回転テンプレート画像31に関連づけて撮影された一連の並進テンプレート画像によって形成される多様体を示している。また、並進多様体321は、現在の評価対象である部分画像32と、部分画像32の前後において走査ウィンドウによって選択される複数の部分画像とによって形成される多様体を示している。
FIG. 5 is a conceptual diagram illustrating an example of a feature space related to a rotation template image and a translation template image. The
最小距離Lstは、以下の(7)式により算出することができる。ここで、Mは信頼度重みであり、Transは回転テンプレート画像の並進多様体である。 The minimum distance Lst can be calculated by the following equation (7). Here, M is a reliability weight, and Trans is a translation manifold of the rotated template image.
ステップS107では、テンプレート照合部15が、ステップS106において算出された最小距離Lstが所定の第2の閾値Th2以下であるか否かを判定する。判定の結果、最小距離Lscが第2の閾値Th2より大きい場合には、走査ウィンドウを次の画素に移動して、ステップS102以降の処理を繰り返す(ステップS111)。一方、最小距離Lscが第2の閾値Th2以下であると判定された場合は、ステップS108以降の処理を行う。
In step S107, the
ステップS108では、今回の評価対象である部分画像により特定された認識対象物の位置及び姿勢を候補値として選択する。ステップS109の判定では、入力画像の全体に対して走査ウィンドウによる走査が終了していなければ、走査ウィンドウを次の画素に移動して、ステップS102以降の処理を繰り返す(ステップS111)。一方、入力画像全体の走査が終了した場合には、結果統合部17が、異なる走査ウィンドウによって推定された位置及び姿勢の候補値を統合して、認識対象物の位置及び姿勢の推定結果を出力する。
In step S108, the position and orientation of the recognition target specified by the partial image that is the current evaluation target are selected as candidate values. If it is determined in step S109 that scanning by the scanning window has not been completed for the entire input image, the scanning window is moved to the next pixel, and the processing from step S102 onward is repeated (step S111). On the other hand, when the entire input image has been scanned, the
なお、図4に示した物体認識処理の処理フローは一例である。図4の処理フローは、部分画像と回転テンプレート画像との照合を行って、部分画像の特徴ベクトルに近い回転テンプレート画像の特徴ベクトルが探索された場合にのみ、部分画像と並進テンプレート画像との照合を行うこととした。しかしながら、このような2段階の判定処理に拠らずに、部分画像と回転テンプレート画像との照合ステップを省略して、部分画像と並進テンプレート画像との照合をすぐに行ってもよい。しかしながら、全ての場合に部分画像と並進テンプレート画像との照合を行うと計算量が大きくなるため、上述したような2段階の探索によって、回転テンプレート画像との照合結果が良好な場合にのみ、並進テンプレートとの照合を行うことが望ましい。 The process flow of the object recognition process illustrated in FIG. 4 is an example. The processing flow of FIG. 4 performs the matching between the partial image and the translation template image only when the partial image and the rotation template image are collated and the feature vector of the rotation template image close to the feature vector of the partial image is searched. It was decided to do. However, the collation step between the partial image and the translation template image may be performed immediately without performing the collation step between the partial image and the rotation template image without relying on such a two-stage determination process. However, since the amount of calculation increases when collation between the partial image and the translation template image is performed in all cases, the translation is performed only when the collation result with the rotation template image is satisfactory by the two-stage search as described above. It is desirable to check against the template.
上述したように、本実施の形態にかかる物体認識装置1は、認識対象物を回転させながら撮影することにより得られる回転テンプレート画像の特徴ベクトルに加えて、撮影画像の中心と認識対象物の中心とが、走査ウィンドウの走査方向に沿ってずれを生じた状態で撮影することにより得られる並進テンプレート画像の特徴ベクトルをテンプレート記憶部16に保持している。つまり、物体認識装置1は、並進テンプレート画像を保持することによって、認識対象物の中心と走査ウィンドウの中心とのずれ(並進ずれ)がある場合の認識対象物の見え方を予め学習している。
As described above, the
さらに、物体認識装置1は、図4のステップS106乃至108で説明したように、回転テンプレート画像の並進多様体と、現在の評価対象である部分画像の並進多様体との特徴空間での距離を算出し、算出された距離を所定の閾値Th2と比較する。これによって、入力画像から切り出される部分画像の特徴ベクトルが走査ウィンドウの移動に伴って示す変動特性と、並進テンプレート画像の特徴ベクトルが並進ずれに伴って示す変動特性とを照合させている。したがって、仮に、回転テンプレート画像との照合において並進ずれに起因する姿勢の誤判定が生じた場合にも、並進テンプレート画像との照合において、誤判定された回転テンプレート画像の並進多様体と評価対象の部分画像の並進多様体との間に不整合が生じるため、誤って推定された認識対象物の姿勢をリジェクトできる。これにより、並進ずれに起因する認識対象物の姿勢の誤認識を抑制することができる。
Further, as described in steps S106 to S108 in FIG. 4, the
なお、上述した本実施の形態にかかる物体認識装置1のうち撮像部11を除く他の構成要素は、プログラムを実行可能なCPU(Central Processing Unit)を有するコンピュータシステムを用いて構成することが可能である。具体的には、CPUが内部に備える又はCPUの外部に接続されるROM又はフラッシュメモリ等の記憶部に、画像特徴算出部12、特徴ベクトル算出部13、テンプレート照合部15及び結果統合部17が行う図4のフローチャートに示した処理をコンピュータシステムに実行させるためのプログラムを格納しておき、当該プログラムをCPUで実行することとすればよい。また、基底ベクトル記憶部14及びテンプレート記憶部16は、コンピュータシステムが備えるハードディスクやフラッシュメモリ等の不揮発性の記憶部とすればよい。
In the
図4のフローチャートに示した処理をコンピュータシステムに実行させるためのプログラムは、ROM又はフラッシュメモリに限らず様々な種類の記憶媒体に格納することが可能であり、また、通信媒体を介して伝達することが可能である。ここで、記憶媒体には、例えば、フレキシブルディスク、ハードディスク、磁気ディスク、光磁気ディスク、CD−ROM、DVD、バッテリバックアップ付きRAMメモリカートリッジ等を含む。また、通信媒体には、電話回線等の有線通信媒体、マイクロ波回線等の無線通信媒体等を含み、インターネットも含まれる。 The program for causing the computer system to execute the processing shown in the flowchart of FIG. 4 can be stored in various types of storage media, not limited to ROM or flash memory, and is transmitted via a communication medium. It is possible. Here, the storage medium includes, for example, a flexible disk, a hard disk, a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD, a RAM memory cartridge with battery backup, and the like. The communication medium includes a wired communication medium such as a telephone line, a wireless communication medium such as a microwave line, and the Internet.
その他の実施の形態.
発明の実施の形態1にかかる物体認識装置1は、結果統合部17において、複数の走査ウィンドウによって得た物体位置及び姿勢の推定結果の重み付き統合を行うこととした。しかしながら、このような重み付き統合を行わず、複数の位置及び姿勢の候補のうち、単純に最小距離Lstが最も小さくなる位置及び姿勢を最終的な推定結果として選択してもよい。また、物体認識装置1は、撮像部11を必ずしも備える必要はなく、撮影後にメモリに格納された画像データを画像特徴算出部12に入力してもよい。
Other embodiments.
In the
また、発明の実施の形態1にかかる物体認識装置1により行われる物体認識処理、具体的には、図4のフローチャートのステップS104では、距離scが最小となる回転テンプレート画像に対応する物体の姿勢を探索している。しかしながら、ステップS104で用いる認識対象物の姿勢の識別方法は、距離最小の回転テンプレート画像を選択する方法、いわゆる最近傍決定則(NN法)に限られない。例えば、複数の回転テンプレート画像を示す特徴空間内の射影点の間を多項式補間やスプライン補間などによって補間することで回転多様体を解析的に表現し、回転多様体と部分画像の特徴ベクトルとの最短距離、最短距離を与える射影点を解析的に算出してもよい。
Also, the object recognition process performed by the
また、テンプレート記憶部16には、テンプレート画像の特徴ベクトル自体を格納しなくてもよい。例えば、テンプレート画像の特徴ベクトルを入力画像に含まれる認識対象物の姿勢を特定するための他のパラメータに変換し、変換後のパラメータをテンプレート記憶部16に格納してもよい。また、入力画像の特徴ベクトルを入力画像に含まれる認識対象物の姿勢を特定するための他のパラメータに変換するための射影行列などの変換情報をテンプレート記憶部16に格納してもよい。
Further, the
さらに、本発明は上述した実施の形態のみに限定されるものではなく、既に述べた本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。 Furthermore, the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention described above.
1 物体認識装置
11 撮像部
12 画像特徴算出部
13 特徴ベクトル算出部
14 基底ベクトル算出部
15 テンプレート照合部
16 テンプレート記憶部
17 結果統合部
21 入力画像
22 走査ウィンドウ
23 認識対象物
31 回転テンプレート画像
32 入力画像
300 回転多様体
311 回転テンプレート画像の並進多様体
321 入力画像の並進多様体
DESCRIPTION OF
Claims (9)
前記入力画像と照合するための複数の回転テンプレート画像の特徴ベクトル及び複数の並進テンプレート画像の特徴ベクトルに関して記述されたテンプレート辞書を記憶する記憶部と、
前記入力画像上を走査されて処理対象領域を指定する走査ウィンドウによって、前記入力画像から前記処理対象領域として部分的に選択される部分画像の特徴を示す特徴ベクトルを算出する特徴ベクトル算出部と、
前記テンプレート辞書及び前記部分画像の特徴ベクトルに基づいて、前記入力画像内に含まれる認識対象物の位置及び姿勢を推定する推定部とを備え、
前記複数の回転テンプレート画像は、前記認識対象物を複数の方向から見た画像の集合であり、
前記複数の並進テンプレート画像は、直線軌道に沿った複数の視点から前記認識対象物を部分的に捉えた画像の集合である、物体認識装置。 An object recognition device that estimates the position and orientation of a recognition target object using an input image that is captured and input by an imaging unit,
A storage unit for storing a template dictionary described with respect to a feature vector of a plurality of rotation template images and a feature vector of a plurality of translation template images for matching with the input image;
A feature vector calculation unit that calculates a feature vector indicating a feature of a partial image that is partially selected as the processing target region from the input image by a scanning window that is scanned on the input image and specifies the processing target region;
An estimation unit that estimates the position and orientation of a recognition object included in the input image based on the template dictionary and the feature vector of the partial image;
The plurality of rotation template images are a set of images obtained by viewing the recognition object from a plurality of directions,
The plurality of translation template images is an object recognition device that is a set of images obtained by partially capturing the recognition target object from a plurality of viewpoints along a linear trajectory.
前記並進テンプレート画像は、直線軌道上に位置する複数の視点から前記認識対象物を部分的に捉えた画像の集合である、請求項1に記載の物体認識装置。 The rotation template image is a set of images obtained by viewing the recognition object from a plurality of viewpoints located on a circular orbit centered on the recognition object.
The object recognition apparatus according to claim 1, wherein the translation template image is a set of images obtained by partially capturing the recognition target object from a plurality of viewpoints located on a linear trajectory.
前記複数の並進テンプレート画像は、前記認識対象物を含んで撮影された画像から前記認識対象物の部分のみを含むよう切り出された画像の集合である、請求項1に記載の物体認識装置。 The plurality of rotation template images are cut out so as to include the entirety of the recognition target object from images photographed including the recognition target object from a plurality of viewpoints along a circular orbit centered on the recognition target object. A collection of images,
The object recognition apparatus according to claim 1, wherein the plurality of translation template images are a set of images cut out so as to include only a portion of the recognition target object from an image captured including the recognition target object.
前記認識対象物を複数の方向から見た画像の集合である複数の回転テンプレート画像の特徴ベクトル、及び、直線軌道に沿った複数の視点から前記認識対象物を部分的に捉えた画像の集合である複数の並進テンプレート画像の特徴ベクトルに関して記述されたテンプレート辞書と、前記部分画像の特徴ベクトルとを照合することにより、前記入力画像内に撮影されている認識対象物の位置及び姿勢を推定する、物体認識方法。 Scanning the input image by a scanning window that defines a processing target area, and calculating a feature vector indicating characteristics of a partial image partially selected from the input image as the processing target area by the scanning window;
A feature vector of a plurality of rotation template images that are a set of images obtained by viewing the recognition target object from a plurality of directions, and a set of images obtained by partially capturing the recognition target object from a plurality of viewpoints along a linear trajectory. Estimating a position and orientation of a recognition object photographed in the input image by comparing a template dictionary described with respect to a feature vector of a plurality of translation template images and a feature vector of the partial image; Object recognition method.
前記第1の閾値より小さいと判定される場合に、前記第1の閾値より小さい前記回転多様体との距離を与える回転テンプレート画像に対応する並進テンプレート画像によって作られる並進多様体と前記部分画像の特徴ベクトルとの間の前記特徴空間における距離が第2の閾値より小さいか否かを判定し、
前記第2の閾値より小さいと判定される場合に、前記第1の閾値より小さい前記回転多様体との距離を与える回転テンプレート画像によって特定される姿勢を前記認識対象物の姿勢推定結果とする請求項7に記載の物体認識方法。 Determining whether the distance in the feature space between the rotation manifold created by the feature vectors of the plurality of rotation template images and the feature vector of the partial image is less than a first threshold;
A translation manifold created by a translation template image corresponding to a rotation template image that gives a distance from the rotation manifold that is less than the first threshold when determined to be less than the first threshold; Determining whether a distance in the feature space to a feature vector is less than a second threshold;
The posture specified by the rotation template image that gives a distance from the rotating manifold that is smaller than the first threshold when determined to be smaller than the second threshold is set as the posture estimation result of the recognition object. Item 8. The object recognition method according to Item 7.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007002832A JP2008171147A (en) | 2007-01-10 | 2007-01-10 | Object recognition device and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007002832A JP2008171147A (en) | 2007-01-10 | 2007-01-10 | Object recognition device and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008171147A true JP2008171147A (en) | 2008-07-24 |
Family
ID=39699191
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007002832A Pending JP2008171147A (en) | 2007-01-10 | 2007-01-10 | Object recognition device and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008171147A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019013449A (en) * | 2017-07-06 | 2019-01-31 | 株式会社島津製作所 | Radiographic apparatus and radiation image detection method |
JP2020087171A (en) * | 2018-11-29 | 2020-06-04 | 富士通株式会社 | Image processing program, image processing method and image processing apparatus |
-
2007
- 2007-01-10 JP JP2007002832A patent/JP2008171147A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019013449A (en) * | 2017-07-06 | 2019-01-31 | 株式会社島津製作所 | Radiographic apparatus and radiation image detection method |
JP6999895B2 (en) | 2017-07-06 | 2022-01-19 | 株式会社島津製作所 | Radiation imaging device and radiological image detection method |
JP2020087171A (en) * | 2018-11-29 | 2020-06-04 | 富士通株式会社 | Image processing program, image processing method and image processing apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20240168563A1 (en) | Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data | |
JP4644248B2 (en) | Simultaneous positioning and mapping using multi-view feature descriptors | |
JP5787642B2 (en) | Object holding device, method for controlling object holding device, and program | |
JP4284288B2 (en) | Pattern recognition apparatus and method | |
US8503760B2 (en) | System and method for real-time object recognition and pose estimation using in-situ monitoring | |
KR101420549B1 (en) | Method, device and processor-readable medium for feature matching by clustering detected kepoints in query and model images | |
JP6032921B2 (en) | Object detection apparatus and method, and program | |
US9984280B2 (en) | Object recognition system using left and right images and method | |
CN106780631B (en) | Robot closed-loop detection method based on deep learning | |
US20080013837A1 (en) | Image Comparison | |
WO2005038716A1 (en) | Image collation system and image collation method | |
JP4709668B2 (en) | 3D object recognition system | |
JP7334432B2 (en) | Object tracking device, monitoring system and object tracking method | |
WO2012046426A1 (en) | Object detection device, object detection method, and object detection program | |
KR20220093492A (en) | System and method for establishing structural exterior map using image stitching | |
CN113021355B (en) | Agricultural robot operation method for predicting sheltered crop picking point | |
CN117252928B (en) | Visual image positioning system for modular intelligent assembly of electronic products | |
JP2008171147A (en) | Object recognition device and method | |
JP4706527B2 (en) | Pattern recognition apparatus and pattern recognition method | |
Xu | Online robust principal component analysis for background subtraction: A system evaluation on toyota car data | |
CN113361400A (en) | Head posture estimation method and device and storage medium | |
JP2019129470A (en) | Image processing device | |
WO2022190534A1 (en) | Recognition device, robot control system, recognition method and program | |
CN110567728B (en) | Method, device and equipment for identifying shooting intention of user | |
KR101760892B1 (en) | System and method for tracking object based on omnidirectional image in omni-camera |