JP2003288595A - Apparatus and method for object recognition, and computer-readable recording medium - Google Patents

Apparatus and method for object recognition, and computer-readable recording medium

Info

Publication number
JP2003288595A
JP2003288595A JP2002092768A JP2002092768A JP2003288595A JP 2003288595 A JP2003288595 A JP 2003288595A JP 2002092768 A JP2002092768 A JP 2002092768A JP 2002092768 A JP2002092768 A JP 2002092768A JP 2003288595 A JP2003288595 A JP 2003288595A
Authority
JP
Japan
Prior art keywords
image
standard
plane
area
whole
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002092768A
Other languages
Japanese (ja)
Inventor
Makoto Goto
誠 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2002092768A priority Critical patent/JP2003288595A/en
Publication of JP2003288595A publication Critical patent/JP2003288595A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method of recognizing a three-dimensional object speedily and precisely by simple constitution. <P>SOLUTION: While coordinates of a standard image consisting of images of a plurality of parts of a collation object are converted by using standard pattern information consisting of the standard image and the mutual position relation among the plurality of parts, comparative collation with an input image is performed and the standard images share the same part of the specified object respectively. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は物体認識装置及び方
法、並びにコンピュータ読み取り可能な記録媒体に係
り、特に3次元形状を撮影することによって得られた2
次元画像から3次元形状を認識するための物体認識装置
及び方法、並びに当該方法をコンピュータに実行させる
ための情報を記録したコンピュータ読み取り可能な記録
媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object recognition apparatus and method, and a computer-readable recording medium, and in particular, it is obtained by photographing a three-dimensional shape.
The present invention relates to an object recognition apparatus and method for recognizing a three-dimensional shape from a three-dimensional image, and a computer-readable recording medium in which information for causing a computer to execute the method is recorded.

【0002】[0002]

【従来の技術】物体の3次元形状を検出または認識する
方法として、予め3次元形状をモデルとして用意してお
く方法と、2次元濃淡画像をモデルとして準備しておく
方法とがある。前者の方法には、入力画像からまず3次
元形状を復元し、それを3次元モデルと照合する手法
と、3次元モデルを2次元画像に投影し、それを2次元
の入力画像と照合する手法とがある。
2. Description of the Related Art Methods for detecting or recognizing a three-dimensional shape of an object include a method of preparing a three-dimensional shape as a model in advance and a method of preparing a two-dimensional grayscale image as a model. The former method is a method of first recovering a three-dimensional shape from an input image and matching it with a three-dimensional model, and a method of projecting the three-dimensional model on a two-dimensional image and matching it with a two-dimensional input image. There is.

【0003】一方、後者の方法は、認識対象物体として
操作パネル等の比較的平坦な3次元形状を2次元平面で
近似し、平面としての変形に限定した正規化を実施して
照合を行う手法である。例えば、特開2000―901
91号公報には、物体の位置ずれ、傾き、上下の向き、
左右の向きといった平面的な変形要因のアフィン変換に
基づくパラメータの組合わせを、想定される全ての変形
のバリエーション分だけ予め用意しておく技術が開示さ
れている。
On the other hand, the latter method is a method of approximating a relatively flat three-dimensional shape such as an operation panel as a recognition target object with a two-dimensional plane and performing a normalization limited to the deformation as a plane to perform collation. Is. For example, Japanese Patent Laid-Open No. 2000-901
No. 91 publication, the positional displacement of the object, the inclination, the vertical direction,
A technique is disclosed in which combinations of parameters based on affine transformation of planar deformation factors such as left and right directions are prepared in advance for all possible variations of deformation.

【0004】[0004]

【発明が解決しようとする課題】上記の予め3次元形状
をモデルとして準備する方法には、入力画像から3次元
形状を復元する手法、トレーニングデータから予め3次
元形状を作成する手法等があるが、いずれの手法におい
ても3次元形状が複雑な場合、正確な3次元モデルを作
成することは困難である。他方上記2次元濃淡画像をモ
デルとして準備しておく方法では、対象画像の変形が近
似可能な範囲を超えてしまった場合照合不可となるとい
う問題点を内包する。
The above-mentioned method of preparing a three-dimensional shape as a model in advance includes a method of restoring a three-dimensional shape from an input image, a method of creating a three-dimensional shape in advance from training data, and the like. In any of the methods, it is difficult to create an accurate three-dimensional model when the three-dimensional shape is complicated. On the other hand, the method of preparing the two-dimensional grayscale image as a model has a problem that the collation cannot be performed when the deformation of the target image exceeds the approximate range.

【0005】本発明は、このような事情に鑑みてなされ
たものであり、上記の従来の手法の如くの一貫性のある
3次元モデルを復元する処理を必要とせず、且つ、ある
程度の3次元的な変形にも柔軟に対応可能な物体認識装
置および方法を提供することを目的としている。
The present invention has been made in view of such circumstances, and does not require the processing of restoring a consistent three-dimensional model as in the above-mentioned conventional method, and has a certain degree of three-dimensional shape. It is an object of the present invention to provide an object recognition device and method capable of flexibly coping with dynamic deformation.

【0006】[0006]

【課題を解決するための手段】上記目的の達成のため本
発明では、検出対象物体の複数の全体又は部分の画像よ
りなる標準画像とそれら複数の全体又は部分の相互位置
関係とよりなる標準パターン情報を用い、上記標準画像
を夫々座標変換しながら入力画像との比較照合を行う構
成であり、更に上記標準画像は上記検出対象物体の同一
部分を共通して含む構成とした。
In order to achieve the above object, according to the present invention, a standard pattern composed of a standard image composed of a plurality of whole or partial images of an object to be detected and a mutual positional relationship of the plurality of whole or parts. The information is used to compare and collate the standard image with the input image while converting the coordinates of the standard image, and the standard image includes the same portion of the detection target object in common.

【0007】このように対象物体の同一部分を共通して
含む複数の全体又は部分の標準画像を準備し且つ複数の
全体又は部分間の相対位置関係をも考慮しながら、夫々
独立に座標変換しつつ入力画像との比較照合を行えるた
め、粗密手法を適用した効率的な物体認識を実現可能で
ある。
As described above, standard images of a plurality of whole or portions which commonly include the same portion of the target object are prepared, and coordinate conversion is performed independently while taking into consideration the relative positional relationship between the plurality of whole or portions. Meanwhile, since the comparison and collation with the input image can be performed, it is possible to realize efficient object recognition by applying the coarse / fine method.

【0008】即ち本発明方法によれば、検出対象物体を
認識する場合、まず全体の大まかなイメージで照合し、
次に当該物体の形状の特徴を代表する所定部分について
詳細に照合する。更にこの際、全体イメージを照合する
場合には解像度の低い、即ち厚さ/奥行き/深さ方向の
ずれに対する許容範囲の大きい2次元画像を用いること
によって3次元的にロバストな照合が行えるため、迅速
且つ柔軟性の高い照合が可能である。
That is, according to the method of the present invention, when recognizing an object to be detected, first, a rough image of the whole is collated,
Next, a detailed comparison is performed with respect to a predetermined portion that represents the shape feature of the object. Further, at this time, when the whole image is collated, a three-dimensional robust collation can be performed by using a two-dimensional image having a low resolution, that is, a large permissible range for the deviation in the thickness / depth / depth direction. Quick and highly flexible matching is possible.

【0009】そして、そのように全体イメージの照合を
行った後、特徴部分については詳細に照合処理を行え
る。即ち、全体イメージの照合によって全体的な入力画
像と標準パターンとの対応が取れれば、特徴部分との相
対位置関係情報によって、入力画像のどの部分にどのよ
うな傾きで特徴部が存在するはずということが判断でき
るため、今度は比較的高解像度の2次元画像を適用して
特徴部の照合を詳細に行える。
After the whole image is collated as described above, the characteristic portion can be collated in detail. That is, if the entire input image and the standard pattern can be matched by collating the entire image, it can be said that the characteristic portion should exist in which portion of the input image and at which inclination according to the relative positional relationship information with the characteristic portion. Therefore, it is possible to apply a relatively high-resolution two-dimensional image and perform detailed feature matching.

【0010】[0010]

【発明の実施の形態】本発明の実施例による認識方法
は、仮想的な3次元空間内で、物体表面の一部または全
部が「概ね」存在していると思われる複数の二次元平面
領域を仮想し、その位置と法線方向とを仮定検定しつつ
その平面上でモデル濃淡画像と入力画像との照合を進め
ていく方法である。
BEST MODE FOR CARRYING OUT THE INVENTION A recognition method according to an embodiment of the present invention uses a plurality of two-dimensional plane regions in which a part or all of an object surface is considered to exist "approximately" in a virtual three-dimensional space. Is assumed and the position and the normal direction are hypothesized and tested, and the matching between the model grayscale image and the input image is advanced on the plane.

【0011】更に、本実施例においては上記二次元平面
領域の「厚さ」(深さ)の属性も考慮する。この「厚
さ」とは「照合のための誤差許容範囲」を表しており、
モデル濃淡画像の解像度が低いほど厚くなり、同濃淡画
像の解像度が高いほど薄くなる。即ち、モデル濃淡画像
の解像度が低い程、3次元的姿勢変化に起因する特徴点
の位置ずれに対して、照合がロバスト(頑健)となる、
即ち、3次元姿勢変化に起因する特徴点の位置ずれがあ
っても略正しい照合結果が得られる。
Further, in this embodiment, the attribute of "thickness" (depth) of the two-dimensional plane area is also taken into consideration. This "thickness" represents the "error tolerance for matching",
The lower the resolution of the model grayscale image is, the thicker it is, and the higher the resolution of the same grayscale image is, the thinner it is. That is, the lower the resolution of the model grayscale image, the more robust the matching is to the positional deviation of the feature points caused by the three-dimensional posture change.
That is, a substantially correct matching result can be obtained even if the feature points are displaced due to the three-dimensional posture change.

【0012】例えば、図1(A)のような3次元形状を
有する物体を認識する場合を考える。この場合図1
(B)に示す如く基準(モデル)濃淡画像が低解像度の
ときは、平面領域の誤差許容範囲(即ち厚み)の中に当
該物体が有する厚み方向の範囲が含まれるため照合が可
能となる。すなわち、物体全体として平面近似が可能と
なり、照合の際、平面的な正規化のみで照合が可能とな
る。尚、図中、破線による升目が標準濃淡画像の各画素
を示す。しかしながら、この場合濃淡画像が低解像度
(即ち単位面積あたりの画素数が少ない)であるため、
全体構造における特徴のみが照合され、微細構造につい
ては検証出来ない。
For example, consider the case of recognizing an object having a three-dimensional shape as shown in FIG. In this case
As shown in (B), when the reference (model) grayscale image has a low resolution, the error tolerance range (that is, the thickness) of the plane area includes the range in the thickness direction of the object, so that the collation is possible. That is, the plane approximation can be performed for the entire object, and the collation can be performed only by planar normalization. In the figure, squares indicated by broken lines indicate pixels of the standard grayscale image. However, in this case, since the grayscale image has a low resolution (that is, the number of pixels per unit area is small),
Only the features in the overall structure are collated, and the fine structure cannot be verified.

【0013】一方、図1(C)に示す如く基準濃淡画像
が高解像度の場合には、そのままでは平面領域の誤差許
容範囲から当該物体の厚み方向の範囲が逸脱してしまう
ため、アフィン変換等の平面的な効果しかもたない補正
処理では対応しきれず、ロバストな照合は不可能とな
る。
On the other hand, when the reference grayscale image has a high resolution as shown in FIG. 1 (C), the range in the thickness direction of the object deviates from the allowable error range of the plane area as it is. The correction processing, which has only a two-dimensional effect, cannot cope with it, and robust collation becomes impossible.

【0014】しかしながら、図1(D)に示す如く基準
濃淡画像の平面領域を傾きの異なる二つの平面領域に分
割して夫々を入力画像に適用することにより、基準濃淡
画像が高解像度であっても夫々の平面領域の中に物体の
対象部分の厚み方向範囲を含ませることが可能となる。
However, as shown in FIG. 1D, by dividing the plane area of the reference grayscale image into two plane areas having different inclinations and applying each to the input image, the reference grayscale image has a high resolution. Also makes it possible to include the range in the thickness direction of the target portion of the object in each plane area.

【0015】本発明の実施例では、図2に示される如く
の、複数の平面領域の位置関係とその解像度、及び、夫
々の対応する濃淡画像からなる情報を、「標準パター
ン」と定義する。なお、図2(B)に示す各濃淡画像
は、最適視点(平面領域の法線方向からその平面を眺め
る視点、図2(A)参照)から見た画像として構成する
ことが望ましい。
In the embodiment of the present invention, as shown in FIG. 2, the positional relationship between a plurality of plane areas and their resolutions, and information consisting of respective corresponding grayscale images are defined as a "standard pattern". Note that each grayscale image shown in FIG. 2B is preferably configured as an image viewed from an optimum viewpoint (a viewpoint in which the plane is viewed from the normal direction of the plane area, see FIG. 2A).

【0016】この標準パターンの情報全てを用いて、図
1(A)の物体との照合を行うことにより、物体の全体
構造と微細構造との両方を考慮した効果的な照合が可能
となる。
By performing the collation with the object of FIG. 1 (A) by using all the information of the standard pattern, it becomes possible to effectively collate both the entire structure and the fine structure of the object.

【0017】ここで図1(B)による方法が上記平面
(2次元モデル)で近似する従来の方法に関連し、図1
(D)による方法が上記3次元形状をモデルとして準備
する従来の方法に関連する。これに対し、本発明の実施
例では、奥行き方向に関する誤差許容範囲、即ち、「近
似平面の厚さ」を明示的に考慮した上で、両手法の要素
を効果的に組合わせる手法を採る。
Here, the method according to FIG. 1B relates to the conventional method of approximating with the plane (two-dimensional model).
The method according to (D) is related to the conventional method of preparing the three-dimensional shape as a model. On the other hand, in the embodiment of the present invention, a method of effectively combining the elements of both methods is adopted after explicitly considering the error allowable range in the depth direction, that is, the “thickness of the approximate plane”.

【0018】特に、まず図1(B)による照合を行って
対象物体候補を絞った後に図1(D)による照合を行う
ことにより、粗密探索、即ち大まかな要素による探索か
ら緻密な要素による探索へと進めてゆく手法を適用可能
となる。したがって本発明の実施例による方法は特定物
体を検出する場合に効果的な方法と言える。
In particular, by first performing the matching shown in FIG. 1 (B) to narrow down the target object candidates and then performing the matching shown in FIG. 1 (D), a coarse / fine search, that is, a search from a rough element to a search by a fine element. It is possible to apply the method that advances to. Therefore, the method according to the embodiment of the present invention can be said to be an effective method for detecting a specific object.

【0019】本発明の実施例における標準パターンの特
徴は、図2(B)に示す如く、対象物体表面の同一部分
が、標準パターンの複数の平面領域において重複して表
現されることである。
The feature of the standard pattern in the embodiment of the present invention is that the same part of the surface of the target object is duplicately expressed in a plurality of plane regions of the standard pattern as shown in FIG. 2 (B).

【0020】即ち本発明の実施例では、入力画像と、複
数の平面領域の濃淡画像と該平面領域間の位置関係とか
らなる標準パターンとを、各々の前記平面領域を座標変
換しながら照合する。ここで前記標準パターンは、物体
表面の同一部分が重複して表現された複数の平面領域を
含む。尚、以下に述べる各実施例における仮説検定アル
ゴリズムは、特定の射影モデルに限定されず、中心投
影、平行投影、弱中心投影、疑似中心投影等、射影変換
又はアフィン変換等によって三次元空間中の平面領域を
画像面に投影するいかなる射影モデルをも適用可能であ
る。
That is, in the embodiment of the present invention, the input image is compared with the standard pattern consisting of the grayscale images of a plurality of plane areas and the positional relationship between the plane areas while performing coordinate conversion of each of the plane areas. . Here, the standard pattern includes a plurality of planar regions in which the same portion of the object surface is expressed in an overlapping manner. Incidentally, the hypothesis testing algorithm in each of the embodiments described below is not limited to a specific projection model, and the central projection, parallel projection, weak central projection, pseudo central projection, etc. Any projective model that projects a planar area onto the image plane is applicable.

【0021】又、本発明の適用範囲は物体の照合アルゴ
リズムに限定されず、特徴ベクトル空間内の距離や画素
値の相関等、濃淡画像と入力画像との間の一致度を調べ
る際に適用される如何なるアルゴリズムにも適用可能で
ある。
Further, the applicable range of the present invention is not limited to the object matching algorithm, but is applied when examining the degree of coincidence between the grayscale image and the input image such as the distance in the feature vector space and the correlation of pixel values. It can be applied to any algorithm.

【0022】更に本発明の実施例において平面領域の解
像度の設定方法は特定の方法に限定されない。即ちロバ
ストな照合を行う目的で解像度を下げる手法として、濃
淡画像の画素数を少なくするだけでなく、照合時の前処
理として空間定数の大きいガウシャンフィルタによる処
理を施して空間解像度を下げる方法等を適用してもよ
い。
Further, in the embodiment of the present invention, the method of setting the resolution of the plane area is not limited to a particular method. That is, as a method of lowering the resolution for the purpose of robust matching, not only the number of pixels in the grayscale image is reduced, but also a method using a Gaussian filter having a large spatial constant to reduce the spatial resolution as preprocessing at the time of matching. May be applied.

【0023】更に、本発明の実施例では、前記パターン
照合時、ある時刻において一つまたは幾つかの平面領域
を状態としてもち、該平面領域に関する照合結果に基づ
いて状態遷移する構成としてもよい(詳細後述)。
Further, in the embodiment of the present invention, at the time of the pattern matching, one or several plane regions may be brought into a state at a certain time, and the state transition may be made based on the result of the collation regarding the plane region ( Details later).

【0024】又、本発明の実施例では、入力画像が多視
点画像である構成としてもよい。
In the embodiment of the present invention, the input image may be a multi-viewpoint image.

【0025】更に本発明の実施例では、前記パターン照
合アルゴリズムの処理状態に基づいて、入力画像を撮影
する撮像装置のカメラパラメータを制御する構成として
もよい。
Further, in the embodiment of the present invention, the camera parameter of the image pickup device for picking up the input image may be controlled based on the processing state of the pattern matching algorithm.

【0026】更に本発明の実施例では、コンピュータ読
み取り可能な記録媒体において、物体表面の同一部分が
法線方向と解像度とが共に異なる複数の平面領域におい
て重複して表現された、複数の平面領域の濃淡画像と該
平面領域間の位置関係とからなる標準パターンを記録す
る態様も包含される。
Further, according to an embodiment of the present invention, in a computer-readable recording medium, a plurality of plane areas in which the same portion of the object surface is duplicately expressed in a plurality of plane areas whose normal direction and resolution are different from each other. A mode in which a standard pattern composed of the grayscale image and the positional relationship between the plane areas is recorded is also included.

【0027】本発明の実施例では上述の如くの構成によ
り、一般に複雑な3次元モデルを復元する一貫性を有し
た処理を必要とせず、且つ、ある程度の3次元的な変形
にも柔軟に対応可能な物体認識装置および方法を実現す
ることが出来る。また、本発明の実施例では、動き効果
や照明効果を差し引く操作等、一般に3次元モデルを利
用した方法を実施する場合にのみ適用可能と考えられる
操作を適用可能となる。
In the embodiment of the present invention, with the above-mentioned configuration, generally, a consistent process for restoring a complicated three-dimensional model is not required, and the three-dimensional deformation can be flexibly dealt with to some extent. A possible object recognition device and method can be realized. Further, in the embodiment of the present invention, it is possible to apply an operation that is generally considered to be applicable only when a method using a three-dimensional model is performed, such as an operation for subtracting a motion effect or a lighting effect.

【0028】更に、本発明の実施例による物体認識装置
を用いれば、後述の如く、複数のカメラで撮影された入
力画像を利用して統合的な物体認識を行うことが出来
る。即ち、例えば本発明の実施例を両眼立体視による手
法にも適用することが出来る。
Further, if the object recognition apparatus according to the embodiment of the present invention is used, as will be described later, it is possible to carry out integrated object recognition by using input images taken by a plurality of cameras. That is, for example, the embodiment of the present invention can be applied to a technique by binocular stereoscopic vision.

【0029】更に、本発明の実施例による物体認識装置
を用いれば、照合処理中に、より特徴的な面をよりよい
条件で撮影し直すことにより、より効率的な物体形状認
識が可能となる。
Further, by using the object recognition apparatus according to the embodiment of the present invention, it is possible to more efficiently recognize the object shape by re-photographing a more characteristic surface under better conditions during the matching process. .

【0030】以下に本発明の各実施例の構成について詳
細に説明する。
The configuration of each embodiment of the present invention will be described in detail below.

【0031】まず、本発明の第1実施例による物体認識
装置について述べる。
First, an object recognition apparatus according to the first embodiment of the present invention will be described.

【0032】本装置は、撮影画像の中から認識対象物体
としての「マウス」を検出し、さらに、それが「マウス
A」であるか「マウスB」であるかを認識する処理を実
施する。上記マウスAとマウスBの具体的な3次元形状
例を図3の上段に示す。又、図3の下段にはこれら各マ
ウスを真横からみた模式図を示す。
The present apparatus detects a "mouse" as a recognition target object from the photographed image and further recognizes whether it is "mouse A" or "mouse B". Specific examples of the three-dimensional shapes of the mouse A and the mouse B are shown in the upper part of FIG. The lower part of FIG. 3 shows a schematic view of these mice as seen from the side.

【0033】図3に示す如くに、マウスAでは特徴領域
(マウスのボタンを含む平面領域)と全体領域との間の
角度が比較的小さいのに対し、マウスBでは特徴領域と
全体領域との間の角度が比較的大きい。この場合上記全
体領域とは、当該マウスを真上から視た場合に得られる
平面領域である。
As shown in FIG. 3, mouse A has a relatively small angle between the characteristic region (a plane region including the mouse button) and the entire region, whereas mouse B has a smaller angle between the characteristic region and the entire region. The angle between them is relatively large. In this case, the entire area is a plane area obtained when the mouse is viewed from directly above.

【0034】図4は本発明の第1実施例によるマウス標
準パターンの作成方法を模式的に示し、図5はそのフロ
ーチャートを示す。まず、ステップS1にてマウスAと
マウスBの画像(a)、(b)を撮影する。尚、この場
合画像はすべて、当該マウスの略真上から撮影されるも
のとする。次に、ステップS2にて、操作者の目視によ
り、各画像(a),(b)上に数十点の特徴点(図中、
黒丸)を手入力にて設定する。
FIG. 4 schematically shows a method of creating a mouse standard pattern according to the first embodiment of the present invention, and FIG. 5 shows a flowchart thereof. First, in step S1, images (a) and (b) of mouse A and mouse B are taken. In this case, all the images are taken from right above the mouse. Next, in step S2, several tens of characteristic points (in the figure, on the images (a) and (b) are visually observed by the operator.
Black circle) is set manually.

【0035】そして、これらの特徴点の全てが単一平面
状に存在すると仮定してマウスAとマウスBの全体像が
出来るだけ重なるように幾何学的変換による位置合わせ
を施す。その後当該位置合わせの施された濃淡画像を平
均化して「平均全体領域」上の濃淡画像(e)を作成す
る(ステップS3)。
Then, assuming that all of these feature points are present in a single plane, registration is performed by geometric transformation so that the entire images of mouse A and mouse B are overlapped as much as possible. Then, the aligned grayscale images are averaged to create a grayscale image (e) on the "average entire area" (step S3).

【0036】即ち、同図(c)、(d)間で両者の各対
応特徴点間の平均位置を求め、このようにして求められ
た特徴点の平均位置に基づき、幾何学変換によって
(c)、(d)の画像間の平均的濃淡画像(e)を求め
る。ここでは例えば各画像の投影モデルを弱中心投影と
考え、マウスAとマウスBの各特徴点の平均位置に夫々
のマウス上の特徴点が出来るだけ近づくような最適なア
フィン変換係数を最小2乗近似規準により求め、これを
幾何学的変換として用いて行う。
That is, the average position between the corresponding feature points of both of the figures (c) and (d) is obtained, and based on the average position of the feature points thus obtained, the geometrical transformation (c ) And (d), the average grayscale image (e) between the images is obtained. Here, for example, the projection model of each image is considered to be a weak center projection, and the optimum affine transformation coefficient that makes the feature points on the mouse A and the mouse B as close as possible to the average position of the feature points of the mouse A and the mouse B is the least squares. It is determined by the approximation criterion and is used as a geometrical transformation.

【0037】一方、特徴の多い領域(f)、(g)の、
特徴点のみを平均特徴点位置に近付けるようなアフィン
変換係数を求め、同様にして「平均特徴領域」上の濃淡
画像(h)を求める(ステップS4)。但し、この平均
特徴領域(h)は、平均全体領域(e)より厚みの薄い
平面領域と仮定出来る、即ち厚み方向の許容誤差範囲を
小さく出来ると仮定出来るため、平均全体領域よりも高
い解像度で濃淡画像を作成する。
On the other hand, in regions (f) and (g) having many features,
An affine transformation coefficient that brings only the feature points closer to the average feature point position is obtained, and similarly, the grayscale image (h) on the "average feature area" is obtained (step S4). However, this average feature area (h) can be assumed to be a flat area having a smaller thickness than the average overall area (e), that is, it can be assumed that the allowable error range in the thickness direction can be made smaller. Create a grayscale image.

【0038】ここで、平面領域(e)、(h)毎に独立
にアフィン変換係数を求めるのは、それぞれの特徴点が
概ね含まれると考えられる平面領域の厚さが異なるため
であり、マウスの同一部分が、スケールの違いにより別
の法線方向をもつ異なる平面領域に夫々包含されると考
えられるためである。
Here, the reason why the affine transformation coefficient is calculated independently for each of the plane regions (e) and (h) is that the thickness of the plane region, which is considered to include each feature point, is different, and the mouse is used. This is because it is considered that the same portion of is included in different plane regions having different normal directions depending on the scale.

【0039】更に上記平均全体領域(e)上の平均特徴
点座標と上記平均特徴領域(h)上の平均特徴点座標と
の対応関係に対応する一つのアフィン変換係数を求めて
おく。そして後述の照合処理時に、この係数によるアフ
ィン変換を、両領域間の相対的位置関係を示す情報とし
て利用する。以上により各濃淡画像(e),(h)とそ
れら相互間の相対的位置関係とを組み合わせた「標準パ
ターン」が得られる。
Further, one affine transformation coefficient corresponding to the correspondence between the average feature point coordinates on the average overall region (e) and the average feature point coordinates on the average feature region (h) is obtained. Then, at the time of collation processing described later, the affine transformation using this coefficient is used as information indicating the relative positional relationship between both regions. As described above, the “standard pattern” is obtained by combining the grayscale images (e) and (h) and the relative positional relationship between them.

【0040】更に、マウスAとマウスBの各々
((c)、(f)間、並びに(d)、(g)間)につい
ても、位置合わせの施された全体領域上へ投影された各
特徴点と、位置合わせの施された特徴領域上へ投影され
た特徴点との対応関係から、個別のアフィン変換係数を
求めておくことが望ましい。このようにして求めた情報
は、後述の照合処理時に、検出されたマウスがマウスA
であるかマウスBであるかを識別する際に利用すること
が出来る。
Further, for each of mouse A and mouse B (between (c) and (f), and (d) and (g)), the respective features projected onto the entire region where the alignment is performed. It is desirable to obtain individual affine transformation coefficients from the correspondence between the points and the characteristic points projected onto the aligned characteristic region. The information obtained in this way is used when the detected mouse is mouse A
Can be used to identify whether it is a mouse or a mouse B.

【0041】次に、上述の本発明の第1実施例による、
入力画像パターンを実際に照合するための物体認識装置
における照合アルゴリズムについて説明する。図6はア
ルゴリズムを模式的に示す図であり、図7は同アルゴリ
ズムによる手順を示すフローチャートである。
Next, according to the first embodiment of the present invention described above,
A matching algorithm in the object recognition device for actually matching the input image pattern will be described. FIG. 6 is a diagram schematically showing the algorithm, and FIG. 7 is a flowchart showing a procedure according to the algorithm.

【0042】ここでは上記パターン照合アルゴリズムに
よる照合は摂動法によって行うものとする。即ち、各平
面領域の位置と法線方向とを少しずつ変えながら、仮説
検定プロセスを進める。まず、上述の如く求められた標
準パターンの中から、全体平面領域(e)と特徴平面領
域(h)とについて各々独立に、夫々の面の3次元的位
置およびその傾きの微少変化に対応するようにアフィン
パラメータ(アフィン変換係数)を徐々に変えながら、
対応する濃淡画像をアフィン変換し、その都度対象物体
を撮影して得られた入力画像の全体又は一部と比較す
る。この場合の比較方法は双方の濃淡画像の濃度値同士
の相関値を求めることにより行うものとする。
Here, the matching by the pattern matching algorithm is performed by the perturbation method. That is, the hypothesis testing process is advanced while gradually changing the position of each plane area and the normal direction. First, from the standard pattern obtained as described above, the three-dimensional position of each surface and the slight change in the inclination of the entire plane area (e) and the feature plane area (h) are independently addressed. While gradually changing the affine parameter (affine transformation coefficient),
The corresponding grayscale image is affine transformed and compared with the whole or a part of the input image obtained by photographing the target object each time. The comparison method in this case is performed by obtaining the correlation value between the density values of both grayscale images.

【0043】そして、ここで得られた相関値の最も大き
い場合に適用されたアフィンパラメータが良好なパラメ
ータであると判断し、その相関値が十分大きければ、そ
の場合における位置と傾きの標準パターンの平面領域に
一致して当該アフィンパラメータにて表現される対象物
体の平面が存在している確率が高いと判断する。以上に
より、各平面領域(e),(h)毎に、存在確率の高い
候補位置が求まる(ステップS11、S12)。
Then, it is determined that the affine parameter applied when the correlation value obtained here is the largest is a good parameter, and if the correlation value is sufficiently large, the standard pattern of the position and inclination in that case is determined. It is determined that there is a high probability that the plane of the target object represented by the affine parameter that matches the plane region exists. As described above, the candidate position having a high existence probability is obtained for each of the plane regions (e) and (h) (steps S11 and S12).

【0044】最後に、位置関係妥当性判定を行う(ステ
ップS13)。即ち、各々の平面領域(e),(h)の
候補の中から、標準パターンの相対的位置関係
((e),(h)間、図4参照)を満たしている組合せ
を求め、これを照合結果として出力する。
Finally, the positional relationship validity judgment is performed (step S13). That is, a combination satisfying the relative positional relationship (between (e) and (h), see FIG. 4) of the standard pattern is obtained from the candidates of the respective plane areas (e) and (h), and this is calculated. Output as the collation result.

【0045】具体的には、図8に示す如く、夫々の全体
領域の候補について、対応する全ての特徴領域候補に対
するアフィン変換係数を求め、それが、図5のステップ
S5で求めた平均全体領域と平均特徴領域との間
((e),(h)間)のアフィン変換係数に十分近けれ
ば、その組合わせを妥当な検出結果として選び出す。こ
のとき、組み合わせを妥当と判定する場合にはアフィン
変換係数の全てが適切でなければならない。アフィン変
換係数のうちの平行移動成分のみが食い違う場合は、位
置が不適当であると判定され、平行移動成分以外の成分
のみが食い違う場合は、傾きが不適当であると判定さ
れ、両者共に妥当なものとは判定されずに除外されるこ
とになる(図8参照)。
Specifically, as shown in FIG. 8, for each candidate of the entire area, affine transformation coefficients for all corresponding characteristic area candidates are calculated, and this is the average entire area calculated in step S5 of FIG. If it is sufficiently close to the affine transformation coefficient between the average feature area and the average feature area (between (e) and (h)), the combination is selected as a proper detection result. At this time, all the affine transformation coefficients must be appropriate when the combination is judged to be valid. If only the parallel displacement components of the affine transformation coefficients disagree, it is determined that the position is inappropriate, and if only the components other than the parallel displacement component disagree, it is determined that the inclination is inappropriate, and both are valid. It will be excluded without being determined to be a bad one (see FIG. 8).

【0046】なお、物体検出処理の後に物体識別処理も
行う場合、検出時に得られたアフィン変換係数が、標準
パターン作成時に保存しておいた個別の相対的位置関係
(図4中、(c)、(f)間、及び(d)、(g)間)
を表すアフィン変換係数のいずれに近いかによって当該
識別を実施する。
When the object identification processing is also carried out after the object detection processing, the affine transformation coefficients obtained at the time of detection are the individual relative positional relationships stored at the time of creating the standard pattern ((c) in FIG. 4). , (F), and (d), (g))
The identification is carried out depending on which of the affine transform coefficients that represents

【0047】次に本発明の第2実施例による物体認識装
置について説明する。本実施例の場合の上記第1実施例
同様、特定の「マウス」を検出する装置とする。但し、
取り扱う入力画像は対象とするマウスの真上(視点1)
から撮影される画像のみに限られず、マウスの斜め前
(視点2)から撮影した画像も利用して検出を行う。即
ち、ある視点から別の視点への姿勢変動に対してロバス
トに検出するための装置、即ちそのような姿勢変動があ
っても的確な検出結果が得られる装置として構成する。
Next explained is an object recognition device according to the second embodiment of the invention. Similar to the first embodiment in the case of the present embodiment, it is an apparatus for detecting a specific "mouse". However,
The input image to be handled is directly above the target mouse (viewpoint 1)
The detection is not limited to the image captured from, but the image captured from diagonally in front of the mouse (viewpoint 2) is also used for detection. That is, it is configured as a device for robustly detecting a posture change from a certain viewpoint to another viewpoint, that is, a device that can obtain an accurate detection result even if such a posture change occurs.

【0048】本実施例における標準パターンの作成方法
を図9に示す。まず、図4と共に説明した上記第1実施
例の場合と同じ方法で、視点1に関する標準パターン
(同図(a),(b))と視点2に関する標準パターン
(同図(c)、(d))とを別々に作成する。次に、両
パターンに共通する平面領域である平均特徴領域
(b)、(c)を、以下の方法で一つの領域(f)に統
合する。
FIG. 9 shows a method of creating a standard pattern in this embodiment. First, in the same manner as in the case of the first embodiment described with reference to FIG. 4, the standard pattern for viewpoint 1 ((a) and (b) in FIG. 4) and the standard pattern for viewpoint 2 ((c) and (d) in FIG. 4). )) And create separately. Next, the average feature areas (b) and (c), which are flat areas common to both patterns, are integrated into one area (f) by the following method.

【0049】まず、両視点の特徴領域(b)、(c)の
各対応特徴点が出来るだけ近付くように位置合わせを行
い、その後夫々の対応特徴点座標の平均値を求め、その
平均値へ夫々の対応特徴点座標が最も近付くアフィン変
換を求める。そして、そのようにして求められたアフィ
ン変換を夫々の濃淡画像(b)、(c)に施した画像同
士を更に平均し、そのようにして得られた濃淡画像を、
統合された平均特徴領域の濃淡画像(f)とする。
First, alignment is performed so that the corresponding feature points of the feature areas (b) and (c) of both viewpoints come as close as possible, and then the average value of the coordinates of the corresponding feature points is calculated, and the average value is obtained. An affine transformation is obtained in which the coordinates of the corresponding feature points are closest to each other. The images obtained by applying the affine transformation thus obtained to the respective grayscale images (b) and (c) are further averaged, and the grayscale images thus obtained are
The grayscale image (f) of the integrated average feature area is used.

【0050】また、平均全体領域1(e)((a)と同
じ)と平均全体領域2(g)((d)と同じ)の各々か
ら、統合された平均特徴領域(f)への夫々のアフィン
変換を求め、相対的位置関係情報として全体の標準パタ
ーンの情報へ加える。
Further, each of the average overall region 1 (e) (same as (a)) and the average overall region 2 (g) (same as (d)) to the integrated average feature region (f), respectively. The affine transformation of is calculated and added as relative positional relationship information to the information of the entire standard pattern.

【0051】以上、平均全体領域1(e)、平均全体領
域2(g)及び平均特徴領域(f)夫々の濃淡画像と、
平均全体領域1(e)から平均特徴領域(f)へのアフ
ィン変換、平均全体領域2(g)から平均特徴領域
(f)へのアフィン変換係数をもって、全体の標準パタ
ーンの情報と定義する。
As described above, the grayscale images of the average entire area 1 (e), the average entire area 2 (g) and the average characteristic area (f), respectively,
The affine transformation from the average overall region 1 (e) to the average feature region (f) and the affine transformation coefficient from the average overall region 2 (g) to the average feature region (f) are defined as the information of the entire standard pattern.

【0052】次に、本第2実施例による物体認識装置に
おける照合アルゴリズムを図10に示す。第1実施例と
の違いは、各平面領域毎に逐次的に摂動法を適用する点
である。即ち、ある平面領域の存在候補が見付かった
際、その平面領域が存在すると仮定した場合に他の平面
領域がどこにあるかを予測し、その予測位置の近傍にお
いて変換パラメータを摂動させながら逐次的に照合を行
う。
Next, FIG. 10 shows a matching algorithm in the object recognition apparatus according to the second embodiment. The difference from the first embodiment is that the perturbation method is sequentially applied to each plane area. That is, when an existence candidate of a certain plane area is found, it is predicted where the other plane area is, assuming that the plane area exists, and it is sequentially perturbed by the conversion parameter in the vicinity of the predicted position while sequentially perturbing the conversion parameter. Match.

【0053】即ち、第1実施例では最初から全体領域の
候補を求め、更に特徴領域の候補を求めておき、その後
それらの候補から妥当な位置関係を有する候補を選び出
す方法であった。これに対して本第2実施例では、図1
1と共に後述する如く、処理状態を「全体領域」状態か
ら「特徴領域」状態へと遷移することにより、「特徴領
域」状態では全体領域に関する照合結果から特徴領域の
あるべき位置を推定出来るため、効率的な照合処理を実
行可能である。これにより、処理コストを有効に節約す
ることが可能である。
That is, in the first embodiment, a method of obtaining candidates for the entire area from the beginning, further obtaining candidates for the characteristic area, and then selecting candidates having an appropriate positional relationship from the candidates. On the other hand, in the second embodiment, as shown in FIG.
As will be described later with reference to 1, since the processing state is transited from the “whole region” state to the “feature region” state, the position of the feature region can be estimated from the collation result regarding the whole region in the “feature region” state. Efficient collation processing can be executed. Thereby, the processing cost can be effectively saved.

【0054】この第2実施例のアルゴリズムによる具体
的な処理の流れを図11のフローチャートと共に説明す
る。まず、撮影画像中から任意の領域を切り出して検査
領域として設定し、具体的には対応するパラメータを設
定する(ステップS21)。この検査領域は、当該領域
が照合対象の全体領域と略一致するか否かを仮説・検定
するためのものである。
A specific processing flow according to the algorithm of the second embodiment will be described with reference to the flowchart of FIG. First, an arbitrary area is cut out from the captured image and set as an inspection area, and specifically, the corresponding parameter is set (step S21). This inspection area is for hypothesis / testing whether or not the area substantially matches the entire area to be collated.

【0055】そして、視点1の全体領域(全体領域1、
図9(e))と視点2の全体領域(全体領域2、図9
(g))の両方に関し、夫々、ステップS21にて検査
領域として設定されたパラメータ(位置とスケーリング
に関するパラメータ)以外のパラメータを摂動させなが
ら存在候補を探す(ステップS22)。即ち、検査領域
として切り出された画像を上記条件にて僅かづつアフィ
ン変換しながらその都度平均全体領域(e),(g)の
夫々と比較照合する。本第2実施例では、照合対象とな
る平面領域を処理状態として考えるため、このときの状
態は全体領域1(e)と全体領域2(g)の二つの平面
領域を状態として持っていることになる。
Then, the whole area of the viewpoint 1 (entire area 1,
9 (e)) and the whole area of the viewpoint 2 (whole area 2, FIG.
For both (g)), presence candidates are searched for while perturbing parameters other than the parameters (parameters related to position and scaling) set as the inspection area in step S21 (step S22). That is, the image cut out as the inspection region is slightly affine-transformed under the above conditions, and the average entire regions (e) and (g) are compared and collated each time. In the second embodiment, since the plane area to be collated is considered as the processing state, the state at this time has two plane areas, the whole area 1 (e) and the whole area 2 (g). become.

【0056】そして、どちらか(図9中、(e)又は
(g))の候補が見付かった場合(ステップS23のY
es)、見付かった方の全体領域(e)又は(g)と特
徴領域(f)との相対的位置関係(前記標準パターンの
情報として予め求めたもの)から特徴領域(f)の位置
を推定し(ステップS24又はS25)、その位置の近
傍でアフィンパラメータを摂動させ、特徴領域該当部分
を探す(ステップS26)。このとき、処理状態は特徴
領域に遷移している。そして、特徴領域と一致する部分
が確かに見付かった場合(ステップS27のYes)
は、その結果を出力(ステップS28)して処理を完了
する。即ちこの場合に出力される結果とは、「撮影画像
が当該照合対象マウスと一致する」というものである。
Then, when one of the candidates ((e) or (g) in FIG. 9) is found (Y in step S23).
es), the position of the characteristic region (f) is estimated from the relative positional relationship between the found entire region (e) or (g) and the characteristic region (f) (preliminarily obtained as the information of the standard pattern). Then, (step S24 or S25), the affine parameter is perturbed in the vicinity of the position to search for the corresponding portion of the characteristic region (step S26). At this time, the processing state has transitioned to the characteristic region. Then, when a portion that matches the characteristic region is certainly found (Yes in step S27)
Outputs the result (step S28) and completes the process. That is, the result output in this case is that "the captured image matches the matching target mouse".

【0057】全体領域又は特徴領域の夫々の候補が見付
からなかったとき(ステップS23のNo又はステップ
S29のNo)は、撮影画像中の検査領域を変更して、
全体領域の探索からやり直す(ステップS22以
降。。)。但し、ステップS29にて、特徴領域のパラ
メータが変更可能な場合(Yes)、即ち特徴領域
(f)に対するアフィン変換の余地が残っている場合、
アフィンパラメータを変更して(ステップS30)ステ
ップS26以降の探索を繰り返す。
If no candidates for the entire area or the characteristic area are found (No in step S23 or No in step S29), the inspection area in the photographed image is changed to
The whole area is searched for again (from step S22 onward). However, in step S29, if the parameters of the characteristic region can be changed (Yes), that is, if there is room for affine transformation for the characteristic region (f),
The affine parameter is changed (step S30) and the search after step S26 is repeated.

【0058】このように構成することにより、解像度の
低い全体情報から解像度の高い詳細情報へと向かう「粗
密手法」に基づく探索となるため、効率的な探索が実行
可能である。
With this configuration, since the search is performed based on the "coarse / dense method" in which the general information having a low resolution is moved to the detailed information having a high resolution, an efficient search can be executed.

【0059】次に本発明の第3実施例による物体認識装
置について説明する。この例では、視点1用のカメラ
(カメラ1)と視点2用のカメラ(カメラ2)を用いて
対象物体を同時に2方向から撮影し、入力画像として両
カメラから得られる多視点画像を用いる。
Next explained is an object recognition device according to the third embodiment of the invention. In this example, the camera for viewpoint 1 (camera 1) and the camera for viewpoint 2 (camera 2) are used to simultaneously shoot the target object from two directions, and a multi-viewpoint image obtained from both cameras is used as an input image.

【0060】本第3実施例による標準パターンの作成方
法を図12に示す。上記第2実施例との違いは、共通領
域である特徴領域に関し、位置関係(全体領域に対する
特徴領域の位置)のみを統合し、濃淡画像(同図
(f)、(g))は個別のまま残しておくことである。
こうすることにより、視点によって同じ領域がかなり異
なるパターンに見える場合であっても、3次元的手法に
よる効果を適用することが可能となる。
FIG. 12 shows a method of creating a standard pattern according to the third embodiment. The difference from the second embodiment is that with respect to the characteristic region that is a common region, only the positional relationship (the position of the characteristic region with respect to the entire region) is integrated, and the grayscale images ((f) and (g) in the same figure) are individualized. It is to leave it as it is.
By doing so, it is possible to apply the effect of the three-dimensional method even when the same region looks like a significantly different pattern depending on the viewpoint.

【0061】本題3実施例による検出のための照合プロ
セスは、図13に示す如くに実施する。まず、両カメラ
から夫々得られた画像から、平行して全体領域を探索す
る(ステップS41,S42)。具体的には夫々図11
におけるステップS21,S22と同様の処理を行う。
その結果両カメラの位置関係を考慮して同じ3次元的位
置に対象物体があると判断される場合(ステップS43
のYes)、両カメラから得られた夫々の画像に対する
処理は、夫々特徴領域の探索状態に遷移する(ステップ
S44)。
The matching process for detection according to the third embodiment is performed as shown in FIG. First, the entire area is searched in parallel from the images respectively obtained from both cameras (steps S41 and S42). Specifically, each is shown in FIG.
The same processing as steps S21 and S22 in step S21 is performed.
As a result, when it is determined that the target object exists at the same three-dimensional position in consideration of the positional relationship between both cameras (step S43).
Yes), the process for each image obtained from both cameras transits to the search state of the characteristic region (step S44).

【0062】そして、3次元空間内で特徴領域(図12
中、(f)、(g))の平面を、その位置と法線ベクト
ルとを変えながら夫々摂動させ、両カメラ用の処理間で
共通の平面を仮定しながら特徴領域の存在について夫々
検定する(ステップS45)。即ち撮影画像の検査領域
における特徴領域と目される画像領域が、照合対象の特
徴領域(図12中、(f)、(g))に略一致するか否
かを判断する。そして、ある平面を仮定したときに両カ
メラ用の処理で各々高い相関値が得られた場合、その位
置に当該特徴領域の平面が存在すると判断し、もって物
体(即ち照合対象マウス)も確かにそこに存在すると判
断する(ステップS46のYes)。
Then, the characteristic region (see FIG. 12) in the three-dimensional space
The planes (f) and (g) in the middle are perturbed while changing their positions and normal vectors, and the existence of the characteristic region is tested while assuming a common plane between the processes for both cameras. (Step S45). That is, it is determined whether or not the image area which is regarded as the characteristic area in the inspection area of the captured image substantially matches the characteristic area ((f) or (g) in FIG. 12) to be collated. Then, if a high correlation value is obtained by the processing for both cameras when a certain plane is assumed, it is determined that the plane of the characteristic region exists at that position, and the object (that is, the mouse to be collated) is surely also present. It is determined that it exists there (Yes in step S46).

【0063】尚、ステップS47、S48,S49,S
50の夫々の処理は図11におけるステップS28、S
29,S30,S31の処理と同様であり、重複する説
明を省略する。
Incidentally, steps S47, S48, S49, S
The respective processes of 50 are steps S28 and S in FIG.
This is the same as the processing of S29, S30, and S31, and the duplicated description is omitted.

【0064】通常の面基準のステレオ視では、まず多視
点画像間で対応面を探索するが、この手法の場合、視点
が変わることで面の見え方がかなり異なるような照合対
象物体を扱う場合には対応関係が見付け難い。それに対
して本実施例の手法では、各視点から得られた撮影入力
画像と標準パターンとの比較のみを行っているため、多
視点の入力画像間での照合を取る必要なく、比較的容易
に3次元空間内での平面の仮説検証を行うことが出来
る。
In normal surface-based stereo vision, first, the corresponding surface is searched between multi-viewpoint images. However, in the case of this method, when the object to be collated is such that the appearance of the surface is considerably different when the viewpoint changes. It is difficult to find a correspondence relationship with. On the other hand, in the method of the present embodiment, since only the photographed input image obtained from each viewpoint and the standard pattern are compared, there is no need to perform collation between input images of multiple viewpoints, and it is relatively easy. It is possible to verify the hypothesis of a plane in a three-dimensional space.

【0065】次に本発明の第4実施例による物体認識装
置について説明する。図14は第4実施例について説明
するための図であり、図15はその処理の流れを示すフ
ローチャートである。上記第3実施例との違いは、視点
1用カメラ(カメラ1)C1と視点2用カメラ(カメラ
2)C2の他に、特徴領域用カメラ(カメラ3)C3を
用いることである。この特徴領域用カメラC3は所定の
制御信号によって、その三次元的位置、撮影時のパン、
チルト、ズームパラメータが夫々自由に設定可能であ
る。
Next explained is an object recognition device according to the fourth embodiment of the invention. FIG. 14 is a diagram for explaining the fourth embodiment, and FIG. 15 is a flowchart showing the flow of the processing. The difference from the third embodiment is that a camera for characteristic region (camera 3) C3 is used in addition to a camera for viewpoint 1 (camera 1) C1 and a camera for viewpoint 2 (camera 2) C2. The characteristic region camera C3 is controlled by a predetermined control signal to determine its three-dimensional position, pan during photographing,
The tilt and zoom parameters can be freely set.

【0066】又、物体検出のための照合処理の流れに関
して第3実施例と異なる点は、特徴領域の平面を仮説検
定する際に、仮定された面が最も良い状態で撮影される
ように、カメラ3(C3)の上記各撮像パラメータを調
整しながら、その都度撮影画像入力をやり直すことであ
る(ステップS65、S66,S67,S69,S7
0)。この最も良い状態とは、出来るだけ対象物体の特
徴領域平面候補の法線とカメラの光軸の方向とを一致さ
せ、且つ、当該候補領域が画面の全体で捕えられ得るよ
うにズーミングされた状態である。
The flow of the matching process for object detection differs from that of the third embodiment in that, when hypothesis-testing the plane of the characteristic region, the assumed surface is photographed in the best state. The photographed image is input again each time while adjusting the above-mentioned imaging parameters of the camera 3 (C3) (steps S65, S66, S67, S69, S7).
0). This best condition is a condition in which the normal line of the feature area plane candidate of the target object and the direction of the optical axis of the camera are matched as much as possible, and the candidate area is zoomed so that it can be captured on the entire screen. Is.

【0067】尚、他のステップS61、S62,S6
3,S64,S68、S71の処理は、図13における
ステップS41、S42,S43,S44,S47、S
50の処理と夫々同様であり、重複する説明を省略す
る。
Incidentally, other steps S61, S62, S6
The processes of S3, S64, S68, and S71 are the same as steps S41, S42, S43, S44, S47, and S in FIG.
The processing is the same as that of 50, and duplicate description will be omitted.

【0068】このようにカメラC3に関して所謂アクテ
ィブビジョン方式を適用することで、視点1用カメラC
1と視点2用カメラC2は夫々の全体領域の撮影のみに
利用するため比較的低解像度のものを適用することが出
来る。
By applying the so-called active vision method to the camera C3 as described above, the camera C for viewpoint 1
Since the 1st and viewpoint 2 cameras C2 are used only for photographing the respective entire areas, relatively low resolution cameras can be applied.

【0069】次に本発明の第5実施例について説明す
る。この例は、対象物体を撮影するカメラを動かしなが
ら撮影した動画像中の静止物体に対するトラッキングに
応用する例である。本実施例の処理の流れを図16に示
す。
Next, a fifth embodiment of the present invention will be described. This example is an example applied to tracking a stationary object in a moving image captured while moving a camera that captures the target object. The process flow of this embodiment is shown in FIG.

【0070】対象物体の検出(ステップS81、S8
2)は、動画像中の各フレームについて上述の第2実施
例と同じ方法(図11の処理)により行うが、第3フレ
ーム以降(ステップS83以降)については、過去の2
フレームから物体の動きを推測し(ステップS84)、
その情報を用いて効果的に照合処理を行うことが出来
る。即ち、照合処理で得られた対象平面領域の過去の位
置変化と回転に関する動きを基に、当該平面領域が存在
していそうな位置を予測し(ステップS85)、その近
傍で探索する(ステップS86)ことにより、処理時間
を短縮することが可能である。
Detection of target object (steps S81, S8
2) is performed for each frame in the moving image by the same method as the above-described second embodiment (processing of FIG. 11), but for the third frame and after (step S83 and after), the past 2
Inferring the movement of the object from the frame (step S84),
The collation processing can be effectively performed using the information. That is, based on the past positional changes and rotation-related motions of the target plane area obtained by the matching process, a position where the plane area is likely to exist is predicted (step S85), and a search is made in the vicinity thereof (step S86). Therefore, the processing time can be shortened.

【0071】また、図17に示す如く、視点によって照
合に用いる全体領域を変更した方がよい場合には、その
時刻において予測された面の傾きによって適宜、最適な
全体領域を決定して照合を行うことが望ましい。尚、図
17における全体領域1,2は、例えば図12に示す平
均全体領域(e),(h)に夫々対応する。
Further, as shown in FIG. 17, when it is better to change the whole area used for matching depending on the viewpoint, the optimum whole area is appropriately determined according to the inclination of the surface predicted at that time to carry out the matching. It is desirable to do. Note that the entire regions 1 and 2 in FIG. 17 correspond to the average entire regions (e) and (h) shown in FIG. 12, respectively.

【0072】即ち、検査対象物体(この場合マウス)に
対して撮影カメラを時々刻々移動し、且つ当該カメラの
移動に応じてその撮影パラメータ(上記パン、チルト、
ズーミングパラメータ)を自動的に調節しながら対象物
体を連続的に撮影する(トラッキング方式による撮影)
場合に撮影された動画の時間軸に沿った各フレームの画
像を図17の(a),(b),(c),(d)とする。
この場合、フレーム(a),(b)の各々に対しては、
それらが対象物体の略正面からの画像であることから全
体領域1が照合に適しており、フレーム(c)、(d)
の各々に対しては、対象物体に対してカメラを回転した
ため、それらが斜め方向からの画像となっていることか
ら全体領域2が適している。それらの判断は、各時刻に
撮影した画像と過去の画像とから得られた物体認識結果
から対象物体の基準面(真上から撮影した場合に見える
面)の傾きを予測することによって実行され得る。
That is, the photographing camera is momentarily moved with respect to the object to be inspected (mouse in this case), and the photographing parameters (the pan, tilt, and
Shooting the target object continuously while automatically adjusting (zooming parameters) (shooting by tracking method)
The images of the respective frames along the time axis of the moving image taken in this case are (a), (b), (c), and (d) of FIG.
In this case, for each of the frames (a) and (b),
The whole area 1 is suitable for matching because they are images from substantially the front of the target object, and the frames (c), (d)
For each of the above, since the camera is rotated with respect to the target object, and the images are from an oblique direction, the whole region 2 is suitable. These judgments can be performed by predicting the inclination of the reference plane (the plane seen when shooting from directly above) of the target object based on the object recognition results obtained from the image captured at each time and the past image. .

【0073】図17の(e),(f),(g),(h)
は、夫々同図の(a),(b),(c),(d)に対応
し、上述の如く予測された対象物体の基準面の傾きから
判断された最適な適用全体領域、対応する特徴領域、更
には照合処理によって入力画像に適合されて適宜アフィ
ン変換された各領域の形状を示す。
(E), (f), (g), (h) of FIG.
Correspond to (a), (b), (c), and (d) of the same drawing, respectively, and correspond to the optimum entire application area determined from the inclination of the reference plane of the target object predicted as described above. The shapes of the characteristic regions, and further, the regions adapted to the input image by the matching process and appropriately affine transformed are shown.

【0074】尚、上記本発明の各実施例の物体認識装置
は、例えば図18に示す如く、ディジタルスチルカメ
ラ、ビデオカメラ等110をパーソナルコンピュータ等
の汎用コンピュータ120に接続することで実現可能で
ある。即ち、予め作成した図4、図9、図12に示され
る夫々の標準パターンの情報を当該コンピュータのハー
ドディスク装置等の記憶装置に格納しておき、更に図
6、図7、図8、図10、図11、図13、図15、図
16に示す照合アルゴリズムをソフトウェアプログラム
として格納しておく。そして当該ソフトウェアプログラ
ムを、上記標準パターン情報を用いて実行させることに
よって、各実施例の照合アルゴリズムを実現可能であ
る。但し、第4、第5実施例における、カメラの撮影パ
ラメータを自動的に制御するための機構130は、別途
周知のカメラビジョン方式並びにトラッキング方式のカ
メラ制御機構の技術を利用して実現可能である。
The object recognition apparatus of each of the above-described embodiments of the present invention can be realized by connecting a digital still camera, a video camera or the like 110 to a general-purpose computer 120 such as a personal computer as shown in FIG. . That is, the information of the respective standard patterns shown in FIGS. 4, 9, and 12 created in advance is stored in a storage device such as a hard disk device of the computer, and further, FIG. 6, FIG. 7, FIG. The matching algorithms shown in FIGS. 11, 13, 15, and 16 are stored as software programs. Then, the matching algorithm of each embodiment can be realized by executing the software program using the standard pattern information. However, the mechanism 130 for automatically controlling the shooting parameters of the camera in the fourth and fifth embodiments can be realized by utilizing the technology of separately known camera vision system and tracking system camera control mechanism. .

【0075】本発明は以下の付記に記載の構成を含む。 (付記1)所定の物体を認識するための装置であって、
当該所定の物体の複数の全体又は部分の画像よりなる標
準画像とそれら複数の全体又は部分の相互位置関係とよ
りなる標準パターン情報を用いて上記標準画像を夫々座
標変換しながら入力画像との比較照合を行う手段よりな
り、上記標準画像は上記所定の物体の同一部分を共通し
て含む構成の物体認識装置。
The present invention includes the configurations described in the following supplementary notes. (Supplementary Note 1) A device for recognizing a predetermined object,
Comparison with the input image while converting the coordinates of each standard image using standard pattern information consisting of a plurality of whole or partial images of the predetermined object and mutual positional relationship of the plurality of whole or portions An object recognizing device configured to perform collation, and the standard image commonly includes the same portion of the predetermined object.

【0076】(付記2)前記比較照合手段は少なくとも
一つの標準画像を状態として有し、当該状態は比較照合
の結果によって遷移する構成の付記1に記載の物体認識
装置。
(Supplementary Note 2) The object recognition apparatus according to Supplementary Note 1, wherein the comparison and collation means has at least one standard image as a state, and the state changes according to the result of the comparison and collation.

【0077】(付記3)入力画像が多視点画像であるこ
とを特徴とする付記1又は2に記載の物体認識装置。
(Supplementary note 3) The object recognition apparatus according to supplementary note 1 or 2, wherein the input image is a multi-viewpoint image.

【0078】(付記4)更に、前記比較照合手段の比較
照合結果に基づき、入力画像を撮影によって得る際の撮
影パラメータを制御する手段よりなる付記1乃至3のう
ちのいずれかに記載の物体認識装置。
(Supplementary Note 4) The object recognition according to any one of Supplementary Notes 1 to 3, further comprising means for controlling photographing parameters when the input image is obtained by photographing based on the comparison and collation result of the comparison and collation means. apparatus.

【0079】(付記5)所定の物体を認識するための方
法であって、当該所定の物体の複数の全体又は部分の画
像よりなる標準画像とそれら複数の全体又は部分の相互
位置関係とよりなる標準パターン情報を用いて上記標準
画像を夫々座標変換しながら入力画像との比較照合を行
う段階よりなり、上記標準画像は上記所定の物体の同一
部分を共通して含む構成の方法。
(Supplementary Note 5) A method for recognizing a predetermined object, which comprises a standard image composed of a plurality of whole or partial images of the predetermined object and a mutual positional relationship of the plurality of whole or parts. A method comprising the step of comparing and collating the standard image with the input image while converting the coordinates of the standard image using the standard pattern information, and the standard image commonly includes the same portion of the predetermined object.

【0080】(付記6)所定の物体を認識するための処
理をコンピュータに実行させるための情報を記録したコ
ンピュータ読み取り可能な記録媒体であって、当該所定
の物体の複数の全体又は部分の画像よりなる標準画像と
それら複数の全体又は部分の相互位置関係とよりなり、
当該情報を用いて上記標準画像を夫々座標変換しながら
入力画像との比較照合を行うための標準パターン情報で
あって、上記標準画像は上記所定の物体の同一部分を共
通して含む構成の標準パターン情報を記録したコンピュ
ータ読み取り可能な記録媒体。
(Supplementary Note 6) A computer-readable recording medium in which information for causing a computer to execute a process for recognizing a predetermined object is recorded. Consisting of the standard image and the mutual positional relationship of the plurality or all of them,
Standard pattern information for performing comparison and collation with an input image while converting the coordinates of the standard image using the information, and the standard image has a standard configuration including the same portion of the predetermined object in common. A computer-readable recording medium on which pattern information is recorded.

【0081】(付記7)所定の物体を認識するための処
理をコンピュータに実行させるためのソフトウェアプロ
グラムであって、当該所定の物体の複数の全体又は部分
の画像よりなる標準画像とそれら複数の全体又は部分の
相互位置関係とよりなる標準パターン情報を用いて上記
標準画像を夫々座標変換しながら入力画像との比較照合
を行う段階をコンピュータに実行させる構成を有し、上
記標準画像は上記所定の物体の同一部分を共通して含む
構成とされているソフトウェアプログラム。
(Supplementary Note 7) A software program for causing a computer to execute processing for recognizing a predetermined object, including a standard image composed of a plurality of whole or partial images of the predetermined object and the plurality of whole images. Alternatively, the computer is configured to perform a step of performing comparison and collation with the input image while converting the coordinates of the standard image using standard pattern information consisting of mutual positional relationships of the parts, and the standard image is the predetermined image. A software program that is configured to include the same parts of an object in common.

【0082】[0082]

【発明の効果】このように本発明によれば、比較的簡易
な構成にて、比較的起伏に富む3次元物体の認識を迅速
に且つ精度良く行える手法を提供し得る。
As described above, according to the present invention, it is possible to provide a method capable of promptly and accurately recognizing a three-dimensional object having a comparatively rich undulation with a relatively simple structure.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の原理について説明するための図(その
1)である。
FIG. 1 is a diagram (No. 1) for explaining the principle of the present invention.

【図2】本発明の原理について説明するための図(その
2)である。
FIG. 2 is a diagram (No. 2) for explaining the principle of the present invention.

【図3】本発明の実施例の機能の説明のために使用する
認識対象物体例について説明するための図である。
FIG. 3 is a diagram for describing an example of a recognition target object used for explaining the function of the embodiment of the present invention.

【図4】本発明の第1実施例による標準パターン作成方
法について説明するための模式図である。
FIG. 4 is a schematic diagram for explaining a standard pattern creating method according to the first embodiment of the present invention.

【図5】本発明の第1実施例による標準パターン作成方
法について説明するためのフローチャートである。
FIG. 5 is a flowchart for explaining a standard pattern creating method according to the first embodiment of the present invention.

【図6】本発明の第1実施例による物体照合アルゴリズ
ムを説明するための模式図である。
FIG. 6 is a schematic diagram for explaining an object matching algorithm according to the first embodiment of the present invention.

【図7】本発明の第1実施例による物体照合アルゴリズ
ムを説明するためのフローチャートである。
FIG. 7 is a flowchart illustrating an object matching algorithm according to the first exemplary embodiment of the present invention.

【図8】本発明の第1実施例による物体照合アルゴリズ
ムにおける、位置関係の妥当性判定処理を説明するため
の模式図である。
FIG. 8 is a schematic diagram for explaining the validity determination processing of the positional relationship in the object matching algorithm according to the first embodiment of the present invention.

【図9】本発明の第2実施例による標準パターン作成方
法について説明するための模式図である。
FIG. 9 is a schematic diagram for explaining a standard pattern creating method according to a second embodiment of the present invention.

【図10】本発明の第2実施例による物体照合アルゴリ
ズムを説明するための模式図である。
FIG. 10 is a schematic diagram for explaining an object matching algorithm according to a second embodiment of the present invention.

【図11】本発明の第2実施例による物体照合アルゴリ
ズムを説明するためのフローチャートである。
FIG. 11 is a flowchart illustrating an object matching algorithm according to a second exemplary embodiment of the present invention.

【図12】本発明の第3実施例による物体照合アルゴリ
ズムを説明するための模式図である。
FIG. 12 is a schematic diagram for explaining an object matching algorithm according to a third embodiment of the present invention.

【図13】本発明の第3実施例による物体照合アルゴリ
ズムを説明するためのフローチャートである。
FIG. 13 is a flowchart illustrating an object matching algorithm according to a third exemplary embodiment of the present invention.

【図14】本発明の第4実施例について説明するための
図である。
FIG. 14 is a diagram for explaining the fourth embodiment of the present invention.

【図15】本発明の第4実施例による物体照合アルゴリ
ズムを説明するためのフローチャートである。
FIG. 15 is a flowchart illustrating an object matching algorithm according to a fourth exemplary embodiment of the present invention.

【図16】本発明の第5実施例による物体照合アルゴリ
ズムを説明するためのフローチャートである。
FIG. 16 is a flowchart illustrating an object matching algorithm according to a fifth exemplary embodiment of the present invention.

【図17】本発明の第5実施例によるトラッキング方式
を適用した物体照合アルゴリズムを説明するための図で
ある。
FIG. 17 is a diagram for explaining an object matching algorithm to which the tracking method according to the fifth embodiment of the present invention is applied.

【図18】本発明の各実施例を実現可能な構成例を示す
図である。
FIG. 18 is a diagram showing a configuration example capable of realizing each embodiment of the present invention.

【符号の説明】[Explanation of symbols]

100 物体認識装置 110 カメラ 120 パーソナルコンピュータ 130 カメラ制御機構 100 object recognition device 110 cameras 120 personal computer 130 camera control mechanism

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F065 AA53 BB05 CC00 FF04 JJ03 JJ05 JJ26 QQ31 5B057 AA20 CA13 CD11 DA12 DB03 DC33 5L096 AA09 BA20 FA76 HA07 JA18   ─────────────────────────────────────────────────── ─── Continued front page    F term (reference) 2F065 AA53 BB05 CC00 FF04 JJ03                       JJ05 JJ26 QQ31                 5B057 AA20 CA13 CD11 DA12 DB03                       DC33                 5L096 AA09 BA20 FA76 HA07 JA18

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】所定の物体を認識するための装置であっ
て、 当該所定の物体の複数の全体又は部分の画像よりなる標
準画像とそれら複数の全体又は部分の相互位置関係とよ
りなる標準パターン情報を用いて上記標準画像を夫々座
標変換しながら入力画像との比較照合を行う手段よりな
り、 上記標準画像は上記所定の物体の同一部分を共通して含
む構成の物体認識装置。
1. A device for recognizing a predetermined object, comprising a standard image consisting of a plurality of whole or partial images of the predetermined object and a standard pattern consisting of a mutual positional relationship between the plurality of whole or parts. An object recognition apparatus comprising means for comparing and collating the standard image with the input image while transforming the standard image using information, and the standard image commonly includes the same portion of the predetermined object.
【請求項2】入力画像が多視点画像であることを特徴と
する請求項1に記載の物体認識装置。
2. The object recognition device according to claim 1, wherein the input image is a multi-viewpoint image.
【請求項3】更に、前記比較照合手段の比較照合結果に
基づき、入力画像を撮影によって得る際の撮影パラメー
タを制御する手段よりなる請求項1又は2に記載の物体
認識装置。
3. The object recognizing device according to claim 1, further comprising means for controlling photographing parameters when the input image is obtained by photographing based on the comparison and collation result of the comparison and collation means.
【請求項4】所定の物体を認識するための方法であっ
て、 当該所定の物体の複数の全体又は部分の画像よりなる標
準画像とそれら複数の全体又は部分の相互位置関係とよ
りなる標準パターン情報を用いて上記標準画像を夫々座
標変換しながら入力画像との比較照合を行う段階よりな
り、 上記標準画像は上記所定の物体の同一部分を共通して含
む構成の方法。
4. A method for recognizing a predetermined object, the standard pattern comprising a standard image composed of a plurality of whole or partial images of the predetermined object and a mutual positional relationship of the plurality of whole or parts. A method comprising the step of comparing and collating the standard image with the input image while transforming the coordinates of the standard image using information, wherein the standard image commonly includes the same portion of the predetermined object.
【請求項5】所定の物体を認識するため処理をコンピュ
ータに実行させるための情報を記録したコンピュータ読
み取り可能な記録媒体であって当該所定の物体の複数の
全体又は部分の画像よりなる標準画像とそれら複数の全
体又は部分の相互位置関係とよりなり、当該情報を用い
て上記標準画像を夫々座標変換しながら入力画像との比
較照合を行うための情報であり、上記標準画像は上記所
定の物体の同一部分を共通して含む構成の標準パターン
情報を記録したコンピュータ読み取り可能な記録媒体。
5. A computer-readable recording medium in which information for causing a computer to execute processing for recognizing a predetermined object is recorded, and a standard image composed of a plurality of whole or partial images of the predetermined object. It consists of the mutual positional relationship of all or a plurality of them, and is information for performing comparison and collation with the input image while converting the coordinates of the standard image using the information, and the standard image is the predetermined object. A computer-readable recording medium in which standard pattern information having a configuration that includes the same portion in common is recorded.
JP2002092768A 2002-03-28 2002-03-28 Apparatus and method for object recognition, and computer-readable recording medium Withdrawn JP2003288595A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002092768A JP2003288595A (en) 2002-03-28 2002-03-28 Apparatus and method for object recognition, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002092768A JP2003288595A (en) 2002-03-28 2002-03-28 Apparatus and method for object recognition, and computer-readable recording medium

Publications (1)

Publication Number Publication Date
JP2003288595A true JP2003288595A (en) 2003-10-10

Family

ID=29237502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002092768A Withdrawn JP2003288595A (en) 2002-03-28 2002-03-28 Apparatus and method for object recognition, and computer-readable recording medium

Country Status (1)

Country Link
JP (1) JP2003288595A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011044046A (en) * 2009-08-21 2011-03-03 National Institute Of Advanced Industrial Science & Technology Object recognition device and object recognition method
JP2011198241A (en) * 2010-03-23 2011-10-06 Fujifilm Corp Apparatus and method for detecting moving object
JP2013152558A (en) * 2012-01-24 2013-08-08 Tokai Univ Handwriting analysis method, handwriting analysis apparatus and handwriting analysis program
JP2014020870A (en) * 2012-07-17 2014-02-03 Kurabo Ind Ltd Surface shape inspection device and surface shape inspection method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011044046A (en) * 2009-08-21 2011-03-03 National Institute Of Advanced Industrial Science & Technology Object recognition device and object recognition method
JP2011198241A (en) * 2010-03-23 2011-10-06 Fujifilm Corp Apparatus and method for detecting moving object
JP2013152558A (en) * 2012-01-24 2013-08-08 Tokai Univ Handwriting analysis method, handwriting analysis apparatus and handwriting analysis program
JP2014020870A (en) * 2012-07-17 2014-02-03 Kurabo Ind Ltd Surface shape inspection device and surface shape inspection method

Similar Documents

Publication Publication Date Title
JP4931218B2 (en) Imaging apparatus, object detection method, and attitude parameter calculation method
CN109977770B (en) Automatic tracking shooting method, device, system and storage medium
US9330472B2 (en) System and method for distorted camera image correction
JP4349367B2 (en) Estimation system, estimation method, and estimation program for estimating the position and orientation of an object
JP3279479B2 (en) Video monitoring method and device
CN109313799B (en) Image processing method and apparatus
JP6836561B2 (en) Image processing device and image processing method
Sato et al. High-resolution video mosaicing for documents and photos by estimating camera motion
WO2006054598A1 (en) Face feature collator, face feature collating method, and program
Jung et al. Egomotion estimation in monocular infra-red image sequence for night vision applications
CN112307912A (en) Method and system for determining personnel track based on camera
Cohen et al. Detection and tracking of objects in airborne video imagery
KR101715781B1 (en) Object recognition system and method the same
CN112862674A (en) Automatic Stitch algorithm-based multi-image automatic splicing method and system
JP2532985B2 (en) Three-dimensional image evaluation device
Hannuksela et al. Document image mosaicing with mobile phones
JP2003288595A (en) Apparatus and method for object recognition, and computer-readable recording medium
CN115019241B (en) Pedestrian identification and tracking method and device, readable storage medium and equipment
CN113033350B (en) Pedestrian re-identification method based on overlook image, storage medium and electronic equipment
CN115797405A (en) Multi-lens self-adaptive tracking method based on vehicle wheel base
CN115456870A (en) Multi-image splicing method based on external parameter estimation
JP2006033188A (en) Supervisory apparatus and supervisory method
KR100961616B1 (en) Method and system for calibrating of omnidirectional camera based on contour matching
CN113361400A (en) Head posture estimation method and device and storage medium
JP4666638B2 (en) 3D object recognition method and 3D image processing apparatus

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050607