JP6052751B2 - 物体認識装置及び物体認識方法 - Google Patents
物体認識装置及び物体認識方法 Download PDFInfo
- Publication number
- JP6052751B2 JP6052751B2 JP2015525049A JP2015525049A JP6052751B2 JP 6052751 B2 JP6052751 B2 JP 6052751B2 JP 2015525049 A JP2015525049 A JP 2015525049A JP 2015525049 A JP2015525049 A JP 2015525049A JP 6052751 B2 JP6052751 B2 JP 6052751B2
- Authority
- JP
- Japan
- Prior art keywords
- registered
- image
- feature points
- face
- error
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
- Image Processing (AREA)
Description
本開示は、監視カメラシステムに用いて好適な物体認識装置及び物体認識方法に関する。
撮影した物体(例えば、顔、人物、車など)の画像(撮影画像と呼ぶ)と、この撮影画像と同じ位置関係(例えば、向き)であって、認識対象物体画像から生成した推定物体画像とを照合する物体認識方法が案出されている。この種の物体認識方法として、例えば特許文献1に記載された顔画像認識方法がある。特許文献1に記載された顔画像認識方法は、任意の観点に従って撮影された観点撮影顔画像を入力し、予め登録された認識対象の人物の正面顔画像にワイヤフレームを割り付け、該任意の観点を含む複数の観点の各々に対応した変形パラメータを、ワイヤフレームを割り付けた該正面顔画像に適用することによって該正面顔画像を該複数の観点に従って撮影されたと推定される複数の推定顔画像に変えて登録し、前記複数の観点の観点毎の顔画像を観点識別用のデータとして予め登録し、前記観点撮影顔画像と登録された該観点識別用のデータとの照合を行なって観点毎に照合スコアの平均を取り、登録された前記複数の推定顔画像の中から該照合スコアの平均の値の高い観点の推定顔画像を選択し、前記観点撮影顔画像と該選択された推定顔画像とを照合することによって該観点撮影顔画像の人物を識別する。
しかしながら、上述した特許文献1に記載された顔画像認識方法は、位置関係(例えば、顔向き)別に推定顔画像と撮影画像との照合を行うものの、各位置関係が、単に左方、右方、上方・・・などと、大まかなカテゴリ付けしかしていないため、精度の高い照合ができないという課題がある。なお、本明細書では、撮影画像を、照合顔画像を含む照合物体画像と呼び、推定顔画像を、登録顔画像を含む登録物体画像と呼ぶ。
本開示は、係る事情に鑑みてなされたものであり、照合物体画像と登録物体画像をより正確に照合することができる物体認識装置及び物体認識方法を提供することを目的とする。
本開示の物体認識装置は、物体向き毎にカテゴライズされて登録された複数の登録物体画像における前記登録物体画像の物体上の特徴点の位置と、照合物体画像の物体上の前記特徴点に対応する特徴点の位置との誤差に基づき、特定の物体向きを選択する選択部と、前記選択された物体向きに属する前記登録物体画像と前記照合物体画像とを照合する照合部と、を有し、前記登録物体画像は、各々物体向き範囲によってカテゴライズされ、前記物体向き範囲は前記特徴点に基づいて定められる。
本開示によれば、照合物体画像と登録物体画像をより正確に照合することができる。
以下、本開示を実施するための好適な実施の形態について、図面を参照して詳細に説明する。
図1は、本開示の一実施の形態に係る物体認識装置のカテゴリ設計から照合までの処理の流れを示すフロー図である。同図において、本実施の形態に係る物体認識装置は、カテゴリの設計処理(ステップS1)、各カテゴリの照合モデルの学習処理(ステップS2)、各カテゴリの登録画像の作成処理(ステップS3)、各カテゴリの照合モデル及び登録画像を用いた照合処理(ステップS4)の4つの処理からなる。以下、前記各処理を詳細に説明する。
図2は、図1のカテゴリ設計の詳細な流れを示すフロー図である。また、図3(a)〜(c)は、図2のカテゴリ設計を説明するための図である。ここで、本実施の形態では、物体画像として、人間の顔画像を扱うものとするが、それはあくまでも一例であり、人間の顔画像以外であっても問題なく扱うことができる。
図2において、まず所定の誤差Dを決定する(ステップS10)。即ち、撮影した人物の顔画像(照合物体画像に対応し、“照合顔画像”と称する)と、この照合顔画像と照合するための登録顔画像(“登録物体画像”に対応する)との誤差Dを決定する。誤差Dの決定の詳細について説明する。図4は、図2のカテゴリ設計における顔特徴的要素(目、口)の2次元平面上の位置を示す図である。同図において、両目と口を三角形50で示し、その頂点P1が左目位置、頂点P2が右目位置、頂点P3が口位置とする。この場合、左目位置を示す頂点P1を黒丸で示し、この黒丸を起点に時計回りに左目、右目、口位置を示す頂点P1,P2,P3となる。
顔は3次元物体であるため、その顔特徴的要素(目、口)の位置も3次元位置となるが、同3次元位置を上記頂点P1,P2,P3のような2次元上の位置に変換する方法を以下に説明する。
図16は、3次元位置を2次元平面(画像)上の位置に投影する一般的な式を示す図である。但し、同式において、
θy:yaw角(左右角)
θp:pitch角(上下角)
θr:Roll角(回転角)
[x y z]:3次元上の位置
[X Y]:2次元上の位置
である。
図16は、3次元位置を2次元平面(画像)上の位置に投影する一般的な式を示す図である。但し、同式において、
θy:yaw角(左右角)
θp:pitch角(上下角)
θr:Roll角(回転角)
[x y z]:3次元上の位置
[X Y]:2次元上の位置
である。
図17は、3次元空間上の目口位置の一例を示す図である。同図に示す目口位置は以下の通りである。
左目:[x y z]=[−0.5 0 0]
右目:[x y z]=[0.5 0 0]
口:[x y z]=[0 −ky kz]
(ky,kzは係数)
以上の3次元空間上の目口位置を、図16に示す3次元位置を2次元平面上の位置に投影する式に代入することにより、各顔向き(θy:yaw角、θp:pitch角、θr:Roll角)における2次元上の目口位置を、図18に示す式で算出する。
[XL YL]:左目位置P1
[XR YR]:右目位置P2
[XM YM]:口位置P3
左目:[x y z]=[−0.5 0 0]
右目:[x y z]=[0.5 0 0]
口:[x y z]=[0 −ky kz]
(ky,kzは係数)
以上の3次元空間上の目口位置を、図16に示す3次元位置を2次元平面上の位置に投影する式に代入することにより、各顔向き(θy:yaw角、θp:pitch角、θr:Roll角)における2次元上の目口位置を、図18に示す式で算出する。
[XL YL]:左目位置P1
[XR YR]:右目位置P2
[XM YM]:口位置P3
図5(a),(b)は、図2のカテゴリ設計におけるカテゴリmの顔向きと顔向きθaの顔特徴的要素(目,口)の誤差算出方法を説明するための図である。同図の(a)は、カテゴリmの顔向きの目口位置を示す三角形51及び顔向きθaの目口位置を示す三角形52を示している。また、同図の(b)は、顔向きθaの目口位置を示す三角形52の両目位置をカテゴリmの顔向きの両目位置に合わせた状態を示している。顔向きθaは、カテゴリ設計時においては、誤差D以内にあるかどうかを判定するために用いる顔の顔向きであり、照合時においては、照合顔画像の顔の顔向きである。顔向きθaの左右の目位置をカテゴリmの顔向きの左右の目位置に合わせるが、この処理にAffine変換式を用いる。Affine変換式を用いることで、図5の(a)において矢印100で示すように、三角形52に対し、2次元平面上での回転、スケーリング、平行移動が行われる。
図6は、図2のカテゴリ設計で用いられるAffine変換式を示す図である。但し、同式において、
[Xml Yml]:カテゴリmの左目位置
[Xmr Ymr]:カテゴリmの右目位置
[Xal Yal]:顔向きθaの左目位置
[Xar Yar]:顔向きθaの右目位置
[X Y]:Affine変換前の位置
[X’ Y’]:Affine変換後の位置
である。
[Xml Yml]:カテゴリmの左目位置
[Xmr Ymr]:カテゴリmの右目位置
[Xal Yal]:顔向きθaの左目位置
[Xar Yar]:顔向きθaの右目位置
[X Y]:Affine変換前の位置
[X’ Y’]:Affine変換後の位置
である。
このAffine変換式を用いて、顔向きθaの3点(左目、右目、口)のAffine変換後の位置を算出する。Affine変換後の顔向きθaの左目位置はカテゴリmの左目位置に一致し、顔向きθaの右目位置はカテゴリmの右目位置に一致する。
図5の(b)において、Affine変換式を用いて顔向きθaの両目位置をカテゴリmの顔向きの両目位置に合わせる処理を行って、それぞれの位置が合った状態において、残りの1点である口位置の距離差を顔特徴的要素の誤差とする。即ち、カテゴリmの顔向きの口位置P3−1と、顔向きθaの口位置P3−2との距離dmを顔特徴的要素の誤差とする。
図2に戻り、誤差Dを決定した後、カウンタmの値を「1」に設定し(ステップS11)、第mカテゴリの顔向き角度θmを(Pm,Tm)に決定する(ステップS12)。次いで、第mカテゴリの顔向きに対し、誤差が所定の誤差D以内の範囲を算出する(ステップS13)。カテゴリmにおいて、誤差D以内の範囲とは、カテゴリmの顔向きの両目位置と顔向きθaの両目位置を合せた場合に、それぞれの口位置の距離差dmが誤差D以内である顔向きθaの範囲である。顔特徴的要素の2点である両目位置が同じ位置になるように、Affine変換することで残りの1点である口位置の差(即ち、距離dm)が誤差D以内となるので、両目位置を合わせ、口位置の差を誤差D以内とすることで、照合顔画像と登録顔画像との照合において、より正確な照合が可能となる(その理由は、顔特徴的要素の位置関係が同じになるほど、照合性能が良くなるからである)。また、照合顔画像と登録顔画像の照合時には、照合顔画像の顔の目口位置および推定した顔向きから誤差D以内にあるカテゴリを選択することで、照合性能の向上が図れる。
なお、上記は顔特徴的要素の誤差dの定義例(1)であるが、その他の定義例についても説明する。
図7は、図2のカテゴリ設計における顔特徴的要素の誤差dの定義例(2)を説明するための図である。同図において、カテゴリmの顔向きの三角形51における左目位置と右目位置の中間点P4−1から口位置P3−1までの線分Lmをとるとともに、顔向きθaの三角形52における左目位置と右目位置の中間点P4−2から口位置P3−2までの線分Laをとる。そして、カテゴリmの顔向きにおける線分Lmと顔向きθaにおける線分Laの角度差θdと、双方の線分Lm,Laの長さの差|Lm−La|の2要素により、顔特徴的要素の誤差dを定義する。即ち、顔特徴的要素の誤差dを[θd|Lm−La|]とする。この定義の場合、誤差D以内の範囲は、角度差θD、かつ、長さの差LD以内とする。
図7は、図2のカテゴリ設計における顔特徴的要素の誤差dの定義例(2)を説明するための図である。同図において、カテゴリmの顔向きの三角形51における左目位置と右目位置の中間点P4−1から口位置P3−1までの線分Lmをとるとともに、顔向きθaの三角形52における左目位置と右目位置の中間点P4−2から口位置P3−2までの線分Laをとる。そして、カテゴリmの顔向きにおける線分Lmと顔向きθaにおける線分Laの角度差θdと、双方の線分Lm,Laの長さの差|Lm−La|の2要素により、顔特徴的要素の誤差dを定義する。即ち、顔特徴的要素の誤差dを[θd|Lm−La|]とする。この定義の場合、誤差D以内の範囲は、角度差θD、かつ、長さの差LD以内とする。
次に、顔特徴的要素の誤差dの定義例(3)を説明する。顔特徴的要素の誤差dの定義例(3)は、顔特徴的要素を4点(左目、右目、左口端、右口端)とした場合の顔特徴的要素の誤差dを定義するものである。図8は、図2のカテゴリ設計における顔特徴的要素の誤差dの定義例(3)を説明するための図である。同図において、カテゴリmの顔向きの目口端位置を示す四角形55を設定するとともに、カテゴリmの顔向きの両目位置と顔向きθaの両目位置を合わせた顔向きθaの目口端位置を示す四角形56を設定する。カテゴリmの顔向きの左口端位置と顔向きθaの左口端位置の距離dLmと、カテゴリmの顔向きの右口端位置と顔向きθaの右口端位置の距離dRmより、顔特徴的要素の誤差dを定義する。即ち、顔特徴的要素の誤差dを[dLm,dRm]とする。この定義の場合、誤差D以内の範囲は、dLm<=D、かつ、dRm<=D、または、dLmとdRmの平均値がD以内とする。
このように、3点(左目、右目、口)と同様に2点(左目、右目)の位置を合せた状態において、残り2点(左口端、右口端)の双方(カテゴリmの顔向きおよび顔向きθa)の距離を顔特徴的要素の誤差dとする。なお、誤差dは、左口端位置の距離dLmおよび右口端位置の距離dRmの2要素としても良く、距離dLm+距離dRmまたは距離dLmと距離dRmのうち、値が大きい方の1要素としても良い。さらに、上述した定義例(2)における図7に示すように、2点それぞれの角度差と線分の長さ差としても良い。
また、顔特徴的要素が3点の定義例(1)、顔特徴的要素が4点の定義例(3)の例を示したが、顔特徴的要素の数がN(Nは3以上の整数)点であっても同様に、2点を合わせ、残りのN−2点の距離差又は角度差及び線分の長さの差で顔特徴的要素の誤差を定義し、同誤差を算出することができる。
図2に戻り、ステップS13で誤差D以内の範囲を算出した後、誤差D以内の範囲が目標範囲をカバーしたか(埋めたか)どうかを判定する(ステップS14)。ここで、目標範囲とは、照合時に入力される照合顔画像の向きの想定範囲のことである。この照合顔画像の向きの想定範囲内において照合ができるように(即ち、良好な照合性能が得られるように)、同想定範囲をカテゴリ設計時の目標範囲としている。図3(a)〜(c)に長方形の破線で示す範囲が目標範囲60である。ステップS14の判定において、ステップS13で算出した範囲が、目標範囲をカバーしたと判断した場合(即ち、「Yes」と判断した場合)、本処理を終える。目標範囲をカバーした場合とは、図3の(c)に示すような状態になった場合である。これに対し、目標範囲をカバーしてない場合(即ち、「No」と判断した場合)は、カウンタmの値を「1」増加させてm=m+1に設定し(ステップS15)、第mカテゴリの顔向き角度θmを(Pm,Tm)に仮決定する(ステップS16)。そして、当該第mカテゴリの顔向きに対し、口のずれである誤差が誤差D以内の範囲を算出する(ステップS17)。
次いで、他のカテゴリと接しているかどうかを判定し(ステップS18)、他のカテゴリと接していない場合(即ち、「No」と判断した場合)はステップS16に戻る。これに対して、他のカテゴリと接している場合(即ち、「Yes」と判断した場合)は第mカテゴリの顔向き角度θmを(Pm,Tm)に決定する(ステップS19)。即ち、ステップS16〜ステップS19において、第mカテゴリの顔向き角度θmを仮決めして同角度θmでの誤差D以内の範囲を算出し、他のカテゴリの誤差D以内の範囲(図3の(b)では、カテゴリ「1」)と接する、またはオーバーラップすることを確認しながら、第mカテゴリの顔向き角度θmを決定する。
第mカテゴリの顔向き角度θmを(Pm,Tm)に決定した後、目標範囲をカバーしたかどうかを判定し(ステップS20)、目標範囲をカバーした場合(即ち、「Yes」と判断した場合)は本処理を終え、目標範囲をカバーしてない場合(即ち、「No」と判断した場合)はステップS15に戻り、目標範囲をカバーするまでステップS15〜ステップS19の処理を行う。ステップS15〜ステップS19の処理を繰り返すことにより、各カテゴリの誤差D以内の範囲によって、目標範囲をカバーすれば(隙間無く埋めれば)、カテゴリ設計は終了となる。
図3の(a)は、カテゴリ「1」の顔向きθ1に対して誤差D以内の範囲40−1を示しており、図3の(b)は、カテゴリ「2」の顔向きθ2に対して誤差D以内の範囲40−2を示している。カテゴリ「2」の顔向きθ2に対する誤差D以内の範囲40−2は、カテゴリ「1」の顔向きθ1に対する誤差D以内の範囲40−1と一部分で重なっている。図3の(c)は、カテゴリ「1」〜「12」それぞれの顔向きθ1〜θ12に対し誤差D以内の範囲40−1〜40−12を示しており、目標範囲60をカバーしている(隙間無く埋めている)。
図9(a)〜(d)は、図2のカテゴリ設計におけるカテゴリの顔向きの一例を示す図である。同図の(a)に示すカテゴリ「1」は正面向き、(b)に示すカテゴリ「2」は左向き、(c)に示すカテゴリ「6」は斜め下向き、(d)に示すカテゴリ「12」は下向きである。
このようにしてカテゴリ設計を行った後、図1のステップS2において、各カテゴリの照合モデルの学習を行う。図10は、本実施の形態に係る物体認識装置1の照合モデル学習機能を示すブロック図である。同図において、顔検出部2は、各学習画像「1」〜「L」から顔を検出する。向き顔合成部3は、各学習画像「1」〜「L」の顔画像に対し、各カテゴリ(顔向きθm、m=1〜M)の合成画像を作成する。モデル学習部4は、カテゴリ「1」〜「M」のそれぞれに、当該カテゴリの学習画像群を用いて当該照合モデルを学習する。カテゴリ「1」の学習画像群を用いて学習された照合モデルは、カテゴリ「1」データベース5−1に格納される。同様に、カテゴリ「2」〜「M」それぞれの学習画像群を用いて学習された照合モデルは、カテゴリ「2」データベース5−2、…、カテゴリ「M」データベース5−Mに格納される(“DB”はデータベースのことである)。
各カテゴリの照合モデルの学習処理を行った後、図1のステップS3において、各カテゴリの登録顔画像の作成を行う。図11は、本実施の形態に係る物体認識装置1の登録画像作成機能を示すブロック図である。同図において、顔検出部2は、入力画像「1」〜「N」から顔を検出する。向き顔合成部3は、顔検出部2で検出された顔画像即ち登録顔画像「1」〜「N」に対し、各カテゴリ(顔向きθm、m=1〜M)の合成画像を作成する。なお、向き顔合成部3の処理として、例えば、「”Real-Time Combined 2D+3D Active Appearance Models”, Jing Xiao, Simon Baker, Iain Matthews and Takeo Kanade, The Robotics Institute, Carnegie Mellon University, Pittsburgh, PA 15213」に記載された処理が好適である。カテゴリ「1」〜「M」のそれぞれに、当該カテゴリ(顔向きθm)の登録顔画像「1」〜「N」を生成する(即ち、カテゴリ別に登録顔画像を生成する)。表示部6は、顔検出部2で検出された顔画像を視覚表示し、また向き顔合成部3で作成された合成画像を視覚表示する。
図12は、図11の登録画像作成機能による操作画面の一例を示す図である。同図に示す操作画面は、登録画像作成時の確認画面として表示される。入力された入力画像70に対して、各カテゴリ(顔向きθm、m=1〜M)の合成画像を作成し、作成した合成画像を各カテゴリの登録顔画像(同図では、ID:1)80とする。ここで「はい」ボタン90が押された場合は合成画像を登録し、「いいえ」ボタン91が押された場合は合成画像の登録は行わない。なお、図12に示す操作画面には、この画面をクローズさせるためのクローズボタン92が設定されている。
各カテゴリの登録顔画像の作成処理を行った後、図1のステップS4において、各カテゴリの照合モデル及び登録顔画像を用いた照合処理を行う。図13は、本実施の形態に係る物体認識装置1の照合機能を示すブロック図である。同図において、顔検出部2は、入力された照合顔画像から顔を検出する。目口検出部8は、顔検出部2で検出された顔画像から目と口を検出する。顔向き推定部9は、顔画像から顔向きを推定する。顔向き推定部9の処理として、例えば「”Head Pose Estimation in Computer Vision: A Survey”, Erik Murphy-Chutorian, Student Member, IEEE, and Mohan Manubhai Trivedi, Fellow, IEEE, IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL.31, NO.4, APRIL 2009」に記載された処理が好適である。カテゴリ選択部(選択部)10は、顔向き毎にカテゴライズされて登録された複数の登録顔画像における該登録顔画像の顔上の特徴点(目口)の位置と、照合顔画像の顔上の特徴点に対応する特徴点の位置との誤差に基づき、特定の顔向きを選択する。照合部11は、カテゴリ選択部10が選択したカテゴリに対応するデータベースの照合モデルを用いて、照合顔画像と各登録顔画像「1」〜「N」同士の照合を行う。表示部6は、カテゴリ選択部10で選択されたカテゴリを視覚表示し、また照合部11の照合結果を視覚表示する。
ここで、照合時に顔向き推定が必要な理由について説明する。図14(a),(b)は、照合時に顔向き推定が必要な理由を説明するための図であり、左右又は上下で目口位置を示す三角形の形状が同じになる顔向きを示している。即ち、同図の(a)はカテゴリ「F」の顔向き(右向きP度)の三角形57を示しており、同図の(b)はカテゴリ「G」の顔向き(左向きP度)の三角形58を示している。三角形57,58は、目口位置を示す形状において略同一である。このように、左右又は上下で目口位置を示す三角形の形状が同じになる顔向きが存在するため、照合顔画像の目口位置情報だけではどのカテゴリを選択すれば良いか判定できない。図14(a),(b)に示す例では、誤差D以内のカテゴリが複数(カテゴリ「F」とカテゴリ「G」)存在し、それらカテゴリの顔向きは同図に示すように異なっている。照合顔画像は左向きP度なのに、右向きP度のカテゴリ「F」を選んでしまうと、照合性能が悪くなってしまう。そこで、照合時には、目口検出部8で得られた目口位置情報と、顔向き推定部9で得られた顔向き情報を併用することで、選択するカテゴリを決定する。なお、選択するカテゴリは複数でもあっても良く、複数選択した場合は、照合スコアの良いものを最終的に選択する。
図15は、図13の照合機能による照合結果の提示画面の一例を示す図である。同図に示す画面では、入力された照合顔画像70−1,70−2ごとに、それぞれに対する照合結果100−1,100−2が表示される。この場合、各照合結果100−1,100−2において、スコアの高い順に登録顔画像が表示される。スコアが高いほど当人の確率が高いと言える。照合結果100−1では、ID:1の登録顔画像のスコアが83、ID:3の登録顔画像のスコアが42、ID:9の登録顔画像のスコアが37、…となっている。また、照合結果100−2では、ID:1の登録顔画像のスコアが91、ID:7の登録顔画像のスコアが48、ID:12の登録顔画像のスコアが42、…となっている。なお、図15に示す画面には、この画面をクローズさせるためのクローズボタン92の他、画面を上下にスクロールさせるスクロールバー93が設定されている。
このように本実施の形態に係る物体認識装置1によれば、顔向き毎にカテゴライズされて登録された複数の登録顔画像における該登録顔画像の顔上の特徴点(目口)の位置と、照合顔画像の顔上の特徴点に対応する特徴点の位置との誤差に基づき、特定の顔向きを選択するカテゴリ選択部10と、カテゴリ選択部10で選択された顔向きに属する登録顔画像と照合顔画像とを照合する照合部11と、を有し、登録顔画像を各々顔向き範囲によってカテゴライズし、顔向き範囲を特徴点に基づいて定めるので、照合顔画像と登録顔画像をより正確に照合することができる。
なお、本実施の形態に係る物体認識装置1では、顔画像を用いたが、顔画像以外(例えば、人物、車などの画像)でも用いることができることは言うまでもない。
(本開示の一態様の概要)
本開示の物体認識装置は、物体向き毎にカテゴライズされて登録された複数の登録物体画像における前記登録物体画像の物体上の特徴点の位置と、照合物体画像の物体上の前記特徴点に対応する特徴点の位置との誤差に基づき、特定の物体向きを選択する選択部と、前記選択された物体向きに属する前記登録物体画像と前記照合物体画像とを照合する照合部と、を有し、前記登録物体画像は、各々物体向き範囲によってカテゴライズされ、前記物体向き範囲は前記特徴点に基づいて定められる。
本開示の物体認識装置は、物体向き毎にカテゴライズされて登録された複数の登録物体画像における前記登録物体画像の物体上の特徴点の位置と、照合物体画像の物体上の前記特徴点に対応する特徴点の位置との誤差に基づき、特定の物体向きを選択する選択部と、前記選択された物体向きに属する前記登録物体画像と前記照合物体画像とを照合する照合部と、を有し、前記登録物体画像は、各々物体向き範囲によってカテゴライズされ、前記物体向き範囲は前記特徴点に基づいて定められる。
上記構成によれば、顔向き等の物体向きの関係即ち位置関係として、照合物体画像との照合に最適なものを選択するので、照合物体画像と登録物体画像をより正確に照合することができる。
上記構成において、前記誤差は、前記物体上に少なくとも3点以上のN(Nは3以上の整数)点の特徴点位置が物体向き毎に定義され、前記物体向き毎の特徴点の所定の2点と、これら2特徴点に対応する前記照合物体画像の物体上の2特徴点との位置を合わせた場合に、前記N点の特徴点の内残りN−2特徴点と、該N−2特徴点に対応する前記照合物体画像の物体上の残りN−2特徴点との位置の変位によって算出される。
上記構成によれば、照合物体画像の照合に用いる登録物体画像として、照合精度の向上が図れる、より最適なものを得ることができる。
上記構成において、前記誤差は、物体向きの2特徴点位置の中点と残りN−2特徴点をそれぞれ結ぶN−2本の線分において、照合モデルおよび登録物体画像群の物体向きのN−2本の線分と、同対応する参照物体画像の物体向きのN−2本の線分それぞれの、角度差および線分長差の組である。
上記構成によれば、照合物体画像の照合に用いる登録物体画像として、照合精度の向上が図れる、より最適なものを得ることができる。
上記構成において、前記N−2特徴点の誤差それぞれの加算値または最大値を最終的な誤差とする。
上記構成によれば、照合精度の向上が図れる。
上記構成において、表示部を有し、前記物体向き範囲を前記表示部に表示する。
上記構成によれば、物体向き範囲を視覚によって確認することができ、照合物体画像の照合に用いる登録物体画像として、より最適なものを選択することができる。
上記構成において、物体向きの異なる複数の前記物体向き範囲を前記表示部に表示し、前記物体向き範囲の重なりを表示する。
上記構成によれば、物体向き範囲の重なり具合を視覚によって確認することができ、照合物体画像の照合に用いる登録物体画像として、照合精度の向上が図れる、より最適なものを選択することができる。
本開示の物体認識方法は、物体向き毎にカテゴライズされて登録された複数の登録物体画像における前記登録物体画像の物体上の特徴点の位置と、照合物体画像の物体上の前記特徴点に対応する特徴点の位置との誤差に基づき、特定の物体向きを選択する選択ステップと、前記選択された物体向きに属する前記登録物体画像と前記照合物体画像とを照合する照合ステップと、を有し、前記登録物体画像は、各々物体向き範囲によってカテゴライズされ、前記物体向き範囲は前記特徴点に基づいて定められる。
上記方法によれば、顔向き等の物体向きの関係即ち位置関係として、照合物体画像との照合に最適なものを選択するので、照合物体画像と登録物体画像をより正確に照合することができる。
上記方法において、前記誤差は、前記物体上に少なくとも3点以上のN(Nは3以上の整数)点の特徴点位置が物体向き毎に定義され、前記物体向き毎の特徴点の所定の2点と、これら2特徴点に対応する前記照合物体画像の物体上の2特徴点との位置を合わせた場合に、前記N点の特徴点の内残りN−2特徴点と、該N−2特徴点に対応する前記照合物体画像の物体上の残りN−2特徴点との位置の変位によって算出される。
上記方法によれば、照合物体画像の照合に用いる登録物体画像として、照合精度の向上が図れる、より最適なものを得ることができる。
上記方法において、前記誤差は、物体向きの2特徴点位置の中点と残りN−2特徴点をそれぞれ結ぶN−2本の線分において、照合モデルおよび登録物体画像群の物体向きのN−2本の線分と、同対応する参照物体画像の物体向きのN−2本の線分それぞれの、角度差および線分長差の組である。
上記方法によれば、照合物体画像の照合に用いる登録物体画像として、照合精度の向上が図れる、より最適なものを得ることができる。
上記方法において、前記N−2特徴点の誤差それぞれの加算値または最大値を最終的な誤差とする。
上記方法によれば、照合精度の向上が図れる。
上記方法において、表示部に対して前記物体向き範囲を前記表示部に表示する表示ステップをさらに含む。
上記方法によれば、物体向き範囲を視覚によって確認することができ、照合物体画像の照合に用いる登録物体画像として、より最適なものを選択することができる。
上記方法において、物体向きの異なる複数の前記物体向き範囲を前記表示部に表示し、前記物体向き範囲の重なりを表示する。
上記方法によれば、物体向き範囲の重なり具合を視覚によって確認することができ、照合物体画像の照合に用いる登録物体画像として、照合精度の向上が図れる、より最適なものを選択することができる。
また、本開示を詳細にまた特定の実施態様を参照して説明したが、本開示の精神と範囲を逸脱することなく様々な変更や修正を加えることができることは当業者にとって明らかである。
本出願は、2013年7月3日出願の日本特許出願(特願2013−139945)に基づくものであり、その内容はここに参照として取り込まれる。
本開示は、照合物体画像と登録物体画像をより正確に照合することができるといった効果を有し、監視カメラシステムへの適用が可能である。
1 物体認識装置
2 顔検出部
3 向き顔合成部
4 モデル学習部
5−1,5−2,…5−M カテゴリ「1」〜「M」データベース
6 表示部
8 目口検出部
9 顔向き推定部
10 カテゴリ選択部
11 照合部
2 顔検出部
3 向き顔合成部
4 モデル学習部
5−1,5−2,…5−M カテゴリ「1」〜「M」データベース
6 表示部
8 目口検出部
9 顔向き推定部
10 カテゴリ選択部
11 照合部
Claims (12)
- 物体向き毎にカテゴライズされて登録された複数の登録物体画像における前記登録物体画像の物体上の特徴点の位置と、照合物体画像の物体上の前記特徴点に対応する特徴点の位置との誤差に基づき、特定の物体向きを選択する選択部と、
前記選択された物体向きに属する前記登録物体画像と前記照合物体画像とを照合する照合部と、を有し、
前記登録物体画像は、各々物体向き範囲によってカテゴライズされ、前記物体向き範囲は前記特徴点に基づいて定められ、
前記誤差は、前記物体上に少なくとも3点以上のN(Nは3以上の整数)点の特徴点位置が物体向き毎に定義され、前記物体向き毎の特徴点の所定の2点と、これら2特徴点に対応する前記照合物体画像の物体上の2特徴点との位置を合わせた場合に、前記N点の特徴点の内残りN−2特徴点と、該N−2特徴点に対応する前記照合物体画像の物体上の残りN−2特徴点との位置の変位によって算出される、
物体認識装置。 - 前記誤差は、物体向きの2特徴点位置の中点と残りN−2特徴点をそれぞれ結ぶN−2本の線分において、照合モデルおよび登録物体画像群の物体向きのN−2本の線分と、同対応する参照物体画像の物体向きのN−2本の線分それぞれの、角度差および線分長差の組である請求項1に記載の物体認識装置。
- 物体向き毎にカテゴライズされて登録された複数の登録物体画像における前記登録物体画像の物体上の特徴点の位置と、照合物体画像の物体上の前記特徴点に対応する特徴点の位置との誤差に基づき、特定の物体向きを選択する選択部と、
前記選択された物体向きに属する前記登録物体画像と前記照合物体画像とを照合する照合部と、を有し、
前記登録物体画像は、各々物体向き範囲によってカテゴライズされ、前記物体向き範囲は前記特徴点に基づいて定められ、
前記誤差は、物体向きの2特徴点位置の中点と残りN−2特徴点をそれぞれ結ぶN−2本の線分において、照合モデルおよび登録物体画像群の物体向きのN−2本の線分と、同対応する参照物体画像の物体向きのN−2本の線分それぞれの、角度差および線分長差の組である物体認識装置。 - 前記N−2特徴点の誤差それぞれの加算値または最大値を最終的な誤差とする請求項1または3に記載の物体認識装置。
- 表示部を有し、
前記物体向き範囲を前記表示部に表示する請求項1ないし4のいずれか一項に記載の物体認識装置。 - 物体向きの異なる複数の前記物体向き範囲を前記表示部に表示し、
前記物体向き範囲の重なりを表示する請求項5に記載の物体認識装置。 - 物体向き毎にカテゴライズされて登録された複数の登録物体画像における前記登録物体画像の物体上の特徴点の位置と、照合物体画像の物体上の前記特徴点に対応する特徴点の位置との誤差に基づき、特定の物体向きを選択する選択ステップと、
前記選択された物体向きに属する前記登録物体画像と前記照合物体画像とを照合する照合ステップと、を有し、
前記登録物体画像は、各々物体向き範囲によってカテゴライズされ、前記物体向き範囲は前記特徴点に基づいて定められ、
前記誤差は、前記物体上に少なくとも3点以上のN(Nは3以上の整数)点の特徴点位置が物体向き毎に定義され、前記物体向き毎の特徴点の所定の2点と、これら2特徴点に対応する前記照合物体画像の物体上の2特徴点との位置を合わせた場合に、前記N点の特徴点の内残りN−2特徴点と、該N−2特徴点に対応する前記照合物体画像の物体上の残りN−2特徴点との位置の変位によって算出される物体認識方法。 - 前記誤差は、物体向きの2特徴点位置の中点と残りN−2特徴点をそれぞれ結ぶN−2本の線分において、照合モデルおよび登録物体画像群の物体向きのN−2本の線分と、同対応する参照物体画像の物体向きのN−2本の線分それぞれの、角度差および線分長差の組である請求項7記載の物体認識方法。
- 物体向き毎にカテゴライズされて登録された複数の登録物体画像における前記登録物体画像の物体上の特徴点の位置と、照合物体画像の物体上の前記特徴点に対応する特徴点の位置との誤差に基づき、特定の物体向きを選択する選択ステップと、
前記選択された物体向きに属する前記登録物体画像と前記照合物体画像とを照合する照合ステップと、を有し、
前記登録物体画像は、各々物体向き範囲によってカテゴライズされ、前記物体向き範囲は前記特徴点に基づいて定められ、
前記誤差は、物体向きの2特徴点位置の中点と残りN−2特徴点をそれぞれ結ぶN−2本の線分において、照合モデルおよび登録物体画像群の物体向きのN−2本の線分と、同対応する参照物体画像の物体向きのN−2本の線分それぞれの、角度差および線分長差の組である物体認識方法。 - 前記N−2特徴点の誤差それぞれの加算値または最大値を最終的な誤差とする請求項7または9に記載の物体認識方法。
- 表示部に対して前記物体向き範囲を前記表示部に表示する表示ステップをさらに含む請求項7ないし10のいずれか一項に記載の物体認識方法。
- 物体向きの異なる複数の前記物体向き範囲を前記表示部に表示し、
前記物体向き範囲の重なりを表示する請求項11に記載の物体認識方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013139945 | 2013-07-03 | ||
JP2013139945 | 2013-07-03 | ||
PCT/JP2014/003480 WO2015001791A1 (ja) | 2013-07-03 | 2014-06-30 | 物体認識装置及び物体認識方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6052751B2 true JP6052751B2 (ja) | 2016-12-27 |
JPWO2015001791A1 JPWO2015001791A1 (ja) | 2017-02-23 |
Family
ID=52143391
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015525049A Expired - Fee Related JP6052751B2 (ja) | 2013-07-03 | 2014-06-30 | 物体認識装置及び物体認識方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20160148381A1 (ja) |
JP (1) | JP6052751B2 (ja) |
WO (1) | WO2015001791A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9727776B2 (en) * | 2014-05-27 | 2017-08-08 | Microsoft Technology Licensing, Llc | Object orientation estimation |
TWI553565B (zh) * | 2014-09-22 | 2016-10-11 | 銘傳大學 | 利用二維臉部影像估測其三維角度方法,及其臉部置換資料庫建立方法與臉部影像置換方法 |
US9898836B2 (en) * | 2015-02-06 | 2018-02-20 | Ming Chuan University | Method for automatic video face replacement by using a 2D face image to estimate a 3D vector angle of the face image |
JP6722878B2 (ja) * | 2015-07-30 | 2020-07-15 | パナソニックIpマネジメント株式会社 | 顔認証装置 |
JP6663285B2 (ja) * | 2015-08-28 | 2020-03-11 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 画像生成方法及び画像生成システム |
US10706266B2 (en) | 2015-09-09 | 2020-07-07 | Nec Corporation | Guidance acquisition device, guidance acquisition method, and program |
WO2017064838A1 (ja) | 2015-10-14 | 2017-04-20 | パナソニックIpマネジメント株式会社 | 顔検出装置およびこれを備えた顔検出システムならびに顔検出方法 |
KR102238939B1 (ko) * | 2018-11-29 | 2021-04-14 | 오지큐 주식회사 | 무선단말을 이용한 초상권 보호 방법 |
US20210229673A1 (en) * | 2019-06-17 | 2021-07-29 | Google Llc | Seamless driver authentication using an in-vehicle camera in conjunction with a trusted mobile computing device |
CN110781728B (zh) * | 2019-09-16 | 2020-11-10 | 北京嘀嘀无限科技发展有限公司 | 一种人脸朝向估计方法、装置、电子设备及存储介质 |
CN110909596B (zh) * | 2019-10-14 | 2022-07-05 | 广州视源电子科技股份有限公司 | 侧脸识别方法、装置、设备以及存储介质 |
CN112825145B (zh) * | 2019-11-20 | 2022-08-23 | 上海商汤智能科技有限公司 | 人体朝向检测方法、装置、电子设备和计算机存储介质 |
WO2023281903A1 (ja) * | 2021-07-09 | 2023-01-12 | パナソニックIpマネジメント株式会社 | 画像照合装置、画像照合方法、及びプログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6111580A (en) * | 1995-09-13 | 2000-08-29 | Kabushiki Kaisha Toshiba | Apparatus and method for controlling an electronic device with user action |
JP2007304721A (ja) * | 2006-05-09 | 2007-11-22 | Toyota Motor Corp | 画像処理装置及び画像処理方法 |
JP2007334810A (ja) * | 2006-06-19 | 2007-12-27 | Toshiba Corp | 画像領域追跡装置及びその方法 |
JP2008186247A (ja) * | 2007-01-30 | 2008-08-14 | Oki Electric Ind Co Ltd | 顔向き検出装置および顔向き検出方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4482796B2 (ja) * | 2004-03-26 | 2010-06-16 | ソニー株式会社 | 情報処理装置および方法、記録媒体、並びにプログラム |
JP2007028555A (ja) * | 2005-07-21 | 2007-02-01 | Sony Corp | カメラシステム,情報処理装置,情報処理方法,およびコンピュータプログラム |
-
2014
- 2014-06-30 WO PCT/JP2014/003480 patent/WO2015001791A1/ja active Application Filing
- 2014-06-30 US US14/898,847 patent/US20160148381A1/en not_active Abandoned
- 2014-06-30 JP JP2015525049A patent/JP6052751B2/ja not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6111580A (en) * | 1995-09-13 | 2000-08-29 | Kabushiki Kaisha Toshiba | Apparatus and method for controlling an electronic device with user action |
JP2007304721A (ja) * | 2006-05-09 | 2007-11-22 | Toyota Motor Corp | 画像処理装置及び画像処理方法 |
JP2007334810A (ja) * | 2006-06-19 | 2007-12-27 | Toshiba Corp | 画像領域追跡装置及びその方法 |
JP2008186247A (ja) * | 2007-01-30 | 2008-08-14 | Oki Electric Ind Co Ltd | 顔向き検出装置および顔向き検出方法 |
Also Published As
Publication number | Publication date |
---|---|
US20160148381A1 (en) | 2016-05-26 |
WO2015001791A1 (ja) | 2015-01-08 |
JPWO2015001791A1 (ja) | 2017-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6052751B2 (ja) | 物体認識装置及び物体認識方法 | |
US11373332B2 (en) | Point-based object localization from images | |
US10970558B2 (en) | People flow estimation device, people flow estimation method, and recording medium | |
US9818195B2 (en) | Object pose recognition | |
Choi et al. | Robust 3D visual tracking using particle filtering on the special Euclidean group: A combined approach of keypoint and edge features | |
JP4794625B2 (ja) | 画像処理装置および画像処理方法 | |
Holte et al. | Human pose estimation and activity recognition from multi-view videos: Comparative explorations of recent developments | |
JP4625074B2 (ja) | サインに基づく人間−機械相互作用 | |
Pateraki et al. | Visual estimation of pointed targets for robot guidance via fusion of face pose and hand orientation | |
JP6760490B2 (ja) | 認識装置、認識方法および認識プログラム | |
US20120306874A1 (en) | Method and system for single view image 3 d face synthesis | |
US20150235367A1 (en) | Method of determining a position and orientation of a device associated with a capturing device for capturing at least one image | |
JP2018136632A (ja) | 形状推定装置 | |
JP2016099941A (ja) | オブジェクト位置推定システム、及びそのプログラム | |
CN105164726A (zh) | 用于3d重构的相机姿态估计 | |
WO2015146101A1 (ja) | 顔照合装置、方法、及び、記録媒体 | |
EP3182370B1 (en) | Method and device for generating binary descriptors in video frames | |
JPWO2019069358A1 (ja) | 認識プログラム、認識方法および認識装置 | |
Wang et al. | Immersive human–computer interactive virtual environment using large-scale display system | |
WO2007108100A1 (ja) | 画像情報処理装置、判定方法、及びコンピュータプログラム | |
CN116310799A (zh) | 语义信息与几何约束相结合的动态特征点剔除方法 | |
JP5083715B2 (ja) | 三次元位置姿勢計測方法および装置 | |
JP2012220271A (ja) | 姿勢認識装置、姿勢認識方法、プログラム及び記録媒体 | |
US20230281864A1 (en) | Semantic SLAM Framework for Improved Object Pose Estimation | |
CN115760919A (zh) | 基于关键动作特征与位置信息的单人运动图像摘要方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161025 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161121 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6052751 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |