JP2013516013A - 頭部認識方法 - Google Patents

頭部認識方法 Download PDF

Info

Publication number
JP2013516013A
JP2013516013A JP2012546438A JP2012546438A JP2013516013A JP 2013516013 A JP2013516013 A JP 2013516013A JP 2012546438 A JP2012546438 A JP 2012546438A JP 2012546438 A JP2012546438 A JP 2012546438A JP 2013516013 A JP2013516013 A JP 2013516013A
Authority
JP
Japan
Prior art keywords
intensity
head
contour
source image
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012546438A
Other languages
English (en)
Other versions
JP5514918B2 (ja
Inventor
ベール、グザヴィエ
トロ、ジュリアン
ゴンザレス、ハヴィエル マルティネス
シモンズ、ケビン
Original Assignee
ソフトキネティック ソフトウェア
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソフトキネティック ソフトウェア filed Critical ソフトキネティック ソフトウェア
Publication of JP2013516013A publication Critical patent/JP2013516013A/ja
Application granted granted Critical
Publication of JP5514918B2 publication Critical patent/JP5514918B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本願に記載されているのは、ソース画像における人の頭部を認識する方法である。この方法は、ソース画像における人体の少なくとも一部の輪郭を検出するステップと、ソース画像における人体の深度を計算するステップとを含む。ソース画像からは、その深度での人の頭部に対応する楕円の長半径の大きさ及び短半径の大きさを計算し、検出した輪郭の画素の組の少なくともいくつかについて、アキュムレータ・アレイにおいて、輪郭画素の位置に中心があり、長短の半径の長さを有する楕円の少なくとも一部分を生成する。アキュムレータ・アレイにおける強度極大点の位置が、ソース画像における人の頭部の候補の位置に対応するものとして選択される。

Description

本発明は、ソース画像における人の頭部を認識するための方法及びコンピューター・システムに関するものである。特に、本発明は、深度情報を用いて、検知される人の頭部の大きさとしてもっとも有力なものを予測し、人の頭部の認識を支援する方法に関するものである。
さまざまな画像システム及び画像処理用途において、ソース画像における人の頭部の位置及び/又は向きを自動的に認識することが有益である。たとえば、ユーザーは、コンピューター・システムで作動しているプログラム、たとえば、コンピューター・ゲームのプログラムと、撮像装置の有効範囲内で自分の頭を動かすことによって対話をすることがある。あるいは、このような頭部認識方法は、撮像装置で、開口、露出時間、焦点深度などのパラメーターを調整して、顔写真用に最適化するために利用されることもある。
コンピューター・システムとの対話、特に、データ及びコマンドの入力は、広く知られた問題である。従来、このような対話は、物理的な入力装置、たとえば、キーボード、マウス、スクロール・ホイール、ペン、タッチ・スクリーン、ジョイスティック、ゲームパッド等、ユーザーの物理的な動作に応じて信号を生成するものによって行われている。しかしながら、このような物理的な入力装置には、多くの欠点がある。たとえば、物理的な入力装置は、限られた量の異なる入力信号しか提供できないので、3次元の「仮想現実」環境のような一部の用途では、ぎこちなく感じたり、現実性に欠けたりする。さらには、物理的入力装置は耐久性が低く、連続して使用すると、反復運動過多損傷(RSI)のような、ユーザーの健康にとって悪い結果となることさえある。
代わりとなる入力装置や方法もまた知られている。たとえば、音声認識の実用的なシステムが利用可能である。しかしながら、音声認識は、一部の用途、たとえばアクション・ゲームなど、ユーザーが迅速で、正確な入力を繰り返し行う必要があるものについては、実用的な代替手段ではない。さらには、音声認識の有効性には、背景の雑音が悪影響を及ぼし、また、一般的に、音声認識は特定のユーザーの音声命令を認識するのに学習期間を必要とする。
別の代替手段は、画像認識である。もっとも簡単な形態では、画像認識システムは、バーコードのような、コントラストの強いバイナリ・パターンを認識し、そしてこれらのパターンを処理に適したバイナリ信号に変換する。より進んだ画像認識システムは、画像にあるより複雑なパターンを認識でき、それに応じて多種多様な信号を生成することができる。このような画像認識システムは、たとえば、米国特許第6256033号明細書に、画像システムの有効範囲内でユーザーの身振りを認識することに関し提案されている。しかしながら、従来の画像システムは、全く深度を検知せず、上記ユーザーの2次元投影しか生成できない。結果として、ユーザーの身振りの認識には本質的な欠陥があり、入力可能な範囲が限られていて、誤認の可能性でいっぱいである。特に、このようなシステムには、背景からユーザーを分離することに難点がある。
しかしながら、3次元画像システムが発達したことで、たとえば、ユーザーの身振りをより良く認識できる形状認識方法及び装置を開発する可能性が与えられた。このような3次元画像システムの1つが、G.Yahav、G.J.Iddam及びD.Mandelboumの「3D Imaging Camera for Gaming Application」に開示されている。この論文に開示されている3次元画像システムは、いわゆる「飛行時間」、すなわち、TOF型であり、このTOF型では、深度検知が、3次元画像システムの有効範囲にある対象物で反射した光の波面形状から獲得される。ただし、他のタイプの画像システム、たとえば、ステレオ・カメラ、ライダー、レーダー、ソナーなども提案されている。
たとえば、国際公開第2008/128568号には、ある場所の3次元画像を取り込み、人体のような対象を上記3次元画像で選択し、この対象を分割して、頭部を含む複数の個別領域にすることが提案されている。
米国特許第7203356号明細書では、さまざまな代替手段の中で、3次元画像システムが、取り込んだソース画像における人の頭部の位置を特定するために、楕円又は楕円体近似を利用することが提案されている。しかしながら、この先行技術文献には、頭部をモデル化している楕円又は楕円体のパラメーターがどのように取得されているかは開示されていない。
同様の3次元モデル近似法が、Zhengcheng Hu、Tetsuya Kawamura、及び、Keiichi Uchimuraによって「Grayscale Correlation based 3D Model Fitting for Occupant Head Detection and Tracking」、Stereo Vision、ISBN 978−953−7619−22−0、2008年11月、I−Tech、Vienna、Austria、91〜102ページに提案されている。
人の頭部を追跡するために3次元データ及び楕円近似を利用するさらに別の方法がEhsan Parvizi及びQ.M. Jonathan Wuにより、「Real−Time 3D Head Tracking Based on Time−of−Flight Depth Sensor」、19th IEEE International Conference on Tools with Artificial Intelligenceに提案されている。しかしながら、この論文にもまた、好ましい頭部モデルの好ましいパラメーターをどうのようにして取得するのか開示されていない。
「Transformee de Hough elliptique floue rapide」では、C. Leignel、O. Bernier、D. Collobert、及び、R. Seguierによって、画像内で楕円の輪郭を認識するための、コンピューターによって実行される、特に効率的な方法と、頭部認識へのその応用が開示されている。この方法では、特定の種類の楕円ハフ変換を利用して、ソース画像から生成した輪郭画像における楕円形状を認識している。
ハフ変換とは、画像の中で、所定の部類に入る対象物の不完全なインスタンスを投票手続きによって見つける方法である。この投票手続きは、いわゆるアキュムレータ・アレイで実行され、このアキュムレータ・アレイから対象物の候補が強度極大点として得られる。アキュムレータ・アレイには、画像における個々の点の位置に対応する位置で、捜し求めている対象物のインスタンスを生成することによりデータ設定される(populated)。楕円ハフ変換の特定の例では、対象物は楕円である。アキュムレータ・アレイにおける強度極大点、すなわち、複数の楕円が交差する位置は、画像における同様な楕円の候補位置を表す。Leignelらが開示した方法では、算出速度を上げるために、アキュムレータ・アレイには、これらの楕円の代表的な部分のみをデータ設定する。検出速度を上げるために、たとえば、理想的な楕円形状の周りに減少する強度分布を有する不鮮明な楕円が使われる。
しかしながら、画像で予想される頭部の大きさについて事前の知識がなければ、算出速度と、誤検出の可能性との間で妥協をしなければならない。この問題を軽減するために、この従来技術の方法では、肌色である範囲の輪郭のみを考慮する。しかし、ユーザーが肌色の服を着れば、誤検出の危険が増大する。さらには、この従来技術の方法は、画像システムから比較的限られた範囲の距離、すなわち、1から2.5メートル以内で人の頭部を検出することに限定される。
ソース深度画像で人の頭部の位置を特定する他の方法は、公開された米国特許出願公開第2005/031166号明細書、米国特許出願公開第2005/058337号明細書、米国特許出願公開第2003/235341号明細書に記載されている。
さらに、Clabian Mらは、インターネット上で、URL:http://www.prip.tuwien.ac.at/〜krw/papers/2002/DAGM/Clabian.pdfから得られるINTERNET CITATION 2002、XP002389335で表題が「Head detection and localization from sparse 3D data」という、頭部検出に関係する記事を公表している。Krotosky SJらもまた、INTELLIGENT VEHICLES SYMPOSIUM、2004 IEEE Parma、Italy、June 14−17、2004 Piscatawy、NJ、USA、IEEE LNKD−DOI:10.1109/VS.2004.1336469、2004年6月14日、698〜703ページ、XP010727732 ISPB:978−0−7803−8310−4に「Occupant posture analysis using reflectance and stereo images for smart airbag deployment」という表題の記事を発表しており、これは、車の座席の乗車者を検出して、エアーバックの展開を制御することに関係している。
米国特許第6256033号明細書 国際公開第2008/128568号 米国特許第7203356号明細書 米国特許出願公開第2005/031166号明細書 米国特許出願公開第2005/058337号明細書 米国特許出願公開第2003/235341号明細書 国際公開第2008/128528号
G.Yahav、G.J.Iddam及びD.Mandelboum「3D Imaging Camera for Gaming Application」 Zhengcheng Hu、Tetsuya Kawamura、及び、Keiichi Uchimura「Grayscale Correlation based 3D Model Fitting for Occupant Head Detection and Tracking」、Stereo Vision、ISBN 978−953−7619−22−0、2008年11月、I−Tech、Vienna、Austria、91〜102ページ Ehsan Parvizi及びQ.M. Jonathan Wu「Real−Time 3D Head Tracking Based on Time−of−Flight Depth Sensor」、19th IEEE International Conference on Tools with Artificial Intelligence 「Transformee de Hough elliptique floue rapide」C. Leignel、O. Bernier、D. Collobert、及び、R. Seguier Clabian Mら、「Head detection and localization from sparse 3D data」 INTERNET CITATION 2002、XP002389335、URL:http://www.prip.tuwien.ac.at/〜krw/papers/2002/DAGM/Clabian.pdf Krotosky SJら、「Occupant posture analysis using reflectance and stereo images for smart airbag deployment」、INTELLIGENT VEHICLES SYMPOSIUM、2004 IEEE Parma、Italy、June 14−17、2004 Piscatawy、NJ、USA、IEEE LNKD−DOI:10.1109/VS.2004.1336469、2004年6月14日、698〜703ページ、XP010727732 ISPB:978−0−7803−8310−4 J.Canny、「A Computational Approach To Edge Detection」、IEEE Trans. Pattern Analysis and Machine Intelligence、8:679−714、1986、
本発明の目的は、ソース画像で人の頭部を認識するための速くて、それでいて正確な方法を提供することである。
この目的のために、本発明による方法の実施例は、
上記ソース画像における人体の少なくとも一部の輪郭を検出するステップと、
上記ソース画像における上記人体の深度を計算するステップと、
上記ソース画像における上記深度での人の頭部に対応する楕円の長半径の大きさ及び短半径の大きさを計算するステップと、
アキュムレータ・アレイにおいて、上記輪郭の画素の組の少なくともいくつかについて、輪郭画素の位置に中心があり、上記長短の半径の大きさを有する楕円の少なくとも一部分を生成するステップと、
上記アキュムレータ・アレイにおける強度極大点の位置をソース画像における人の頭部の最良の候補の位置に対応するものとして選択するステップと、
上記アキュムレータ・アレイにおいて最大のエネルギーを有し、かつ、補足的な検出方法によって肯定的な重み付けがなされている候補の中から最良の頭部候補を選択するステップとを含む。
実際の人の頭部の大きさの体の高さに対する比率は、年齢や性別に依存しているものの、通常は比較的狭い範囲に、年齢や性別に関係なくとどまるので、画像における頭部の見掛けの大きさを決めるためのもっとも重要な変数は、人の頭部までの距離、すなわち、画像内での頭部の深度測定値である。画像の頭部を囲む楕円の長短の半径の大きさは、この深度に実質的に比例することになる。この情報を、人体の少なくとも一部の輪郭の楕円ハフ変換を行うのに利用することで、算出速度を上げながら、同時に、誤検出率を減らすことができる。
深度データは、さまざまな異なる方法、たとえば、飛行時間カメラ、ステレオ・カメラ、ライダー、レーダー、ソナーなどで得ることができる。有益なことに、上記深度は、ある瞬間での、ソース画面における人体の平均深度であってもよい。あるいは、上記深度及び上記長短の半径の大きさは、各輪郭画素について、個別に計算することもできる。
ソース画像における人の頭部を認識する可能性をさらに高めるために、上記輪郭のモルフォロジー演算による膨張を、上記アキュムレータ・アレイにおける上記楕円の少なくとも一部分を生成する前に、実行することも好ましいといえる。輪郭の幅を広げることにより、その後のハフ変換を実行する面が最大になり、そしてそれ故に、楕円を認識する確率もまた最大になる。
有益なことに、上記楕円の少なくとも一部分は、不鮮明(ファジー、fuzzy)であってもよい。「不鮮明」とは、はっきりと範囲が定まっている線の代わりに、楕円の少なくとも一部分が、理想的な楕円の線の周囲に強度分布、たとえばガウス強度分布があるぼやけた線として、アキュムレータ・アレイにおいて投影されていると理解される。
有益なことに、輪郭検出ステップは、各輪郭画素について、局所的な輪郭の向きを検出することをさらに含んでもよい。たとえば、Shen−Castanアルゴリズムを輪郭検出に用いてもこの補足的情報が与えられ、この情報は、本発明の頭部認識方法の速度及び精度をさらに上げることに利用し得る。たとえば、さらに有益なことに、上記楕円の少なくとも一部分は、対応する輪郭画素の局所的な輪郭の向きに向けられていてもよい。
本発明のさらなる目的は、誤検出の回数を最小にすることである。このような誤検出は、とりわけ、腕や足の輪郭に起因することがある。このような輪郭は、通常、平行線の対を形成し、楕円ハフ変換を実行した場合に、強度の尾根部をアキュムレータ・アレイに生成する傾向がある。このような強度の尾根部に位置する強度極大点を頭部の位置に対応する単独の強度極大点から区別するために、本発明による方法の特定の実施例では、上記選択ステップの前に、上記アキュムレータ・アレイにおける複数の強度極大値の各々について、以下のステップ、を実行できる。すなわち、
アキュムレータ・アレイにおける各強度極大点に中心がある円周での第1の位置を特定するステップであって、上記第1の位置が上記円周で最大の強度を有するステップと、
上記円周において第2の位置を特定するステップであって、上記第2の位置が、第1の位置の反対側にある、上記円周の弧において最大の強度を有するステップと、
強度極大点の強度mを係数W=m/mc1・mc2で重み付けするステップであって、mc1が上記第1の位置での強度であり、mc2が上記第2の位置での強度であるステップとを実行することもできる。
強度極大点が強度の尾根部の範囲内にあれば、mc1とmc2のいずれの値も、通常、mの値に近くなる。重み付け係数Wは、それ故に、1よりあまり大きくならない。他方、強度極大点が単独のものであれば、値mc1及びmc2は、mよりかなり小さくなり、重み付け係数Wは、したがって、それに応じて大きくなる。この重み付け係数は、したがって、人の頭部にもっとも対応していそうな強度極大点を強調する。
有益なことに、誤検出、特に背中や肘で引き起こされる誤検出を最小にするためにも、上記選択ステップの前に、アキュムレータ・アレイにおける複数の強度極大点の各々の強度に、肌の色合い認識、パターン・マッチング、頭髪認識、あご部検出、穴検出、質量中心又は上記人体の末端とのつながりの検出、仮想的な背骨までの距離、上半身の軸までの距離、及び/又は、動画像列における前の頭部位置までの距離を含むグループの中から選択した少なくとも1つの補足的な頭部認識方法の出力に基づいて補足的に重み付けを行うことであってもよい。このように、少なくとも2つの、異なるが速い頭部認識方法を組み合わせることにより、本発明による方法の信頼性を高め得る。
有益なことに、上記ソース画像が動画像列の現在のフレームであり、先行するフレームで選択された位置が現在のフレームで隠れている場合には、すべての強度極大点を無視し、先行するフレームで選択された位置を現在のフレームにおける頭部位置に対応するものとして維持する。
本発明のさらなる目的は、ソース画像における頭部認識のためのコンピューター・システムを提供することである。したがって、本発明の特定の実施例では、コンピューター・システムが、本発明による方法を実行するようにプログラムされている。有益なことに、上記コンピューター・システムは、好ましくは3次元撮像装置である撮像装置を上記ソース画像、そして、可能であれば上記深度を取り込むために備えることができる。
別の特定の実施例では、本発明による、コンピューターにより実現される方法を実行するためのコンピューター実行可能な命令を含むコンピューター読み取り可能なデータ記憶媒体が提供される。
「コンピューター読み取り可能なデータ記憶媒体」は、デジタル・データが入っているあらゆるコンピューター読み取り可能な支持体であって、限定はされないが、ランダム・アクセス・メモリー、フラッシュ・メモリー、又は、読み取り専用メモリーなどの個体記憶装置だけでなく、ハードディスク・ドライブ又は磁気テープなどの磁気データ記憶媒体、光ディスクなどの光学的データ記憶媒体なども含むことを意味する。
本発明のこれらの目的及び他の目的は、以下の詳細な説明を読むことによって、また、添付図面を参照することによって、よりたやすく明らかとなるであろう。
3次元撮像装置の前に立っている人ユーザーがいる部屋を示す図である。 同じ部屋の3次元画像データを、3次元空間に分布する点の形式で3次元画像システムによって取り込まれたものとして示す図である。 ユーザーのビットマップ・マスク画像を示す図である。 ユーザーの輪郭画像を示す図である。 ユーザーの、膨張させた輪郭画像を示す図である。 輪郭画像の点に対応する、アキュムレータ・アレイにおける不鮮明な楕円の生成を模式的に示す図である。 不鮮明な楕円が局所的な輪郭の向きに向けられている特定の実施例を示す図である。 向きを合わせた不鮮明な楕円が先端を切り落とされている特定の実施例を示す図である。 アキュムレータ・アレイにおける画像を模式的に示す図である。 強度の尾根部にある極大点と、上記強度尾根部の、上記極大点を中心とする円周との交点を示す図である。 図3のビットマップ・マスク画像を仮想背骨と共に示す図である。 図3のビットマップ・マスク画像を上半身軸の主方向と共に示す図である。 図3のビットマップ・マスク画像を質量中心、及び、その質量中心を2つの頭部位置候補とつなぐ線と共に示す図である。 図3のビットマップ・マスク画像の一部に重ね合わせた矩形深度検査範囲を示す図である。 図12の矩形深度検査範囲に対応する深度ヒストグラムを示す図である。 両手を頭のところにおいている人ユーザーのビットマップ・マスク画像を示す図である。 互いにつなげられた領域に分割された図3のビットマップ・マスク画像を示す図である。
本発明には、さまざまな修正を加えたり、代替形態にしたりする余地があるが、本発明の具体的な実施例を例として図面に示し、さらに、ここに詳細に述べる。しかしながら、本発明を開示した特定の形態に限定しようとするものではなく、むしろ、添付の特許請求の範囲に表した本発明の範囲に入るすべての修正物、均等物、及び、代替物を包含するものと解釈しなければならない。
本発明による、コンピューターで実現される頭部認識方法及びコンピューター・システムの一実施例における1つの可能性のある使用例を図1に示す。この用途では、人ユーザー1に対して表示される仮想環境を生成するコンピューター・システム2と対話するために、このシステム及び方法が、この場合には人ユーザー1である興味の対象の身振りを認識するために利用される。
ボリューム認識システムは、この特定の実施例では、飛行時間(TOF)式3次元カメラ3である3次元画像システムを含む。このTOF式3次元カメラ3は、人ユーザー1が対話することになっているコンピューター・システム2と接続されている。この実施例では、コンピューター・システム2自体が、TOF式3次元カメラ3と協働して、本発明のボリューム認識方法を実行するようプログラムされている。代わりに、上記方法を実行するようにプログラムされた別個のデータ処理装置をTOF式3次元カメラとコンピューター・システム2との間に接続して、人ユーザーが上記コンピューター・システム2と対話できるようにすることも可能であろう。
TOF式3次元カメラ3は、人ユーザー1が立っている部屋4の3次元画像データを取り込み、この3次元画像データは、複数の画素がある部屋の2次元ソース画像と、各画素についての、その画素が画像化する点のTOF式3次元カメラ3までの距離に対応する深度の値を含んでいる。2次元画像における画素のX及びY位置自体が、それらが示す点のTOF式3次元カメラ3に対する天頂角及び方位角に対応するので、これらの3次元画像データは、図2のように、TOF式3次元カメラ3の有効範囲にある対象物の目に見える点に対応した点5の3次元的なクラウドによって示すことができる。
(I)が3次元カメラ3によって取り込まれたソース画像の深度図であり、(Io)が同じ場所でユーザー1がいない初期の深度図であれば、モルフォロジー演算による引き算により、深度図(Indg)における人ユーザー1の体が以下のように分離される。
(I)−(Io)=(Indg)
この深度図(Indg)は、人ユーザー1の体が「1」の画素によって、また、背景が「0」の画素によって示されるビットマップ画像(Ib)を得るために、続いて2値化される。このようなビットマップ画像(Ib)を図3に示す。
人ユーザー1の体のビットマップ画像をこれらのステップで分離した後に、「Transformee de Hough elliptique floue rapide」に記載されている形態のShen−Castanエッジ検出器、又は、J.Cannyにより、「A Computational Approach To Edge Detection」、IEEE Trans. Pattern Analysis and Machine Intelligence、8:679−714、1986、に最初に開示されたキャニー・エッジ検出器のようなエッジ検出器を、ユーザー1の体の輪郭を検出するために次に使用し、図4に示すように、輪郭画像(Ic)を生成することができる。
本発明の方法の検出速度を上げるために、次のステップでは、この輪郭画像(Ic)にモルフォロジー演算による膨張を適用することによって、輪郭の線の幅を広くし、図5に示すように、膨張させた輪郭画像(Id)を得ることができる。
第1の実施例では、ユーザー1の体に対応する点5の3次元クラウドの深度を次に平均化する。これは、少なくとも2つの方法のうちの1つで実行することができる。
第1実施例の第1の選択肢では、点5のクラスターが、たとえば、国際公開第2008/128568号に開示されている方法を用いて、ユーザーの体に対応するものと識別されたら、この点5のクラスターの重心の深度を画像におけるユーザー1の体の平均深度と見なす。
第1実施例の第2の選択肢では、深度図(Indg)におけるユーザー1を表す点5の深度を平均することができる。たとえば、以下の式を使用することができる。
Figure 2013516013

ここで、davは、算術平均深度であり、n及びmは、深度図画像の寸法である。算術平均の代わりに、たとえばメジアン(中央値)のような別の種類の平均を当業者が、場合によっては代わりに考えることもあり得る。
次のステップでは、ソース画像においてユーザー1の頭部を囲う仮想楕円の、平均深度davで予想される長半径の大きさa及び短半径の大きさbを、予想される、実際の頭部寸法、焦点距離、及び、上記の深度に基づいて、以下の式にしたがって計算する。
Figure 2013516013

ここで、Fは焦点距離であり、A及びBは、予想される実際の頭部の高さ及び幅である。
これらの予想される実際の頭部寸法A及びBは、コンピューター・システム2のメモリーに絶対寸法として、又は、ユーザー1の実際の大きさに対する相対寸法(これ自体、ソース画像におけるユーザー1の大きさ、焦点距離、及び、深度に基づいて計算できる)として格納してもよい。
以下のステップでは、楕円ハフ変換が膨張させた輪郭画像(Id)について、次に実行される。この演算では、この膨張させた輪郭画像(Id)での各々の画素について、上記の長短の半径の長さがa及びbの楕円(又は少なくともその一部分)が、アキュムレータ・アレイ(Ie)における対応する位置を中心にして生成される。このような楕円における各位置は、強度値を有し、これらの値は、楕円がアキュムレータ・アレイ内で重なるところで加算される。図6に示した好ましいモードでは、アキュムレータ・アレイ(Ih)に生成した楕円は、寸法がa、bの楕円マスク7を用いての、かつ、その中心の周囲で強度分布が徐々に減少するぼかしマスク8を用いての、膨張させた輪郭画像(Id)の画素6の畳み込みTの結果得られた不鮮明な楕円である。強度分布は、たとえば、ガウス分布であってもよい。
したがって、たとえば、位置x、yの画素について、
T(Id(x、y))+=3(すなわち、アキュムレータ・アレイは、基礎となる楕円の位置では、値を3単位増やす)、
T(Id(x±1、y))+=2(すなわち、アキュムレータ・アレイは、基礎となる楕円の各位置のすぐ右及び左の位置では、値を2単位増やす)、
T(Id(x、y±1))+=2(すなわち、アキュムレータ・アレイは、基礎となる楕円の各位置のすぐ上及び下の位置では、値を2単位増やす)、
T(Id(x±1、y±1))+=1(すなわち、アキュムレータ・アレイは、基礎となる楕円の各位置のすぐ右上、左上、右下、及び、左下の位置では、値を1単位増やす)。
有益なことに、輪郭線の局所的な向きについての情報をも与えるShen−Castanエッジ検出器のようなエッジ検出器を使って輪郭画像(Ic)を生成した場合には、この情報をも採用して、楕円マスク7を修正することであってもよい。たとえば、図6Aに示したように、楕円マスク7は、軸Mに沿った輪郭線の局所的な向きに長半径が向くように向きを定めてもよく、あるいは、図6Bに示すように、楕円マスク7は、底部において先端を切り落として、膨張させた輪郭画像(Id)において、あご部が現れない可能性を反映させることもできる。
第2の実施例では、楕円マスク7の寸法a及びbを平均深度davに基づいて計算する代わりに、膨張させた輪郭画像(Id)における各画素の個々の深度d(i、j)を各画素に用いる楕円マスク7の寸法について、代わりに考慮することもできる。これは、たとえば、膨張させた輪郭深度図(Ie)=(Id)・(Indg)と式
Figure 2013516013

とを使って実行することができる。
どちらの実施例でも、最終的な結果は、図7に描いたようなアキュムレータ・アレイであり、ここでは、強度のピーク8が、ソース画像において人間の頭部が出現している可能性がもっとも高い位置にある。
しかしながら、ユーザー1の末端がソース画像に偶然にあると、その結果、輪郭画像(Ic)にほぼ平行な線が生じるために、図7はまた、上記の強度のピーク8とは別に、これらの末端に対応する強度の尾根部9(図8)を示すこともある。これら強度の尾根部9がアキュムレータ・アレイにあることから起こる誤検出を抑制するために、単独の強度ピーク8に対応する強度極大点を、強度の尾根部9に位置する強度極大点から区別することが有益である。
したがって、図8に示した次のステップでは、強度の尾根部9を区別するために、重み付け係数Wを導入することもできる。各強度極大点についてこの重み付け係数を計算するために、この強度極大点の位置11のあたりに中心があり、予め定められた半径r≧b(通常r=b)を有する円周10をアキュムレータ・アレイに描く。次に、この円周内でもっとも強度が高い第1の位置12を特定し、その強度の値をmc1として格納する。次に、コンピューター・システム2は、この円周10の、第1の位置12の反対側にある部分14(通常は円周の半分)において、もっとも強度が高い第2の位置13を特定し、この強度の値をmc2として格納する。この強度極大点の位置11における強度の値をmで表すと、重み付け係数Wは、式W=m/mc1・mc2によって計算される。図8に描いたような強度の尾根部9では、mc1及びmc2はともにmに近い値になるから、このような強度の尾根部9に位置する強度極大点の強度の値は、1よりもわずかに大きいだけの重み付け係数Wで重み付けがなされることになり、一方、ソース画像における人の頭部の位置に対応する強度極大点を含む可能性がより高い、単独の強度極大点は、かなり大きな重み付け係数で重み付けをされることになる。
最後に、最大の強度極大点の間で残った一連の候補は、少なくとも1つの補足的な頭部検出方法の出力を使って重み付けすることもできる。候補は、各々の補足的方法にとって適切である重み付け係数で重み付けをすることであってもよい。次に、投票手続きを用いて、ソース画像における人の頭部に対応する1つ又は一連の候補を選択することであってもよい。
これらの補足的方法の1つは、図9に示すように、ビットマップ画像(Ib)に表した、人ユーザー1の体でもっとも長いところを通る2次又は3次の関数という形の仮想的な背骨15を計算することを伴う。候補楕円16が人ユーザー1の頭部を表す確率は、この仮想背骨と候補楕円16の間の距離とともに小さくなる。
同じような補足的方法は、ビットマップ画像(Ib)に表されているように、人ユーザー1の質量中心を中心とする上半身主軸18を計算することに基づいて行われる。これは、図10に示されている。普通は、人ユーザー1の頭部がこの軸の近くで並んでいるはずであり、それ故に、候補楕円16が人ユーザー1の頭部を表す確率は、この軸と、その候補楕円16との間の距離によっても小さくなる。
これらの補足的方法の別のものは、図11に示すように、人ユーザーの体のビットマップ画像(Ib)の、人ユーザーの質量中心17と、候補楕円16との間での連続性をテストするというものである。このテストについては、Brezenhamアルゴリズムを使用することであってもよい。テストの出力が否定的なものであれば、候補楕円16が人ユーザー1の頭部を表す確率は低くなる。
これらの補足的方法のさらに別のものは、肌の色合い認識というものである。3次元カメラがカラー・カメラであれば、候補が周知の肌の色合いに関連した色をしているかどうかを評価することであってもよい。そうでなければ、この候補が人ユーザーの頭部を表す確率は低くなる。有益なことに、色変換アルゴリズムを使って、3次元カメラが取り込んだRGBデータのようなカラー・データを肌の色合い認識により適した色空間、たとえば、装置に依存性のあるCIE 1931 XYZ色空間、又は、知覚的には一様であるCIE 1976 L*a*b若しくはCIECAM02色空間などに変換することであってもよい。
これらの補足的方法のさらに別のものは、頭髪検出というものである。具体的には、3次元カメラが赤外線式遠隔測定検出器を備えたTOFカメラであれば、頭髪は入射するあらゆる赤外線放射の大部分を吸収するので、候補楕円が人ユーザーの頭部を表す確率は、候補楕円のエッジ部、特に上側のエッジ部の予め定められた距離の範囲内で、明確な深度信号を返さない範囲があれば、高くなる。
これらの補足的方法のさらに別のものは、候補楕円に対応する点のクラウドを、人の頭部を表す特定の、又は、一般的なパターンとマッチングするというものである。このパターン・マッチング・テストが肯定的な結果を返せば、候補楕円が人ユーザーの頭部を表す確率は高くなる。
これらの補足的方法のさらに別のものは、あご部検出というものである。人ユーザーが3次元カメラと向き合っていると、後者は、人ユーザーのあご部と首の間で、普通は4〜9cmである深度の違いを記録することになる。このような段が候補楕円の下側のエッジ部で検出されたら、候補楕円が人ユーザーの頭部を表す確率が高い。図12及び図13は、このような段がどのように検出され得るかを示している。たとえば、高さが20cmで、幅が10cmであり、候補楕円の主軸の向きに向けられていて、候補楕円の下側のエッジ部に中心がある、矩形の検査範囲19を深度図(Indg)内で選択する。この検査範囲で測定された深度値が、図13のヒストグラムに示すように、およそ4から9cm離れた、2つのはっきりと異なる周波数最大値20、21のあたりに集中していれば、あご部が検出されたのである。
ユーザーが少なくとも一方の腕を頭部のところにおいていると、図14に示すように、肘が別の候補楕円16を形成し得る。同時に、ビットマップ画像(Ib)が形成した人ユーザー1のシルエットの頭部と、この肘の間に穴部22ができる。別の補足的方法では、シルエットでのこのような穴部22の形成が検出され、同時に作り出された新しい候補楕円16で、穴部22に隣接するものには、すべて、低い重み付けがなされる。
3次元カメラで取り込まれ、人ユーザーに対応する点が、国際公開第2008/128528号に開示されているように、互いにつなげられた領域のネットワークにグループ分けされていると、このネットワークでの末端を検出することを伴うさらに別の補足的方法を用いることができる。国際公開第2008/128568号では、3次元空間内でボリュームを認識する方法が開示されており、この方法では、3次元画像データが3次元空間の複数の点を含んでいる。これらの点は、クラスターにまとめられ、1つのクラスターが重要地点として選ばれる。選ばれたクラスター内の点は、サブクラスターに再度グループ分けされ、サブクラスターの各々は、重心と、その重心と関連づけられたボリュームとを有する。重心はつなげて、対象物を暗示するネットワークを形成でき、末端は、1つの他の重心だけにつながれた重心として識別される。
図15に示すように、どれも1つの他の領域だけに直接つながれている領域が末端23と見なされる。2つ以上の他の領域に直接つながれている領域もまた末端と見なすことができるが、これらの領域の重心を隣接する領域の重心につないでいる線24が、たとえば45°のような、最大角度以内である場合だけに限られる。このような末端23と合致する候補楕円16は、ユーザー1の頭部を表す可能性が高くなる。
動画像列では、時間コヒーレンス及び一時的隠れもまた考慮し得る。たとえば、先の方法で順位付けした候補が、先のフレームから現在のフレームへ、予め定められた距離以上にジャンプした場合には、より低い順位付けをした候補を、それが先のフレームでの頭部の位置から、上記予め定められた距離の範囲内であるならば、考慮することであってもよい。先行するフレームで、最上位に順位付けした候補に対応する範囲が、新しいフレームで隠れていたら、新しいフレームでの候補は無視し、いつかその隠れが終わるまで、先のフレームでの頭部位置を維持することであってもよい。
本発明を特定の典型的な実施例を参照しながら記載したが、種々の修正及び変更をこれらの実施例に、特許請求の範囲に記載のような、本発明の広い範囲から逸脱することなく施し得ることは明らかであろう。したがって、明細書や図面は、限定する意味でなく、例示の意味と見なされるべきである。

Claims (15)

  1. ソース画像における人の頭部の位置を認識する方法であって、
    前記ソース画像における人体の少なくとも一部の輪郭を検出するステップと、
    前記ソース画像における前記人体の前記一部の深度を計算するステップと、
    前記ソース画像における前記深度での人の頭部に対応する楕円の長半径の長さ及び短半径の長さを計算するステップと、
    アキュムレータ・アレイにおいて、前記輪郭の少なくとも一組の輪郭画素について、前記輪郭画素の位置に中心があり、前記長短の半径の長さを有する楕円の少なくとも一部分を生成するステップと、
    前記アキュムレータ・アレイにおける強度極大点の位置を前記ソース画像における前記人の頭部の位置に対応するものとして選択するステップと、
    前記アキュムレータ・アレイにおいて最大のエネルギーを有し、かつ、補足的な検出方法によって肯定的な重み付けがなされている候補の中から最良の頭部候補を選択するステップと
    を含む方法。
  2. 前記深度は、前記ソース画像における前記人体の前記一部の平均深度である、請求項1に記載の方法。
  3. 前記深度と、前記長短の半径の長さとは、各輪郭画素について個別に計算する、請求項1に記載の方法。
  4. 前記輪郭のモルフォロジー演算による膨張を、前記アキュムレータ・アレイにおける前記楕円の少なくとも一部分を生成する前に実行する、請求項1から請求項3までのいずれか一項に記載の方法。
  5. 前記楕円の少なくとも一部分は、不鮮明である、請求項1から請求項4までのいずれか一項に記載の方法。
  6. 前記輪郭を検出するステップは、各輪郭画素について、局所的な輪郭の向きを検出することをも含む、請求項1から請求項5までのいずれか一項に記載の方法。
  7. 前記楕円の少なくとも一部分は、前記局所的な輪郭の向きに向けられている、請求項6に記載の方法。
  8. 前記選択するステップの前に、
    前記アキュムレータ・アレイにおける各強度極大点に中心がある円周での第1の位置を特定するステップであって、前記第1の位置が前記円周で最大の強度を有する、特定するステップと、
    前記円周において第2の位置を特定するステップであって、前記第2の位置が、前記第1の位置の反対側にある、前記円周の弧において最大の強度を有する、特定するステップと、
    前記強度極大点の強度mを係数W=m/mc1・mc2で重み付けするステップであって、mc1が前記第1の位置での強度であり、mc2が前記第2の位置での強度である、重み付けするステップと
    が前記アキュムレータ・アレイにおける複数の強度極大点の各々について実行される、請求項1から請求項7までのいずれか一項に記載の方法。
  9. 前記選択するステップの前に、前記アキュムレータ・アレイにおける複数の強度極大点の各々の強度に、肌の色合い認識、パターン・マッチング、頭髪認識、あご部検出、穴検出、質量中心又は前記人体の末端とのつながりの検出、仮想的な背骨、上半身の軸、及び/又は、動画像列における前の頭部位置までの距離を含むグループの中から選択した少なくとも1つの補足的な頭部認識方法の出力に基づいて重み付けを行う、請求項1から請求項8までのいずれか一項に記載の方法。
  10. 前記ソース画像が動画像列の現在のフレームであり、先行するフレームで選択された位置が前記現在のフレームで隠れている場合には、すべての強度極大点を無視し、前記先行するフレームで選択された位置を前記現在のフレームにおける頭部位置に対応するものとして維持する、請求項1から請求項9までのいずれか一項に記載の方法。
  11. 前記輪郭画像を生成する前に、前記ソース画像における前記人体の少なくとも一部を分離するステップをさらに含む、請求項1から請求項10までのいずれか一項に記載の方法。
  12. 請求項1から請求項11までのいずれか一項に記載の方法を実行するためのコンピューター実行可能な命令を含むコンピューター読み取り可能なデータ記憶媒体。
  13. 請求項1から請求項11までのいずれか一項に記載の方法を実行するようにプログラムされたコンピューター・システム。
  14. 前記ソース画像を取り込むための撮像装置を備える、請求項13に記載のコンピューター・システム。
  15. 前記撮像装置は、前記深度をも取り込むための3次元撮像装置である、請求項14に記載のコンピューター・システム。

JP2012546438A 2009-12-28 2010-12-28 頭部認識方法 Active JP5514918B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP20090180783 EP2339507B1 (en) 2009-12-28 2009-12-28 Head detection and localisation method
EP09180783.4 2009-12-28
PCT/EP2010/070817 WO2011080280A1 (en) 2009-12-28 2010-12-28 Head recognition method

Publications (2)

Publication Number Publication Date
JP2013516013A true JP2013516013A (ja) 2013-05-09
JP5514918B2 JP5514918B2 (ja) 2014-06-04

Family

ID=42199070

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012546438A Active JP5514918B2 (ja) 2009-12-28 2010-12-28 頭部認識方法

Country Status (13)

Country Link
US (1) US9081999B2 (ja)
EP (1) EP2339507B1 (ja)
JP (1) JP5514918B2 (ja)
KR (1) KR101362631B1 (ja)
CN (1) CN102812474B (ja)
AU (1) AU2010338283B2 (ja)
BR (1) BR112012015986A2 (ja)
CA (1) CA2784554C (ja)
MX (1) MX2012007593A (ja)
SG (1) SG181597A1 (ja)
TW (1) TW201142719A (ja)
WO (1) WO2011080280A1 (ja)
ZA (1) ZA201204263B (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9001190B2 (en) * 2011-07-05 2015-04-07 Microsoft Technology Licensing, Llc Computer vision system and method using a depth sensor
TWI496090B (zh) * 2012-09-05 2015-08-11 Ind Tech Res Inst 使用深度影像的物件定位方法與裝置
CN103336948A (zh) * 2013-06-24 2013-10-02 深圳锐取信息技术股份有限公司 一种基于人脸识别的视频跟踪方法
KR101501487B1 (ko) * 2013-07-18 2015-03-12 전자부품연구원 깊이 영상 기반 머리 검출방법 및 장치
KR102106135B1 (ko) * 2013-10-01 2020-05-04 한국전자통신연구원 행동 인식 기반의 응용 서비스 제공 장치 및 그 방법
TWI510953B (zh) * 2013-12-20 2015-12-01 Wistron Corp 身份驗證防僞方法與應用此方法的身份驗證裝置
US10140533B1 (en) 2015-01-13 2018-11-27 State Farm Mutual Automobile Insurance Company Apparatuses, systems and methods for generating data representative of vehicle occupant postures
JP6481537B2 (ja) * 2015-07-14 2019-03-13 コニカミノルタ株式会社 被監視者監視装置および被監視者監視方法
US20170255821A1 (en) * 2016-03-02 2017-09-07 National Taiwan University Gesture recognition system and related method
US11321951B1 (en) 2017-01-19 2022-05-03 State Farm Mutual Automobile Insurance Company Apparatuses, systems and methods for integrating vehicle operator gesture detection within geographic maps
CN107093182B (zh) * 2017-03-23 2019-10-11 东南大学 一种基于特征拐点的人体高度估计方法
US10431000B2 (en) * 2017-07-18 2019-10-01 Sony Corporation Robust mesh tracking and fusion by using part-based key frames and priori model
CN107631691A (zh) * 2017-09-13 2018-01-26 南京云计趟信息技术有限公司 一种基于tof技术的车载货物体积计算方法
CN109859158A (zh) * 2018-11-27 2019-06-07 邦鼓思电子科技(上海)有限公司 一种基于视觉的工作区域边界的检测系统、方法及机器设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003028635A (ja) * 2001-07-16 2003-01-29 Honda Motor Co Ltd 画像測距装置
JP2004295776A (ja) * 2003-03-28 2004-10-21 Minolta Co Ltd 画像認識装置および画像認識プログラム
JP2006318350A (ja) * 2005-05-16 2006-11-24 Sony Corp 物体追跡方法、物体追跡方法のプログラム、物体追跡方法のプログラムを記録した記録媒体及び物体追跡装置
JP2007164720A (ja) * 2005-12-16 2007-06-28 Internatl Business Mach Corp <Ibm> 頭部検出装置、頭部検出方法および頭部検出プログラム
JP2007213353A (ja) * 2006-02-09 2007-08-23 Honda Motor Co Ltd 三次元物体を検出する装置
JP2009510571A (ja) * 2005-09-30 2009-03-12 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 図形画像内の楕円の形状および/または位置に関する情報を決定するための装置、方法およびコンピュータプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09138471A (ja) * 1995-09-13 1997-05-27 Fuji Photo Film Co Ltd 特定形状領域の抽出方法、特定領域の抽出方法及び複写条件決定方法
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US20030169906A1 (en) * 2002-02-26 2003-09-11 Gokturk Salih Burak Method and apparatus for recognizing objects
US7203356B2 (en) * 2002-04-11 2007-04-10 Canesta, Inc. Subject segmentation and tracking using 3D sensing technology for video compression in multimedia applications
US7379559B2 (en) * 2003-05-28 2008-05-27 Trw Automotive U.S. Llc Method and apparatus for determining an occupant's head location in an actuatable occupant restraining system
US7372977B2 (en) * 2003-05-29 2008-05-13 Honda Motor Co., Ltd. Visual tracking using depth data
JP4546956B2 (ja) * 2003-06-12 2010-09-22 本田技研工業株式会社 奥行き検出を用いた対象の向きの推定
US20050196015A1 (en) * 2004-03-02 2005-09-08 Trw Automotive U.S. Llc Method and apparatus for tracking head candidate locations in an actuatable occupant restraining system
CN101120379B (zh) * 2005-02-17 2010-12-08 富士通株式会社 图像处理方法和图像处理系统
US20070127787A1 (en) * 2005-10-24 2007-06-07 Castleman Kenneth R Face recognition system and method
CA2717154A1 (en) 2007-03-13 2008-09-18 Advanced Liquid Logic, Inc. Droplet actuator devices, configurations, and methods for improving absorbance detection
DE102007018802B3 (de) 2007-04-20 2008-08-28 Universität Tübingen Abhör- und manipulationssichere Verschlüsselung für Online-Accounts
KR101184170B1 (ko) 2007-04-20 2012-09-19 소프트키네틱 에스.에이. 볼륨 인식 방법 및 시스템
JP5227888B2 (ja) * 2009-05-21 2013-07-03 富士フイルム株式会社 人物追跡方法、人物追跡装置および人物追跡プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003028635A (ja) * 2001-07-16 2003-01-29 Honda Motor Co Ltd 画像測距装置
JP2004295776A (ja) * 2003-03-28 2004-10-21 Minolta Co Ltd 画像認識装置および画像認識プログラム
JP2006318350A (ja) * 2005-05-16 2006-11-24 Sony Corp 物体追跡方法、物体追跡方法のプログラム、物体追跡方法のプログラムを記録した記録媒体及び物体追跡装置
JP2009510571A (ja) * 2005-09-30 2009-03-12 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 図形画像内の楕円の形状および/または位置に関する情報を決定するための装置、方法およびコンピュータプログラム
JP2007164720A (ja) * 2005-12-16 2007-06-28 Internatl Business Mach Corp <Ibm> 頭部検出装置、頭部検出方法および頭部検出プログラム
JP2007213353A (ja) * 2006-02-09 2007-08-23 Honda Motor Co Ltd 三次元物体を検出する装置

Also Published As

Publication number Publication date
KR101362631B1 (ko) 2014-02-12
JP5514918B2 (ja) 2014-06-04
CA2784554A1 (en) 2011-07-07
BR112012015986A2 (pt) 2016-04-19
US9081999B2 (en) 2015-07-14
EP2339507B1 (en) 2013-07-17
AU2010338283A1 (en) 2012-07-26
AU2010338283B2 (en) 2013-11-21
CA2784554C (en) 2015-02-10
AU2010338283A2 (en) 2012-08-09
KR20120130090A (ko) 2012-11-28
WO2011080280A1 (en) 2011-07-07
TW201142719A (en) 2011-12-01
EP2339507A1 (en) 2011-06-29
SG181597A1 (en) 2012-07-30
US20130022262A1 (en) 2013-01-24
ZA201204263B (en) 2013-09-25
MX2012007593A (es) 2012-11-29
CN102812474A (zh) 2012-12-05
CN102812474B (zh) 2015-06-17

Similar Documents

Publication Publication Date Title
JP5514918B2 (ja) 頭部認識方法
Hasan et al. RETRACTED ARTICLE: Static hand gesture recognition using neural networks
JP6202157B2 (ja) 手振り識別方法と装置
Kuznetsova et al. Real-time sign language recognition using a consumer depth camera
US9330307B2 (en) Learning based estimation of hand and finger pose
Shao et al. Computer vision and machine learning with RGB-D sensors
Cohen et al. Inference of human postures by classification of 3D human body shape
CN110675487B (zh) 基于多角度二维人脸的三维人脸建模、识别方法及装置
JP5024067B2 (ja) 顔認証システム、方法及びプログラム
US8879847B2 (en) Image processing device, method of controlling image processing device, and program for enabling computer to execute same method
Orozco et al. Empirical analysis of cascade deformable models for multi-view face detection
WO2012101962A1 (ja) 姿勢状態推定装置および姿勢状態推定方法
JPWO2012046392A1 (ja) 姿勢推定装置及び姿勢推定方法
JP5800175B2 (ja) 画像処理装置、画像処理方法、プログラム、及び電子機器
JP6320016B2 (ja) 対象物検出装置、対象物検出方法およびプログラム
CN111008935A (zh) 一种人脸图像增强方法、装置、系统及存储介质
WO2019228471A1 (zh) 指纹识别方法、设备及计算机可读存储介质
CN116664620A (zh) 一种基于追踪系统的画面动态捕捉方法及相关装置
Lopes et al. Spherical blurred shape model for 3-D object and pose recognition: Quantitative analysis and HCI applications in smart environments
Juang et al. Stereo-camera-based object detection using fuzzy color histograms and a fuzzy classifier with depth and shape estimations
López-Fernández et al. independent gait recognition through morphological descriptions of 3D human reconstructions
Bui et al. A texture-based local soft voting method for vanishing point detection from a single road image
Solbach et al. Blocks world revisited: The effect of self-occlusion on classification by convolutional neural networks
Hadi et al. Improved occlusion handling for human detection from mobile robot
Hegazy et al. Generic 3D object recognition from time-of-flight images using boosted combined shape features

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130816

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20131118

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20131125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140331

R150 Certificate of patent or registration of utility model

Ref document number: 5514918

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250