JP6815707B2 - 顔姿勢検出方法、装置及び記憶媒体 - Google Patents

顔姿勢検出方法、装置及び記憶媒体 Download PDF

Info

Publication number
JP6815707B2
JP6815707B2 JP2019556821A JP2019556821A JP6815707B2 JP 6815707 B2 JP6815707 B2 JP 6815707B2 JP 2019556821 A JP2019556821 A JP 2019556821A JP 2019556821 A JP2019556821 A JP 2019556821A JP 6815707 B2 JP6815707 B2 JP 6815707B2
Authority
JP
Japan
Prior art keywords
feature point
face
angle
distance
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019556821A
Other languages
English (en)
Other versions
JP2020518051A (ja
Inventor
林 陳
林 陳
国輝 張
国輝 張
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Publication of JP2020518051A publication Critical patent/JP2020518051A/ja
Application granted granted Critical
Publication of JP6815707B2 publication Critical patent/JP6815707B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本願は、2017年8月17日に出願された出願番号201710707941.2の「顔姿勢検出方法、装置及び記憶媒体」という中国特許願を基に、優先権を主張する。
本願は、コンピュータ視覚処理技術の分野に関し、特に顔姿勢検出方法、装置及び記憶媒体に関する。
コンピュータ視覚処理技術は、1960年代初頭に始まり、検出、追跡、認識など様々な研究方向が含まれている。コンピュータとネットワーク技術の急速な発展に伴い、コンピュータ視覚処理技術は工業検査、セキュリティ監視、臨床診断・治療、交通、娯楽、軍事などの多くの重要な分野で広く使用されている。ここで、コンピュータによる顔姿勢検出技術は、運転支援、マンマシンインタラクションなどのスマートシステムに使用されることができ、幅広い応用の将来性を有する。
従来の顔姿勢検出システムは、深層学習を用いて異なる姿勢の顔サンプルデータを直接トレーニングしてから、トレーニングされたモデルを使用して顔姿勢を判断するものが多いが、このような検出方法は、大量のサンプルを必要とし、精度が悪く、且つトレーニング済みの姿勢しか検出できず、顔姿勢全部を検出することができない。
本願は、顔姿勢検出方法、装置及び記憶媒体を提供し、人間の顔のキー特徴点の座標値に基づいて顔姿勢情報を計算することにより、顔姿勢検出の速度と精度を向上させ、任意の角度の顔姿勢検出を実現することを目的とする。
上記の目的を実現するために、本願は、顔姿勢検出方法を提供し、当該方法は、
顔検出アルゴリズムにより顔画像からN個の顔特徴点を抽出する顔特徴点抽出ステップと、
前記N個の顔特徴点から、顔部輪郭特徴点として、右耳の上方に近い第1特徴点と、右耳の下方に近い第2特徴点と、左耳の下方に近い第3特徴点と、左耳の上方に近い第4特徴点とを抽出し、且つ第5特徴点として鼻先特徴点を抽出するキー特徴点抽出ステップと、
前記第5特徴点と第1特徴点で第1ベクトルを形成し、第5特徴点と第4特徴点で第2ベクトルを形成し、第1ベクトルと第2ベクトルとの第1夾角を計算し、第1夾角と初期夾角の変化に基づいて、前記顔画像内で顔がX軸を中心に回転した角度を判断する第1計算ステップと、
前記第1特徴点と第4特徴点で第3ベクトルを形成し、第4特徴点からX軸に平行な直線L1を1本引き、第3ベクトルと直線L1との第2夾角を計算し、当該第2夾角に基づいて、前記顔画像内で顔がY軸を中心に回転した角度を判断する第2計算ステップと、
前記第2特徴点と第5特徴点との間の距離を第1距離と記録し、第3特徴点と第5特徴点との間の距離を第2距離と記録し、第1距離と第2距離との比率を計算し、第1距離と第2距離との比率に基づいて、前記顔画像内で顔がZ軸を中心に回転した方向を判断する第3計算ステップと、を含む。
上記の目的を実現するために、本願は、計算装置をさらに提供し、当該装置は、撮像装置、メモリ及びプロセッサを含み、前記メモリは顔姿勢検出プログラムを含み、前記顔姿勢検出プログラムが前記プロセッサにより実行されるときに実施されるステップは、
顔検出アルゴリズムにより顔画像からN個の顔特徴点を抽出する顔特徴点抽出ステップと、
前記N個の顔特徴点から、顔部輪郭特徴点として、右耳の上方に近い第1特徴点と、右耳の下方に近い第2特徴点と、左耳の下方に近い第3特徴点と、左耳の上方に近い第4特徴点とを抽出し、且つ第5特徴点として鼻先特徴点を抽出するキー特徴点抽出ステップと、
前記第5特徴点と第1特徴点で第1ベクトルを形成し、第5特徴点と第4特徴点で第2ベクトルを形成し、第1ベクトルと第2ベクトルとの第1夾角を計算し、第1夾角と初期夾角の変化に基づいて、前記顔画像内で顔がX軸を中心に回転した角度を判断する第1計算ステップと、
前記第1特徴点と第4特徴点で第3ベクトルを形成し、第4特徴点からX軸に平行な直線L1を1本引き、第3ベクトルと直線L1との第2夾角を計算し、当該第2夾角に基づいて、前記顔画像内で顔がY軸を中心に回転した角度を判断する第2計算ステップと、
前記第2特徴点と第5特徴点との間の距離を第1距離と記録し、第3特徴点と第5特徴点との間の距離を第2距離と記録し、第1距離と第2距離との比率を計算し、第1距離と第2距離との比率に基づいて、前記顔画像内で顔がZ軸を中心に回転した方向を判断する第3計算ステップとである。
また、上記の目的を実現するために、本願は、顔姿勢検出プログラムを含むコンピュータ読み取り可能な記憶媒体をさらに提供する。前記顔姿勢検出プログラムが前記プロセッサにより執行されるとき、上記のような顔姿勢検出方法における任意のステップを実現する。
本願にかかる顔姿勢検出方法、装置及びコンピュータ読み取り可能な記憶媒体は、人間の顔のキー特徴点を抽出して、前記キー特徴点の座標値に基づいて顔の回転角度などの姿勢情報を計算することにより、顔姿勢検出の速度と精度を向上させ、任意の角度の顔姿勢検出を実現する。
本願の計算装置の好ましい実施例の動作環境を示す模式図である。 図1における顔姿勢検出プログラムの機能モジュール図である。 図2における抽出モジュールが抽出した顔特徴点を示す模式図である。 本願の顔姿勢検出方法の好ましい実施例のフローチャートである。 図4におけるステップS30に関する特徴点、ベクトル及び夾角を示す模式図である。 図4におけるステップS40に関する特徴点、ベクトル、直線及び夾角を示す模式図である。 図4におけるステップS50に関する特徴点と特徴点との間の距離を示す模式図である。 本願の目的の実現、機能特徴、及びメリットについては、実施例を合わせて、添付図面を参照しながらさらに説明する。
本明細書に記載される具体的な実施例は、本願を説明するためのものにすぎず、それを限定することを意図するものではないことは理解されたい。
図1は、本願の計算装置1の好ましい実施例の動作環境を示す模式図である。
計算装置1は、サーバ、スマートフォン、タブレットコンピュータ、ポータブルコンピュータ、デスクトップコンピュータなどのコンピューティング機能を有する端末機器であってもよい。
図1に示すように、計算装置1は、撮像装置11、メモリ12、プロセッサ13、ネットワークインタフェース14及び通信バス15を含む。ここで、撮像装置11は、オフィス、監視エリア及びスマートカーの運転室などの特定の場所に設置され、当該特定の場所に入ったターゲットをリアルタイムに撮像してリアルタイム画像を取得し、ネットワークを介して撮像したリアルタイム画像をプロセッサ13に伝送する。ネットワークインタフェース14は、必要に応じて標準有線インタフェース、無線インタフェース(例えば、WI−FIインタフェース)を含んでもよい。通信バス15は、これらの部材間の接続通信を実現するために用いられる。
メモリ12は、少なくとも1種類の読み取り可能な記憶媒体を含む。前記少なくとも1種類の読み取り可能な記憶媒体は、例えばフラッシュメモリ、ハードディスク、マルチメディアカード、カード型メモリなどの不揮発性記憶媒体であってもよい。一部の実施例において、前記読み取り可能な記憶媒体は、計算装置1の内部記憶ユニット、例えば計算装置1のハードディスクであってもよい。別の実施例において、前記読み取り可能な記憶媒体は、計算装置1の外付けメモリ、例えば計算装置1に搭載したプラグインハードディスク、スマートメモリカード(Smart Media(登録商標) Card、SMC)、セキュアデジタル(Secure Digital、SD)カード、フラッシュメモリカード(Flash Card)などであってもよい。
本実施例において、メモリ12の読み取り可能な記憶媒体は、一般的に計算装置1にインストールされた顔姿勢検出プログラム10、撮像装置11により取得されたリアルタイム画像、顔画像及び初期データなどを格納するために用いられる。メモリ12は、さらに出力済み又は出力しようとするデータを一時的に格納するために用いられる。
プロセッサ13は、一部の実施例において中央処理装置(Central Processing Unit、CPU)、マイクロプロセッサ又は他のデータ処理チップであってもよく、メモリ12に格納されているプログラムコード又は処理データを動作させるために用いられ、例えば、顔姿勢検出プログラム10を執行するなど。
図1では、部材11〜15及び顔姿勢検出プログラム10を有する計算装置1のみを示したが、示された部材すべてを実装する必要がなく、より多い又はより少ない部材を代わりに実装することもできる。
必要に応じて、計算装置1は、ユーザーインタフェースを含み、ユーザーインタフェースは、キーボード(Keyboard)などの入力ユニットと、マイクロフォン(microphone)など音声認識機能を有する機器などの音声入力装置と、オーディオ、ヘッドフォンなどの音声出力装置とを含んでもよく、必要に応じて、ユーザーインタフェースは、標準有線インタフェース、無線インタフェースをさらに含んでもよい。
必要に応じて、計算装置1は、ディスプレイをさらに含んでもよく、ディスプレイはディスプレイスクリーン又はディスプレイユニットと適当に呼んでもよい。一部の実施例において、LEDディスプレイ、液晶ディスプレイ、タッチ型液晶ディスプレイ及びOLED(Organic Light−Emitting Diode、有機発光ダイオード)タッチデバイスなどであってもよい。ディスプレイは、計算装置1で処理された情報及び視覚化されたユーザーインタフェースを表示するために用いられる。
必要に応じて、計算装置1は、タッチセンサをさらに含む。前記タッチセンサにより提供されるユーザーのタッチ操作のための領域をタッチコントロール領域と呼ぶ。また、ここで前記タッチセンサは抵抗式タッチセンサ、静電容量式タッチセンサなどであってもよい。なお、前記タッチセンサは接触式タッチセンサを含むだけでなく、近接式タッチセンサなどを含んでもよい。また、前記タッチセンサは、個別のセンサであってもよく、アレイ状に配置された複数のセンサであってもよい。
また、計算装置1のディスプレイの面積は、前記タッチセンサの面積と同じであっても、異なっていてもよい。必要に応じて、ディスプレイと前記タッチセンサとを積層して設置することにより、タッチ型ディスプレイスクリーンを形成する。当該計算装置は、タッチ型ディスプレイスクリーンに基づいて、ユーザーによりトリガーされるタッチ操作を検出する。
必要に応じて、計算装置1は、RF(Radio Frequency、無線周波数)回路、センサ、オーディオ回路などをさらに含んでもよく、ここでは詳細な説明を省略する。
コンピュータ読み取り可能な記憶媒体としてのメモリ12は、操作システム、顔姿勢検出プログラム10、撮像装置11で取得したリアルタイム画像及び顔画像などのデータを含んでもよい。プロセッサ13がメモリ12に格納されている顔姿勢検出プログラム10を執行するときのステップは以下のとおりである。
顔特徴点抽出ステップ:顔検出アルゴリズムにより顔画像からN個の顔特徴点を抽出する。図3に示すように、dlib顔特徴点検出アルゴリズムを適用するとき、顔画像から顔特徴点P1−P68(N=68)を抽出できる。
キー特徴点抽出ステップ:前記N個の顔特徴点から、顔部輪郭特徴点として、右耳の上方に近い第1特徴点P1と、右耳の下方に近い第2特徴点P3と、左耳の下方に近い第3特徴点P15と、左耳の上方に近い第4特徴点P17とを抽出し、且つ第5特徴点P31として鼻先特徴点を抽出する。
第1計算ステップ:前記第5特徴点P31と第1特徴点P1で第1ベクトルを形成し、第5特徴点P31と第4特徴点P17で第2ベクトルを形成し(図5参照)、第1ベクトルと第2ベクトルとの第1夾角を計算し、第1夾角と初期夾角の変化に基づいて、前記顔画像内で顔がX軸を中心に回転した角度を判断する。
第2計算ステップ:前記第1特徴点P1と第4特徴点P17で第3ベクトルを形成し、第4特徴点P17からX軸に平行な直線L1を1本引き(図6参照)、第3ベクトルと直線L1との第2夾角を計算し、当該第2夾角に基づいて、前記顔画像内で顔がY軸を中心に回転した角度を判断する。
第3計算ステップ:前記第2特徴点P3と第5特徴点P31との間の距離を第1距離と記録し、第3特徴点P15と第5特徴点P31との間の距離を第2距離と記録し(図7参照)、第1距離と第2距離との比率を計算し、第1距離と第2距離との比率に基づいて、前記顔画像内で顔がZ軸を中心に回転した方向を判断する。
ここで、前記第1計算ステップは、
顔が初期位置にあるときの前記第1ベクトルと第2ベクトルとの初期夾角を計算し、必要に応じて、当該初期夾角が120°である場合、
前記第1夾角が120°より大きいとき、前記顔画像内で顔がX軸を中心に上向きに回転し、回転角度が第1夾角と初期夾角との差であることを表すことと、
前記第1夾角が120°より小さいとき、前記顔画像内で顔がX軸を中心に下向きに回転し、回転角度が初期夾角と第1夾角との差であることを表すことと、
前記第1夾角が120°であるとき、前記顔画像内で顔がX軸に対して初期位置に位置し、すなわち頭を上げないか又は下げないことを表すこととを含む。
前記第2計算ステップは、
前記第2夾角が0°であるとき、前記顔画像内で顔がY軸に対して初期位置に位置し、すなわち顔が左又は右に傾いていないことを表すことと、
前記第2夾角が0°でなく、且つ前記第1特徴点が前記直線L1の上方にあるとき、前記顔画像内で顔がY軸を中心に左へ回転し、回転角度が第2夾角の角度値であることを表すことと、
前記第2夾角が0°でなく、且つ前記第1特徴点が前記直線L1の下方にあるとき、前記顔画像内で顔がY軸を中心に右へ回転し、回転角度が第2夾角の角度値であることを表すこととを含む。
前記第3計算ステップは、
前記第1距離と第2距離との比率が1であるとき、前記顔画像内で顔がZ軸に対して初期位置に位置し、すなわち頭が左又は右に回転していないことを表すことと、
前記第1距離と第2距離との比率が1より大きいとき、前記顔画像内で顔がZ軸を中心に左へ回転することを表すことと、
前記第1距離と第2距離との比率が1より小さいとき、前記顔画像内で顔がZ軸を中心に右へ回転することを表すこととを含む。
本実施例において、前記顔検出アルゴリズムはdlib顔特徴点検出アルゴリズムである。図3に示すように、dlib顔特徴点検出アルゴリズムを用いて顔画像から、顔部輪郭特徴点17個と、眉特徴点10個と、鼻先特徴点を含む鼻翼特徴点4個と、及び他の鼻孔、目、唇特徴点37個とを含む68個の特徴点を抽出する。前記顔部輪郭特徴点において、右耳の上方に近い第1特徴点は左耳の上方に近い第4特徴点と対称であり、右耳の下方に近い第2特徴点は左耳の下方に近い第3特徴点と対称である。
前記X、Y、Z座標軸とは、顔を円柱とみなし、円柱の中心軸を顔データの座標の垂直軸Z軸とし、鼻先特徴点を通り且つ円柱中心軸と直交する直線をY軸とし、Z軸とY軸との交差方向をX軸とすると定義される。
他の実施例において、顔姿勢検出プログラム10は、さらに1つ又は複数のモジュールに分割することができ、当該1つ又は複数のモジュールは、メモリ12に格納され且つプロセッサ13に執行されることにより、本願を実現する。本願でのモジュールとは、特定の機能を実行できる一連のコンピュータプログラム命令セグメントである。
図2は、図1における顔姿勢検出プログラム10の機能モジュール図である。
顔姿勢検出プログラム10は、取得モジュール110、抽出モジュール120、及び計算モジュール130に分割されることができる。
取得モジュール110は、撮像装置11が撮像したリアルタイム画像を取得し、顔認識アルゴリズムを用いて当該リアルタイム画像から1枚のリアルタイム顔部画像を抽出するために用いられる。撮像装置11が1枚のリアルタイム画像を撮像したとき、撮像装置11はこのリアルタイム画像をプロセッサ13に送信し、プロセッサ13が当該リアルタイム画像を受信した後、取得モジュール110は顔認識アルゴリズムを用いてリアルタイムの顔部画像を抽出する。
具体的には、当該リアルタイム画像からリアルタイム顔部画像を抽出する顔認識アルゴリズムは、幾何学的特徴ベースの方法、局所特徴分析方法、固有顔方法、弾性モデルベースの方法、ニューラルネットワーク方法などにすることができる。
抽出モジュール120は、当該リアルタイム顔部画像の顔特徴点とキー特徴点を抽出するために用いられる。
例えば、図3に示すように、抽出モジュール120は、dlib顔特徴点検出アルゴリズムによりリアルタイム顔部画像から68個の顔特徴点P1−P68を抽出する。さらに、前記68個の顔特徴点から、右耳の上方に近い第1特徴点P1、右耳の下方に近い第2特徴点P3、左耳の下方に近い第3特徴点P15、左耳の上方に近い第4特徴点P17、鼻先の第5特徴点P31という5個のキー特徴点を抽出する。
計算モジュール130は、当該リアルタイム顔画像内の5個のキー特徴点の座標値に基づいて、当該リアルタイム顔画像内での顔の回転方向及び角度を計算する。
具体的には、計算モジュール130は、
前記第5特徴点と第1特徴点で形成した第1ベクトルと、第5特徴点と第4特徴点で形成した第2ベクトルとの第1夾角を計算し、第1夾角と初期夾角の変化に基づいて、前記顔画像内で顔がX軸を中心に回転した角度を判断することと、
前記第1特徴点と第4特徴点で形成した第3ベクトルと、第4特徴点から引いたX軸に平行な直線L1との第2夾角を計算し、それにより前記顔画像内で顔がY軸を中心に回転した角度を判断することと、
前記第2特徴点と第5特徴点との間の第1距離と、第3特徴点と第5特徴点との間の第2距離との比率を計算し、それにより前記顔画像内で顔がZ軸を中心に回転した方向を判断することとのために用いられる。
本実施例に係る計算装置1は、リアルタイム画像からリアルタイム顔部画像を抽出し、dlib顔特徴点検出アルゴリズムを用いて当該リアルタイム顔部画像内の顔特徴点を抽出し、続いてキー特徴点を抽出してから、キー特徴点の座標値に基づいて顔画像内での顔の回転方向及び角度を計算することにより、顔姿勢のリアルタイム検出を実現する。
また、本願は顔姿勢検出方法をさらに提供する。図4は、本願の顔姿勢検出方法の好ましい実施例のフローチャートである。当該方法は、1つの計算装置により執行されることができ、当該計算装置はソフトウェア及び/又はハードウェアにより実現できる。
本実施例において、顔姿勢検出方法は、ステップS10〜ステップS50を含む。
ステップS10、抽出モジュール120は、顔検出アルゴリズムにより顔画像からN個の顔特徴点を抽出する。撮像装置11は、1枚のリアルタイム画像を撮像して、当該リアルタイム画像をプロセッサ13に送信し、プロセッサ13は当該リアルタイム画像を受信した後、顔認識アルゴリズムを用いてリアルタイムの顔部画像を抽出し、続いて顔検出アルゴリズムによりN個の顔特徴点を取得する。必要に応じて、当該リアルタイム画像からリアルタイムの顔部画像を抽出する顔認識アルゴリズムは、幾何学的特徴ベースの方法、局所特徴分析方法、固有顔方法、弾性モデルベースの方法、ニューラルネットワーク方法などにすることができる。好ましくは、当該顔画像から顔特徴点を抽出する顔検出アルゴリズムはdlib顔特徴点検出アルゴリズムである。
ステップS20、抽出モジュール120は、顔画像特徴点のうちのキー特徴点を抽出する。抽出モジュール120は、右耳の上方に近い第1特徴点P1と、右耳の下方に近い第2特徴点P3と、左耳の下方に近い第3特徴点P15と、左耳の上方に近い第4特徴点P17とをさらに抽出し、また第5特徴点P31として鼻先特徴点を抽出する。
ステップS30、計算モジュール130は、前記顔画像内で顔がX軸を中心に回転した角度を計算する。図5に示すように、前記第5特徴点P31と第1特徴点P1で第1ベクトルを形成し、第5特徴点P31と第4特徴点P17で第2ベクトルを形成し、第1ベクトルと第2ベクトルとの第1夾角を計算し、第1夾角と初期夾角の変化に基づいて、前記顔画像内で顔がX軸を中心に回転した角度を判断する。
ステップS40、計算モジュール130は、前記顔画像内で顔がY軸を中心に回転した角度を計算する。図6に示すように、前記第1特徴点P1と第4特徴点P17で第3ベクトルを形成し、第4特徴点P17からX軸に平行な直線L1を1本引き、第3ベクトルと直線L1との第2夾角を計算し、当該第2夾角に基づいて、前記顔画像内で顔がY軸を中心に回転した角度を判断する。
ステップS50、計算モジュール130は、前記顔画像内で顔がZ軸を中心に回転した方向を計算する。図7に示すように、前記第2特徴点P3と第5特徴点P31との間の距離を第1距離と記録し、第3特徴点P15と第5特徴点P31との間の距離を第2距離と記録し、第1距離と第2距離との比率を計算し、第1距離と第2距離との比率に基づいて顔がZ軸を中心に回転した方向を判断する。
本実施例に係る顔姿勢検出方法は、dlib顔特徴点検出アルゴリズム用いて当該リアルタイム顔部画像内の顔特徴点を取得し、続いてキー特徴点を抽出し、キー特徴点の座標値に基づいて当該リアルタイム顔部画像内での顔の回転方向及び角度を計算することにより、顔姿勢のリアルタイム検出を実現する。
また、本願の実施例は、コンピュータ読み取り可能な記憶媒体をさらに提供し、前記コンピュータ読み取り可能な記憶媒体は顔姿勢検出プログラムを含み、前記顔姿勢検出プログラムが前記プロセッサにより執行されるときに実施される操作は、
顔検出アルゴリズムにより顔画像からN個の顔特徴点を抽出し、図3に示すように、dlib顔特徴点検出アルゴリズムを適用するとき、顔画像から顔特徴点P1−P68(N=68)を抽出できる顔特徴点抽出ステップと、
前記N個の顔特徴点から、顔部輪郭特徴点として、右耳の上方に近い第1特徴点P1と、右耳の下方に近い第2特徴点P3と、左耳の下方に近い第3特徴点P15と、左耳の上方に近い第4特徴点P17とを抽出し、また第5特徴点P31として鼻先特徴点を抽出するキー特徴点抽出ステップと、
前記第5特徴点P31と第1特徴点P1で第1ベクトルを形成し、第5特徴点P31と第4特徴点P17で第2ベクトルを形成し(図5参照)、第1ベクトルと第2ベクトルとの第1夾角を計算し、第1夾角と初期夾角の変化に基づいて、前記顔画像内で顔がX軸を中心に回転した角度を判断する第1計算ステップと、
前記第1特徴点P1と第4特徴点P17で第3ベクトルを形成し、第4特徴点P17からX軸に平行な直線L1を1本引き(図6参照)、第3ベクトルと直線L1との第2夾角を計算し、当該第2夾角に基づいて、前記顔画像内で顔がY軸を中心に回転した角度を判断する第2計算ステップと、
前記第2特徴点P3と第5特徴点P31との間の距離を第1距離と記録し、第3特徴点P15と第5特徴点P31との間の距離を第2距離と記録し(図7参照)、第1距離と第2距離との比率を計算し、第1距離と第2距離との比率に基づいて、前記顔画像内で顔がZ軸を中心に回転した方向を判断する第3計算ステップとである。
ここで、前記第1計算ステップは、
顔が初期位置にあるときの前記第1ベクトルと第2ベクトルとの初期夾角を計算し、当該初期夾角が120°である場合、
前記第1夾角が120°より大きいとき、前記顔画像内で顔がX軸を中心に上向きに回転し、回転角度が第1夾角と初期夾角との差であることを表すことと、
前記第1夾角が120°より小さいとき、前記顔画像内で顔がX軸を中心に下向きに回転し、回転角度が初期夾角と第1夾角との差であることを表すことと、
前記第1夾角が120°であるとき、前記顔画像内で顔がX軸に対して初期位置に位置し、すなわち頭を上げないか又は下げないことを表すこととを含む。
前記第2計算ステップは、
前記第2夾角が0°であるとき、前記顔画像内で顔がY軸に対して初期位置に位置し、すなわち顔が左又は右に傾いていないことを表すことと、
前記第2夾角が0°でなく、且つ前記第1特徴点が前記直線L1の上方にあるとき、前記顔画像内で顔がY軸を中心に左へ回転し、回転角度が第2夾角の角度値であることを表すことと、
前記第2夾角が0°でなく、且つ前記第1特徴点が前記直線L1の下方にあるとき、前記顔画像内で顔がY軸を中心に右へ回転し、回転角度が第2夾角の角度値であることを表すこととを含む。
前記第3計算ステップは、
前記第1距離と第2距離との比率が1であるとき、前記顔画像内で顔がZ軸に対して初期位置に位置し、すなわち頭が左又は右に回転していないことを表すことと、
前記第1距離と第2距離との比率が1より大きいとき、前記顔画像内で顔がZ軸を中心に左へ回転することを表すことと、
前記第1距離と第2距離との比率が1より小さいとき、前記顔画像内で顔がZ軸を中心に右へ回転することを表すこととを含む。
本願における顔姿勢検出コンピュータ読み取り可能な記憶媒体の具体的な実施形態は、上記の顔姿勢検出方法の具体的な実施形態とほぼ同じであるため、ここでは詳細な説明を省略する。
なお、本明細書において、用語「含む」、「包含」又はその任意の他の変形は、非排他的な包含を網羅することにより、一連の要素を含むプロセス、装置、物品、又は方法には、これらの要素を含む以外に、明確に記載していない他の要素をさらに含むか、又はこれらのプロセス、装置又は方法が固有の要素をさらに含む。さらなる制限がなければ、「1つの…を含む」という文句が限定する要素は、この要素を含むプロセス、装置又は方法に別の同じ要素が存在することを除外しない。
上記本願の実施例の番号は説明するためのものにすぎず、実施例の良否を表すものではない。上記の実施形態の説明を通じて、当業者は、ソフトウェアに加えて必要な一般ハードウェアプラットフォーム方式で上記実施例の方法を実現でき、もちろんハードウェアで実現することもできるが、前者のほうがよりよい実施形態である場合が多いことを明確に理解できる。そのような理解に基づいて、本願の技術的解決手段の本質又は既存技術に寄与する部分は、ソフトウェア製品の形で実現され、当該コンピュータソフトウェア製品は上記の記憶媒体(例えば、ROM/RAM、磁気ディスク、光ディスク)に格納され、端末機器(携帯電話、コンピュータ、サーバ、又はネットワーク機器などであり得る)に本願の各実施例に記載の方法を執行させるためのいくつかの命令を含む。
上記は、本願の好ましい実施例にすぎず、本願の特許出願の範囲を限定するものではない。本願の明細書及び添付図面によってなされる同等の構造又は同等のプロセス変換、又は他の関連技術分野に直接的又は間接的に適用されたものは、すべて本願の特許保護の範囲に含まれる。

Claims (15)

  1. 顔姿勢検出方法であって、
    顔検出アルゴリズムにより顔画像からN個の顔特徴点を抽出する顔特徴点抽出ステップと、
    前記N個の顔特徴点から、顔部輪郭特徴点として、右耳の上方に近い第1特徴点と、右耳の下方に近い第2特徴点と、左耳の下方に近い第3特徴点と、左耳の上方に近い第4特徴点とを抽出し、且つ第5特徴点として鼻先特徴点を抽出するキー特徴点抽出ステップと、
    前記第5特徴点と第1特徴点で第1ベクトルを形成し、第5特徴点と第4特徴点で第2ベクトルを形成し、第1ベクトルと第2ベクトルとの第1夾角を計算し、第1夾角と初期夾角の変化に基づいて、前記顔画像内で顔がX軸を中心に回転した角度を判断する第1計算ステップと、
    前記第1特徴点と第4特徴点で第3ベクトルを形成し、第4特徴点からX軸に平行な直線L1を1本引き、第3ベクトルと直線L1との第2夾角を計算し、当該第2夾角に基づいて、前記顔画像内で顔がY軸を中心に回転した角度を判断する第2計算ステップと、
    前記第2特徴点と第5特徴点との間の距離を第1距離と記録し、第3特徴点と第5特徴点との間の距離を第2距離と記録し、第1距離と第2距離との比率を計算し、第1距離と第2距離との比率に基づいて、前記顔画像内で顔がZ軸を中心に回転した方向を判断する第3計算ステップとを含む、ことを特徴とする顔姿勢検出方法。
  2. 前記顔部輪郭特徴点のうち、右耳の上方に近い第1特徴点は左耳の上方に近い第4特徴点と対称であり、右耳の下方に近い第2特徴点は左耳の下方に近い第3特徴点と対称である、ことを特徴とする請求項1に記載の顔姿勢検出方法。
  3. 前記第1計算ステップは、
    顔が初期位置にあるときの前記第1ベクトルと第2ベクトルとの初期夾角を計算することと、
    前記第1夾角が初期夾角より大きいとき、前記顔画像内で顔がX軸を中心に上向きに回転し、回転角度が第1夾角と初期夾角との差であることを表すことと、
    前記第1夾角が初期夾角より小さいとき、前記顔画像内で顔がX軸を中心に下向きに回転し、回転角度が初期夾角と第1夾角との差であることを表すことと、
    前記第1夾角が初期夾角であるとき、前記顔画像内で顔がX軸に対して初期位置に位置することを表すこととを含む、ことを特徴とする請求項1に記載の顔姿勢検出方法。
  4. 前記第2計算ステップは、
    前記第2夾角が0°であるとき、前記顔画像内で顔がY軸に対して初期位置に位置することを表すことと、
    前記第2夾角が0°でなく、且つ前記第1特徴点が前記直線L1の上方にあるとき、前記顔画像内で顔がY軸を中心に左へ回転し、回転角度が第2夾角の角度値であることを表すことと、
    前記第2夾角が0°でなく、且つ前記第1特徴点が前記直線L1の下方にあるとき、前記顔画像内で顔がY軸を中心に右へ回転し、回転角度が第2夾角の角度値であることを表すこととを含む、ことを特徴とする請求項1に記載の顔姿勢検出方法。
  5. 前記第3計算ステップは、
    前記第1距離と第2距離との比率が1であるとき、前記顔画像内で顔がZ軸に対して初期位置に位置することを表すことと、
    前記第1距離と第2距離との比率が1より大きいとき、前記顔画像内で顔がZ軸を中心に左へ回転することを表すことと、
    前記第1距離と第2距離との比率が1より小さいとき、前記顔画像内で顔がZ軸を中心に右へ回転することを表すこととを含む、ことを特徴とする請求項1に記載の顔姿勢検出方法。
  6. 撮像装置、メモリ、及びプロセッサを含む計算装置において、
    前記メモリは、顔姿勢検出プログラムを含み、前記顔姿勢検出プログラムが前記プロセッサに執行されるときに実施されるステップは、
    顔検出アルゴリズムにより顔画像からN個の顔特徴点を抽出する顔特徴点抽出ステップと、
    前記N個の顔特徴点から、顔部輪郭特徴点として、右耳の上方に近い第1特徴点と、右耳の下方に近い第2特徴点と、左耳の下方に近い第3特徴点と、左耳の上方に近い第4特徴点とを抽出し、且つ第5特徴点として鼻先特徴点を抽出するキー特徴点抽出ステップと、
    前記第5特徴点と第1特徴点で第1ベクトルを形成し、第5特徴点と第4特徴点で第2ベクトルを形成し、第1ベクトルと第2ベクトルとの第1夾角を計算し、第1夾角と初期夾角の変化に基づいて、前記顔画像内で顔がX軸を中心に回転した角度を判断する第1計算ステップと、
    前記第1特徴点と第4特徴点で第3ベクトルを形成し、第4特徴点からX軸に平行な直線L1を1本引き、第3ベクトルと直線L1との第2夾角を計算し、当該第2夾角に基づいて、前記顔画像内で顔がY軸を中心に回転した角度を判断する第2計算ステップと、
    前記第2特徴点と第5特徴点との間の距離を第1距離と記録し、第3特徴点と第5特徴点との間の距離を第2距離と記録し、第1距離と第2距離との比率を計算し、第1距離と第2距離との比率に基づいて、前記顔画像内で顔がZ軸を中心に回転した方向を判断する第3計算ステップとである、ことを特徴とする計算装置。
  7. 前記顔部輪郭特徴点のうち、右耳の上方に近い第1特徴点は左耳の上方に近い第4特徴点と対称であり、右耳の下方に近い第2特徴点は左耳の下方に近い第3特徴点と対称である、ことを特徴とする請求項に記載の計算装置。
  8. 前記第1計算ステップは、
    顔が初期位置にあるときの前記第1ベクトルと第2ベクトルとの初期夾角を計算することと、
    前記第1夾角が初期夾角より大きいとき、前記顔画像内で顔がX軸を中心に上向きに回転し、回転角度が第1夾角と初期夾角との差であることを表すことと、
    前記第1夾角が初期夾角より小さいとき、前記顔画像内で顔がX軸を中心に下向きに回転し、回転角度が初期夾角と第1夾角との差であることを表すことと、
    前記第1夾角が初期夾角であるとき、前記顔画像内で顔がX軸に対して初期位置に位置することを表すこととを含む、ことを特徴とする請求項に記載の計算装置。
  9. 前記第2計算ステップは、
    前記第2夾角が0°であるとき、前記顔画像内で顔がY軸に対して初期位置に位置することを表すことと、
    前記第2夾角が0°でなく、且つ前記第1特徴点が前記直線L1の上方にあるとき、前記顔画像内で顔がY軸を中心に左へ回転し、回転角度が第2夾角の角度値であることを表すことと、
    前記第2夾角が0°でなく、且つ前記第1特徴点が前記直線L1の下方にあるとき、前記顔画像内で顔がY軸を中心に右へ回転し、回転角度が第2夾角の角度値であることを表すこととを含む、ことを特徴とする請求項に記載の計算装置。
  10. 前記第3計算ステップは、
    前記第1距離と第2距離との比率が1であるとき、前記顔画像内で顔がZ軸に対して初期位置に位置することを表すことと、
    前記第1距離と第2距離との比率が1より大きいとき、前記顔画像内で顔がZ軸を中心に左へ回転することを表すことと、
    前記第1距離と第2距離との比率が1より小さいとき、前記顔画像内で顔がZ軸を中心に右へ回転することを表すこととを含む、ことを特徴とする請求項に記載の計算装置。
  11. コンピュータ読み取り可能な記憶媒体であって、
    顔姿勢検出プログラムを含み、前記顔姿勢検出プログラムが前記プロセッサにより執行されるとき、実施されるステップは、
    顔検出アルゴリズムにより顔画像からN個の顔特徴点を抽出する顔特徴点抽出ステップと、
    前記N個の顔特徴点から、顔部輪郭特徴点として、右耳の上方に近い第1特徴点と、右耳の下方に近い第2特徴点と、左耳の下方に近い第3特徴点と、左耳の上方に近い第4特徴点とを抽出し、且つ第5特徴点として鼻先特徴点を抽出するキー特徴点抽出ステップと、
    前記第5特徴点と第1特徴点で第1ベクトルを形成し、第5特徴点と第4特徴点で第2ベクトルを形成し、第1ベクトルと第2ベクトルとの第1夾角を計算し、第1夾角と初期夾角の変化に基づいて、前記顔画像内で顔がX軸を中心に回転した角度を判断する第1計算ステップと、
    前記第1特徴点と第4特徴点で第3ベクトルを形成し、第4特徴点からX軸に平行な直線L1を1本引き、第3ベクトルと直線L1との第2夾角を計算し、当該第2夾角に基づいて、前記顔画像内で顔がY軸を中心に回転した角度を判断する第2計算ステップと、
    前記第2特徴点と第5特徴点との間の距離を第1距離と記録し、第3特徴点と第5特徴点との間の距離を第2距離と記録し、第1距離と第2距離との比率を計算し、第1距離と第2距離との比率に基づいて、前記顔画像内で顔がZ軸を中心に回転した方向を判断する第3計算ステップとである、ことを特徴とするコンピュータ読み取り可能な記憶媒体。
  12. 前記顔部輪郭特徴点のうち、右耳の上方に近い第1特徴点は左耳の上方に近い第4特徴点と対称であり、右耳の下方に近い第2特徴点は左耳の下方に近い第3特徴点と対称である、ことを特徴とする請求項11に記載のコンピュータ読み取り可能な記憶媒体。
  13. 前記第1計算ステップは、
    顔が初期位置にあるときの前記第1ベクトルと第2ベクトルとの初期夾角を計算することと、
    前記第1夾角が初期夾角より大きいとき、前記顔画像内で顔がX軸を中心に上向きに回転し、回転角度が第1夾角と初期夾角との差であることを表すことと、
    前記第1夾角が初期夾角より小さいとき、前記顔画像内で顔がX軸を中心に下向きに回転し、回転角度が初期夾角と第1夾角との差であることを表すことと、
    前記第1夾角が初期夾角であるとき、前記顔画像内で顔がX軸に対して初期位置に位置することを表すこととを含む、ことを特徴とする請求項11に記載のコンピュータ読み取り可能な記憶媒体。
  14. 前記第2計算ステップは、
    前記第2夾角が0°であるとき、前記顔画像内で顔がY軸に対して初期位置に位置することを表すことと、
    前記第2夾角が0°でなく、且つ前記第1特徴点が前記直線L1の上方にあるとき、前記顔画像内で顔がY軸を中心に左へ回転し、回転角度が第2夾角の角度値であることを表すことと、
    前記第2夾角が0°でなく、且つ前記第1特徴点が前記直線L1の下方にあるとき、前記顔画像内で顔がY軸を中心に右へ回転し、回転角度が第2夾角の角度値であることを表すこととを含む、ことを特徴とする請求項11に記載のコンピュータ読み取り可能な記憶媒体。
  15. 前記第3計算ステップは、
    前記第1距離と第2距離との比率が1であるとき、前記顔画像内で顔がZ軸に対して初期位置に位置することを表すことと、
    前記第1距離と第2距離との比率が1より大きいとき、前記顔画像内で顔がZ軸を中心に左へ回転することを表すことと、
    前記第1距離と第2距離との比率が1より小さいとき、前記顔画像内で顔がZ軸を中心に右へ回転することを表すこととを含む、ことを特徴とする請求項11に記載のコンピュータ読み取り可能な記憶媒体。
JP2019556821A 2017-08-17 2017-10-31 顔姿勢検出方法、装置及び記憶媒体 Active JP6815707B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201710707941.2 2017-08-17
CN201710707941.2A CN107679446B (zh) 2017-08-17 2017-08-17 人脸姿态检测方法、装置及存储介质
PCT/CN2017/108803 WO2019033576A1 (zh) 2017-08-17 2017-10-31 人脸姿态检测方法、装置及存储介质

Publications (2)

Publication Number Publication Date
JP2020518051A JP2020518051A (ja) 2020-06-18
JP6815707B2 true JP6815707B2 (ja) 2021-01-20

Family

ID=61134676

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019556821A Active JP6815707B2 (ja) 2017-08-17 2017-10-31 顔姿勢検出方法、装置及び記憶媒体

Country Status (5)

Country Link
US (1) US11062124B2 (ja)
JP (1) JP6815707B2 (ja)
CN (1) CN107679446B (ja)
SG (1) SG11202001403XA (ja)
WO (1) WO2019033576A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10867161B2 (en) * 2017-09-06 2020-12-15 Pixart Imaging Inc. Auxiliary filtering device for face recognition and starting method for electronic device
CN108549487A (zh) * 2018-04-23 2018-09-18 网易(杭州)网络有限公司 虚拟现实交互方法与装置
JP2021511607A (ja) * 2018-04-25 2021-05-06 ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド 顔の特徴点に基づく首振り動作認識のためのシステムおよび方法
CN109086727B (zh) * 2018-08-10 2021-04-30 北京奇艺世纪科技有限公司 一种确定人体头部的运动角度的方法、装置及电子设备
CN109522863B (zh) * 2018-11-28 2020-11-27 北京达佳互联信息技术有限公司 耳部关键点检测方法、装置及存储介质
CN110222651A (zh) * 2019-06-10 2019-09-10 Oppo广东移动通信有限公司 一种人脸姿态检测方法、装置、终端设备及可读存储介质
CN112307817B (zh) * 2019-07-29 2024-03-19 中国移动通信集团浙江有限公司 人脸活体检测方法、装置、计算设备及计算机存储介质
CN111104846B (zh) * 2019-10-16 2022-08-30 平安科技(深圳)有限公司 数据检测方法、装置、计算机设备和存储介质
CN113642368B (zh) * 2020-05-11 2023-08-18 杭州海康威视数字技术股份有限公司 人脸姿态的确定方法、装置、设备及存储介质
JPWO2022264268A1 (ja) * 2021-06-15 2022-12-22
JP7481398B2 (ja) 2022-07-04 2024-05-10 ソフトバンク株式会社 判定装置、プログラム、及び判定方法
KR102538783B1 (ko) * 2022-09-27 2023-06-01 주식회사 미러로이드 가상 헤어 스타일링 체험을 위한 민머리 인물 이미지 생성 장치 및 방법

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG91841A1 (en) * 1999-11-03 2002-10-15 Kent Ridge Digital Labs Face direction estimation using a single gray-level image
JP3590321B2 (ja) * 2000-03-28 2004-11-17 株式会社メディックエンジニアリング 人物照合システム
US6671391B1 (en) * 2000-05-26 2003-12-30 Microsoft Corp. Pose-adaptive face detection system and process
JP4204336B2 (ja) * 2003-01-30 2009-01-07 富士通株式会社 顔の向き検出装置、顔の向き検出方法及びコンピュータプログラム
JP4946730B2 (ja) * 2007-08-27 2012-06-06 ソニー株式会社 顔画像処理装置及び顔画像処理方法、並びにコンピュータ・プログラム
JP5432532B2 (ja) * 2008-01-22 2014-03-05 株式会社 資生堂 化粧方法、化粧シミュレーション装置、及び化粧シミュレーションプログラム
CN102054291A (zh) * 2009-11-04 2011-05-11 厦门市美亚柏科信息股份有限公司 一种基于单幅人脸图像实现三维人脸重建的方法及其装置
CN103605965A (zh) * 2013-11-25 2014-02-26 苏州大学 一种多姿态人脸识别方法和装置
KR101612605B1 (ko) * 2014-05-07 2016-04-14 포항공과대학교 산학협력단 얼굴 특징점 추출 방법 및 이를 수행하는 장치
EP2942980A1 (en) * 2014-05-08 2015-11-11 GN Store Nord A/S Real-time control of an acoustic environment
JP6330036B2 (ja) * 2014-06-06 2018-05-23 シャープ株式会社 画像処理装置及び画像表示装置
JP5950486B1 (ja) * 2015-04-01 2016-07-13 みずほ情報総研株式会社 加齢化予測システム、加齢化予測方法及び加齢化予測プログラム
US10330958B2 (en) * 2015-04-10 2019-06-25 Bespoke, Inc. Systems and methods for creating eyewear with multi-focal lenses
CN105389570A (zh) * 2015-11-19 2016-03-09 吴建忠 一种人脸角度判定方法及其系统
CN106991367B (zh) * 2016-01-21 2019-03-19 腾讯科技(深圳)有限公司 确定人脸转动角度的方法和装置
RU2020122500A (ru) * 2017-12-07 2022-01-11 Конинклейке Филипс Н.В. Каркасный блок
JP6981325B2 (ja) * 2018-03-22 2021-12-15 株式会社Jvcケンウッド 処理装置、処理方法、及びプログラム
KR102537784B1 (ko) * 2018-08-17 2023-05-30 삼성전자주식회사 전자 장치 및 그 제어 방법
CN109345253A (zh) * 2018-09-04 2019-02-15 阿里巴巴集团控股有限公司 资源转移方法、装置及系统
US11366343B2 (en) * 2019-09-24 2022-06-21 Bespoke, Inc. Systems and methods for adjusting stock eyewear frames using a 3D scan of facial features

Also Published As

Publication number Publication date
SG11202001403XA (en) 2020-03-30
US11062124B2 (en) 2021-07-13
WO2019033576A1 (zh) 2019-02-21
CN107679446B (zh) 2019-03-15
CN107679446A (zh) 2018-02-09
JP2020518051A (ja) 2020-06-18
US20200226354A1 (en) 2020-07-16

Similar Documents

Publication Publication Date Title
JP6815707B2 (ja) 顔姿勢検出方法、装置及び記憶媒体
CN109961009B (zh) 基于深度学习的行人检测方法、系统、装置及存储介质
CN107784282B (zh) 对象属性的识别方法、装置及系统
US10572072B2 (en) Depth-based touch detection
WO2019041519A1 (zh) 目标跟踪装置、方法及计算机可读存储介质
CN110751043B (zh) 基于人脸可见性的人脸识别方法、装置及存储介质
US20190362144A1 (en) Eyeball movement analysis method and device, and storage medium
JP6571108B2 (ja) モバイル機器用三次元ジェスチャのリアルタイム認識及び追跡システム
WO2019033571A1 (zh) 面部特征点检测方法、装置及存储介质
CN103824072B (zh) 对手写字符的字体结构进行检测的方法及装置
US10650234B2 (en) Eyeball movement capturing method and device, and storage medium
US20190228209A1 (en) Lip movement capturing method and device, and storage medium
WO2019033570A1 (zh) 嘴唇动作分析方法、装置及存储介质
US10846565B2 (en) Apparatus, method and computer program product for distance estimation between samples
WO2018161893A1 (zh) 用户身份识别方法及装置
CN111754391A (zh) 人脸转正方法、设备及计算机可读存储介质
US11948088B2 (en) Method and apparatus for image recognition
CN111832561B (zh) 基于计算机视觉的字符序列识别方法、装置、设备和介质
CN114022558A (zh) 图像定位方法、装置、计算机设备和存储介质
CN110135304A (zh) 人体位姿识别方法及装置
CN110852220B (zh) 人脸表情的智能识别方法、终端和计算机可读存储介质
CN108288023B (zh) 人脸识别的方法和装置
CN108875467B (zh) 活体检测的方法、装置及计算机存储介质
US9405375B2 (en) Translation and scale invariant features for gesture recognition
JP2013077180A (ja) 認識装置およびその制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191018

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201222

R150 Certificate of patent or registration of utility model

Ref document number: 6815707

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250