JP2021511606A - 顔の特徴点に基づく瞬き動作認識のためのシステムおよび方法 - Google Patents
顔の特徴点に基づく瞬き動作認識のためのシステムおよび方法 Download PDFInfo
- Publication number
- JP2021511606A JP2021511606A JP2020558665A JP2020558665A JP2021511606A JP 2021511606 A JP2021511606 A JP 2021511606A JP 2020558665 A JP2020558665 A JP 2020558665A JP 2020558665 A JP2020558665 A JP 2020558665A JP 2021511606 A JP2021511606 A JP 2021511606A
- Authority
- JP
- Japan
- Prior art keywords
- image frame
- image frames
- parameter
- candidate image
- feature point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Geometry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
Abstract
Description
F=[F1,F2,Fi,...,Fm](1)
ここで、Fは順序付けられたセットを示し、Fiはi番目の候補画像フレームを示し、mは複数の候補画像フレームの計数を示す。順序付けられたセットでは、複数の連続する候補画像フレームは、複数の候補画像フレームのキャプチャ時点に基づいて時系列で順序付けられる。例えば、候補画像フレームF1は第1のキャプチャ時点に対応し、候補画像フレームF2は第2のキャプチャ時点に対応し、第2のキャプチャ時点は第1のキャプチャ時点よりも遅く、第1のキャプチャ時点と第2のキャプチャ時点との間の時間間隔は、カメラデバイス130のデフォルトパラメータであり得るか、または動作認識システム100によって設定され得る。例えば、カメラデバイス130は、毎秒24個の画像フレームをキャプチャすることができ、特定の実施形態では、隣接する候補画像フレーム間の間隔は、1/24秒であってもよく、これは、キャプチャされたすべての画像フレームが候補画像フレームとして使用されることを意味し、特定の他の実施形態では、隣接する候補画像フレーム間の間隔は、1/12秒であってもよく、これは、特定の(半分の)キャプチャされた画像フレームが候補画像フレームとして使用されるが、他はスキップされることを意味する。
T1=(xa1*y4+x4*yg+xg*ya1−xai*yg−x4*ya1−xg*y4)/2(5)
ここで、T1は第1の三角形面積を示し、(xa1,ya1)は最初の「第1の特徴点」の座標を示し、(x4,y4)は第4の特徴点の座標を示し、(xg,yg)は基準点の座標を示す。
S=T1+T2+・・・Ti+・・・+Tq(6)
ここで、Sは多角形の面積を示し、Tiはi番目の三角形面積を示し、qは複数の三角形面積の計数を示す。
P1=[Fi−x,...,Fi−2,Fi−1](i>1,x<i)(8)
ここで、P1は、複数の事前画像フレームを含む順序付けられたセットを示し、xは、複数の事前画像フレームの計数を示す。
N1=[Fi+1,Fi+2,...,Fi+y](i>1,y<m−1)(9)
ここで、N1は、複数の後続画像フレームを含む順序付けられたセットを示し、yは、複数の後続画像フレームの計数を示し、mは、複数の候補画像フレームの計数を示す。
P2=[Fj−e,...,Fj−2,Fj−1]((j−e)>i)(12)
ここで、P2は、複数の事前画像フレームを含む順序付けられたセットを示し、eは、複数の事前画像フレームの計数を示す。
N2=[Fj+1,Fj+2,...,Fj+f]((j+f)≦m)(13)
ここで、N2は、複数の後続画像フレームを含む順序付けられたセットを示し、fは、複数の後続画像フレームの計数を示す。
110 サーバ
112 処理エンジン
120 ネットワーク
130 カメラデバイス
140 ユーザ端末
150 ストレージ
160 人間の顔
200 コンピューティングデバイス
210 バス
220 プロセッサ
230 ROM
240 RAM
250 COMポート
260 I/Oコンポーネント
270 ディスク
300 モバイルデバイス
310 通信プラットフォーム
320 ディスプレイ
330 グラフィック処理ユニット(GPU)
340 中央処理ユニット(CPU)
350 I/O
360 メモリ
370 モバイルオペレーティングシステム(OS)
380 アプリケーション
390 ストレージ
410 取得モジュール
420 面積決定モジュール
430 距離決定モジュール
440 動作パラメータ決定モジュール
450 識別モジュール
500 プロセス
700 プロセス
800 プロセス
900 プロセス
1000 プロセス
Claims (33)
- 連続する画像から顔の動作の存在を自動識別するためのシステムであって、
命令のセットを含む少なくとも1つの記憶媒体と、
前記少なくとも1つの記憶媒体と通信する少なくとも1つのプロセッサであって、前記命令のセットを実行すると、前記少なくとも1つのプロセッサは、前記システムに、
顔オブジェクトを含む複数の連続する候補画像フレームを取得させ、前記複数の候補画像フレームのそれぞれは、眼の上瞼に関連付けられた1つまたは複数の第1の特徴点、前記眼の下瞼に関連付けられた1つまたは複数の第2の特徴点、前記眼の左端に関連付けられた第3の特徴点、および前記眼の右端に関連付けられた第4の特徴点を含み、
前記複数の連続する候補画像フレームのそれぞれについて、前記1つまたは複数の第1の特徴点、前記1つまたは複数の第2の特徴点、前記第3の特徴点、および前記第4の特徴点に基づいて、多角形の面積を決定させ、
前記複数の連続する候補画像フレームのそれぞれにおいて前記第3の特徴点と前記第4の特徴点との間の距離を決定させ、
前記複数の連続する候補画像フレームのそれぞれにおける前記面積および前記距離に基づいて動作パラメータを決定させ、
前記動作パラメータが1つまたは複数の事前設定された条件を満たすことに応答して、瞬き動作の前記存在を識別させる、
ように指示される、少なくとも1つのプロセッサとを備える、システム。 - 前記多角形の前記面積を決定するために、前記少なくとも1つのプロセッサが、前記システムにさらに、
前記1つまたは複数の第1の特徴点、前記1つまたは複数の第2の特徴点、前記第3の特徴点、または前記第4の特徴点に少なくとも部分的に基づいて基準点を決定させ、
前記1つまたは複数の第1の特徴点、前記1つまたは複数の第2の特徴点、前記第3の特徴点、前記第4の特徴点、および前記基準点に基づいて複数の三角形面積を決定させ、前記複数の三角形面積のそれぞれは、前記基準点と、前記1つまたは複数の第1の特徴点、前記1つまたは複数の第2の特徴点、前記第3の特徴点、および前記第4の特徴点の中の2つの隣接点に基づいて決定され、
前記複数の三角形面積に基づいて前記多角形の前記面積を決定させる、ように指示される、請求項1に記載のシステム。 - 前記基準点が、
(a)前記1つまたは複数の第1の特徴点、前記1つまたは複数の第2の特徴点、前記第3の特徴点、および前記第4の特徴点のうちの1つ、または
(b)前記多角形の垂心または前記多角形の中心点、
である、請求項2に記載のシステム。 - 前記動作パラメータが、前記多角形の前記面積と、前記第3の特徴点と前記第4の特徴点との間の前記距離との間の比率である、請求項1から3のいずれか一項に記載のシステム。
- 前記動作パラメータが前記1つまたは複数の事前設定された条件を満たすことに応答して前記瞬き動作の前記存在を識別するために、前記少なくとも1つのプロセッサが、前記システムにさらに、
前記複数の連続する候補画像フレームから複数の連続するターゲット画像フレームを識別させ、前記複数の連続するターゲット画像フレームは開始画像フレームおよび終了画像フレームを含み、
前記複数の連続するターゲット画像フレームに対応する複数の動作パラメータに関連付けられた最大動作パラメータを識別させ、
前記複数の連続するターゲット画像フレームに対応する前記複数の動作パラメータから最小動作パラメータを識別させ、
前記最大動作パラメータと前記最小動作パラメータに基づいて非対称パラメータを決定させ、
前記開始画像フレームから前記最小動作パラメータに対応するターゲット画像フレームまでのターゲット画像フレームの第1の計数を決定させ、
前記最小動作パラメータに対応する前記ターゲット画像フレームから前記終了画像フレームまでの画像フレームの第2の計数を決定させ、
前記非対称パラメータが非対称閾値よりも大きく、前記第1の計数が第1の計数閾値よりも大きく、前記第2の計数が第2の計数閾値よりも大きいことに応答して、前記瞬き動作を識別させる、ように指示される、請求項1から4のいずれか一項に記載のシステム。 - 前記複数の連続するターゲット画像フレームの前記開始画像フレームを識別するために、前記少なくとも1つのプロセッサが、前記システムに、
候補画像フレームについて、前記候補画像フレームの前の複数の事前画像フレームと、前記候補画像フレームの後の複数の後続画像フレームを、前記複数の連続する候補画像フレームのシーケンスに沿って選択させ、
前記複数の事前画像フレームに対応する複数の第1の動作パラメータに基づいて第1の平均動作パラメータを決定させ、
前記複数の後続画像フレームに対応する複数の第2の動作パラメータに基づいて第2の平均動作パラメータを決定させ、
前記第2の平均動作パラメータが前記第1の平均動作パラメータよりも小さく、前記複数の第2の動作パラメータのそれぞれが前記候補画像フレームに対応する動作パラメータよりも小さいことに応答して、前記候補画像フレームを前記開始画像フレームとして識別させる、ように指示される、請求項5に記載のシステム。 - 前記複数の連続するターゲット画像フレームの前記終了画像フレームを識別するために、前記少なくとも1つのプロセッサが、前記システムにさらに、
前記開始画像フレームの後の候補画像フレームについて、前記候補画像フレームの前の複数の事前画像フレームと、前記候補画像フレームの後の複数の後続画像フレームを、前記複数の連続する候補画像フレームの前記シーケンスに沿って選択させ、
前記複数の事前画像フレームに対応する複数の第3の動作パラメータに基づいて第3の平均動作パラメータを決定させ、
前記複数の後続画像フレームに対応する複数の第4の動作パラメータに基づいて第4の平均動作パラメータを決定させ、
前記第4の平均動作パラメータが前記第3の平均動作パラメータよりも大きいことに応答して、前記候補画像フレームを前記終了画像フレームとして識別させ、前記複数の第3の動作パラメータのそれぞれは、前記候補画像フレームに対応する動作パラメータ以下であり、前記候補画像フレームに隣接する後続画像フレームに対応する動作パラメータは、前記候補画像フレームに対応する前記動作パラメータ以上であり、前記第1の平均動作パラメータと前記第4の平均動作パラメータに関連付けられた比率は、比率閾値未満である、ように指示される、請求項5に記載のシステム。 - 前記非対称閾値が1.6〜2である、請求項5に記載のシステム。
- 前記第1の計数閾値が4〜6である、または前記第2の計数閾値が4〜6である、請求項5に記載のシステム。
- 前記少なくとも1つのプロセッサが、前記システムにさらに、
前記眼の瞬き動作の前記存在の前記識別に応答して、前記顔オブジェクトに対応するユーザに関連付けられた端末デバイスに認証を提供させるように指示される、請求項1から9のいずれか一項に記載のシステム。 - 前記複数の連続する候補画像フレームがそこから取得されるビデオデータを提供するように構成されたカメラをさらに備える、請求項1から10のいずれか一項に記載のシステム。
- 少なくとも1つのプロセッサ、少なくとも1つの記憶媒体、およびネットワークに接続された通信プラットフォームを有するコンピューティングデバイス上で実施される方法であって、前記方法は、
顔オブジェクトを含む複数の連続する候補画像フレームを取得するステップであって、前記複数の候補画像フレームのそれぞれは、眼の上瞼に関連付けられた1つまたは複数の第1の特徴点、前記眼の下瞼に関連付けられた1つまたは複数の第2の特徴点、前記眼の左端に関連付けられた第3の特徴点、および前記眼の右端に関連付けられた第4の特徴点を含む、ステップと、
前記複数の連続する候補画像フレームのそれぞれについて、前記1つまたは複数の第1の特徴点、前記1つまたは複数の第2の特徴点、前記第3の特徴点、および前記第4の特徴点に基づいて、多角形の面積を決定するステップと、
前記複数の連続する候補画像フレームのそれぞれにおいて前記第3の特徴点と前記第4の特徴点との間の距離を決定するステップと、
前記複数の連続する候補画像フレームのそれぞれにおける前記面積および前記距離に基づいて動作パラメータを決定するステップと、
前記動作パラメータが1つまたは複数の事前設定された条件を満たすことに応答して、瞬き動作の前記存在を識別するステップとを含む、方法。 - 前記多角形の前記面積を決定する前記ステップが、
前記1つまたは複数の第1の特徴点、前記1つまたは複数の第2の特徴点、前記第3の特徴点、または前記第4の特徴点に少なくとも部分的に基づいて基準点を決定するステップと、
前記1つまたは複数の第1の特徴点、前記1つまたは複数の第2の特徴点、前記第3の特徴点、前記第4の特徴点、および前記基準点に基づいて複数の三角形面積を決定するステップであって、前記複数の三角形面積のそれぞれは、前記基準点と、前記1つまたは複数の第1の特徴点、前記1つまたは複数の第2の特徴点、前記第3の特徴点、および前記第4の特徴点の中の2つの隣接点に基づいて決定される、ステップと、
前記複数の三角形面積に基づいて前記多角形の前記面積を決定するステップとを含む、請求項12に記載の方法。 - 前記基準点が、
(a)前記1つまたは複数の第1の特徴点、前記1つまたは複数の第2の特徴点、前記第3の特徴点、および前記第4の特徴点のうちの1つ、または
(b)前記多角形の垂心または前記多角形の中心点、である、請求項13に記載の方法。 - 前記動作パラメータが、前記多角形の前記面積と、前記第3の特徴点と前記第4の特徴点との間の前記距離との間の比率である、請求項12から14のいずれか一項に記載の方法。
- 前記動作パラメータが前記1つまたは複数の事前設定された条件を満たすことに応答して前記瞬き動作の前記存在を識別する前記ステップが、
前記複数の連続する候補画像フレームから複数の連続するターゲット画像フレームを識別するステップであって、前記複数の連続するターゲット画像フレームは開始画像フレームおよび終了画像フレームを含む、ステップと、
前記複数の連続するターゲット画像フレームに対応する複数の動作パラメータに関連付けられた最大動作パラメータを識別するステップと、
前記複数の連続するターゲット画像フレームに対応する前記複数の動作パラメータから最小動作パラメータを識別するステップと、
前記最大動作パラメータと前記最小動作パラメータに基づいて非対称パラメータを決定するステップと、
前記開始画像フレームから前記最小動作パラメータに対応するターゲット画像フレームまでのターゲット画像フレームの第1の計数を決定するステップと、
前記最小動作パラメータに対応する前記ターゲット画像フレームから前記終了画像フレームまでの画像フレームの第2の計数を決定するステップと、
前記非対称パラメータが非対称閾値よりも大きく、前記第1の計数が第1の計数閾値よりも大きく、前記第2の計数が第2の計数閾値よりも大きいことに応答して、前記瞬き動作を識別するステップとを含む、請求項12から15のいずれか一項に記載の方法。 - 前記複数の連続するターゲット画像フレームの前記開始画像フレームを識別する前記ステップが、
候補画像フレームについて、前記候補画像フレームの前の複数の事前画像フレームと、前記候補画像フレームの後の複数の後続画像フレームを、前記複数の連続する候補画像フレームのシーケンスに沿って選択するステップと、
前記複数の事前画像フレームに対応する複数の第1の動作パラメータに基づいて第1の平均動作パラメータを決定するステップと、
前記複数の後続画像フレームに対応する複数の第2の動作パラメータに基づいて第2の平均動作パラメータを決定するステップと、
前記第2の平均動作パラメータが前記第1の平均動作パラメータよりも小さく、前記複数の第2の動作パラメータのそれぞれが前記候補画像フレームに対応する動作パラメータよりも小さいことに応答して、前記候補画像フレームを前記開始画像フレームとして識別するステップとを含む、請求項16に記載の方法。 - 前記複数の連続するターゲット画像フレームの前記終了画像フレームを識別する前記ステップが、
前記開始画像フレームの後の候補画像フレームについて、前記候補画像フレームの前の複数の事前画像フレームと、前記候補画像フレームの後の複数の後続画像フレームを、前記複数の連続する候補画像フレームの前記シーケンスに沿って選択するステップと、
前記複数の事前画像フレームに対応する複数の第3の動作パラメータに基づいて第3の平均動作パラメータを決定するステップと、
前記複数の後続画像フレームに対応する複数の第4の動作パラメータに基づいて第4の平均動作パラメータを決定するステップと、
前記第4の平均動作パラメータが前記第3の平均動作パラメータよりも大きいことに応答して、前記候補画像フレームを前記終了画像フレームとして識別するステップであって、前記複数の第3の動作パラメータのそれぞれは、前記候補画像フレームに対応する動作パラメータ以下であり、前記候補画像フレームに隣接する後続画像フレームに対応する動作パラメータは、前記候補画像フレームに対応する前記動作パラメータ以上であり、前記第1の平均動作パラメータと前記第4の平均動作パラメータに関連付けられた比率は、比率閾値未満である、ステップとを含む、請求項16に記載の方法。 - 前記非対称閾値が1.6〜2である、請求項16に記載の方法。
- 前記第1の計数閾値が4〜6である、または前記第2の計数閾値が4〜6である、請求項16に記載の方法。
- 前記方法が、
前記瞬き動作の前記存在の前記識別に応答して、前記顔オブジェクトに対応するユーザに関連付けられた端末デバイスに認証を提供するステップをさらに含む、請求項12から20のいずれか一項に記載の方法。 - 前記方法が、
カメラによって提供されたビデオデータから前記複数の連続する候補画像フレームを取得するステップをさらに含む、請求項12から21のいずれか一項に記載の方法。 - 少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサに方法を実行するように指示する実行可能な命令を含む、非一時的なコンピュータ可読媒体であって、前記方法は、
顔オブジェクトを含む複数の連続する候補画像フレームを取得するステップであって、前記複数の候補画像フレームのそれぞれは、眼の上瞼に関連付けられた1つまたは複数の第1の特徴点、前記眼の下瞼に関連付けられた1つまたは複数の第2の特徴点、前記眼の左端に関連付けられた第3の特徴点、および前記眼の右端に関連付けられた第4の特徴点を含む、ステップと、
前記複数の連続する候補画像フレームのそれぞれについて、前記1つまたは複数の第1の特徴点、前記1つまたは複数の第2の特徴点、前記第3の特徴点、および前記第4の特徴点に基づいて、多角形の面積を決定するステップと、
前記複数の連続する候補画像フレームのそれぞれにおいて前記第3の特徴点と前記第4の特徴点との間の距離を決定するステップと、
前記複数の連続する候補画像フレームのそれぞれにおける前記面積および前記距離に基づいて動作パラメータを決定するステップと、
前記動作パラメータが1つまたは複数の事前設定された条件を満たすことに応答して、瞬き動作の前記存在を識別するステップとを含む、非一時的なコンピュータ可読媒体。 - 前記多角形の前記面積を決定する前記ステップが、
前記1つまたは複数の第1の特徴点、前記1つまたは複数の第2の特徴点、前記第3の特徴点、または前記第4の特徴点に少なくとも部分的に基づいて基準点を決定するステップと、
前記1つまたは複数の第1の特徴点、前記1つまたは複数の第2の特徴点、前記第3の特徴点、前記第4の特徴点、および前記基準点に基づいて複数の三角形面積を決定するステップであって、前記複数の三角形面積のそれぞれは、前記基準点と、前記1つまたは複数の第1の特徴点、前記1つまたは複数の第2の特徴点、前記第3の特徴点、および前記第4の特徴点の中の2つの隣接点に基づいて決定される、ステップと、
前記複数の三角形面積に基づいて前記多角形の前記面積を決定するステップとを含む、請求項23に記載の非一時的なコンピュータ可読媒体。 - 前記基準点が、
(a)前記1つまたは複数の第1の特徴点、前記1つまたは複数の第2の特徴点、前記第3の特徴点、および前記第4の特徴点のうちの1つ、または
(b)前記多角形の垂心または前記多角形の中心点、である、請求項24に記載の非一時的なコンピュータ可読媒体。 - 前記動作パラメータが、前記多角形の前記面積と、前記第3の特徴点と前記第4の特徴点との間の前記距離との間の比率である、請求項23から25のいずれか一項に記載の非一時的なコンピュータ可読媒体。
- 前記動作パラメータが前記1つまたは複数の事前設定された条件を満たすことに応答して前記瞬き動作の存在を識別する前記ステップが、
前記複数の連続する候補画像フレームから複数の連続するターゲット画像フレームを識別するステップであって、前記複数の連続するターゲット画像フレームは開始画像フレームおよび終了画像フレームを含む、ステップと、
前記複数の連続するターゲット画像フレームに対応する複数の動作パラメータに関連付けられた最大動作パラメータを識別するステップと、
前記複数の連続するターゲット画像フレームに対応する前記複数の動作パラメータから最小動作パラメータを識別するステップと、
前記最大動作パラメータと前記最小動作パラメータに基づいて非対称パラメータを決定するステップと、
前記開始画像フレームから前記最小動作パラメータに対応するターゲット画像フレームまでのターゲット画像フレームの第1の計数を決定するステップと、
前記最小動作パラメータに対応する前記ターゲット画像フレームから前記終了画像フレームまでの画像フレームの第2の計数を決定するステップと、
前記非対称パラメータが非対称閾値よりも大きく、前記第1の計数が第1の計数閾値よりも大きく、前記第2の計数が第2の計数閾値よりも大きいことに応答して、前記瞬き動作を識別するステップとを含む、請求項23から26のいずれか一項に記載の非一時的なコンピュータ可読媒体。 - 前記複数の連続するターゲット画像フレームの前記開始画像フレームを識別する前記ステップが、
候補画像フレームについて、前記候補画像フレームの前の複数の事前画像フレームと、前記候補画像フレームの後の複数の後続画像フレームを、前記複数の連続する候補画像フレームのシーケンスに沿って選択するステップと、
前記複数の事前画像フレームに対応する複数の第1の動作パラメータに基づいて第1の平均動作パラメータを決定するステップと、
前記複数の後続画像フレームに対応する複数の第2の動作パラメータに基づいて第2の平均動作パラメータを決定するステップと、
前記第2の平均動作パラメータが前記第1の平均動作パラメータよりも小さく、前記複数の第2の動作パラメータのそれぞれが前記候補画像フレームに対応する動作パラメータよりも小さいことに応答して、前記候補画像フレームを前記開始画像フレームとして識別するステップとを含む、請求項27に記載の非一時的なコンピュータ可読媒体。 - 前記複数の連続するターゲット画像フレームの前記終了画像フレームを識別する前記ステップが、
前記開始画像フレームの後の候補画像フレームについて、前記候補画像フレームの前の複数の事前画像フレームと、前記候補画像フレームの後の複数の後続画像フレームを、前記複数の連続する候補画像フレームの前記シーケンスに沿って選択するステップと、
前記複数の事前画像フレームに対応する複数の第3の動作パラメータに基づいて第3の平均動作パラメータを決定するステップと、
前記複数の後続画像フレームに対応する複数の第4の動作パラメータに基づいて第4の平均動作パラメータを決定するステップと、
前記第4の平均動作パラメータが前記第3の平均動作パラメータよりも大きいことに応答して、前記候補画像フレームを前記終了画像フレームとして識別するステップであって、前記複数の第3の動作パラメータのそれぞれは、前記候補画像フレームに対応する動作パラメータ以下であり、前記候補画像フレームに隣接する後続画像フレームに対応する動作パラメータは、前記候補画像フレームに対応する前記動作パラメータ以上であり、前記第1の平均動作パラメータと前記第4の平均動作パラメータに関連付けられた比率は、比率閾値未満である、ステップとを含む、請求項27に記載の非一時的なコンピュータ可読媒体。 - 前記非対称閾値が1.6〜2である、請求項27に記載の非一時的なコンピュータ可読媒体。
- 前記第1の計数閾値が4〜6である、または前記第2の計数閾値が4〜6である、請求項27に記載の非一時的なコンピュータ可読媒体。
- 前記方法が、
前記瞬き動作の前記存在の前記識別に応答して、前記顔オブジェクトに対応するユーザに関連付けられた端末デバイスに認証を提供するステップをさらに含む、請求項33から31のいずれか一項に記載の非一時的なコンピュータ可読媒体。 - 前記方法が、
カメラによって提供されたビデオデータから前記複数の連続する候補画像フレームを取得するステップをさらに含む、請求項23から32のいずれか一項に記載の非一時的なコンピュータ可読媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2018/084414 WO2019205007A1 (en) | 2018-04-25 | 2018-04-25 | Systems and methods for blink action recognition based on facial feature points |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021511606A true JP2021511606A (ja) | 2021-05-06 |
Family
ID=68293687
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020558665A Pending JP2021511606A (ja) | 2018-04-25 | 2018-04-25 | 顔の特徴点に基づく瞬き動作認識のためのシステムおよび方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10936867B2 (ja) |
EP (1) | EP3707643A4 (ja) |
JP (1) | JP2021511606A (ja) |
CN (1) | CN110799986B (ja) |
AU (1) | AU2018421183A1 (ja) |
WO (1) | WO2019205007A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112883782B (zh) * | 2021-01-12 | 2023-03-24 | 上海肯汀通讯科技有限公司 | 投放行为识别方法、装置、设备及存储介质 |
CN117687313A (zh) * | 2023-12-29 | 2024-03-12 | 广东福临门世家智能家居有限公司 | 基于智能门锁的智能家居设备控制方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010179034A (ja) * | 2009-02-09 | 2010-08-19 | Denso Corp | 眠気検出装置,プログラムおよび眠気検出方法 |
JP2012037934A (ja) * | 2010-08-03 | 2012-02-23 | Canon Inc | 視線検出装置、視線検出方法及びプログラム |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3695990B2 (ja) | 1999-05-25 | 2005-09-14 | 三菱電機株式会社 | 顔画像処理装置 |
DE60330980D1 (de) | 2002-10-15 | 2010-03-04 | Volvo Technology Corp | Verfahren für die auswertung der kopf- und augenaktivität einer person |
JP4162503B2 (ja) | 2003-01-31 | 2008-10-08 | 富士通株式会社 | 眼の状態判定装置、眼の状態判定方法及びコンピュータプログラム |
US7331671B2 (en) * | 2004-03-29 | 2008-02-19 | Delphi Technologies, Inc. | Eye tracking method based on correlation and detected eye movement |
US20060174094A1 (en) | 2005-02-02 | 2006-08-03 | Bryan Lloyd | Systems and methods for providing complementary operands to an ALU |
US7676063B2 (en) | 2005-03-22 | 2010-03-09 | Microsoft Corp. | System and method for eye-tracking and blink detection |
JP4127296B2 (ja) | 2006-06-09 | 2008-07-30 | ソニー株式会社 | 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム |
JP4309928B2 (ja) | 2007-03-15 | 2009-08-05 | アイシン精機株式会社 | 瞼検出装置、瞼検出方法、及び、プログラム |
CN100462047C (zh) * | 2007-03-21 | 2009-02-18 | 汤一平 | 基于全方位计算机视觉的安全驾驶辅助装置 |
JP4898532B2 (ja) * | 2007-04-13 | 2012-03-14 | 富士フイルム株式会社 | 画像処理装置および撮影システム並びに瞬き状態検出方法、瞬き状態検出プログラムおよびそのプログラムが記録された記録媒体 |
CN101030316B (zh) * | 2007-04-17 | 2010-04-21 | 北京中星微电子有限公司 | 一种汽车安全驾驶监控系统和方法 |
JP2009003730A (ja) * | 2007-06-22 | 2009-01-08 | Nintendo Co Ltd | 情報処理プログラムおよび情報処理装置 |
JP5055166B2 (ja) * | 2008-02-29 | 2012-10-24 | キヤノン株式会社 | 眼の開閉度判定装置、方法及びプログラム、撮像装置 |
JP5208711B2 (ja) | 2008-12-17 | 2013-06-12 | アイシン精機株式会社 | 眼開閉判別装置及びプログラム |
CN102667861A (zh) * | 2010-02-22 | 2012-09-12 | 丰田自动车株式会社 | 图像处理装置以及睡意判断装置 |
WO2013008303A1 (ja) * | 2011-07-11 | 2013-01-17 | トヨタ自動車株式会社 | 赤目検出装置 |
JP6007682B2 (ja) * | 2012-08-31 | 2016-10-12 | 富士通株式会社 | 画像処理装置、画像処理方法及びプログラム |
EP3074924A4 (en) * | 2013-10-08 | 2017-11-22 | Princeton Identity, Inc. | Iris biometric recognition module and access control assembly |
CN104751114B (zh) * | 2013-12-27 | 2018-09-18 | 由田新技股份有限公司 | 通过眼部开闭状态控制的验证系统及其手持式控制装置 |
JP6387892B2 (ja) * | 2015-04-18 | 2018-09-12 | トヨタ自動車株式会社 | 眠気検知装置 |
WO2017034861A1 (en) * | 2015-08-21 | 2017-03-02 | Magic Leap, Inc. | Eyelid shape estimation |
KR102463169B1 (ko) * | 2015-09-07 | 2022-11-04 | 삼성전자주식회사 | 시점 추적 방법 및 장치 |
US10176377B2 (en) * | 2015-11-02 | 2019-01-08 | Fotonation Limited | Iris liveness detection for mobile devices |
CN105286802B (zh) | 2015-11-30 | 2019-05-14 | 华南理工大学 | 基于视频信息的驾驶员疲劳检测方法 |
CN106897659B (zh) | 2015-12-18 | 2019-05-24 | 腾讯科技(深圳)有限公司 | 眨眼运动的识别方法和装置 |
CN107465885A (zh) * | 2016-06-06 | 2017-12-12 | 中兴通讯股份有限公司 | 一种实现视频通讯的方法和装置 |
CN106446831B (zh) | 2016-09-24 | 2021-06-25 | 江西欧迈斯微电子有限公司 | 一种人脸识别方法及装置 |
CN107092873A (zh) | 2017-04-08 | 2017-08-25 | 闲客智能(深圳)科技有限公司 | 一种眼动方向识别方法及装置 |
CN107346422B (zh) * | 2017-06-30 | 2020-09-08 | 成都大学 | 一种基于眨眼检测的活体人脸识别方法 |
-
2018
- 2018-04-25 WO PCT/CN2018/084414 patent/WO2019205007A1/en unknown
- 2018-04-25 AU AU2018421183A patent/AU2018421183A1/en not_active Withdrawn
- 2018-04-25 JP JP2020558665A patent/JP2021511606A/ja active Pending
- 2018-04-25 CN CN201880043162.XA patent/CN110799986B/zh active Active
- 2018-04-25 EP EP18916120.1A patent/EP3707643A4/en not_active Withdrawn
-
2020
- 2020-06-10 US US16/898,428 patent/US10936867B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010179034A (ja) * | 2009-02-09 | 2010-08-19 | Denso Corp | 眠気検出装置,プログラムおよび眠気検出方法 |
JP2012037934A (ja) * | 2010-08-03 | 2012-02-23 | Canon Inc | 視線検出装置、視線検出方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN110799986A (zh) | 2020-02-14 |
CN110799986B (zh) | 2020-09-18 |
US20200302150A1 (en) | 2020-09-24 |
EP3707643A1 (en) | 2020-09-16 |
US10936867B2 (en) | 2021-03-02 |
EP3707643A4 (en) | 2020-11-18 |
AU2018421183A1 (en) | 2020-07-02 |
WO2019205007A1 (en) | 2019-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11551482B2 (en) | Facial recognition-based authentication | |
JP7151814B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20210042548A1 (en) | Living body detection method and apparatus, electronic device, storage medium, and related system to which living body detection method is applied | |
CN108447159B (zh) | 人脸图像采集方法、装置和出入口管理系统 | |
US10936867B2 (en) | Systems and methods for blink action recognition based on facial feature points | |
US20160217565A1 (en) | Health and Fitness Monitoring via Long-Term Temporal Analysis of Biometric Data | |
US10929984B2 (en) | Systems and methods for shaking action recognition based on facial feature points | |
KR101820503B1 (ko) | 얼굴 인식 추론 기반 서비스 시스템, 그의 얼굴 인식 추론 방법 및 기록 매체 | |
CN110753931A (zh) | 基于面部特征点的点头动作识别的系统和方法 | |
CN115311723A (zh) | 活体检测方法、装置及计算机可读存储介质 | |
KR20160128275A (ko) | 얼굴 인식 추론 기반 서비스 시스템, 그의 얼굴 인식 추론 방법 및 기록 매체 | |
CN111033508B (zh) | 一种识别身体运动的系统和方法 | |
CN112330528A (zh) | 虚拟试妆方法、装置、电子设备和可读存储介质 | |
US11538283B1 (en) | Detecting people wearing masks to prevent impersonation attacks | |
JP2012227830A (ja) | 情報処理装置、その処理方法、プログラム及び撮像装置 | |
US20230140578A1 (en) | Systems and methods for managing access points authentication requirements | |
WO2022172430A1 (ja) | 判定方法、判定プログラム、及び情報処理装置 | |
CN116451195A (zh) | 一种活体识别方法和系统 | |
CN117392739A (zh) | 多人同时虹膜识别的点名方法、系统、介质及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200715 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200715 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210811 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210823 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220418 |