JP2021043960A - 顔解析のための画像正規化 - Google Patents
顔解析のための画像正規化 Download PDFInfo
- Publication number
- JP2021043960A JP2021043960A JP2020133206A JP2020133206A JP2021043960A JP 2021043960 A JP2021043960 A JP 2021043960A JP 2020133206 A JP2020133206 A JP 2020133206A JP 2020133206 A JP2020133206 A JP 2020133206A JP 2021043960 A JP2021043960 A JP 2021043960A
- Authority
- JP
- Japan
- Prior art keywords
- face
- image
- base
- facial
- feature set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000001815 facial effect Effects 0.000 title claims abstract description 131
- 238000004458 analytical method Methods 0.000 title claims abstract description 100
- 238000010606 normalization Methods 0.000 title claims abstract description 65
- 238000000034 method Methods 0.000 claims abstract description 75
- 238000012549 training Methods 0.000 claims description 45
- 210000003205 muscle Anatomy 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 9
- 241000228740 Procrustes Species 0.000 claims description 8
- 230000035945 sensitivity Effects 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims 2
- 238000010191 image analysis Methods 0.000 description 21
- 238000012986 modification Methods 0.000 description 11
- 230000004048 modification Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 9
- 230000009471 action Effects 0.000 description 7
- 238000007792 addition Methods 0.000 description 6
- 238000013500 data storage Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 210000004709 eyebrow Anatomy 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000005484 gravity Effects 0.000 description 5
- 230000007935 neutral effect Effects 0.000 description 5
- 230000008921 facial expression Effects 0.000 description 4
- 210000001061 forehead Anatomy 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000003607 modifier Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/10—Pre-processing; Data cleansing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/72—Data preparation, e.g. statistical preprocessing of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Probability & Statistics with Applications (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Image Analysis (AREA)
Abstract
Description
(付記1)
ベース顔画像を取得するステップと、
前記ベース顔画像内の第1のベース顔特徴セットを取得するステップであり、前記第1のベース顔特徴セットは、解析顔画像において検出されるべき第1の顔動作単位(AU)に関連づけられるものとして選択される、ステップと、
前記ベース顔画像内の第2のベース顔特徴セットを取得するステップであり、前記第2のベース顔特徴セット内の少なくとも1つの顔特徴が前記第1のベース顔特徴セット内のものと異なり、前記第2のベース顔特徴セットは、前記解析顔画像において検出されるべき第2の顔AUに関連づけられるものとして選択される、ステップと、
前記解析顔画像を取得するステップと、
前記第1のベース顔特徴セットを使用して前記解析顔画像に第1の画像正規化を適用して、前記解析顔画像における前記第1の顔AUの確率の予測を容易にするステップと、
前記第2のベース顔特徴セットを使用して前記解析顔画像に第2の画像正規化を適用して、前記解析顔画像における前記第2の顔AUの確率の予測を容易にするステップと、
を含む方法。
(付記2)
前記第1の画像正規化を適用するステップは、前記第1のベース顔特徴セットを使用してプロクラステス解析変換を適用するステップを含む、付記1に記載の方法。
(付記3)
前記第1のベース顔特徴セットは、前記第1の顔AUの間に動く顔の領域に位置づけられるように選択される、付記1に記載の方法。
(付記4)
前記第1のベース顔特徴セットの密度が、前記第1の顔AUの間に動かない前記顔の領域より前記第1の顔AUの間に動く前記顔の領域においてより高密度であるように選択される、付記3に記載の方法。
(付記5)
前記第1のベース顔特徴セットは、前記第1の顔AUの間に動く顔特徴が前記第1の顔AUの間に動かない顔特徴より重く重み付けされるように、重み付けされる、付記1に記載の方法。
(付記6)
前記第1のベース顔特徴セットの重みは、遮蔽感度マップ、又は前記第1の顔AUに関連づけられた動きで使用される筋群のセット、のうち少なくとも1つに基づいて決定される、付記4に記載の方法。
(付記7)
複数の訓練顔画像に対してオペレーションを実行することにより顔解析エンジンを訓練するステップ、をさらに含み、前記オペレーションは、
前記第1のベース顔特徴セットを使用して前記第1の画像正規化を第1の訓練顔画像に適用して、前記第1の訓練顔画像における前記第1の顔AUを識別するように前記顔解析エンジンを訓練することと、
前記第2のベース顔特徴セットを使用して前記第2の画像正規化を第2の訓練顔画像に適用して、前記第2の訓練顔画像における前記第2の顔AUを識別するように前記顔解析エンジンを訓練することと、
を含む、付記1に記載の方法。
(付記8)
前記第1の画像正規化及び前記第2の画像正規化は、前記第1の画像正規化及び前記第2の画像正規化において前記第1のベース顔特徴セット及び前記第2のベース顔特徴セットをそれぞれ使用することを除き、同じである、付記1に記載の方法。
(付記9)
前記解析顔画像における前記第1の顔AU及び前記第2の顔AUのうち少なくとも1つの強度を推定するステップ、をさらに含む付記1に記載の方法。
(付記10)
前記ベース顔画像は、前向きの中立表情の顔画像を含む、付記1に記載の方法。
(付記11)
1つ以上のプロセッサにより実行されたときにオペレーションを実行するように構成された命令を含む非一時的コンピュータ読取可能媒体であって、前記オペレーションは、
正面顔を有するベース顔画像を取得することと、
前記ベース顔画像内の第1のベース顔特徴セットを取得することであり、前記第1のベース顔特徴セットは、解析顔画像において検出されるべき第1の顔動作単位(AU)に関連づけられるものとして選択される、ことと、
前記ベース顔画像内の第2のベース顔特徴セットを取得することであり、前記第2のベース顔特徴セット内の少なくとも1つの顔特徴が前記第1のベース顔特徴セット内のものと異なり、前記第2のベース顔特徴セットは、前記解析顔画像において検出されるべき第2の顔AUに関連づけられるものとして選択される、ことと
前記解析顔画像を取得することと、
前記第1のベース顔特徴セットを使用して前記解析顔画像に第1の画像正規化を適用して、前記解析顔画像における前記第1の顔AUの確率の予測を容易にすることと、
前記第2のベース顔特徴セットを使用して前記解析顔画像に第2の画像正規化を適用して、前記解析顔画像における前記第2の顔AUの確率の予測を容易にすることと、
を含む、コンピュータ読取可能媒体。
(付記12)
前記第1の画像正規化を適用することは、前記第1のベース顔特徴セットを使用してプロクラステス解析変換を適用することを含む、付記11に記載のコンピュータ読取可能媒体。
(付記13)
前記第1のベース顔特徴セットは、前記第1の顔AUの間に動く顔の領域に位置づけられるように選択される、付記11に記載のコンピュータ読取可能媒体。
(付記14)
前記第1のベース顔特徴セットの密度が、前記第1の顔AUの間に動かない前記顔の領域より前記第1の顔AUの間に動く前記顔の領域においてより高密度であるように選択される、付記13に記載のコンピュータ読取可能媒体。
(付記15)
前記第1のベース顔特徴セットは、前記第1の顔AUの間に動く顔特徴が前記第1の顔AUの間に動かない顔特徴より重く重み付けされるように、重み付けされる、付記11に記載のコンピュータ読取可能媒体。
(付記16)
前記第1のベース顔特徴セットの重みは、遮蔽感度マップ、又は前記第1の顔AUに関連づけられた動きで使用される筋群のセット、のうち少なくとも1つに基づいて決定される、付記15に記載のコンピュータ読取可能媒体。
(付記17)
前記オペレーションは、複数の訓練顔画像に対してオペレーションを実行することにより顔解析エンジンを訓練することをさらに含み、該オペレーションは、
前記第1のベース顔特徴セットを使用して前記第1の画像正規化を第1の訓練顔画像に適用して、前記第1の訓練顔画像における前記第1の顔AUを識別するように前記顔解析エンジンを訓練することと、
前記第2のベース顔特徴セットを使用して前記第2の画像正規化を第2の訓練顔画像に適用して、前記第2の訓練顔画像における前記第2の顔AUを識別するように前記顔解析エンジンを訓練することと、
を含む、付記11に記載のコンピュータ読取可能媒体。
(付記18)
前記第1の画像正規化及び前記第2の画像正規化は、前記第1の画像正規化及び前記第2の画像正規化において前記第1のベース顔特徴セット及び前記第2のベース顔特徴セットをそれぞれ使用することを除き、同じである、付記11に記載のコンピュータ読取可能媒体。
(付記19)
前記オペレーションは、前記解析顔画像における前記第1の顔AU及び前記第2の顔AUのうち少なくとも1つの強度を推定することをさらに含む、付記11に記載のコンピュータ読取可能媒体。
(付記20)
システムであって、
1つ以上のプロセッサと、
前記1つ以上のプロセッサにより実行されたときに当該システムにオペレーションを実行させる命令を含む1つ以上の非一時的コンピュータ読取可能媒体と、を備え、
前記オペレーションは、
正面顔を有するベース顔画像を取得することと、
前記ベース顔画像内の第1のベース顔特徴セットを取得することであり、前記第1のベース顔特徴セットは、解析顔画像において検出されるべき第1の顔動作単位(AU)に関連づけられるものとして選択される、ことと、
前記ベース顔画像内の第2のベース顔特徴セットを取得することであり、前記第2のベース顔特徴セット内の少なくとも1つの顔特徴が前記第1のベース顔特徴セット内のものと異なり、前記第2のベース顔特徴セットは、前記解析顔画像において検出されるべき第2の顔AUに関連づけられるものとして選択される、ことと
前記解析顔画像を取得することと、
前記第1のベース顔特徴セットを使用して前記解析顔画像に第1の画像正規化を適用して、前記解析顔画像における前記第1の顔AUの確率の予測を容易にすることと、
前記第2のベース顔特徴セットを使用して前記解析顔画像に第2の画像正規化を適用して、前記解析顔画像における前記第2の顔AUの確率の予測を容易にすることと、
を含む、システム。
Claims (10)
- ベース顔画像を取得するステップと、
前記ベース顔画像内の第1のベース顔特徴セットを取得するステップであり、前記第1のベース顔特徴セットは、解析顔画像において検出されるべき第1の顔動作単位(AU)に関連づけられるものとして選択される、ステップと、
前記ベース顔画像内の第2のベース顔特徴セットを取得するステップであり、前記第2のベース顔特徴セット内の少なくとも1つの顔特徴が前記第1のベース顔特徴セット内のものと異なり、前記第2のベース顔特徴セットは、前記解析顔画像において検出されるべき第2の顔AUに関連づけられるものとして選択される、ステップと、
前記解析顔画像を取得するステップと、
前記第1のベース顔特徴セットを使用して前記解析顔画像に第1の画像正規化を適用して、前記解析顔画像における前記第1の顔AUの確率の予測を容易にするステップと、
前記第2のベース顔特徴セットを使用して前記解析顔画像に第2の画像正規化を適用して、前記解析顔画像における前記第2の顔AUの確率の予測を容易にするステップと、
を含む方法。 - 前記第1の画像正規化を適用するステップは、前記第1のベース顔特徴セットを使用してプロクラステス解析変換を適用するステップを含む、請求項1に記載の方法。
- 前記第1のベース顔特徴セットは、前記第1の顔AUの間に動く顔の領域に位置づけられるように選択される、請求項1に記載の方法。
- 前記第1のベース顔特徴セットの密度が、前記第1の顔AUの間に動かない前記顔の領域より前記第1の顔AUの間に動く前記顔の領域においてより高密度であるように選択される、請求項3に記載の方法。
- 前記第1のベース顔特徴セットは、前記第1の顔AUの間に動く顔特徴が前記第1の顔AUの間に動かない顔特徴より重く重み付けされるように、重み付けされる、請求項1に記載の方法。
- 前記第1のベース顔特徴セットの重みは、遮蔽感度マップ、又は前記第1の顔AUに関連づけられた動きで使用される筋群のセット、のうち少なくとも1つに基づいて決定される、請求項4に記載の方法。
- 複数の訓練顔画像に対してオペレーションを実行することにより顔解析エンジンを訓練するステップ、をさらに含み、前記オペレーションは、
前記第1のベース顔特徴セットを使用して前記第1の画像正規化を第1の訓練顔画像に適用して、前記第1の訓練顔画像における前記第1の顔AUを識別するように前記顔解析エンジンを訓練することと、
前記第2のベース顔特徴セットを使用して前記第2の画像正規化を第2の訓練顔画像に適用して、前記第2の訓練顔画像における前記第2の顔AUを識別するように前記顔解析エンジンを訓練することと、
を含む、請求項1に記載の方法。 - 前記解析顔画像における前記第1の顔AU及び前記第2の顔AUのうち少なくとも1つの強度を推定するステップ、をさらに含む請求項1に記載の方法。
- 1つ以上のプロセッサにオペレーションを実行させるコンピュータプログラムであって、前記オペレーションは、
正面顔を有するベース顔画像を取得することと、
前記ベース顔画像内の第1のベース顔特徴セットを取得することであり、前記第1のベース顔特徴セットは、解析顔画像において検出されるべき第1の顔動作単位(AU)に関連づけられるものとして選択される、ことと、
前記ベース顔画像内の第2のベース顔特徴セットを取得することであり、前記第2のベース顔特徴セット内の少なくとも1つの顔特徴が前記第1のベース顔特徴セット内のものと異なり、前記第2のベース顔特徴セットは、前記解析顔画像において検出されるべき第2の顔AUに関連づけられるものとして選択される、ことと
前記解析顔画像を取得することと、
前記第1のベース顔特徴セットを使用して前記解析顔画像に第1の画像正規化を適用して、前記解析顔画像における前記第1の顔AUの確率の予測を容易にすることと、
前記第2のベース顔特徴セットを使用して前記解析顔画像に第2の画像正規化を適用して、前記解析顔画像における前記第2の顔AUの確率の予測を容易にすることと、
を含む、コンピュータプログラム。 - システムであって、
1つ以上のプロセッサと、
前記1つ以上のプロセッサにより実行されたときに当該システムにオペレーションを実行させる命令を含む1つ以上の非一時的コンピュータ読取可能媒体と、を備え、
前記オペレーションは、
正面顔を有するベース顔画像を取得することと、
前記ベース顔画像内の第1のベース顔特徴セットを取得することであり、前記第1のベース顔特徴セットは、解析顔画像において検出されるべき第1の顔動作単位(AU)に関連づけられるものとして選択される、ことと、
前記ベース顔画像内の第2のベース顔特徴セットを取得することであり、前記第2のベース顔特徴セット内の少なくとも1つの顔特徴が前記第1のベース顔特徴セット内のものと異なり、前記第2のベース顔特徴セットは、前記解析顔画像において検出されるべき第2の顔AUに関連づけられるものとして選択される、ことと
前記解析顔画像を取得することと、
前記第1のベース顔特徴セットを使用して前記解析顔画像に第1の画像正規化を適用して、前記解析顔画像における前記第1の顔AUの確率の予測を容易にすることと、
前記第2のベース顔特徴セットを使用して前記解析顔画像に第2の画像正規化を適用して、前記解析顔画像における前記第2の顔AUの確率の予測を容易にすることと、
を含む、システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/563,559 US11244206B2 (en) | 2019-09-06 | 2019-09-06 | Image normalization for facial analysis |
US16/563559 | 2019-09-06 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021043960A true JP2021043960A (ja) | 2021-03-18 |
JP7479031B2 JP7479031B2 (ja) | 2024-05-08 |
Family
ID=74833642
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020133206A Active JP7479031B2 (ja) | 2019-09-06 | 2020-08-05 | 顔解析のための画像正規化 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11244206B2 (ja) |
JP (1) | JP7479031B2 (ja) |
CN (1) | CN112464699A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113392822B (zh) * | 2021-08-18 | 2021-10-29 | 华中科技大学 | 基于特征分离表征学习的面部运动单元检测方法及系统 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8798374B2 (en) | 2008-08-26 | 2014-08-05 | The Regents Of The University Of California | Automated facial action coding system |
CN101593365A (zh) * | 2009-06-19 | 2009-12-02 | 电子科技大学 | 一种通用三维人脸模型的调整方法 |
JP5913940B2 (ja) | 2011-12-01 | 2016-05-11 | キヤノン株式会社 | 画像認識装置、画像認識装置の制御方法、およびプログラム |
CN102663361B (zh) * | 2012-04-01 | 2014-01-01 | 北京工业大学 | 一种面向整体特征分析的人脸图像可逆几何归一化方法 |
KR102094723B1 (ko) | 2012-07-17 | 2020-04-14 | 삼성전자주식회사 | 견고한 얼굴 표정 인식을 위한 특징 기술자 |
US9547808B2 (en) * | 2013-07-17 | 2017-01-17 | Emotient, Inc. | Head-pose invariant recognition of facial attributes |
WO2016061780A1 (en) | 2014-10-23 | 2016-04-28 | Intel Corporation | Method and system of facial expression recognition using linear relationships within landmark subsets |
US10255487B2 (en) * | 2015-12-24 | 2019-04-09 | Casio Computer Co., Ltd. | Emotion estimation apparatus using facial images of target individual, emotion estimation method, and non-transitory computer readable medium |
JP2017120609A (ja) | 2015-12-24 | 2017-07-06 | カシオ計算機株式会社 | 感情推定装置、感情推定方法及びプログラム |
CN106919884A (zh) * | 2015-12-24 | 2017-07-04 | 北京汉王智远科技有限公司 | 面部表情识别方法及装置 |
CN107169413B (zh) * | 2017-04-12 | 2021-01-12 | 上海大学 | 一种基于特征块权重化的面部表情识别方法 |
CN107633207B (zh) * | 2017-08-17 | 2018-10-12 | 平安科技(深圳)有限公司 | Au特征识别方法、装置及存储介质 |
CN107886558A (zh) * | 2017-11-13 | 2018-04-06 | 电子科技大学 | 一种基于RealSense的人脸表情动画驱动方法 |
CA3044281C (en) * | 2018-05-28 | 2021-09-21 | Adrian Razvan Nestor | System and method for generating visual identity and category reconstruction from electroencephalography (eeg) signals |
CN109190490B (zh) * | 2018-08-08 | 2021-11-23 | 陕西科技大学 | 基于小数据集下的面部表情bn识别方法 |
US20200074240A1 (en) * | 2018-09-04 | 2020-03-05 | Aic Innovations Group, Inc. | Method and Apparatus for Improving Limited Sensor Estimates Using Rich Sensors |
CN109766840B (zh) * | 2019-01-10 | 2024-02-20 | 腾讯科技(深圳)有限公司 | 人脸表情识别方法、装置、终端及存储介质 |
-
2019
- 2019-09-06 US US16/563,559 patent/US11244206B2/en active Active
-
2020
- 2020-08-05 JP JP2020133206A patent/JP7479031B2/ja active Active
- 2020-08-06 CN CN202010783782.6A patent/CN112464699A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
JP7479031B2 (ja) | 2024-05-08 |
US11244206B2 (en) | 2022-02-08 |
CN112464699A (zh) | 2021-03-09 |
US20210073600A1 (en) | 2021-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021047232A1 (zh) | 交互行为识别方法、装置、计算机设备和存储介质 | |
US10445562B2 (en) | AU feature recognition method and device, and storage medium | |
US9349076B1 (en) | Template-based target object detection in an image | |
US9460360B2 (en) | Method and apparatus for learning-enhanced atlas-based auto-segmentation | |
US10062172B2 (en) | Automated tattoo recognition techniques | |
Le Ngo et al. | Spontaneous subtle expression recognition: Imbalanced databases and solutions | |
KR101725651B1 (ko) | 식별 장치 및 식별 장치의 제어 방법 | |
Billah et al. | Real-time goat face recognition using convolutional neural network | |
CN109472213B (zh) | 掌纹识别方法、装置、计算机设备和存储介质 | |
CN111448581A (zh) | 使用深层神经网络进行图像处理的系统和方法 | |
US11244157B2 (en) | Image detection method, apparatus, device and storage medium | |
US20130251246A1 (en) | Method and a device for training a pose classifier and an object classifier, a method and a device for object detection | |
WO2019223147A1 (zh) | 肝脏癌变定位方法、装置及存储介质 | |
US20190228209A1 (en) | Lip movement capturing method and device, and storage medium | |
US8948517B2 (en) | Landmark localization via visual search | |
JP6387831B2 (ja) | 特徴点位置検出装置、特徴点位置検出方法および特徴点位置検出プログラム | |
CN109345460B (zh) | 用于矫正图像的方法和装置 | |
WO2022170896A1 (zh) | 关键点检测方法、系统、智能终端和存储介质 | |
Shih | An unsupervised hair segmentation and counting system in microscopy images | |
JP2021043960A (ja) | 顔解析のための画像正規化 | |
JP2010220908A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
CN108288023B (zh) | 人脸识别的方法和装置 | |
CN113705511A (zh) | 手势识别方法及装置 | |
Schulz et al. | Deriving image features for autonomous classification from time-series recurrence plots | |
CN112330652A (zh) | 基于深度学习的染色体识别方法、装置和计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230508 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240312 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240319 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240415 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7479031 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |