JP7063823B2 - 表情の認識および注釈付けのためのシステムおよび方法 - Google Patents
表情の認識および注釈付けのためのシステムおよび方法 Download PDFInfo
- Publication number
- JP7063823B2 JP7063823B2 JP2018562947A JP2018562947A JP7063823B2 JP 7063823 B2 JP7063823 B2 JP 7063823B2 JP 2018562947 A JP2018562947 A JP 2018562947A JP 2018562947 A JP2018562947 A JP 2018562947A JP 7063823 B2 JP7063823 B2 JP 7063823B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- face
- facial
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 82
- 230000008921 facial expression Effects 0.000 title description 29
- 230000008451 emotion Effects 0.000 claims description 68
- 230000001815 facial effect Effects 0.000 claims description 62
- 239000013598 vector Substances 0.000 claims description 57
- 230000002996 emotional effect Effects 0.000 claims description 33
- 230000008859 change Effects 0.000 claims description 19
- 238000004458 analytical method Methods 0.000 claims description 13
- 238000013528 artificial neural network Methods 0.000 claims description 12
- 230000009471 action Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 description 66
- 230000008569 process Effects 0.000 description 39
- 238000012549 training Methods 0.000 description 22
- 238000001514 detection method Methods 0.000 description 20
- 238000012360 testing method Methods 0.000 description 18
- 230000007935 neutral effect Effects 0.000 description 13
- 239000011159 matrix material Substances 0.000 description 12
- 238000013507 mapping Methods 0.000 description 11
- 238000004422 calculation algorithm Methods 0.000 description 10
- 238000013459 approach Methods 0.000 description 9
- 230000014509 gene expression Effects 0.000 description 9
- 210000003491 skin Anatomy 0.000 description 8
- 230000004913 activation Effects 0.000 description 7
- 230000000877 morphologic effect Effects 0.000 description 7
- 238000002790 cross-validation Methods 0.000 description 6
- 238000009795 derivation Methods 0.000 description 6
- 239000006185 dispersion Substances 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 239000003086 colorant Substances 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000009826 distribution Methods 0.000 description 5
- 210000004709 eyebrow Anatomy 0.000 description 5
- 210000000887 face Anatomy 0.000 description 5
- 230000008447 perception Effects 0.000 description 5
- XOJVVFBFDXDTEG-UHFFFAOYSA-N Norphytane Natural products CC(C)CCCC(C)CCCC(C)CCCC(C)C XOJVVFBFDXDTEG-UHFFFAOYSA-N 0.000 description 4
- 210000003205 muscle Anatomy 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000017531 blood circulation Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 238000000844 transformation Methods 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 238000005284 basis set Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000001149 cognitive effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013434 data augmentation Methods 0.000 description 2
- 210000001097 facial muscle Anatomy 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000014616 translation Effects 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 201000004624 Dermatitis Diseases 0.000 description 1
- 235000009355 Dianthus caryophyllus Nutrition 0.000 description 1
- 240000006497 Dianthus caryophyllus Species 0.000 description 1
- 102000001554 Hemoglobins Human genes 0.000 description 1
- 108010054147 Hemoglobins Proteins 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 208000029560 autism spectrum disease Diseases 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 208000030251 communication disease Diseases 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013501 data transformation Methods 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006397 emotional response Effects 0.000 description 1
- 210000002615 epidermis Anatomy 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 201000003723 learning disability Diseases 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 210000000088 lip Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000006996 mental state Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000001354 painful effect Effects 0.000 description 1
- 235000007183 paleface Nutrition 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 208000028173 post-traumatic stress disease Diseases 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000002792 vascular Effects 0.000 description 1
- 210000000857 visual cortex Anatomy 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/169—Holistic features and representations, i.e. based on the facial image taken as a whole
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/175—Static expression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、国立眼科研究所、および国立聴覚・伝達障害研究所によって授与された助成金番号R01-EY-020834およびRO1-DC-014498の下で政府の支援を受けてなされた。どちらの機関も国立衛生研究所の一部である。 政府は本発明において一定の権利を有する。
の例を示す。いくつか(例えば、15個)のランドマークが解剖学的ランドマーク(例えば、目の角、口、眉毛、鼻の先端、およびあご)に対応することができる。他のランドマークは、まぶた、口、眉、唇、および顎の線の端、ならびに鼻の先端から2つの目の中心によって与えられる水平線までの鼻の正中線を定義する疑似ランドマークであり得る。各顔の構成要素(例えば、眉毛)の輪郭を画定する擬似ランドマークの数は一定であり、これは、異なる顔または人に対してランドマーク位置の同等性を提供する。
を定義する。
はkthのランドマークの2D画像座標である。ni はAUiが存在するサンプル画像の数である。いくつかの実施形態において、顔のランドマークは、コンピュータビジョンアルゴリズムを用いて取得され得る。例えば、コンピュータビジョンアルゴリズムは、ランドマークの数が66個の場合
において、図2aに示すように、任意の数のランドマーク(例えば、テスト画像中の66個の検出されたランドマーク)を自動的に検出するために使用することができる)。
とし、
とし、l、rは、左右の目の中心の画像座標であり、
は、ベクトル
およびτ= 300の2ノルムを定義する。各目の中心の位置は、目の2つの角を画定するランドマーク間の幾何学的中間点として容易に計算することができる。
を正規化されたランドマークa=1,…,p-1,b=a+1,p間のユークリッド距離とし、θa = (θa1, … , θaqa)Tは、
および
を起点とする数qaを伴う正規化されたランドマーク
から出る各ドロネー三角形によって定義される角度である(境界がない境界点についても同等性が成り立つ)。この図の各三角形は3つの角度で定義できるため、この例では107個の三角形があるので、形状特徴ベクトル内の角度の総数は321である。形状特徴ベクトルは
であり、ドロネー三角形分割のpはランドマークの数、tは三角形の数である。この例では、p =66、t =107で、ベクトル
である。
のそれぞれを中心とするガボールフィルタを使用して、皮膚の局所的変形によるシェーディング変化をモデル化することができる。顔筋群が顔の皮膚を局所的に変形させると(例えば皮膚の双方向反射率分布関数は、皮膚のしわの関数として定義される。これは、光が表皮と真皮の間を透過して移動する方法を変更し、ヘモグロビンレベルも変化させる可能性があるためである。)、皮膚の表面上の点から見て、皮膚の反射率特性が変化し、光源が短くなる。
は波長(すなわち、サイクル数/ピクセル)、αは方向(すなわち、正弦関数の法線ベクトルの角度)、φは位相(すなわち、正弦関数のオフセット)、γは(空間的)アスペクト比、σはフィルタのスケール(ガウス窓の標準偏差)である。
γ=1。値は感情の表情を表すのに適している。o、s、およびrの値は、トレーニングセットの交差検定を使用して学習される。
と定義され、*は、フィルタg(.)と画像Iijとの畳み込みを定義し、λkは、上で定義された集合λのkth番目の要素である。同じことがαkとφkにも当てはまるが、これは一般に1なのでγには当てはまらない。
j = 1, ... , niに対してyij = 1であり、AUiが画像に存在することを示し、j = ni + 1, ..., ni + miに対してyij = 0であり、AUiが画像に存在しないことを示し、miはAUiがアクティブでないサンプル画像の数である。
は、強度a(すなわち、AUの活性化の最低強度)で活性なAUiを有するniaサンプルを含むみ、セット
は、強度b(2番目に小さい強度)でアクティブなAUiを持つnibサンプルである。
であり、pil= nl/niは、クラスiのサブクラスlの前のものであり(すなわちAUiを定義するクラス)、nlは、サブクラスlのサンプル数であり、
は、マッピング関数ji(.)で定義されるカーネル空間のクラスiのサブクラスlのサンプル平均である。
νiはRBFの分散であり、j1,j2=1,...,ni+miである。それ故、本発明のKSDAに基づく分類器は、以下の解によって与えられる。
に対応するサンプル特徴ベクトルを含む。
によって容易に与えられる。
iはサンプルビデオインデックス(Vi)、jはローカルパッチ番号、riはこのビデオシーケンスのフレーム数である。この特徴表現は、パッチjにおける色の寄与を定義する。いくつかの実施形態では、特徴表現の豊かさを増すために他の証明済みの特徴を含めることができる。たとえば、フィルタへの応答や形状特徴である。
であり、
である一組のb個の基底関数
によって張られた色空間において定義される。2つの色記述子の機能的内積は、
で定義されることができ、
を定義し、各関数γz(t)は所与のパッチにおけるカラーチャネルの平均または標準偏差である。基底展開アプローチを使用すると、それぞれ
は、係数cieのセットによって定義され、したがって、Γi(t)は次式で与えられる。
で定義される。いくつかの実施形態では、係数は、非線形回帰を使用してトレーニングデータから学習することができる。
とする。回帰は、上で定義されたように、画像から機能的色表現へのマッピングを推定するために使用される。たとえば、カーネルリッジ回帰を使用して、テスト画像のqth番目の係数をNと推定する。
の色特徴ベクトルであり、すべてのトレーニング画像のjth番目のパッチの係数のベクトルであり、Kはカーネル行列
である。システムはラジアル基底関数カーネル
を使用できる。いくつかの実施形態では、パラメータηおよびλは、精度を最大にし、モデルの複雑さを最小にするように選択される。これはバイアスと分散のトレードオフを最適化することと同じである。このシステムは、当技術分野で知られているようにバイアス分散問題に対する解決策を使用する。
が以前には見られなかったテスト画像であるならば、その機能的表現は
と
として容易に得られる。この機能的色表現は、上記で導出された機能的分類子において直接使用され得る。
として表し、顔の各顔面成分のr個のランドマーク点を
画像上のランドマーク点の2次元座標、として表す。ここで、iは主題を指定し、jは感情カテゴリを指定する。いくつかの実施形態において、システムはrを66として使用する。これらの基準点は、内部の輪郭と、顔の外部要素、例えば、口、鼻、目、眉、あごの稜と紋を定義する。ドロネー三角形分割は、これらの顔のランドマーク点によって定義される三角形の局所領域を生成するために使用することができる。この三角形分割は、いくつかの局所領域(例えば、66個のランドマーク点を使用するときには142個の領域)をもたらす。この数をaとする。
の内部におけるl個の画素を含むベクトルであり、ここで、
は、各画素の3つのカラーチャネルの値を定義する。
ここで、nは、この特徴ベクトルが感情カテゴリではなく中立的な表現に対応することを示す。平均的な中立面は以下である。
mは、トレーニングセット内の識別子の数である。感情の顔表情の色表現は、この中立の顔からの偏差によって与えられる。
ここで、以下は、(正規化された)共分散行列である。
以下は、クラス平均である。
以下は、識別マトリクスである。
δ=.01が正規化パラメータであり、Cはクラスの数である。
の計算に使用されなかったサブセットStのサンプルは、
に投射される。各テストサンプルの特徴ベクトル
は、以下のユークリッド距離によって与えられる最も近いカテゴリ平均の感情カテゴリに割り当てられる。
すべてのテストサンプル
における分類精度は、以下によって与えられる。
ここで、ntはStにおけるサンプル数であり、y(tj)は、サンプルtjの真の感情カテゴリを返すオラクル関数であり、
は0-1損失であり、
であるときには1であり、それ以外では0である。したがって、Stは、カラーモデルの一般化を判断するためのテスト用サブセットとして機能する。tは1、…、10であるため、システムは、この手続きを10回繰り返すことができる。各回では、サブセットStのうちの1つをテストのために残す。そして、以下のように平均分類精度を計算する。
交差検証された分類精度の標準偏差は、以下である。
このプロセスにより、システムは、最も一般化された識別色特徴、すなわち、トレーニングセットに含まれない画像に適用されるものを識別できる。
にダウンサンプリングを適用することができる。いくつかの場合において、システムは、
からランダムサンプルを引き出すたびに、
におけるサンプル数に一致するように、この手順を複数回繰り返す。
は、最大から最小の判別の順に序で並べた一連の判別可能なベクトル
を与える。
以下の判別ベクトルは、感情カテゴリを識別するときの各色特徴の寄与を定義する。
これは、非ゼロ固有値λ1>0に関連する唯一の基底ベクトルであるため、システムはv1を保持するだけである。したがって、感情jのカラーモデルは、以下によって与えられる。
と呼ぶことができる。ここで、iは画像または画像内の個人を特定し、jは感情カテゴリを特定する。
は、以下の修正された色特徴ベクトルに対応する。
いくつかの実施形態において、これらの画像を生成するために、システムは、以下のように感情jのカラーモデルを用いて、中立画像のkth番目の画素を修正する。
ここで、Iinkは、中立画像Iinにおけるkth番目の画素である。
は、gth番目のドロネー三角形内における画素の色の平均および標準偏差である。
は、ニューモデルyijによって与えられるdgにおける画素の色の平均および標準偏差である。
を得ることができる。画像は、以下の関連する特徴ベクトルを用いて、上述したように計算される。
である。ここで、2D画像座標uij及びvijの推定値として、
である。同様に、AUの認識では、r = q及び
である。ここで、
は、AUjが、画像Ii内に存在(1)するか存在しない(-1)の推定値であり、qはAUの数である。
に対しても、いくつかの解決策を有している。例えば、誤差は、すべての出力に均等に分散させることができる。
ここで、
は、ベクトルの2ノルムである。または、誤差の大部分は、次のように定義される推定値の1つ(または少数)にある。
の領域は、以下によって与えられる。
この関数は微分ではないが、システムは、それを、小さい部分
に対して、以下のように再定義する。
偏導関数は、以下になる。
ここで、sik ∈ R2は、kthのランドマークの2D画像座標であり、nは、サンプル画像の数である。故に、si ∈ R132となる。次に、すべての画像をτピクセルの同じ眼間距離を持つように正規化する。すなわち、以下となる。
ここで、l及びrは左右の目の中心の画像座標であり、|| ・ ||2はベクトルの2ノルムを定義する。
τ=200を用いることができる。
また、システムは、ランドマーク点に回転行列Rを乗算して、左右の目の外側の角が水平線と一致するようにする。システムは、
の値を再調整してシフトし、画像内の左目と右目の外側のコーナーをそれぞれ(.5,0)と(-.5,0)の所定の位置に移動させる。
したがって、方法クレームがそのステップが従うべき順序を実際には記載していないか、またはステップが特定の順序に限定されるべきであることがクレームまたは説明において別段に具体的に述べられていない場合、いかなる意味においても、順序が推測されることを意図するものでは決してない。これには、解釈のためのあらゆる非明示的な根拠が含まれ、根拠は、ステップの配置や操作の流れに関する論理的事項、文法上の編成または句読点から派生した単純な意味、明細書に記載されている実施形態の数または種類を含む。本出願を通して、様々な刊行物を参照することができる。これらの刊行物の全体の開示は、方法およびシステムが属する技術水準をより完全に説明するために、参照により本明細書に組み込まれる。範囲または精神から逸脱することなく様々な修正および変形をなし得ることが当業者には明らかであろう。他の実施形態は、本明細書の考察および本明細書に開示された実施から当業者には明らかであろう。明細書および実施例は例示としてのみ考慮されることを意図しており、真の範囲および精神は特許請求の範囲によって示される。
Claims (11)
- アクションユニット値(AU値)およびAU強度値を決定するために画像を分析するためのコンピュータ実施方法は、
形状特徴およびシェーディング特徴の複数のカーネル空間を維持し、各カーネル空間は他のカーネル空間と非線形に分離可能であり、各カーネル空間は1つまたは複数のAU値、および1つまたは複数のAU強度値に関連付けられ、
分析対象の複数の画像をコンピュータシステムによって受信することを含み、
受信する画像ごとに、
画像中の顔の形状特徴およびシェーディング特徴の顔空間データを決定し、前記顔空間データは、形状特徴ベクトル、および前記顔のシェーディング変化に関連するシェーディング特徴ベクトルを含み、画像の特徴は、グローバルローカル(GL)損失関数を含むディープニューラルネットワークを使用して導出されたランドマーク点と、AU、AU強度値、感情カテゴリ、および、前記画像上に投影されたランドマーク点の局所的および全体的適合の両方を逆伝播するように構成されたグローバルローカル(GL)損失関数を含むディープニューラルネットワークを使用して導出されたそれらの強度を識別するための画像の特徴と、を含み、
形状特徴およびシェーディング特徴の決定された前記顔空間データの存在を判定するために、形状特徴の決定された前記顔空間データを前記複数のカーネル空間と比較して前記画像に対する0、1つまたは複数のAU値を決定する。 - 請求項1に記載の方法は、
前記複数の画像のそれぞれについてのAU値およびAU強度値を決定するために、前記複数の画像を含むビデオストリームをリアルタイムで処理することを含む。 - 請求項1に記載の方法では、
前記決定された前記形状特徴の前記顔空間データは、前記画像から形成されたドロネー三角形内の正規化されたランドマーク間の距離および角度値、ならびに前記正規化されたランドマークに対応する前記各ドロネー三角形によって定義される角度を含む。 - 請求項1に記載の方法では、
前記顔のシェーディング変化に関連する前記シェーディング特徴ベクトルは、
前記顔から決定された正規化されたランドマーク点にガボールフィルタを適用することによって決定される。 - 請求項1に記載の方法では、前記AU値および前記AU強度値は、まとめて、感情および感情強度を定義する。
- 請求項1に記載の方法では、前記画像は写真を含む。
- 請求項1に記載の方法では、前記画像はビデオシーケンスのフレームを含む。
- 請求項1に記載の方法では、前記コンピュータシステムは、白黒画像またはカラー画像を使用する。
- 請求項1に記載の方法は、
画像を受信し、
受信画像を処理して、前記受信画像内の顔のAU値およびAU強度値を決定することを含む。 - 請求項1に記載の方法は、
第1のデータベースから第1の複数の画像を受信し、
第2のデータベースから第2の複数の画像を受信し、
受信した前記第1の複数の画像および前記第2の複数の画像を処理して、画像ごとに、各画像内の顔のAU値およびAU強度値を決定することを含み、
前記第1の複数の画像は、第1の取得形態を有し、前記第2の複数の画像は、第2の取得形態を有し、前記第1の取得形態は、前記第2の取得形態と異なる。 - 請求項1に記載の方法は、
前記顔空間上でカーネルサブクラス判別分析(KSDA)を実行し、
前記KSDAに基づいて、AUとAU強度、感情カテゴリ、および感情強度を認識することを含む。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662343994P | 2016-06-01 | 2016-06-01 | |
US62/343,994 | 2016-06-01 | ||
PCT/US2017/035502 WO2017210462A1 (en) | 2016-06-01 | 2017-06-01 | System and method for recognition and annotation of facial expressions |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019517693A JP2019517693A (ja) | 2019-06-24 |
JP7063823B2 true JP7063823B2 (ja) | 2022-05-09 |
Family
ID=60477856
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018562947A Active JP7063823B2 (ja) | 2016-06-01 | 2017-06-01 | 表情の認識および注釈付けのためのシステムおよび方法 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11314967B2 (ja) |
EP (1) | EP3465615A4 (ja) |
JP (1) | JP7063823B2 (ja) |
KR (1) | KR102433971B1 (ja) |
WO (1) | WO2017210462A1 (ja) |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018033137A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 在视频图像中展示业务对象的方法、装置和电子设备 |
CN106780662B (zh) * | 2016-11-16 | 2020-09-18 | 北京旷视科技有限公司 | 人脸图像生成方法、装置及设备 |
CN106780658B (zh) | 2016-11-16 | 2021-03-09 | 北京旷视科技有限公司 | 人脸特征添加方法、装置及设备 |
CN108229269A (zh) * | 2016-12-31 | 2018-06-29 | 深圳市商汤科技有限公司 | 人脸检测方法、装置和电子设备 |
MX2020007686A (es) * | 2018-01-19 | 2020-11-12 | Univ Texas | Sistemas y métodos para evaluar la emoción de compromiso y atención individual, grupal y de una multitud. |
CN110211016B (zh) * | 2018-02-28 | 2022-11-01 | 佛山科学技术学院 | 一种基于卷积特征的水印嵌入方法 |
CN110321427A (zh) * | 2018-03-28 | 2019-10-11 | 广东亿迅科技有限公司 | 面向不平衡数据集的基于bagging算法的文本分类方法及装置 |
US10789753B2 (en) | 2018-04-23 | 2020-09-29 | Magic Leap, Inc. | Avatar facial expression representation in multidimensional space |
CN108764048B (zh) * | 2018-04-28 | 2021-03-16 | 中国科学院自动化研究所 | 人脸关键点检测方法及装置 |
CN108763216A (zh) * | 2018-06-01 | 2018-11-06 | 河南理工大学 | 一种基于中文数据集的文本情感分析方法 |
USD896254S1 (en) * | 2018-10-30 | 2020-09-15 | Perfect Mobile Corp. | Display screen with graphical user interface |
WO2020222785A1 (en) * | 2019-04-30 | 2020-11-05 | Hewlett-Packard Development Company, L.P. | Facial action unit detection |
CN110287792B (zh) * | 2019-05-23 | 2021-05-04 | 华中师范大学 | 一种处于自然教学环境的课堂中学生学习状态实时分析方法 |
CN110532880B (zh) * | 2019-07-29 | 2022-11-22 | 深圳大学 | 样本筛选及表情识别方法、神经网络、设备及存储介质 |
CN111178263B (zh) * | 2019-12-30 | 2023-09-05 | 武汉美和易思数字科技有限公司 | 一种实时表情分析方法及其装置 |
US11687778B2 (en) | 2020-01-06 | 2023-06-27 | The Research Foundation For The State University Of New York | Fakecatcher: detection of synthetic portrait videos using biological signals |
JP7452016B2 (ja) * | 2020-01-09 | 2024-03-19 | 富士通株式会社 | 学習データ生成プログラム、及び学習データ生成方法 |
KR102324231B1 (ko) * | 2020-01-28 | 2021-11-08 | 연세대학교 산학협력단 | 표정 분류를 통한 차량 위급 상황 검출 장치 |
CN111601181B (zh) * | 2020-04-27 | 2022-04-29 | 北京首版科技有限公司 | 生成视频指纹数据的方法及装置 |
US11568680B2 (en) * | 2020-04-27 | 2023-01-31 | David K. Pederson | Therapeutic smile detection systems |
KR102200816B1 (ko) * | 2020-06-29 | 2021-01-12 | 주식회사 퓨처플랫폼 | 얼굴 이미지를 이용한 정신건강 자가관리 제공 방법 및 정신건강 자가관리 제공 시스템 |
WO2022003843A1 (ja) * | 2020-06-30 | 2022-01-06 | 富士通株式会社 | 判定プログラム、判定装置、および判定方法 |
KR102548970B1 (ko) * | 2020-07-07 | 2023-06-28 | 주식회사 유엑스팩토리 | 얼굴 표정에 관한 데이터 세트를 생성하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
WO2022064660A1 (ja) | 2020-09-25 | 2022-03-31 | 富士通株式会社 | 機械学習プログラム、機械学習方法および推定装置 |
CN112668551B (zh) * | 2021-01-18 | 2023-09-22 | 上海对外经贸大学 | 基于遗传算法的表情分类方法 |
CN112766172B (zh) * | 2021-01-21 | 2024-02-02 | 北京师范大学 | 一种基于时序注意力机制的人脸连续表情识别方法 |
US11776210B2 (en) * | 2021-01-22 | 2023-10-03 | Sony Group Corporation | 3D face modeling based on neural networks |
CN112784800B (zh) * | 2021-02-02 | 2022-05-10 | 浙江大学 | 一种基于神经网络和形状约束的人脸关键点检测方法 |
CN113076813B (zh) * | 2021-03-12 | 2024-04-12 | 首都医科大学宣武医院 | 面具脸特征识别模型训练方法和装置 |
US20220300993A1 (en) * | 2021-03-18 | 2022-09-22 | Jio Platforms Limited | System and method for conducting a survey by a survey bot |
CN113076905B (zh) * | 2021-04-16 | 2022-12-16 | 华南理工大学 | 一种基于上下文交互关系的情绪识别方法 |
CN113239219B (zh) * | 2021-05-12 | 2022-05-20 | 山东大学 | 一种基于多模态查询的图像检索方法、系统、介质及设备 |
CN113298007B (zh) * | 2021-06-04 | 2024-05-03 | 西北工业大学 | 一种小样本sar图像目标识别方法 |
CN113255617B (zh) * | 2021-07-07 | 2021-09-21 | 腾讯科技(深圳)有限公司 | 图像识别方法、装置、电子设备和计算机可读存储介质 |
CN114582004A (zh) * | 2022-04-28 | 2022-06-03 | 中国科学技术大学 | 人脸表情识别方法、系统、设备及存储介质 |
CN115546878B (zh) * | 2022-11-23 | 2023-02-03 | 华中科技大学 | 基于注意力机制的面部au检测模型建立方法及其应用 |
CN116884067B (zh) * | 2023-07-12 | 2024-06-14 | 成都信息工程大学 | 一种基于改进的隐式语义数据增强的微表情识别方法 |
CN117653042B (zh) * | 2024-01-31 | 2024-04-26 | 中船凌久高科(武汉)有限公司 | 基于多模态的被看护人员疼痛级别判定方法及测试装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100086215A1 (en) | 2008-08-26 | 2010-04-08 | Marian Steward Bartlett | Automated Facial Action Coding System |
JP2010534376A (ja) | 2007-07-23 | 2010-11-04 | ザ プロクター アンド ギャンブル カンパニー | しわのエイジング及びディエイジングの現実的シミュレーションの方法及び装置 |
US20110263946A1 (en) | 2010-04-22 | 2011-10-27 | Mit Media Lab | Method and system for real-time and offline analysis, inference, tagging of and responding to person(s) experiences |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2522859B2 (ja) * | 1990-12-14 | 1996-08-07 | 日産自動車株式会社 | 眼位置検出装置 |
US7054468B2 (en) | 2001-12-03 | 2006-05-30 | Honda Motor Co., Ltd. | Face recognition using kernel fisherfaces |
US6879709B2 (en) * | 2002-01-17 | 2005-04-12 | International Business Machines Corporation | System and method for automatically detecting neutral expressionless faces in digital images |
US8488023B2 (en) * | 2009-05-20 | 2013-07-16 | DigitalOptics Corporation Europe Limited | Identifying facial expressions in acquired digital images |
JP4240108B2 (ja) * | 2006-10-31 | 2009-03-18 | ソニー株式会社 | 画像記憶装置、撮像装置、画像記憶方法およびプログラム |
US8005270B2 (en) * | 2008-04-11 | 2011-08-23 | Youdocs Llc | System and method for determining an objective measure of human beauty |
RU2431190C2 (ru) * | 2009-06-22 | 2011-10-10 | Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." | Способ и устройство распознавания рельефности лица |
US9760799B2 (en) * | 2010-03-10 | 2017-09-12 | Tandent Vision Science, Inc. | Pipeline for generating an intrinsic image |
KR101939772B1 (ko) * | 2012-08-14 | 2019-01-17 | 삼성전자주식회사 | 얼굴 감정 추론 방법 및 장치, 얼굴 감정 추론 시스템 및 컴퓨터 프로그램 기록 매체 |
CN106778453B (zh) * | 2015-11-25 | 2020-05-12 | 腾讯科技(深圳)有限公司 | 人脸图像中检测眼镜佩戴的方法及装置 |
-
2017
- 2017-06-01 US US16/306,323 patent/US11314967B2/en active Active
- 2017-06-01 KR KR1020187037262A patent/KR102433971B1/ko active IP Right Grant
- 2017-06-01 JP JP2018562947A patent/JP7063823B2/ja active Active
- 2017-06-01 EP EP17807500.8A patent/EP3465615A4/en active Pending
- 2017-06-01 WO PCT/US2017/035502 patent/WO2017210462A1/en unknown
-
2022
- 2022-04-05 US US17/713,481 patent/US20220254191A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010534376A (ja) | 2007-07-23 | 2010-11-04 | ザ プロクター アンド ギャンブル カンパニー | しわのエイジング及びディエイジングの現実的シミュレーションの方法及び装置 |
US20100086215A1 (en) | 2008-08-26 | 2010-04-08 | Marian Steward Bartlett | Automated Facial Action Coding System |
US20110263946A1 (en) | 2010-04-22 | 2011-10-27 | Mit Media Lab | Method and system for real-time and offline analysis, inference, tagging of and responding to person(s) experiences |
Non-Patent Citations (6)
Title |
---|
Shashank Jaiswal and Michel Valstar,Deep learning the dynamic appearance and shape of facial action units,2016 IEEE Winter Conference on Applications of Computer Vision (WACV),米国,IEEE,2016年03月07日,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=7477625 |
Shichuan Du, Yong Tao, and Aleix M. Martinez,Compound facial expressions of emotion,Proc Natl Acad Sci U S A.,米国,Natl Acad Sci U S A,2014年03月31日,pp.E1454-E1462,https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3992629/pdf/pnas.201322355.pdf |
Ying-li Tian, Takeo Kanade and Jeffrey F. Cohn,Evaluation of Gabor-wavelet-based facial action unit recognition in image sequences of increasing complexity,Proceedings of the Fifth IEEE International Conference on Automatic Face and Gesture Recognition (FGR'02),米国,IEEE,2002年05月21日,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=1004159 |
Zuheng Ming, Aurelie Bugeau, Jean-Luc Rouas, Takaaki Shochi,Facial Action Units Intensity Estimation by the Fusion of Features with Multi-kernel Support Vector Machine,2015 11th IEEE International Conference and Workshops on Automatic Face and Gesture Recognition (FG),米国,IEEE,2015年05月04日,pp.1-6,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=7284870 |
ライブメッセージ伝達のための複合現実感を用いる3次元顔表情生成,電子情報通信学会論文誌 (J81-D-2),1998年05月25日 |
顔画像の特徴点移動量を用いたニューラルネットによる顔表情強度・種類抽出の一手法,電子情報通信学会技術研究報告 Vol.104 No.447,2004年11月11日 |
Also Published As
Publication number | Publication date |
---|---|
US11314967B2 (en) | 2022-04-26 |
EP3465615A4 (en) | 2020-05-06 |
WO2017210462A1 (en) | 2017-12-07 |
JP2019517693A (ja) | 2019-06-24 |
EP3465615A1 (en) | 2019-04-10 |
KR102433971B1 (ko) | 2022-08-19 |
KR20190025564A (ko) | 2019-03-11 |
US20220254191A1 (en) | 2022-08-11 |
US20190294868A1 (en) | 2019-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7063823B2 (ja) | 表情の認識および注釈付けのためのシステムおよび方法 | |
Liu et al. | Transferring deep representation for NIR-VIS heterogeneous face recognition | |
Fabian Benitez-Quiroz et al. | Emotionet: An accurate, real-time algorithm for the automatic annotation of a million facial expressions in the wild | |
Dantcheva et al. | What else does your biometric data reveal? A survey on soft biometrics | |
Masood et al. | Prediction of human ethnicity from facial images using neural networks | |
Sirohey et al. | Eye detection in a face image using linear and nonlinear filters | |
Agarwal et al. | Facial expression recognition through adaptive learning of local motion descriptor | |
Arigbabu et al. | Recent advances in facial soft biometrics | |
Liu et al. | LEICA: Laplacian eigenmaps for group ICA decomposition of fMRI data | |
Hassaballah et al. | Facial features detection and localization | |
Imran et al. | Differential components of discriminative 2D Gaussian–Hermite moments for recognition of facial expressions | |
Tong et al. | Putative ratios of facial attractiveness in a deep neural network | |
Abushanap et al. | A survey of human face recognition for partial face view | |
Zhao et al. | Robust face recognition using the GAP feature | |
Wimmer et al. | Facial expression recognition for human-robot interaction–a prototype | |
Gowda | Fiducial points detection of a face using RBF-SVM and adaboost classification | |
Nigam et al. | Review of Facial Recognition Techniques | |
Al-Ani et al. | Multi-view face detection based on kernel principal component analysis and kernel support vector techniques | |
Almutiry | Efficient iris segmentation algorithm using deep learning techniques | |
Said et al. | Face Recognition System | |
Chalicham et al. | Streamlit Web Application for Finding Similar Face Using Deep Learning | |
Gaur et al. | Comparative studies for the human facial expressions recognition techniques | |
Borza et al. | Towards automatic skin tone classification in facial images | |
Pallavi et al. | Deep Learning Based Application in Detecting Wrinkle and Predicting Age | |
Chow et al. | Efficient color face detection algorithm under different lighting conditions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200515 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210622 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210706 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211005 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220322 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220421 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7063823 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |