JP2023509750A - 表情識別方法及び装置、機器、コンピュータ可読記憶媒体並びにコンピュータプログラム - Google Patents
表情識別方法及び装置、機器、コンピュータ可読記憶媒体並びにコンピュータプログラム Download PDFInfo
- Publication number
- JP2023509750A JP2023509750A JP2022541909A JP2022541909A JP2023509750A JP 2023509750 A JP2023509750 A JP 2023509750A JP 2022541909 A JP2022541909 A JP 2022541909A JP 2022541909 A JP2022541909 A JP 2022541909A JP 2023509750 A JP2023509750 A JP 2023509750A
- Authority
- JP
- Japan
- Prior art keywords
- image
- facial
- motion
- facial image
- identification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 89
- 230000008921 facial expression Effects 0.000 title claims abstract description 88
- 238000004590 computer program Methods 0.000 title claims abstract description 23
- 230000001815 facial effect Effects 0.000 claims abstract description 182
- 230000033001 locomotion Effects 0.000 claims abstract description 136
- 210000000056 organ Anatomy 0.000 claims abstract description 88
- 238000013528 artificial neural network Methods 0.000 claims description 57
- 239000013598 vector Substances 0.000 claims description 31
- 238000012549 training Methods 0.000 claims description 30
- 230000009471 action Effects 0.000 claims description 25
- 238000007781 pre-processing Methods 0.000 claims description 21
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 11
- 230000001131 transforming effect Effects 0.000 claims description 8
- 238000004891 communication Methods 0.000 claims description 5
- 238000012805 post-processing Methods 0.000 claims description 2
- 230000000875 corresponding effect Effects 0.000 description 52
- 230000008569 process Effects 0.000 description 15
- 230000009466 transformation Effects 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 230000014509 gene expression Effects 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 210000004709 eyebrow Anatomy 0.000 description 4
- 230000008859 change Effects 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/247—Aligning, centring, orientation detection or correction of the image by affine transforms, e.g. correction due to perspective effects; Quadrilaterals, e.g. trapezoids
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/32—Normalisation of the pattern dimensions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/162—Detection; Localisation; Normalisation using pixel segmentation or colour matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/164—Detection; Localisation; Normalisation using holistic features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
本出願は、出願番号が202010018179.9であり、出願日が2020年01月08日である中国特許出願に基づいて提出され、該中国特許出願の優先権を主張し、該中国特許出願の全ての内容が参照により本出願に組み込まれる。
顔画像を取得することと、
前記顔画像に基づいて、前記顔画像が表す顔の少なくとも2つの器官のうち各器官の動作を識別することと、
識別された前記各器官の動作に基づいて、前記顔画像が表す顔の表情状態を決定することと、を含む。
前記顔画像に対して画像の前処理を行い、処理後の顔画像を得ることであって、前記画像の前処理は、前記顔画像に対してキー情報増強処理を行うために用いられる、ことをさらに含み、
前記顔画像に基づいて、前記顔画像が表す顔の少なくとも2つの器官のうち各器官の動作を識別することは、
前記処理後の顔画像に基づいて、前記顔画像が表す顔の少なくとも2つの器官のうち各器官の動作を決定することを含む。
前記顔画像におけるキーポイントの位置情報を決定することと、
前記キーポイントの位置情報に基づいて、前記顔画像をアフィン変換して、前記顔画像に対応する正面化された画像を得ることと、
正面化された画像を正規化処理し、処理後の顔画像を得ることと、を含む。
前記キーポイントの位置情報に基づいて、前記正面化された画像に対して画像の切り取りを行い、切り取られた画像を得ることと、
前記切り取られた画像に含まれる各画素点の画素値の平均値、および前記切り取られた画像に含まれる各画素点の画素値の標準偏差を計算することと、
前記画素値の平均値、および前記画素値の標準偏差に基づいて、前記切り取られた画像における各画素点の画素値を正規化処理することと、を含む。
眉をひそめる動作、目に角を立てる動作、口角を上に向ける動作、上唇を上に向ける動作、口角を下に向ける動作、口を開く動作、を含む。
識別された前記各器官の動作、および予め設定された動作と表情状態との対応関係に基づいて、前記顔画像が表す顔の表情状態を決定すること、を含む。
前記顔画像に基づいて、前記顔画像が表す顔の少なくとも2つの器官のうち各器官の動作を識別することは、
バックボーンネットワークを利用して前記顔画像に対して特徴抽出を行い、前記顔画像の特徴マップを得ることと、
各分類ブランチネットワークをそれぞれ利用して前記顔画像の特徴マップに基づいて動作識別を行い、各分類ブランチネットワークによって識別され得る動作の発生確率を得ることと、
発生確率が予め設定された確率より大きい動作を、前記顔画像が表す顔の器官の動作として決定することと、を含む。
ニューラルネットワークのバックボーンネットワークを利用してサンプル画像に対して特徴抽出を行い、サンプル画像の特徴マップを得ることと、
各分類ブランチネットワークをそれぞれ利用して、前記サンプル画像の特徴マップに基づいて動作識別を行い、各分類ブランチネットワークによって識別され得る動作の発生確率を得ることと、
各分類ブランチネットワークによって識別され得る動作の発生確率、及びサンプル画像のラベルベクトルに基づいて、各分類ブランチネットワークに対応する損失値を決定することと、
前記ニューラルネットワークの各分類ブランチネットワークに対応する損失値に基づいて、前記ニューラルネットワークのパラメータ値を調整することと、を含む。
顔画像を取得するように構成される取得モジュールと、
前記顔画像に基づいて、前記顔画像が表す顔の少なくとも2つ器官のうち各器官の動作を識別するように構成される識別モジュールと、
識別された前記各器官の動作に基づいて、前記顔画像が表す顔の表情状態を決定するように構成される決定モジュールと、を備える。
S101で取得された顔画像は、識別開始の命令を受けた後、該表情識別方法を実行する電子機器に接続された画像収集装置が、撮像した画像であってもよく、データベースに予め記憶された顔画像の集合から取得された顔画像であってもよい。ここで。該表情識別方法を実行する電子機器は、自身で画像収集装置が搭載されてもよく、外部の画像収集装置に接続されてもよく、その接続方式は、有線接続と無線接続とを含み、無線接続は、例えば、ブルートゥース接続、無線ローカルエリアネットワーク接続などであってもよい。
顔画像を訓練されたニューラルネットワークに入力して顔の器官の動作識別を行う前に、ニューラルネットワークによる動作識別の効率と精度を向上させるために、本開示のいくつかの実施例では、まず顔画像に対して画像の前処理を行い、処理後の顔画像を得、前記画像の前処理は、顔画像に対してキー情報増強処理を行うために用いられる。次に、処理後の顔画像を訓練されたニューラルネットワークに入力して動作識別を行うことができる。ここで、顔画像に対して画像の前処理を行うことにより、顔画像に対してキー情報増強処理を行い、動作識別の精度を向上させることができる。
眉をひそめる動作、目に角を立てる動作、口角を上に向ける動作、上唇を上に向ける動作、口角を下に向ける動作、口を開く動作を含む。
実際の応用では,ユーザの表情状態とユーザの顔動作との間に一定の対応関係があり、例示的に、ユーザの顔面動作が口角を上に向ける動作である場合、対応する表情状態が楽しみであり、ユーザの顔面動作が目に角を立て且つ口を開く動作である場合,対応する表情状態が驚きである。
顔画像を取得した後、前記顔画像に対して画像の前処理を行い、処理後の顔画像を得るように構成され、前記画像の前処理は、前記顔画像に対してキー情報増強処理を行うために用いられ、
前記識別モジュール702は、前記顔画像に基づいて、前記顔画像が表す顔の少なくとも2つの器官のうち各器官の動作を識別する場合、
前記処理後の顔画像に基づいて、前記顔画像が表す顔の少なくとも2つの器官のうち各器官の動作を決定するように構成される。
前記顔画像におけるキーポイントの位置情報を決定し、
前記キーポイントの位置情報に基づいて、前記顔画像をアフィン変換して、前記顔画像に対応する正面化された画像を得、
正面化された画像を正規化処理し、処理後の顔画像を得るように構成される。
前記キーポイントの位置情報に基づいて、前記正面化された画像に対して画像の切り取りを行い、切り取られた画像を得、
前記切り取られた画像に含まれる各画素点の画素値の平均値、および前記切り取られた画像に含まれる各画素点の画素値の標準偏差を計算し、
前記画素値の平均値、および前記画素値の標準偏差に基づいて、前記切り取られた画像における各画素点の画素値を正規化処理するように構成される。
眉をひそめる動作、目に角を立てる動作、口角を上に向ける動作、上唇を上に向ける動作、口角を下に向ける動作、口を開く動作、を含む。
識別された前記各器官の動作、および予め設定された動作と表情状態との対応関係に基づいて、前記顔画像が表す顔の表情状態を決定するように構成される。
前記識別モジュール702は、前記顔画像に基づいて、前記顔画像が表す顔の少なくとも2つの器官のうち各器官の動作を識別する場合、
バックボーンネットワークを利用して前記顔画像に対して特徴抽出を行い、前記顔画像の特徴マップを得、
各分類ブランチネットワークをそれぞれ利用して前記顔画像の特徴マップに基づいて動作識別を行い、各分類ブランチネットワークによって識別され得る動作の発生確率を得、
発生確率が予め設定された確率より大きい動作を、前記顔画像が表す顔の器官の動作として決定するように構成される。
サンプル画像と前記サンプル画像に対応するラベルベクトルとを用いて前記動作識別のためのニューラルネットワークを訓練するように構成され、前記サンプル画像に対応するラベルベクトルは、該サンプル画像が表す顔の器官の動作を示すために用いられ、ラベルベクトルにおける各要素位置の値は、該サンプル画像に前記要素位置に対応する動作が生成されるか否かを示すために用いられる。
ニューラルネットワークのバックボーンネットワークを用いてサンプル画像に対して特徴抽出を行い、サンプル画像の特徴マップを得、
各分類ブランチネットワークをそれぞれ用いて、前記サンプル画像の特徴マップに基づいて動作識別を行い、各分類ブランチネットワークによって識別され得る動作の発生確率を得、
各分類ブランチネットワークによって識別され得る動作の発生確率、及びサンプル画像のラベルベクトルに基づいて、各分類ブランチネットワークに対応する損失値を決定し、
前記ニューラルネットワークの各分類ブランチネットワークに対応する損失値に基づいて、前記ニューラルネットワークのパラメータ値を調整するように構成される。
顔画像を取得することと、
前記顔画像に基づいて、前記顔画像が表す顔の少なくとも2つ器官のうち各器官の動作を識別することと、
識別された前記各器官の動作に基づいて、前記顔画像が表す顔の表情状態を決定することと、を実行する。
Claims (21)
- 表情識別方法であって、
顔画像を取得することと、
前記顔画像に基づいて、前記顔画像が表す顔の少なくとも2つの器官のうち各器官の動作を識別することと、
識別された前記各器官の動作に基づいて、前記顔画像が表す顔の表情状態を決定することと、を含む、方法。 - 前記顔画像を取得した後、前記方法は、
前記顔画像に対して画像の前処理を行い、処理後の顔画像を得ることであって、前記画像の前処理は、前記顔画像に対してキー情報増強処理を行うために用いられる、ことをさらに含み、
前記顔画像に基づいて、前記顔画像が表す顔の少なくとも2つの器官のうち各器官の動作を識別することは、
前記処理後の顔画像に基づいて、前記顔画像が表す顔の少なくとも2つの器官のうち各器官の動作を決定することを含む、ことを特徴とする
請求項1に記載の方法。 - 前記顔画像に対して画像の前処理を行うことは、
前記顔画像におけるキーポイントの位置情報を決定することと、
前記キーポイントの位置情報に基づいて、前記顔画像をアフィン変換して、前記顔画像に対応する正面化された画像を得ることと、
前記正面化された画像を正規化処理し、処理後の顔画像を得ることと、を含むことを特徴とする
請求項2に記載の方法。 - 前記正面化された画像を正規化処理することは、
前記キーポイントの位置情報に基づいて、前記正面化された画像に対して画像の切り取りを行い、切り取られた画像を得ることと、
前記切り取られた画像に含まれる各画素点の画素値の平均値、および前記切り取られた画像に含まれる各画素点の画素値の標準偏差を計算することと、
前記画素値の平均値、および前記画素値の標準偏差に基づいて、前記切り取られた画像における各画素点の画素値を正規化処理することと、を含むことを特徴とする
請求項3に記載の方法。 - 前記顔の器官の動作は、
眉をひそめる動作、目に角を立てる動作、口角を上に向ける動作、上唇を上に向ける動作、口角を下に向ける動作、口を開く動作、を含むことを特徴とする
請求項1に記載の方法。 - 識別された前記各器官の動作に基づいて、前記顔画像が表す顔の表情状態を決定することは、
識別された前記各器官の動作、および予め設定された動作と表情状態との対応関係に基づいて、前記顔画像が表す顔の表情状態を決定すること、を含むことを特徴とする
請求項1に記載の方法。 - 前記顔画像に基づいて、前記顔画像が表す顔の少なくとも2つの器官のうち各器官の動作を識別することは、動作識別のためのニューラルネットワークによって実行され、前記動作識別のためのニューラルネットワークは、バックボーンネットワーク及び少なくとも2つの分類ブランチネットワークを含み、各分類ブランチネットワークは、顔の1つの器官の1つの動作を識別するために用いられ、
前記顔画像に基づいて、前記顔画像が表す顔の少なくとも2つの器官のうち各器官の動作を識別することは、
バックボーンネットワークを利用して前記顔画像に対して特徴抽出を行い、前記顔画像の特徴マップを得ることと、
各分類ブランチネットワークをそれぞれ利用して前記顔画像の特徴マップに基づいて動作識別を行い、各分類ブランチネットワークによって識別され得る動作の発生確率を得ることと、
発生確率が予め設定された確率より大きい動作を、前記顔画像が表す顔の器官の動作として決定することと、を含むことを特徴とする
請求項1~6のいずれか1項に記載の方法。 - 前記動作識別のためのニューラルネットワークは、サンプル画像と前記サンプル画像に対応するラベルベクトルとを用いて訓練して得られたものであり、前記サンプル画像に対応するラベルベクトルは、前記サンプル画像が表す顔の器官の動作を示すために用いられ、ラベルベクトルにおける各要素位置の値は、前記サンプル画像に前記要素位置に対応する動作が生成されるか否かを示すために用いられる、ことを特徴とする
請求項7に記載の方法。 - 前記サンプル画像と前記サンプル画像に対応するラベルベクトルとを用いて前記動作識別のためのニューラルネットワークを訓練することは、
ニューラルネットワークのバックボーンネットワークを利用してサンプル画像に対して特徴抽出を行い、サンプル画像の特徴マップを得ることと、
各分類ブランチネットワークをそれぞれ利用して、前記サンプル画像の特徴マップに基づいて動作識別を行い、各分類ブランチネットワークによって識別され得る動作の発生確率を得ることと、
各分類ブランチネットワークによって識別され得る動作の発生確率、及びサンプル画像のラベルベクトルに基づいて、各分類ブランチネットワークに対応する損失値を決定することと、
前記ニューラルネットワークの各分類ブランチネットワークに対応する損失値に基づいて、前記ニューラルネットワークのパラメータ値を調整することと、を含むことを特徴とする
請求項8に記載の方法。 - 表情識別装置であって、
顔画像を取得するように構成される取得モジュールと、
前記顔画像に基づいて、前記顔画像が表す顔の少なくとも2つ器官のうち各器官の動作を識別するように構成される識別モジュールと、
識別された前記各器官の動作に基づいて、前記顔画像が表す顔の表情状態を決定するように構成される決定モジュールと、を備える、装置。 - 前記識別モジュールは、さらに、
顔画像を取得した後、前記顔画像に対して画像の前処理を行い、処理後の顔画像を得るように構成され、前記画像の前処理は、前記顔画像に対してキー情報増強処理を行うために用いられ、
前記識別モジュールは、前記顔画像に基づいて、前記顔画像が表す顔の少なくとも2つの器官のうち各器官の動作を識別する場合、
前記処理後の顔画像に基づいて、前記顔画像が表す顔の少なくとも2つの器官のうち各器官の動作を決定するように構成されることを特徴とする
請求項10に記載の装置。 - 前記識別モジュールは、前記顔画像に対して画像の前処理を行う場合、
前記顔画像におけるキーポイントの位置情報を決定し、
前記キーポイントの位置情報に基づいて、前記顔画像をアフィン変換して、前記顔画像に対応する正面化された画像を得、
正面化された画像を正規化処理し、処理後の顔画像を得るように構成されることを特徴とする
請求項11に記載の装置。 - 前記識別モジュールは、正面化された画像を正規化処理する場合、
前記キーポイントの位置情報に基づいて、前記正面化された画像に対して画像の切り取りを行い、切り取られた画像を得、
前記切り取られた画像に含まれる各画素点の画素値の平均値、および前記切り取られた画像に含まれる各画素点の画素値の標準偏差を計算し、
前記画素値の平均値、および前記画素値の標準偏差に基づいて、前記切り取られた画像における各画素点の画素値を正規化処理するように構成されることを特徴とする
請求項12に記載の装置。 - 前記顔の器官の動作は、
眉をひそめる動作、目に角を立てる動作、口角を上に向ける動作、上唇を上に向ける動作、口角を下に向ける動作、口を開く動作、を含むことを特徴とする
請求項10項に記載の装置。 - 前記決定モジュールは、識別された前記各器官の動作に基づいて、前記顔画像が表す顔の表情状態を決定する場合、
識別された前記各器官の動作、および予め設定された動作と表情状態との対応関係に基づいて、前記顔画像が表す顔の表情状態を決定するように構成されることを特徴とする
請求項10に記載の装置。 - 前記顔画像に基づいて、前記顔画像が表す顔の少なくとも2つの器官のうち各器官の動作を識別するステップは、動作識別のためのニューラルネットワークによって実行され、前記動作識別のためのニューラルネットワークは、バックボーンネットワーク及び少なくとも2つの分類ブランチネットワークを含み、各分類ブランチネットワークは、顔の1つの器官の1つの動作を識別するために用いられ、
前記識別モジュールは、前記顔画像に基づいて、前記顔画像が表す顔の少なくとも2つの器官のうち各器官の動作を識別する場合、
バックボーンネットワークを利用して前記顔画像に対して特徴抽出を行い、前記顔画像の特徴マップを得、
各分類ブランチネットワークをそれぞれ利用して前記顔画像の特徴マップに基づいて動作識別を行い、各分類ブランチネットワークによって識別され得る動作の発生確率を得、
発生確率が予め設定された確率より大きい動作を、前記顔画像が表す顔の器官の動作として決定するように構成されることを特徴とする
請求項10~15いずれか1項に記載の装置。 - 前記装置は、訓練モジュールをさらに備え、前記訓練モジュールは、
サンプル画像と前記サンプル画像に対応するラベルベクトルとを用いて前記動作識別のためのニューラルネットワークを訓練するように構成され、前記サンプル画像に対応するラベルベクトルは、前記サンプル画像が表す顔の器官の動作を示すために用いられ、ラベルベクトルにおける各要素位置の値は、前記サンプル画像に前記要素位置に対応する動作が生成されるか否かを示すために用いられる、ことを特徴とする
請求項16に記載の装置。 - 前記訓練モジュールは、サンプル画像と前記サンプル画像に対応するラベルベクトルとを用いて前記動作識別のためのニューラルネットワークを訓練する場合、
ニューラルネットワークのバックボーンネットワークを利用してサンプル画像に対して特徴抽出を行い、サンプル画像の特徴マップを得、
各分類ブランチネットワークをそれぞれ利用して、前記サンプル画像の特徴マップに基づいて動作識別を行い、各分類ブランチネットワークによって識別され得る動作の発生確率を得、
各分類ブランチネットワークによって識別され得る動作の発生確率、及びサンプル画像のラベルベクトルに基づいて、各分類ブランチネットワークに対応する損失値を決定し、
前記ニューラルネットワークの各分類ブランチネットワークに対応する損失値に基づいて、前記ニューラルネットワークのパラメータ値を調整するように構成されることを特徴とする
請求項17に記載の装置。 - プロセッサ、メモリ及びバスを備えるコンピュータ機器であって、前記メモリは、前記プロセッサが実行可能な機械可読命令を記憶し、コンピュータ機器が動作する場合、前記プロセッサと前記メモリとの間がバスを介して通信され、前記プロセッサは、前記機械可読命令を実行して、請求項1~9のいずれか1項に記載の表情識別方法のステップを実施する、コンピュータ機器。
- プロセッサに請求項1~9のいずれか1項に記載の表情識別方法のステップを実行させるためのコンピュータプログラムを記憶した、コンピュータ可読記憶媒体。
- コンピュータプログラムを記憶した非一時的なコンピュータ可読記憶媒体を含むコンピュータプログラム製品であって、コンピュータは、前記コンピュータプログラムを読み取って実行して、請求項1~9のいずれか1項に記載の方法を実現する、コンピュータプログラム製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010018179.9A CN111209867A (zh) | 2020-01-08 | 2020-01-08 | 一种表情识别方法及装置 |
CN202010018179.9 | 2020-01-08 | ||
PCT/CN2020/135263 WO2021139475A1 (zh) | 2020-01-08 | 2020-12-10 | 一种表情识别方法及装置、设备、计算机可读存储介质、计算机程序产品 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023509750A true JP2023509750A (ja) | 2023-03-09 |
JP7317241B2 JP7317241B2 (ja) | 2023-07-28 |
Family
ID=70784167
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022541909A Active JP7317241B2 (ja) | 2020-01-08 | 2020-12-10 | 表情識別方法及び装置、機器、コンピュータ可読記憶媒体並びにコンピュータプログラム |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP7317241B2 (ja) |
KR (1) | KR20220106842A (ja) |
CN (1) | CN111209867A (ja) |
WO (1) | WO2021139475A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111209867A (zh) * | 2020-01-08 | 2020-05-29 | 上海商汤临港智能科技有限公司 | 一种表情识别方法及装置 |
CN111976559A (zh) * | 2020-07-08 | 2020-11-24 | 好孩子儿童用品有限公司 | 一种基于机器感知的儿童安全乘坐系统 |
CN113762107B (zh) * | 2021-08-23 | 2024-05-07 | 海宁奕斯伟集成电路设计有限公司 | 对象状态评估方法、装置、电子设备及可读存储介质 |
CN113855019B (zh) * | 2021-08-25 | 2023-12-29 | 杭州回车电子科技有限公司 | 基于eog、emg以及压电信号的表情识别方法和装置 |
CN113723359A (zh) * | 2021-09-16 | 2021-11-30 | 未鲲(上海)科技服务有限公司 | 用户情绪识别方法、装置、计算机设备及可读存储介质 |
CN115439920B (zh) * | 2022-11-03 | 2023-03-24 | 之江实验室 | 基于情绪视听刺激和面部表情的意识状态检测系统、设备 |
CN116434313B (zh) * | 2023-04-28 | 2023-11-14 | 北京声迅电子股份有限公司 | 基于多人脸识别模块的人脸识别方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000222576A (ja) * | 1999-01-29 | 2000-08-11 | Nec Corp | 人物識別方法及び装置と人物識別プログラムを記録した記録媒体ならびにロボット装置 |
CN106127139A (zh) * | 2016-06-21 | 2016-11-16 | 东北大学 | 一种mooc课程中学生面部表情的动态识别方法 |
JP2017084302A (ja) * | 2015-10-30 | 2017-05-18 | 広島県 | 黒目位置検出装置、電子機器、プログラムおよび黒目位置検出方法 |
WO2017203769A1 (ja) * | 2016-05-23 | 2017-11-30 | アルプス電気株式会社 | 視線検出方法 |
JP2018032164A (ja) * | 2016-08-23 | 2018-03-01 | 株式会社ユニバーサルエンターテインメント | 面接システム |
JP2018136770A (ja) * | 2017-02-22 | 2018-08-30 | 沖電気工業株式会社 | 情報処理装置、方法および情報処理システム |
CN109344744A (zh) * | 2018-09-14 | 2019-02-15 | 北京师范大学 | 基于深度卷积神经网络的人脸微表情动作单元检测方法 |
CN109961054A (zh) * | 2019-03-29 | 2019-07-02 | 山东大学 | 一种基于感兴趣区域特征点运动的焦虑、抑郁、愤怒表情识别方法 |
CN110427800A (zh) * | 2019-06-17 | 2019-11-08 | 平安科技(深圳)有限公司 | 视频物体加速检测方法、装置、服务器及存储介质 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011155902A1 (en) * | 2010-06-11 | 2011-12-15 | National University Of Singapore | General motion-based face recognition |
CN103824054B (zh) * | 2014-02-17 | 2018-08-07 | 北京旷视科技有限公司 | 一种基于级联深度神经网络的人脸属性识别方法 |
CN105117703B (zh) * | 2015-08-24 | 2018-10-16 | 复旦大学 | 基于矩阵乘法的快速动作单元识别方法 |
CN108664989B (zh) * | 2018-03-27 | 2019-11-01 | 北京达佳互联信息技术有限公司 | 图像标签确定方法、装置及终端 |
CN109558851A (zh) * | 2018-12-04 | 2019-04-02 | 广东智媒云图科技股份有限公司 | 一种基于面部表情的联合作画方法及系统 |
CN109635727A (zh) * | 2018-12-11 | 2019-04-16 | 昆山优尼电能运动科技有限公司 | 一种人脸表情识别方法及装置 |
CN109683709A (zh) * | 2018-12-17 | 2019-04-26 | 苏州思必驰信息科技有限公司 | 基于情绪识别的人机交互方法及系统 |
CN109766840B (zh) * | 2019-01-10 | 2024-02-20 | 腾讯科技(深圳)有限公司 | 人脸表情识别方法、装置、终端及存储介质 |
CN109961062A (zh) * | 2019-04-16 | 2019-07-02 | 北京迈格威科技有限公司 | 图像识别方法、装置、终端和可读存储介质 |
CN110097021B (zh) * | 2019-05-10 | 2022-09-06 | 电子科技大学 | 基于mtcnn的人脸姿态估计方法 |
CN110188673B (zh) * | 2019-05-29 | 2021-07-30 | 京东方科技集团股份有限公司 | 表情识别方法和装置 |
CN110533120B (zh) * | 2019-09-05 | 2023-12-12 | 腾讯科技(深圳)有限公司 | 器官结节的图像分类方法、装置、终端及存储介质 |
CN111209867A (zh) * | 2020-01-08 | 2020-05-29 | 上海商汤临港智能科技有限公司 | 一种表情识别方法及装置 |
-
2020
- 2020-01-08 CN CN202010018179.9A patent/CN111209867A/zh active Pending
- 2020-12-10 JP JP2022541909A patent/JP7317241B2/ja active Active
- 2020-12-10 KR KR1020227023401A patent/KR20220106842A/ko active Search and Examination
- 2020-12-10 WO PCT/CN2020/135263 patent/WO2021139475A1/zh active Application Filing
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000222576A (ja) * | 1999-01-29 | 2000-08-11 | Nec Corp | 人物識別方法及び装置と人物識別プログラムを記録した記録媒体ならびにロボット装置 |
JP2017084302A (ja) * | 2015-10-30 | 2017-05-18 | 広島県 | 黒目位置検出装置、電子機器、プログラムおよび黒目位置検出方法 |
WO2017203769A1 (ja) * | 2016-05-23 | 2017-11-30 | アルプス電気株式会社 | 視線検出方法 |
CN106127139A (zh) * | 2016-06-21 | 2016-11-16 | 东北大学 | 一种mooc课程中学生面部表情的动态识别方法 |
JP2018032164A (ja) * | 2016-08-23 | 2018-03-01 | 株式会社ユニバーサルエンターテインメント | 面接システム |
JP2018136770A (ja) * | 2017-02-22 | 2018-08-30 | 沖電気工業株式会社 | 情報処理装置、方法および情報処理システム |
CN109344744A (zh) * | 2018-09-14 | 2019-02-15 | 北京师范大学 | 基于深度卷积神经网络的人脸微表情动作单元检测方法 |
CN109961054A (zh) * | 2019-03-29 | 2019-07-02 | 山东大学 | 一种基于感兴趣区域特征点运动的焦虑、抑郁、愤怒表情识别方法 |
CN110427800A (zh) * | 2019-06-17 | 2019-11-08 | 平安科技(深圳)有限公司 | 视频物体加速检测方法、装置、服务器及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111209867A (zh) | 2020-05-29 |
KR20220106842A (ko) | 2022-07-29 |
WO2021139475A1 (zh) | 2021-07-15 |
JP7317241B2 (ja) | 2023-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7317241B2 (ja) | 表情識別方法及び装置、機器、コンピュータ可読記憶媒体並びにコンピュータプログラム | |
CN109389069B (zh) | 注视点判断方法和装置、电子设备和计算机存储介质 | |
CN107330904B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN111758116B (zh) | 脸部图像识别系统、识别器生成装置、识别装置与系统 | |
KR101525133B1 (ko) | 화상처리장치, 정보생성장치, 화상처리방법, 정보생성방법, 제어 프로그램 및 기록매체 | |
JP5361524B2 (ja) | パターン認識システム及びパターン認識方法 | |
JP2010271872A (ja) | 画像認識装置、撮像装置及び画像認識方法 | |
WO2019033569A1 (zh) | 眼球动作分析方法、装置及存储介质 | |
EP3210160A1 (en) | Method and system of facial expression recognition using linear relationships within landmark subsets | |
Vazquez-Fernandez et al. | Built-in face recognition for smart photo sharing in mobile devices | |
US10255487B2 (en) | Emotion estimation apparatus using facial images of target individual, emotion estimation method, and non-transitory computer readable medium | |
WO2019011073A1 (zh) | 人脸活体检测方法及相关产品 | |
JP2015529354A (ja) | 顔認識のための方法および装置 | |
EP3355220A1 (en) | Facial authentication method and electronic device | |
KR102386444B1 (ko) | 이미지 심도 결정 방법 및 생체 식별 방법, 회로, 디바이스, 및 매체 | |
CN111108508B (zh) | 脸部情感识别方法、智能装置和计算机可读存储介质 | |
JPWO2019003973A1 (ja) | 顔認証装置、顔認証方法およびプログラム | |
WO2016165614A1 (zh) | 一种即时视频中的表情识别方法和电子设备 | |
JP6225460B2 (ja) | 画像処理装置、画像処理方法、制御プログラムおよび記録媒体 | |
CN111553838A (zh) | 模型参数的更新方法、装置、设备及存储介质 | |
Tepelea et al. | A vision module for visually impaired people by using Raspberry PI platform | |
CN111242273A (zh) | 一种神经网络模型训练方法及电子设备 | |
EP3200092A1 (en) | Method and terminal for implementing image sequencing | |
US20220207917A1 (en) | Facial expression image processing method and apparatus, and electronic device | |
EP2998928B1 (en) | Apparatus and method for extracting high watermark image from continuously photographed images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220706 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220706 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230523 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230630 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230711 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230718 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7317241 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |