JP2962549B2 - 顔動画像からの表情認識方法 - Google Patents

顔動画像からの表情認識方法

Info

Publication number
JP2962549B2
JP2962549B2 JP9055886A JP5588697A JP2962549B2 JP 2962549 B2 JP2962549 B2 JP 2962549B2 JP 9055886 A JP9055886 A JP 9055886A JP 5588697 A JP5588697 A JP 5588697A JP 2962549 B2 JP2962549 B2 JP 2962549B2
Authority
JP
Japan
Prior art keywords
facial
expression
probability
feature vector
equation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP9055886A
Other languages
English (en)
Other versions
JPH10255043A (ja
Inventor
尚宏 大塚
淳 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
EI TEI AARU CHINO EIZO TSUSHIN KENKYUSHO KK
Original Assignee
EI TEI AARU CHINO EIZO TSUSHIN KENKYUSHO KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EI TEI AARU CHINO EIZO TSUSHIN KENKYUSHO KK filed Critical EI TEI AARU CHINO EIZO TSUSHIN KENKYUSHO KK
Priority to JP9055886A priority Critical patent/JP2962549B2/ja
Publication of JPH10255043A publication Critical patent/JPH10255043A/ja
Application granted granted Critical
Publication of JP2962549B2 publication Critical patent/JP2962549B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • G06F18/295Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、画像処理方法に関
し、さらに詳しくは、顔動画像から表情を認識する方法
に関するものである。
【0002】
【従来の技術】表情認識は、顔動画像の知的符号化や画
像通信システムにおける知的なマンマシンインタフェー
スを実現するためには重要な技術である。画像通信にお
いて送り手の表情が認識できれば、表情のカテゴリを符
号化した少量のデータを送ることにより送り手の表情が
合成できるため伝送量の削減が可能となる。また、表情
認識の精度が高く、合成の再現性が高ければ、あたかも
受け手と送り手が同一の場所にいるかのようなモデルベ
ースの画像通信ができるものと期待できる。
【0003】コンピュータビジョン研究では、多くの表
情認識の方法が従来より提案されている。
【0004】図3は、従来の表情認識方法の一例を示す
フローチャートである。図3に示されるように、この従
来の表情認識方法は、ステップS1で、入力された顔動
画像のフレーム毎にウェーブレット変換を施し、その各
帯域内平均電力を要素とする特徴ベクトルを抽出する。
【0005】続いてステップS2では、隠れマルコフモ
デル(HMM:Hidden Markov Model )に入力するシン
ボルへ変換するためのベクトル量子化を行なう。このベ
クトル量子化は、認識対象表情毎に用意されたコードブ
ックで行なわれる。そして、それぞれの表情別コードブ
ックでベクトル量子化された1次元のシンボル系列は、
各表情のHMMに入力される。
【0006】ステップS3では、時間軸方向の伸縮に対
しても頑健であり、予め各々の表情の学習データによっ
て学習されたHMMにより、入力されたシンボル系列と
学習データとのゆう度(確率)を算出する。
【0007】次に、ステップS4で、算出されたゆう度
(確率)が最大となる表情を認識結果とする。
【0008】上記において、ステップS2では、量子化
誤差を低減するために表情毎に異なったコードブックが
用意され、さらに、量子化誤差が大きい場合にはペナル
ティ関数を導入して確率を補正することにより誤った認
識を防ぐこととしている。
【0009】
【発明が解決しようとする課題】しかしながら、図3に
示される従来の表情認識方法では、高次元の特徴ベクト
ル空間の関数を有限個の代表点で近似することは困難で
あり、認識率の向上には限界があった。また、このた
め、高い認識率で認識することのできる対象が特定の人
物に限定されていたという問題があった。
【0010】本発明は、このような問題を解消するため
になされたもので、不特定多数人物の表情に対し高い認
識率を得ることのできる顔動画像からの表情認識方法を
提供することを目的とする。
【0011】
【課題を解決するための手段】請求項1に係る顔動画像
からの表情認識方法は、顔動画像中の連続する画像から
顔要素の各位置の速度ベクトルを算出するステップと、
速度ベクトルの各成分にフーリエ変換を施し、そのフー
リエ変換係数の中から、顔要素の変形または移動に対応
するフーリエ変換係数を特徴ベクトル列として抽出する
ステップと、予め各表情毎に、連続した出力確率を正規
分布を用いて近似した複数の隠れマルコフモデルを作成
するステップと、特徴ベクトル列が生成される生成確率
を、複数の隠れマルコフモデルによってそれぞれ算出す
るステップと、複数の隠れマルコフモデルのうち最大の
生成確率を算出した隠れマルコフモデルに対応する表情
を認識結果と判断するステップとを備えるものである。
【0012】
【発明の実施の形態】以下、本発明の実施の形態を図面
を参照して詳しく説明する。
【0013】図1は、本発明の実施の形態に係る顔動画
像からの表情認識方法を示すフローチャートである。
【0014】図1に示されるように、この顔動画像から
の表情認識方法は、画像処理を行なうステップS1と、
認識処理を行なうステップS2と、認識結果を得るステ
ップS3とを備える。
【0015】ここで、画像処理を行なうステップS1
は、入力された顔動画像から速度ベクトルを算出するス
テップS10と、速度ベクトルの各成分にフーリエ変換
を施すステップS11と、そのフーリエ変換係数の中か
ら、表情の動きに応じた特徴ベクトル列を抽出するステ
ップS12とを含む。
【0016】また、認識処理を行なうステップS2は、
予め認識対象の表情カテゴリ毎にHMMを学習により作
成しておくステップS20と、ステップS1で抽出され
た特徴ベクトル列を生成する確率を各HMMを用いて算
出するステップS21とを含む。
【0017】そして、ステップS3では、算出された確
率が最大となるHMMに対応する表情カテゴリを認識結
果とする。
【0018】なお、以下においては表情カテゴリとし
て、怒り、嫌悪、恐れ、悲しみ、幸福、驚きの合計6種
類の基本表情を考え、無表情から各基本表情への時系列
画像の処理について説明することとする。
【0019】以下、上記各ステップを具体的に説明す
る。ステップS10では、動画像中の連続する2枚の画
像からオプティカルフローアルゴリズムを用いて速度ベ
クトルを得る。
【0020】ここで、たとえば、顔の位置として、右目
と口をそれぞれ含む2つの領域が考えられる。これは、
これらの領域が人間が相手の表情を読取るときに最も注
目している領域に対応しているからである。なお、領域
の位置合せは、被験者毎に目と口の画像内での位置を求
めそれぞれが領域の中心になるように手動で行なう。
【0021】次に、ステップS11では、ステップS1
0で得られた速度ベクトルの各成分に離散フーリエ変換
を施す。
【0022】そして、ステップS12では、フーリエ変
換係数の低周波成分(右目・口領域から7,8個、合計
15個)を特徴ベクトルとして抽出する。これらの特徴
ベクトルの成分は、表情変化の開始時および終了時に値
が0となり2つの時刻での区別がつかないため、右目お
よび口領域の速度ベクトルの自乗和を時間積分した値を
特徴ベクトルの成分として加える。
【0023】このように、ステップS12では、ステッ
プS10で得られた速度ベクトル毎に、対応する特徴ベ
クトルを抽出するため、画像処理を行なうステップS1
からはこれら複数の特徴ベクトルからなる特徴ベクトル
列を出力することとなる。
【0024】次に、認識処理を行なうステップS2で
は、HMMを用いて特徴ベクトルの生成確率を算出する
が、ステップS20では、連続出力確率分布を持つHM
Mを作成する。
【0025】ここで、このHMMの構成は、図2に示す
ようなLeft-to-right 型とし、状態を状態数Nに対して
左から順にS1 ,S2 ,…,SN と名付ける。また、S
1 を初期状態、S2 ,…,SN-1 を中間状態、SN を最
終状態と呼ぶ。これらの各状態は以下のように表情の変
化を引起こす筋肉の状態に対応付けることができる。す
なわち、初期状態は無表情、中間状態は表情筋が収縮し
ている途中の状態、最終状態は表情筋の収縮が完了した
状態である。
【0026】HMMでは、出力値(特徴ベクトルに対
応)に応じて各状態の確率を更新して出力列の終了時t
=Tにおける最終状態の確率を出力列の生成確率と定義
する。ここで、出力列の開始時刻t=0における初期状
態の確率は1でその他の状態の確率は0とする。状態S
j (j=1,…,N)の確率の更新値を求めるために以
下の確率を定義する。なお、以下の遷移確率はステップ
S21でのHMMによる時間パターン認識処理において
用いられるものであり、出力確率は、ステップS21で
のHMMによる空間パターン認識処理に用いられるもの
である。
【0027】1) 遷移確率ajiは、状態Sj から次の
時刻に状態Si に遷移する確率を表わす。Left-to-righ
t 型HMMでは、自己および右側の状態への遷移のみが
可能なので以下の拘束条件が成り立つ。
【0028】
【数1】
【0029】
【数2】
【0030】2) 出力確率bj (O)は、状態Sj
の遷移に伴って特徴ベクトルOを出力する確率を表わ
す。ここで出力確率bj (O)は、D次元空間上の連続
分布とし、式(2)のようにM個の多次元正規分布Nの
荷重平均により近似する。複数の正規分布を用いること
により、同一表情における個人差、同一人物の表情表出
の変動などに起因する異なったパターンを精度よく近似
することができると考えられる。ここで、Mを混合数
(number of mixture )と呼ぶ。
【0031】
【数3】
【0032】ここで、cjk,μjk,Ujkはそれぞれ状態
j でのk番目の混合要素における荷重、平均値ベクト
ル、共分散行列である。また、荷重cjkは以下の拘束条
件を満たす。
【0033】
【数4】
【0034】出力確率の表現法として、離散的なシンボ
ルに確率を割付ける離散分布を用いる方法は、実装が連
続分布に比べて容易であるので音声認識ではよく用いら
れている。しかし、画像処理のように特徴ベクトルの次
元数が大きい場合には量子化誤差が問題となる。
【0035】一方、連続分布を出力確率に用いた場合に
は精度よく出力確率をモデル化することができる。
【0036】ステップS21におけるHMMによる時間
パターン認識処理においては、遷移確率と出力確率を用
いて各状態の確率を更新するため、フォーワードアルゴ
リズムが使われる。出力される特徴ベクトル列O1 ,O
2 ,…,OT に対して、時刻tにおいて状態Si である
確率をαt (i)とすると、αt (i)は以下の漸化式
により求められる。
【0037】
【数5】
【0038】ここで、HMMのパラメータajiとb
i (O)の学習には通常Baum-Welchアルゴリズムが使わ
れる。Baum-Welchアルゴリズムは、期待値最大化(Esti
mation Maximization )アルゴリズムとして導かれる。
すなわち、出力される特徴ベクトル列O1 ,O2 ,…,
T に対する期待値、
【0039】
【数6】
【0040】が最大になる確率を求めればよい。ここ
で、βt (i)はαt (i)の双対であり、以下のバッ
クワードアルゴリズムにより時刻t=Tから逆方向に求
められる。
【0041】
【数7】
【0042】ここで、時刻t=Tにおけるβt (i)は
状態SN にのみ1が割付けられるように初期化する。
【0043】Baum-WelchアルゴリズムによるHMMのパ
ラメータの再推定式は以下のように書ける。
【0044】
【数8】
【0045】
【数9】
【0046】
【数10】
【0047】
【数11】
【0048】ここで、γt (j,k)は時刻tに状態S
j のうちk番目の混合要素にある確率であり以下のよう
に定義される。
【0049】
【数12】
【0050】測定される特徴ベクトルに含まれるノイズ
の影響を低減してパラメータの精度を上げるためには多
数の学習データからの推定が必要となる。この場合に
は、式(7)〜(11)を複数の学習データに関して総
和をとるように書換えればよい。
【0051】Baum-Welchアルゴリズムは期待値を極大化
するアルゴリズムであるので、期待値を最大化するため
には適切な初期値を選ばなければならない。そこで、以
下の手法でHMMのパラメータの初期値を求め、Baum-W
elchアルゴリズムを実行してパラメータの再推定を行な
う。すなわち、荷重cjk、平均ベクトルμjk、共分散行
列Ujkは、以下のアルゴリズムにより初期値を求め、遷
移確率aijは式(1)の条件の下でランダムに設定す
る。
【0052】1) 特徴ベクトル列O(i) =O1
2 ,…,OT (i=1,…,L)の要素をk−means
法により状態数N個のクラスタSj (i) (j=1,…,
N)に類別する。それらのクラスタの要素数をNijとす
る。ここで、クラスタは時間順に並んでいるものとす
る。
【0053】2)各特徴ベクトル列からのクラスタの和
集合∪i j (i) の要素をk−means 法により混合数M
個のクラスタSj (i) ′(i=1,…,M)に類別す
る。それらのクラスタの要素数、平均、共分散行列を
N′ji、μ′ji、U′ji(j=1,…,N、i=1,
…,M)とする。
【0054】3) 出力確率のパラメータを以下の式に
より求める。
【0055】
【数13】
【0056】
【数14】
【0057】
【数15】
【0058】この手法は、パラメータの推定にk−mean
s 法を用いる点でセグメンタルk−means 法と類似して
いる。
【0059】しかし、セグメンタルk−means 法ではス
テップ1)でViterbi アライメントを用いてセグメント
する点と、上記のステップ1)〜3)を繰返す点が異な
る。
【0060】なお、以上の説明は、人間の顔の動画像か
らの表情認識方法に関するものであるが、人間の顔以
外、たとえば、手の動きや物体の状態などを認識する方
法に関しても同様に説明することができる。
【0061】
【発明の効果】請求項1に係る顔動画像からの表情認識
方法によれば、不特定多数の人物の顔動画像から、その
表情を認識することができ、また、速い表情変化を伴う
表情も認識することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る顔動画像からの表情
認識方法を示すフローチャートである。
【図2】状態数が3の場合のLeft-to-right 型HMMの
構成を示す図である。
【図3】従来の顔動画像からの表情認識方法の一例を示
すフローチャートである。
フロントページの続き (56)参考文献 大塚外、「連続出力確立密度分布を用 いたHMMによる動画像からの複数人物 の表情認識」、電子情報通信学会論文誌 D−2、1997年、Vol.J−80−D− 2、No.8、p.2129−2137 大塚外、「時系列表情画像の解析処理 に基づく表情変換法の検討」、電子情報 通信学会技術研究報告、1997年3月19 日、Vol.96,No.599(PRMU 96 192−213)p.75−80 Luettin, J.et.a l.,Speaker indetif ication by Iipread ing,1996,Proceedings ICSLP 96.Fourth In ternatinal Confere nce on Spoken Lang uage Processing vo l.1,p.62−5 (58)調査した分野(Int.Cl.6,DB名) G06T 7/00 G06T 1/00 G06T 7/20 INSPEC(DIALOG) JICSTファイル(JOIS)

Claims (1)

    (57)【特許請求の範囲】
  1. 【請求項1】 顔動画像中の連続する画像から顔要素の
    各位置の速度ベクトルを算出するステップと、 前記速度ベクトルの各成分にフーリエ変換を施し、その
    フーリエ変換係数の中から、前記顔要素の変形または移
    動に対応する前記フーリエ変換係数を特徴ベクトル列と
    して抽出するステップと、 予め各表情毎に、連続した出力確率を正規分布を用いて
    近似した複数の隠れマルコフモデルを作成するステップ
    と、 前記特徴ベクトル列が生成される生成確率を、前記複数
    の隠れマルコフモデルによってそれぞれ算出するステッ
    プと、 前記複数の隠れマルコフモデルのうち最大の生成確率を
    算出した隠れマルコフモデルに対応する表情を認識結果
    と判断するステップとを備える、顔動画像からの表情認
    識方法。
JP9055886A 1997-03-11 1997-03-11 顔動画像からの表情認識方法 Expired - Lifetime JP2962549B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9055886A JP2962549B2 (ja) 1997-03-11 1997-03-11 顔動画像からの表情認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9055886A JP2962549B2 (ja) 1997-03-11 1997-03-11 顔動画像からの表情認識方法

Publications (2)

Publication Number Publication Date
JPH10255043A JPH10255043A (ja) 1998-09-25
JP2962549B2 true JP2962549B2 (ja) 1999-10-12

Family

ID=13011597

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9055886A Expired - Lifetime JP2962549B2 (ja) 1997-03-11 1997-03-11 顔動画像からの表情認識方法

Country Status (1)

Country Link
JP (1) JP2962549B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2009577A1 (en) 2007-06-29 2008-12-31 Canon Kabushiki Kaisha Image-processing apparatus and method, program, and storage medium
US8510156B2 (en) 2009-12-03 2013-08-13 Panasonic Corporation Viewing terminal apparatus, viewing statistics-gathering apparatus, viewing statistics-processing system, and viewing statistics-processing method
JP2021068404A (ja) * 2019-10-17 2021-04-30 未來市股▲ふん▼有限公司 アバターの顔の表情生成システムおよびアバターの顔の表情生成方法
KR20210060126A (ko) 2019-11-18 2021-05-26 연세대학교 산학협력단 표정 인식 네트워크 시스템 및 이를 이용한 표정 인식 방법
US11087520B2 (en) 2018-09-19 2021-08-10 XRSpace CO., LTD. Avatar facial expression generating system and method of avatar facial expression generation for facial model
US11127181B2 (en) 2018-09-19 2021-09-21 XRSpace CO., LTD. Avatar facial expression generating system and method of avatar facial expression generation

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6459808B1 (en) * 1999-07-21 2002-10-01 Mitsubishi Electric Research Laboratories, Inc. Method for inferring target paths from related cue paths
KR100421740B1 (ko) * 2000-11-14 2004-03-10 삼성전자주식회사 객체 활동 모델링 방법
US7391889B2 (en) * 2002-10-15 2008-06-24 Samsung Electronics Co., Ltd. Method and apparatus for extracting feature vector used for face recognition and retrieval
KR100702226B1 (ko) 2004-11-23 2007-04-03 홍기천 얼굴 검출 및 인증 장치 및 그 방법
US8542928B2 (en) 2005-09-26 2013-09-24 Canon Kabushiki Kaisha Information processing apparatus and control method therefor
JP4999570B2 (ja) 2007-06-18 2012-08-15 キヤノン株式会社 表情認識装置及び方法、並びに撮像装置
KR101317047B1 (ko) * 2012-07-23 2013-10-11 충남대학교산학협력단 얼굴표정을 이용한 감정인식 장치 및 그 제어방법

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Luettin, J.et.al.,Speaker indetification by Iipreading,1996,Proceedings ICSLP 96.Fourth Internatinal Conference on Spoken Language Processing vol.1,p.62−5
大塚外、「時系列表情画像の解析処理に基づく表情変換法の検討」、電子情報通信学会技術研究報告、1997年3月19日、Vol.96,No.599(PRMU96 192−213)p.75−80
大塚外、「連続出力確立密度分布を用いたHMMによる動画像からの複数人物の表情認識」、電子情報通信学会論文誌D−2、1997年、Vol.J−80−D−2、No.8、p.2129−2137

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2009577A1 (en) 2007-06-29 2008-12-31 Canon Kabushiki Kaisha Image-processing apparatus and method, program, and storage medium
US8538091B2 (en) 2007-06-29 2013-09-17 Canon Kabushiki Kaisha Image processing apparatus and method, and storage medium
US8510156B2 (en) 2009-12-03 2013-08-13 Panasonic Corporation Viewing terminal apparatus, viewing statistics-gathering apparatus, viewing statistics-processing system, and viewing statistics-processing method
US11087520B2 (en) 2018-09-19 2021-08-10 XRSpace CO., LTD. Avatar facial expression generating system and method of avatar facial expression generation for facial model
US11127181B2 (en) 2018-09-19 2021-09-21 XRSpace CO., LTD. Avatar facial expression generating system and method of avatar facial expression generation
JP2021068404A (ja) * 2019-10-17 2021-04-30 未來市股▲ふん▼有限公司 アバターの顔の表情生成システムおよびアバターの顔の表情生成方法
KR20210060126A (ko) 2019-11-18 2021-05-26 연세대학교 산학협력단 표정 인식 네트워크 시스템 및 이를 이용한 표정 인식 방법

Also Published As

Publication number Publication date
JPH10255043A (ja) 1998-09-25

Similar Documents

Publication Publication Date Title
US6424960B1 (en) Unsupervised adaptation and classification of multiple classes and sources in blind signal separation
JP2962549B2 (ja) 顔動画像からの表情認識方法
JP2690027B2 (ja) パターン認識方法及び装置
US9489568B2 (en) Apparatus and method for video sensor-based human activity and facial expression modeling and recognition
JP3412496B2 (ja) 話者適応化装置と音声認識装置
JPH05333898A (ja) 時系列信号処理装置
JPH1055444A (ja) Dctをベースとするフィーチャー・ベクトルを使った顔の認識
JP2000081893A (ja) 話者適応化または話者正規化方法
JPH05257492A (ja) 音声認識方式
EP1863014B1 (en) Apparatuses and methods for learning and using a distance transition model
US20050149462A1 (en) System and method of separating signals
JPH11338491A (ja) 固有声に基いた最尤法を含む話者と環境適合化
JP2948186B2 (ja) 顔動画像からの表情抽出方法
US7516071B2 (en) Method of modeling single-enrollment classes in verification and identification tasks
JPH07334187A (ja) 音声認識装置
WO2006009043A1 (ja) データ照合方法、データ照合装置及びデータ照合プログラム
JPH0546583A (ja) 動物体行動認識装置
JP2839855B2 (ja) 顔の表情認識装置
Terissi et al. Audio-to-visual conversion via HMM inversion for speech-driven facial animation
Omar et al. Maximum conditional mutual information projection for speech recognition.
Moons et al. Resource aware design of a deep convolutional-recurrent neural network for speech recognition through audio-visual sensor fusion
KR102609789B1 (ko) 음성인식 성능 향상을 위한 화자 임베딩과 생성적 적대 신경망을 이용한 화자 정규화 시스템
Bregler et al. Learning visual models for lipreading
Hui et al. RBF neural network mouth tracking for audio-visual speech recognition system
CN116863944A (zh) 基于非稳态音频增强和多尺度注意力的声纹识别方法及系统

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19990721