JP2962549B2 - 顔動画像からの表情認識方法 - Google Patents
顔動画像からの表情認識方法Info
- Publication number
- JP2962549B2 JP2962549B2 JP9055886A JP5588697A JP2962549B2 JP 2962549 B2 JP2962549 B2 JP 2962549B2 JP 9055886 A JP9055886 A JP 9055886A JP 5588697 A JP5588697 A JP 5588697A JP 2962549 B2 JP2962549 B2 JP 2962549B2
- Authority
- JP
- Japan
- Prior art keywords
- facial
- expression
- probability
- feature vector
- equation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/29—Graphical models, e.g. Bayesian networks
- G06F18/295—Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】本発明は、画像処理方法に関
し、さらに詳しくは、顔動画像から表情を認識する方法
に関するものである。
し、さらに詳しくは、顔動画像から表情を認識する方法
に関するものである。
【0002】
【従来の技術】表情認識は、顔動画像の知的符号化や画
像通信システムにおける知的なマンマシンインタフェー
スを実現するためには重要な技術である。画像通信にお
いて送り手の表情が認識できれば、表情のカテゴリを符
号化した少量のデータを送ることにより送り手の表情が
合成できるため伝送量の削減が可能となる。また、表情
認識の精度が高く、合成の再現性が高ければ、あたかも
受け手と送り手が同一の場所にいるかのようなモデルベ
ースの画像通信ができるものと期待できる。
像通信システムにおける知的なマンマシンインタフェー
スを実現するためには重要な技術である。画像通信にお
いて送り手の表情が認識できれば、表情のカテゴリを符
号化した少量のデータを送ることにより送り手の表情が
合成できるため伝送量の削減が可能となる。また、表情
認識の精度が高く、合成の再現性が高ければ、あたかも
受け手と送り手が同一の場所にいるかのようなモデルベ
ースの画像通信ができるものと期待できる。
【0003】コンピュータビジョン研究では、多くの表
情認識の方法が従来より提案されている。
情認識の方法が従来より提案されている。
【0004】図3は、従来の表情認識方法の一例を示す
フローチャートである。図3に示されるように、この従
来の表情認識方法は、ステップS1で、入力された顔動
画像のフレーム毎にウェーブレット変換を施し、その各
帯域内平均電力を要素とする特徴ベクトルを抽出する。
フローチャートである。図3に示されるように、この従
来の表情認識方法は、ステップS1で、入力された顔動
画像のフレーム毎にウェーブレット変換を施し、その各
帯域内平均電力を要素とする特徴ベクトルを抽出する。
【0005】続いてステップS2では、隠れマルコフモ
デル(HMM:Hidden Markov Model )に入力するシン
ボルへ変換するためのベクトル量子化を行なう。このベ
クトル量子化は、認識対象表情毎に用意されたコードブ
ックで行なわれる。そして、それぞれの表情別コードブ
ックでベクトル量子化された1次元のシンボル系列は、
各表情のHMMに入力される。
デル(HMM:Hidden Markov Model )に入力するシン
ボルへ変換するためのベクトル量子化を行なう。このベ
クトル量子化は、認識対象表情毎に用意されたコードブ
ックで行なわれる。そして、それぞれの表情別コードブ
ックでベクトル量子化された1次元のシンボル系列は、
各表情のHMMに入力される。
【0006】ステップS3では、時間軸方向の伸縮に対
しても頑健であり、予め各々の表情の学習データによっ
て学習されたHMMにより、入力されたシンボル系列と
学習データとのゆう度(確率)を算出する。
しても頑健であり、予め各々の表情の学習データによっ
て学習されたHMMにより、入力されたシンボル系列と
学習データとのゆう度(確率)を算出する。
【0007】次に、ステップS4で、算出されたゆう度
(確率)が最大となる表情を認識結果とする。
(確率)が最大となる表情を認識結果とする。
【0008】上記において、ステップS2では、量子化
誤差を低減するために表情毎に異なったコードブックが
用意され、さらに、量子化誤差が大きい場合にはペナル
ティ関数を導入して確率を補正することにより誤った認
識を防ぐこととしている。
誤差を低減するために表情毎に異なったコードブックが
用意され、さらに、量子化誤差が大きい場合にはペナル
ティ関数を導入して確率を補正することにより誤った認
識を防ぐこととしている。
【0009】
【発明が解決しようとする課題】しかしながら、図3に
示される従来の表情認識方法では、高次元の特徴ベクト
ル空間の関数を有限個の代表点で近似することは困難で
あり、認識率の向上には限界があった。また、このた
め、高い認識率で認識することのできる対象が特定の人
物に限定されていたという問題があった。
示される従来の表情認識方法では、高次元の特徴ベクト
ル空間の関数を有限個の代表点で近似することは困難で
あり、認識率の向上には限界があった。また、このた
め、高い認識率で認識することのできる対象が特定の人
物に限定されていたという問題があった。
【0010】本発明は、このような問題を解消するため
になされたもので、不特定多数人物の表情に対し高い認
識率を得ることのできる顔動画像からの表情認識方法を
提供することを目的とする。
になされたもので、不特定多数人物の表情に対し高い認
識率を得ることのできる顔動画像からの表情認識方法を
提供することを目的とする。
【0011】
【課題を解決するための手段】請求項1に係る顔動画像
からの表情認識方法は、顔動画像中の連続する画像から
顔要素の各位置の速度ベクトルを算出するステップと、
速度ベクトルの各成分にフーリエ変換を施し、そのフー
リエ変換係数の中から、顔要素の変形または移動に対応
するフーリエ変換係数を特徴ベクトル列として抽出する
ステップと、予め各表情毎に、連続した出力確率を正規
分布を用いて近似した複数の隠れマルコフモデルを作成
するステップと、特徴ベクトル列が生成される生成確率
を、複数の隠れマルコフモデルによってそれぞれ算出す
るステップと、複数の隠れマルコフモデルのうち最大の
生成確率を算出した隠れマルコフモデルに対応する表情
を認識結果と判断するステップとを備えるものである。
からの表情認識方法は、顔動画像中の連続する画像から
顔要素の各位置の速度ベクトルを算出するステップと、
速度ベクトルの各成分にフーリエ変換を施し、そのフー
リエ変換係数の中から、顔要素の変形または移動に対応
するフーリエ変換係数を特徴ベクトル列として抽出する
ステップと、予め各表情毎に、連続した出力確率を正規
分布を用いて近似した複数の隠れマルコフモデルを作成
するステップと、特徴ベクトル列が生成される生成確率
を、複数の隠れマルコフモデルによってそれぞれ算出す
るステップと、複数の隠れマルコフモデルのうち最大の
生成確率を算出した隠れマルコフモデルに対応する表情
を認識結果と判断するステップとを備えるものである。
【0012】
【発明の実施の形態】以下、本発明の実施の形態を図面
を参照して詳しく説明する。
を参照して詳しく説明する。
【0013】図1は、本発明の実施の形態に係る顔動画
像からの表情認識方法を示すフローチャートである。
像からの表情認識方法を示すフローチャートである。
【0014】図1に示されるように、この顔動画像から
の表情認識方法は、画像処理を行なうステップS1と、
認識処理を行なうステップS2と、認識結果を得るステ
ップS3とを備える。
の表情認識方法は、画像処理を行なうステップS1と、
認識処理を行なうステップS2と、認識結果を得るステ
ップS3とを備える。
【0015】ここで、画像処理を行なうステップS1
は、入力された顔動画像から速度ベクトルを算出するス
テップS10と、速度ベクトルの各成分にフーリエ変換
を施すステップS11と、そのフーリエ変換係数の中か
ら、表情の動きに応じた特徴ベクトル列を抽出するステ
ップS12とを含む。
は、入力された顔動画像から速度ベクトルを算出するス
テップS10と、速度ベクトルの各成分にフーリエ変換
を施すステップS11と、そのフーリエ変換係数の中か
ら、表情の動きに応じた特徴ベクトル列を抽出するステ
ップS12とを含む。
【0016】また、認識処理を行なうステップS2は、
予め認識対象の表情カテゴリ毎にHMMを学習により作
成しておくステップS20と、ステップS1で抽出され
た特徴ベクトル列を生成する確率を各HMMを用いて算
出するステップS21とを含む。
予め認識対象の表情カテゴリ毎にHMMを学習により作
成しておくステップS20と、ステップS1で抽出され
た特徴ベクトル列を生成する確率を各HMMを用いて算
出するステップS21とを含む。
【0017】そして、ステップS3では、算出された確
率が最大となるHMMに対応する表情カテゴリを認識結
果とする。
率が最大となるHMMに対応する表情カテゴリを認識結
果とする。
【0018】なお、以下においては表情カテゴリとし
て、怒り、嫌悪、恐れ、悲しみ、幸福、驚きの合計6種
類の基本表情を考え、無表情から各基本表情への時系列
画像の処理について説明することとする。
て、怒り、嫌悪、恐れ、悲しみ、幸福、驚きの合計6種
類の基本表情を考え、無表情から各基本表情への時系列
画像の処理について説明することとする。
【0019】以下、上記各ステップを具体的に説明す
る。ステップS10では、動画像中の連続する2枚の画
像からオプティカルフローアルゴリズムを用いて速度ベ
クトルを得る。
る。ステップS10では、動画像中の連続する2枚の画
像からオプティカルフローアルゴリズムを用いて速度ベ
クトルを得る。
【0020】ここで、たとえば、顔の位置として、右目
と口をそれぞれ含む2つの領域が考えられる。これは、
これらの領域が人間が相手の表情を読取るときに最も注
目している領域に対応しているからである。なお、領域
の位置合せは、被験者毎に目と口の画像内での位置を求
めそれぞれが領域の中心になるように手動で行なう。
と口をそれぞれ含む2つの領域が考えられる。これは、
これらの領域が人間が相手の表情を読取るときに最も注
目している領域に対応しているからである。なお、領域
の位置合せは、被験者毎に目と口の画像内での位置を求
めそれぞれが領域の中心になるように手動で行なう。
【0021】次に、ステップS11では、ステップS1
0で得られた速度ベクトルの各成分に離散フーリエ変換
を施す。
0で得られた速度ベクトルの各成分に離散フーリエ変換
を施す。
【0022】そして、ステップS12では、フーリエ変
換係数の低周波成分(右目・口領域から7,8個、合計
15個)を特徴ベクトルとして抽出する。これらの特徴
ベクトルの成分は、表情変化の開始時および終了時に値
が0となり2つの時刻での区別がつかないため、右目お
よび口領域の速度ベクトルの自乗和を時間積分した値を
特徴ベクトルの成分として加える。
換係数の低周波成分(右目・口領域から7,8個、合計
15個)を特徴ベクトルとして抽出する。これらの特徴
ベクトルの成分は、表情変化の開始時および終了時に値
が0となり2つの時刻での区別がつかないため、右目お
よび口領域の速度ベクトルの自乗和を時間積分した値を
特徴ベクトルの成分として加える。
【0023】このように、ステップS12では、ステッ
プS10で得られた速度ベクトル毎に、対応する特徴ベ
クトルを抽出するため、画像処理を行なうステップS1
からはこれら複数の特徴ベクトルからなる特徴ベクトル
列を出力することとなる。
プS10で得られた速度ベクトル毎に、対応する特徴ベ
クトルを抽出するため、画像処理を行なうステップS1
からはこれら複数の特徴ベクトルからなる特徴ベクトル
列を出力することとなる。
【0024】次に、認識処理を行なうステップS2で
は、HMMを用いて特徴ベクトルの生成確率を算出する
が、ステップS20では、連続出力確率分布を持つHM
Mを作成する。
は、HMMを用いて特徴ベクトルの生成確率を算出する
が、ステップS20では、連続出力確率分布を持つHM
Mを作成する。
【0025】ここで、このHMMの構成は、図2に示す
ようなLeft-to-right 型とし、状態を状態数Nに対して
左から順にS1 ,S2 ,…,SN と名付ける。また、S
1 を初期状態、S2 ,…,SN-1 を中間状態、SN を最
終状態と呼ぶ。これらの各状態は以下のように表情の変
化を引起こす筋肉の状態に対応付けることができる。す
なわち、初期状態は無表情、中間状態は表情筋が収縮し
ている途中の状態、最終状態は表情筋の収縮が完了した
状態である。
ようなLeft-to-right 型とし、状態を状態数Nに対して
左から順にS1 ,S2 ,…,SN と名付ける。また、S
1 を初期状態、S2 ,…,SN-1 を中間状態、SN を最
終状態と呼ぶ。これらの各状態は以下のように表情の変
化を引起こす筋肉の状態に対応付けることができる。す
なわち、初期状態は無表情、中間状態は表情筋が収縮し
ている途中の状態、最終状態は表情筋の収縮が完了した
状態である。
【0026】HMMでは、出力値(特徴ベクトルに対
応)に応じて各状態の確率を更新して出力列の終了時t
=Tにおける最終状態の確率を出力列の生成確率と定義
する。ここで、出力列の開始時刻t=0における初期状
態の確率は1でその他の状態の確率は0とする。状態S
j (j=1,…,N)の確率の更新値を求めるために以
下の確率を定義する。なお、以下の遷移確率はステップ
S21でのHMMによる時間パターン認識処理において
用いられるものであり、出力確率は、ステップS21で
のHMMによる空間パターン認識処理に用いられるもの
である。
応)に応じて各状態の確率を更新して出力列の終了時t
=Tにおける最終状態の確率を出力列の生成確率と定義
する。ここで、出力列の開始時刻t=0における初期状
態の確率は1でその他の状態の確率は0とする。状態S
j (j=1,…,N)の確率の更新値を求めるために以
下の確率を定義する。なお、以下の遷移確率はステップ
S21でのHMMによる時間パターン認識処理において
用いられるものであり、出力確率は、ステップS21で
のHMMによる空間パターン認識処理に用いられるもの
である。
【0027】1) 遷移確率ajiは、状態Sj から次の
時刻に状態Si に遷移する確率を表わす。Left-to-righ
t 型HMMでは、自己および右側の状態への遷移のみが
可能なので以下の拘束条件が成り立つ。
時刻に状態Si に遷移する確率を表わす。Left-to-righ
t 型HMMでは、自己および右側の状態への遷移のみが
可能なので以下の拘束条件が成り立つ。
【0028】
【数1】
【0029】
【数2】
【0030】2) 出力確率bj (O)は、状態Sj へ
の遷移に伴って特徴ベクトルOを出力する確率を表わ
す。ここで出力確率bj (O)は、D次元空間上の連続
分布とし、式(2)のようにM個の多次元正規分布Nの
荷重平均により近似する。複数の正規分布を用いること
により、同一表情における個人差、同一人物の表情表出
の変動などに起因する異なったパターンを精度よく近似
することができると考えられる。ここで、Mを混合数
(number of mixture )と呼ぶ。
の遷移に伴って特徴ベクトルOを出力する確率を表わ
す。ここで出力確率bj (O)は、D次元空間上の連続
分布とし、式(2)のようにM個の多次元正規分布Nの
荷重平均により近似する。複数の正規分布を用いること
により、同一表情における個人差、同一人物の表情表出
の変動などに起因する異なったパターンを精度よく近似
することができると考えられる。ここで、Mを混合数
(number of mixture )と呼ぶ。
【0031】
【数3】
【0032】ここで、cjk,μjk,Ujkはそれぞれ状態
Sj でのk番目の混合要素における荷重、平均値ベクト
ル、共分散行列である。また、荷重cjkは以下の拘束条
件を満たす。
Sj でのk番目の混合要素における荷重、平均値ベクト
ル、共分散行列である。また、荷重cjkは以下の拘束条
件を満たす。
【0033】
【数4】
【0034】出力確率の表現法として、離散的なシンボ
ルに確率を割付ける離散分布を用いる方法は、実装が連
続分布に比べて容易であるので音声認識ではよく用いら
れている。しかし、画像処理のように特徴ベクトルの次
元数が大きい場合には量子化誤差が問題となる。
ルに確率を割付ける離散分布を用いる方法は、実装が連
続分布に比べて容易であるので音声認識ではよく用いら
れている。しかし、画像処理のように特徴ベクトルの次
元数が大きい場合には量子化誤差が問題となる。
【0035】一方、連続分布を出力確率に用いた場合に
は精度よく出力確率をモデル化することができる。
は精度よく出力確率をモデル化することができる。
【0036】ステップS21におけるHMMによる時間
パターン認識処理においては、遷移確率と出力確率を用
いて各状態の確率を更新するため、フォーワードアルゴ
リズムが使われる。出力される特徴ベクトル列O1 ,O
2 ,…,OT に対して、時刻tにおいて状態Si である
確率をαt (i)とすると、αt (i)は以下の漸化式
により求められる。
パターン認識処理においては、遷移確率と出力確率を用
いて各状態の確率を更新するため、フォーワードアルゴ
リズムが使われる。出力される特徴ベクトル列O1 ,O
2 ,…,OT に対して、時刻tにおいて状態Si である
確率をαt (i)とすると、αt (i)は以下の漸化式
により求められる。
【0037】
【数5】
【0038】ここで、HMMのパラメータajiとb
i (O)の学習には通常Baum-Welchアルゴリズムが使わ
れる。Baum-Welchアルゴリズムは、期待値最大化(Esti
mation Maximization )アルゴリズムとして導かれる。
すなわち、出力される特徴ベクトル列O1 ,O2 ,…,
OT に対する期待値、
i (O)の学習には通常Baum-Welchアルゴリズムが使わ
れる。Baum-Welchアルゴリズムは、期待値最大化(Esti
mation Maximization )アルゴリズムとして導かれる。
すなわち、出力される特徴ベクトル列O1 ,O2 ,…,
OT に対する期待値、
【0039】
【数6】
【0040】が最大になる確率を求めればよい。ここ
で、βt (i)はαt (i)の双対であり、以下のバッ
クワードアルゴリズムにより時刻t=Tから逆方向に求
められる。
で、βt (i)はαt (i)の双対であり、以下のバッ
クワードアルゴリズムにより時刻t=Tから逆方向に求
められる。
【0041】
【数7】
【0042】ここで、時刻t=Tにおけるβt (i)は
状態SN にのみ1が割付けられるように初期化する。
状態SN にのみ1が割付けられるように初期化する。
【0043】Baum-WelchアルゴリズムによるHMMのパ
ラメータの再推定式は以下のように書ける。
ラメータの再推定式は以下のように書ける。
【0044】
【数8】
【0045】
【数9】
【0046】
【数10】
【0047】
【数11】
【0048】ここで、γt (j,k)は時刻tに状態S
j のうちk番目の混合要素にある確率であり以下のよう
に定義される。
j のうちk番目の混合要素にある確率であり以下のよう
に定義される。
【0049】
【数12】
【0050】測定される特徴ベクトルに含まれるノイズ
の影響を低減してパラメータの精度を上げるためには多
数の学習データからの推定が必要となる。この場合に
は、式(7)〜(11)を複数の学習データに関して総
和をとるように書換えればよい。
の影響を低減してパラメータの精度を上げるためには多
数の学習データからの推定が必要となる。この場合に
は、式(7)〜(11)を複数の学習データに関して総
和をとるように書換えればよい。
【0051】Baum-Welchアルゴリズムは期待値を極大化
するアルゴリズムであるので、期待値を最大化するため
には適切な初期値を選ばなければならない。そこで、以
下の手法でHMMのパラメータの初期値を求め、Baum-W
elchアルゴリズムを実行してパラメータの再推定を行な
う。すなわち、荷重cjk、平均ベクトルμjk、共分散行
列Ujkは、以下のアルゴリズムにより初期値を求め、遷
移確率aijは式(1)の条件の下でランダムに設定す
る。
するアルゴリズムであるので、期待値を最大化するため
には適切な初期値を選ばなければならない。そこで、以
下の手法でHMMのパラメータの初期値を求め、Baum-W
elchアルゴリズムを実行してパラメータの再推定を行な
う。すなわち、荷重cjk、平均ベクトルμjk、共分散行
列Ujkは、以下のアルゴリズムにより初期値を求め、遷
移確率aijは式(1)の条件の下でランダムに設定す
る。
【0052】1) 特徴ベクトル列O(i) =O1 ,
O2 ,…,OT (i=1,…,L)の要素をk−means
法により状態数N個のクラスタSj (i) (j=1,…,
N)に類別する。それらのクラスタの要素数をNijとす
る。ここで、クラスタは時間順に並んでいるものとす
る。
O2 ,…,OT (i=1,…,L)の要素をk−means
法により状態数N個のクラスタSj (i) (j=1,…,
N)に類別する。それらのクラスタの要素数をNijとす
る。ここで、クラスタは時間順に並んでいるものとす
る。
【0053】2)各特徴ベクトル列からのクラスタの和
集合∪i Sj (i) の要素をk−means 法により混合数M
個のクラスタSj (i) ′(i=1,…,M)に類別す
る。それらのクラスタの要素数、平均、共分散行列を
N′ji、μ′ji、U′ji(j=1,…,N、i=1,
…,M)とする。
集合∪i Sj (i) の要素をk−means 法により混合数M
個のクラスタSj (i) ′(i=1,…,M)に類別す
る。それらのクラスタの要素数、平均、共分散行列を
N′ji、μ′ji、U′ji(j=1,…,N、i=1,
…,M)とする。
【0054】3) 出力確率のパラメータを以下の式に
より求める。
より求める。
【0055】
【数13】
【0056】
【数14】
【0057】
【数15】
【0058】この手法は、パラメータの推定にk−mean
s 法を用いる点でセグメンタルk−means 法と類似して
いる。
s 法を用いる点でセグメンタルk−means 法と類似して
いる。
【0059】しかし、セグメンタルk−means 法ではス
テップ1)でViterbi アライメントを用いてセグメント
する点と、上記のステップ1)〜3)を繰返す点が異な
る。
テップ1)でViterbi アライメントを用いてセグメント
する点と、上記のステップ1)〜3)を繰返す点が異な
る。
【0060】なお、以上の説明は、人間の顔の動画像か
らの表情認識方法に関するものであるが、人間の顔以
外、たとえば、手の動きや物体の状態などを認識する方
法に関しても同様に説明することができる。
らの表情認識方法に関するものであるが、人間の顔以
外、たとえば、手の動きや物体の状態などを認識する方
法に関しても同様に説明することができる。
【0061】
【発明の効果】請求項1に係る顔動画像からの表情認識
方法によれば、不特定多数の人物の顔動画像から、その
表情を認識することができ、また、速い表情変化を伴う
表情も認識することができる。
方法によれば、不特定多数の人物の顔動画像から、その
表情を認識することができ、また、速い表情変化を伴う
表情も認識することができる。
【図1】本発明の実施の形態に係る顔動画像からの表情
認識方法を示すフローチャートである。
認識方法を示すフローチャートである。
【図2】状態数が3の場合のLeft-to-right 型HMMの
構成を示す図である。
構成を示す図である。
【図3】従来の顔動画像からの表情認識方法の一例を示
すフローチャートである。
すフローチャートである。
フロントページの続き (56)参考文献 大塚外、「連続出力確立密度分布を用 いたHMMによる動画像からの複数人物 の表情認識」、電子情報通信学会論文誌 D−2、1997年、Vol.J−80−D− 2、No.8、p.2129−2137 大塚外、「時系列表情画像の解析処理 に基づく表情変換法の検討」、電子情報 通信学会技術研究報告、1997年3月19 日、Vol.96,No.599(PRMU 96 192−213)p.75−80 Luettin, J.et.a l.,Speaker indetif ication by Iipread ing,1996,Proceedings ICSLP 96.Fourth In ternatinal Confere nce on Spoken Lang uage Processing vo l.1,p.62−5 (58)調査した分野(Int.Cl.6,DB名) G06T 7/00 G06T 1/00 G06T 7/20 INSPEC(DIALOG) JICSTファイル(JOIS)
Claims (1)
- 【請求項1】 顔動画像中の連続する画像から顔要素の
各位置の速度ベクトルを算出するステップと、 前記速度ベクトルの各成分にフーリエ変換を施し、その
フーリエ変換係数の中から、前記顔要素の変形または移
動に対応する前記フーリエ変換係数を特徴ベクトル列と
して抽出するステップと、 予め各表情毎に、連続した出力確率を正規分布を用いて
近似した複数の隠れマルコフモデルを作成するステップ
と、 前記特徴ベクトル列が生成される生成確率を、前記複数
の隠れマルコフモデルによってそれぞれ算出するステッ
プと、 前記複数の隠れマルコフモデルのうち最大の生成確率を
算出した隠れマルコフモデルに対応する表情を認識結果
と判断するステップとを備える、顔動画像からの表情認
識方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9055886A JP2962549B2 (ja) | 1997-03-11 | 1997-03-11 | 顔動画像からの表情認識方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9055886A JP2962549B2 (ja) | 1997-03-11 | 1997-03-11 | 顔動画像からの表情認識方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10255043A JPH10255043A (ja) | 1998-09-25 |
JP2962549B2 true JP2962549B2 (ja) | 1999-10-12 |
Family
ID=13011597
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP9055886A Expired - Lifetime JP2962549B2 (ja) | 1997-03-11 | 1997-03-11 | 顔動画像からの表情認識方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2962549B2 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2009577A1 (en) | 2007-06-29 | 2008-12-31 | Canon Kabushiki Kaisha | Image-processing apparatus and method, program, and storage medium |
US8510156B2 (en) | 2009-12-03 | 2013-08-13 | Panasonic Corporation | Viewing terminal apparatus, viewing statistics-gathering apparatus, viewing statistics-processing system, and viewing statistics-processing method |
JP2021068404A (ja) * | 2019-10-17 | 2021-04-30 | 未來市股▲ふん▼有限公司 | アバターの顔の表情生成システムおよびアバターの顔の表情生成方法 |
KR20210060126A (ko) | 2019-11-18 | 2021-05-26 | 연세대학교 산학협력단 | 표정 인식 네트워크 시스템 및 이를 이용한 표정 인식 방법 |
US11087520B2 (en) | 2018-09-19 | 2021-08-10 | XRSpace CO., LTD. | Avatar facial expression generating system and method of avatar facial expression generation for facial model |
US11127181B2 (en) | 2018-09-19 | 2021-09-21 | XRSpace CO., LTD. | Avatar facial expression generating system and method of avatar facial expression generation |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6459808B1 (en) * | 1999-07-21 | 2002-10-01 | Mitsubishi Electric Research Laboratories, Inc. | Method for inferring target paths from related cue paths |
KR100421740B1 (ko) * | 2000-11-14 | 2004-03-10 | 삼성전자주식회사 | 객체 활동 모델링 방법 |
US7391889B2 (en) * | 2002-10-15 | 2008-06-24 | Samsung Electronics Co., Ltd. | Method and apparatus for extracting feature vector used for face recognition and retrieval |
KR100702226B1 (ko) | 2004-11-23 | 2007-04-03 | 홍기천 | 얼굴 검출 및 인증 장치 및 그 방법 |
US8542928B2 (en) | 2005-09-26 | 2013-09-24 | Canon Kabushiki Kaisha | Information processing apparatus and control method therefor |
JP4999570B2 (ja) | 2007-06-18 | 2012-08-15 | キヤノン株式会社 | 表情認識装置及び方法、並びに撮像装置 |
KR101317047B1 (ko) * | 2012-07-23 | 2013-10-11 | 충남대학교산학협력단 | 얼굴표정을 이용한 감정인식 장치 및 그 제어방법 |
-
1997
- 1997-03-11 JP JP9055886A patent/JP2962549B2/ja not_active Expired - Lifetime
Non-Patent Citations (3)
Title |
---|
Luettin, J.et.al.,Speaker indetification by Iipreading,1996,Proceedings ICSLP 96.Fourth Internatinal Conference on Spoken Language Processing vol.1,p.62−5 |
大塚外、「時系列表情画像の解析処理に基づく表情変換法の検討」、電子情報通信学会技術研究報告、1997年3月19日、Vol.96,No.599(PRMU96 192−213)p.75−80 |
大塚外、「連続出力確立密度分布を用いたHMMによる動画像からの複数人物の表情認識」、電子情報通信学会論文誌D−2、1997年、Vol.J−80−D−2、No.8、p.2129−2137 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2009577A1 (en) | 2007-06-29 | 2008-12-31 | Canon Kabushiki Kaisha | Image-processing apparatus and method, program, and storage medium |
US8538091B2 (en) | 2007-06-29 | 2013-09-17 | Canon Kabushiki Kaisha | Image processing apparatus and method, and storage medium |
US8510156B2 (en) | 2009-12-03 | 2013-08-13 | Panasonic Corporation | Viewing terminal apparatus, viewing statistics-gathering apparatus, viewing statistics-processing system, and viewing statistics-processing method |
US11087520B2 (en) | 2018-09-19 | 2021-08-10 | XRSpace CO., LTD. | Avatar facial expression generating system and method of avatar facial expression generation for facial model |
US11127181B2 (en) | 2018-09-19 | 2021-09-21 | XRSpace CO., LTD. | Avatar facial expression generating system and method of avatar facial expression generation |
JP2021068404A (ja) * | 2019-10-17 | 2021-04-30 | 未來市股▲ふん▼有限公司 | アバターの顔の表情生成システムおよびアバターの顔の表情生成方法 |
KR20210060126A (ko) | 2019-11-18 | 2021-05-26 | 연세대학교 산학협력단 | 표정 인식 네트워크 시스템 및 이를 이용한 표정 인식 방법 |
Also Published As
Publication number | Publication date |
---|---|
JPH10255043A (ja) | 1998-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6424960B1 (en) | Unsupervised adaptation and classification of multiple classes and sources in blind signal separation | |
JP2962549B2 (ja) | 顔動画像からの表情認識方法 | |
JP2690027B2 (ja) | パターン認識方法及び装置 | |
US9489568B2 (en) | Apparatus and method for video sensor-based human activity and facial expression modeling and recognition | |
JP3412496B2 (ja) | 話者適応化装置と音声認識装置 | |
JPH05333898A (ja) | 時系列信号処理装置 | |
JPH1055444A (ja) | Dctをベースとするフィーチャー・ベクトルを使った顔の認識 | |
JP2000081893A (ja) | 話者適応化または話者正規化方法 | |
JPH05257492A (ja) | 音声認識方式 | |
EP1863014B1 (en) | Apparatuses and methods for learning and using a distance transition model | |
US20050149462A1 (en) | System and method of separating signals | |
JPH11338491A (ja) | 固有声に基いた最尤法を含む話者と環境適合化 | |
JP2948186B2 (ja) | 顔動画像からの表情抽出方法 | |
US7516071B2 (en) | Method of modeling single-enrollment classes in verification and identification tasks | |
JPH07334187A (ja) | 音声認識装置 | |
WO2006009043A1 (ja) | データ照合方法、データ照合装置及びデータ照合プログラム | |
JPH0546583A (ja) | 動物体行動認識装置 | |
JP2839855B2 (ja) | 顔の表情認識装置 | |
Terissi et al. | Audio-to-visual conversion via HMM inversion for speech-driven facial animation | |
Omar et al. | Maximum conditional mutual information projection for speech recognition. | |
Moons et al. | Resource aware design of a deep convolutional-recurrent neural network for speech recognition through audio-visual sensor fusion | |
KR102609789B1 (ko) | 음성인식 성능 향상을 위한 화자 임베딩과 생성적 적대 신경망을 이용한 화자 정규화 시스템 | |
Bregler et al. | Learning visual models for lipreading | |
Hui et al. | RBF neural network mouth tracking for audio-visual speech recognition system | |
CN116863944A (zh) | 基于非稳态音频增强和多尺度注意力的声纹识别方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 19990721 |