JP3062181B1 - 実時間表情検出装置 - Google Patents
実時間表情検出装置Info
- Publication number
- JP3062181B1 JP3062181B1 JP7219499A JP7219499A JP3062181B1 JP 3062181 B1 JP3062181 B1 JP 3062181B1 JP 7219499 A JP7219499 A JP 7219499A JP 7219499 A JP7219499 A JP 7219499A JP 3062181 B1 JP3062181 B1 JP 3062181B1
- Authority
- JP
- Japan
- Prior art keywords
- face
- image
- facial expression
- expression
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
【要約】
【課題】 非接触で利用者への負担が少なく、顔の回転
に関して堅牢であり、動作の制限が緩和されるような実
時間表情検出装置を提供する。 【解決手段】 CCDカメラ1で被験者の顔画像を撮像
し、撮像制御部7において肌色領域の重心と入力画像の
中心が合致するようにCCD1カメラを制御する。ま
た、特徴点検出部4においては顔画像信号から眼と口の
位置を推定する。推定された両眼の位置に基づいて顔の
傾き角を推定し、その角度だけ検出領域内の顔画像を回
転させ、回転した検出領域に対して表情推定部5が2次
元離散コサイン変換を行なうとともに、無表情検出時か
らの空間周波数成分の変化を求め、表情再現部6におい
て予め遺伝的アルゴリズムによって学習されたパラメー
タを用いて、求められた空間周波数成分の変化データを
3次元顔モデルの変形に変換して表情を再現する。
に関して堅牢であり、動作の制限が緩和されるような実
時間表情検出装置を提供する。 【解決手段】 CCDカメラ1で被験者の顔画像を撮像
し、撮像制御部7において肌色領域の重心と入力画像の
中心が合致するようにCCD1カメラを制御する。ま
た、特徴点検出部4においては顔画像信号から眼と口の
位置を推定する。推定された両眼の位置に基づいて顔の
傾き角を推定し、その角度だけ検出領域内の顔画像を回
転させ、回転した検出領域に対して表情推定部5が2次
元離散コサイン変換を行なうとともに、無表情検出時か
らの空間周波数成分の変化を求め、表情再現部6におい
て予め遺伝的アルゴリズムによって学習されたパラメー
タを用いて、求められた空間周波数成分の変化データを
3次元顔モデルの変形に変換して表情を再現する。
Description
【0001】
【発明の属する技術分野】この発明は実時間表情検出装
置に関し、特に、距離を隔てた複数の人物間の仮想空間
を介したコミュニケーションを実現するために、リアル
タイムで顔の表情を検出するような実時間表情検出装置
に関する。
置に関し、特に、距離を隔てた複数の人物間の仮想空間
を介したコミュニケーションを実現するために、リアル
タイムで顔の表情を検出するような実時間表情検出装置
に関する。
【0002】
【従来の技術】コミュニケーション環境を通信会議に限
定した臨場感通信会議システムが既に提案されている。
このようなシステムでは、たとえば小型カメラを固定し
たヘルメットを人物が被ることにより、常に一定の位置
から相手方の人物の顔の表情を観測できるようにされて
いる。これにより、顔の自動追跡処理は不要となる。
定した臨場感通信会議システムが既に提案されている。
このようなシステムでは、たとえば小型カメラを固定し
たヘルメットを人物が被ることにより、常に一定の位置
から相手方の人物の顔の表情を観測できるようにされて
いる。これにより、顔の自動追跡処理は不要となる。
【0003】一方、顔の特徴点を検出する技術として、
他にエッジ画像による特徴点検出や、2次元のテンプレ
ートによるマッチングなどを用いたものが提案されてい
る。
他にエッジ画像による特徴点検出や、2次元のテンプレ
ートによるマッチングなどを用いたものが提案されてい
る。
【0004】
【発明が解決しようとする課題】上述の小型カメラを固
定したヘルメットを人物が被る方法では、ヘルメットを
装着するための煩わしさが残り、エッジ画像や2次元の
テンプレートを用いる方法では計算コストの面で問題が
あった。
定したヘルメットを人物が被る方法では、ヘルメットを
装着するための煩わしさが残り、エッジ画像や2次元の
テンプレートを用いる方法では計算コストの面で問題が
あった。
【0005】それゆえに、この発明の主たる目的は、非
接触で利用者への負担が少なくて済み、顔の回転に関し
て堅牢であり、動作の制限が緩和されるような実時間表
情検出装置を提供することである。
接触で利用者への負担が少なくて済み、顔の回転に関し
て堅牢であり、動作の制限が緩和されるような実時間表
情検出装置を提供することである。
【0006】
【課題を解決するための手段】請求項1に係る発明は、
実時間で被験者の顔の表情を検出する実時間表情検出装
置であって、被験者の顔画像を撮像するための撮像手段
と、撮像手段出力の顔画像信号から肌色領域を抽出して
その重心を求め、入力画像の中心に顔の中心が一致する
ように撮像手段を制御する撮像制御手段と、前処理とし
て撮像手段からの画像信号から肌色とそれ以外の2値画
像を作成し、その画像の重心位置からサーチして画素値
の変化する要素を見出して輪郭線を追跡し、輪郭線の内
側領域の重心から眼と口の位置を求める特徴点検出手段
と、求められた両眼の位置に基づいて顔の傾き角を推定
し、その角度だけ検出領域内の顔画像を回転させる画像
回転手段と、顔画像の回転した検出領域に対して2次元
離散コサイン変換を行ない、無表情検出時からの空間周
波数成分の変化を求める表情推定手段と、予め遺伝的ア
ルゴリズムによって学習されたパラメータを用いて、表
情推定手段によって求められた空間周波数成分の変化デ
ータを3次元顔モデルの変形に変換して表情を再現する
表情再現手段を備えて構成される。
実時間で被験者の顔の表情を検出する実時間表情検出装
置であって、被験者の顔画像を撮像するための撮像手段
と、撮像手段出力の顔画像信号から肌色領域を抽出して
その重心を求め、入力画像の中心に顔の中心が一致する
ように撮像手段を制御する撮像制御手段と、前処理とし
て撮像手段からの画像信号から肌色とそれ以外の2値画
像を作成し、その画像の重心位置からサーチして画素値
の変化する要素を見出して輪郭線を追跡し、輪郭線の内
側領域の重心から眼と口の位置を求める特徴点検出手段
と、求められた両眼の位置に基づいて顔の傾き角を推定
し、その角度だけ検出領域内の顔画像を回転させる画像
回転手段と、顔画像の回転した検出領域に対して2次元
離散コサイン変換を行ない、無表情検出時からの空間周
波数成分の変化を求める表情推定手段と、予め遺伝的ア
ルゴリズムによって学習されたパラメータを用いて、表
情推定手段によって求められた空間周波数成分の変化デ
ータを3次元顔モデルの変形に変換して表情を再現する
表情再現手段を備えて構成される。
【0007】
【0008】
【発明の実施の形態】図1はこの発明の一実施形態を実
現するための装置のブロック図である。図1において、
撮像手段としてのCCDカメラ1によって被験者の顔画
像が撮像され、その撮像出力の画像信号が画像処理装置
2に与えられ、この発明による顔画像の実時間表情が検
出され、表示部3に表示される。
現するための装置のブロック図である。図1において、
撮像手段としてのCCDカメラ1によって被験者の顔画
像が撮像され、その撮像出力の画像信号が画像処理装置
2に与えられ、この発明による顔画像の実時間表情が検
出され、表示部3に表示される。
【0009】図2は図1に示した画像処理装置による処
理過程を示す図であり、図3は図2の特徴点検出部のよ
り具体的な処理手順を示すフローチャートであり、図4
は検出領域内の画像を回転する方法を説明するための図
である。
理過程を示す図であり、図3は図2の特徴点検出部のよ
り具体的な処理手順を示すフローチャートであり、図4
は検出領域内の画像を回転する方法を説明するための図
である。
【0010】図1に示したCCDカメラ1で撮像された
顔の画像信号は画像処理装置2に与えられる。画像処理
装置2は図2に示すように、特徴点検出部4と表情推定
部5と表情再現部6と撮像制御部7としての機能を有し
ている。これらの機能はソフトウェア処理によって実現
される。
顔の画像信号は画像処理装置2に与えられる。画像処理
装置2は図2に示すように、特徴点検出部4と表情推定
部5と表情再現部6と撮像制御部7としての機能を有し
ている。これらの機能はソフトウェア処理によって実現
される。
【0011】撮像制御部7は予め学習された被験者の肌
の色情報によって入力画像を2値変換し、その2値画像
を用いて顔位置を特定し、入力画像の中心が顔の中心に
合致するようにCCDカメラ1をフィードバック制御す
る。
の色情報によって入力画像を2値変換し、その2値画像
を用いて顔位置を特定し、入力画像の中心が顔の中心に
合致するようにCCDカメラ1をフィードバック制御す
る。
【0012】特徴点検出部4は顔画像信号の輝度情報に
よる1次元テンプレートマッチングにより眼の位置を特
定し、両眼の位置から口の位置を推定する。その後、予
め学習された被験者の肌の色情報によって入力画像を2
値変換し、その2値画像を用いて顔位置を特定し、入力
画像の中心に顔の中心が合致するようにCCDカメラ1
をフィードバック制御する。また、特徴点検出部4は推
定された両眼の位置に基づいて顔の傾き角を推定し、そ
の角度だけ検出領域内の顔画像を回転させる。
よる1次元テンプレートマッチングにより眼の位置を特
定し、両眼の位置から口の位置を推定する。その後、予
め学習された被験者の肌の色情報によって入力画像を2
値変換し、その2値画像を用いて顔位置を特定し、入力
画像の中心に顔の中心が合致するようにCCDカメラ1
をフィードバック制御する。また、特徴点検出部4は推
定された両眼の位置に基づいて顔の傾き角を推定し、そ
の角度だけ検出領域内の顔画像を回転させる。
【0013】表情推定部5は表情変化を捉えるために重
要な領域に対して、DCT(2次元離散コサイン)変換
を行ない、無表情検出時からの空間周波数成分変化を求
める。そして、表情再現部6では、予め遺伝的アルゴリ
ズムによって学習されたパラメータを用いて、表情推定
部5によって求められた空間周波数成分の変化データを
3次元顔モデルの変形に変換して、表示部3で表情を再
現する。
要な領域に対して、DCT(2次元離散コサイン)変換
を行ない、無表情検出時からの空間周波数成分変化を求
める。そして、表情再現部6では、予め遺伝的アルゴリ
ズムによって学習されたパラメータを用いて、表情推定
部5によって求められた空間周波数成分の変化データを
3次元顔モデルの変形に変換して、表示部3で表情を再
現する。
【0014】さらに、特徴点検出部4と表情推定部5と
表情再現部6の具体的な動作について説明する。まず、
特徴点検出部4は、表情を検出するためには特徴領域を
なるべく多いピクセル数で捉えた方がより正確に検出を
行なうことができる。しかし、顔を画面全体に表示させ
ると被験者は顔の動きを抑制されることとなり、課せら
れる負担が増大してしまう。そこで、人物の顔をなるべ
く大きく捉えながらも、被験者には自由な姿勢でいられ
るように、頭部運動をCCDカメラ1で追跡する。
表情再現部6の具体的な動作について説明する。まず、
特徴点検出部4は、表情を検出するためには特徴領域を
なるべく多いピクセル数で捉えた方がより正確に検出を
行なうことができる。しかし、顔を画面全体に表示させ
ると被験者は顔の動きを抑制されることとなり、課せら
れる負担が増大してしまう。そこで、人物の顔をなるべ
く大きく捉えながらも、被験者には自由な姿勢でいられ
るように、頭部運動をCCDカメラ1で追跡する。
【0015】基本的には、被験者の瞳を追跡することに
よって頭部の運動を追跡するが、激しい頭部運動や、俯
き、振り向きなどの動作により、追跡不可能な状態が発
生する。これを極力防ぎ、すばやく追跡処理を行なうた
めに、背景色を被験者の指標となる肌の色に最適化する
処理を行なう。すなわち、背景だけの画像と被験者を含
んだ画像から色度情報による差分画像を求め、しきい値
により人領域と背景領域とに領域分割が行なわれる。
よって頭部の運動を追跡するが、激しい頭部運動や、俯
き、振り向きなどの動作により、追跡不可能な状態が発
生する。これを極力防ぎ、すばやく追跡処理を行なうた
めに、背景色を被験者の指標となる肌の色に最適化する
処理を行なう。すなわち、背景だけの画像と被験者を含
んだ画像から色度情報による差分画像を求め、しきい値
により人領域と背景領域とに領域分割が行なわれる。
【0016】経験的に求めた代表的な肌の色の色度値を
中心として色度領域の1つ1つの色度値(I,Q値)に
対し、その色度値が人領域に含まれているピクセル数:
その色度値が背景領域に含まれているピクセル数を求
め、人領域に分類される比が一定以上多ければ、その色
度値を肌の色とする。
中心として色度領域の1つ1つの色度値(I,Q値)に
対し、その色度値が人領域に含まれているピクセル数:
その色度値が背景領域に含まれているピクセル数を求
め、人領域に分類される比が一定以上多ければ、その色
度値を肌の色とする。
【0017】以上の処理によって求めた被験者独自の肌
の色情報を用いて顔運動の追跡が行なわれる。次に、眼
口領域の初期特定方法について説明する。
の色情報を用いて顔運動の追跡が行なわれる。次に、眼
口領域の初期特定方法について説明する。
【0018】被験者を撮像した画像から前述のようにし
て求めた肌の色の情報に従い、肌色とそれ以外の2値情
報が作成される。その画像の重心位置を起点とし、一定
の角度の方向について画素値が変化する(肌の色でなく
なる)要素がサーチされる。見出された画素から構成さ
れる輪郭線が追跡され、その輪郭線長が一定範囲外なら
ばサーチ起点と見つかった点との延長線上と輪郭線が交
差する点が新たなサーチ起点とされる。もし、サーチに
失敗し、画像の端まできたときにはサーチ起点を変えて
再びサーチされる。望んだ輪郭線が得られたならば、輪
郭線の内側領域の重心を求め、それを眼の位置とする。
同様にして、口の初期位置を求め、その人物の眼,口の
相対的な位置関係を初期情報として記憶する。
て求めた肌の色の情報に従い、肌色とそれ以外の2値情
報が作成される。その画像の重心位置を起点とし、一定
の角度の方向について画素値が変化する(肌の色でなく
なる)要素がサーチされる。見出された画素から構成さ
れる輪郭線が追跡され、その輪郭線長が一定範囲外なら
ばサーチ起点と見つかった点との延長線上と輪郭線が交
差する点が新たなサーチ起点とされる。もし、サーチに
失敗し、画像の端まできたときにはサーチ起点を変えて
再びサーチされる。望んだ輪郭線が得られたならば、輪
郭線の内側領域の重心を求め、それを眼の位置とする。
同様にして、口の初期位置を求め、その人物の眼,口の
相対的な位置関係を初期情報として記憶する。
【0019】この実施例では、眼位置の探索範囲が前回
の眼の位置を中心とした100×100ピクセルの矩形
領域とされる。前述の処理によって得られた瞳の座標を
基に、y軸方向の100ピクセルの長さをもった輝度情
報の1次元テンプレートを作成する。追跡を行なう次の
フレームが入力されると、探索領域内のピクセルに対
し、次の第(1)式により相関を計算し、相関の度合い
が高かった3点の平均の座標を新たな眼の位置とする。
の眼の位置を中心とした100×100ピクセルの矩形
領域とされる。前述の処理によって得られた瞳の座標を
基に、y軸方向の100ピクセルの長さをもった輝度情
報の1次元テンプレートを作成する。追跡を行なう次の
フレームが入力されると、探索領域内のピクセルに対
し、次の第(1)式により相関を計算し、相関の度合い
が高かった3点の平均の座標を新たな眼の位置とする。
【0020】
【数1】
【0021】口領域に関しては、形状が激しく変形する
ため、テンプレートマッチングは使用していない。しか
し、既に眼の位置がわかっており、眼口位置初期化処理
の過程で、眼と口との相対位置が求められているため、
その相対的な座標位置を基に、両眼の位置から口の位置
を算出する。
ため、テンプレートマッチングは使用していない。しか
し、既に眼の位置がわかっており、眼口位置初期化処理
の過程で、眼と口との相対位置が求められているため、
その相対的な座標位置を基に、両眼の位置から口の位置
を算出する。
【0022】僅かな頭部の運動ならば、画面内に顔全体
が収まっており、表情検出が可能となる。しかし、この
ままでは、被験者は常にカメラのファインダに収まるよ
うに顔を固定することを強要されることになる。たとえ
ば、首をかしげるなどは比較的自然な動作であるにもか
かわらず、固定されたカメラでは、顔の一部は画面外に
出てしまい、全体を捉えることが難しく、表情の検出が
正しく行なわれない。そこで、この実施形態では、電動
雲台によってカメラを制御し、常に被写体を捉えるよう
にCCDカメラ1を制御することで、この問題を解決す
る。
が収まっており、表情検出が可能となる。しかし、この
ままでは、被験者は常にカメラのファインダに収まるよ
うに顔を固定することを強要されることになる。たとえ
ば、首をかしげるなどは比較的自然な動作であるにもか
かわらず、固定されたカメラでは、顔の一部は画面外に
出てしまい、全体を捉えることが難しく、表情の検出が
正しく行なわれない。そこで、この実施形態では、電動
雲台によってカメラを制御し、常に被写体を捉えるよう
にCCDカメラ1を制御することで、この問題を解決す
る。
【0023】CCDカメラ1を制御するにあたって、カ
メラの制御系が持っている座標系と入力画像の座標系
は、現在の使用状況である、被写体がCCDカメラ1か
ら約1mに位置したときに正常に作動するように、座標
マッチング関数を予め最適化しておく。入力画像から肌
の色を抽出した2値化画像の重心を求め、その点をカメ
ラの座標系で中心に位置するように雲台を制御すること
で、常に人物の顔の中心を捉えることができる。
メラの制御系が持っている座標系と入力画像の座標系
は、現在の使用状況である、被写体がCCDカメラ1か
ら約1mに位置したときに正常に作動するように、座標
マッチング関数を予め最適化しておく。入力画像から肌
の色を抽出した2値化画像の重心を求め、その点をカメ
ラの座標系で中心に位置するように雲台を制御すること
で、常に人物の顔の中心を捉えることができる。
【0024】眼と口の領域から表情の特徴を捉える場合
に、顔がCCDカメラ1に対して正対している場合は問
題ないが、図4(a)に示すように被験者が首を傾げる
動作をした場合、矩形領域の中の眼が傾いた状態とな
り、正しい表情の特徴を得ることができない。
に、顔がCCDカメラ1に対して正対している場合は問
題ないが、図4(a)に示すように被験者が首を傾げる
動作をした場合、矩形領域の中の眼が傾いた状態とな
り、正しい表情の特徴を得ることができない。
【0025】そこで、この実施形態では、顔がCCDカ
メラ1に対して正対していない場合には、特徴点検出部
4で検出領域内の画像を回転する処理が行なわれる。す
なわち、図3に示すステップ(図示ではSと略称する)
S1において、図4(b)に示すように両眼検出位置を
基に顔の傾斜角θを決定し、ステップS2で図4(c)
に示すように眼領域内の画像を−θだけ回転させる。同
様にして、ステップS3において口領域位置を決定し、
ステップS4で口領域画像を−θだけ回転させる。
メラ1に対して正対していない場合には、特徴点検出部
4で検出領域内の画像を回転する処理が行なわれる。す
なわち、図3に示すステップ(図示ではSと略称する)
S1において、図4(b)に示すように両眼検出位置を
基に顔の傾斜角θを決定し、ステップS2で図4(c)
に示すように眼領域内の画像を−θだけ回転させる。同
様にして、ステップS3において口領域位置を決定し、
ステップS4で口領域画像を−θだけ回転させる。
【0026】次に、表情推定部5による表情推定につい
てより詳細に説明する。人物の顔画像の輝度情報を空間
周波数領域に変換し、その変化を解析することにより表
情を推定する。表情の変化に伴い、その顔画像の空間周
波数成分も変化するが、顔のどの部分の動きによってど
ういった変化が起こったかを一意に確定するために、い
くつかの領域に分けて空間周波数に変換する。
てより詳細に説明する。人物の顔画像の輝度情報を空間
周波数領域に変換し、その変化を解析することにより表
情を推定する。表情の変化に伴い、その顔画像の空間周
波数成分も変化するが、顔のどの部分の動きによってど
ういった変化が起こったかを一意に確定するために、い
くつかの領域に分けて空間周波数に変換する。
【0027】この実施形態では、人物の表情を形成する
部位のうち、特にその変化が顕著に現われる、両眼と口
の画像領域に対して一定の矩形領域を割当て、その部分
を独立に空間周波数変換することによって顔表情を再現
する。ただし、人の口の動きは眼に比べて複雑なため、
さらに細かい6つの領域に分けている。
部位のうち、特にその変化が顕著に現われる、両眼と口
の画像領域に対して一定の矩形領域を割当て、その部分
を独立に空間周波数変換することによって顔表情を再現
する。ただし、人の口の動きは眼に比べて複雑なため、
さらに細かい6つの領域に分けている。
【0028】空間周波数変換の例として、眼の画像を用
いると、眼を閉じていく場合、上下の瞼の間隔が狭まっ
ていくことによって、垂直方向における画像の空間周波
数成分が増加する。水平方向においては、瞼の輪郭が水
平方向に横切る度合いが少なくなることから、垂直方向
の場合と反比例するように水平方向の空間周波数成分が
減少していく。
いると、眼を閉じていく場合、上下の瞼の間隔が狭まっ
ていくことによって、垂直方向における画像の空間周波
数成分が増加する。水平方向においては、瞼の輪郭が水
平方向に横切る度合いが少なくなることから、垂直方向
の場合と反比例するように水平方向の空間周波数成分が
減少していく。
【0029】また、眼を開いている場合には閉じていく
場合と全く逆の、水平方向の空間周波数成分が増加し、
垂直方向の空間周波数成分が減少する。これらの空間周
波数成分の変化は、検出を始める際、始めに被験者に無
表情状態を表出させ、その空間周波数成分データから相
対的な変化として捉えることによって表情を検出する。
場合と全く逆の、水平方向の空間周波数成分が増加し、
垂直方向の空間周波数成分が減少する。これらの空間周
波数成分の変化は、検出を始める際、始めに被験者に無
表情状態を表出させ、その空間周波数成分データから相
対的な変化として捉えることによって表情を検出する。
【0030】なお、この方法では、画像を空間周波数成
分に変換し、位置に関する情報を使わず、電力量を解析
することによって表情を検出しているため、空間周波数
変換を行なう矩形領域内に、眼(または口)が収まって
さえいれば、多少矩形領域の取得を誤ったとしても、推
定は正常に行なうことができる。
分に変換し、位置に関する情報を使わず、電力量を解析
することによって表情を検出しているため、空間周波数
変換を行なう矩形領域内に、眼(または口)が収まって
さえいれば、多少矩形領域の取得を誤ったとしても、推
定は正常に行なうことができる。
【0031】前述のごとく、この実施形態では、空間周
波数領域における電力量によって検出を行なうため、位
相情報は不要となる。この点から、計算コストに優れて
いるDCT変換が用いられる。
波数領域における電力量によって検出を行なうため、位
相情報は不要となる。この点から、計算コストに優れて
いるDCT変換が用いられる。
【0032】輝度画像f(x,y)(x=0、…、M−
1;y=0、…、N−1)におけるDCTの結果F
(u,v)(u,vはx,y軸方向の空間周波数成分)
を第(2)式に示す。
1;y=0、…、N−1)におけるDCTの結果F
(u,v)(u,vはx,y軸方向の空間周波数成分)
を第(2)式に示す。
【0033】
【数2】
【0034】DCTを行なうサイズ(M,N)は計算コ
スト削減のため、変換を行なう矩形領域をM=N=8ピ
クセルの小領域に分割し、それぞれの小領域に対してD
CT変換を行なう。
スト削減のため、変換を行なう矩形領域をM=N=8ピ
クセルの小領域に分割し、それぞれの小領域に対してD
CT変換を行なう。
【0035】図5はDCTによる空間周波数成分のベク
トル化について説明するための図である。この実施形態
では、顔部位の形状変化を捉えるため、縦,横,斜めの
各方向の空間周波数成分を図5に示す範囲について電力
量総和を求める。なお、図5に示すように変換後の空間
周波数領域において、高周波領域についてはノイズなど
の混入によって電力量の分散が大きいため使用しない。
このようにして求められた縦横斜めの各方向の電力量総
和の無表情状態からの差分を表情の特徴量とする。
トル化について説明するための図である。この実施形態
では、顔部位の形状変化を捉えるため、縦,横,斜めの
各方向の空間周波数成分を図5に示す範囲について電力
量総和を求める。なお、図5に示すように変換後の空間
周波数領域において、高周波領域についてはノイズなど
の混入によって電力量の分散が大きいため使用しない。
このようにして求められた縦横斜めの各方向の電力量総
和の無表情状態からの差分を表情の特徴量とする。
【0036】次に、表情再現部6についてより詳細に説
明する。この実施形態では、予め作成された3次元顔モ
デルを推定された表情データに従って変形することによ
って、表情を再現する。そのために、3次元顔モデルを
変形させる規則が必要となる。この実施形態では、人物
の表情変化に対応した筋肉の動きを考慮にいれて、10
種類の3次元モデル変形規則(以下、基本表情と称す
る)が定められる。基本的には、人間の筋肉の動きをシ
ミュレートする形で変形規則を定めているが、表情検出
を代表的な特徴領域に対して行なっているため、表情変
化を捉えていない領域も存在する。そこで、若干表情を
強調して再現することによって表情画面の品質の向上を
めざす。そのため、10種類の基本表情のうちいくつか
は、人間には不可能な動きを表現する変換規則になって
おり、これらの基本表情をうまく混合することによって
人物の表情を再現する。
明する。この実施形態では、予め作成された3次元顔モ
デルを推定された表情データに従って変形することによ
って、表情を再現する。そのために、3次元顔モデルを
変形させる規則が必要となる。この実施形態では、人物
の表情変化に対応した筋肉の動きを考慮にいれて、10
種類の3次元モデル変形規則(以下、基本表情と称す
る)が定められる。基本的には、人間の筋肉の動きをシ
ミュレートする形で変形規則を定めているが、表情検出
を代表的な特徴領域に対して行なっているため、表情変
化を捉えていない領域も存在する。そこで、若干表情を
強調して再現することによって表情画面の品質の向上を
めざす。そのため、10種類の基本表情のうちいくつか
は、人間には不可能な動きを表現する変換規則になって
おり、これらの基本表情をうまく混合することによって
人物の表情を再現する。
【0037】3次元顔モデルに人物の表情を再現するた
めには、指標となるデータが必要となる。この実施形態
では、まずモデルとなる人物にさまざまな表情を表出さ
せ、その顔画像を記録した(たとえば1903フレー
ム)。各フレームについて基本表情を調整して表情を再
現し、各基本表情の混合比率を指標データとして記憶す
る。これら混合比率のデータは顔モデルのワイヤフレー
ムの頂点ベクトルをPjとし、混合比率をCj とする
と、ワイヤフレーム各頂点の3次元座標の移動ベクトル
Wj は第(3)式で表わされる。
めには、指標となるデータが必要となる。この実施形態
では、まずモデルとなる人物にさまざまな表情を表出さ
せ、その顔画像を記録した(たとえば1903フレー
ム)。各フレームについて基本表情を調整して表情を再
現し、各基本表情の混合比率を指標データとして記憶す
る。これら混合比率のデータは顔モデルのワイヤフレー
ムの頂点ベクトルをPjとし、混合比率をCj とする
と、ワイヤフレーム各頂点の3次元座標の移動ベクトル
Wj は第(3)式で表わされる。
【0038】
【数3】
【0039】表情を3次元顔モデルで再現するために
は、無表情時からの空間周波数成分変化を基本表情の混
合比率に変換する必要がある。この関連づけは第(4)
式で示される変換式を用いて行ない、その係数の値の決
定は遺伝的アルゴリズム(GA:Genetic Algorithm )
を用いて行なう。GAに学習させる混合比率を求めるた
めの基本式を第(4)式に示す。
は、無表情時からの空間周波数成分変化を基本表情の混
合比率に変換する必要がある。この関連づけは第(4)
式で示される変換式を用いて行ない、その係数の値の決
定は遺伝的アルゴリズム(GA:Genetic Algorithm )
を用いて行なう。GAに学習させる混合比率を求めるた
めの基本式を第(4)式に示す。
【0040】
【数4】
【0041】Cj は混合比率であり、ABCDは求める
係数であり、Hdi,Vdi,Ddiはそれぞれ横縦斜
め方向の空間周波数成分の変化量である。実際には、顔
全体を6つの領域(眼,眉,鼻など)に分けて、それぞ
れ独立した混合比率を求めており、しかもいくつかの領
域の空間周波数成分変化を必要とする基本表情の混合比
率の式では、パラメータはその分増加する。この実施形
態で実際に使用するパラメータの数は115となってい
る。
係数であり、Hdi,Vdi,Ddiはそれぞれ横縦斜
め方向の空間周波数成分の変化量である。実際には、顔
全体を6つの領域(眼,眉,鼻など)に分けて、それぞ
れ独立した混合比率を求めており、しかもいくつかの領
域の空間周波数成分変化を必要とする基本表情の混合比
率の式では、パラメータはその分増加する。この実施形
態で実際に使用するパラメータの数は115となってい
る。
【0042】図6はこの実施形態による表情再現例を示
す図である。図6において、左は被験者の顔画像であ
り、中央は教師情報を入力した場合を示し、右は遺伝的
アルゴリズムによって学習された式によって再現した例
を示す。この図6から明らかなように、この実施形態に
よれば、正確に人物の表情を再現できることがわかる。
す図である。図6において、左は被験者の顔画像であ
り、中央は教師情報を入力した場合を示し、右は遺伝的
アルゴリズムによって学習された式によって再現した例
を示す。この図6から明らかなように、この実施形態に
よれば、正確に人物の表情を再現できることがわかる。
【0043】今回開示された実施の形態はすべての点で
例示であって制限的なものではないと考えられるべきで
ある。本発明の範囲は上記した説明ではなくて特許請求
の範囲によって示され、特許請求の範囲と均等の意味お
よび範囲内でのすべての変更が含まれることが意図され
る。
例示であって制限的なものではないと考えられるべきで
ある。本発明の範囲は上記した説明ではなくて特許請求
の範囲によって示され、特許請求の範囲と均等の意味お
よび範囲内でのすべての変更が含まれることが意図され
る。
【0044】
【発明の効果】以上のように、この発明によれば、被験
者の顔画像を撮像し、その画像から肌色領域を抽出して
その重心を基に撮像手段を制御し、前処理として撮像手
段からの画像信号から肌色とそれ以外の2値画像を作成
し、その画像の重心位置からサーチして画素値の変化す
る要素を見出して輪郭線を追跡し、輪郭線の内側領域の
重心から眼と口の位置を求め、求めた両眼の位置に基づ
いて顔の傾き角を推定し、その角度だけ検出領域内の顔
画像を回転させ、回転した検出領域に対して2次元離散
コサイン変換を行なって、無表情検出時からの空間周波
数成分の変化を求め、遺伝的アルゴリズムによって学習
されたパラメータを用いて、空間周波数成分の変化デー
タを3次元顔モデルの変形に変換して表情を再現するこ
とができる。したがって、顔の表情検出を、頭部とは独
立した画像入力から得られる画像を基に行なうことで非
接触の検出を実現できる。また、頭部の回転に対応した
画像演算を表情特徴量検出の前段階に対応することで、
使用者の動作の自由度を向上でき、表情検出精度の向上
を果たすことができる。
者の顔画像を撮像し、その画像から肌色領域を抽出して
その重心を基に撮像手段を制御し、前処理として撮像手
段からの画像信号から肌色とそれ以外の2値画像を作成
し、その画像の重心位置からサーチして画素値の変化す
る要素を見出して輪郭線を追跡し、輪郭線の内側領域の
重心から眼と口の位置を求め、求めた両眼の位置に基づ
いて顔の傾き角を推定し、その角度だけ検出領域内の顔
画像を回転させ、回転した検出領域に対して2次元離散
コサイン変換を行なって、無表情検出時からの空間周波
数成分の変化を求め、遺伝的アルゴリズムによって学習
されたパラメータを用いて、空間周波数成分の変化デー
タを3次元顔モデルの変形に変換して表情を再現するこ
とができる。したがって、顔の表情検出を、頭部とは独
立した画像入力から得られる画像を基に行なうことで非
接触の検出を実現できる。また、頭部の回転に対応した
画像演算を表情特徴量検出の前段階に対応することで、
使用者の動作の自由度を向上でき、表情検出精度の向上
を果たすことができる。
【図1】この発明の一実施形態を実現するための装置の
ブロック図である。
ブロック図である。
【図2】図1に示した画像処理装置における処理過程を
示す図である。
示す図である。
【図3】図2の特徴点検出部における画像回転処理過程
の処理手順を示すフローチャートである。
の処理手順を示すフローチャートである。
【図4】検出領域内の画像を回転する方法を説明するた
めの図である。
めの図である。
【図5】DCTによる空間周波数成分のベクトル化を説
明するための図である。
明するための図である。
【図6】この発明の実施形態による表情再現例を示す図
である。
である。
1 CCDカメラ 2 画像処理装置 3 表示部 4 特徴点検出部 5 表情推定部 6 表情再現部
───────────────────────────────────────────────────── フロントページの続き (72)発明者 竹松 克浩 京都府相楽郡精華町大字乾谷小字三平谷 5番地 株式会社エイ・ティ・アール知 能映像通信研究所内 (56)参考文献 特開 平8−161498(JP,A) 特開 平7−296299(JP,A) 海老原一之、楜沢順、大谷淳、中津良 平、“バーチャル歌舞伎における実時間 表情検出”,画像ラボ,日本工業出版株 式会社,平成5年9月,VOL.8,N O.9,p.1−5 横山太郎、八木康史、谷内田正彦、田 中克明、原文雄、久富健介、橋本周 司,”顔認識のための顔特徴抽出手 法”,情報処理学会研究報告(CVIM −114),1999年1月22日,VOL.99, NO.3,p.121−128 (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 G06T 7/00 - 7/60 G06T 17/00 - 17/50
Claims (1)
- 【請求項1】 実時間で被験者の顔の表情を検出する実
時間表情検出装置であって、 前記被験者の顔画像を撮像するための撮像手段、 前記撮像手段出力の顔画像信号から肌色領域を抽出して
その重心を求め、入力画像の中心に顔の中心が一致する
ように前記撮像手段を制御する撮像制御手段、前処理として前記撮像手段からの画像信号から肌色とそ
れ以外の2値画像を作成し、その画像の重心位置からサ
ーチして画素値の変化する要素を見出して輪郭線を追跡
し、輪郭線の内側領域の重心 から眼と口の位置を求める
特徴点検出手段、 前記特徴点検出手段によって求められた両眼の位置に基
づいて顔の傾き角を推定し、その角度だけ検出領域内の
顔画像を回転させる画像回転手段、 前記画像回転手段によって顔画像の回転した検出領域に
対して2次元離散コサイン変換を行ない、無表情検出時
からの空間周波数成分の変化を求める表情推定手段、お
よび予め遺伝的アルゴリズムによって学習されたパラメ
ータを用いて、前記表情推定手段によって求められた空
間周波数成分の変化データを3次元顔モデルの変形に変
換して表情を再現する表情再現手段を備えた、実時間表
情検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7219499A JP3062181B1 (ja) | 1999-03-17 | 1999-03-17 | 実時間表情検出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7219499A JP3062181B1 (ja) | 1999-03-17 | 1999-03-17 | 実時間表情検出装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP3062181B1 true JP3062181B1 (ja) | 2000-07-10 |
JP2000268161A JP2000268161A (ja) | 2000-09-29 |
Family
ID=13482177
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP7219499A Expired - Lifetime JP3062181B1 (ja) | 1999-03-17 | 1999-03-17 | 実時間表情検出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3062181B1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR200477078Y1 (ko) | 2013-12-31 | 2015-05-04 | 최진성 | 위생컵 |
EP3358501A1 (en) | 2003-07-18 | 2018-08-08 | Canon Kabushiki Kaisha | Image processing device, imaging device, image processing method |
WO2022024274A1 (ja) * | 2020-07-29 | 2022-02-03 | 日本電気株式会社 | 画像処理装置、画像処理方法、及び、記録媒体 |
CN117315745A (zh) * | 2023-09-19 | 2023-12-29 | 中影年年(北京)文化传媒有限公司 | 基于机器学习的面部表情捕捉方法及系统 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7139738B2 (en) * | 2002-06-27 | 2006-11-21 | Koninklijke Philips Electronics N.V. | Face recognition using evolutionary algorithms |
JP5015109B2 (ja) * | 2008-10-01 | 2012-08-29 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置、情報処理方法、プログラム及び情報記憶媒体 |
JP5256974B2 (ja) * | 2008-10-01 | 2013-08-07 | セイコーエプソン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
WO2010038693A1 (ja) * | 2008-10-01 | 2010-04-08 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置、情報処理方法、プログラム及び情報記憶媒体 |
KR101257207B1 (ko) * | 2012-02-23 | 2013-04-22 | 인텔 코오퍼레이션 | 헤드 트래킹 방법, 장치 및 컴퓨터 판독 가능한 기록 매체 |
JP6407565B2 (ja) * | 2014-05-26 | 2018-10-17 | 国立大学法人 鹿児島大学 | 認証処理装置及び認証処理方法 |
JP2016066327A (ja) * | 2014-09-26 | 2016-04-28 | 株式会社Jvcケンウッド | 画像処理装置、画像処理方法及び画像処理プログラム |
-
1999
- 1999-03-17 JP JP7219499A patent/JP3062181B1/ja not_active Expired - Lifetime
Non-Patent Citations (2)
Title |
---|
横山太郎、八木康史、谷内田正彦、田中克明、原文雄、久富健介、橋本周司,"顔認識のための顔特徴抽出手法",情報処理学会研究報告(CVIM−114),1999年1月22日,VOL.99,NO.3,p.121−128 |
海老原一之、楜沢順、大谷淳、中津良平、"バーチャル歌舞伎における実時間表情検出",画像ラボ,日本工業出版株式会社,平成5年9月,VOL.8,NO.9,p.1−5 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3358501A1 (en) | 2003-07-18 | 2018-08-08 | Canon Kabushiki Kaisha | Image processing device, imaging device, image processing method |
KR200477078Y1 (ko) | 2013-12-31 | 2015-05-04 | 최진성 | 위생컵 |
WO2022024274A1 (ja) * | 2020-07-29 | 2022-02-03 | 日本電気株式会社 | 画像処理装置、画像処理方法、及び、記録媒体 |
CN117315745A (zh) * | 2023-09-19 | 2023-12-29 | 中影年年(北京)文化传媒有限公司 | 基于机器学习的面部表情捕捉方法及系统 |
CN117315745B (zh) * | 2023-09-19 | 2024-05-28 | 中影年年(北京)科技有限公司 | 基于机器学习的面部表情捕捉方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
JP2000268161A (ja) | 2000-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Min et al. | Kinectfacedb: A kinect database for face recognition | |
Wechsler | Reliable Face Recognition Methods: System Design, Impementation and Evaluation | |
Bobick et al. | The recognition of human movement using temporal templates | |
US7039219B2 (en) | System and method providing improved head motion estimations for animation | |
US7764828B2 (en) | Method, apparatus, and computer program for processing image | |
US6580811B2 (en) | Wavelet-based facial motion capture for avatar animation | |
US5802220A (en) | Apparatus and method for tracking facial motion through a sequence of images | |
US7174035B2 (en) | Rapid computer modeling of faces for animation | |
JP3984191B2 (ja) | 仮想化粧装置及びその方法 | |
JP4597391B2 (ja) | 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体 | |
JP4774818B2 (ja) | 画像処理装置及び画像処理方法 | |
JP2004094491A (ja) | 顔向き推定装置および顔向き推定方法ならびに顔向き推定プログラム | |
KR101642402B1 (ko) | 촬영 구도를 유도하는 디지털 영상 촬영 장치 및 방법 | |
JP3062181B1 (ja) | 実時間表情検出装置 | |
US6975763B2 (en) | Shade component removing apparatus and shade component removing method for removing shade in image | |
JP4631973B2 (ja) | 画像処理装置、画像処理装置の制御方法、および画像処理装置の制御プログラム | |
Yamada et al. | A new robust real-time method for extracting human silhouettes from color images | |
JPWO2020213166A1 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
Yin et al. | Generating realistic facial expressions with wrinkles for model-based coding | |
JP5555193B2 (ja) | データ処理装置、データ処理システム、及びプログラム | |
JP2004157778A (ja) | 鼻位置の抽出方法、およびコンピュータに当該鼻位置の抽出方法を実行させるためのプログラムならびに鼻位置抽出装置 | |
JPH08212327A (ja) | 身振り認識装置 | |
JP7326965B2 (ja) | 画像処理装置、画像処理プログラム、及び画像処理方法 | |
JP6461394B1 (ja) | 画像生成装置及び画像生成プログラム | |
JP4221681B2 (ja) | ジェスチャ認識装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20000411 |