JP2003108980A - 頭部領域抽出装置およびリアルタイム表情追跡装置 - Google Patents

頭部領域抽出装置およびリアルタイム表情追跡装置

Info

Publication number
JP2003108980A
JP2003108980A JP2001304116A JP2001304116A JP2003108980A JP 2003108980 A JP2003108980 A JP 2003108980A JP 2001304116 A JP2001304116 A JP 2001304116A JP 2001304116 A JP2001304116 A JP 2001304116A JP 2003108980 A JP2003108980 A JP 2003108980A
Authority
JP
Japan
Prior art keywords
head
area
mouth
region
eyes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001304116A
Other languages
English (en)
Other versions
JP3432816B2 (ja
Inventor
Shoji Tanaka
昭二 田中
Satoshi Tanaka
聡 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2001304116A priority Critical patent/JP3432816B2/ja
Publication of JP2003108980A publication Critical patent/JP2003108980A/ja
Application granted granted Critical
Publication of JP3432816B2 publication Critical patent/JP3432816B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

(57)【要約】 【課題】 任意の照明条件で撮影された、不特定人物の
顔画像から、計算能力が低いハードウェアでも実時間で
頭部の3次元的な動きを計測し得ること。 【解決手段】 現照明環境下での対象人物の顔の一部の
画像をサンプリングする肌色サンプリング手段6と、こ
の肌色サンプリング手段6のサンプリングデータに基づ
き、肌色抽出のための肌色抽出パラメータを調整する肌
色抽出パラメータ調整手段7と、この肌色抽出パラメー
タ調整手段7によって調整された肌色抽出パラメータを
用いてキャプチャ映像から肌色領域を抽出する肌色領域
抽出手段8と、肌色領域抽出結果から最大領域を抽出す
ることにより頭部領域を抽出する頭部領域抽出手段9と
を備える。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、本人の顔を送信す
る代わりにCGキャラクタの映像を相手に送信すること
によって人物映像を互いに通信するテレビ電話など通信
システムに適用され、特にカメラによって撮像された顔
の映像から頭部の3次元的な姿勢情報と顔の表情を計測
し、この計測結果に基づいてCGキャラクタの動きを制
御する代理応答によるリアルタイム表情追跡装置に関す
るものである。
【0002】
【従来の技術】例えば、図30は、特開2000−33
1190号公報に示された従来の仮想変身装置(第1の
従来技術)を示すものであり、この仮想変身装置は、顔
画像を入力するビデオカメラと、ビデオカメラを回転さ
せる電動雲台と、ビデオカメラから入力された顔画像か
ら顔の軸の回転、あるいは顔の軸周りの回転と視線方向
を検出し、両目および口の形状変化を検出する顔画像認
識装置と、この計測結果に基づいてCG(コンピュータ
グラフィックス)で構築された仮想空間のキャラクタを
制御する仮想環境合成装置とを備えている。
【0003】この第1の従来技術では、ビデオカメラか
ら入力された顔画像を、予め設定したRGB空間上に構
築された肌色モデルに従って肌色を1、肌色以外を0と
する2値化処理を行う。次に、2値化した顔領域の重心
を求め、重心が画像の中心になるように電動雲台装置を
制御し、カメラのアングルを修正する。次に、重心位置
に基づき顔領域内に存在する穴を両目および口として検
出する。次に、予め設定したテンプレートを用いたテン
プレートマッチングにより目領域を追跡し、黒目の位置
から視線方向を求める。また、両目を結んだ直線と画像
の水平軸との角度を計測し、さらに、両目間の距離か
ら、顔の軸周りの回転を検出する。そして、両目および
口の周囲画像を離散コサイン変換したときの各周波数帯
域での電力変化を捉えることで、両目および口の形状変
化を計測する。以上の計測結果に基づいてCGで構築さ
れた仮想空間のキャラクタの頭部および表情を制御す
る。
【0004】また、特開2000-259831号公報
の表情検出装置(第2の従来技術)では、連続する各フ
レームの画像において、選択した複数の特徴点を追跡
し、各フレーム毎に前記複数の特徴点を頂点とするドロ
ネー網を構成し、このドロネー網を用いて表情筋モデル
を特徴点の移動に基づき変位させることにより、表情筋
モデルの変化を求めるようにしている。
【0005】また、特開平11−306348号公報
(第3の従来技術)においては、大きさが固定のウィン
ドウマスクを画像全体に走査し、マスク内の輝度分散を
正規化することにより、照明条件が変化しても安定して
対象物の特徴量を抽出可能とした対象物検出装置に関す
る発明が開示されている。
【0006】
【発明が解決しようとする課題】第1の従来技術では、
カメラで撮影した顔画像を肌色モデルに基づいて2値化
し、顔領域内の穴を見つけ、顔領域の重心位置からそれ
らを目および口に対応させている。しかしながら、本
来、顔の凹凸から生じる影やハイライトの影響があるの
で、第1の従来技術では、照明条件を慎重に設定しなけ
れば目および口のみを穴として検出するのは非常に困難
である。また、この第1の従来技術は、頭部の3軸(X
軸、Y軸、Z軸)周りの回転を同時に計測することがで
きず、さらに、顔の軸周りの回転を、両目間の距離によ
り求めているため、例えば顔がカメラから遠ざかるある
いは近づくと、必然的に両目間の距離が変化することか
ら、実際には回転させていないのにも関わらず、回転し
ているとみなされるなど問題があった。
【0007】また、第2の従来技術では、3次元姿勢を
計測するために顔画像中の多数の特徴点を追跡する必要
があるため、計算能力の低いハードウェアではリアルタ
イム処理が困難である問題があった。
【0008】また、第3の従来技術では、大きさが固定
されたマスク領域を用いることから、個人差や撮影距離
によって顔領域の大きさが変化することへの対応処理が
困難である。
【0009】この発明は上記に鑑みてなされたもので、
任意の照明条件で撮影された、不特定人物の顔画像か
ら、計算能力が低いハードウェアでも実時間で頭部の3
次元的な動きを計測し、かつ両目および口の開閉状態を
計測し、その結果を用いてCGキャラクタの頭部の動き
および表情を制御するリアルタイム表情追跡装置を得る
ことを目的としている。
【0010】
【課題を解決するための手段】上記目的を達成するため
この発明にかかるリアルタイム表情追跡装置は、順次所
定のフレームレートで入力される映像をキャプチャする
映像入力手段と、前記キャプチャした画像から頭部画像
を抽出する頭部領域検出手段と、前記抽出した頭部領域
から両目および口を含む各部位の候補領域を抽出する部
位領域候補抽出手段と、抽出した候補領域の中から各部
位の位置を検出する部位検出追跡手段と、前記検出した
両目、口の検出位置に基づいて頭部の3次元姿勢を計測
するとともに、両目および口の開閉状態を計測する頭部
3次元姿勢・表情計測手段とを備え、前記計測した頭部
の3次元姿勢および両目および口の開閉状態に基づいて
CGキャラクタの動きを制御するリアルタイム表情追跡
装置であって、前記頭部領域抽出手段は、現照明環境下
での対象人物の顔の一部の画像をサンプリングする肌色
サンプリング手段と、この肌色サンプリング手段のサン
プリングデータに基づき、肌色抽出のための肌色抽出パ
ラメータを調整する肌色抽出パラメータ調整手段と、こ
の肌色抽出パラメータ調整手段によって調整された肌色
抽出パラメータを用いてキャプチャ映像から肌色領域を
抽出する肌色領域抽出手段と、肌色領域抽出結果から最
大領域を抽出することにより頭部領域を抽出する頭部領
域抽出手段とを備えたことを特徴とする。
【0011】この発明によれば、使用する照明環境下で
対象人物(利用者)の肌色をサンプリングし、このサン
プリングデータを用いて肌色抽出のための肌色抽出パラ
メータを調整するようにしており、この肌色抽出の結果
から最大領域を抽出することで、キャプチャ画像中から
頭部領域全体を抽出するようにしている。
【0012】つぎの発明にかかるリアルタイム表情追跡
装置は、上記の発明において、前記頭部領域抽出手段
は、肌色領域抽出手段による肌色領域抽出後の2値画像
に膨張収縮処理を加えることを特徴とする。
【0013】この発明によれば、肌色領域抽出手段によ
る肌色領域抽出後の2値画像に膨張収縮処理を加えるこ
とで、目、鼻、口以外の微小な領域や裂け目が除去され
た肌色領域を得る。
【0014】つぎの発明にかかるリアルタイム表情追跡
装置は、上記の発明において、前記頭部領域抽出手段
は、前記膨張収縮処理後の2値画像と、画素値が全て肌
色に対応する論理値レベルであるマスク画像との排他的
論理和を求め、この排他的論理和がとられた画像の頭部
領域以外を非肌色に対応する論理値レベルとした画像と
前記膨張収縮処理後の2値画像との論理和を求めること
で、頭部領域全体を抽出することを特徴とする。
【0015】この発明によれば、膨張収縮処理後の2値
画像と、画素値が全て肌色に対応する論理値レベルであ
るマスク画像との排他的論理和を求め、この排他的論理
和がとられた画像の頭部領域以外を非肌色に対応する論
理値レベルとした画像と前記膨張収縮処理後の2値画像
との論理和を求める簡単な論理演算を用いて頭部領域を
抽出するようにしている。
【0016】つぎの発明にかかるリアルタイム表情追跡
装置は、順次所定のフレームレートで入力される映像を
キャプチャする映像入力手段と、前記キャプチャした画
像から頭部画像を抽出する頭部領域検出手段と、前記抽
出した頭部領域から両目および口を含む各部位の候補領
域を抽出する部位領域候補抽出手段と、抽出した候補領
域の中から各部位の位置を検出する部位検出追跡手段
と、前記検出した両目、口の検出位置に基づいて頭部の
3次元姿勢を計測するとともに、両目および口の開閉状
態を計測する頭部3次元姿勢・表情計測手段とを備え、
前記計測した頭部の3次元姿勢および両目および口の開
閉状態に基づいてCGキャラクタの動きを制御するリア
ルタイム表情追跡装置であって、前記部位領域候補抽出
手段は、前記頭部領域検出手段によって抽出された頭部
領域の輝度を平均化・正規化する頭部領域輝度平均化手
段と、この輝度平均化・正規化後の画像を用いて頭部領
域中の両目および口の候補領域を抽出する画素選別手段
とを備えることを特徴としている。
【0017】この発明によれば、頭部領域検出手段によ
って抽出された頭部領域の輝度を平均化・正規化し、該
輝度平均化・正規化された画像を用いて頭部領域中の両
目および口の候補領域を抽出するようにしている。
【0018】つぎの発明にかかるリアルタイム表情追跡
装置は、上記の発明において、前記頭部領域輝度平均化
手段は、頭部領域を複数の小領域に分割し、各小領域毎
にヒストグラム平均化処理を行うことを特徴とする。
【0019】この発明によれば、頭部領域を複数の小領
域に分割し、各小領域毎にヒストグラム平均化処理を行
うようにしている。
【0020】つぎの発明にかかるリアルタイム表情追跡
装置は、上記の発明において、前記ヒストグラム平均化
処理では、所定の閾値を越えた頻度をもつ画素値の頻度
を他の画素値に分散させる処理を加えることを特徴とす
る。
【0021】この発明によれば、ヒストグラム平均化処
理では、所定の閾値を越えた頻度をもつ画素値の頻度を
他の画素値に分散させるようにしている。
【0022】つぎの発明にかかるリアルタイム表情追跡
装置は、順次所定のフレームレートで入力される映像を
キャプチャする映像入力手段と、前記キャプチャした画
像から頭部画像を抽出する頭部領域検出手段と、前記抽
出した頭部領域から両目および口を含む各部位の候補領
域を抽出する部位領域候補抽出手段と、抽出した候補領
域の中から各部位の位置を検出する部位検出追跡手段
と、前記検出した両目、口の検出位置に基づいて頭部の
3次元姿勢を計測するとともに、両目および口の開閉状
態を計測する頭部3次元姿勢・表情計測手段とを備え、
前記計測した頭部の3次元姿勢および両目および口の開
閉状態に基づいてCGキャラクタの動きを制御するリア
ルタイム表情追跡装置であって、前記部位検出追跡手段
は、前記部位領域候補抽出手段によって検出された両
目、口の候補領域から両目および口の領域を夫々特定す
る部位検出手段と、前記部位検出手段によって、両目お
よび口の領域が特定できない場合に、現フレームで特定
された部位領域の位置と、この特定された部位領域の前
フレームでの位置とを用いて移動ベクトルを求め、この
移動ベクトルを用いて前記特定できなかった部位の位置
を特定する部位追跡手段とを備えることを特徴とする。
【0023】この発明によれば、部位検出手段によって
両目および口の領域が特定できない場合には、現フレー
ムで特定された部位領域の位置と、この特定された部位
領域の前フレームでの位置とを用いて移動ベクトルを求
め、この移動ベクトルを用いて特定できなかった部位の
位置を特定している。
【0024】つぎの発明にかかるリアルタイム表情追跡
装置は、上記の発明において、前記部位検出手段は、前
フレームについての部位領域の中心座標を中心に一定の
大きさの矩形領域を設定し、その矩形領域中に存在する
現フレーム候補領域を求め、求めた候補領域夫々につい
て、判別式E=|SP−SC|+OP+Dを用いて評価
値Eを夫々取得し、 SP:前フレームおける部位領域の画素数、 SC:現フレームにおける候補領域の画素数、 OP:現フレームにおける候補領域のみを非肌色に対応
する論理値レベルとした部位領域マスク画像と、前フレ
ームにおける部位領域のみを非肌色に対応する論理値レ
ベルとした部位領域マスク画像との排他的論理和を求め
たときに、画素値が非肌色に対応する論理値レベルとな
る画素数、 D:前フレームにおける部位領域の中心と候補領域の中
心との距離、 評価値Eが最も小さな候補領域を各部位領域として特定
することを特徴としている。
【0025】この発明によれば、前フレームについての
部位領域の中心座標を中心に一定の大きさの矩形領域を
設定し、その矩形領域中に存在する現フレーム候補領域
を求め、求めた候補領域夫々について、判別式E=|S
P−SC|+OP+Dを用いて評価値Eを夫々取得し、
評価値Eが最も小さな候補領域を各部位領域として特定
する。
【0026】つぎの発明にかかるリアルタイム表情追跡
装置は、順次所定のフレームレートで入力される映像を
キャプチャする映像入力手段と、前記キャプチャした画
像から頭部画像を抽出する頭部領域検出手段と、前記抽
出した頭部領域から両目および口を含む各部位の候補領
域を抽出する部位領域候補抽出手段と、抽出した候補領
域の中から各部位の位置を検出する部位検出追跡手段
と、前記検出した両目、口の検出位置に基づいて頭部の
3次元姿勢を計測するとともに、両目および口の開閉状
態を計測する頭部3次元姿勢・表情計測手段とを備え、
前記計測した頭部の3次元姿勢および両目および口の開
閉状態に基づいてCGキャラクタの動きを制御するリア
ルタイム表情追跡装置であって、前記頭部3次元姿勢・
表情計測手段は、最初に検出した両目および口の位置か
ら3次元空間上の仮想平面を設定するアフィン基底設定
手段と、前記検出した両目および口位置から頭部の左右
および上下方向の回転量を推定する頭部回転量推定手段
と、前記検出した両目および口位置から得た4点の座標
を結ぶ矩形を前記推定した頭部の左右および上下方向の
回転量を用いて歪ませ、該歪ませた矩形の4点の座標を
用いて頭部の3次元姿勢を推測する姿勢計測手段と、頭
部の動きに応じて両目および口の開閉状態を推測する開
閉状態計測手段とを備えることを特徴とする。
【0027】この発明によれば、最初に検出した両目お
よび口の位置から3次元空間上の仮想平面を設定し、検
出した両目および口位置から頭部の左右および上下方向
の回転量を推定し、前記検出した両目および口位置から
得た4点の座標を結ぶ矩形を前記推定した頭部の左右お
よび上下方向の回転量を用いて歪ませ、該歪ませた矩形
の4点の座標を用いて頭部の3次元姿勢を推測し、さら
に頭部の動きに応じて両目および口の開閉状態を推測す
るようにしている。
【0028】つぎの発明にかかるリアルタイム表情追跡
装置は、上記の発明において、前記頭部回転量推定手段
は、両目領域を結ぶ直線をX軸とし、X軸に垂直で口領
域の中心位置を通る直線をY軸とした頭部のローカル座
標系を設定し、このローカル座標系において求めた頭部
領域の外接矩形の左右の辺と片目との相対距離と、外接
矩形の上下の辺と口領域との相対距離から頭部の左右、
上下方向の回転量をそれぞれ推定することを特徴とす
る。
【0029】この発明によれば、両目領域を結ぶ直線を
X軸とし、X軸に垂直で口領域の中心位置を通る直線を
Y軸とした頭部のローカル座標系を設定し、このローカ
ル座標系において求めた頭部領域の外接矩形の左右の辺
と片目との相対距離と、外接矩形の上下の辺と口領域と
の相対距離から頭部の左右、上下方向の回転量をそれぞ
れ推定するようにしている。
【0030】つぎの発明にかかるリアルタイム表情追跡
装置は、上記の発明において、前記開閉状態計測手段
は、前記姿勢計測手段によって推定した頭部の3次元姿
勢情報を用いて対象人物が正面を向いたときの両目およ
び口領域を再現することに基づき両目および口の開閉状
態を計測することを特徴とする。
【0031】この発明によれば、推定した頭部の3次元
姿勢情報を用いて対象人物が正面を向いたときの両目お
よび口領域を再現することに基づき両目および口の開閉
状態を計測するようにしている。
【0032】
【発明の実施の形態】以下に添付図面を参照して、この
発明にかかるリアルタイム表情追跡装置の好適な実施の
形態を詳細に説明する。このリアルタイム表情追跡装置
は、本人の顔を送信する代わりにCGキャラクタの映像
を相手に送信することによって人物映像を互いに通信す
るテレビ電話など通信システムに適用される。
【0033】以下、本発明の実施の形態を図1〜図20
を用いて説明する。図1は、本実施の形態のリアルタイ
ム表情追跡装置の概念的構成を示すものである。
【0034】この図1に示すリアルタイム表情追跡装置
は、例えばパーソナルコンピュータ、ワークステーショ
ンに実行させるプログラムの機能構成を示すものであ
る。この図1に示すリアルタイム表情追跡装置は、ビデ
オカメラ80などの映像取込手段から入力された映像を
取り込むための映像入力手段1と、映像入力手段1を介
して入力された人物映像から頭部領域を検出する頭部領
域検出手段2と、頭部領域検出手段2で抽出された頭部
領域から両目および口となる候補領域を抽出する部位領
域候補抽出手段3と、部位領域候補抽出手段3で抽出し
た候補領域から両目、口領域を検出し、毎時変化する位
置を追跡し、さらに各部位の開閉状態を計測する部位検
出追跡手段4と、部位検出追跡手段4で検出した両目お
よび口位置から頭部の3次元姿勢および表情を計測する
頭部3次元姿勢・表情計測手段5とを備えている。
【0035】さらに、頭部領域検出手段2は、撮影され
る環境下(照明環境下など)で人物の肌色をサンプリン
グする肌色サンプリング手段6と、肌色サンプリング手
段6でサンプリングした肌色情報に基づいて肌色抽出パ
ラメータを調整する肌色抽出パラメータ調整手段7と、
肌色抽出パラメータ調整手段7で調整された肌色抽出パ
ラメータに基づいて入力映像から肌色画素を抽出し、抽
出した画素を塊(領域)ごとに分類する肌色領域抽出手
段8と、抽出した肌色領域の中から頭部領域を選択し頭
部領域中の穴、裂け目などの小領域などを全て埋める
(肌色に置換する)ことにより人物の頭部に関わる全て
の画素を領域として抽出する頭部領域抽出手段9とを備
えている。
【0036】部位領域候補抽出手段3は、頭部領域の輝
度値を平均化する頭部領域輝度平均化手段10と、両目
および口の候補領域を抽出する画素選別手段11とを備
えている。
【0037】部位検出追跡手段4は、部位領域候補抽出
手段3で抽出された両目および口の候補領域からそれぞ
れに対応する領域を特定する部位検出手段12と、部位
検出手段12で検出した両目および口の初期位置を記憶
する初期位置設定手段13と、前フレームまでに記憶し
た各部位の位置から現フレームにおける位置を検出する
部位追跡手段14とを備えている。
【0038】頭部3次元姿勢・表情計測手段5は、初期
位置設定手段13で設定された各部位の初期位置に基づ
き頭部3次元姿勢を求めるための基準となるアフィン基
底を設定するアフィン基底設定手段15と、頭部の水平
軸および垂直軸周りの暫定的な回転量を求める頭部回転
量推定手段16と、部位検出手段12で検出した各部位
の位置からアフィン基底設定手段15で設定した仮想3
次元空間上の点に対応する映像中の2次元の点から頭部
の3次元姿勢を計測する姿勢計測手段17と、各部位
(両目、口)の開閉状態を計測することで表情を追跡す
る開閉状態計測手段18とを備えている。
【0039】キャラクタ制御装置90は、頭部3次元姿
勢・表情計測手段5から入力された頭部の3次元姿勢お
よび各部位(両目、口)の開閉状態を用いて三次元のC
Gキャラクタを制御することで、ビデオカメラ80で撮
像した利用者の動き、表情に追従させてCGキャラクタ
の動き、表情をリアルタイムに変化させる。
【0040】図2は、図1のリアルタイム表情追跡装置
のキャリブレーションフェーズの動作の概要を説明する
ためのフローチャートである。図3は、図1のリアルタ
イム表情追跡装置のトラッキングフェーズの動作の概要
を説明するためのフローチャートである。これら図2お
よび図3を用いてリアルタイム表情追跡装置の動作の概
略を説明する。
【0041】リアルタイム表情追跡装置で行われる動作
手順には、頭部の動きを追跡するための情報として両目
および口の位置および無表情時の状態等を取得するキャ
リブレーションフェーズと、実際に頭部の動きおよび両
目および口を追跡し、頭部姿勢と両目および口の開閉状
態つまり表情を計測するトラッキングフェーズがある。
【0042】キャリブレーションフェーズでは、まず、
映像入力手段1によってビデオカメラ80からの映像を
キャプチャする(ステップS100)。なお、人物の映
像をビデオカメラ80で撮像する際に、ユーザに対して
「カメラに対して正面を向き、両目を開け、口を閉じ
る」ように指示することで、無表情時の人物映像を得
る。つぎに、頭部領域検出手段2において、撮影環境下
におけるユーザの肌色をサンプリングし(ステップS1
10)、このサンプリングデータを用いて予め設定した
肌色抽出パラメータの調整を行う(ステップS12
0)。そして、調整した肌色抽出パラメータを用いて実
際に肌色領域を抽出し(ステップS130)、抽出した
領域の中から頭部領域を検出する(ステップS14
0)。次に、部位領域候補抽出手段3において、抽出し
た頭部領域から両目、口の候補領域を抽出し(ステップ
S150)、部位検出追跡手段4において両目領域およ
び口領域をそれぞれ検出し(ステップS160)、検出
した両目および口領域から各部位の位置、大きさ、テン
プレートの初期値を記憶する(ステップS170)。最
後に、頭部3次元姿勢・表情計測手段5において、求め
た両目および口の位置に基づき、トラッキングフェーズ
において頭部の3次元的姿勢情報を求めるためのアフィ
ン基底(3次元空間上の仮想点)を設定する(ステップ
S180)。
【0043】トラッキングフェーズでは、映像入力手段
1によってビデオカメラ80からの映像をキャプチャす
る(ステップS200)。頭部領域検出手段2において
は、キャリブレーションフェーズで設定した肌色抽出パ
ラメータを用いてキャプチャした映像中から肌色を抽出
し(ステップS210)、抽出した領域から頭部領域を
検出する(ステップS220)。次に、部位領域候補抽
出手段3において、両目および口の候補領域を抽出する
(ステップS230)。つぎに、部位検出追跡手段4
は、前フレームで検出した両目および口位置に基づき、
部位領域候補抽出手段3で抽出した候補領域の中から現
フレームにおける両目および口領域を検出する(ステッ
プS240)。次に、頭部3次元姿勢・表情計測手段5
において、部位検出追跡手段4で検出した両目および口
位置(2次元画像点)と予め設定した3次元空間上の仮
想点から頭部の3次元的姿勢情報を計測し(ステップS
250)、その計測情報に基づいて両目および口の開閉
状態を計測する(ステップS260)。最後に、計測し
た両目および口の開閉状態情報及び頭部の姿勢情報はキ
ャラクタ制御装置90に入力され、キャラクタ制御装置
90によってCGキャラクタの頭部の動きおよび表情が
制御される(ステップS270)。
【0044】[キャリブレーションフェーズ]次に、図
1のリアルタイム表情追跡装置のキャリブレーションフ
ェーズにおける動作を図4〜図17を用いて詳細に説明
する。
【0045】(a)頭部領域検出手段2での処理 まず、図4〜図10を用いて頭部領域検出手段2が行う
図2のステップS110〜S140の処理の詳細につい
て説明する。
【0046】図4は、頭部領域検出手段2における肌色
サンプリング手段6の動作を説明するための図である。
図5は、肌色サンプリング手段6および肌色抽出パラメ
ータ調整手段7の動作を説明するためのフローチャート
である。
【0047】まず、使用する照明環境下におけるユーザ
の肌色をサンプリングするために、図4に示すように、
キャプチャ映像19に重ねて、サンプリング領域を指定
するためのサンプリングウィンドウ20を表示する(ス
テップS300)。次に、ユーザは、マウスあるいはそ
の他のポインティングデバイスやキーボード等を用い
て、サンプリングウィンドウ20を頬あるいは額などの
肌色のみ抽出可能な位置に移動させ、サンプリング可能
であることをシステムに伝える(ステップS310)。
なお、最初に表示したサンプリングウィンドウ20の位
置に合わせてユーザ自身が頭を動かして位置を調整して
も良い。
【0048】次に、サンプリングウィンドウ20内の全
ての画素の色を肌色抽出のための色空間(肌色モデル空
間)に写像し(ステップS320)、写像画素の写像空
間での最大値および最小値を用いて予め設定した肌色抽
出パラメータを調整する(ステップS330)。
【0049】ここで、肌色抽出空間は、例えば、輝度変
化に比較的ロバストな色空間を新たに構築するとか、画
素の色データ空間(R、G、B空間)上で構築するなど
の方法を用いる。ここでは、下記のような、輝度変化に
比較的ロバストな色空間を用いることにする。
【0050】R(レッド),G(グリーン),B(ブル
ー)を各画素の色の3原色の成分だとすると、まず、次
式により色を正規化する。
【0051】 c1=arctan(R/max(G,B))……式(1) c2=arctan(G/max(R,B))……式(2) c3=arctan(B/max(R,G))……式(3)
【0052】上記式で正規化した色をさらに次式で変換
する。
【0053】 C1=c2/c1 ……式(4) C2=c3/c2 ……式(5)
【0054】肌色領域抽出手段8では、式(4)および
式(5)でRGB空間からC1−C2空間に変換した色
が、次式(6),(7)で定義した肌色範囲に入ってい
るか否かを判断することにより入力画像から肌色領域を
抽出する。 th1<C1<th2 ……式(6) th3<C2<th4 ……式(7)
【0055】肌色抽出パラメータ調整手段7では、この
肌色抽出の際に用いる肌色抽出パラメータ(閾値)th
1〜th4を、肌色サンプリング手段6のサンプリング
データを用いて異なる照明条件あるいは各人の肌色の違
いに適応して可変するようにしている。すなわち、肌色
抽出パラメータ調整手段7は、肌色サンプリング手段6
でサンプリングした画素のRGBデータをC1-C2空
間に写像し、その時の最大値、最小値をC1、C2につ
いてそれぞれ求め、C1についての最小値で閾値th1
を、C1についての最大値で閾値th2を、C2につい
ての最小値で閾値th3を、C2についての最大値で閾
値th4を夫々変更する。
【0056】以上のように、使用する照明環境下におい
て利用者の肌色をサンプリングすることにより肌色抽出
性能を向上させることができ、また、照明の輝度変化に
頑強な色空間を用いることにより簡易なパラメータ調整
でも肌色抽出性能をさらに向上させることが可能とな
る。
【0057】次に図6〜図10を用いて肌色領域抽出手
段8および頭部領域抽出手段9の動作を説明する。図6
は、肌色領域抽出手段8と頭部領域抽出手段9の動作を
説明するためのフローチャートである。
【0058】肌色抽出パラメータ調整手段7で調整した
肌色抽出パラメータを用いてもなお照明環境によっては
顔の一部にハイライトが発生したり、皺や影などにより
頭部領域を肌色抽出のみで正確に抽出することは困難で
ある。そのため、肌色領域抽出手段8で抽出された肌色
領域の中で最も大きい領域を頭部領域として判定し、抽
出漏れによる穴や裂け目などの目、鼻、口などの部位以
外の小領域を頭部領域から除去する頭部領域修復処理を
行うことにより頭部全体を適切に抽出可能とする。
【0059】肌色領域抽出手段8においては、キャプチ
ャした画像の全ての画素の色データを肌色モデル空間に
写像し(ステップS400)、式(6)および式(7)
で定めた閾値th1〜th4内にある画素を抽出し(ス
テップS410)、抽出した画素を4連結あるいは8連
結で統合するラベリング処理(連続した図形をグループ
分けして番号付けする処理)を実行することにより、個
々のブロック領域(塊)に領域分割する(ステップS4
20)。そして、ラベリング処理の結果、得られるブロ
ック領域の中から面積(画素数)が最大の領域を選択
し、それを頭部領域とする(ステップS430)。
【0060】図7に、このようにして選択された頭部領
域を含む画像を示す。この時点では、ハイライトや影、
両目、口、鼻などの暗い部分が抽出されていないため、
頭部領域には、図7に示すように、穴や裂け目などの小
領域21が発生している場合が多い。
【0061】そこで、頭部領域抽出手段9は、まず裂け
目部分を修復する。裂け目部分の修復は、肌色領域抽出
後の肌色画素を1、それ以外を0とした2値画像に対し
て、膨張収縮処理を行うことで達成する。膨張収縮処理
は、図8に示すような膨張マスク22および収縮マスク
23を設定し、以下の膨張処理と収縮処理を繰り返し行
うことで、前述の裂け目や小さい穴などを埋めるもので
ある。膨張処理は、注目画素の近傍の画素値を膨張マス
ク22で設定した画素値に置き換えることにより領域を
膨張させるものである。収縮処理は、注目画素の近傍画
素の内、収縮マスク23で設定した0でない画素の画素
値が収縮マスク23の画素値と同値である場合に注目画
素を残し、同値で無い場合に注目画素の値を0とするこ
とにより領域を収縮するものである。上記膨張収縮処理
により、図9(a)に示すような裂け目24が修復さ
れ、図9(b)のようになる。また、この処理により微
小の穴も埋めることが可能である。
【0062】膨張収縮処理により頭部領域に発生した裂
け目が修復されたことにより、後は頭部領域内の全ての
穴に対応する小領域を埋めることにより頭部全体を一領
域として抽出することが可能となる。この穴埋め処理に
は、図10に示すような、論理演算処理が用いられる。
【0063】まず、裂け目修復処理により得られた頭部
領域画像26と、画素値が全て1のマスク27との排他
的論理和を求める。その結果、背景領域と頭部領域内の
穴が得られる。次に、得られた画像28から、画像の外
辺に接している領域(背景領域)を除去し、除去した画
像29と元の頭部領域画像26との論理和を求めること
により、頭部全体を一領域として抽出することが可能と
なる(30が論理和がとられた画像、ステップS44
0)。
【0064】このように、簡単な論理演算処理により頭
部領域を抽出できるので、高速処理が可能となる。
【0065】(b)部位領域候補抽出手段3での処理 つぎに、図11および図12を用いて部位領域候補抽出
手段3が行う図2のステップS150の処理の詳細につ
いて説明する。図11は、部位領域候補抽出手段3の動
作を説明するためのフローチャートである。
【0066】部位領域候補抽出手段3では、照明条件が
変化することに応じた輝度変化に頑強に対応可能とする
ために、頭部領域検出手段2によって抽出された頭部領
域に対して適応型ヒストグラム平均化法を用いて頭部領
域のコントラストを一定に保つ処理を行う。まず、頭部
領域輝度平均化手段10は、頭部領域の外接矩形を求
め、その外接矩形領域を例えば8×8の小領域に分割す
る(ステップS500)。つぎに、頭部領域輝度平均化
手段10は、各小領域毎にヒストグラム平均化処理を行
う(ステップS510)。
【0067】ヒストグラム平均化処理は、次のようにし
て行う。まず、各小領域毎に画素値と頻度の関係を示す
ヒストグラムを求める。次に、累積頻度(頻度の各階級
(画素値)までの累計)を求め、各累積頻度を累積頻度
の最大値で割って、各累積頻度の比率を求める。そし
て、求めた比率に小領域内の画素値の最大値を掛け合わ
せ、四捨五入により小数点以下を丸める。ここで得られ
た値が、平均化後の画素値となる。最後に、平均化後の
画素値の頻度を、平均化前の頻度から求める。
【0068】例えば、図13に示すように小領域内の画
素値が0から7の範囲内にあり、その頻度が図13に示
す通りであった場合、平均化後のそれぞれの画素値の頻
度は図14に示す通りになる。例えば、平均化後の画素
値が4の場合、画素値4に対応する平均前の画素値は2
と3であるため、その頻度は、9+2=11となる。
【0069】ここで、上記のとおり適応型ヒストグラム
平均化法では、特にコントラストが低い小領域におい
て、領域内の大半の画素値がヒストグラムの極大点に割
り当てられることから、ノイズが多く発生する可能性が
ある。そこで、図12(a)に示すようにある閾値を超
えた頻度をもつ画素値31が存在する場合には、図12
(b)に示すように、それらの頻度を他の画素値に分散
させる処理を行うようにしており、これによりノイズの
発生を抑えることが可能である。
【0070】以上の処理により、常に一定のコントラス
トを得られることから、画素選別手段11では、一定の
閾値thaを用い、頭部領域内の輝度値が閾値tha以
下の画素(暗い画素)を論理レベル1とし、それ以外を
論理レベル0とし(ステップS520)、さらに、画素
値が1の画素を4連結あるいは8連結で結合し領域分割
する(ステップS530)。最後に、微小領域を除去す
ることにより、各部位(両目と口と鼻)の候補領域を抽
出できる(ステップS540)。
【0071】以上のように、頭部全体を一領域として抽
出し、その頭部領域のコントラストを常に一定にする処
理を施すことにより、両目や口の部位領域の抽出処理を
固定の閾値thaを用いて実行することができる。した
がって、高速処理が可能となり、かつ輝度変化に頑強な
システムを構築することができる。
【0072】(c)部位検出追跡手段4での処理 次に、図15および図16を用いて部位検出追跡手段4
がキャリブレーションフェーズにおいて行う図2のステ
ップS160およびS170の動作を説明する。図15
は、キャリブレーションフェーズにおける部位検出追跡
手段4の動作を説明するためのフローチャートである。
【0073】まず、部位検出手段12は、頭部領域検出
手段2で抽出した頭部領域の重心を求める(ステップS
600)。この重心位置は、周知の距離変換処理などを
用いて求める。
【0074】距離変換処理とは、画像中のオブジェクト
の各画素値を、各画素位置から背景領域への最短距離に
置き換える変換処理である。距離の概念としては、最も
単純な市街地距離(4連結距離)とチェス盤距離(8連
結距離)がよく使われる。ここでは、市街地距離を用い
たアルゴリズムを説明する。
【0075】Step1. まず、入力画像を二値化した各画
素データをfi,jとし、Di,jを初期化変換された多値デ
ータとした場合、次のように初期化変換する。すなわ
ち、画素値が1の頭部領域内の画素は、多値データ∞
(実際には、100などの大きな値)に置換し、画素値
が0の背景画素は、0に置換する。
【数1】
【0076】Step2. 初期化した画像を左上から右下に
向かって走査し、次の規則で逐次D´i,jを更新する。 D″i,j=min(D′i,j,D″i-1,j+1,D″i,j-1+1)……式(9)
【0077】Step3. 先のStep2で得られたD″i,jに対
して、右下から左上に向かって走査し、次の規則で逐次
D″i,jを更新する。 Di,j=min(D′i,j,D″i+1,j+1,D″i,j+1+1)……式(10)
【0078】上式(10)によって得られたDi,jが距
離画像の各画素データとなる。したがって、これら得ら
れた距離画像から、距離値が最大となる画素を求め、こ
の画素を頭部領域の重心とする。
【0079】距離画像変換の特徴は、領域の形が変化し
ても安定した重心位置を求めることがある。なお、距離
画像変換を用いず、画素の座標値の平均により重心を求
めても良い。
【0080】部位検出手段12は、部位領域候補抽出手
段3で抽出された両目、口、鼻についての候補領域の中
から、先のステップS600で求めた頭部領域の重心に
最も近い候補領域を鼻領域とみなす(ステップS61
0)。
【0081】つぎに、部位検出手段12は、図16に示
すように、上記特定した鼻領域から一定の方向と距離に
頭部領域の大きさに比例した大きさの左目マスク33、
右目マスク34、口マスク35を設定する。
【0082】設定したマスク領域の中からそれぞれ重心
位置に最も近い領域をそれぞれ右目、左目、口領域とす
る(ステップS620)。
【0083】次に初期位置設定手段13において、各部
位領域の中心位置と両目の外側の端点36a、37aの
位置を記憶する(ステップS630)。最後に、右目、
左目および鼻に関する検出領域のうち、右目、左目、口
領域内の画素値を1とし、それ以外を0とした部位領域
マスク画像を各部位について夫々生成し、これらの部位
領域マスク画像を記憶する。(ステップS640)。こ
の部位領域マスク画像は、トラッキングフェーズでの第
1番目のフレームについての部位追跡処理に用いられ
る。また、部位検出手段12は、各部位領域(左目、右
目、口)の、中心位置における画像垂直方向(Y方向)
の長さを測定し、これら測定値を初期位置設定手段13
に記憶する。この記憶された各部位領域(左目、右目、
口)の画像垂直方向(Y方向)の長さは、その後のトラ
ッキングフェーズで、各部位の開閉状態情報を得るため
に利用される。
【0084】(d)頭部3次元姿勢・表情計測手段5で
の処理 次に、図17〜図19を用いて頭部3次元姿勢・表情計
測手段5がキャリブレーションフェーズにおいて行う図
2のステップS180の動作を説明する。図17は、キ
ャリブレーションフェーズにおける頭部3次元姿勢・表
情計測手段5の動作を説明するためのフローチャートで
ある。
【0085】アフィン基底設定手段15は、図18に示
すように、部位検出追跡手段4で求めた両目の外側の端
点36a,37aを結ぶ直線38を求める(ステップS
700)。次に、左目あるいは右目どちらかの端点を基
準に直線38が水平になるように画像を回転させる(ス
テップS710)。そして、口の中心位置を通り、求め
た直線に平行でかつ同じ長さの直線39を求める(ステ
ップS720)。この2つの直線38,39の両端点、
すなわち4点36a,37a,36b,37bでできる
矩形の中心座標40を求める(ステップS730)。さ
らに、矩形39の中心40を基準に、矩形の4頂点の相
対座標を求め、これらを3次元空間上の仮想点として記
憶する(ステップS740)。
【0086】この3次元空間上の仮想点は、トラッキン
グフェーズにおける頭部3次元姿勢計測のための基準点
となる。
【0087】次に、頭部回転量推定手段16は、図19
に示すように、両目の端点36a,37aを結ぶ直線を
X軸、口の中心を通りX軸に垂直な直線をY軸として座
標系を規定し、頭部領域に外接する外接矩形のX軸方向
の長さを1としたときに、左目あるいは右目の内側の端
点と外接矩形の左右の辺との距離La,Lbを求める
(ステップS750)。同様に、外接矩形のY軸方向の
長さを1としたときに、口の中心位置から外接矩形の上
下の辺までの距離Lc、Ldを求める(ステップS76
0)。
【0088】この相対位置がトラッキングフェーズにお
ける頭部の上下左右方向の回転量を予測するための基準
となる。
【0089】以上がキャリブレーションフェーズにおけ
るリアルタイム表情追跡装置の動作である。
【0090】[トラッキングフェーズ]次に、図1のリ
アルタイム表情追跡装置のトラッキングフェーズにおけ
る動作を図20〜図29を用いて詳細に説明する。
【0091】(a)′頭部領域検出手段2での処理 頭部領域検出手段2では、肌色領域抽出手段8と頭部領
域抽出手段9を動作させることで、映像入力手段1を介
して所定のフレームレートで順次入力される現フレーム
の映像に対し、キャリブレーションフェーズ同様の処理
を行い、肌色領域を抽出し、頭部領域を抽出する(図3
ステップS200〜S220)。ただし、このトラッキ
ングフェーズでは、肌色サンプリング手段6による肌色
サンプリングおよび肌色抽出パラメータ調整手段7によ
る肌色パラメータの調整は行わない。
【0092】(b)′部位領域候補抽出手段3での処理 部位領域候補抽出手段3では、キャリブレーションフェ
ーズと同様の処理を実行することにより、現フレームの
映像から部位(目、口、鼻)領域候補を抽出する(図3
ステップS230)。すなわち、頭部領域検出手段2に
よって抽出された頭部領域に対して適応型ヒストグラム
平均化法を用いて頭部領域のコントラストを一定に保つ
処理を行い、さらに、一定の閾値thaを用い、頭部領
域内の輝度値が閾値tha以下の画素(暗い画素)を
1、それ以外を0とし、さらに、画素値が1の画素を4
連結あるいは8連結で結合して領域分割し、最後に、微
小領域を除去することにより、各部位(両目と口と鼻)
の候補領域を抽出する。
【0093】(c)′部位検出追跡手段4での処理 図20〜図23を用いて部位検出追跡手段4のトラッキ
ングフェーズにおける動作を詳細に説明する。図20お
よび図21は、トラッキングフェーズにおける部位検出
追跡手段4の動作を説明するためのフローチャートであ
る。
【0094】部位追跡手段14では、記憶されている前
フレームについての部位領域の中心座標を中心に、一定
の大きさの矩形領域を設定する。その矩形領域に存在す
る現フレームの候補領域を求める(ステップS82
0)。つぎに、各候補領域に対して次に示すような判別
式(11)を用いて評価値Eを得る。
【数2】
【0095】ここで、Eは評価値、SPは前フレームに
おける部位領域の画素数、SCは現フレームにおける候
補領域の画素数、OPは現フレームにおける候補領域の
マスク画像(候補領域の画素のみが1で、それ以外は0
の画像)と前フレームにおける部位領域のマスク画像
(部位領域の画素のみが1で、それ以外は0の画像)と
の排他的論理和を求めたときに、画素値が1となる画素
数、Dは前フレームにおける部位領域の中心と候補領域
の中心との距離である。
【0096】上記式(11)で求めた値Eが最も小さい
ものを対象領域として選択することにより、前フレーム
の部位領域の位置を基準とした一定範囲内に存在する現
フレームの候補領域の中から対象領域を特定する(ステ
ップS830)。すなわち、図22に示すような小さい
ノイズ領域47が前フレームの部位領域に完全に包含さ
れたとしても、その場合は式(11)の|SP−SC|
とOPの値が大きくなるため、このようなノイズ領域を
除去できる。
【0097】このような処理を、左目、右目、口の領域
について夫々実行する(ステップS810〜S84
0)。
【0098】以上の処理により全ての部位を検出できた
場合は、部位領域マスク画像を、現在のフレームのもの
で更新し、かつ各部位(左目、右目、口)についての検
出領域の中心位置を求め、これを記憶する(ステップS
850およびS860)。
【0099】見つからない部位が存在した場合は(ステ
ップS870)、現フレームで検出された部位の移動ベ
クトルから、検出できなかった部位の現フレームでの位
置を予測する。例えば、図23に示すように、現フレー
ムで検出できなかった部位(対象部位)54が存在した
場合、現フレームで検出された他の部位48の位置とそ
の部位の前フレームでの位置49からフレーム間の移動
ベクトル50を求める。そして、対象部位54の前フレ
ームにおける位置51に、他の部位の検出位置から求め
た移動ベクトル50を加算して、現フレームでの推定位
置を求める(ステップS890)。そして、求めた位置
を含む所定の矩形領域(例えば16×16)53中の画
素に着目し、この矩形領域中の画素に対し前述したステ
ップS820およびステップS830の処理を実行する
ことで、対象部位54を検出する(ステップS90
0)。
【0100】矩形領域53内に全く候補領域が存在しな
い場合は、顔の傾きなどによる隠れが生じているものと
し、ステップS890で推定した位置を現フレームでの
対象部位の位置とし、矩形領域53自体をその部位領域
として記憶する(ステップS910,S920)。
【0101】なお、ステップS870で、現フレームの
部位領域を全く検出できなかった場合は、部位検出手段
12によって図15のステップS600〜S640の処
理を再度行い、部位領域を再検出する(ステップS88
0)。
【0102】このように、部位を1つ検出できれば、他
の部位を検出漏れしても、検出した部位の移動ベクトル
から検出漏れした部位の現フレームでの位置を予測して
いるので、頑強な部位追跡が行える。さらに、隠れなど
により映像中に対象となる部位が現れない場合でも暫定
的な部位領域を設定することから、隠れた部位が出現し
たときにその部位を即座に追跡可能となり、つまりは、
頭部の各部位の滑らかな動きを再現可能となる。
【0103】(d)′頭部3次元姿勢・表情計測手段5
での処理 次に、図24〜図29を用いて頭部3次元姿勢・表情計
測手段5のトラッキングフェーズにおける動作を詳細に
説明する。図24および図27は、トラッキングフェー
ズにおける頭部3次元姿勢・表情計測手段5の動作を説
明するためのフローチャートである。
【0104】まず、頭部回転量推定手段16において
は、図25に示すように、部位検出追跡手段4で求めら
れた現フレームの両目領域から、両目の外側の端点7
0,71を求め、これら端点70,71を結ぶ直線55
を求める(ステップS1000)。また、直線55に直
交し、口の中心位置59を通る直線56を求める(ステ
ップS1010)。求めた直線55をX軸とし、直線5
6をY軸とするローカル座標系を設定し、X軸55およ
びY軸56のそれぞれに平行な辺を持ち、抽出された頭
部領域に外接する外接矩形57を求める(ステップS1
020)。外接矩形57のX軸方向の辺の長さを1と
し、キャリブレーションフェーズで計測した方の目の内
側の端点58とY軸に並行な2辺72,73までの相対
距離La′,Lb′を夫々求める(ステップS103
0)。同様に、外接矩形のY軸方向の長さを1とし、口
の中心59とX軸に平行な2辺74,75までの相対距
離Lc′,Ld′を夫々求める(ステップS104
0)。
【0105】次に、両目の外側の端点70,71と、端
点70,71を通りY軸に平行な直線と口の中心を通り
X軸に平行な直線との交点(2点)76,77とででき
る矩形60を求める(ステップS1050)。
【0106】ここで、X軸については右方向を正方向、
Y軸については上方向を正方向としたとき、片目のX軸
正方向の相対距離dec(=Lb′)と、キャリブレー
ションフェーズで記憶したX軸正方向の相対距離dei
(=Lb)とから次式(12)で頭部の左右方向の回転
量を求める。 RfE=dec/dei ……式(12)
【0107】ここで、RfEは左右方向の回転量、de
cは現フレームでの目のX軸正方向の相対距離、dei
はキャリブレーションフェーズで記憶した目のX軸正方
向の相対距離である。
【0108】もし、回転量RfEが1よりも大きい場
合、頭部は左方向に回転していることになる。逆に回転
量RfEが1よりも小さい場合、頭部は右方向に回転し
ていることになる。
【0109】同様に、口のY軸正方向の相対距離dmc
(=Ld′)と、キャリブレーションフェーズで記憶し
たY軸正方向の相対距離dmi(=Ld)とから次式
(13)で頭部の上下方向の回転量を求める。 Rfm=dmc/dmi ……式(13)
【0110】ここで、Rfmは上下方向の回転量、dm
cは現フレームでの口のY軸正方向の相対距離、dmi
はキャリブレーションフェーズで記憶した口のY軸正方
向の相対距離である。
【0111】もし、回転量Rfmが1よりも大きい場
合、頭部は下方向に回転していることになる。逆に1よ
りも小さい場合、頭部は上方向に回転していることにな
る。
【0112】つぎに、式(12)および式(13)で求
めた左右上下の回転量RfE,Rfmに基づき次のように
して矩形60を歪ませる(ステップS1060)。
【0113】RfE>1の場合:矩形の左側の辺(Y軸
に平行な辺でX軸の負方向にある辺)の長さを次式(1
4)を用いて短くする。 l=w・RfE・ol ……式(14) lは計算した長さ、olは元の長さ、wは重み係数であ
る。
【0114】RfE<1の場合:矩形の右側の辺(Y軸
に平行な辺でX軸の正方向にある辺)の長さを式(1
4)を用いて短くする。
【0115】Rfm>1の場合:矩形の下側の辺(X軸
に平行な辺でY軸の負方向にある辺)の長さを次式(1
5)を用いて短くする。 l=w・Rfm・ol ……式(15) lは計算した長さ、olは元の長さ、wは重み係数であ
る。
【0116】Rfm<1の場合:矩形の上側の辺(X軸
に平行な辺でY軸の正方向にある辺)の長さを式(1
5)を用いて短くする。
【0117】例えば、図26(a)に示すように、左方
向に頭部を回転した場合、矩形60は左側の辺が短くな
り、図26(b)に示すように、上方向に回転した場
合、矩形60は上側の辺が短くなる。そして、このよう
にして変形した矩形の各頂点座標を変形前の矩形60の
中心座標を基準にして求める。
【0118】つぎに、姿勢計測手段17は、以上のよう
にして求めた4つの頂点座標(2次元座標)と、それら
に対応するアフィン基底設定手段15で設定された3次
元空間上の仮想点を基に、頭部の3次元姿勢計測を行
う。ここでは、つぎのような手法を用いて、3次元姿勢
計測を行う。
【0119】カメラで撮影された画像と3次元空間上の
オブジェクトとの関係は図28のようになっている。図
28において63は、アフィン基底設定手段15で設定
した3次元空間上の平面、64はカメラ画像平面、65
はカメラ座標系である。
【0120】3次元空間上の平面63の座標系における
点(Xf,Yf,Zf)と、それに対応するカメラ座標系
65における点(Xc,Yc,Zc)は次式(16)の関
係がある。
【数3】
【0121】式(16)におけるRが回転成分を、Tが
並進成分を表しており、これが、頭部の3次元姿勢情報
に等しい。
【0122】一方、カメラ座標系65における3次元空
間上の点(Xc,Yc,Zc)とカメラ画像平面64にお
ける2次元の点(dXc,dYc)とは、次式(17)に
示す関係がある。
【数4】
【0123】ここで、Pを含む行列は使用するビデオカ
メラ80の透視投影行列であり、周知のカメラキャリブ
レーション技術を用いて予め求めることができる。
【0124】さて、頭部回転量推定手段16で得られた
矩形(カメラ画像平面64)は、3次元空間上では上下
と左右の辺は平行している。この二組の平行した辺から
矩形の3次元空間上の上下方向と左右方向の方向ベクト
ル(X軸、Y軸)を求めることができる。
【0125】平行する辺のカメラ画像平面64上におけ
る直線の方程式を a1x+b1y+c1=0 ……式(18) a2x+b2y+c2=0 ……式(19) とすると、カメラ座標系65におけるこれらの各直線を
含む3次元の平面の方程式は次式(20)(21)であ
らわすことができる。
【0126】 a111c+(a112+b122)Yc +(a113+b123+c1)Zc=0 ……式(20) a211c+(a212+b122)Yc +(a213+b223+c2)Zc=0 ……式(21)
【0127】これら2つの平面の法線ベクトル(X、
Y、Zの係数)の外積を求めると上記方向ベクトル(X
軸、Y軸)を求めることができる。
【0128】以上で、カメラ座標系65における矩形の
X軸、Y軸に相当する方向ベクトルを求めることができ
るが、画像から得られる情報の誤差により、得られた方
向ベクトルが図29に示すように直交していない場合が
ある。そこで、求めた方向ベクトルをS1、S2とした
とき、そのベクトルS1、S2を基に直交ベクトルV
1、V2を求める。Z軸方向のベクトルは、求めたV1
とV2の外積から求められる。この3つの方向ベクトル
が式(16)における回転成分Rとなる。
【0129】回転成分Rが分かれば、2次元座標と3次
元座標の対応点を式(16)と式(17)に代入するこ
とにより並進成分Tを求めることができる。
【0130】姿勢計測手段17では、まず頭部回転量推
定手段16で求めた矩形の4頂点の座標から式(18)
に示す各辺の直線パラメータ(方程式)を求め(ステッ
プS1100)、求めた直線パラメータを用いて式(2
0)および式(21)に基づき、アフィン基底設定手段
15で設定した仮想3次元平面のX軸、Y軸を求める
(ステップS1110)。そして、前述したように、求
めた軸が直交するように修正し、更にこの修正したX
軸、Y軸からZ軸を求め、これら3軸(X軸、Y軸、Z
軸)の方向ベクトルから回転行列(回転成分)Rを求め
(ステップS1120)、さらにこの回転成分Rを用い
て得られた2次元座標と3次元座標の対応点を式(1
6)(17)に代入することで、並進行列(並進成分)
Tを求める(ステップS1130)。
【0131】以上のようにして求めた投影行列を用い
て、実際に3次元空間上の仮想点をカメラ画像平面に投
影したときの誤差に応じて投影行列を修正し(ステップ
S1140)、誤差が閾値以下になったときの投影行列
を頭部の3次元姿勢情報とし(ステップS1150)、
この3次元姿勢情報をキャラクタ制御装置90に出力す
ることで、CGキャラクタの頭部の3次元姿勢を制御す
る。
【0132】このように、顔画像から検出する両目およ
び口の3点から3次元空間上の矩形(仮想平面)を規定
し、追跡時に両目および口の3点から作成した矩形を頭
部の動きに応じて歪ませることにより、3次元平面を2
次元に投影したときの歪みを擬似的に再現し、本来4点
以上の3次元と2次元の対応点がなければ求めることが
できない3次元姿勢情報を画像から得られる両目および
口の3点のみで推定するようにしている。
【0133】次に開閉状態計測手段18の動作を説明す
る。開閉状態計測手段18では、姿勢計測手段17で求
めた投影行列、すなわち頭部の3次元姿勢情報を用い
て、ユーザが正面を向いたときのカメラ画像における両
目および口領域を再現し、再現した領域の画像垂直方向
(Y方向)の長さと、初期位置設定手段13に記憶され
ている初期状態における各部位領域の画像垂直方向の長
さとの比率を求める。この比率が、両目および口がどの
程度開閉しているかを示す開閉状態情報となる。
【0134】このように3次元姿勢情報を用いてユーザ
が正面を向いたときのカメラ画像における両目および口
領域を推定しているので、例えば頭部が横や上を向いて
いる画像においても正面を向いた場合の画像を推定で
き、2次元画像のみから両目および口の開閉状態をより
正確に求めることができる。
【0135】このようにして、求められた頭部の3次元
姿勢情報および両目および口の開閉状態情報は、キャラ
クタ制御装置90に入力される。キャラクタ制御装置9
0は、入力された頭部の3次元姿勢情報および両目およ
び口の開閉状態情報を用いてCGキャラクタの頭部の動
きおよび両目および口の開閉状態を可変制御すること
で、ビデオカメラ80で撮像した利用者の動き、表情に
追従させてCGキャラクタの動き、表情をリアルタイム
に変化させる。
【0136】
【発明の効果】以上説明したように、この発明によれ
ば、使用する照明環境下で対象人物(利用者)の肌色を
サンプリングし、このサンプリングデータを用いて肌色
抽出のための肌色抽出パラメータを調整するようにして
いるので、任意の照明環境あるいいは利用者毎の個人差
に適応して利用者の頭部領域を確実に抽出することがで
きる。
【0137】つぎの発明によれば肌色領域抽出手段によ
る肌色領域抽出後の2値画像に膨張収縮処理を加えるこ
とで、目、鼻、口以外の微小な領域や裂け目が除去され
た肌色領域を得るようにしているので、頭部領域全体を
一領域として抽出することが可能となり、頭部にかかわ
る全ての画素を高速に抽出することが可能となる。
【0138】つぎの発明によれば、膨張収縮処理後の2
値画像と、画素値が全て肌色に対応する論理値レベルで
あるマスク画像との排他的論理和を求め、この排他的論
理和がとられた画像の頭部領域以外を非肌色に対応する
論理値レベルとした画像と前記膨張収縮処理後の2値画
像との論理和を求める簡単な論理演算を用いて頭部領域
を抽出するようにしているので、高速処理が可能とな
り、また計算能力が低いハードウェアを用いてもリアル
タイムかつ頑強な処理が可能である。
【0139】つぎの発明によれば、抽出された頭部領域
の輝度を平均化・正規化し、該輝度平均化・正規化され
た画像を用いて頭部領域中の両目および口の候補領域を
抽出するようにしているので、グラデーションや影、ハ
イライトなどの影響を抑えて輝度変化に影響されること
なく候補領域の抽出が実現でき、また両目や口の部位領
域の抽出を固定の閾値処理で行えることから、高速処理
が可能となり、計算能力が低いハードウェアを用いても
リアルタイムかつ頑強な処理が可能である。
【0140】つぎの発明によれば、頭部領域を複数の小
領域に分割し、各小領域毎にヒストグラム平均化処理を
行うようにしているので、グラデーションや影、ハイラ
イトなどを影響を抑えて輝度変化に影響されることなく
候補領域の抽出が実現でき、また両目や口の部位領域の
抽出を固定の閾値処理で行えることから、高速処理が可
能となり、計算能力が低いハードウェアを用いてもリア
ルタイムかつ頑強な処理が可能である。
【0141】つぎの発明によれば、ヒストグラム平均化
処理では、所定の閾値を越えた頻度をもつ画素値の頻度
を他の画素値に分散させるようにしているので、ノイズ
の発生を抑えることができる。
【0142】つぎの発明によれば、部位検出手段によっ
て両目および口の領域が特定できない場合には、現フレ
ームで特定された部位領域の位置と、この特定された部
位領域の前フレームでの位置とを用いて移動ベクトルを
求め、この移動ベクトルを用いて特定できなかった部位
の位置を特定しているので、部位を1つ検出できれば、
例え他の部位を検出漏れしても、この検出漏れした部位
を検出することができ、これにより頑強な部位追跡が行
える。さらに、隠れなどにより映像中に対象となる部位
が現れない場合でも暫定的な部位領域を設定するように
すれば、隠れた部位が出現したときにその部位を即座に
追跡可能となり、頭部の滑らかな動きを再現可能とな
る。
【0143】つぎの発明によれば、前フレームについて
の部位領域の中心座標を中心に一定の大きさの矩形領域
を設定し、その矩形領域中に存在する現フレーム候補領
域を求め、求めた候補領域夫々について、判別式E=|
SP−SC|+OP+Dを用いて評価値Eを夫々取得
し、評価値Eが最も小さな候補領域を各部位領域として
特定するようにしているので、簡単な演算処理で各部位
を特定することができ、高速処理が可能となり、計算能
力が低いハードウェアを用いてもリアルタイムかつ頑強
な処理が可能である。
【0144】つぎの発明によれば、最初に検出した両目
および口の位置から3次元空間上の仮想平面を設定し、
検出した両目および口位置から頭部の左右および上下方
向の回転量を推定し、前記検出した両目および口位置か
ら得た4点の座標を結ぶ矩形を前記推定した頭部の左右
および上下方向の回転量を用いて歪ませることで3次元
平面を2次元に投影したときの歪みを擬似的に再現し、
該歪ませた矩形の4点の座標を用いて頭部の3次元姿勢
を推測しているので、本来4点以上の3次元と2次元の
対応点がなければ求めることができない3次元姿勢情報
を画像から得られる3点から推定することができ、これ
により高速処理が可能となり、計算能力が低いハードウ
ェアを用いてもリアルタイムかつ頑強な処理が可能であ
る。
【0145】つぎの発明によれば、両目領域を結ぶ直線
をX軸とし、X軸に垂直で口領域の中心位置を通る直線
をY軸とした頭部のローカル座標系を設定し、このロー
カル座標系において求めた頭部領域の外接矩形の左右の
辺と片目との相対距離と、外接矩形の上下の辺と口領域
との相対距離から頭部の左右、上下方向の回転量をそれ
ぞれ推定するようにしているので、比較的簡単な処理に
よって頭部の回転量を判定することができる。
【0146】つぎの発明によれば、推定した頭部の3次
元姿勢情報を用いて対象人物が正面を向いたときの両目
および口領域を再現することに基づき両目および口の開
閉状態を計測するようにしているので、例えば頭部が横
や上を向いている画像においても頭部が正面を向いた場
合の画像を推定でき、2次元画像のみから両目および口
の開閉状態をより正確に求めることができる。
【図面の簡単な説明】
【図1】 この発明にかかるリアルタイム表情追跡装置
の実施の形態を示すブロック図である。
【図2】 図1のリアルタイム表情追跡装置のキャリブ
レーションフェーズの動作の概要を説明するためのフロ
ーチャートである。
【図3】 図1のリアルタイム表情追跡装置のトラッキ
ングフェーズの動作の概要を説明するためのフローチャ
ートである。
【図4】 肌色サンプリングを説明するための図であ
る。
【図5】 肌色サンプリング手段および肌色抽出パラメ
ータ調整手段の動作を説明するためのフローチャートで
ある。
【図6】 肌色領域抽出手段と頭部領域抽出手段9の動
作を説明するためのフローチャートである。
【図7】 肌色領域抽出手段で肌色領域を抽出した結果
の一例を示した図である。
【図8】 膨張マスクおよび収縮マスクを例示する図で
ある。
【図9】 検出した頭部領域に発生した裂け目を埋める
処理を説明するための図である。
【図10】 頭部領域内の全ての穴を埋める論理演算処
理を説明するための図である。
【図11】 部位領域候補抽出手段の動作を説明するた
めのフローチャートである。
【図12】 適応型ヒストグラム平均化法の欠点である
ノイズ発生を抑える処理を説明するための図である。
【図13】 適応型ヒストグラム平均化法を説明するた
めの図である。
【図14】 適応型ヒストグラム平均化法を説明するた
めの図である。
【図15】 キャリブレーションフェーズにおける部位
検出追跡手段の動作を説明するためのフローチャートで
ある。
【図16】 部位検出手段において両目および口領域を
特定する際に用いるマスク領域を示した図である。
【図17】 キャリブレーションフェーズにおける頭部
3次元姿勢・表情計測手段5動作を説明するためのフロ
ーチャートである。
【図18】 アフィン基底設定手段で設定する3次元空
間上の仮想点を示した図である。
【図19】 頭部移動量推定手段で求める両目の端点お
よび口の中心点の頭部領域の外接矩形に対する相対位置
を説明するための図である。
【図20】 トラッキングフェーズにおける部位検出追
跡手段の動作を説明するためのフローチャートである
(その1)。
【図21】 トラッキングフェーズにおける部位検出追
跡手段の動作を説明するためのフローチャートである
(その2)。
【図22】 部位追跡手段での現フレームにおける部位
領域の追跡方法を説明するための図である。
【図23】 検出できなかった部位領域を検出できた部
位領域の位置から予測する処理を説明するための図であ
る。
【図24】 トラッキングフェーズにおける頭部3次元
姿勢・表情計測手段の動作を説明するためのフローチャ
ートである。
【図25】 頭部回転量推定手段での左右上下方向の頭
部回転量を推定する処理を説明するための図である。
【図26】 頭部回転量推定手段において3次元空間上
の仮想点(アフィン基底)に対応する対応点を求める処
理を説明するための図である。
【図27】 トラッキングフェーズにおける頭部3次元
姿勢・表情計測手段の動作を説明するためのフローチャ
ートである。
【図28】 姿勢計測手段での3次元と2次元の対応点
から頭部の3次元姿勢情報を求める処理を説明するため
の図である。
【図29】 姿勢情報を求める際の誤差を補正する処理
を説明するための図である。
【図30】 従来技術を示す図である。
【符号の説明】
1 映像入力手段、2 頭部領域検出手段、3 部位領
域候補抽出手段、4部位検出追跡手段、5 3次元姿勢
・表情計測手段、6 肌色サンプリング手段、7 肌色
抽出パラメータ調整手段、8 肌色領域抽出手段、9
頭部領域抽出手段、10 頭部領域輝度平均化手段、1
1 画素選別手段、12 部位検出手段、13 初期位
置設定手段、14 部位追跡手段、15 アフィン基底
設定手段、16 頭部回転量推定手段、17 姿勢計測
手段、18 開閉状態計測手段、20 サンプリングウ
ィンドウ、22 膨張マスク、23 収縮マスク、33
左目マスク、34 右目マスク、35 口マスク、50
移動ベクトル、53矩形領域、57 外接矩形、64
カメラ画像平面、80 ビデオカメラ、90キャラク
タ制御装置。
─────────────────────────────────────────────────────
【手続補正書】
【提出日】平成14年10月25日(2002.10.
25)
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】発明の名称
【補正方法】変更
【補正内容】
【発明の名称】 頭部領域抽出装置およびリアルタイム
表情追跡装置
【手続補正2】
【補正対象書類名】明細書
【補正対象項目名】特許請求の範囲
【補正方法】変更
【補正内容】
【特許請求の範囲】
【手続補正3】
【補正対象書類名】明細書
【補正対象項目名】0001
【補正方法】変更
【補正内容】
【0001】
【発明の属する技術分野】本発明は、人物を撮像した映
像から人物の頭部領域を抽出する頭部領域抽出装置に関
する。また、本発明は、本人の顔を送信する代わりにC
Gキャラクタの映像を相手に送信することによって人物
映像を互いに通信するテレビ電話など通信システムに適
用され、特にカメラによって撮像された顔の映像から頭
部の3次元的な姿勢情報と顔の表情を計測し、この計測
結果に基づいてCGキャラクタの動きを制御する代理応
答によるリアルタイム表情追跡装置に関するものであ
る。
【手続補正4】
【補正対象書類名】明細書
【補正対象項目名】0009
【補正方法】変更
【補正内容】
【0009】この発明は上記に鑑みてなされたもので、
任意の照明条件で撮影された、不特定人物の顔画像か
ら、簡易な演算によって計算能力が低いハードウェアで
も実時間で、頭部領域を正確に抽出し得る頭部領域抽出
装置を得ることを目的としている。また、この発明は、
簡易な演算によって頭部領域を抽出し、頭部の3次元的
な動きを計測し、かつ両目および口の開閉状態を計測
し、その結果を用いてCGキャラクタの頭部の動きおよ
び表情を制御するリアルタイム表情追跡装置を得ること
を目的としている。
【手続補正5】
【補正対象書類名】明細書
【補正対象項目名】0010
【補正方法】変更
【補正内容】
【0010】
【課題を解決するための手段】上記目的を達成するため
この発明にかかる頭部領域抽出装置は、人物を撮像した
映像から人物の頭部領域を抽出する頭部領域抽出装置に
おいて、対象人物を撮像した画像の各画素データをR,
G,B成分毎に下式 c1=arctan(R/max(G,B)) c2=arctan(G/max(R,B)) c3=arctan(B/max(R,G)) に従って正規化して正規化データc1,c2,c3を取
得する正規化手段と、正規化データc1,c2,c3を
含む各画素データを次式 C1=c2/c1 C2=c3/c2 に従ってC1−C2空間のデータを含む画素データに夫
々変換するデータ変換手段と、変換した画素データのC
1データおよびC2データが下式 th1<C1<th2 th1,th2;肌色抽出
パラメータ th3<C2<th4 th3,th4;肌色抽出
パラメータ を満足すると、この画素データを肌色画素として判断す
ることにより、撮像した画像から頭部領域を抽出する頭
部領域抽出手段とを備えたことを特徴とする。
【手続補正6】
【補正対象書類名】明細書
【補正対象項目名】0011
【補正方法】変更
【補正内容】
【0011】つぎの発明にかかる頭部領域抽出装置は、
上記の発明において、当該対象人物を撮像するときと同
じ照明環境下で、対象人物の顔の一部の所定の領域の画
像をサンプリングする肌色サンプリング手段と、該肌色
サンプリング手段によってサンプリングした所定の領域
の画像の各画素データを前記正規化手段を用いて正規化
した後、前記データ変換手段を用いてC1−C2空間の
画素データに変換し、該変換した前記所定の領域の複数
の画素データを用いてC1データについての最大値およ
び最小値とC2データについての最大値および最小値を
求め、これらの最大値および最小値で前記肌色抽出パラ
メータth1、th2、th3およびth4を補正する
肌色抽出パラメータ調整手段とをさらに備えることを特
徴とする。
【手続補正7】
【補正対象書類名】明細書
【補正対象項目名】0012
【補正方法】変更
【補正内容】
【0012】つぎの発明にかかる頭部領域抽出は、上記
の発明において、前記頭部領域抽出手段は、肌色領域抽
出結果から最大領域を抽出することにより頭部領域を抽
出することを特徴とする。
【手続補正8】
【補正対象書類名】明細書
【補正対象項目名】0013
【補正方法】変更
【補正内容】
【0013】つぎの発明にかかる頭部領域抽出は、上記
の発明において、前記頭部領域抽出手段は、頭部領域抽
出後の2値画像に膨張収縮処理を加えることを特徴とす
る。
【手続補正9】
【補正対象書類名】明細書
【補正対象項目名】0014
【補正方法】変更
【補正内容】
【0014】つぎの発明にかかる頭部領域抽出装置は、
上記の発明において、前記頭部領域抽出手段は、前記膨
張収縮処理後の2値画像と、画素値が全て肌色に対応す
る論理値レベルであるマスク画像との排他的論理和を求
め、この排他的論理和がとられた画像の頭部領域以外を
非肌色に対応する論理値レベルとした画像と前記膨張収
縮処理後の2値画像との論理和を求めることで、頭部領
域全体を抽出することを特徴とする。
【手続補正10】
【補正対象書類名】明細書
【補正対象項目名】0015
【補正方法】変更
【補正内容】
【0015】つぎの発明にかかるリアルタイム表情追跡
装置は、順次所定のフレームレートで入力される映像を
キャプチャする映像入力手段と、前記キャプチャした画
像から頭部画像を抽出する頭部領域抽出手段と、前記抽
出した頭部領域から両目および口を含む各部位の候補領
域を抽出する部位領域候補抽出手段と、抽出した候補領
域の中から各部位の位置を検出する部位検出追跡手段
と、前記検出した両目、口の検出位置に基づいて頭部の
3次元姿勢を計測するとともに、両目および口の開閉状
態を計測する頭部3次元姿勢・表情計測手段とを備え、
前記計測した頭部の3次元姿勢および両目および口の開
閉状態に基づいてCGキャラクタの動きを制御するリア
ルタイム表情追跡装置であって、前記頭部領域抽出手段
は、対象人物を撮像した画像の各画素データをR,G,
B成分毎に下式 c1=arctan(R/max(G,B)) c2=arctan(G/max(R,B)) c3=arctan(B/max(R,G)) に従って正規化して正規化データc1,c2,c3を取
得する正規化手段と、正規化データc1,c2,c3を
含む各画素データを次式 C1=c2/c1 C2=c3/c2 に従ってC1−C2空間のデータを含む画素データに夫
々変換するデータ変換手段と、変換した画素データが下
th1<C1<th2 th1,th2;肌色抽出
パラメータ th3<C2<th4 th3,th4;肌色抽出
パラメータ を満足すると、この画素データを肌色画素として判断す
ることにより、撮像した画像から肌色領域を抽出する肌
色領域抽出手段とを備えたことを特徴とする。
【手続補正11】
【補正対象書類名】明細書
【補正対象項目名】0016
【補正方法】変更
【補正内容】
【0016】つぎの発明にかかるリアルタイム表情追跡
装置は、上記の発明において、当該対象人物を撮像する
ときと同じ照明環境下で、対象人物の顔の一部の所定の
領域の画像をサンプリングする肌色サンプリング手段
と、該肌色サンプリング手段によってサンプリングした
所定の領域の画像の各画素データを前記正規化手段を用
いて正規化した後、前記データ変換手段を用いてC1−
C2空間の画素データに変換し、該変換した前記所定の
領域の複数の画素データを用いてC1データについての
最大値および最小値とC2データについての最大値およ
び最小値を求め、これらの最大値および最小値で前記肌
色抽出パラメータth1、th2、th3およびth4
を補正する肌色抽出パラメータ調整手段とをさらに備え
ることを特徴とする。
【手続補正12】
【補正対象書類名】明細書
【補正対象項目名】0017
【補正方法】変更
【補正内容】
【0017】つぎの発明にかかるリアルタイム表情追跡
装置は、上記の発明において、前記頭部領域抽出手段
は、前記肌色領域抽出手段による肌色領域抽出結果から
最大領域を抽出することにより頭部領域を抽出すること
を特徴とする。
【手続補正13】
【補正対象書類名】明細書
【補正対象項目名】0018
【補正方法】変更
【補正内容】
【0018】つぎの発明にかかるリアルタイム表情追跡
装置は、上記の発明において、前記頭部領域抽出手段
は、前記肌色領域抽出手段による肌色領域抽出後の2値
画像に膨張収縮処理を加えることを特徴とする。
【手続補正14】
【補正対象書類名】明細書
【補正対象項目名】0019
【補正方法】変更
【補正内容】
【0019】つぎの発明にかかるリアルタイム表情追跡
装置は、上記の発明において、前記頭部領域抽出手段
は、前記膨張収縮処理後の2値画像と、画素値が全て肌
色に対応する論理値レベルであるマスク画像との排他的
論理和を求め、この排他的論理和がとられた画像の頭部
領域以外を非肌色に対応する論理値レベルとした画像と
前記膨張収縮処理後の2値画像との論理和を求めること
で、頭部領域全体を抽出することを特徴とする。
【手続補正15】
【補正対象書類名】明細書
【補正対象項目名】0020
【補正方法】削除
【手続補正16】
【補正対象書類名】明細書
【補正対象項目名】0021
【補正方法】削除
【手続補正17】
【補正対象書類名】明細書
【補正対象項目名】0022
【補正方法】削除
【手続補正18】
【補正対象書類名】明細書
【補正対象項目名】0023
【補正方法】削除
【手続補正19】
【補正対象書類名】明細書
【補正対象項目名】0024
【補正方法】削除
【手続補正20】
【補正対象書類名】明細書
【補正対象項目名】0025
【補正方法】削除
【手続補正21】
【補正対象書類名】明細書
【補正対象項目名】0026
【補正方法】削除
【手続補正22】
【補正対象書類名】明細書
【補正対象項目名】0027
【補正方法】削除
【手続補正23】
【補正対象書類名】明細書
【補正対象項目名】0028
【補正方法】削除
【手続補正24】
【補正対象書類名】明細書
【補正対象項目名】0029
【補正方法】削除
【手続補正25】
【補正対象書類名】明細書
【補正対象項目名】0030
【補正方法】削除
【手続補正26】
【補正対象書類名】明細書
【補正対象項目名】0031
【補正方法】削除
【手続補正27】
【補正対象書類名】明細書
【補正対象項目名】0032
【補正方法】変更
【補正内容】
【0032】
【発明の実施の形態】以下に添付図面を参照して、この
発明にかかる頭部領域抽出装置およびリアルタイム表情
追跡装置の好適な実施の形態を詳細に説明する。このリ
アルタイム表情追跡装置は、本人の顔を送信する代わり
にCGキャラクタの映像を相手に送信することによって
人物映像を互いに通信するテレビ電話など通信システム
に適用される。
【手続補正28】
【補正対象書類名】明細書
【補正対象項目名】0136
【補正方法】変更
【補正内容】
【0136】
【発明の効果】以上説明したように、この発明によれ
ば、対象人物を撮像した画像の各画素データをR,G,
B成分毎に正規化した後、C1−C2空間のデータを含
む画素データに変換し、これら変換した画素データのC
1データおよびC2データが所定の肌色抽出パラメータ
の範囲内に入ると、画素データを肌色画素として判断す
ることにより撮像した画像から頭部領域を抽出するよう
にしているので、簡易な演算によって肌色成分を極めて
正確に抽出することができる。したがって、対象人物の
動きに合わせてCGキャラクタの頭部の動きおよび表情
を正確に制御することができる。また、使用する照明環
境下で対象人物(利用者)の肌色をサンプリングし、こ
のサンプリングデータを用いて肌色抽出のための肌色抽
出パラメータを調整するようにしているので、任意の照
明環境あるいいは利用者毎の個人差に適応して利用者の
頭部領域を正確に抽出することができる。
【手続補正29】
【補正対象書類名】明細書
【補正対象項目名】0137
【補正方法】削除
【手続補正30】
【補正対象書類名】明細書
【補正対象項目名】0138
【補正方法】削除
【手続補正31】
【補正対象書類名】明細書
【補正対象項目名】0139
【補正方法】削除
【手続補正32】
【補正対象書類名】明細書
【補正対象項目名】0140
【補正方法】削除
【手続補正33】
【補正対象書類名】明細書
【補正対象項目名】0141
【補正方法】削除
【手続補正34】
【補正対象書類名】明細書
【補正対象項目名】0142
【補正方法】削除
【手続補正35】
【補正対象書類名】明細書
【補正対象項目名】0143
【補正方法】削除
【手続補正36】
【補正対象書類名】明細書
【補正対象項目名】0144
【補正方法】削除
【手続補正37】
【補正対象書類名】明細書
【補正対象項目名】0145
【補正方法】削除
【手続補正38】
【補正対象書類名】明細書
【補正対象項目名】0146
【補正方法】削除
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 BA02 CA01 CA12 CA16 CE16 DA07 DB02 DB06 DC08 DC09 DC25 DC36 5C064 AA01 AC02 AC22 5L096 AA02 CA02 EA02 FA15 FA69 HA05 JA11

Claims (11)

    【特許請求の範囲】
  1. 【請求項1】 順次所定のフレームレートで入力される
    映像をキャプチャする映像入力手段と、 前記キャプチャした画像から頭部画像を抽出する頭部領
    域検出手段と、 前記抽出した頭部領域から両目および口を含む各部位の
    候補領域を抽出する部位領域候補抽出手段と、 抽出した候補領域の中から各部位の位置を検出する部位
    検出追跡手段と、 前記検出した両目、口の検出位置に基づいて頭部の3次
    元姿勢を計測するとともに、両目および口の開閉状態を
    計測する頭部3次元姿勢・表情計測手段とを備え、前記
    計測した頭部の3次元姿勢および両目および口の開閉状
    態に基づいてCGキャラクタの動きを制御するリアルタ
    イム表情追跡装置であって、 前記頭部領域抽出手段は、 現照明環境下での対象人物の顔の一部の画像をサンプリ
    ングする肌色サンプリング手段と、 この肌色サンプリング手段のサンプリングデータに基づ
    き、肌色抽出のための肌色抽出パラメータを調整する肌
    色抽出パラメータ調整手段と、 この肌色抽出パラメータ調整手段によって調整された肌
    色抽出パラメータを用いてキャプチャ映像から肌色領域
    を抽出する肌色領域抽出手段と、 肌色領域抽出結果から最大領域を抽出することにより頭
    部領域を抽出する頭部領域抽出手段と、 を備えたことを特徴とするリアルタイム表情追跡装置。
  2. 【請求項2】 前記頭部領域抽出手段は、肌色領域抽出
    手段による肌色領域抽出後の2値画像に膨張収縮処理を
    加えることを特徴とする請求項1に記載のリアルタイム
    表情追跡装置。
  3. 【請求項3】 前記頭部領域抽出手段は、前記膨張収縮
    処理後の2値画像と、画素値が全て肌色に対応する論理
    値レベルであるマスク画像との排他的論理和を求め、こ
    の排他的論理和がとられた画像の頭部領域以外を非肌色
    に対応する論理値レベルとした画像と前記膨張収縮処理
    後の2値画像との論理和を求めることで、頭部領域全体
    を抽出することを特徴とする請求項2に記載のリアルタ
    イム表情追跡装置。
  4. 【請求項4】 順次所定のフレームレートで入力される
    映像をキャプチャする映像入力手段と、 前記キャプチャした画像から頭部画像を抽出する頭部領
    域検出手段と、 前記抽出した頭部領域から両目および口を含む各部位の
    候補領域を抽出する部位領域候補抽出手段と、 抽出した候補領域の中から各部位の位置を検出する部位
    検出追跡手段と、 前記検出した両目、口の検出位置に基づいて頭部の3次
    元姿勢を計測するとともに、両目および口の開閉状態を
    計測する頭部3次元姿勢・表情計測手段とを備え、前記
    計測した頭部の3次元姿勢および両目および口の開閉状
    態に基づいてCGキャラクタの動きを制御するリアルタ
    イム表情追跡装置であって、 前記部位領域候補抽出手段は、 前記頭部領域検出手段によって抽出された頭部領域の輝
    度を平均化・正規化する頭部領域輝度平均化手段と、 この輝度平均化・正規化後の画像を用いて頭部領域中の
    両目および口の候補領域を抽出する画素選別手段と、 を備えることを特徴とするリアルタイム表情追跡装置。
  5. 【請求項5】 前記頭部領域輝度平均化手段は、頭部領
    域を複数の小領域に分割し、各小領域毎にヒストグラム
    平均化処理を行うことを特徴とする請求項4に記載のリ
    アルタイム表情追跡装置。
  6. 【請求項6】 前記ヒストグラム平均化処理では、所定
    の閾値を越えた頻度をもつ画素値の頻度を他の画素値に
    分散させる処理を加えることを特徴とする請求項5に記
    載のリアルタイム表情追跡装置。
  7. 【請求項7】 順次所定のフレームレートで入力される
    映像をキャプチャする映像入力手段と、 前記キャプチャした画像から頭部画像を抽出する頭部領
    域検出手段と、 前記抽出した頭部領域から両目および口を含む各部位の
    候補領域を抽出する部位領域候補抽出手段と、 抽出した候補領域の中から各部位の位置を検出する部位
    検出追跡手段と、 前記検出した両目、口の検出位置に基づいて頭部の3次
    元姿勢を計測するとともに、両目および口の開閉状態を
    計測する頭部3次元姿勢・表情計測手段とを備え、前記
    計測した頭部の3次元姿勢および両目および口の開閉状
    態に基づいてCGキャラクタの動きを制御するリアルタ
    イム表情追跡装置であって、 前記部位検出追跡手段は、 前記部位領域候補抽出手段によって検出された両目、口
    の候補領域から両目および口の領域を夫々特定する部位
    検出手段と、 前記部位検出手段によって、両目および口の領域が特定
    できない場合に、現フレームで特定された部位領域の位
    置と、この特定された部位領域の前フレームでの位置と
    を用いて移動ベクトルを求め、この移動ベクトルを用い
    て前記特定できなかった部位の位置を特定する部位追跡
    手段と、 を備えることを特徴とするリアルタイム表情追跡装置。
  8. 【請求項8】 前記部位検出手段は、前フレームについ
    ての部位領域の中心座標を中心に一定の大きさの矩形領
    域を設定し、その矩形領域中に存在する現フレーム候補
    領域を求め、求めた候補領域夫々について、判別式E=
    |SP−SC|+OP+Dを用いて評価値Eを夫々取得
    し、 SP:前フレームおける部位領域の画素数、 SC:現フレームにおける候補領域の画素数、 OP:現フレームにおける候補領域のみを非肌色に対応
    する論理値レベルとした部位領域マスク画像と、前フレ
    ームにおける部位領域のみを非肌色に対応する論理値レ
    ベルとした部位領域マスク画像との排他的論理和を求め
    たときに、画素値が非肌色に対応する論理値レベルとな
    る画素数、 D:前フレームにおける部位領域の中心と候補領域の中
    心との距離、評価値Eが最も小さな候補領域を各部位領
    域として特定することを特徴とする請求項7に記載のリ
    アルタイム表情追跡装置。
  9. 【請求項9】 順次所定のフレームレートで入力される
    映像をキャプチャする映像入力手段と、 前記キャプチャした画像から頭部画像を抽出する頭部領
    域検出手段と、 前記抽出した頭部領域から両目および口を含む各部位の
    候補領域を抽出する部位領域候補抽出手段と、 抽出した候補領域の中から各部位の位置を検出する部位
    検出追跡手段と、 前記検出した両目、口の検出位置に基づいて頭部の3次
    元姿勢を計測するとともに、両目および口の開閉状態を
    計測する頭部3次元姿勢・表情計測手段とを備え、前記
    計測した頭部の3次元姿勢および両目および口の開閉状
    態に基づいてCGキャラクタの動きを制御するリアルタ
    イム表情追跡装置であって、 前記頭部3次元姿勢・表情計測手段は、 最初に検出した両目および口の位置から3次元空間上の
    仮想平面を設定するアフィン基底設定手段と、 前記検出した両目および口位置から頭部の左右および上
    下方向の回転量を推定する頭部回転量推定手段と、 前記検出した両目および口位置から得た4点の座標を結
    ぶ矩形を前記推定した頭部の左右および上下方向の回転
    量を用いて歪ませ、該歪ませた矩形の4点の座標を用い
    て頭部の3次元姿勢を推測する姿勢計測手段と、 頭部の動きに応じて両目および口の開閉状態を推測する
    開閉状態計測手段と、 を備えることを特徴とするリアルタイム表情追跡装置。
  10. 【請求項10】 前記頭部回転量推定手段は、両目領域
    を結ぶ直線をX軸とし、X軸に垂直で口領域の中心位置
    を通る直線をY軸とした頭部のローカル座標系を設定
    し、このローカル座標系において求めた頭部領域の外接
    矩形の左右の辺と片目との相対距離と、外接矩形の上下
    の辺と口領域との相対距離から頭部の左右、上下方向の
    回転量をそれぞれ推定することを特徴とする請求項9に
    記載のリアルタイム表情追跡装置。
  11. 【請求項11】 前記開閉状態計測手段は、前記姿勢計
    測手段によって推定した頭部の3次元姿勢情報を用いて
    対象人物が正面を向いたときの両目および口領域を再現
    することに基づき両目および口の開閉状態を計測するこ
    とを特徴とする請求項9または10に記載のリアルタイ
    ム表情追跡装置。
JP2001304116A 2001-09-28 2001-09-28 頭部領域抽出装置およびリアルタイム表情追跡装置 Expired - Fee Related JP3432816B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001304116A JP3432816B2 (ja) 2001-09-28 2001-09-28 頭部領域抽出装置およびリアルタイム表情追跡装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001304116A JP3432816B2 (ja) 2001-09-28 2001-09-28 頭部領域抽出装置およびリアルタイム表情追跡装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2002311660A Division JP3788969B2 (ja) 2002-10-25 2002-10-25 リアルタイム表情追跡装置

Publications (2)

Publication Number Publication Date
JP2003108980A true JP2003108980A (ja) 2003-04-11
JP3432816B2 JP3432816B2 (ja) 2003-08-04

Family

ID=19124088

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001304116A Expired - Fee Related JP3432816B2 (ja) 2001-09-28 2001-09-28 頭部領域抽出装置およびリアルタイム表情追跡装置

Country Status (1)

Country Link
JP (1) JP3432816B2 (ja)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006155435A (ja) * 2004-12-01 2006-06-15 Mitsubishi Electric Building Techno Service Co Ltd 不審者検出装置
JP2007156939A (ja) * 2005-12-07 2007-06-21 Honda Motor Co Ltd 人物検出装置、人物検出方法及び人物検出プログラム
US7321668B2 (en) 2003-11-27 2008-01-22 Konica Minolta Holdings, Inc. Object detection apparatus, object detection method and computer program product
JP2009205498A (ja) * 2008-02-28 2009-09-10 Nippon Telegr & Teleph Corp <Ntt> 情報提示装置、情報提示方法、情報提示プログラムおよびそのプログラムを記録した記録媒体
JP2010033221A (ja) * 2008-07-28 2010-02-12 Fujifilm Corp 肌色検出装置および方法並びにプログラム
JP2010033220A (ja) * 2008-07-28 2010-02-12 Fujifilm Corp 肌色モデル作成装置および方法並びにプログラム
EP2189835A1 (en) 2008-11-19 2010-05-26 Sony Ericsson Mobile Communications AB Terminal apparatus, display control method, and display control program
US7734062B2 (en) 2003-08-29 2010-06-08 Fuji Xerox Co., Ltd. Action recognition apparatus and apparatus for recognizing attitude of object
EP2194445A2 (en) 2008-12-05 2010-06-09 Sony Ericsson Mobile Communications Japan, Inc. Terminal apparatus, display control method, and display control program
CN101960491A (zh) * 2008-03-18 2011-01-26 汤姆森许可贸易公司 自适应感兴趣特征颜色模型参数估计的方法和设备
JP2011141622A (ja) * 2010-01-05 2011-07-21 Canon Inc 検出装置およびその方法
CN104699237A (zh) * 2013-12-10 2015-06-10 宏达国际电子股份有限公司 辨识使用者操作的方法及相关互动装置与计算机可读介质
US9230309B2 (en) 2013-04-05 2016-01-05 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method with image inpainting
JP2016178553A (ja) * 2015-03-20 2016-10-06 株式会社Pfu 画像処理装置、領域検出方法及びコンピュータプログラム
US9495757B2 (en) 2013-03-27 2016-11-15 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method
US9530216B2 (en) 2013-03-27 2016-12-27 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method
WO2021171538A1 (ja) * 2020-02-28 2021-09-02 三菱電機株式会社 表情認識装置及び表情認識方法
CN116382475A (zh) * 2023-03-24 2023-07-04 北京百度网讯科技有限公司 视线方向的控制、视线交流方法、装置、设备及介质

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7734062B2 (en) 2003-08-29 2010-06-08 Fuji Xerox Co., Ltd. Action recognition apparatus and apparatus for recognizing attitude of object
US7321668B2 (en) 2003-11-27 2008-01-22 Konica Minolta Holdings, Inc. Object detection apparatus, object detection method and computer program product
JP2006155435A (ja) * 2004-12-01 2006-06-15 Mitsubishi Electric Building Techno Service Co Ltd 不審者検出装置
JP4540456B2 (ja) * 2004-12-01 2010-09-08 三菱電機ビルテクノサービス株式会社 不審者検出装置
US7840036B2 (en) 2005-12-07 2010-11-23 Honda Motor Co., Ltd. Human being detection apparatus, method of detecting human being, and human being detecting program
JP2007156939A (ja) * 2005-12-07 2007-06-21 Honda Motor Co Ltd 人物検出装置、人物検出方法及び人物検出プログラム
JP4516516B2 (ja) * 2005-12-07 2010-08-04 本田技研工業株式会社 人物検出装置、人物検出方法及び人物検出プログラム
JP2009205498A (ja) * 2008-02-28 2009-09-10 Nippon Telegr & Teleph Corp <Ntt> 情報提示装置、情報提示方法、情報提示プログラムおよびそのプログラムを記録した記録媒体
KR101528895B1 (ko) * 2008-03-18 2015-06-15 톰슨 라이센싱 관심 특성 색 모델 변수의 적응성 추정을 위한 방법 및 장치
JP2011517526A (ja) * 2008-03-18 2011-06-09 トムソン ライセンシング 着目物の適応的な色モデル・パラメータ推定に係る方法および装置
CN101960491A (zh) * 2008-03-18 2011-01-26 汤姆森许可贸易公司 自适应感兴趣特征颜色模型参数估计的方法和设备
JP2010033221A (ja) * 2008-07-28 2010-02-12 Fujifilm Corp 肌色検出装置および方法並びにプログラム
JP2010033220A (ja) * 2008-07-28 2010-02-12 Fujifilm Corp 肌色モデル作成装置および方法並びにプログラム
EP2189835A1 (en) 2008-11-19 2010-05-26 Sony Ericsson Mobile Communications AB Terminal apparatus, display control method, and display control program
US8350896B2 (en) 2008-11-19 2013-01-08 Sony Mobile Communications Japan, Inc. Terminal apparatus, display control method, and display control program
EP2194445A2 (en) 2008-12-05 2010-06-09 Sony Ericsson Mobile Communications Japan, Inc. Terminal apparatus, display control method, and display control program
US8638292B2 (en) 2008-12-05 2014-01-28 Sony Corporation Terminal apparatus, display control method, and display control program for three dimensional perspective display
JP2011141622A (ja) * 2010-01-05 2011-07-21 Canon Inc 検出装置およびその方法
US9495757B2 (en) 2013-03-27 2016-11-15 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method
US9530216B2 (en) 2013-03-27 2016-12-27 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method
US9230309B2 (en) 2013-04-05 2016-01-05 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method with image inpainting
CN104699237A (zh) * 2013-12-10 2015-06-10 宏达国际电子股份有限公司 辨识使用者操作的方法及相关互动装置与计算机可读介质
CN104699237B (zh) * 2013-12-10 2018-01-30 宏达国际电子股份有限公司 辨识使用者操作的方法及相关互动装置与计算机可读介质
US9971411B2 (en) 2013-12-10 2018-05-15 Htc Corporation Method, interactive device, and computer readable medium storing corresponding instructions for recognizing user behavior without user touching on input portion of display screen
JP2016178553A (ja) * 2015-03-20 2016-10-06 株式会社Pfu 画像処理装置、領域検出方法及びコンピュータプログラム
WO2021171538A1 (ja) * 2020-02-28 2021-09-02 三菱電機株式会社 表情認識装置及び表情認識方法
CN116382475A (zh) * 2023-03-24 2023-07-04 北京百度网讯科技有限公司 视线方向的控制、视线交流方法、装置、设备及介质
CN116382475B (zh) * 2023-03-24 2024-05-14 北京百度网讯科技有限公司 视线方向的控制、视线交流方法、装置、设备及介质

Also Published As

Publication number Publication date
JP3432816B2 (ja) 2003-08-04

Similar Documents

Publication Publication Date Title
JP3432816B2 (ja) 頭部領域抽出装置およびリアルタイム表情追跡装置
KR100682889B1 (ko) 영상에 기반한 사실감 있는 3차원 얼굴 모델링 방법 및 장치
US8565525B2 (en) Edge comparison in segmentation of video sequences
US8077969B2 (en) Contour finding in segmentation of video sequences
RU2358319C2 (ru) Способ и устройство для фотореалистического трехмерного моделирования лица на основе изображения
KR101194481B1 (ko) 디지털 카메라의 노출 조정 방법, 디지털 이미지의 노출 및톤 스케일 조정 방법 및 필터링 방법
US8126268B2 (en) Edge-guided morphological closing in segmentation of video sequences
EP1847968A1 (en) Generating a three dimensional model of a face from a single two-dimensional image: adaption of a generic hair model
JP4597391B2 (ja) 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体
WO2001026050A2 (en) Improved image segmentation processing by user-guided image processing techniques
WO2007076890A1 (en) Segmentation of video sequences
JP2017204673A (ja) 画像処理装置、画像処理方法及びプログラム
JP4952267B2 (ja) 3次元形状処理装置、3次元形状処理装置の制御方法、および3次元形状処理装置の制御プログラム
JP5419757B2 (ja) 顔画像合成装置
JP3788969B2 (ja) リアルタイム表情追跡装置
US6931145B1 (en) Method and apparatus for measuring motion of an object surface by multi-resolution analysis using a mesh model
JP3416666B2 (ja) 頭部姿勢計測装置およびcgキャラクタ制御装置
JP5419777B2 (ja) 顔画像合成装置
JP4368837B2 (ja) リアルタイム表情追跡装置
JP4171354B2 (ja) カラー画像処理装置及び方法
CN111079618A (zh) 三维跟踪的手势观测似然建模方法及装置
Chiu et al. A Face Replacement System Based on Face Pose Estimation
JP2000324509A (ja) 画像合成におけるカメラパラメ−タ推定方法
Min et al. NONPARAMETRIC SKIN COLOR MODEL BASED FACE AND FACIAL FEATURE EXTRACTION FOR 3D FACE MODELING

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080523

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090523

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100523

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees