JP3416666B2 - 頭部姿勢計測装置およびcgキャラクタ制御装置 - Google Patents

頭部姿勢計測装置およびcgキャラクタ制御装置

Info

Publication number
JP3416666B2
JP3416666B2 JP2001280201A JP2001280201A JP3416666B2 JP 3416666 B2 JP3416666 B2 JP 3416666B2 JP 2001280201 A JP2001280201 A JP 2001280201A JP 2001280201 A JP2001280201 A JP 2001280201A JP 3416666 B2 JP3416666 B2 JP 3416666B2
Authority
JP
Japan
Prior art keywords
mouth
head
eye
right eye
left eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001280201A
Other languages
English (en)
Other versions
JP2003085583A (ja
Inventor
昭二 田中
聡 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2001280201A priority Critical patent/JP3416666B2/ja
Publication of JP2003085583A publication Critical patent/JP2003085583A/ja
Application granted granted Critical
Publication of JP3416666B2 publication Critical patent/JP3416666B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Description

【発明の詳細な説明】
【0001】本発明は、人物を撮像した各フレーム画像
から人物の頭部領域を順次抽出し、抽出した頭部領域か
ら目、口の位置を検出し、該検出位置に基づいて頭部の
姿勢を計測する頭部姿勢計測装置に関するものである。
また、本発明は、テレビ電話などの人物映像を互いに通
信するシステムにおいて、本人の顔を送信する代わりに
CGキャラクタを相手に送信し、カメラで撮影された顔
画像から頭部の3次元姿勢情報と両目および口の状態を
計測し、計測結果に基づいてCGキャラクタの動きを制
御する代理応答によるCGキャラクタ制御装置に関する
ものである。
【0002】
【従来の技術】例えば、図24は、Proceedings of AFG
R98(International Conference on Automatic Face an
d Gesture Recognition、pp.142-147)に示された従来
の3次元頭部姿勢計測装置を示すものであり、本装置
は、映像をキャプチャする映像キャプチャ装置、キャプ
チャした映像から顔の特徴点をテンプレートマッチング
で追跡するための画像処理装置、追跡した特徴点から頭
部回転パラメータを推定する3次元姿勢情報計測装置か
らなる。
【0003】この従来の3次元頭部姿勢計測装置におい
ては、初期フレーム(計測開始時の最初の映像フレー
ム)において指定した顔の特徴点(両目や口位置等)を
画像処理装置を用いて追跡する。画像処理装置の特徴点
追跡手段では、特徴点の周りに大きさ固定のウィンドウ
を設定し、テンプレートマッチングの手法を用いて特徴
点の追跡を行う。このとき、設定した各特徴点間の位置
関係を保存しておき、テンプレートマッチングで求まっ
た特徴点の位置関係に矛盾が無いように、カルマンフィ
ルタを用いて調整する。次に、3次元姿勢情報計測装置
の頭部回転推定手段では、前記求められた特徴点の移動
量から、アフィン変換パラメータを求めることにより頭
部の姿勢を推定する。
【0004】
【発明が解決しようとする課題】上記従来の3次元頭部
姿勢計測装置は、特殊なハードウェアを必要とするた
め、システム構築が容易に行えないという問題点があ
る。また、上記ハードウェアをソフトウェアに置き換え
た場合、リアルタイムに処理することが困難となる問題
もある。さらに、カルマンフィルタなどの計算量の大き
い処理をリアルタイムに行うためには多くの計算資源が
必要であり、家電製品などの計算資源の少ない装置を用
いる場合、リアルタイム処理が困難である問題もある。
【0005】この発明は上記に鑑みてなされたもので、
少ない計算資源でも高速にかつロバストに頭部の3次元
姿勢情報を計測するとともに、その情報を利用してCG
キャラクタの動作を制御することができる頭部姿勢計測
装置およびCGキャラクタ制御装置を得ることを目的と
する。
【0006】
【課題を解決するための手段】上記目的を達成するため
この発明にかかる頭部姿勢計測装置は、人物を撮像した
各フレーム画像から人物の頭部領域を順次抽出し、抽出
した頭部領域から目、口の位置を検出し、該検出位置に
基づいて頭部の姿勢を計測する頭部姿勢計測装置におい
て、各フレーム画像から人物の頭部領域を抽出して、左
目、右目、口の位置を推定する部位位置追跡手段と、こ
の部位位置追跡手段による左目および右目の推定位置を
結ぶ両目ベクトルを求め、この両目ベクトルを用いて頭
部の撮像正面方向軸周りについての第1の回転角を求め
るとともに、前フレーム画像における左目、右目、口
定位置と、現フレーム画像における左目、右目、口
定位置とに基づき左目、右目、口の前フレーム画像お
よび現フレーム画像間での移動ベクトルを求め、該移動
ベクトルを用いて頭部の前記撮像正面方向に垂直な2つ
軸周りについての第2および第3の回転角を求める頭部
回転角演算手段とを備えたことを特徴とする。
【0007】つぎの発明にかかる頭部姿勢計測装置は、
上記の発明において、前記頭部回転角演算手段は、前フ
レーム画像における左目、右目、口の推定位置と、現フ
レーム画像における左目、右目、口の推定位置とに基づ
き左目、右目、口の前フレーム画像および現フレーム画
像間での移動ベクトルを求め、該求めた左目、右目、口
の移動ベクトルに基づき前記第2および第3の回転角を
各移動ベクトル毎に各別に求め、これら各移動ベクトル
毎に求めた3組の第2および第3の回転角のうち、前フ
レームおよび現フレーム間での左目の移動量と右目の移
動量と口の移動量との合計が最も少ない組の第2および
第3の回転角を選択することを特徴とする。
【0008】つぎの発明にかかる頭部姿勢計測装置は、
上記の発明において、前記頭部回転角演算手段は、人物
を正面から撮像したフレーム画像から人物の頭部領域を
抽出し、該抽出した頭部領域に対応する3次元の簡易C
G頭部モデルを作成し、該作成した簡易CG頭部モデル
に対し前記部位位置追跡手段によって推定した左目、右
目、口の位置に対応するマーキングを行う簡易CG頭部
モデル作成手段をさらに備え、前記頭部回転角演算手段
は、前フレーム画像における左目、右目、口の推定位置
と、現フレーム画像における左目、右目、口の推定位置
とに基づき左目、右目、口の前フレーム画像および現フ
レーム画像間での移動ベクトルを求め、該求めた左目、
右目、口の移動ベクトルに基づき前記第2および第3の
回転角を各移動ベクトル毎に各別に求め、前記簡易CG
頭部モデルを前記3組の第2および第3の回転角だけ夫
々回転させたときの前記左目マーキング、右目マーキン
グおよび口マーキングを所定の投影面に夫々投影し、該
投影面上での左目、右目および口の2次元位置と前記部
位位置追跡手段によって推定した左目、右目および口の
推定位置との間の各距離の合計を前記3組の回転角毎に
求め、これら3つの距離の合計のうちの最小値を選択
し、選択した最小値が所定の閾値より小さいときに、前
記推定した左目、右目および口の位置が適正な位置であ
るとして最小値に対応する組の第2および第3の回転角
を選択し、前記距離が所定の閾値より大きいときは、前
記部位位置追跡手段での推定処理を再実行させることを
特徴とする。
【0009】つぎの発明にかかる頭部姿勢計測装置は、
上記の発明において、前記頭部回転角演算手段は、人物
を正面から撮像したフレーム画像から人物の頭部領域を
抽出し、該抽出した頭部領域に対応する3次元の簡易C
G頭部モデルを作成し、該作成した簡易CG頭部モデル
に対し前記部位位置追跡手段によって推定した左目、右
目、口の位置に対応するマーキングを行う簡易CG頭部
モデル作成手段をさらに備え、前記頭部回転角演算手段
は、前フレーム画像を用いて計測した撮像正面方向軸周
りについての第1の回転角に基づき、前フレームの左目
の推定位置と前フレームの右目の推定位置を結ぶ線が撮
像正面方向軸に直角な軸と平行になるように座標系を設
定し、該設定した座標系を用いて求めた左目、右目、口
についての前記移動ベクトルに基づき前記第2および第
3の回転角を各移動ベクトル毎に各別に求め、前記簡易
CG頭部モデルを前記3組の第2および第3の回転角だ
け夫々回転させたときの前記左目マーキング、右目マー
キングおよび口マーキングを所定の投影面に夫々投影
し、該投影面上での左目、右目および口の2次元位置と
前記部位位置追跡手段によって推定した左目、右目およ
び口の候補領域との間の各距離の合計を前記3組の回転
角毎に求め、これら3つの距離の合計のうちの最小値を
選択し、選択した距離が所定の閾値より大きいときは、
前記部位位置追跡手段での推定処理を再実行させ、選択
した距離が所定の閾値より小さいときは、前記推定した
左目、右目および口の位置が適正な位置であると判断す
るとともに、現フレーム画像を用いて計測した撮像正面
方向軸周りについての第1の回転角に基づき、現フレー
ムの左目の推定位置と現フレームの右目の推定位置を結
ぶ線が撮像正面方向軸に直角な軸と平行になるように座
標系を設定し、該設定した座標系を用いて求めた前記移
動ベクトルに基づき前記第2および第3の回転角を求め
ることを特徴とする。
【0010】つぎの発明にかかる頭部姿勢計測装置は、
上記の発明において、前記簡易CG頭部モデル作成手段
は、抽出した頭部領域を両目が水平になるように撮像正
面方向軸周りに前記第1の回転角だけ回転させ、回転後
の頭部領域に外接する矩形を求め、この矩形の幅を短軸
とし、矩形の高さを長軸とする3次元の楕円体を前記簡
易CG頭部モデルとすることを特徴とする。
【0011】つぎの発明にかかる頭部姿勢計測装置は、
上記の発明において、前記頭部回転角演算手段は、前記
簡易CG頭部モデルを前記3組の第2および第3の回転
角だけ夫々回転させる際の回転半径を、前記簡易CG頭
部モデル作成手段によって作成された簡易CG頭部モデ
ルの寸法および左目、右目および口の推定位置に基づき
各別に演算して使用することを特徴とする。
【0012】つぎの発明にかかる頭部姿勢計測装置は、
上記の発明において、前記部位位置追跡手段は、前フレ
ーム画像に基づき求められた頭部の前記第1〜第3の回
転角を用いて前記簡易CG頭部モデルを回転させたとき
の簡易CG頭部モデルの左目マーキング、右目マーキン
グおよび口マーキングの所定の投影面への投影の有無に
応じて各部位の推定処理を行うものであり、投影される
と判定された部位についてのみ部位の位置を推定するた
めの処理を実行することを特徴とする。
【0013】つぎの発明にかかる頭部姿勢計測装置は、
上記の発明において、前記部位位置追跡手段は、最初に
簡易CG頭部モデルを作成する際には、頭部領域の重心
に基づき鼻領域を推定し、推定した鼻領域の外接矩形の
上辺と、鼻領域の中心から延びる上辺と垂直な直線とに
よって当該フレーム画像を分割することにより、左目、
右目が存在する範囲を限定し、それらの範囲内に存在す
る左目、右目を検出し、前記鼻領域の外接矩形の下辺で
当該フレーム画像を分割することにより口領域が存在す
る範囲を限定し、その範囲に存在する口位置を検出する
ことを特徴とする。
【0014】つぎの発明にかかる頭部姿勢計測装置は、
上記の発明において、前記部位位置追跡手段は、左目、
右目および口の周囲画像を各フレーム画像毎にテンプレ
ートとして格納し、前フレームで検出した位置に近く、
かつ前フレームに記憶したテンプレートと誤差が少ない
領域を左目、右目および口の候補領域として、現フレー
ム画像から選択することを特徴とする。
【0015】つぎの発明にかかるCGキャラクタ制御装
置は、上記の発明における頭部姿勢計測装置によって推
定された各部位の位置および頭部についての前記第1〜
第3の回転角に基づいてCGキャラクタの動作を制御す
るキャラクタ制御手段を備えたことを特徴とする。
【0016】つぎの発明にかかるCGキャラクタ制御装
置は、上記の発明において、開状態の左目、右目および
口の大きさと閉状態の左目、右目および口の大きさを求
め、これらの大きさ情報を記憶する部位初期状態記憶手
段を更に備え、前記キャラクタ制御手段は、現フレーム
画像から左目、右目および口領域の開閉状態を計測し、
この計測情報と前記初期状態記憶手段に記憶された開状
態の左目、右目および口の大きさ情報と閉状態の左目、
右目および口の大きさ情報とを用いて左目、右目および
口の開閉状態情報を生成し、生成した左目、右目および
口の開閉状態情報に基づき前記CGキャラクタの左目、
右目および口の開閉状態を制御することを特徴とする。
【0017】
【0018】
【0019】
【0020】
【0021】
【0022】
【発明の実施の形態】以下に添付図面を参照して、この
発明にかかるCGキャラクタ制御装置の好適な実施の形
態を詳細に説明する。
【0023】実施の形態1.以下、本発明の実施の形態
1を図1〜図20を用いて説明する。図1は、実施の形
態1のCG(コンピュータグラフィックス)キャラクタ
制御装置の概念的構成を示すものである。
【0024】この図1に示すCGキャラクタ制御装置
は、例えばパーソナルコンピュータ、ワークステーショ
ンに実行させるプログラムの機能構成を示すものであ
る。この図1に示すCGキャラクタ制御装置は、人物の
頭部映像を撮像してこの撮像データをキャプチャするカ
メラなどの映像取込手段1と、人物の頭部および両目,
口の動きを追跡する表情追跡手段2と、制御対象として
の例えば3次元のCGキャラクタデータが記憶されるキ
ャラクタデータ記憶部21と、表情追跡手段2により計
測した頭部の動きおよび両目,口の動きを用いて、キャ
ラクタデータ記憶部21から読み出したCGキャラクタ
の動きを制御するキャラクタ制御手段20とを備えてい
る。
【0025】表情追跡手段2は、頭部の動きを追跡する
頭部追跡手段3と、抽出した頭部領域から両目および口
の候補となる領域を抽出する部位領域抽出手段6と、両
目,鼻および口の位置、両目および口を含むテンプレー
ト領域の抽出、両目および口の開閉の状態の検出などを
行うキャリブレーション手段7と、頭部,両目および口
の動きを計測するキャラクタ制御パラメータ計測手段8
とを有している。
【0026】頭部追跡手段3は、映像から肌色領域を抽
出する肌色領域抽出手段4と、この抽出結果に基づいて
頭部領域を抽出する頭部領域抽出手段5を有している。
【0027】キャリブレーション手段7は、頭部領域か
ら鼻の位置を検出する鼻位置検出手段9と、検出した鼻
位置から両目の位置を検出する両目位置検出手段10
と、検出した鼻位置から口の位置を検出する口位置検出
手段11と、両目部分を含む周囲画像と口部分を含む周
囲画像をテンプレートとして格納するテンプレート格納
手段12と、両目と口の初期位置に基づいて3次元の簡
易頭部モデルを生成するCGモデル生成手段13と、両
目および口の開閉の状態を記憶する初期状態記憶手段1
4とを備えている。
【0028】キャラクタ制御パラメータ計測手段8は、
キャプチャした映像から両目の位置の候補を推定する両
目位置追跡手段15と、キャプチャした映像から口の位
置の候補を推定する口位置追跡手段16と、上記追跡結
果が正しいか否かを検証する追跡結果検証手段17と、
上記追跡結果に基づいて頭部の姿勢を計測するとともに
両目および口の開閉状態を計測する制御パラメータ計測
手段18と、上記処理で得られた現映像における両目お
よび口の周りの画像を新たなテンプレートとして更新登
録するテンプレート更新手段19とを備えている。これ
らの構成要素により、キャラクタ制御パラメータ計測手
段8は、簡易CGモデルを現フレーム画像にフィッティ
ングすることにより頭部姿勢を計測するとともに、現フ
レーム画像から左目、右目および口領域の開閉状態を計
測している。
【0029】図2は、図1のCGキャラクタ制御装置の
動作の概要を示したフローチャートである。図2を用い
てCGキャラクタ制御装置の動作の概略を説明する。
【0030】まず、映像取込手段1により、頭部映像を
キャプチャする(ステップS100)。キャプチャされ
た映像は表情追跡手段2に送られる。まず、頭部追跡手
段3によってキャプチャ映像から頭部領域が抽出される
(ステップS110)。次に、部位領域抽出手段6によ
り両目、口の候補となる候補領域がキャプチャ映像から
抽出される(ステップS120)。
【0031】つぎに、キャリブレーションが終了してい
るか否かが判断され(ステップS130)、キャリブレ
ーションが終了していないときは、キャリブレーション
手段7によって、ステップS140〜S160の処理が
実行されることで、両目および口の位置が検出されると
ともに、両目および口の周囲画像がテンプレートとして
取得される。すなわち、鼻位置検出手段9は、ステップ
S120で抽出された各部位の候補領域から鼻位置を検
出する(ステップS140)。つぎに、両目位置検出手
段10および口位置検出手段11は、経験則を用いて前
記求めた鼻位置から両目および口位置を夫々検出する
(ステップS150)。このとき、CGキャラクタ制御
装置は、ユーザに対して、検出結果が正しいか否かの判
断を求め、ユーザから正しい判断結果が得られると、テ
ンプレート格納手段12を用いて口および両目の位置を
含む部分から予め定められた大きさの周囲画像を夫々切
り出し、それを各部位(両目,口)のテンプレート画像
とする(ステップS160)。なお、上記処理を実行中
は、ユーザに対して「カメラに対して正面を向き、両目
を開け、口を閉じる」ように指示する。
【0032】次に、キャリブレーション手段7のCGモ
デル生成手段13は、前記抽出した頭部からこの頭部に
外接する外接矩形を求め、さらにこの外接矩形の長辺お
よび短辺を求めることで、この長辺長および短辺長を長
軸および短軸とする3次元の楕円体を生成する。さら
に、先に求めた両目および口の位置を楕円体にマーキン
グすることで、3次元の簡易CG頭部モデルを作成する
(ステップS170)。この簡易CG頭部モデルは、そ
の後の処理で、頭部の3次元回転角を求めるなどのため
に用いられる。
【0033】次に、初期状態記憶手段14は、ユーザに
対して「両目と口を開いた状態で静止する」ように指示
し、このときの両目(左目,右目)および口の大きさを
夫々求める。(ステップS180,S190)。同様
に、ユーザに対して「両目と口を閉じた状態で静止す
る」ように指示し、このときの両目および口の大きさを
夫々求める(ステップS200,S210)。なお、上
記ステップS180〜S210において、頭部に対する
両目および口の大きさの比率を求めることで、両目およ
び口の大きさを頭部に対する相対値として算出するよう
にすれば、頭部の動きに関係なく、両目および口の開閉
度を正確に求めることができる。なお、この時点で求め
た開状態および閉状態における両目および口の大きさ
は、その後のステップS240で行われるキャラクタ制
御パラメータの1つである各部位の開閉状態パラメータ
SPの導出処理の際に用いられる。
【0034】以上により、キャプチャした映像を追跡処
理して、その追跡結果に基づきCGキャラクタを制御す
るための前処理が終了する。
【0035】つぎに、映像取込手段1で所定のフレーム
レートで順次取り込まれる現フレームの映像に基くCG
キャラクタの制御処理を実行する。この処理は、ユーザ
から追跡開始要求を受けることで、開始される。ユーザ
から追跡開始要求を受けた場合は、ステップS100〜
S130を経由して、ステップS220〜S260の処
理をフレーム単位に繰り返し実行する。
【0036】前記同様、頭部追跡手段3は、キャプチャ
した現フレームの映像から頭部領域を抽出する(ステッ
プS100,S110)。次に、部位領域抽出手段6
は、現フレーム映像から両目、口の候補となる候補領域
を夫々抽出する(ステップS120)。
【0037】つぎに、キャラクタ制御パラメータ計測手
段8の両目位置追跡手段15は、前フレームの各目(左
目,右目)の検出位置と現フレームから抽出された各目
の候補領域との距離と、前フレームの各目についてのテ
ンプレートを用いたテンプレートマッチングとを用いて
各目の1〜複数の候補領域の中から各目の候補領域(位
置)を推定(選択)する。また、同様にして、口位置追
跡手段16は、現フレームの映像中の口の位置を推定す
る(ステップS220)。
【0038】次に、追跡結果検証手段17は、前フレー
ムでの各部位(左目,右目,口)の検出位置と現フレー
ムでの各部位の上記推定位置から各部位の移動ベクトル
を夫々求め、該求めた移動ベクトルから頭部の回転角を
推定する。そして、先に作成した簡易CGモデルを、前
記推定した回転角だけ回転させる。さらに、該回転角だ
け回転させた簡易CGモデルにおける両目および口のマ
ーキング位置(ステップS170の処理で行われたマー
キング位置)を画像面(投影面)に投影(3次元から2
次元へ変換)し、該投影した各部の2次元位置と、先の
ステップS220の処理で求められた現フレームについ
ての各部の推定位置とが所定の閾値以下の誤差で一致す
るか否かを判定する(ステップS230)。もし、推定
結果が不良の場合、すなわち、上記各部位の位置の差が
所定の閾値以内に入らないときは、ステップS220で
の口、目位置の追跡処理をやり直す。そして、上記各部
位の位置の差が上記閾値以内に入る、現フレームについ
ての各部の推定位置を導出する。
【0039】次に、制御パラメータ計測手段18は、上
記導出された現フレームについての各部の推定位置に基
づき、3次元各軸回りの頭部回転角を求める。さらに、
現フレームにおける両目と口の大きさを測定し、これら
の測定値と、先のステップS180〜S210の処理手
順で求めた開状態および閉状態における両目および口の
大きさとを用いて、両目と口の開閉量を推定し、各部位
の開閉状態パラメータSPを導出する(ステップS24
0)。
【0040】さらに、テンプレート更新手段19は、左
目、右目、口部分を夫々含む所定の大きさの周囲画像を
現フレームから切り取り、該切り取った3つの画像を左
目、右目、口部分のテンプレートとして取得する(ステ
ップS250)。そして、これら取得した現フレームに
ついてのテンプレートで、前フレームについてのテンプ
レートを更新する。
【0041】最後に、キャラクタ制御手段20が、以上
のようにして求めた頭部の姿勢情報(頭部回転角)と両
目,口の開閉情報(開閉状態パラメータSP)を用いて
制御対象としての3次元のCGキャラクタの動きを制御
する(ステップS260)。
【0042】つぎに、図1のCGキャラクタ制御装置の
各構成要素の動作をより詳細に説明する。 (a)頭部追跡手段3および部位領域抽出手段6での処
理 まず、図3〜図8を用いて頭部追跡手段3および部位領
域抽出手段6が行う図2のステップS110〜S120
の処理の詳細について説明する。図3は、頭部追跡手段
3と部位領域抽出手段6の動作を説明するためのフロー
チャートである。
【0043】〔肌色領域抽出〕最初に、ユーザに対して
「カメラに対して正面を向き、両目を開け、口を閉じ
る」ように指示する。肌色領域抽出手段4は、図4に示
すように、映像取込手段1によって取り込まれた入力画
像から肌色領域を抽出し、マスク画像(肌色画素が1、
それ以外は0である画像)を生成する(ステップS30
0)。図4(a)に示す入力画像22から肌色画素を抽
出すると、図4(b)に示すようなマスク画像23が得
られる。
【0044】ここで、肌色領域抽出は、肌色を他の色と
区別するために最適な色空間において、予めサンプリン
グした肌色の情報から上記色空間における肌色の範囲を
定め、各画素の色が定めた範囲に入っているか否かを判
定することにより行われる。
【0045】実施の形態1では、輝度変化に比較的ロバ
ストな以下に示す色空間を用いることにする。なお、別
の色空間を用いて肌色抽出を行うようにしてもよい。
【0046】R(レッド),G(グリーン),B(ブル
ー)を各画素の色の3原色の成分だとすると、次式によ
り色を正規化する。 C1=arctan(R/max(G,B))……式(1) C2=arctan(G/max(R,B))……式(2) C3=arctan(B/max(R,G))……式(3)
【0047】上記式で正規化した色をさらに次式で変換
する。 C1=C2/C1 ……式(4) C2=C3/C2 ……式(5)
【0048】肌色領域抽出手段4では、式(4)および
式(5)でRGB空間からC1−C2空間に変換した色
が、次式(6),(7)で定義した肌色範囲に入ってい
るか否かを判断することにより入力画像から肌色領域を
抽出し、肌色画素が1でそれ以外の画素は0で構成され
るマスク画像を生成する。すなわち、下記式(6)およ
び(7)が成立した場合に肌色画素とする。th1,t
h2,th3およびth4は、夫々予め設定された閾値
である。
【0049】 th1<C1<th2 ……式(6) th3<C2<th4 ……式(7)
【0050】〔頭部領域抽出〕つぎに、頭部領域抽出手
段5は、肌色領域抽出手段4が抽出した肌色領域から次
のようにして頭部領域を抽出する。まず、頭部領域抽出
手段は、肌色領域の抽出結果得られるマスク画像23中
の画素値1の画素(すなわち肌色の画素)に注目し、こ
れら注目画素について、例えば4連結によるラベリング
処理(連続した図形をグループ分けして番号付けする処
理)を行い、個々のブロック領域(塊)に分割する。そ
して、ラベリング処理の結果、得られるブロック領域の
中から大きさ(画素数)が最大となる領域を選択し、そ
れを頭部領域とする(ステップS310)。
【0051】図5(a)に、このようにして選択された
頭部領域を含む画像25を示す。この時点では、ハイラ
イトや影、両目、口、鼻などの暗い部分が抽出されてい
ないため、頭部領域には、図5(a)に示すように、背
景25と同じ画素値0で構成される複数の小さな部位候
補領域やノイズ領域(これらを含めて小領域という)2
4が存在する。そこで、頭部領域抽出手段5は、つぎ
に、図5(b)に示すように、頭部領域内の小領域24
を画素値1に置換することで、これら小領域24が除去
された新たな頭部領域を抽出する(ステップS32
0)。
【0052】ここで、ステップS310で選択した頭部
領域には、図6(a)に示すように、内側の小領域24
と背景領域25とが、同じ画素値0の連結部26を介し
て繋がっている場合がある。このまま処理を続行する
と、後述する処理において、頭部領域内の小領域24が
背景領域25とみなされるため、本来頭部の一部分であ
る小領域24が背景領域25として削除されてしまう。
これを避けるため、以下の膨張収縮処理を用いて、図6
(b)に示すように、連結部26を画素値1の肌色画素
に置き換えるようにしている。
【0053】膨張収縮処理は、図7に示すような膨張マ
スク28および収縮マスク29を設定し、以下の膨張処
理と収縮処理を繰り返し行うことにより前述の連結部2
6あるいは小領域24などを埋めるものである。膨張処
理は、注目画素の近傍の画素値を膨張マスク28で設定
した画素値に置き換えることにより領域を膨張させるも
のである。収縮処理は、注目画素の近傍画素の内、収縮
マスク29で設定した0でない画素の画素値が収縮マス
ク29の画素値と同値である場合に注目画素を残し、同
値で無い場合に注目画素の値を0とすることにより領域
を収縮するものである。
【0054】頭部領域抽出手段5では、膨張収縮処理に
より連結部26および小領域24を肌色画素に置換する
ことで、連結部26および小領域24を肌色画素に塗り
つぶしたマスク画像に対して、画像の左上、右上、左
下、右下の順に、例えば4連結あるいは8連結処理によ
り画素値が0の画素を連結して背景領域を求め、該求め
た背景領域以外の画素を全て1とすることにより、図5
(b)に示したように、小領域24などのない頭部領域
を抽出する。
【0055】つぎに、頭部領域抽出手段5では、ステッ
プS320で得られたマスク画像を、周知の距離変換処
理を用いて距離画像に変換し、距離値が最大となる画素
を頭部領域の重心とする(ステップS330)。
【0056】距離変換処理とは、画像中のオブジェクト
の各画素値を、各画素位置から背景領域への最短距離に
置き換える変換処理である。距離の概念としては、最も
単純な市街地距離(4連結距離)とチェス盤距離(8連
結距離)がよく使われる。
【0057】ここでは、市街地距離を用いたアルゴリズ
ムを説明する。Step1. まず、入力画像を二値化した各
画素データをfi,jとし、Di,jを初期化変化された多値
データとした場合、次のように初期化変換する。すなわ
ち、画素値が1の頭部領域内の画素は、多値データ∞
(実際には、100などの大きな値)に置換し、画素値
が0の背景画素は、0に置換する。
【0058】
【数1】
【0059】Step2. 初期化した画像を左上から右下に
向かって走査し、次の規則で逐次D´i,jを更新する。 D″i,j=min(D′i,j,D″i-1,j+1,D″i,j-1+1)……式(9) Step3. 先のStep2で得られたD″i,jに対して、右下か
ら左上に向かって走査し、次の規則で逐次D″i,jを更
新する。 Di,j=min(D′i,j,D″i+1,j+1,D″i,j+1+1)……式(10) 上式(10)によって得られたDi,jが距離画像の各画
素データとなる。
【0060】したがって、これら得られた距離画像か
ら、距離値が最大となる画素を求め、この画素を頭部領
域の重心とする。
【0061】〔目、鼻、口の候補領域抽出〕つぎに、部
位領域抽出手段6は、頭部領域に含まれる画素のうち、
輝度値が所定の閾値以上の画素を除去して、両目や口、
鼻などの暗い部分を残すことで、両目、口、鼻の候補と
なる部位候補領域を抽出する(ステップS340)。例
えば、図8(a)に示す塗りつぶし後の頭部領域に対
し、輝度値が閾値以上の画素を除去すると、図8(b)
に示すように、両目、口、鼻の候補領域が残されること
になる。
【0062】(b)キャリブレーション手段7での処理 つぎに、図9〜図11を用いて、キャリブレーション手
段7の鼻位置検出手段9、両目位置検出手段10、口位
置検出手段11、テンプレート格納手段12が行う図2
のステップS140〜S160の処理の詳細について説
明する。
【0063】図9は、キャリブレーション手段7におけ
る鼻位置検出手段9、両目位置検出手段10、口位置検
出手段11、テンプレート格納手段12の動作を説明す
るためのフローチャートである。
【0064】〔鼻位置検出〕キャリブレーション手段7
の鼻位置検出手段9は、部位領域抽出手段6が抽出した
両目、口、鼻についての候補領域の中から、先のステッ
プS330で求めた頭部領域の重心に最も近い候補領域
を鼻領域とする(ステップS400)。
【0065】〔両目、口位置検出〕次に、ステップS4
00で求めた鼻領域に外接する外接矩形を求め、図10
に示すように、外接矩形の主走査方向に延びる2本の水
平線34を画像の縁まで延長してマスク画像から鼻存在
範囲38を分割する。さらに、鼻領域の外接矩形の中心
座標を基準にして、上記2本の水平線34のうちの上側
水平線に対し垂直な垂直線35を上方側に延ばし、これ
ら2本の水平線34および垂直線35によってマスク画
像を4分割する。そして分割された左上領域36を左目
存在範囲とし、右上領域37を右目存在範囲、2本の水
平線で囲まれた領域を鼻存在範囲38とし、下側領域3
9を口存在範囲とする(ステップS410)。
【0066】つぎに、両目位置検出手段10は、左目存
在範囲36に含まれる複数の候補領域から鼻領域に最も
近い候補領域を抽出し、該抽出した候補領域を左目領域
とする。同様に、両目位置検出手段10は、右目存在範
囲37に含まれる複数の候補領域から鼻領域に最も近い
候補領域を抽出し、該抽出した候補領域を右目領域とす
る。さらに、口位置検出手段11は、口存在範囲39に
含まれる複数の候補領域から鼻領域に最も近い候補領域
を抽出し、該抽出した候補領域を口領域とする(ステッ
プS420)。
【0067】〔両目、口のテンプレート作成〕つぎに、
テンプレート格納手段12は、図11に示すように、ス
テップS420で求めた左目領域を含む一定の大きさの
矩形状の周囲画像を切り取り、それを左目用のテンプレ
ート41として格納する。同様に、右目領域を含む矩形
状の周囲画像を切り取り、それを右目用のテンプレート
42として格納する。さらに、口領域を含む矩形状の周
囲画像を切り取り、それを口用のテンプレート43とし
て格納保存する(ステップS430)。
【0068】〔3次元簡易CGモデル生成〕つぎに、図
12〜図15を用いて、キャリブレーション手段7のC
Gモデル生成手段13が行う図2のステップS170の
処理の詳細について説明する。図12は、キャリブレー
ション手段7におけるCGモデル生成手段13の動作を
説明するためのフローチャートである。
【0069】まず、CGモデル生成手段13は、図13
に示すように、両目位置検出手段10で検出した左目領
域、右目領域の中心を結ぶ両目ベクトル45を求め、こ
の両目ベクトル45を用いて頭部のZ軸周りの回転角θ
を求める(ステップS500)。この場合の、座標系
は、左目の中心を原点とし、画像の垂直方向をY軸、水
平方向をX軸として設定する。
【0070】なお、図14に示すように、その後生成す
る楕円体50の中心を原点とし、楕円体50の長軸方向
をY軸、短軸方向をX軸、Y軸とX軸でできる平面に垂
直な方向をZ軸方向(正面方向)と定め、初期状態では
頭部はZ軸方向に向いていると仮定する。ここで、回転
角θを求めるのは、ユーザに対してカメラの正面を向い
て静止するように要求しても、頭部が多少X,Y,Z方
向に回転している(首を傾げている)場合があるためで
ある。
【0071】回転角θは、次式で求めることができる。 θ=arctan((y2−y1)/(x2−x1))……式(11) なお、(x1,y1)は左目の座標、(x2,y2)は
右目の座標とする。
【0072】つぎに、CGモデル生成手段13は、求め
た回転角θを基に、両目ベクトル45が水平になるよう
に頭部領域をZ軸回りに回転させる(ステップS51
0)。
【0073】ここで、頭部領域内の各画素の回転前の座
標を(xi´,yi´)とし、回転後の座標を(xi,
yi)とすると、各画素の回転後の座標位置は次式で求
めることができる。
【0074】
【数2】
【0075】つぎに、CGモデル生成手段13は、式
(12)で求めた回転後の頭部領域内の各画素の座標か
ら回転後の頭部領域に外接する矩形を求め、この外接矩
形の幅および高さを求める(ステップS520)。そし
て、CGモデル生成手段13は、頭部領域の幅が短軸と
なり、頭部領域の高さが長軸となるような3次元の楕円
体50(図14参照)を生成する(ステップS53
0)。この3次元の楕円体50が、3次元の簡易CG頭
部モデルとなる。
【0076】ここでは、平行投影を仮定する。CGモデ
ル生成手段13は、キャプチャ画像面を投影面としたと
き、両目位置検出手段10および口位置検出手段11で
検出した投影面上の左目、右目、口の位置から、この投
影面に対して垂直な直線を伸ばしたときに楕円体50の
表面と交わる位置(3次元)に、図15に示すように、
左目用,右目用,口用のマーキング51,52,53を
行う(ステップS540)。なお、マーキングする両
目、口位置の座標は、頭部領域の重心を原点(中心)と
した相対座標とする。
【0077】このように、両目および口の位置を楕円体
にマーキングすることで、3次元の簡易CG頭部モデル
を作成する。この簡易CG頭部モデルは、その後の処理
で、頭部の3次元回転角を求めるなどのために用いられ
る。
【0078】〔開および閉状態の目口の大きさ取得〕つ
ぎに、図16を用いて、キャリブレーション手段7の初
期状態記憶手段14が行う図2のステップS180〜S
210の処理の詳細について説明する。図16は、キャ
リブレーション手段7の初期状態記憶手段14の動作を
説明するためのフローチャートである。
【0079】初期状態記憶手段14は、まずユーザに対
して「カメラに向かって両目と口を開けて静止する」よ
うに要求し(ステップS600)、頭部追跡手段3、部
位領域抽出手段6、両目位置検出手段10および口位置
検出手段11を前記と同様に動作させて、開状態にある
各目および口の位置を検出する(ステップS610)。
さらに、CGモデル生成手段13を前記同様に動作させ
て、両目ベクトル45およびその回転角θを求め(ステ
ップS620)、その角度θに基づいて両目ベクトル4
5が水平になるように頭部領域を回転させる(ステップ
S630)。さらに、前記と同様にして、このときの両
目および口領域の外接矩形の高さ(Y方向の長さ)と頭
部領域の外接矩形の高さとの比率(左目領域の高さと頭
部領域の高さとの比率、右目領域の高さと頭部領域の高
さとの比率、口領域の高さと頭部領域の高さとの比率)
をそれぞれ求め、これら開いた状態での各部位の比率
を、開状態での各部位の大きさを示す情報osとして夫
々記憶する(ステップS640)。
【0080】同様に、ユーザに対して「カメラに向かっ
て両目と口を閉じて静止する」ように要求し(ステップ
S650)、ステップS610〜S640の処理を再度
繰り返すことにより、閉じた状態での各部位の比率を夫
々求め、これら求めた各部位の比率を閉状態での各部位
の大きさを示す情報csとして夫々記憶する
【0081】なお、この時点で求めた開状態および閉状
態での両目,口の大きさを示す情報os,csは、その
後の追跡処理で行われるキャラクタ制御パラメータ(各
部位の開閉状態パラメータSP)の導出処理(式(1
8)参照)の際に用いられる。
【0082】以上により、キャプチャした映像を追跡処
理してその追跡結果に基づきCGキャラクタを制御する
追跡処理の前段階の処理である前処理が終了する。
【0083】(c)キャラクタ制御パラメータ計測手段
8での処理 つぎに、映像取込手段1で所定のフレームレートで順次
取り込まれる現フレームの映像に基くCGキャラクタの
制御処理(追跡処理)を実行する。これら一連の追跡処
理は、ユーザから追跡開始要求を受けることで、開始さ
れる。
【0084】〔両目および口の候補領域特定〕つぎに、
図17および図18を用いて、キャラクタ制御パラメー
タ計測手段8における両目位置追跡手段15および口位
置追跡手段16が行う図2のステップS220の処理の
詳細について説明する。図17は、キャラクタ制御パラ
メータ計測手段8の両目位置追跡手段15および口位置
追跡手段16の動作を説明するためのフローチャートで
ある。
【0085】このキャラクタ制御パラメータ計測手段8
での追跡処理が行われる前に、図2を用いて説明したよ
うに、頭部追跡手段3により、キャプチャした現フレー
ムの映像から頭部領域が抽出され、さらに、部位領域抽
出手段6により、現フレーム映像から両目、口の候補と
なる領域が抽出される。ここで、前述した前処理では、
図10に示した手法(領域分割および鼻位置に基づく両
目および口候補の特定)を用いて各部位についての1〜
複数の候補領域から各部位の候補領域を択一選択するよ
うにしたが、キャラクタ制御パラメータ計測手段8の両
目位置追跡手段15および口位置追跡手段16での処理
では、上記前処理での手法とは異なる手法を用いて各部
位の候補領域を特定するようにしている。
【0086】まず、前フレームの取り込み画像によって
求められた頭部の姿勢情報を基に3次元の簡易モデルを
回転させてレンダリングしたとき、先の前処理のステッ
プS540でマーキングした各部位のマーカ(図15参
照)が投影面に投影されるか、つまり、両目、口の中で
隠れて見えないものがあるか否かをチェックし(ステッ
プS700)、隠れていない部位のみに対して以下の処
理を各部位について個々に行う(ステップS710)。
【0087】つぎに、頭部追跡手段3および部位領域抽
出手段6によって求められた現フレームの各部位(両
目,口)についての1〜複数の候補領域に対して、図1
8に示すように、前フレームの両目および口の検出位置
を中心位置60,61,62とした所定の大きさの探索
範囲63,64,65を設定する(ステップS72
0)。なお、前述したように、ステップS700で隠れ
ていると判定された部位(左目、右目、口)について
は、上記探索範囲の設定は行わない。
【0088】つぎに、設定された各探索範囲63,6
4,65内に入る候補領域をそれぞれの部位の候補領域
とみなし、各候補領域の中心座標と前フレームでの検出
位置60,61,62との距離dをそれぞれの部位につ
いて求める(ステップS730)。なお、求めた距離
は、次式(13)で正規化する。 nd=d/md……式(13) なおndは距離dを正規化した距離、dは前フレームで
の検出位置(探索範囲の中心60,61,62)と各候
補領域とのユークリッド距離、mdは前フレームでの検
出位置と探索範囲の頂点(矩形の頂点)とのユークリッ
ド距離である。
【0089】更に、各候補領域の中心座標を中心とする
予め定めた大きさの矩形の周囲画像を切り出し、該切り
出した各周囲画像と、記憶された前フレームにおける各
部位についてのテンプレートとの輝度の差分を求める
(ステップS740)。この場合は差分として、平均二
乗誤差eを求めるようにしている。なお、輝度値は
[0,1]に正規化されているとする。
【0090】最後に、次式(14)で示す評価関数に、
ステップS730で求めた距離ndと、ステップS74
0で求めた誤差を代入して評価値を求め、評価値が最小
となる領域を各部位の候補領域とする(ステップS75
0)。 f(nd,e)=w1・nd+w2・e……式(14) w1,w2は重み係数である。
【0091】すなわち、前フレームの各部位の検出位置
と現フレームでの各候補領域との距離と、テンプレート
を用いた前フレームの画像と現フレームの画像との一致
度とを考慮して、各部位の候補領域を特定するようにし
ている。具体的には、抽出した現フレーム領域から、前
フレームで検出した位置に近く、かつ前フレームに記憶
したテンプレートと誤差が少ない領域を左目、右目およ
び口の候補領域として選択している。
【0092】〔追跡結果の検証およびキャラクタ制御パ
ラメータの計測〕つぎに、図19および図20を用い
て、キャラクタ制御パラメータ計測手段8における追跡
結果検証手段17、制御パラメータ計測手段18が行う
図2のステップS230,S240の処理の詳細につい
て説明する。図19は、キャラクタ制御パラメータ計測
手段8の追跡結果検証手段17、制御パラメータ計測手
段18の動作を説明するためのフローチャートである。
【0093】まず、追跡結果検証手段17は、頭部領域
の重心を原点とし、前フレームで計測したZ軸周りの回
転角を基に、図20に示すローカル座標系55を設定す
る(ステップS800)。すなわち、前フレームで計測
したZ軸周りの回転角θを基に、前フレームの左目の検
出位置と前フレームの右目の検出位置を結ぶ線がX軸と
平行になるようなローカル座標系を設定する。
【0094】つぎに、設定した前記ローカル座標系にお
いて、前フレームで検出した各部位の位置と、先の図1
7のステップS750で求めた現フレームにおける各部
位の候補領域の中心座標との、X軸およびY軸方向への
移動量を次式にしたがって求める(ステップS81
0)。 xld=xl,t―xl,t-1ld=yl,t―yl,t-1rd=xr,t―xr,t-1 ……式(15) yrd=yr,t―yr,t-1md=xm,t―xm,t-1md=ym,t―ym,t-1
【0095】なお、xldは左目のX方向の誤差(移動
量)、xl,tは左目の現フレームでの候補領域の中心X
座標、xl,t-1は左目の前フレームの検出位置のX座
標、yldは左目のY方向の誤差(移動量)、yl,tは左
目の現フレームでの候補領域の中心Y座標、yl,t-1
左目の前フレームの検出位置のY座標、xrdは右目のX
方向の誤差(移動量)、xr,tは右目の候補領域の現フ
レームでの中心X座標、xr ,t-1は右目の前フレームの
検出位置のX座標、yrdは右目のY方向の誤差(移動
量)、yr,tは右目の現フレームでの候補領域の中心Y
座標、yr,t-1は右目の前フレームの検出位置のY座
標、xmdは口のX方向の誤差(移動量)、xm,tは口の
現フレームでの候補領域の中心X座標、xm,t-1は口の
前フレームの検出位置のX座標、ymdは口のY方向の誤
差(移動量)、ym,tは口の現フレームでの候補領域の
中心Y座標、ym,t-1は口の前フレームの検出位置のY
座標である。なお、図17のステップS700で隠れた
領域として判定された部位は対象外とする。
【0096】つぎに、ステップS810で求めた各部位
についての前フレームでの検出位置から現フレームでの
検出位置への移動量(xld 2+yld 21/2、(xrd 2+y
rd 21/2、(xmd 2+ymd 21/2に基づいて、X軸およ
びY軸回りの頭部の回転角を推定する(ステップS82
0)。この回転角の推定するためには、回転半径が必要
である。本CGキャラクタ制御装置では、楕円体の簡易
CGモデルを用いていることから、CGモデル生成手段
13で先の前処理のステップS540でマーキングした
左目、右目および口のマーカのX,Y座標から左目、右
目および口の移動量に基づき頭部の回転角を夫々推定す
る際の回転半径を次式(16)で夫々求めることができ
る。 rx=b(x2−a21/2y=a(y2−b21/2 ……式(16)
【0097】rxはX軸回りの回転半径、ryはY軸回り
の回転半径、aは短軸/2、bは長軸/2、x、yは各
部位(左目、右目、口)についてのマーキング時のXY
座標である。すなわち、回転半径rx、ryについては、
左目についての回転半径rlx、rlyと、右目についての
回転半径rrx、rryと、口についての回転半径rmx、r
myとが求められる。
【0098】よって、各部位のX軸およびY軸方向の移
動量から各部位のX,Y軸回りの回転角は次式で求める
ことができる(ステップS820)。 θx=2arcsin(yd/2rx) θy=2arcsin(xd/2ry) ……式(17) θxはX軸周りの回転角、θyはY軸周りの回転角、x
d、ydは各部位のXおよびY方向の移動量である。
【0099】すなわち、左目の移動量に基づくX,Y軸
回りの推定回転角θxl,θylは、 θxl=2arcsin(yld/2rlx) θyl=2arcsin(xld/2rly) となり、右目の移動量に基づくX,Y軸回りの推定回転
角θxr,θyrは、 θxr=2arcsin(yrd/2rrx) θyr=2arcsin(xrd/2rry) となり、口の移動量に基づくX,Y軸回りの推定回転角
θxm,θymは、 θxm=2arcsin(ymd/2rmx) θym=2arcsin(xmd/2rmy) となる。
【0100】つぎに、ステップS820で求めた左目、
右目、口に関する各推定回転角を用いて個々に簡易CG
モデルを回転させて、投影面に投影したときの各部位に
ついてのマーカの位置と、先のステップS750で求め
た対応する各部位の候補領域の中心との距離の合計を求
める(ステップS830)。
【0101】すなわち、左目の移動量から求めた推定回
転角θxl,θylだけ簡易CGモデルを回転させて投
影面に投影したときにおける左目マーカの位置、右目マ
ーカの位置および口マーカの位置を求め、該求めた左目
マーカの位置と先のステップS750で求めた左目の候
補領域の中心との距離と、右目マーカの位置と先のステ
ップS750で求めた右目の候補領域の中心との距離
と、口マーカの位置と先のステップS750で求めた口
の候補領域の中心との距離との合計Llを求める。
【0102】同様に、右目の移動量から求めた推定回転
角θxr,θyrだけ簡易CGモデルを回転させて投影
面に投影したときにおける左目マーカの位置、右目マー
カの位置および口マーカの位置を求め、該求めた左目マ
ーカの位置と先のステップS750で求めた左目の候補
領域の中心との距離と、右目マーカの位置と先のステッ
プS750で求めた右目の候補領域の中心との距離と、
口マーカの位置と先のステップS750で求めた口の候
補領域の中心との距離との合計Lrを求める。
【0103】さらに、口の移動量から求めた推定回転角
θxm、θymだけ簡易CGモデルを回転させて投影面
に投影したときにおける左目マーカの位置、右目マーカ
の位置および口マーカの位置を求め、該求めた左目マー
カの位置と先のステップS750で求めた左目の候補領
域の中心との距離と、右目マーカの位置と先のステップ
S750で求めた右目の候補領域の中心との距離と、口
マーカの位置と先のステップS750で求めた口の候補
領域の中心との距離との合計Lmを求める。
【0104】さらに、上記で求められた、左目に関する
距離の合計Llと、右目に関する距離の合計Lrと、口
に関する距離の合計Lmを比較し、これらのうち最小と
なるものを選択する(ステップS840)。
【0105】そして、ステップS840で選択した最小
となる距離合計が、予め設定した所定の閾値より大きけ
れば(ステップS850)、両目位置追跡手段15、口
位置追跡手段16の追跡結果が矛盾しているとして、図
17のステップS700から両目位置追跡手段15、口
位置追跡手段16での処理をやり直す(ステップS86
0)。
【0106】一方、ステップS850で選択した最小と
なる距離合計が閾値以下であれば(ステップS85
0)、現フレームの映像に基づいてX軸、Y軸、Z軸回
りの頭部の回転角を求め直す。なぜならば、前述までの
処理では、前フレームにおけるZ軸周りの回転を基準に
して頭部回転角を求めているためである。
【0107】ステップS850で選択した最小の距離合
計に対応するX軸、Y軸周りの回転角と、前フレームに
おけるZ軸周りの回転角を用いて簡易CGモデルを回転
し、投影面に投影したときに各部位のマーカと重なる候
補領域が位置関係に矛盾の無い現フレームにおける各部
位の候補領域となる。したがって、この実施の形態1で
は、前述したステップS800〜S850の処理を行
い、前記距離合計が閾値より大きいときは、図17のス
テップS700から両目位置追跡手段15、口位置追跡
手段16および追跡結果検証手段17での処理をやり直
して、前記距離合計が閾値以下になるまで各部位の候補
位置を求め直すことで、各部位について、位置関係に矛
盾のない候補領域を特定するようにしている。そして、
このようにして求められた位置関係に矛盾のない各部位
の候補領域の位置に基づいて、続くステップS870〜
S900での処理手順を行うことにより、現フレームに
ついての頭部回転角を導出するようにしている。
【0108】すなわち、まず、制御パラメータ計測手段
18は、上記導出された現フレームにおける各部位の候
補領域を調べ、左目および右目の候補領域がいずれも隠
れていなければ、左目候補の中心座標と右目候補領域の
中心座標とを結ぶベクトルから、前述した手法で現フレ
ームのZ軸周りの回転角Θzを求める。もし、片方の目
が隠れているのであれば、他方の目の候補領域の中心座
標と口候補領域の中心座標を結ぶベクトルから現フレー
ムのZ軸周りの回転角Θzを求める(ステップS87
0)。
【0109】そして、これ以降、先に説明したステップ
S800〜S820と同様の処理を実行することで、現
フレームにおけるX軸およびY軸周りの回転角Θx,Θ
yを求める(ステップS880〜S900)。
【0110】すなわち、ステップS870で求めた現フ
レームについてのZ軸回りの回転角Θzに基づき画像面
における頭部のローカル座標系を設定し(ステップS8
80)、該設定したローカル座標系における左目、右目
および口についてのX軸およびY軸方向の移動量を夫々
求め(ステップS890)、さらにこれらの求めた左
目、右目および口についての移動量から頭部のX軸回り
およびY軸回りの回転角Θx,Θyを求める(ステップ
S900)。
【0111】このようにして求めた頭部のX軸,Y軸,
Z軸回りの回転角Θx,Θy,Θzは、頭部姿勢情報と
して、キャラクタ制御手段20に入力される。
【0112】つぎに、制御パラメータ計測手段18は、
現フレームにおける左目領域、右目領域および口領域の
大きさsを、先のステップS610〜S640で説明し
た手法と同様にして求め、さらに、ステップS610〜
S640での処理で求められた開状態および閉状態での
両目,口の大きさを示す情報os,csを用い、次式
(18)に従って現フレームの各部位の開閉状態パラメ
ータSPを求める(ステップS910)。 SP=(s−cs)/os−cs ……式(18) なお、sは現フレームでの各部位の大きさ、osは初期
状態記憶手段14に記憶されている開状態での各部位の
大きさ、csは初期状態記憶手段14に記憶されている
閉状態での各部位の大きさである。
【0113】このようにして求めた各部位の開閉状態パ
ラメータSPは、各部位の開閉状態情報として、キャラ
クタ制御手段20に入力される。
【0114】最後に、テンプレート更新手段19は、現
フレームにおける左目、右目、口部分の位置に基づき、
左目、右目、口部分を夫々含む所定の大きさの周囲画像
を現フレームから切り取り、該切り取った3つの画像を
左目、右目、口部分のテンプレートとして取得する。そ
して、これら取得した現フレームについてのテンプレー
トで、前フレームについてのテンプレートを更新する。
【0115】最後に、キャラクタ制御手段20が、以上
のようにして求めた頭部の姿勢情報(頭部回転角)と両
目,口の開閉情報(開閉状態パラメータSP)を用いて
制御対象としての3次元のCGキャラクタの動きを制御
する。
【0116】このような処理が、映像取込手段1によっ
て順次取り込まれる各フレーム単位に繰り返し実行され
る。
【0117】このようにこの実施の形態1においては、
全ての処理をソフトウェアで実現したので、従来の3次
元頭部姿勢計測装置のように特殊なハードウェアを必要
としない。また、頭部追跡手段3に頭部領域抽出手段5
を設け、この頭部領域抽出手段5によって肌色抽出の結
果から最大領域を選択して、最大領域内に発生している
複数の小さな部位候補領域やノイズ領域24を肌色に置
き換える処理を行うようにしているので、肌色領域抽出
手段4だけでは捉えることが困難な頭部領域全体を正確
に抽出することができる。また、部位領域抽出手段6を
設け、この部位領域抽出手段6によって各部位の候補領
域を抽出するようにしているので、処理対象が限定さ
れ、処理の高速化が図れる。また、追跡結果検証手段1
7におけるテンプレートマッチング処理を、部位領域抽
出手段6で抽出した領域の中心を基準とした周囲画像と
の差分を求めることのみで行うようにしたので、従来の
テンプレートマッチング処理のようにマッチングウィン
ドウ内で1画素ずつ移動させながら差分を求める方式に
比べ非常に計算効率が高く、特に計算資源に乏しいハー
ドウェアを用いる場合でも処理時間の短縮が可能であ
る。
【0118】さらに、この実施の形態1においては、C
Gモデル生成手段13、追跡結果検証手段17、制御パ
ラメータ計測手段18を設け、これらによって、画像処
理で得られた各部位の位置を用いて簡易CGモデル(3
次元モデル)をフィッティングさせて頭部の3次元回転
角を推定するようにしているので、画像処理のみで3次
元的回転角を求めるためには複雑な計算を行う必要があ
った従来の問題を解決し、3次元的回転角計測のための
計算量を大幅に削減でき、特に計算資源に乏しいハード
ウェアを用いる場合でも処理時間の短縮が可能である。
また、3次元の簡易CGモデルを用いることにより、処
理対象となる左目、右目、口のいずれかが隠れているか
否かが容易に判定可能で、かつ、処理対象の一部が隠れ
ていても頭部の3次元回転角を適切に求めることが可能
である。
【0119】なお、上記実施の形態1においては、左
目、右目および口に関する各推定頭部回転角を用いて個
々に簡易CGモデルを回転させて、投影面に投影したと
きの各マーカの位置と、対応する候補領域の中心との距
離の合計を夫々求め、これらの合計のうちの最小となる
ものを選択して、該選択した値を閾値と比較することに
より、追跡結果の検証をおこなうようにしたが、左目、
右目および口の何れかに関する各推定頭部回転角を用い
て同様の処理を行うようにしてもよい。
【0120】実施の形態2.つぎに、この発明の実施の
形態2を図21〜図23を用いて説明する。図21は、
実施の形態2のCGキャラクタ制御装置の概念的構成を
示すものである。
【0121】この図21に示す実施の形態2のCGキャ
ラクタ制御装置においては、頭部追跡手段3に肌色領域
抽出パラメータ調整手段57を追加し、この肌色領域抽
出パラメータ調整手段57によって、CGキャラクタ制
御装置が利用される照明条件下における肌色の範囲を自
動的に調整している。他の構成要素については、先の図
1に示すものと同じ機能を実行可能であり、重複する説
明は省略する。
【0122】図22は、肌色領域抽出パラメータ調整手
段57の動作を示すフローチャートであり、この図22
に従って肌色領域抽出パラメータ調整手段57の動作を
説明する。
【0123】まず、肌色領域抽出パラメータ調整手段5
7は、図23に示すように、映像取込手段1がキャプチ
ャした映像に重ねて、矩形枠から成るウィンドウ58を
表示し(ステップS1010)、ユーザに対して頬がウ
ィンドウ58内に入るように顔を移動する旨を要求する
(ステップS1020)。ユーザは、表示された映像を
見ながら、頬がウィンドウ58内に入るように顔を移動
し、キーを押すあるいはマウスをクリックするなどの合
図を本CGキャラクタ制御装置送る。この合図を受け
ると、肌色領域抽出パラメータ調整手段57は、ウィン
ドウ58内の画素値を、先の式(4)および式(5)を
用いて、肌色抽出色空間C1−C2の画素値に変換する
(ステップS1030)。そして、変換した結果から、
式(4)のC1の最大値と最小値と、式(5)のC2の
最大値と最小値をそれぞれ求め、それらを肌色抽出のた
めの閾値th1、th2、th3、th4として設定す
る(ステップS1040)。
【0124】このようにこの実施の形態2においては、
肌色領域抽出パラメータ調整手段57によって肌色の範
囲をキャプチャした被写体本人の画像に応じて自動設定
するようにしているので、異なる照明条件あるいは各人
の肌色の違いに適応して肌色抽出を確実に行うことが可
能となる。
【0125】実施の形態3.実施の形態3においては、
図1あるいは図21の両目位置追跡手段15および口位
置追跡手段16で行うテンプレートマッチング処理のマ
ッチング関数を二乗誤差ではなく、次式によって求める
ようにしている。
【0126】
【数3】
【0127】なお、vはテンプレート画素と対象画素と
の輝度の差、σは標準偏差である。式(19)は、テン
プレートとの輝度の差を正規分布で近似したものであ
り、標準偏差は予めサンプリングした上記輝度差vから
求める。
【0128】なお、標準偏差σを多くのサンプリング結
果から求めることができるとすると、テンプレートマッ
チングの誤差の許容範囲を予め知ることができる。よっ
て両目位置追跡手段15、口位置追跡手段16における
マッチング精度が向上する効果がある。
【0129】
【発明の効果】以上説明したように、この発明によれ
ば、前フレーム画像における左目、右目、口の推定位置
と、現フレーム画像における左目、右目、口の推定位置
とに基づき各部位の前フレーム画像および現フレーム画
像間での移動ベクトルを求め、該移動ベクトルを用いて
頭部の回転角を求めるようにしているので、少ない計算
資源でも簡単、高速にかつロバストに頭部の3次元姿勢
を計測することができる。また、簡易CG頭部モデルを
用いて部位の推定結果を検証して頭部姿勢を計測してい
るので、頭部姿勢を効率がよくかつ高精度に検出するこ
とができる。また、3次元の簡易CG頭部モデルを用い
ることにより、処理対象となる左目、右目、口のいずれ
かが隠れているか否かが容易に判定可能で、かつ、処理
対象の一部が隠れていても頭部の3次元回転角を適切に
求めることが可能である。
【0130】
【0131】
【0132】
【0133】
【0134】
【0135】
【0136】
【図面の簡単な説明】
【図1】 この発明にかかるCGキャラクタ制御装置の
実施の形態1の構成を示す機能ブロック図である。
【図2】 実施の形態1のCGキャラクタ制御装置の全
体的概略動作を示すフローチャートである。
【図3】 肌色抽出および頭部抽出処理を示すフローチ
ャートである。
【図4】 入力画像から肌色画素を抽出した結果の一例
を示す図である。
【図5】 肌色領域抽出結果を基に抽出した頭部領域の
一例を示す図である。
【図6】 抽出した頭部領域に連結部が生じている場合
に、膨張縮退処理により裂け目を修正した結果の一例を
示す図である。
【図7】 膨張処理マスクおよび収縮処理マスクを示す
図である。
【図8】 抽出した頭部領域画素から輝度が閾値以上の
画素を除去し、両目、口、鼻領域の候補を抽出した結果
の一例を示す図である。
【図9】 鼻位置検出、両目位置検出、口位置検出およ
びテンプレート格納の動作を説明するためのフローチャ
ートである。
【図10】 検出した鼻領域を基にマスク画像を分割し
た結果を示した図である。
【図11】 検出した両目、口の周囲画像をテンプレー
トとして切出すときの範囲の一例を示した図である。
【図12】 簡易CGモデルを作成するための処理手順
を示すフローチャートである。
【図13】 検出した両目位置から頭部のZ軸周りの回
転角を求めるための両目ベクトルを示した図である。
【図14】 生成した楕円体モデルとその座標系を説明
するための図である。
【図15】 検出した両目位置、口位置に基づいて生成
した楕円体モデルにマーキングした結果を示した図であ
る。
【図16】 開状態および閉状態での各部位の大きさを
測定する処理手順を示すフローチャートである。
【図17】 現フレームでの各部位の候補領域を抽出す
るための処理手順を示すフローチャートである。
【図18】 前フレームで検出した両目、口位置を中心
に設定した探索範囲を示した図である。
【図19】 追跡結果検証および制御パラメータ計測の
処理手順を示すフローチャートである。
【図20】 頭部のX軸、Y軸周りの回転角を求めるた
めに設定した頭部領域のローカル座標系を示した図であ
る。
【図21】 この発明にかかるCGキャラクタ制御装置
の実施の形態2の構成を示す機能ブロック図である。
【図22】 実施の形態2の特徴的な処理手順を示すフ
ローチャートである。
【図23】 肌色サンプリングのための表示画像を示す
図である。
【図24】 従来技術を説明するための図である。
【符号の説明】
1 映像取込手段、2 表情追跡手段、3 頭部追跡手
段、4 肌色領域抽出手段、5 頭部領域抽出手段、6
部位領域抽出手段、7 キャリブレーション手段、8
キャラクタ制御パラメータ計測手段、9 鼻位置検出
手段、10 両目位置検出手段、11 口位置検出手
段、12 テンプレート格納手段、13モデル生成手
段、14 初期状態記憶手段、15 両目位置追跡手
段、16 口位置追跡手段、17 追跡結果検証手段、
18 制御パラメータ計測手段、19テンプレート更新
手段、20 キャラクタ制御手段、21 キャラクタデ
ータ記憶部、22 入力画像、23 マスク画像、24
小領域(ノイズ領域)、25 背景領域、26 連結
部、28 膨張マスク、29 収縮マスク、36 左目
存在範囲、37 右目存在範囲、38 鼻存在範囲、3
9 口存在範囲、40楕円体、41,42,43 テン
プレート、45 両目ベクトル、50 楕円体、51,
52,53 マーキング、57 肌色領域抽出パラメー
タ調整手段、58 ウィンドウ。
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI G06T 7/60 150 G06T 7/60 150B (56)参考文献 特開2001−215605(JP,A) 特開2001−101429(JP,A) 特開2000−339468(JP,A) 特開2000−331190(JP,A) 特開2000−306106(JP,A) 特開2000−132693(JP,A) 特開2000−97676(JP,A) 特開 平11−15947(JP,A) 特開 平9−171560(JP,A) 特開 平8−272973(JP,A) 特開 平8−272948(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 15/70 G06T 1/00 340 G06T 7/00 100 G06T 7/00 300 G06T 7/20 300 G06T 7/60 150 JICSTファイル(JOIS)

Claims (11)

    (57)【特許請求の範囲】
  1. 【請求項1】 人物を撮像した各フレーム画像から人物
    の頭部領域を順次抽出し、抽出した頭部領域から目、口
    の位置を検出し、該検出位置に基づいて頭部の姿勢を計
    測する頭部姿勢計測装置において、 各フレーム画像から人物の頭部領域を抽出して、左目、
    右目、口の位置を推定する部位位置追跡手段と、 この部位位置追跡手段による左目および右目の推定位置
    を結ぶ両目ベクトルを求め、この両目ベクトルを用いて
    頭部の撮像正面方向軸周りについての第1の回転角を求
    めるとともに、前フレーム画像における左目、右目、口
    の推定位置と、現フレーム画像における左目、右目、口
    の推定位置とに基づき左目、右目、口の前フレーム画像
    および現フレーム画像間での移動ベクトルを求め、該移
    動ベクトルを用いて頭部の前記撮像正面方向に垂直な2
    つ軸周りについての第2および第3の回転角を求める頭
    部回転角演算手段と、 を備えたことを特徴とする頭部姿勢計測装置。
  2. 【請求項2】 前記頭部回転角演算手段は、 前フレーム画像における左目、右目、口の推定位置と、
    現フレーム画像における左目、右目、口の推定位置とに
    基づき左目、右目、口の前フレーム画像および現フレー
    ム画像間での移動ベクトルを求め、該求めた左目、右
    目、口の移動ベクトルに基づき前記第2および第3の回
    転角を各移動ベクトル毎に各別に求め、これら各移動ベ
    クトル毎に求めた3組の第2および第3の回転角のう
    ち、前フレームおよび現フレーム間での左目の移動量と
    右目の移動量と口の移動量との合計が最も少ない組の第
    2および第3の回転角を選択することを特徴とする請求
    項1に記載の頭部姿勢計測装置。
  3. 【請求項3】 前記頭部回転角演算手段は、 人物を正面から撮像したフレーム画像から人物の頭部領
    域を抽出し、該抽出した頭部領域に対応する3次元の簡
    易CG頭部モデルを作成し、該作成した簡易CG頭部モ
    デルに対し前記部位位置追跡手段によって推定した左
    目、右目、口の位置に対応するマーキングを行う簡易C
    G頭部モデル作成手段をさらに備え、 前記頭部回転角演算手段は、 前フレーム画像における左目、右目、口の推定位置と、
    現フレーム画像における左目、右目、口の推定位置とに
    基づき左目、右目、口の前フレーム画像および現フレー
    ム画像間での移動ベクトルを求め、該求めた左目、右
    目、口の移動ベクトルに基づき前記第2および第3の回
    転角を各移動ベクトル毎に各別に求め、 前記簡易CG頭部モデルを前記3組の第2および第3の
    回転角だけ夫々回転させたときの前記左目マーキング、
    右目マーキングおよび口マーキングを所定の投影面に夫
    々投影し、該投影面上での左目、右目および口の2次元
    位置と前記部位位置追跡手段によって推定した左目、右
    目および口の推定位置との間の各距離の合計を前記3組
    の回転角毎に求め、これら3つの距離の合計のうちの最
    小値を選択し、選択した最小値が所定の閾値より小さい
    ときに、前記推定した左目、右目および口の位置が適正
    な位置であるとして最小値に対応する組の第2および第
    3の回転角を選択し、前記距離が所定の閾値より大きい
    ときは、前記部位位置追跡手段での推定処理を再実行さ
    せることを特徴とする請求項1に記載の頭部姿勢計測装
    置。
  4. 【請求項4】 前記頭部回転角演算手段は、 人物を正面から撮像したフレーム画像から人物の頭部領
    域を抽出し、該抽出した頭部領域に対応する3次元の簡
    易CG頭部モデルを作成し、該作成した簡易CG頭部モ
    デルに対し前記部位位置追跡手段によって推定した左
    目、右目、口の位置に対応するマーキングを行う簡易C
    G頭部モデル作成手段をさらに備え、 前記頭部回転角演算手段は、 前フレーム画像を用いて計測した撮像正面方向軸周りに
    ついての第1の回転角に基づき、前フレームの左目の推
    定位置と前フレームの右目の推定位置を結ぶ線が撮像正
    面方向軸に直角な軸と平行になるように座標系を設定
    し、該設定した座標系を用いて求めた左目、右目、口に
    ついての前記移動ベクトルに基づき前記第2および第3
    の回転角を各移動ベクトル毎に各別に求め、 前記簡易CG頭部モデルを前記3組の第2および第3の
    回転角だけ夫々回転させたときの前記左目マーキング、
    右目マーキングおよび口マーキングを所定の投影面に夫
    々投影し、該投影面上での左目、右目および口の2次元
    位置と前記部位 位置追跡手段によって推定した左目、右
    目および口の候補領域との間の各距離の合計を前記3組
    の回転角毎に求め、これら3つの距離の合計のうちの最
    小値を選択し、選択した距離が所定の閾値より大きいと
    きは、前記部位位置追跡手段での推定処理を再実行さ
    せ、選択した距離が所定の閾値より小さいときは、前記
    推定した左目、右目および口の位置が適正な位置である
    と判断するとともに、現フレーム画像を用いて計測した
    撮像正面方向軸周りについての第1の回転角に基づき、
    現フレームの左目の推定位置と現フレームの右目の推定
    位置を結ぶ線が撮像正面方向軸に直角な軸と平行になる
    ように座標系を設定し、該設定した座標系を用いて求め
    た前記移動ベクトルに基づき前記第2および第3の回転
    角を求めることを特徴とする請求項1に記載の頭部姿勢
    計測装置。
  5. 【請求項5】 前記簡易CG頭部モデル作成手段は、抽
    出した頭部領域を両目が水平になるように撮像正面方向
    軸周りに前記第1の回転角だけ回転させ、回転後の頭部
    領域に外接する矩形を求め、この矩形の幅を短軸とし、
    矩形の高さを長軸とする3次元の楕円体を前記簡易CG
    頭部モデルとすることを特徴とする請求項3または4に
    記載の頭部姿勢計測装置。
  6. 【請求項6】 前記頭部回転角演算手段は、 前記簡易CG頭部モデルを前記3組の第2および第3の
    回転角だけ夫々回転させる際の回転半径を、前記簡易C
    G頭部モデル作成手段によって作成された簡易CG頭部
    モデルの寸法および左目、右目および口の推定位置に基
    づき各別に演算して使用することを特徴とする請求項3
    〜5の何れかひとつに記載の頭部姿勢計測装置。
  7. 【請求項7】 前記部位位置追跡手段は、前フレーム画
    像に基づき求められた頭部の前記第1〜第3の回転角を
    用いて前記簡易CG頭部モデルを回転させたときの簡易
    CG頭部モデルの左目マーキング、右目マーキングおよ
    び口マーキングの所定の投影面への投影の有無に応じて
    各部位の推定処理を行うものであり、投影されると判定
    された部位についてのみ部位の位置を推定するための処
    理を実行することを特徴とする請求項3〜6の何れかひ
    とつに記載の頭部姿勢計測装置。
  8. 【請求項8】 前記部位位置追跡手段は、 最初に簡易CG頭部モデルを作成する際には、頭部領域
    の重心に基づき鼻領域を推定し、推定した鼻領域の外接
    矩形の上辺と、鼻領域の中心から延びる上辺と垂直な直
    線とによって当該フレーム画像を分割することにより、
    左目、右目が存在する範囲を限定し、それらの範囲内に
    存在する左目、右目を検出し、前記鼻領域の外接矩形の
    下辺で当該フレーム画像を分割することにより口領域が
    存在する範囲を限定し、その範囲に存在する口位置を検
    出することを特徴とする請求項3〜7の何れかひとつに
    記載の頭部姿勢計測装置。
  9. 【請求項9】 前記部位位置追跡手段は、 左目、右目および口の周囲画像を各フレーム画像毎にテ
    ンプレートとして格納し、前フレームで検出した位置に
    近く、かつ前フレームに記憶したテンプレートと誤差が
    少ない領域を左目、右目および口の候補領域として、現
    フレーム画像から選択することを特徴とする請求項1、
    3〜8の何れかひとつに記載の頭部姿勢計測装置。
  10. 【請求項10】 請求項1〜9に記載の頭部姿勢計測装
    置によって推定された各部位の位置および頭部について
    の前記第1〜第3の回転角に基づいてCGキャラクタの
    動作を制御するキャラクタ制御手段を備えたことを特徴
    とするCGキャラクタ制御装置。
  11. 【請求項11】 開状態の左目、右目および口の大きさ
    と閉状態の左目、右目および口の大きさを求め、これら
    の大きさ情報を記憶する部位初期状態記憶手段を更に備
    え、 前記キャラクタ制御手段は、現フレーム画像から左目、
    右目および口領域の開閉状態を計測し、この計測情報と
    前記初期状態記憶手段に記憶された開状態の左目、右目
    および口の大きさ情報と閉状態の左目、右目および口の
    大きさ情報とを用いて左目、右目および口の開閉状態情
    報を生成し、生成した左目、右目および口の開閉状態情
    報に基づき前記CGキャラクタの左目、右目および口の
    開閉状態を制御することを特徴とする請求項10に記載
    のCGキャラクタ制御装置。
JP2001280201A 2001-09-14 2001-09-14 頭部姿勢計測装置およびcgキャラクタ制御装置 Expired - Fee Related JP3416666B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001280201A JP3416666B2 (ja) 2001-09-14 2001-09-14 頭部姿勢計測装置およびcgキャラクタ制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001280201A JP3416666B2 (ja) 2001-09-14 2001-09-14 頭部姿勢計測装置およびcgキャラクタ制御装置

Publications (2)

Publication Number Publication Date
JP2003085583A JP2003085583A (ja) 2003-03-20
JP3416666B2 true JP3416666B2 (ja) 2003-06-16

Family

ID=19104245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001280201A Expired - Fee Related JP3416666B2 (ja) 2001-09-14 2001-09-14 頭部姿勢計測装置およびcgキャラクタ制御装置

Country Status (1)

Country Link
JP (1) JP3416666B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7444017B2 (en) * 2004-11-10 2008-10-28 Eastman Kodak Company Detecting irises and pupils in images of humans
KR100790860B1 (ko) * 2004-12-14 2008-01-03 삼성전자주식회사 사람 추적 장치 및 방법, 그 방법을 수행하기 위한프로그램이 저장된 기록매체와 그 장치를 포함하는 이동형전자기기
CN101317185B (zh) * 2005-10-05 2014-03-19 高通股份有限公司 基于视频传感器的自动关注区检测
US8208758B2 (en) 2005-10-05 2012-06-26 Qualcomm Incorporated Video sensor-based automatic region-of-interest detection
US8019170B2 (en) * 2005-10-05 2011-09-13 Qualcomm, Incorporated Video frame motion-based automatic region-of-interest detection
JP4865517B2 (ja) * 2006-12-05 2012-02-01 スズキ株式会社 頭部の位置・姿勢検出装置
JP4718527B2 (ja) * 2007-08-09 2011-07-06 日本電信電話株式会社 物体検出装置、物体検出方法、物体検出プログラムおよびそのプログラムを記録した記録媒体
CN106605258B (zh) * 2014-09-25 2021-09-07 英特尔公司 促进计算设备上的图像的高效自由平面内旋转界标跟踪
JP2020136921A (ja) * 2019-02-20 2020-08-31 株式会社オプテージ ビデオ通話システム、およびコンピュータプログラム

Also Published As

Publication number Publication date
JP2003085583A (ja) 2003-03-20

Similar Documents

Publication Publication Date Title
US7460687B2 (en) Watermarking scheme for digital video
US8355529B2 (en) Motion capture apparatus and method, and motion capture program
US9047507B2 (en) Upper-body skeleton extraction from depth maps
US9275472B2 (en) Real-time player detection from a single calibrated camera
US7825948B2 (en) 3D video conferencing
CN107273846B (zh) 一种人体体型参数确定方法及装置
CN107563304B (zh) 终端设备解锁方法及装置、终端设备
CN105740778B (zh) 一种改进的三维人脸活体检测方法及其装置
JP4774818B2 (ja) 画像処理装置及び画像処理方法
JP4597391B2 (ja) 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体
CN109583304A (zh) 一种基于结构光模组的快速3d人脸点云生成方法及装置
WO2022042304A1 (zh) 识别场景轮廓的方法、装置、计算机可读介质及电子设备
JP3432816B2 (ja) 頭部領域抽出装置およびリアルタイム表情追跡装置
CN109948400A (zh) 一种能够进行人脸特征3d识别的智能手机及其识别方法
JP3416666B2 (ja) 頭部姿勢計測装置およびcgキャラクタ制御装置
WO2022087846A1 (zh) 图像的处理方法、装置、设备以及存储介质
JP5555193B2 (ja) データ処理装置、データ処理システム、及びプログラム
KR20100025048A (ko) 모션 캡쳐를 위한 영상 분석 방법 및 장치
CN109191522B (zh) 一种基于三维建模的机器人位移纠正方法及系统
JP2004062393A (ja) 注目判定方法及び注目判定装置
CN117726648A (zh) 待跟踪的目标对象确定方法、系统及机器人
JP2000268161A (ja) 実時間表情検出装置
CN109410272B (zh) 一种变压器螺母识别与定位装置及方法
JP5217917B2 (ja) 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム
Ribacki et al. Vision-based global localization using ceiling space density

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080404

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090404

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100404

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees