JPH09305743A - 人物顔動作検出方式 - Google Patents

人物顔動作検出方式

Info

Publication number
JPH09305743A
JPH09305743A JP8124651A JP12465196A JPH09305743A JP H09305743 A JPH09305743 A JP H09305743A JP 8124651 A JP8124651 A JP 8124651A JP 12465196 A JP12465196 A JP 12465196A JP H09305743 A JPH09305743 A JP H09305743A
Authority
JP
Japan
Prior art keywords
face
person
image
area
extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8124651A
Other languages
English (en)
Inventor
Nobuyoshi Enomoto
暢芳 榎本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP8124651A priority Critical patent/JPH09305743A/ja
Publication of JPH09305743A publication Critical patent/JPH09305743A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)

Abstract

(57)【要約】 【課題】従来のキーボードを使用しながらマウスのよう
なポインティングデバイスを併用することの煩わしさを
軽減し、また、携帯端末装置などを混雑している手が使
用しにくい環境で用いる場合の使用者の負担を軽減し、
高度なGUIを構築することが可能となる人物顔動作検
出方式を提供する。 【解決手段】機器を操作する人物の顔領域を含む画像を
画像入力部1で入力し、この入力された画像から上記人
物の注目方向を人物注目方向抽出部3で抽出するととも
に、上記入力された画像から上記人物の顔内部の部品の
特定の変化を顔動作検出部4で検出し、この検出された
顔部品の特定の変化があらかじめ指定される操作コマン
ドであるか否かを顔動作イベント判定部5で判定し、こ
の判定結果および人物注目方向抽出部3の抽出結果を外
部へ出力する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、たとえば、現金自
動入出金装置(ATM)や券売機などの社会システム機
器、あるいは、パーソナルコンピュータやワードプロセ
ッサなどのオフィスオートメーション機器など、GUI
(グラフィカル・ユーザ・インタフェース)を備えた機
器において、ビデオカメラから入力された機器を操作す
る人物の顔画像から、顔内部の部品(目、口、鼻など)
の特定の変化を抽出することによって、それをGUIへ
のイベントとして使用し、機器の制御を行なわせるため
の人物顔動作検出方式に関する。
【0002】
【従来の技術】従来、この種の技術として、たとえば、
顔に装着した眼鏡などから赤外線などの特定の光を目に
照射し、その反射光によって瞳孔位置を測定し、反射光
の有無によって瞬きを検出する方式がある。
【0003】また、顔のカラー動画像中で皮膚の部分は
有色彩、目の内部は無彩色となることを利用し、連続フ
レームで無彩色から有彩色、または、有彩色から無彩色
に変化する領域を抽出することで、瞬きを検出する方式
の検討を行なった例がある(文献[1] 杉山、田辺:動画
像を用いた実時間瞬目抽出法、画像ラボ、1993.9、PP45
-48 参照)。
【0004】
【発明が解決しようとする課題】しかし、上記前者の技
術では、光源や顔に装着する装置が必要なため、ユーザ
によっては不快感をともなうことがあるという問題があ
った。また、上記後者の技術では、特徴点として目、そ
の動作として瞬きを陽に指定しているため、他の部品要
素の変化をイベントとして使用することができない。ま
た、目の部分の色の変化としてのみの変化を求めてお
り、その形状変化などは考慮していないため、たとえ
ば、GUIへのイベントとして用いた場合には、同時に
指定できるイベントが瞬きだけとなり、状態数が不足す
る可能性がある。
【0005】さらに、一般には色情報は照明などの環境
変動にはロバストではないため、環境変動から生じた画
面内部のノイズによって、ある座標の色が無彩色から有
彩色、または、有彩色から無彩色へと変化した場合に、
これを瞬きというユーザの意識的なイベントと誤って動
作してしまう可能性があり、問題が多い。
【0006】そこで、本発明は、従来のキーボードを使
用しながらマウスのようなポインティングデバイスを併
用することの煩わしさを軽減し、かつ、携帯端末装置な
どを用いる場合の使用者の負担を軽減し、高度なGUI
を構築することが可能となる人物顔動作検出方式を提供
することを目的とする。
【0007】
【課題を解決するための手段】本発明の人物顔動作検出
方式は、機器を操作する人物の顔領域を含む画像を入力
し、この入力された画像から前記人物の注目方向を抽出
し、かつ、前記人物の顔内部の部品の特定の変化を抽出
し、この抽出した顔部品の特定の変化があらかじめ指定
される操作コマンドであるか否かを判定し、この判定結
果および前記抽出した人物の注目方向を外部へ出力する
ことを特徴とする。
【0008】また、本発明の人物顔動作検出方式は、機
器を操作する人物の顔領域を含む画像を連続的に入力す
る画像入力手段と、この画像入力手段で入力された画像
を一時記憶する画像記憶手段と、この画像記憶手段に記
憶された画像から前記人物の注目方向を抽出する人物注
目方向抽出手段と、前記画像記憶手段に記憶された画像
から前記人物の顔内部の部品の特定の変化を検出する顔
動作検出手段と、この顔動作検出手段で検出された顔部
品の特定の変化があらかじめ指定される操作コマンドで
あるか否かを判定する判定手段とを具備している。
【0009】さらに、本発明の人物顔動作検出方式は、
機器を操作する人物の顔領域を含む画像を連続的に入力
する画像入力手段と、この画像入力手段で入力された画
像を一時記憶する画像記憶手段と、この画像記憶手段に
記憶された画像から前記人物の注目方向を抽出する人物
注目方向抽出手段と、前記画像記憶手段に記憶された画
像から前記人物の顔内部の部品の特定の変化を検出する
顔動作検出手段と、この顔動作検出手段で検出された顔
部品の特定の変化があらかじめ指定される操作コマンド
であるか否かを判定する判定手段と、この判定手段の判
定結果および前記人物注目方向抽出手段の抽出結果を外
部へ出力する出力手段とを具備している。
【0010】本発明によれば、ビデオカメラなどの画像
入力手段で入力された操作人物の顔画像から、顔内部の
目、口、鼻などの部品の特定の変化(動作)を抽出する
ことによって、これをGUIへのイベントとして使用
し、機器の制御を行なわせることができる。したがっ
て、たとえば、従来のキーボードを使用しながらマウス
のようなポインティングデバイスを併用することの煩わ
しさを軽減し、また、携帯端末装置などを混雑している
手が使用しにくい環境で用いる場合の使用者の負担を軽
減し、高度なGUIを構築することが可能となる。
【0011】
【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照して説明する。なお、本実施の形態では、
ビデオカメラから入力された画像中に含まれる操作人物
の顔内部の各種部品の動作を用い、それをイベントとし
てGUIを構成するための手法と、それを用いた装置の
例を示し、併せて、イベントを認識するための時間的な
統計量の判定条件、顔部品の動作とGUI制御操作との
対応付け、環境ごとの認識パラメータを設定するための
方法を用いる装置に適用した場合について説明する。
【0012】図1は、本実施の形態に係る人物顔動作検
出方式が適用される装置の構成を示している。この装置
は、カラーのビデオカメラと、その出力をデジタル化す
るA/D変換器とからなり、機器(たとえば、パーソナ
ルコンピュータなど)を操作する人物の顔領域を含むカ
ラー画像を時間連続的に入力する画像入力部1、画像入
力部1により数フレームごとに入力されたR(赤),G
(緑),B(青)各8ビットのデジタル画像データを一
時記憶する画像記憶部2、画像記憶部2に記憶されたカ
ラー画像データ(入力画像)から人物の注目方向を抽出
する人物注目方向抽出部3、人物注目方向抽出部3の出
力により顔内部の部品(ここでは目、口)の位置、形状
の変化を検出する顔動作検出部4、顔動作検出部4が検
出した顔内部の部品の位置、形状の変化があらかじめ指
定される操作コマンドであるか否かを判定する顔動作イ
ベント判定部5、顔動作とGUI制御操作との対応付け
を設定する判定条件設定部6、各環境ごとに、たとえば
顔部品の抽出位置や形状を操作デバイス8によって操作
人物が正解を教示し、その結果にしたがって認識パラメ
ータを自動調整する形状認識修正手段7、および、表示
部9によって構成されている。
【0013】すなわち、本装置においては、画像入力部
1により数フレームごとに入力されたRGB各8ビット
のデジタル画像データは、画像記憶部2に一時格納され
る。画像記憶部2に格納された入力画像に対して、人物
注目方向抽出部3により処理することで人物の注目方向
を求め、かつ、顔動作検出部4によって、顔内部の部品
(ここでは目、口)の位置、形状の変化を検出して、こ
れがあらかじめ指定された操作コマンドであるか否か
を、顔動作イベント判定手段5によって判定し、イベン
トが起こった場合に前記注目方向で示される操作画面上
での座標とイベント名を結果として出力するものであ
る。
【0014】また、本装置では、操作人物が使用を開始
する前に、顔動作とGUI制御操作との対応付けを判定
条件設定部6で設定して、実際の操作人物の使用時に利
用可能とする。さらに、判定条件設定部6では、操作人
物が使用を開始する前に顔動作の判定を予備的に行なわ
せ、その結果を別のGUI制御デバイスで教示すること
で、判定条件を自動学習することも行なうようになって
いる。
【0015】また、形状認識修正部7では、顔領域や顔
部品の抽出の中間結果を表示部9に表示し、その表示画
面上に操作人物が別のGUI制御デバイスで正解を描画
することで、形状認識パラメータを教示するものであ
る。
【0016】以上から、本実施の形態の装置を使用して
GUI制御を行なうためには、本装置が出力する操作人
物の顔動作に対応するイベント名と、それが発生した画
面上の座標とから、その座標位置に特定操作を示す画面
上のマーク(アイコン)があるか否かを判定し、さら
に、そのマークで規定される操作が発生イベントと対応
していた場合に、マークで規定された操作を画面上に反
映させる処理を行なえばよい。
【0017】以下、各部について詳細に説明する。ま
ず、人物注目方向抽出部3について説明する。人物注目
方向抽出部3は、たとえば、図2に示すように、画像記
憶部2に記憶された入力画像から人物の顔の領域を抽出
する人物顔領域抽出部11、人物顔領域抽出部11で抽
出された顔領域内の画像から人物の顔領域の輪郭を抽出
する人物顔輪郭抽出部12、人物顔輪郭抽出部12で抽
出された顔領域の輪郭と入力画像とから、顔領域内にお
ける第1の特徴点として口領域を抽出する第1の顔特徴
点抽出部13、および、第2の特徴点として目領域を抽
出する第2の顔特徴点抽出部14、第1,第2の顔特徴
点抽出部13,14で抽出された2種類の特徴点に基づ
き人物の注目方向を推定する人物注目方向算出部15に
よって構成されている。
【0018】すなわち、後で詳細を説明するように、人
物顔領域抽出部11、人物顔輪郭抽出部12を適用する
ことにより、人物の顔領域画像、顔領域の輪郭データ、
顔領域画像の重心位置、および、投影平面内での頭部の
傾き角をそれぞれ抽出し、先に求められた顔領域画像内
部について、第1,第2の顔特徴点抽出部13,14を
用いることで、本来顔の正面に位置すると考えられる顔
内部の器官(ここでは第1の特徴点として口、第2の特
徴点として目を使用)の投影面中での位置を検出し、さ
らに特徴点の重心位置を求め、人物注目方向算出部15
によって、先に算出された顔の重心位置、平面内での傾
き角、特徴点の重心位置から、顔方向を各画像フレーム
ごとに計算し、さらに、各時刻で求められる顔の方向の
時間的統計分布から、人物の注目している画面内の方向
を推定する。
【0019】なお、図3は、上述した人物注目方向抽出
部3の処理の流れを示すフローチャートである。次に、
人物注目方向抽出部3における人物顔領域抽出部11の
処理について、図4に示すフローチャートを参照して説
明する。一般に、YIQ表色系(文献[2] 高木、下田:
画像解析ハンドブック PP.103 参照)における、I成分
画像の濃度頻度分布(ヒストグラム)には、肌色部分と
それ以外の部分とで、形状に顕著な差があることが知ら
れている。すなわち、ヒストグラムの濃淡値軸の中位の
部位で、他部位との形状の異なる領域に人物の肌色に近
い色が配置される。
【0020】本実施の形態では、この知識を用い、ま
ず、画像記憶部2内のRGBのカラー画像をYIQ表色
系のカラー画像に変換する。このときの変換式は、一般
に用いられている以下のような式(1)で差し支えな
い。
【0021】 Y=0.30・R+0.59・G+0.11・B I=0.60・R−0.28・G−0.32・B Q=0.21・R−0.52・G+0.31・B …… (1) ただし、R,G,B,Y,I,Qは、それぞれカラー画
像のR,G,B,Y,I,Q成分を示す。
【0022】次に、上述の処理によって抽出されたI成
分画像のみのヒストグラムをとる。ここでは、横軸を濃
淡値(0〜255)、縦軸を頻度としたものとしてヒス
トグラムを作成する。
【0023】さらに、この作成したヒストグラムを濃度
軸上で一定数領域(クラス)に領域分割し、濃度が指定
番目のクラスを選択して肌色領域を抽出する。このとき
のクラス分割手法としては、K−平均アルゴリズムなど
の一般に知られているクラスタリングのアルゴリズムを
使用して差し支えない。
【0024】以上の処理によって、入力画像中から肌色
をした画像領域を抽出することが可能であるが、入力画
像の中には、たとえば、手などのように、顔以外で肌色
をした領域が存在する可能性があるので、ここでは、あ
らかじめ全画面に対する顔領域の面積比率を求めてお
き、上記で求まった肌色の領域のうちで、面積比率が顔
のそれに最も近いものを選択することで、顔領域を抽出
する。ここでの肌色領域の面積の計算は、連結領域のラ
ベリング手法(文献[3] 高木、下田:画像解析ハンドブ
ック PP.578 参照)や、射影抽出の閾値処理による手法
などを使用して差し支えない。
【0025】上記処理によって抽出された顔画像領域
は、顔部分の濃淡値を「1」、顔以外の部分の濃淡値を
「0」としたデジタル画像(顔領域画像)として出力さ
れる。次に、抽出された領域について、以下の式(2)
にしたがって、その重心座標を求める。すなわち、人物
頭部領域の2値デジタル画像をf(x,y)とすると、
重心座標(xg,yg)は、x,y軸方向への1次モー
メントであり、 xg=∫∫xf(x,y)dxdy yg=∫∫yf(x,y)dxdy …… (2) で示される。
【0026】また、前記顔領域の2次のモーメントか
ら、慣性主軸方向を求め、これを投影平面内での頭部傾
き角度θとする。すなわち、x,y軸方向の0,1,2
次の慣性モーメントをmij(i,j=0,1,2)と
すると、慣性主軸方向(頭部傾き角度)θは以下の式
(3)にしたがって算出する。
【0027】 θ=1/2・tan-1(2・m11/(m02−m20)) …… (3) ここで、m11,m02,m20は、それぞれm11=∫∫xy
f(x,y)dxdy、m20=∫∫xf(x,y)2
xdy、m02=∫∫yf(x,y)2 dxdyである。
【0028】次に、人物注目方向抽出部3における人物
顔輪郭抽出部12の処理について説明する。一般に、画
像の輪郭上のノード位置の画素値と輪郭形状とからエネ
ルギを定義し、これを最小化することにより、対象形状
に近く、滑らかな輪郭を求めようとする手法として、周
知のスネーク(snakes)法があり、その変形とし
て、輪郭上の制御点間の曲線のエッジ近傍への移動、曲
線のbスプライン近似、最小自乗法による近似曲線から
の輪郭上制御点の算出を組合わせたbスプラインスネー
ク法がある。ここでは後者の方法に近いが、より少ない
計算コストで行なうために、以下の処理を行なう。
【0029】まず、初期領域抽出処理として、上記で求
められた顔領域について、その外接矩形を求める。これ
は具体的には、ラベリング手法(文献[3] 参照)や射影
抽出の閾値処理による手法などの方法による。
【0030】輪郭抽出は、上記顔領域画像上での初期ノ
ード配置処理、ノード移動処理、ノード再配置処理をノ
ードの移動量の総和が閾値sよりも小さくなるか、繰り
返し回数が一定数nを越えるまで繰り返し行なう。
【0031】初期ノード配置処理として、この外接矩形
の各頂点、および、各頂点間を一定距離で分割する点を
選択し、それぞれのノードの座標を記憶する。次に、ノ
ード移動処理として、上述の顔領域画像上で各配置ノー
ドの位置から外接矩形の重心座標を結ぶ線分を仮定し、
その線分上を各初期ノードから重心へ向かう方向にある
一定画素数の連続した顔領域画素(濃淡値=fなる画
素)を検出するまでノードを移動する。
【0032】この段階では、一般に顔画像内の顔輪郭近
傍以外の顔画素が存在するため、移動後のノードを接続
した形状(顔輪郭候補)には不要な凹凸が存在する。と
ころが、真顔輪郭は通常、滑らかな曲線をなすため、移
動されたノードを滑らかな輪郭曲線で補間する必要があ
り、この処理をノード再配置処理と呼ぶ。これは、各ノ
ードを時計回り(または、反時計回り)にパラメトリッ
ク曲線により補間し移動するものであるが、上述の繰返
し回数に応じて輪郭上の補間の方向を時計回りと反時計
回りで可変する。たとえば、繰返しが奇数回目のときに
は時計回り、偶数回目のときには反時計回り、というよ
うに行なってよい。この結果として出力されるi番目の
画像フレームに対する顔周囲の輪郭データCi は、各ノ
ードの2次元座標列 Ci =(Xi 0 ,Yi 0 )……(Xi n ,Yi n ) …… (4) となる。ここで、(Xi n ,Yi n )は、i番目の画像
フレームに存在する人物の顔輪郭のn番目のノード座標
を示す。
【0033】次に、各処理フレームごとに、この輪郭デ
ータを保存しておき、次の処理フレームにおいて検出さ
れた輪郭データと各ノード座標同士の差の絶対値の総和
Dx,Dy を下記数1のように求め、輪郭形状の変化量
として出力する。
【0034】
【数1】
【0035】次に、人物注目方向抽出部3における第1
の顔特徴点抽出部13の処理について、図5に示すフロ
ーチャートを参照して説明する。前述したように、第1
の特徴点としては口を選択し、これを抽出する。
【0036】一般に、YIQ表色系のQ成分画像におい
ては、口の領域の濃淡値は特定値付近に集中することが
知られている。この性質を利用して、入力画像のうち、
前述の人物顔領域抽出部11の処理で抽出された顔領域
画像の内部について、Q成分のヒストグラムを計測し、
クラス分けする。さらに、このクラスのうち、口領域を
端的に示すものをあらかじめ教示しておき、その領域を
抽出する。
【0037】したがって、前述の人物顔領域抽出部11
と同様に、まず、入力画像に対してRGB→YIQ変換
を行なう。次に、上述の処理にて抽出されたQ成分のみ
のヒストグラムをとり、さらに、このヒストグラムを濃
度軸上で領域分割し、指定領域(クラス)を選択して口
候補領域を抽出する。ここでも、クラスタリング手法
は、前述同様、既存のものを使用して差し支えない。
【0038】ここまでの処理によって、口領域の候補領
域が抽出されるわけであるが、口以外の領域についても
抽出されてしまう可能性があるため、各候補領域の外接
矩形の内部に対して、以下の評価関数値を最小化するも
のを選択して、これらを限定し、口領域周囲の外接矩形
のみを抽出し、その重心座標を求める。すなわち、評価
関数Emは、 Em=−(Ws・S+Wp・P+Wpp・PP+WI・I)……(6) である。ここで、Iは I=Nin/N …… (7) である。ただし、Sは候補領域の面積、Pは候補領域の
高さ方向の位置(大なる程、画面下に位置する)、PP
は候補領域内の最大幅長であり、Ninは第1の特徴点の
周辺の点で、顔輪郭内部のものの数、Nは第1の特徴点
の周辺の点の総数、Ws,Wp,Wpp,WIは重み定
数である。
【0039】次に、人物注目方向抽出部3における第2
の顔特徴点抽出部14の処理について、図6に示すフロ
ーチャートを参照して説明する。前述したように、第2
の特徴点としては目を選択し、これを抽出する。
【0040】一般に、カラー画像を下記数2の色相
(H)、彩度(S)(文献[1] 参照)で表現したときの
S成分においては、目の瞳領域の濃淡値は特定値付近に
集中することが知られている。
【0041】
【数2】
【0042】ただし、R,G,Bは0〜255とし、r
=255R/(R+G+B)、g=255G/(R+G
+B)とする。この性質を利用して、入力画像のうち、
前述の人物顔領域抽出部11の処理で抽出された顔領域
画像の内部について、S成分のヒストグラムを計測し、
クラス分けする。さらに、このクラスのうち、瞳領域を
端的に示すものをあらかじめ教示しておき、その領域を
抽出する。
【0043】しかし、この変換においても、たとえば、
髪の毛が目の部分にかかっている場合は、瞳、髪のS成
分での濃度が接近しているため、分離が困難となる。そ
のため、ここでは、S成分画像に対して、評価関数値の
最小化による入力顔画像適応形のテンプレートマッチン
グ手法を用いて、目領域のみの抽出精度を高めるように
する。
【0044】マッチングの特徴量は、以下のような目の
領域に関する周囲領域、位置、形状の3つの性質を使用
する。 (a)周囲領域:画像中の目領域の周囲の画素の濃淡値
は瞳領域のそれとは異なる。
【0045】(b)位置:目領域は顔の対象軸からあま
り離れていない。 (c)形状:瞳領域と目の全体領域それぞれとの顔領域
に対する幅の比率、および、瞳、目全体それぞれの面積
比率はほぼ一定である。これは、複数の人物をサンプル
とするカラー顔画像の計測により求める。
【0046】したがって、これに基づくマッチングアル
ゴリズムは次に示すようになる。まず、前述の人物顔領
域抽出部11の処理で抽出された顔領域の高さHfおよ
び幅Wfから、目の領域の高さHeおよび幅Weを下記
式(9)によって推定する。
【0047】He=Hf・Rh We=Wf・Rw …… (9) ここで、RhおよびRwは、それぞれ顔高さと目高さと
の比率および顔幅と目幅との比率であり、複数の人物サ
ンプルにおける顔高さおよび幅と目のそれらとの比率の
平均的な値を用いる。
【0048】次に、顔領域内部において、S成分画像を
求め、口の抽出と同様、濃淡ヒストグラムを分割し、そ
の内の特定クラスを抽出する。次に、この濃度クラスの
み抽出された画像のうち、顔の上方に位置し、顔幅に相
当する領域を目領域の大きさに相当するブロックに分割
し、各ブロック内部での下記式(10)に示す評価関数
値Eeが最小なるものを選択し、その評価値最小ブロッ
クについて重心座標を求める。
【0049】 Ee=(Wn・N+Wd・D+Wf・F−Wj・I′) …… (10) ただし、Nは注目ブロックの周囲の瞳濃度クラスに属す
る画素数、Dは顔の対象軸からの距離(対象軸との傾き
で代用)、Fは平均的な人物における瞳領域(瞳濃度ク
ラスの画素)と目全体領域との面積比からの誤差、I′
は前記式(7)で第1の特徴点を第2の特徴点で置き換
えたもの、Wn,Wd,Wf,Wjは重み定数である。
【0050】ここで、前記式(10)の代わりに瞳領域
の重心回りの2次、または、3次のモーメントの標準的
値との比mr20,mr02,mr30,mr03を用いた以下の評価関
数値Eeを用いてもよい。
【0051】 Ee=(Wn・N+Wd・D+Wf・F+W20・mr20 +W02・mr02 +W03・mr30+W30・mr30−Wj・I′) …… (11) ここで、W20,W02,W30,W03は重み定数であり、mr
20 ,mr02,mr30,mr03は、それぞれ(xg,yg)を
瞳領域の重心、m20 、m02 、m30 、mo3 を標準的な人物
の瞳領域の重心回りの2次および3次モーメントとした
とき、 mr20=m20/m20 mr02=m02/m02 mr30=m30/m30 mr03=m03/m03 …… (12) ただし、 m20 =∫∫(x−xg)2 f(x,y)dxdy m02 =∫∫(y−yg)2 f(x,y)dxdy m30 =∫∫(x−xg)3 f(x,y)dxdy m03 =∫∫(y−yg)3 f(x,y)dxdy …… (13) となる。
【0052】次に、人物注目方向抽出部3における人物
注目方向算出部15の処理について説明する。人物注目
方向算出部15においては、顔全体の位置に対する顔内
部の特徴点との位置関係によって顔の方向を推定する。
これには様々な既存手法が考えられるが、本例では、頭
全体の重心と顔内部の特徴点として高輝度変化領域を抽
出し、それらの重心同志のずれを比較する方式(文献
[4] 島田聡:顔画像からの注視方向の実時間識別法、信
学技法 IE91-64、PP.17-23 参照)を応用している。
【0053】すなわち、頭全体の重心としては、前述の
人物顔領域抽出部11で抽出された顔領域の重心を使用
し、顔内部の高輝度変化領域として、前述の第1,第2
の顔特徴点抽出部13,14で抽出された各特徴点の位
置の重心を使用している。結果として、処理フレームご
との顔方向ベクトル(VX,VY,VZ)は、顔とカメラレンズ
間での方向をZ軸、それと直行して水平な方向をX軸、
X軸,Z軸と直行する方向をY軸とした単位ベクトルと
なるが、さらに、ある一定時間内tでの各フレームごと
の方向をX,Y,Zの各軸方向で平均し、本人物注目方
向算出部15の出力とする。
【0054】ただし、この時間平均の際に、人物顔輪郭
抽出部12から出力された前記式(5)の値をあらかじ
め設定された閾値と比較し、閾値以下の場合には、その
ときの方向データは変化していないものと考え、顔方向
平均計算には前フレームの方向データを利用する。
【0055】これは、前述のように、フレームごとの顔
方向は顔全体の重心と第1,第2の特徴点から求めた重
心とのずれを用いるため、後述のように、たとえば、
口、目の位置や形状の変化を顔動作とすると、顔動作に
よって顔方向の計算値は前フレームとは変わってしまう
が、顔の方向が変化していない場合には輪郭形状は安定
しているためである。
【0056】次に、顔動作検出部4について説明する。
顔動作検出部4は、たとえば、図7に示すように、口動
作検出部21、左目動作検出部22、および、右目動作
検出部23によって構成されている。
【0057】すなわち、一般に、顔動作としては、顔全
体の時間変化、顔内部の部品の時間変化などが考えられ
るが、ここでは顔内部の部品である第1,第2の特徴点
の各抽出形状、位置、面積がとる一定時間内での変化と
考え、それぞれ口動作検出部21、左目動作検出部2
2、および、右目動作検出部23で動作を検出する。な
お、一定時間での変化としては、ここでは1フレーム前
の対応するパラメータ同士の変化とする。
【0058】各特徴点の動作検出において、形状として
は、前記式(10)で示した目領域候補内部の瞳濃度ク
ラスの連結画素についての、外接矩形の縦横比、周囲
長、円形度重心回りのモーメント特徴(文献[5] 高木、
下田:画像解析ハンドブック PP.580 参照)などを使用
してよい。ここでは、一例として、前記式(13)の2
次および3次のモーメントmp20,mp02,mp30,mp03を使
用する。
【0059】位置については、特徴領域の重心を用い
る。この場合、特徴領域の外接矩形重心、前述した顔輪
郭抽出手法による輪郭データの重心、外接矩形内の特徴
領域濃度画素の1次モーメントとして算出される重心
(文献[5] 参照)などがあり、そのいずれを用いても差
し支えないが、ここでは外接矩形の重心gp(xg,yg) を用
いることにする。また、面積としては、外接矩形内部の
瞳濃度クラスの画素数spを使用する。
【0060】以上の3種類のパラメータについて、以下
のように顔動作データとして抽出する。これらは各パラ
メータごとに一定時間t内でのフレーム間のパラメータ
値の差のデータ列となる。すなわち、 mp20={mp20(t+1)-mp20(t),…,mp20(t+t)-mp02(t)} …… (14) mp02={mp02(t+1)-mp02(t),…,mp02(t+t)-mp02(t)} …… (15) mp30={mp30(t+1)-mp30(t),…,mp30(t+t)-mp30(t)} …… (16) mp03={mp03(t+1)-mp03(t),…,mp03(t+t)-mp03(t)} …… (17) gp ={(gpx(t),gpy(t)),…,(gpx(t+t),gpy(t+t))} …… (18) sp ={sp(t) ,…,sp(t+t)} …… (19) ここで、mp20,mp02,mp30,mp03,gp,spは、特徴点p
の一定時間t内でのモーメント変化データ、重心位置変
化データ、面積変化データであり、pとしては、ここで
は口、左目、右目を利用する。また、mp20(t) 、mp02
(t) 、mp30(t) 、mp03(t) 、gpx(t)、gpy(t)、sp(t)
は、それぞれtフレーム目の特徴点pの2次、3次のモ
ーメント、重心座標、面積である。
【0061】以上から、この場合、検出される顔動作デ
ータは、前記式(14)〜(19)までのデータ列を統
合したtx7次元のベクトルとして表現される。なお、
図8は、上述した顔動作検出部4の処理の流れを示すフ
ローチャートである。
【0062】次に、顔動作イベント判定部5の処理につ
いて、図9に示すフローチャートを参照して説明する。
顔動作イベント判定部5は、あらかじめ後述の判定条件
設定部6で設定されている顔動作データ辞書に対して、
上述の顔動作検出部4によって検出された顔動作データ
との距離計算を行ない、距離最小なる辞書で表現された
動作イベントが検出されたものと判定する。
【0063】距離の尺度としては、各イベントを示す顔
動作データとのユークリッド距離や各イベントを示す顔
動作データの集合とのマハラノビス距離(文献[6] 高
木、下田:画像解析ハンドブック PP.653 参照)などを
使用して差し支えない。
【0064】そして、もし、登録済みのイベントに相当
する顔動作が検出された場合には、その時点での人物注
目方向抽出部3から出力される注目方向を用いて、操作
画面上での注目位置座標と発生したイベント名を出力す
る。
【0065】なお、辞書と各イベントとは、後述する判
定条件設定部6によって対応づけられているとする。次
に、判定条件設定部6の処理について、図10に示すフ
ローチャートを参照して説明する。判定条件設定部6
は、顔動作データ辞書の作成を行なう。これは、操作人
物が画像入力部1に向かって所望の顔動作をn回行なう
間に、前述の顔動作検出処理で示したように、n個の顔
動作データを収集し、それらを統合することによって尤
もらしい代表値を生成することを目的とする。
【0066】まず、あらかじめ設定されているk個の顔
動作イベントの名称が表示部9上に提示されるので、人
物はその内の1つを操作デバイス(たとえばキーボード
またはマウスなど)8によって選択する。
【0067】次に、操作人物が操作デバイス8によって
顔動作の区切りとして、顔動作の開始時刻と終了時刻を
指示し、その指示時間の間に顔動作を行なうことで、前
述の顔動作検出処理で述べた処理によって顔動作データ
が一時的に記憶され、この手続きをn回繰り返す。これ
は、ある1回の人物の顔動作のみで生じる可能性のある
データの分布の偏りを軽減する目的がある。
【0068】さらに、操作人物によって辞書の作成が操
作デバイス8を用いて指示されると、n個の顔動作デー
タ列について代表値を算出して辞書とする。代表値とし
ては、上述の顔動作イベント判定部5の処理で距離とし
てユークリッド距離を用いた場合には、n個のデータ
(ベクトル)の平均値μe、または、n個のデータの第
1主成分αe(文献[7] 高木、下田:画像解析ハンドブ
ック PP.40 参照)を使用する。
【0069】また、前述の顔動作イベント判定部5の処
理でマハラノビス距離を使用する場合には、n個のベク
トルの平均値μe、および、分散共分散行列veを求
め、これを代表値とする。ここで、各代表値の添字のe
は登録するイベントを区別するためのものであり、e=
0,…,k-1 である。
【0070】次に、形状認識修正部7の処理について、
図11に示すフローチャートを参照して説明する。形状
認識修正部7は、様々な光源などの操作環境の違いでの
顔部品の形状認識性能の安定化のため、各環境ごとに、
たとえば、顔部品の抽出位置、形状を操作デバイス8に
よって操作人物が正解を教示し、その結果にしたがって
認識パラメータを自動調整するものである。
【0071】本例では、人物顔領域抽出部11、第1の
顔特徴点抽出部13、および、第2の顔特徴点抽出部1
4の各抽出特性を修正するが、一例として、以下に人物
顔領域抽出部11の修正方法を説明する。
【0072】まず、画像記憶部2からの入力画像を表示
部9に表示した後、顔領域描画要求を操作人物に提示
し、操作人物は入力画像中にマウスなどの操作デバイス
8によって、顔周囲に適当な間隔で点を入力する。この
結果の点列は、上述の顔輪郭とは異なる色で表示部9に
入力画像と重畳表示されると同時に、修正用点列データ
として保存される。
【0073】次に、この点列を時計回り(または、反時
計回り)に直線補間した内部の領域について、前述の人
物注目方向抽出部3の処理で述べたI成分画像中での画
素値を調べ、その上限値vuと下限値vlを求める。
【0074】以後、顔領域の抽出を行なう際には、前述
の人物顔領域抽出部11の処理で述べたI成分画像の濃
度分布中での顔領域の画素値の上限値vfu と下限値vfl
を求め、人物注目方向抽出部3に出力する。
【0075】人物注目方向抽出部3においては、以下の
ように顔領域の画素値の上限値、下限値を修正して使用
する。 vfl =(wfl*vfl+wrl*vl) vfu =(wfu*vfu+wru*vu) …… (20) ここで、wfl ,wrl ,wfu ,wru は、スケーリングの定
数である。
【0076】以上の説明では、人物顔領域抽出部11の
修正方法について述べたが、第1の特徴点抽出部13に
ついては、Q成分の画像についての画素値の上限値およ
び下限値、第2の特徴点抽出部14については、S成分
の画像についての画素値の上限値および下限値、をそれ
ぞれ算出して、前記式(20)と同様な手法によって形
状抽出特性を修正する。
【0077】以上説明したように、上記実施の形態によ
れば、以下のような作用効果が期待できる。すなわち、
ATM機器や券売機などの社会システム、および、パー
ソナルコンピュータ、ワードプロセッサ、ワークステー
ションは、GUIを備えてマウス操作を主体とした操作
ができるが、本発明方式を用いることにより、非接触な
インタフェースとして操作ボタンの処理や、表示を変更
(拡大、表示色の変更など)することが可能となるた
め、従来のキーボードを使用しながらマウスのようなポ
インティングデバイスを併用することの煩わしさを軽減
したり、PDA(パーソナル・デジタル・アシスタン
ト)などの携帯端末装置を、混雑していて手が使用しに
くい環境で用いる場合の、使用者の負担を軽減し、高度
なGUIを構築することが可能となる。
【0078】
【発明の効果】以上詳述したように本発明の人物顔動作
検出方式によれば、ビデオカメラなどの画像入力手段で
入力された操作人物の顔画像から、顔内部の目、口、鼻
などの部品の特定の変化(動作)を抽出することによっ
て、これをGUIへのイベントとして使用し、機器の制
御を行なわせることができる。したがって、たとえば、
従来のキーボードを使用しながらマウスのようなポイン
ティングデバイスを併用することの煩わしさを軽減し、
また、携帯端末装置などを混雑している手が使用しにく
い環境で用いる場合の使用者の負担を軽減し、高度なG
UIを構築することが可能となる。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る人物顔動作検出方式
が適用される装置の構成を示すブロック図。
【図2】人物注目方向抽出部の構成を示すブロック図。
【図3】人物注目方向抽出部の処理の流れを説明するフ
ローチャート。
【図4】人物顔領域抽出部の処理の流れを説明するフロ
ーチャート。
【図5】第1の顔特徴点抽出部の処理の流れを説明する
フローチャート。
【図6】第2の顔特徴点抽出部の処理の流れを説明する
フローチャート。
【図7】顔動作検出部の構成を示すブロック図。
【図8】顔動作検出部の処理の流れを説明するフローチ
ャート。
【図9】顔動作イベント判定部の処理の流れを説明する
フローチャート。
【図10】判定条件設定部の処理の流れを説明するフロ
ーチャート。
【図11】形状認識修正部の処理の流れを説明するフロ
ーチャート。
【符号の説明】
1……画像入力部、2……画像記憶部、3……人物注目
方向抽出部、4……顔動作検出部、5……顔動作イベン
ト判定部、6……判定条件設定部、7……形状認識修正
部、8……操作デバイス、9……表示部、11……人物
顔領域抽出部、12……人物顔輪郭抽出部、13……第
1の顔特徴点抽出部、14……第2の顔特徴点抽出部、
15……人物注目方向算出部、21……口動作検出部、
22……左目動作検出部、23……右目動作検出部。

Claims (10)

    【特許請求の範囲】
  1. 【請求項1】 機器を操作する人物の顔領域を含む画像
    を入力し、この入力された画像から前記人物の注目方向
    を抽出し、かつ、前記人物の顔内部の部品の特定の変化
    を抽出し、この抽出した顔部品の特定の変化があらかじ
    め指定される操作コマンドであるか否かを判定し、この
    判定結果および前記抽出した人物の注目方向を外部へ出
    力することを特徴とする人物顔動作検出方式。
  2. 【請求項2】 機器を操作する人物の顔領域を含む画像
    を連続的に入力する画像入力手段と、 この画像入力手段で入力された画像を一時記憶する画像
    記憶手段と、 この画像記憶手段に記憶された画像から前記人物の注目
    方向を抽出する人物注目方向抽出手段と、 前記画像記憶手段に記憶された画像から前記人物の顔内
    部の部品の特定の変化を検出する顔動作検出手段と、 この顔動作検出手段で検出された顔部品の特定の変化が
    あらかじめ指定される操作コマンドであるか否かを判定
    する判定手段と、 を具備したことを特徴とする人物顔動作検出方式。
  3. 【請求項3】 機器を操作する人物の顔領域を含む画像
    を連続的に入力する画像入力手段と、 この画像入力手段で入力された画像を一時記憶する画像
    記憶手段と、 この画像記憶手段に記憶された画像から前記人物の注目
    方向を抽出する人物注目方向抽出手段と、 前記画像記憶手段に記憶された画像から前記人物の顔内
    部の部品の特定の変化を検出する顔動作検出手段と、 この顔動作検出手段で検出された顔部品の特定の変化が
    あらかじめ指定される操作コマンドであるか否かを判定
    する判定手段と、 この判定手段の判定結果および前記人物注目方向抽出手
    段の抽出結果を外部へ出力する出力手段と、 を具備したことを特徴とする人物顔動作検出方式。
  4. 【請求項4】 前記人物注目方向抽出手段は、前記画像
    記憶手段に記憶された画像から前記人物の顔領域を抽出
    する人物顔領域抽出手段と、この人物顔領域抽出手段で
    抽出された顔領域の周囲の輪郭を抽出する人物顔輪郭抽
    出手段と、この人物顔輪郭抽出手段で抽出された顔輪郭
    内において前記人物の顔の複数の特徴点を抽出する顔特
    徴点抽出手段と、この顔特徴点抽出手段で抽出された各
    特徴点に基づき前記人物の注目している方向を算出する
    人物注目方向算出手段とからなることを特徴とする請求
    項2または3記載の人物顔動作検出方式。
  5. 【請求項5】 前記人物顔領域抽出手段は、画像入力手
    段で入力された画像中の顔領域に相当する色成分を用い
    て顔領域を抽出することにより、前記顔特徴点抽出手段
    における特徴点抽出を安定化し、前記人物顔輪郭抽出手
    段は、人物顔領域抽出手段で抽出された顔領域の周囲と
    顔領域との境界を顔輪郭として抽出することにより、前
    記顔特徴点抽出手段における特徴点抽出をその輪郭内に
    限定することを特徴とする請求項4記載の人物顔動作検
    出方式。
  6. 【請求項6】 前記人物顔領域抽出手段は、顔周囲の候
    補領域を外接矩形として抽出する初期領域抽出手段と、
    この初期領域抽出手段で抽出された外接矩形上に配置さ
    れた探索点と矩形の中心とを結ぶ線上で境界を探索する
    環境探索手段と、この環境探索手段で繰り返し探索され
    た探索点を所定のルールにしたがって移動させることに
    より疑似輪郭の抽出をさけるための探索点再配置処理を
    行なう探索点再配置処理手段とからなることを特徴とす
    る請求項4記載の人物顔動作検出方式。
  7. 【請求項7】 前記判定手段は、抽出された特定部品領
    域のうち異なるフレームにおいて、前記顔部品領域から
    ある位置範囲領域内部に存在する部品領域候補を対応付
    けし、その結果から前記部品領域の時間的な変化を一定
    時間領域内で計測し、かつ、その変化量を特定の統計量
    に変換して評価することにより、顔部品の変化があらか
    じめ指定される操作コマンドであるか否かを判定するこ
    とを特徴とする請求項2または3記載の人物顔動作検出
    方式。
  8. 【請求項8】 前記判定手段は、さらに、人物顔輪郭抽
    出手段によって抽出された顔輪郭の時間変化を特定の統
    計量に変換し、これを評価することにより、顔部品の変
    化が前記人物の意志によるものか否かを判定することを
    特徴とする請求項4記載の人物顔動作検出方式。
  9. 【請求項9】 前記人物が前記画像入力手段に向かって
    所望の顔動作を複数回行なう間に複数個の顔動作データ
    を収集し、それらを統合することによって代表値を生成
    し、この代表値を変化統計量の評価のための条件として
    設定する判定条件設定手段をさらに具備したことを特徴
    とする請求項7記載の人物顔動作検出方式。
  10. 【請求項10】 顔領域や顔部品の抽出位置、形状の正
    解を特定の操作手段を用いて教示させることにより、そ
    の結果にしたがって前記人物顔領域抽出手段、人物顔輪
    郭抽出手段、顔特徴点抽出手段の各抽出特性を修正する
    形状認識修正手段をさらに具備したことを特徴とする請
    求項4記載の人物顔動作検出方式。
JP8124651A 1996-05-20 1996-05-20 人物顔動作検出方式 Pending JPH09305743A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8124651A JPH09305743A (ja) 1996-05-20 1996-05-20 人物顔動作検出方式

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8124651A JPH09305743A (ja) 1996-05-20 1996-05-20 人物顔動作検出方式

Publications (1)

Publication Number Publication Date
JPH09305743A true JPH09305743A (ja) 1997-11-28

Family

ID=14890690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8124651A Pending JPH09305743A (ja) 1996-05-20 1996-05-20 人物顔動作検出方式

Country Status (1)

Country Link
JP (1) JPH09305743A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6288704B1 (en) 1999-06-08 2001-09-11 Vega, Vista, Inc. Motion detection and tracking system to control navigation and display of object viewers
JP2002269544A (ja) * 2001-03-09 2002-09-20 Sensor:Kk 目の動きと口の形状認識を利用した文字入力装置
JP2004252511A (ja) * 2003-02-18 2004-09-09 Hitachi Ltd 顔向き推定方法
JP2007310914A (ja) * 2007-08-31 2007-11-29 Nippon Telegr & Teleph Corp <Ntt> マウス代替方法、マウス代替プログラム、および記録媒体
JP2008112360A (ja) * 2006-10-31 2008-05-15 Sony Computer Entertainment Inc ユーザインタフェイス装置
JP2009031368A (ja) * 2007-07-24 2009-02-12 Nec Corp 画面表示制御方法、画面表示制御方式、電子機器及びプログラム
JP2009531784A (ja) * 2006-03-29 2009-09-03 コグネックス・コーポレイション マシンビジョンツールパラメータの自動決定
JP2010165223A (ja) * 2009-01-16 2010-07-29 Denso Corp 操作推定装置およびプログラム
JP2021114343A (ja) * 2017-07-11 2021-08-05 株式会社日立エルジーデータストレージ 表示システム、及び表示システムの表示制御方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6288704B1 (en) 1999-06-08 2001-09-11 Vega, Vista, Inc. Motion detection and tracking system to control navigation and display of object viewers
JP2002269544A (ja) * 2001-03-09 2002-09-20 Sensor:Kk 目の動きと口の形状認識を利用した文字入力装置
JP2004252511A (ja) * 2003-02-18 2004-09-09 Hitachi Ltd 顔向き推定方法
US8126253B2 (en) 2005-11-12 2012-02-28 Cognex Technology And Investment Corporation Automatically determining machine vision tool parameters
JP2009531784A (ja) * 2006-03-29 2009-09-03 コグネックス・コーポレイション マシンビジョンツールパラメータの自動決定
JP4886844B2 (ja) * 2006-03-29 2012-02-29 コグネックス・コーポレイション マシンビジョンツールパラメータの自動決定
JP2008112360A (ja) * 2006-10-31 2008-05-15 Sony Computer Entertainment Inc ユーザインタフェイス装置
JP2009031368A (ja) * 2007-07-24 2009-02-12 Nec Corp 画面表示制御方法、画面表示制御方式、電子機器及びプログラム
JP2007310914A (ja) * 2007-08-31 2007-11-29 Nippon Telegr & Teleph Corp <Ntt> マウス代替方法、マウス代替プログラム、および記録媒体
JP2010165223A (ja) * 2009-01-16 2010-07-29 Denso Corp 操作推定装置およびプログラム
JP2021114343A (ja) * 2017-07-11 2021-08-05 株式会社日立エルジーデータストレージ 表示システム、及び表示システムの表示制御方法

Similar Documents

Publication Publication Date Title
Morris et al. Blink detection for real-time eye tracking
US5995639A (en) Apparatus for identifying person
US5912721A (en) Gaze detection apparatus and its method as well as information display apparatus
US6246779B1 (en) Gaze position detection apparatus and method
US7266225B2 (en) Face direction estimation using a single gray-level image
US8620024B2 (en) System and method for dynamic gesture recognition using geometric classification
KR100647322B1 (ko) 객체의 모양모델 생성장치 및 방법과 이를 이용한 객체의특징점 자동탐색장치 및 방법
JP3999964B2 (ja) 目を検出するマルチモードデジタル画像処理方法
US20070189584A1 (en) Specific expression face detection method, and imaging control method, apparatus and program
US20030016846A1 (en) Method for automatically locating eyes in an image
US20040161134A1 (en) Method for extracting face position, program for causing computer to execute the method for extracting face position and apparatus for extracting face position
JPH10320562A (ja) 人間の顔の検出システムおよび検出方法
Chauhan et al. Study & analysis of different face detection techniques
JP2000306095A (ja) 画像照合・検索システム
JP2006524394A (ja) 画像における人体輪郭描写
CN109782902A (zh) 一种操作提示方法及眼镜
JP2014093023A (ja) 物体検出装置、物体検出方法及びプログラム
JPH09305743A (ja) 人物顔動作検出方式
US7403636B2 (en) Method and apparatus for processing an image
JP2002366958A (ja) 画像認識方法および画像認識装置
US20240104769A1 (en) Information processing apparatus, control method, and non-transitory storage medium
WO2021250808A1 (ja) 画像処理装置、画像処理方法、及びプログラム
CN110543813B (zh) 一种基于场景的人脸画像、目光计数方法及系统
JP2006323779A (ja) 画像処理方法、画像処理装置
JPH09147119A (ja) 人物注目方向検出方式