JPH09147119A - 人物注目方向検出方式 - Google Patents

人物注目方向検出方式

Info

Publication number
JPH09147119A
JPH09147119A JP7309083A JP30908395A JPH09147119A JP H09147119 A JPH09147119 A JP H09147119A JP 7309083 A JP7309083 A JP 7309083A JP 30908395 A JP30908395 A JP 30908395A JP H09147119 A JPH09147119 A JP H09147119A
Authority
JP
Japan
Prior art keywords
person
face
area
image
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7309083A
Other languages
English (en)
Inventor
Nobuyoshi Enomoto
暢芳 榎本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP7309083A priority Critical patent/JPH09147119A/ja
Publication of JPH09147119A publication Critical patent/JPH09147119A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】操作人物の状態を自動的に把握し、操作人物の
状態に応じてユーザフレンドリな操作方法の表示などを
行なうことが可能となる人物注目方向検出方式を提供す
る。 【解決手段】画像入力部1で操作人物の顔領域を含む画
像を入力し、この入力された画像から人物顔領域抽出部
3で顔領域を抽出し、人物頭髪領域抽出部4で頭髪領域
を抽出し、これら抽出された顔領域と頭髪領域とから人
物頭部領域抽出部5で頭部領域を抽出し、人物顔領域抽
出部3で抽出された顔領域内において第1の顔特徴点抽
出部6で口領域を抽出し、第2の顔特徴点抽出部7で目
領域を抽出し、これら抽出された頭部領域と口領域およ
び目領域との位置関係から方向算出部8で顔の方向を求
め、この求めた顔方向の変化状況から人物操作状態算出
部9で人物の操作状態を推定し、その推定結果を出力部
10で外部へ出力する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、たとえば、現金自
動入出金装置や券売機などの会社システム機器、あるい
は、パーソナルコンピュータやワードプロセッサなどの
オフィスオートメーション機器などにおいて、操作人物
の注目している方向として人物の顔の向いている方向を
検出し、注目度や操作人物の状態を推定する人物注目方
向検出方式に関する。
【0002】
【従来の技術】従来、この種の技術として以下に説明す
る2つの方式が知られている。 (1)目尻および口の端点の4特徴点が等脚台形をなす
という仮定により、顔方向を推定した例(文献[1] 青山
宏、河越正弘:顔の面対称性を利用した視線感知法、情
処研報CV、VOL 61、NO.2参照)、および、顔を各点間
距離が既知の3特徴点からなる三角形と仮定し、各点の
3次元位置を求め、顔方向を推定した例(文献[2] 大村
和典、伴野明、小林幸雄:単眼視画像による顔の向き検
出法の指示入力への応用、信学論、VOL J72-D-11 NO.
9、PP.1441-1447参照)がある。
【0003】(2)頭全体および顔内部の高輝度変化領
域を抽出し、前者と後者との重心位置のずれによった顔
方向の検出を行ない、実時間による顔方向識別の検討を
行なった例(文献[3] 島田聡:顔画像からの注視方向の
実時間識別法、信学技法IE91-64 、PP.17-23参照)、さ
らに、後者領域の代わりとして特定色相方向彩度によっ
て検出した目および口領域を使用し、照明条件や顔の凹
凸による変動に対するロバスト性の向上を検討した例
(文献[4] 島田聡、安達文夫、石井健一郎:特定色相方
向の彩度による顔方向の識別、1993年春信学全大、D-51
4 、PP.7-275参照)がある。
【0004】
【発明が解決しようとする課題】上記(1)の両方式に
よれば、特徴点の位置が高精度に検出されていることを
前提としており、一般には、環境変動によって生ずる特
徴点位置の精度に対するロバスト性や、特徴点を正確に
抽出するために費やされる処理時間の点で問題が多い。
【0005】また、上気(2)の方式では、上述のよう
に、照明条件や顔の凹凸による変動に対するロバスト性
の向上を検討してはいるが、目に髪がかかる場合や、顔
が横方向を向いたときなどの変動によって、特徴点位置
が正確に検出されないなどの状況に対する考慮がなされ
ていない。
【0006】そこで、本発明は、操作人物の状態を自動
的に把握し、操作人物の状態に応じてユーザフレンドリ
な操作方法の表示などを行なうことが可能となる人物注
目方向検出方式を提供することを目的とする。
【0007】また、本発明は、グラフィカルユーザイン
タフェース装置において、高度なグラフィカルユーザイ
ンタフェースが構築可能となる人物注目方向検出方式を
提供することを目的とする。
【0008】
【課題を解決するための手段】本発明の人物注目方向検
出方式は、機器を操作する人物の顔領域を含む画像を入
力し、この入力された画像から操作対象人物の顔領域お
よび顔内部の特徴点位置を特定し、これら特定した顔領
域および顔内部の特徴点位置を用いて顔の方向とその時
間的な統計を検出することによって、操作人物の注目方
向と感情を含む操作状態とを推定することを特徴とす
る。
【0009】また、本発明の人物注目方向検出方式は、
機器を操作する人物の顔領域を含むカラー画像を連続的
に入力する画像入力手段と、この画像入力手段で入力さ
れた画像を一時記憶する画像記憶手段と、この画像記憶
手段に記憶された画像から人物の顔の領域を抽出する人
物顔領域抽出手段と、前記画像記憶手段に記憶された画
像から人物の頭髪の領域を抽出する人物頭髪領域抽出手
段と、前記人物顔領域抽出手段で抽出された顔領域と前
記人物頭髪領域抽出手段で抽出された頭髪領域とから人
物の頭部領域を抽出する人物頭部領域抽出手段と、前記
人物顔領域抽出手段で抽出された顔領域内において少な
くとも2種類の顔特徴点位置を抽出する顔特徴点抽出手
段と、前記人物頭部領域抽出手段で抽出された頭部領域
と前記顔特徴点抽出手段で抽出された顔特徴点との位置
関係から顔の方向を求める方向算出手段と、この方向算
出手段で求められた顔方向の変化状況から人物の操作状
態を推定する人物操作状態算出手段とを具備している。
【0010】また、本発明の人物注目方向検出方式は、
機器を操作する人物の顔領域を含むカラー画像を連続的
に入力する画像入力手段と、この画像入力手段で入力さ
れた画像を一時記憶する画像記憶手段と、この画像記憶
手段に記憶された画像から人物の顔の領域を抽出する人
物顔領域抽出手段と、前記画像記憶手段に記憶された画
像から人物の頭髪の領域を抽出する人物頭髪領域抽出手
段と、前記人物顔領域抽出手段で抽出された顔領域と前
記人物頭髪領域抽出手段で抽出された頭髪領域とから人
物の頭部領域を抽出する人物頭部領域抽出手段と、前記
人物顔領域抽出手段で抽出された顔領域内において少な
くとも2種類の顔特徴点位置を抽出する顔特徴点抽出手
段と、前記人物頭部領域抽出手段で抽出された頭部領域
と前記顔特徴点抽出手段で抽出された顔特徴点との位置
関係から顔の方向を求める方向算出手段と、この方向算
出手段で求められた顔方向の変化状況から人物の操作状
態を推定する人物操作状態算出手段と、この人物操作状
態算出手段で推定された人物の操作状態を示す情報を外
部へ出力する出力手段とを具備している。
【0011】さらに、本発明の人物注目方向検出方式
は、機器を操作する人物の顔領域を含むカラー画像を連
続的に入力する画像入力手段と、この画像入力手段で入
力された画像を一時記憶する画像記憶手段と、この画像
記憶手段に記憶された画像から人物の顔の領域を抽出す
る人物顔領域抽出手段と、前記画像記憶手段に記憶され
た画像から人物の頭髪の領域を抽出する人物頭髪領域抽
出手段と、前記人物顔領域抽出手段で抽出された顔領域
と前記人物頭髪領域抽出手段で抽出された頭髪領域とか
ら人物の頭部領域を抽出する人物頭部領域抽出手段と、
前記人物顔領域抽出手段で抽出された顔領域内において
少なくとも2種類の顔特徴点位置を抽出する顔特徴点抽
出手段と、前記人物頭部領域抽出手段で抽出された頭部
領域と前記顔特徴点抽出手段で抽出された顔特徴点との
位置関係から顔の方向を求める方向算出手段と、この方
向算出手段で求められた顔方向の変化状況から人物の操
作状態を推定する人物操作状態算出手段と、この人物操
作状態算出手段で推定された人物の操作状態を示す情報
をグラフィカルユーザインタフェース装置へ出力する出
力手段とを具備している。
【0012】本発明によれば、入力された操作人物の顔
領域を含む画像から操作対象人物の顔領域および顔内部
の特徴点位置を特定し、それらを用いて顔の方向とその
時間的な統計を検出することによって操作人物の注目方
向と感情を含む操作状態とを推定することにより、操作
人物の状態を自動的に把握し、操作人物の状態に応じて
ユーザフレンドリな操作方法の表示などを行なうことが
可能となる。
【0013】すなわち、たとえば、現金自動入出金装置
や券売機などの会社システム機器、あるいは、パーソナ
ルコンピュータやワードプロセッサなどのオフィスオー
トメーション機器などにおいて、一般ユーザが操作方法
を理解できないための問題があるが、本発明方式を用い
ることにより、操作人物の状態を機器側が把握し、操作
人物の状態に応じてユーザフレンドリな操作方法の表示
(ヘルプメニュー)などを行なうことが可能となる。
【0014】また、現在、パーソナルコンピュータやワ
ークステーションなどのグラフィカルユーザインタフェ
ース装置は、グラフィカルユーザインタフェース(GU
I)を備えていて、マウス操作を主体とした操作ができ
るが、本発明方式を用いることにより、注目領域による
操作ボタンの処理や、注目領域の表示を変更(拡大、表
示色の変更など)することによる、高度なグラフィカル
ユーザインタフェースが構築可能となる。
【0015】
【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照して説明する。なお、本実施の形態では、
ビデオカメラから入力された画像中に含まれる操作人物
の注目している方向として操作人物の顔の向いている方
向を検出し、注目度や操作人物の状態(操作方法に迷っ
ている、操作に疲れてきた等)を推定する装置に適用し
た場合について説明する。
【0016】図1は、本実施の形態に係る人物注目方向
検出方式が適用される装置の構成を示している。この装
置は、カラーのビデオカメラと、その出力をデジタル化
するA/D変換器とからなり、機器(たとえば、パーソ
ナルコンピュータ)を操作する人物の顔領域を含むカラ
ー画像を時間連続的に入力する画像入力部1、画像入力
部1により数フレームごとに入力されたR(赤),G
(緑),B(青)各8ビットのデジタル画像データを一
時記憶する画像記憶部2、画像記憶部2に記憶されたカ
ラー画像データ(入力画像)から人物の顔の領域を抽出
する人物顔領域抽出部3、画像記憶部2に記憶されたカ
ラー画像データから人物の頭髪の領域を抽出する人物頭
髪領域抽出部4、人物顔領域抽出部3で抽出された顔領
域と人物頭髪領域抽出部4で抽出された頭髪領域とから
人物の頭部領域を抽出する人物頭部領域抽出部5、人物
顔領域抽出部3で抽出された顔領域内において顔特徴点
として口領域を抽出する第1の顔特徴点抽出部6、人物
顔領域抽出部3で抽出された顔領域内において顔特徴点
として目領域を抽出する第2の顔特徴点抽出部7、人物
頭部領域抽出部5で抽出された頭部領域と第1,第2の
顔特徴点抽出部6,7で抽出された2種類の顔特徴点と
の位置関係から顔の方向を求める方向算出部8、方向算
出部8で求められた顔方向の変化状況から人物の操作状
態を推定する人物操作状態算出部9、および、人物操作
状態算出部9で推定された人物の操作状態を示す情報な
どをグラフィカルユーザインタフェース装置としてのパ
ーソナルコンピュータなどへ出力する出力部10によっ
て構成されている。
【0017】すなわち、本実施の形態の装置は、画像入
力部1により数フレームごとに入力されたRGB各8ビ
ットのデジタル画像データは、画像記憶部2に一時格納
される。画像記憶部2に格納された入力画像に対して、
後で詳細を説明するように、人物顔領域抽出部3、人物
頭髪領域抽出部4、および、人物頭部領域抽出部5をそ
れぞれ適用することにより、人物の顔領域画像、頭部領
域画像の重心位置、および、投影平面内での頭部の傾き
角をそれぞれ抽出する。
【0018】次に、こうして求められた顔領域画像内部
について、第1の顔特徴点抽出部6、第2の顔特徴点抽
出部7を用いることで、本来顔の正面に位置すると考え
られる顔内部の器官(ここでは、第1の特徴点として
口、第2の特徴点として目を使用)の投影面中での位置
を検出するとともに、各特徴点の重心位置をそれぞれ計
算する。
【0019】この後、方向算出部8によって、上記のよ
うに算出された頭部の重心位置、平面内での傾き角、お
よび、特徴点の重心位置から顔方向を計算し、さらに、
人物操作状態算出部9によって、各時刻で求められる顔
の方向の時間的統計分布を求めて、人物の注目の度合
い、および、操作人物の状態(操作方法に迷っている、
操作に疲れてきた等)を推定する。
【0020】この推定結果は、一定時間ごとに出力部1
0によって、算出された顔方向のベクトルに対して注目
度に応じた重みを伴わせたデータと、操作状態のデータ
(注目している、操作に迷っている、操作を中断してい
る)として、パーソナルコンピュータなどへ出力され
る。
【0021】以下、各部の処理について詳細に説明す
る。まず、人物顔領域抽出部3の処理について、図2に
示すフローチャートを参照して説明する。一般に、YI
Q表色系(文献[5] 高木、下田:画像解析ハンドブック
PP.103 参照)における、1成分画像の濃度頻度分布
(濃度ヒストグラム)には、肌色部分とそれ以外の部分
とで形状に顕著な差があることが知られている。すなわ
ち、濃度ヒストグラムの濃淡値軸の中位の部位で、他部
位との形状の異なる領域に人物の肌色に近い色が配置さ
れる。
【0022】本実施の形態では、この知識を用い、ま
ず、画像記憶部2内のRGBのカラー画像をYIQ表色
系のカラー画像に変換する。このときの変換式は、一般
に用いられている以下のような式(1)で差し支えな
い。
【0023】 Y=0.30・R+0.59・G+0.11・B I=0.60・R−0.28・G−0.32・B Q=0.21・R−0.52・G+0.31・B …… (1) ただし、R,G,B,Y,I,Qは、それぞれカラー画
像のR,G,B,Y,I,Q成分を示す。
【0024】次に、上述の処理によって抽出された1成
分画像のみの濃度ヒストグラムをとる。ここでは、横軸
を濃淡値(0〜255)、縦軸を頻度としたものとして
濃度ヒストグラムを作成する。
【0025】さらに、この作成した濃度ヒストグラムを
濃度軸上で3領域(クラス)に領域分割し、濃度が中間
のクラスを選択して肌色領域を抽出する。このときのク
ラス分割手法としては、K−平均アルゴリズムなどの一
般に知られているクラスタリングのアルゴリズムを使用
して差し支えない。
【0026】以上の処理によって、入力画像中から肌色
をした画像領域を抽出することが可能であるが、入力画
像の中には、たとえば、手などのように、顔以外で肌色
をした領域が存在する可能性があるので、ここでは、あ
らかじめ全画面に対する顔領域の面積比率を求めてお
き、上記で求まった肌色の領域のうちで、面積比率が顔
のそれに最も近いものを選択することで、顔領域を抽出
する。ここでの肌色領域の面積の計算は、連結領域のラ
ベリング手法(文献[6] 高木、下田:画像解析ハンドブ
ック PP.578 参照)や射影抽出の閾値処理による手法な
どを使用して差し支えない。
【0027】上記処理によって抽出された顔画像領域
は、顔部分の濃淡値を「1」、顔以外の部分の濃淡値を
「0」とした2値デジタル画像(顔領域画像)として出
力される。
【0028】次に、人物頭髪領域抽出部4の処理につい
て、図3に示すフローチャートを参照して説明する。頭
髪領域の抽出には、画面内での人物の頭髪領域の画面全
体に対する面積比率を既知として利用し、「黒領域で、
画面全体に対する面積比率が既知の値に最も近く、顔領
域の上部に位置するもの」を検出する。
【0029】この検出においても、顔と同様に、ある種
の色差画像において、ヒストグラム形状に特徴を求める
こととし、Y成分画像を数クラスに分割したときの最小
濃度のクラスを抽出して使用する。これは、変換が容易
な色差成分であるY,I,Qのうちで、Y成分での頭髪
部分画素に対する濃度頻度分布(ヒストグラム)が最も
特徴的であり、クラス分離しやすいためである。
【0030】したがって、ここでは、上述の人物顔領域
抽出部3の処理と同様に、まず、入力画像に対してRG
B→YIQ変換を行なう。次に、上述の処理にて抽出さ
れたY成分画像のみの濃度ヒストグラムをとり、これを
濃度軸上で領域分割し、濃度が最小の領域(クラス)を
選択して頭髪色領域を抽出する。このときのクラス分割
手法としては、前述のようにK−平均アルゴリズムなど
の一般に知られているクラスタリングのアルゴリズムを
使用して差し支えない。さらに、分割クラス数は実験的
に求めた最適な値を使用する。
【0031】そして、あらかじめ求めておいた頭髪領域
の全画面に対する面積比率により、上記で求まった頭髪
候補領域のうちで、前述した人物顔領域抽出部3で抽出
した顔領域よりも画面上方に位置するもので、顔と面積
比率があらかじめ実験的に求めて登録してある頭髪のそ
れと最も近いものを選択することで、頭髪領域を抽出す
る。
【0032】ここでの頭髪領域の面積の計算は、前述の
人物顔領域抽出部3と同様の手法を使用して差し支えな
い。上述の処理によって抽出された頭髪領域は、頭髪部
分の濃淡値を「1」、それ以外の部分の濃淡値を「0」
とした2値デジタル画像(頭髪領域画像)として出力さ
れる。
【0033】次に、人物頭部領域抽出部5の処理につい
て、図4に示すフローチャートを参照して説明する。上
述した人物顔領域抽出部3および人物頭髪領域抽出部4
の各処理によって、画面内の人物の顔領域画像、およ
び、頭髪領域画像の領域を切出すことができ、両領域は
前述のデジタル画像として表現されるため、本人物頭部
領域抽出部5の処理では、まず、これらを図5(a)に
示す画像の論理和演算によって合成し、頭部領域画像を
作成する。
【0034】次に、合成された領域について、以下の式
(2)にしたがって、その重心座標を求める。すなわ
ち、人物頭部領域の2値デジタル画像をf(x,y)と
すると、重心座標(xg,yg)は、x,y軸方向への
1次モーメントであり、 xg=∫∫xf(x,y)dxdy yg=∫∫yf(x,y)dxdy …… (2) で示される。
【0035】また、上記合成領域の2次のモーメントか
ら、慣性主軸方向を求め、これを投影平面内での頭部傾
き角度θとする(図5b参照)。すなわち、x,y軸方
向の0,1,2次の慣性モーメントをmij(i,j=
0,1,2)とすると、慣性主軸方向(頭部傾き角度)
θは以下の式(3)にしたがって算出する。
【0036】 θ=1/2・tan-1(2・m11/(m02−m20)) …… (3) ここで、m11,m02,m20は、それぞれm11=∫∫xy
f(x,y)dxdy、m20=∫∫xf(x,y)2
xdy、m02=∫∫yf(x,y)2 dxdyである。
【0037】次に、第1の顔特徴点抽出部6の処理につ
いて、図6に示すフローチャートを参照して説明する。
前述したように、第1の顔特徴点としては口を選択し、
これを抽出する。
【0038】一般に、YIQ表色系のQ成分画像におい
ては、口の領域の濃淡値は特定値付近に集中することが
知られている。この性質を利用して、入力画像のうち、
前述の人物顔領域抽出部3の処理で抽出された顔領域画
像の内部について、Q成分画像の濃度ヒストグラムを計
測し、クラス分けする。さらに、このクラスのうち、口
領域を端的に示すものをあらかじめ教示しておき、その
領域を抽出する。ここでは、分割クラス数は実験的に求
めたものを使用し、このうち口領域として抽出するクラ
スは、濃淡値が最大になるものとした。
【0039】したがって、前述の人物顔領域抽出部3と
同様に、まず、入力画像に対してRGB→YIQ変換を
行なう。次に、上述の処理にて抽出されたQ成分画像の
みの濃度ヒストグラムをとり、これを濃度軸上で領域分
割し、濃度が最大の領域(クラス)を選択して口候補領
域を抽出する。ここでも、クラスタリング手法は、前述
同様、既存のものを使用して差し支えない。
【0040】ここまでの処理によって、口領域の候補領
域が抽出されるわけであるが、口以外の領域についても
抽出されてしまう可能性があるため、各候補領域の外接
矩形の内部に対して以下の評価関数値を最小化するもの
を選択して、これらを限定し、口領域周囲の外接矩形の
みを抽出し、その重心座標を求める。すなわち、評価関
数Emは、 Em=−(Ws・S+Wp・P+Wpp・PP) …… (4) である。ただし、Sは候補領域の面積、Pは候補領域の
高さ方向の位置(大なる程、画面下に位置する)、PP
は候補領域内の最大幅長、Ws,Wp,Wppは重み定
数である。
【0041】次に、第2の顔特徴点抽出部7の処理につ
いて、図7に示すフローチャートを参照して説明する。
前述したように、第2の顔特徴点としては目を選択し、
これを抽出する。
【0042】一般に、カラー画像を下記数1の色相
(H)、彩度(S)(文献[7] 杉山、田辺:動画像を用
いた実時間瞬目抽出法、画像ラボ、1993.9、PP.45-48参
照)で表現したときのS成分においては、目の瞳領域の
濃淡値は特定値付近に集中することが知られている。
【0043】
【数1】
【0044】ただし、R,G,Bは0〜255とし、r
=255R/(R+G+B)、g=255G/(R+G
+B)とする。この性質を利用して、入力画像のうち、
前述の人物顔領域抽出部3の処理で抽出された顔領域画
像の内部について、S成分画像の濃度ヒストグラムを計
測し、クラス分けする。さらに、このクラスのうち、瞳
領域を端的に示すものをあらかじめ教示しておき、その
領域を抽出する。
【0045】しかし、この変換においても、たとえば、
髪の毛が目の部分にかかっている場合は、瞳、髪のS成
分画像での濃度が接近しているため、分離が困難とな
る。そのため、ここでは、S成分画像に対して、評価関
数値の最小化による入力顔画像適応形のテンプレートマ
ッチング手法を用いて、目領域のみの抽出精度を高める
ようにする。
【0046】マッチングの特徴量は、以下のような目の
領域に関する周囲領域、位置、形状の3つの性質を使用
する。 (a)周囲領域:画像中の目領域の周囲の画素の濃淡値
は瞳領域のそれとは異なる。
【0047】(b)位置:目領域は顔の対象軸からあま
り離れていない。 (c)形状:瞳領域と目の全体領域それぞれとの顔領域
に対する幅の比率、および、瞳、目全体それぞれの面積
比率はほぼ一定である。これは、複数の人物をサンプル
とするカラー顔画像の計測により求める。
【0048】したがって、これに基づくマッチングアル
ゴリズムは次に示すようになる。まず、前述の人物顔領
域抽出部3の処理で抽出された顔領域の高さHfおよび
幅Wfから、目の領域の高さHeおよび幅Weを下記式
(5)によって推定する。
【0049】 He=Hf・Rh We=Wf・Rw …… (5) ここで、RhおよびRwは、それぞれ顔高さと目高さと
の比率および顔幅と目幅との比率であり、複数の人物サ
ンプルにおける顔高さおよび幅と目のそれらとの比率の
平均的な値を用いる。
【0050】次に、顔領域内部において、前記数1にお
けるS成分画像を求め、口の抽出と同様、濃淡ヒストグ
ラムを分割し、その内の特定クラスを抽出する。このと
きの分割クラス数は実験的に求め、特定クラスは瞳の濃
度に相当するもので、分割クラスのうち濃度の最小なも
のとした。
【0051】次に、この濃度クラスのみ抽出された画像
のうち、顔の上方に位置し、顔幅に相当する領域を、式
(5)の目領域の大きさに相当するブロックに分割し、
各ブロック内部での下記式(6)に示す評価関数値Ee
が最小なるものを選択し、その評価値最小ブロックにつ
いて重心座標を求める。
【0052】 Ee=(Wn・N+Wd・D+Wf・F) …… (6) ただし、Nは注目ブロックの周囲の瞳濃度クラスに属す
る画素数、Dは顔の対象軸からの距離(対象軸との傾き
で代用)、Fは平均的な人物における瞳領域と目領域と
の面積比からの誤差、Wn,Wd,Wfは重み定数であ
る。
【0053】次に、方向算出部8の処理について説明す
る。方向算出部8は、顔全体の位置に対する顔内部の特
徴点との位置関係によって顔の方向を推定する。これに
は様々な既存手法が考えられるが、本実施の形態では、
従来の技術で説明した頭全体の重心と顔内部の特徴点と
して高輝度変化領域を抽出し、それらの重心同士のずれ
を比較する方式(文献[3] 参照)を応用している。
【0054】すなわち、頭全体としては、前述の人物頭
部領域抽出部5で抽出された頭部領域を用い、顔内部の
高輝度変化領域の重心の代わりに、前述の第1の顔特徴
点抽出部6、および、第2の顔特徴点抽出部7で抽出さ
れた各特徴点の位置の重心を使用している。
【0055】次に、人物操作状態算出部9の処理につい
て、図8に示すフローチャートを参照して説明する。人
物操作状態算出部9は、上述の顔方向算出部8によって
算出された顔方向を一定の離散時間で求め、これらの時
間的な変化パターンや統計量を算出し、あらかじめ複数
の被験者を対象として求められ、被験者の状態(注目し
ている、操作に迷っている、操作を中断している等)を
示す標準的な参照データと比較することにより、操作人
物の状態を推定する。
【0056】すなわち、本実施の形態においては、顔方
向の時間的な統計量としては、顔方向の時間平均θaと
時間分散θv、および、顔方向が指定操作範囲(たとえ
ば操作パネル上)外を示した時間θxを求める。そし
て、これらを、あらかじめ求めておいた、それぞれの閾
値Ta,TvおよびTxと比較して、以下の3種類の状
態を決定する。
【0057】 θa>Ta かつ θv<Tv →注目している。 θa<Ta かつ θv>Tv →操作に迷っている。 θx>Tx →操作を中断している。 …… (7) ここで、出力部10へは、上記θa,θv、および、上
記3状態をステータス信号として出力する。
【0058】次に、出力部10の処理について説明す
る。出力部10は、全体処理でも説明した通り、算出さ
れた顔方向のベクトルに注目度に応じた重みを伴わせた
データと、操作状態のデータ(注目している、操作に迷
っている、操作を中断している)として出力される。こ
こで、注目度Nとしては、上述のθa,θvを用いて、 N=Wa・θa+Wv/θv …… (8) となる。
【0059】ここに、Wa,Wvは、表示階調を注目度
に比例するようにスケーリングするための定数である。
また、操作状態の出力としては、人物操作状態算出部9
の処理で示した3状態のステータス信号をそのまま使用
する。
【0060】次に、人物注目方向によるグラフィカルユ
ーザインタフェース(GUI)について説明する。図9
は、図1における符号1〜10までを1つの処理装置、
すなわち、人物注目方向検出装置11と考え、出力部1
0からのデータを、グラフィカルユーザインタフェース
装置としての、表示装置12を備えた汎用のパーソナル
コンピュータ(汎用パソコン)13に与えることによっ
て、操作人物の顔の方向と注目度とに応じた、表示装置
12の画面内のアイコンクリック、および、操作メッセ
ージ起動の例を説明する図である。
【0061】人物注目方向検出装置11からパーソナル
コンピュータ13に送られたステータス信号(人物操作
状態算出部9の処理で述べたもの)のそれぞれの状態に
応じて、パーソナルコンピュータ13の表示装置12で
は、以下に示す(a)〜(c)のようなアクションをお
こし、ユーザとの会話を行なう。このときの画像入力部
1のビデオカメラ1aと表示装置12の画面との位置関
係を図10に示す。
【0062】(a)ステータス信号=「注目している」
の場合 前述の顔重心位置14を原点とする座標系を考え、そこ
から表示装置12の画面に向かう前述の方向ベクトルと
画面との交点(xi,yi,z)を求め、その位置に最
も近く、現在のユーザ(操作人物)15のアクションと
して可能性のあるアイコン位置をユーザ15によるピッ
ク位置とし、対応するアクションを起す。
【0063】たとえば、ユーザ15のイエス/ノーの選
択時には、ユーザ15のピックの探索は、これら2つの
アイコンが、ユーザ15に選択されたものとしての可能
性がある。なお、Zは、あらかじめ設定しておいたユー
ザ15の顔と表示装置12の画面との距離である。
【0064】(b)ステータス信号=「操作に迷ってい
る」の場合 ユーザ15に対して、たとえば、表示と音声によって
「お困りですか?」というメッセージを出力し、さら
に、たとえば、「上記の質問に答えるためにイエス/ノ
ーの位置を注視してください。」といった、操作のより
詳しいメッセージを表示する。
【0065】(c)ステータス信号=「操作を中断して
いる」の場合 中断している状態が、非常に長い一定回数だけ続いた場
合には、表示装置12の画面の焼き付きを保護するため
にスクリーンセイバープログラムを起動する。このプロ
グラムについては、どのようなものを使用してもよい。
【0066】
【発明の効果】以上詳述したように本発明の人物注目方
向検出方式によれば、入力された操作人物の顔領域を含
む画像から操作対象人物の顔領域および顔内部の特徴点
位置を特定し、それらを用いて顔の方向とその時間的な
統計を検出することによって操作人物の注目方向と感情
を含む操作状態とを推定することにより、操作人物の状
態を自動的に把握し、操作人物の状態に応じてユーザフ
レンドリな操作方法の表示などを行なうことが可能とな
る。
【0067】すなわち、たとえば、現金自動入出金装置
や券売機などの会社システム機器、あるいは、パーソナ
ルコンピュータやワードプロセッサなどのオフィスオー
トメーション機器などにおいて、一般ユーザが操作方法
を理解できないための問題があるが、本発明方式を用い
ることにより、操作人物の状態を機器側が把握し、操作
人物の状態に応じてユーザフレンドリな操作方法の表示
(ヘルプメニュー)などを行なうことが可能となる。
【0068】また、現在、パーソナルコンピュータやワ
ークステーションなどのグラフィカルユーザインタフェ
ース装置は、グラフィカルユーザインタフェース(GU
I)を備えていて、マウス操作を主体とした操作ができ
るが、本発明方式を用いることにより、注目領域による
操作ボタンの処理や、注目領域の表示を変更(拡大、表
示色の変更など)することによる、高度なグラフィカル
ユーザインタフェースが構築可能となる。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る人物注目方向検出方
式が適用される装置の構成を示すブロック図。
【図2】人物顔領域抽出部の処理を説明するフローチャ
ート。
【図3】人物頭髪領域抽出部の処理を説明するフローチ
ャート。
【図4】人物頭部領域抽出部の処理を説明するフローチ
ャート。
【図5】人物頭部領域画像の合成および人物頭部領域画
像の投影面内での傾き角度を説明する図。
【図6】第1の顔特徴点抽出部の処理を説明するフロー
チャート。
【図7】第2の顔特徴点抽出部の処理を説明するフロー
チャート。
【図8】人物操作状態算出部の処理を説明するフローチ
ャート。
【図9】人物注目方向によるグラフィカルユーザインタ
フェースについて説明するブロック図。
【図10】画像入力部のビデオカメラと表示装置の画面
との位置関係を示す概略図。
【符号の説明】
1……画像入力部、2……画像記憶部、3……人物顔領
域抽出部、4……人物頭髪領域抽出部、5……人物頭部
領域抽出部、6……第1の顔特徴点抽出部、7……第2
の顔特徴点抽出部、8……方向算出部、9……人物操作
状態算出部、10……出力部、11……人物注目方向検
出装置、12……表示装置、13……パーソナルコンピ
ュータ。

Claims (11)

    【特許請求の範囲】
  1. 【請求項1】 機器を操作する人物の顔領域を含む画像
    を入力し、この入力された画像から操作対象人物の顔領
    域および顔内部の特徴点位置を特定し、これら特定した
    顔領域および顔内部の特徴点位置を用いて顔の方向とそ
    の時間的な統計を検出することによって、操作人物の注
    目方向と感情を含む操作状態とを推定することを特徴と
    する人物注目方向検出方式。
  2. 【請求項2】 機器を操作する人物の顔領域を含むカラ
    ー画像を連続的に入力する画像入力手段と、 この画像入力手段で入力された画像を一時記憶する画像
    記憶手段と、 この画像記憶手段に記憶された画像から人物の顔の領域
    を抽出する人物顔領域抽出手段と、 前記画像記憶手段に記憶された画像から人物の頭髪の領
    域を抽出する人物頭髪領域抽出手段と、 前記人物顔領域抽出手段で抽出された顔領域と前記人物
    頭髪領域抽出手段で抽出された頭髪領域とから人物の頭
    部領域を抽出する人物頭部領域抽出手段と、 前記人物顔領域抽出手段で抽出された顔領域内において
    少なくとも2種類の顔特徴点位置を抽出する顔特徴点抽
    出手段と、 前記人物頭部領域抽出手段で抽出された頭部領域と前記
    顔特徴点抽出手段で抽出された顔特徴点との位置関係か
    ら顔の方向を求める方向算出手段と、 この方向算出手段で求められた顔方向の変化状況から人
    物の操作状態を推定する人物操作状態算出手段と、 を具備したことを特徴とする人物注目方向検出方式。
  3. 【請求項3】 機器を操作する人物の顔領域を含むカラ
    ー画像を連続的に入力する画像入力手段と、 この画像入力手段で入力された画像を一時記憶する画像
    記憶手段と、 この画像記憶手段に記憶された画像から人物の顔の領域
    を抽出する人物顔領域抽出手段と、 前記画像記憶手段に記憶された画像から人物の頭髪の領
    域を抽出する人物頭髪領域抽出手段と、 前記人物顔領域抽出手段で抽出された顔領域と前記人物
    頭髪領域抽出手段で抽出された頭髪領域とから人物の頭
    部領域を抽出する人物頭部領域抽出手段と、 前記人物顔領域抽出手段で抽出された顔領域内において
    少なくとも2種類の顔特徴点位置を抽出する顔特徴点抽
    出手段と、 前記人物頭部領域抽出手段で抽出された頭部領域と前記
    顔特徴点抽出手段で抽出された顔特徴点との位置関係か
    ら顔の方向を求める方向算出手段と、 この方向算出手段で求められた顔方向の変化状況から人
    物の操作状態を推定する人物操作状態算出手段と、 この人物操作状態算出手段で推定された人物の操作状態
    を示す情報を外部へ出力する出力手段と、 を具備したことを特徴とする人物注目方向検出方式。
  4. 【請求項4】 前記カラー画像はR(赤),G(緑),
    B(青)のカラー画像であり、前記人物顔領域抽出手段
    は、前記画像記憶手段に記憶されたR,G,Bのカラー
    画像から顔領域を抽出するために、前記R,G,Bのカ
    ラー画像を特定表色系のカラー画像に変換し、頻度分布
    上で前記顔領域の有する濃度が他の領域の濃度と有意差
    を持つ特定の1種類の色成分画像を使用して、頻度分布
    上でのクラス分けによる領域候補の抽出を行なうととも
    に、あらかじめ求められた画面内での人物の顔および頭
    の全画面に対する面積比率による前記抽出された領域候
    補の選択を行なうことを特徴とする請求項2および3記
    載の人物注目方向検出方式。
  5. 【請求項5】 前記カラー画像はR(赤),G(緑),
    B(青)のカラー画像であり、前記人物頭髪領域抽出手
    段は、前記画像記憶手段に記憶されたR,G,Bのカラ
    ー画像から頭髪領域を抽出するために、前記R,G,B
    のカラー画像を特定表色系のカラー画像に変換し、頻度
    分布上で前記頭髪領域の有する濃度が他の領域の濃度と
    有意差を持つ特定の1種類の色成分画像を使用して、頻
    度分布上でのクラス分けによる領域候補の抽出を行なう
    とともに、あらかじめ求められた画面内での人物の顔お
    よび頭の全画面に対する面積比率による前記抽出された
    領域候補の選択を行なうことを特徴とする請求項2およ
    び3記載の人物注目方向検出方式。
  6. 【請求項6】 前記顔特徴点抽出手段は、抽出する2種
    類の顔特徴点のうちの1種類として口領域を用い、その
    口領域を抽出するために、頻度分布上で口領域の濃度が
    他の領域の濃度に対して有意差を持つ特定の表色系の1
    種類の色成分画像を前記画像記憶手段に記憶された画像
    から抽出することにより口候補領域の抽出を行なうとと
    もに、口候補領域の面積、位置、幅とからなるコスト評
    価関数の最小化により前記抽出された口候補領域の選択
    を行なうことを特徴とする請求項2および3記載の人物
    注目方向検出方式。
  7. 【請求項7】 前記顔特徴点抽出手段は、抽出する2種
    類の顔特徴点のうちの1種類として目領域を用い、その
    目領域を抽出するために、頻度分布上で目のうちの瞳領
    域の濃度が他の領域の濃度に対して有意差を持つ特定の
    表色系の1種類の色成分画像を前記画像記憶手段に記憶
    された画像から抽出することにより目候補領域の抽出を
    行なうとともに、目候補領域外における瞳相当領域の面
    積と顔との対象軸からの距離と標準的人物の目全体面積
    に対する瞳領域面積の比率とからなるコスト評価関数の
    最小化により前記抽出された目候補領域の選択を行なう
    ことを特徴とする請求項2および3記載の人物注目方向
    検出方式。
  8. 【請求項8】 前記人物操作状態算出手段は、顔方向を
    一定の離散時間で求め、これらの時間的な変化パターン
    や統計量を算出し、あらかじめ複数の被験者を対象とし
    て求められた被験者の操作状態を示す標準的な参照デー
    タと比較することにより人物の操作状態を推定すること
    を特徴とする請求項2および3記載の人物注目方向検出
    方式。
  9. 【請求項9】 前記出力手段は、前記方向算出手段で求
    められたある瞬間の顔方向に対して、前記人物操作状態
    算出手段で算出された顔方向の時間変化統計量を用いて
    人物のその方向への注目度を推定することにより、人物
    の操作状態を方向ベクトルと注目度という2つの量とし
    て外部へ出力することを特徴とする請求項8記載の人物
    注目方向検出方式。
  10. 【請求項10】 機器を操作する人物の顔領域を含むカ
    ラー画像を連続的に入力する画像入力手段と、 この画像入力手段で入力された画像を一時記憶する画像
    記憶手段と、 この画像記憶手段に記憶された画像から人物の顔の領域
    を抽出する人物顔領域抽出手段と、 前記画像記憶手段に記憶された画像から人物の頭髪の領
    域を抽出する人物頭髪領域抽出手段と、 前記人物顔領域抽出手段で抽出された顔領域と前記人物
    頭髪領域抽出手段で抽出された頭髪領域とから人物の頭
    部領域を抽出する人物頭部領域抽出手段と、 前記人物顔領域抽出手段で抽出された顔領域内において
    少なくとも2種類の顔特徴点位置を抽出する顔特徴点抽
    出手段と、 前記人物頭部領域抽出手段で抽出された頭部領域と前記
    顔特徴点抽出手段で抽出された顔特徴点との位置関係か
    ら顔の方向を求める方向算出手段と、 この方向算出手段で求められた顔方向の変化状況から人
    物の操作状態を推定する人物操作状態算出手段と、 この人物操作状態算出手段で推定された人物の操作状態
    を示す情報をグラフィカルユーザインタフェース装置へ
    出力する出力手段と、 を具備したことを特徴とする人物注目方向検出方式。
  11. 【請求項11】 前記グラフィカルユーザインタフェー
    ス装置は、前記出力手段が出力する人物の操作状態を示
    す情報を受信することにより、操作人物が操作方法がわ
    からずに迷っている状態では、指示メッセージをより細
    かく出力するようにするといった指示メッセージの内容
    の変化や、指示メッセージの表示色を目立つようにする
    といった指示メッセージの方法の変化を起こさせるとい
    った、インタフェースのダイナミックかつ状態に応じた
    提供を行なうことを特徴とする請求項10記載の人物注
    目方向検出方式。
JP7309083A 1995-11-28 1995-11-28 人物注目方向検出方式 Pending JPH09147119A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7309083A JPH09147119A (ja) 1995-11-28 1995-11-28 人物注目方向検出方式

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7309083A JPH09147119A (ja) 1995-11-28 1995-11-28 人物注目方向検出方式

Publications (1)

Publication Number Publication Date
JPH09147119A true JPH09147119A (ja) 1997-06-06

Family

ID=17988689

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7309083A Pending JPH09147119A (ja) 1995-11-28 1995-11-28 人物注目方向検出方式

Country Status (1)

Country Link
JP (1) JPH09147119A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000082147A (ja) * 1998-09-05 2000-03-21 Sharp Corp ヒトの顔を検出する方法および装置、ならびに観察者トラッキングディスプレイ
JP2000209578A (ja) * 1999-01-20 2000-07-28 Nri & Ncc Co Ltd 広告メディア評価装置および広告メディア評価方法
WO2001015086A1 (fr) * 1999-08-19 2001-03-01 Sony Corporation Processeur d'images, procede de traitement d'images et support enregistre
JP2004105590A (ja) * 2002-09-20 2004-04-08 Matsushita Electric Ind Co Ltd 目位置検出装置及び方法
JP2004272933A (ja) * 2004-06-03 2004-09-30 Toshiba Corp 顔画像監視システム
WO2007074842A1 (ja) * 2005-12-27 2007-07-05 Matsushita Electric Industrial Co., Ltd. 画像処理装置
JP2010217955A (ja) * 2009-03-13 2010-09-30 Omron Corp 検出装置、評価装置および方法、並びに、プログラム
US9152852B2 (en) 2012-11-27 2015-10-06 Fujitsu Limited Perceptual reaction analyzer, and method and program thereof
JP2017530491A (ja) * 2015-07-31 2017-10-12 小米科技有限責任公司Xiaomi Inc. 秘密ピクチャー識別方法、装置及びサーバ
JP2019105729A (ja) * 2017-12-12 2019-06-27 株式会社テイクアンドシー 人物評価装置、プログラム、及び、方法

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000082147A (ja) * 1998-09-05 2000-03-21 Sharp Corp ヒトの顔を検出する方法および装置、ならびに観察者トラッキングディスプレイ
JP2000209578A (ja) * 1999-01-20 2000-07-28 Nri & Ncc Co Ltd 広告メディア評価装置および広告メディア評価方法
WO2001015086A1 (fr) * 1999-08-19 2001-03-01 Sony Corporation Processeur d'images, procede de traitement d'images et support enregistre
US6965693B1 (en) 1999-08-19 2005-11-15 Sony Corporation Image processor, image processing method, and recorded medium
KR100730500B1 (ko) * 1999-08-19 2007-06-27 소니 가부시끼 가이샤 화상 처리 장치와 화상 처리 방법 및 기록 매체
JP4604439B2 (ja) * 1999-08-19 2011-01-05 ソニー株式会社 画像処理装置及び画像処理方法、並びに記録媒体
JP2004105590A (ja) * 2002-09-20 2004-04-08 Matsushita Electric Ind Co Ltd 目位置検出装置及び方法
JP2004272933A (ja) * 2004-06-03 2004-09-30 Toshiba Corp 顔画像監視システム
JP2007200298A (ja) * 2005-12-27 2007-08-09 Matsushita Electric Ind Co Ltd 画像処理装置
WO2007074842A1 (ja) * 2005-12-27 2007-07-05 Matsushita Electric Industrial Co., Ltd. 画像処理装置
US7889244B2 (en) 2005-12-27 2011-02-15 Panasonic Corporation Image processing apparatus
JP2010217955A (ja) * 2009-03-13 2010-09-30 Omron Corp 検出装置、評価装置および方法、並びに、プログラム
US9152852B2 (en) 2012-11-27 2015-10-06 Fujitsu Limited Perceptual reaction analyzer, and method and program thereof
JP2017530491A (ja) * 2015-07-31 2017-10-12 小米科技有限責任公司Xiaomi Inc. 秘密ピクチャー識別方法、装置及びサーバ
US10235603B2 (en) 2015-07-31 2019-03-19 Xiaomi Inc. Method, device and computer-readable medium for sensitive picture recognition
JP2019105729A (ja) * 2017-12-12 2019-06-27 株式会社テイクアンドシー 人物評価装置、プログラム、及び、方法

Similar Documents

Publication Publication Date Title
CN110348543B (zh) 眼底图像识别方法、装置、计算机设备及存储介质
KR102347336B1 (ko) 응시점 판단 방법 및 장치, 전자 기기 및 컴퓨터 저장 매체
US6677969B1 (en) Instruction recognition system having gesture recognition function
RU2439653C2 (ru) Виртуальный контроллер для визуальных отображений
KR100947990B1 (ko) 차영상 엔트로피를 이용한 시선 추적 장치 및 그 방법
JPH09251342A (ja) 注視箇所推定装置とその方法及びそれを使用した情報表示装置とその方法
CN108229324A (zh) 手势追踪方法和装置、电子设备、计算机存储介质
JP2003030667A (ja) イメージ内で目を自動的に位置決めする方法
EP2980755A1 (en) Method for partitioning area, and inspection device
JP2008192100A (ja) 瞼検出装置及びプログラム
US10395091B2 (en) Image processing apparatus, image processing method, and storage medium identifying cell candidate area
EP2905680A1 (en) Information processing apparatus, information processing method, and program
CN112135041B (zh) 一种人脸特效的处理方法及装置、存储介质
JP6334767B1 (ja) 情報処理装置、プログラム、及び情報処理方法
JPH09147119A (ja) 人物注目方向検出方式
CN109426789A (zh) 手和图像检测方法和系统、手分割方法、存储介质和设备
JP2003150306A (ja) 情報表示装置とその方法
JP6559359B2 (ja) ジェスチャー判定装置、ジェスチャー操作装置、及びジェスチャー判定方法
JP4203279B2 (ja) 注目判定装置
CN115601811A (zh) 面部痤疮的检测方法和装置
JPH09305743A (ja) 人物顔動作検出方式
JP2010271921A (ja) 皮膚領域抽出方法、皮膚領域抽出装置、および皮膚領域抽出プログラム
CN115661903A (zh) 一种基于空间映射协同目标过滤的识图方法及装置
JP2020140518A (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP2009003842A (ja) 画像処理装置及び画像処理方法