JP2003070742A - 視線検出装置及び視線検出方法 - Google Patents
視線検出装置及び視線検出方法Info
- Publication number
- JP2003070742A JP2003070742A JP2001263937A JP2001263937A JP2003070742A JP 2003070742 A JP2003070742 A JP 2003070742A JP 2001263937 A JP2001263937 A JP 2001263937A JP 2001263937 A JP2001263937 A JP 2001263937A JP 2003070742 A JP2003070742 A JP 2003070742A
- Authority
- JP
- Japan
- Prior art keywords
- circularity
- pupil
- area
- line
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Eye Examination Apparatus (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
- Automatic Focus Adjustment (AREA)
Abstract
(57)【要約】
【課題】検出対象者の頭部位置に影響されることなく好
適に視線を検出することができる視線検出方法及び視線
検出装置を提供する。 【解決手段】複数のカメラ用パソコン14は、各々接続
されたビデオカメラ11により撮像した画像データに含
まれる目領域から瞳領域を検出し、検出された瞳領域の
形状に対して円形度を算出する。メインパソコン16
は、各カメラ用パソコン14から受信した円形度を比較
することで視線を検出する。
適に視線を検出することができる視線検出方法及び視線
検出装置を提供する。 【解決手段】複数のカメラ用パソコン14は、各々接続
されたビデオカメラ11により撮像した画像データに含
まれる目領域から瞳領域を検出し、検出された瞳領域の
形状に対して円形度を算出する。メインパソコン16
は、各カメラ用パソコン14から受信した円形度を比較
することで視線を検出する。
Description
【0001】
【発明の属する技術分野】本発明は、視線検出装置及び
視線検出方法に関するものである。
視線検出方法に関するものである。
【0002】
【従来の技術】人物の視線や動作など、人間をセンシン
グして得られる情報と、物体センシングにより構築され
た周辺環境とから、その人の要望を察知し、その人の意
図に適したサービスを提供することが提案されている。
これらを実現するためには、人間とその周辺環境をセン
シングし、その人が何を見て、どのような動作を行って
いるかを知ることが重要なこととなる。このとき、視線
情報はその人が注目している物、又はその人の意図や状
況を推定するのに欠かせない情報の1つである。
グして得られる情報と、物体センシングにより構築され
た周辺環境とから、その人の要望を察知し、その人の意
図に適したサービスを提供することが提案されている。
これらを実現するためには、人間とその周辺環境をセン
シングし、その人が何を見て、どのような動作を行って
いるかを知ることが重要なこととなる。このとき、視線
情報はその人が注目している物、又はその人の意図や状
況を推定するのに欠かせない情報の1つである。
【0003】そこで、従来、視線を検出するための視線
検出装置及びその方法としては、例えば、以下のような
ものが知られている。即ち、視線検出装置にはビデオカ
メラ、視線検出用光源、受光センサ、記憶装置、及び判
定制御装置等が備えられている。前記記憶装置には、視
線検出判定を行うための参照データが予め記憶されてい
る。そして、ビデオカメラによって検出対象者を拡大し
て撮像し、拡大した目領域の画像データから瞳孔を検出
する。このとき、前記参照データとの比較処理に利用可
能な状態にするために、検出した瞳孔に対して較正(キ
ャリブレーション)を行う。
検出装置及びその方法としては、例えば、以下のような
ものが知られている。即ち、視線検出装置にはビデオカ
メラ、視線検出用光源、受光センサ、記憶装置、及び判
定制御装置等が備えられている。前記記憶装置には、視
線検出判定を行うための参照データが予め記憶されてい
る。そして、ビデオカメラによって検出対象者を拡大し
て撮像し、拡大した目領域の画像データから瞳孔を検出
する。このとき、前記参照データとの比較処理に利用可
能な状態にするために、検出した瞳孔に対して較正(キ
ャリブレーション)を行う。
【0004】また、前記視線検出用光源から検出対象者
に赤外光を照射して、同赤外光を検出対象者の眼部に照
射し、前記受光センサにより眼部(瞳孔と角膜)にて反
射する反射光を受光する。その結果、前記瞳孔と反射光
の位置関係と前記参照データが判定制御装置おいて比較
され、視線が検出されるようになっていた。
に赤外光を照射して、同赤外光を検出対象者の眼部に照
射し、前記受光センサにより眼部(瞳孔と角膜)にて反
射する反射光を受光する。その結果、前記瞳孔と反射光
の位置関係と前記参照データが判定制御装置おいて比較
され、視線が検出されるようになっていた。
【0005】
【発明が解決しようとする課題】しかしながら、上記の
ような視線検出方法では、以下のような問題があった。
即ち、瞳孔は瞳領域内において、虹彩と明確な色(彩
度)の違いがないため、瞳孔検出においては、可能な限
りビデオカメラをズームアップさせた状態で、拡大した
目領域の画像データを用いる。このため、瞳孔検出可能
(即ち、撮像可能)な位置から、検出対象者の頭部位置
が少し移動しただけでも、ビデオカメラで検出対象者を
捕らえきれなくなってしまう。従って、非常に限定され
た範囲に検出対象者が位置しているときでないと視線検
出ができないという問題があった。
ような視線検出方法では、以下のような問題があった。
即ち、瞳孔は瞳領域内において、虹彩と明確な色(彩
度)の違いがないため、瞳孔検出においては、可能な限
りビデオカメラをズームアップさせた状態で、拡大した
目領域の画像データを用いる。このため、瞳孔検出可能
(即ち、撮像可能)な位置から、検出対象者の頭部位置
が少し移動しただけでも、ビデオカメラで検出対象者を
捕らえきれなくなってしまう。従って、非常に限定され
た範囲に検出対象者が位置しているときでないと視線検
出ができないという問題があった。
【0006】本発明は上記問題点を解決するためになさ
れたものであり、その目的は、検出対象者の頭部位置に
影響されることなく、好適に視線を検出することができ
る視線検出方法及び視線検出装置を提供することにあ
る。
れたものであり、その目的は、検出対象者の頭部位置に
影響されることなく、好適に視線を検出することができ
る視線検出方法及び視線検出装置を提供することにあ
る。
【0007】
【課題を解決するための手段】上記問題点を解決するた
めに、請求項1に記載の発明は、検出対象者を撮像する
撮像手段と、撮像手段が撮像した画像データに含まれる
顔の目領域から瞳領域を検出する瞳領域検出手段と、前
記瞳領域検出手段が検出した瞳領域の形状に対して円形
度を算出する円形度算出手段と、円形度算出手段が算出
した円形度に基づいて視線を検出する視線検出手段とを
備えたことを要旨とする。
めに、請求項1に記載の発明は、検出対象者を撮像する
撮像手段と、撮像手段が撮像した画像データに含まれる
顔の目領域から瞳領域を検出する瞳領域検出手段と、前
記瞳領域検出手段が検出した瞳領域の形状に対して円形
度を算出する円形度算出手段と、円形度算出手段が算出
した円形度に基づいて視線を検出する視線検出手段とを
備えたことを要旨とする。
【0008】請求項2に記載の発明は、請求項1におい
て、前記撮像手段は互いに異なる位置に複数設けられ、
前記視線検出手段は、各撮像手段から得た画像データに
含まれる瞳領域の各円形度を比較することで視線を検出
することを要旨とする。
て、前記撮像手段は互いに異なる位置に複数設けられ、
前記視線検出手段は、各撮像手段から得た画像データに
含まれる瞳領域の各円形度を比較することで視線を検出
することを要旨とする。
【0009】請求項3に記載の発明は、請求項1又は請
求項2において、前記円形度算出手段は、前記瞳領域を
含む画像データをハフ変換し、ハフ変換の投票空間にお
いて、投票数が最大となる投票数最大点を含む第1領
域、及び前記投票数最大点を含み前記第1領域よりも大
きい第2領域における各投票数から円形度を算出するこ
とを要旨とする。
求項2において、前記円形度算出手段は、前記瞳領域を
含む画像データをハフ変換し、ハフ変換の投票空間にお
いて、投票数が最大となる投票数最大点を含む第1領
域、及び前記投票数最大点を含み前記第1領域よりも大
きい第2領域における各投票数から円形度を算出するこ
とを要旨とする。
【0010】請求項4に記載の発明は、請求項1又は請
求項2において、前記円形度算出手段は、瞳領域の面積
及び瞳領域の輪郭線の長さに基づいて円形度を算出する
ことを要旨とする。
求項2において、前記円形度算出手段は、瞳領域の面積
及び瞳領域の輪郭線の長さに基づいて円形度を算出する
ことを要旨とする。
【0011】請求項5に記載の発明は、所定の撮像ポイ
ントから検出対象者を撮像する撮像工程と、撮像した画
像データに含まれる顔の目領域から瞳領域を検出する瞳
領域検出工程と、検出した瞳領域の形状に対して円形度
を算出する円形度算出工程と、算出した円形度に基づい
て視線を検出する視線検出工程とを備えたことを要旨と
する。
ントから検出対象者を撮像する撮像工程と、撮像した画
像データに含まれる顔の目領域から瞳領域を検出する瞳
領域検出工程と、検出した瞳領域の形状に対して円形度
を算出する円形度算出工程と、算出した円形度に基づい
て視線を検出する視線検出工程とを備えたことを要旨と
する。
【0012】(作用)請求項1の発明によれば、撮像手
段が撮像した画像データに含まれる顔の目領域から瞳領
域が瞳領域検出手段によって検出され、その検出された
瞳領域の形状に対して円形度が円形度算出手段により算
出される。そして、視線検出手段により、円形度算出手
段が算出した円形度に基づいて視線が検出される。従っ
て、目領域の中から白目領域と容易に区別して検出可能
な瞳領域を用いて視線検出を行うため、従来と異なり、
瞳孔を検出可能なまで目領域を拡大して撮像する必要が
ない。このため、視線検出に瞳孔を用いる場合と比較し
て検出対象者の頭部位置の影響を受けにくい。
段が撮像した画像データに含まれる顔の目領域から瞳領
域が瞳領域検出手段によって検出され、その検出された
瞳領域の形状に対して円形度が円形度算出手段により算
出される。そして、視線検出手段により、円形度算出手
段が算出した円形度に基づいて視線が検出される。従っ
て、目領域の中から白目領域と容易に区別して検出可能
な瞳領域を用いて視線検出を行うため、従来と異なり、
瞳孔を検出可能なまで目領域を拡大して撮像する必要が
ない。このため、視線検出に瞳孔を用いる場合と比較し
て検出対象者の頭部位置の影響を受けにくい。
【0013】請求項2の発明によれば、画像データは、
互いに異なる位置に設けられた複数の撮像手段でそれぞ
れ取得され、各画像データに含まれる瞳領域の各円形度
が前記視線検出手段により比較される。そして、この比
較結果に基づいて視線が検出される。従って、算出され
た複数の円形度を比較することで視線を検出しているた
め、例えば、記憶装置に予め記憶されていた参照データ
と比較して視線を検出する従来と異なり、検出した瞳領
域に対して前記参照データと比較可能な状態にするため
に較正(キャリブレーション)を行う必要がなく、簡便
に視線検出が行われる。
互いに異なる位置に設けられた複数の撮像手段でそれぞ
れ取得され、各画像データに含まれる瞳領域の各円形度
が前記視線検出手段により比較される。そして、この比
較結果に基づいて視線が検出される。従って、算出され
た複数の円形度を比較することで視線を検出しているた
め、例えば、記憶装置に予め記憶されていた参照データ
と比較して視線を検出する従来と異なり、検出した瞳領
域に対して前記参照データと比較可能な状態にするため
に較正(キャリブレーション)を行う必要がなく、簡便
に視線検出が行われる。
【0014】請求項3の発明によれば、前記瞳領域を含
む画像データはハフ変換され、ハフ変換の投票空間にお
いて、投票数が最大となる投票数最大点を含む第1領
域、及び前記投票数最大点を含み前記第1領域よりも大
きい第2領域における各投票数から円形度算出手段によ
り円形度が算出される。従って、ハフ変換の投票空間へ
の投票数を利用して好適に円形度の算出が実現される。
む画像データはハフ変換され、ハフ変換の投票空間にお
いて、投票数が最大となる投票数最大点を含む第1領
域、及び前記投票数最大点を含み前記第1領域よりも大
きい第2領域における各投票数から円形度算出手段によ
り円形度が算出される。従って、ハフ変換の投票空間へ
の投票数を利用して好適に円形度の算出が実現される。
【0015】請求項4の発明によれば、円形度は、検出
された瞳領域の面積及び瞳領域の輪郭線の長さに基づい
て円形度算出手段により算出される。従って、面積及び
輪郭線の長さを利用して好適に円形度の算出が実現され
る。
された瞳領域の面積及び瞳領域の輪郭線の長さに基づい
て円形度算出手段により算出される。従って、面積及び
輪郭線の長さを利用して好適に円形度の算出が実現され
る。
【0016】請求項5の発明によれば、撮像工程におい
て所定の撮像ポイントから検出対象者が撮像された後、
撮像した画像データに含まれる顔の目領域から瞳領域が
検出される瞳領域検出工程を経て、円形度算出工程で検
出した瞳領域の形状に対して円形度が算出される。そし
て、視線検出工程で算出した円形度に基づいて視線が検
出される。
て所定の撮像ポイントから検出対象者が撮像された後、
撮像した画像データに含まれる顔の目領域から瞳領域が
検出される瞳領域検出工程を経て、円形度算出工程で検
出した瞳領域の形状に対して円形度が算出される。そし
て、視線検出工程で算出した円形度に基づいて視線が検
出される。
【0017】
【発明の実施の形態】以下、本発明の視線検出装置を具
体化した一実施の形態を図1〜図12を参照して説明す
る。
体化した一実施の形態を図1〜図12を参照して説明す
る。
【0018】本実施形態の視線検出装置10は、複数台
の電気機器17(例えば、テレビ、オーディオ、エアコ
ン等)をオンオフ等の制御をする場合に、視線検出装置
10が検出した視線上の電気機器17に対して対応する
コマンド信号を付与するためのものである。
の電気機器17(例えば、テレビ、オーディオ、エアコ
ン等)をオンオフ等の制御をする場合に、視線検出装置
10が検出した視線上の電気機器17に対して対応する
コマンド信号を付与するためのものである。
【0019】例えば、テレビがオフ状態(又はオン状
態)の際に、テレビが配置されている方向に視線が向け
られた際に、その視線を検出して、コマンド信号として
オン信号(又はオフ信号)を付与する。
態)の際に、テレビが配置されている方向に視線が向け
られた際に、その視線を検出して、コマンド信号として
オン信号(又はオフ信号)を付与する。
【0020】視線検出装置10は、撮像手段としての複
数台(本実施形態では4台)のビデオカメラ(CCDカ
メラ)11、カメラ用パソコン14、メインパソコン1
6等を備えている。前記ビデオカメラ11は、複数台の
電気機器17(例えば、テレビ、オーディオ、エアコン
等)が配置された地点と同一箇所に配置されている。本
実施形態ではカメラ用パソコン14が瞳領域検出手段、
及び円形度算出手段に相当し、メインパソコン16が視
線検出手段に相当する。また、ビデオカメラ11は、視
線検出空間内における任意の位置に配置されており、各
ビデオカメラ11の位置が所定の撮像ポイントに相当す
る。なお、本実施形態におけるビデオカメラ11は全て
所定高さ(例えば、1.15m)に配置されている。
数台(本実施形態では4台)のビデオカメラ(CCDカ
メラ)11、カメラ用パソコン14、メインパソコン1
6等を備えている。前記ビデオカメラ11は、複数台の
電気機器17(例えば、テレビ、オーディオ、エアコン
等)が配置された地点と同一箇所に配置されている。本
実施形態ではカメラ用パソコン14が瞳領域検出手段、
及び円形度算出手段に相当し、メインパソコン16が視
線検出手段に相当する。また、ビデオカメラ11は、視
線検出空間内における任意の位置に配置されており、各
ビデオカメラ11の位置が所定の撮像ポイントに相当す
る。なお、本実施形態におけるビデオカメラ11は全て
所定高さ(例えば、1.15m)に配置されている。
【0021】各ビデオカメラ11には、カメラ用パソコ
ン14がそれぞれ接続されている。カメラ用パソコン1
4には、ビデオカメラ11で撮影された個々のフレーム
(画像データ)が、ビデオレートのカラー画像(640
×480)として入力されるようになっている。
ン14がそれぞれ接続されている。カメラ用パソコン1
4には、ビデオカメラ11で撮影された個々のフレーム
(画像データ)が、ビデオレートのカラー画像(640
×480)として入力されるようになっている。
【0022】カメラ用パソコン14はメインパソコン1
6に接続されており、メインパソコン16は、各カメラ
用パソコン14との通信をイーサネットを介したソケッ
ト通信で行うようにしている。また、ネットワーク・タ
イムサーバシステムが用いられており、メインパソコン
16がタイムサーバとして設定され、各カメラ用パソコ
ン14の時刻がメインパソコン16に合わされるように
なっている。又、メインパソコン16は、各電気機器1
7(例えば、テレビ、オーディオ、エアコン等)に電気
的に接続されており、視線検出装置10の視線検出結果
に応じてオンオフ制御する。すなわち、現在の電気機器
17の状態に応じたコマンド信号を出力する。例えば、
電気機器17がオン状態のときには、コマンド信号とし
てオフ信号が、オフ状態のときには、コマンド信号とし
てオン信号が出力される。なお、メインパソコン16と
各電気機器17を有線接続せずに、赤外線でコントロー
ルしてもよく、つまり無線で制御する態様をとってもよ
い。
6に接続されており、メインパソコン16は、各カメラ
用パソコン14との通信をイーサネットを介したソケッ
ト通信で行うようにしている。また、ネットワーク・タ
イムサーバシステムが用いられており、メインパソコン
16がタイムサーバとして設定され、各カメラ用パソコ
ン14の時刻がメインパソコン16に合わされるように
なっている。又、メインパソコン16は、各電気機器1
7(例えば、テレビ、オーディオ、エアコン等)に電気
的に接続されており、視線検出装置10の視線検出結果
に応じてオンオフ制御する。すなわち、現在の電気機器
17の状態に応じたコマンド信号を出力する。例えば、
電気機器17がオン状態のときには、コマンド信号とし
てオフ信号が、オフ状態のときには、コマンド信号とし
てオン信号が出力される。なお、メインパソコン16と
各電気機器17を有線接続せずに、赤外線でコントロー
ルしてもよく、つまり無線で制御する態様をとってもよ
い。
【0023】(視線検出方法)以下、本実施形態の視線
検出方法について説明する。まず、視線検出装置10が
行う視線検出の概要を説明する。
検出方法について説明する。まず、視線検出装置10が
行う視線検出の概要を説明する。
【0024】各ビデオカメラ11は、検出対象者Hを撮
像し、各カメラ用パソコン14に入力する。各カメラ用
パソコン14はビデオカメラ11からの画像のキャプチ
ャを行い、続いて肌色領域抽出、顔向き推定を行い、顔
向き推定結果が所定条件を満たすか否かを判定し、条件
を満たす画像データから目領域32を検出する。そし
て、検出された目領域32から、瞳領域35を検出する
と共に、瞳領域35の大きさを正規化し、この瞳領域3
5の形状に対して円形度を算出する。カメラ用パソコン
14はその円形度の算出結果をメインパソコン16に送
信し、メインパソコン16は、各円形度を比較すること
で複数のビデオカメラ11のうち何れのビデオカメラ1
1に視線を送っているか、即ち視線を検出する。なお、
「円形度」とは、真円に対する近似度合いを示すもので
あり、真円に近いほど円形度が高いと表現し、例えば、
長軸と短軸との差が大きい楕円になっていくように、円
が変形するほど円形度が低いと表現する。そして、本実
施形態においては、円形度は後述する式(8)により算
出される評価値Eに比例し、評価値Eが大きければ円形
度は高く、評価値が小さければ円形度は低くなる。従っ
て、本実施形態において、円形度を算出するというのは
後記する評価値Eを算出することを示す。
像し、各カメラ用パソコン14に入力する。各カメラ用
パソコン14はビデオカメラ11からの画像のキャプチ
ャを行い、続いて肌色領域抽出、顔向き推定を行い、顔
向き推定結果が所定条件を満たすか否かを判定し、条件
を満たす画像データから目領域32を検出する。そし
て、検出された目領域32から、瞳領域35を検出する
と共に、瞳領域35の大きさを正規化し、この瞳領域3
5の形状に対して円形度を算出する。カメラ用パソコン
14はその円形度の算出結果をメインパソコン16に送
信し、メインパソコン16は、各円形度を比較すること
で複数のビデオカメラ11のうち何れのビデオカメラ1
1に視線を送っているか、即ち視線を検出する。なお、
「円形度」とは、真円に対する近似度合いを示すもので
あり、真円に近いほど円形度が高いと表現し、例えば、
長軸と短軸との差が大きい楕円になっていくように、円
が変形するほど円形度が低いと表現する。そして、本実
施形態においては、円形度は後述する式(8)により算
出される評価値Eに比例し、評価値Eが大きければ円形
度は高く、評価値が小さければ円形度は低くなる。従っ
て、本実施形態において、円形度を算出するというのは
後記する評価値Eを算出することを示す。
【0025】以下、図2のフローチャートを参照して詳
細に説明する。メインパソコン16からカメラ用パソコ
ン14へ、開始要求信号が送信されるとこのフローチャ
ートは開始される。そして、メインパソコン16からカ
メラ用パソコン14へ、終了要求信号が送信されるま
で、S1〜S11の処理が繰り返し行われる。
細に説明する。メインパソコン16からカメラ用パソコ
ン14へ、開始要求信号が送信されるとこのフローチャ
ートは開始される。そして、メインパソコン16からカ
メラ用パソコン14へ、終了要求信号が送信されるま
で、S1〜S11の処理が繰り返し行われる。
【0026】ステップ(以下「S」と略す)1におい
て、まず、カメラ用パソコン14は、ビデオカメラ11
からの画像のキャプチャを行うか否かの判定を行う。即
ち、本実施形態では、ビデオカメラ11からの画像のキ
ャプチャは所定間隔(例えば0.3秒)毎に行われるよ
うになっており、各カメラ用パソコン14は、その時刻
か否かを判定する。そして、画像をキャプチャする時刻
であると判断した場合は(S1がYES)、各カメラ用
パソコン14はビデオカメラ11からの画像のキャプチ
ャを行う(S2)。一方、カメラ用パソコン14が画像
をキャプチャする時刻ではないと判断した場合は(S1
がNO)、この判定を繰り返す。なお、各カメラ用パソ
コン14の時刻はメインパソコン16に合わされている
ため、各カメラ用パソコン14は、同時刻に画像のキャ
プチャを行うようになっている。
て、まず、カメラ用パソコン14は、ビデオカメラ11
からの画像のキャプチャを行うか否かの判定を行う。即
ち、本実施形態では、ビデオカメラ11からの画像のキ
ャプチャは所定間隔(例えば0.3秒)毎に行われるよ
うになっており、各カメラ用パソコン14は、その時刻
か否かを判定する。そして、画像をキャプチャする時刻
であると判断した場合は(S1がYES)、各カメラ用
パソコン14はビデオカメラ11からの画像のキャプチ
ャを行う(S2)。一方、カメラ用パソコン14が画像
をキャプチャする時刻ではないと判断した場合は(S1
がNO)、この判定を繰り返す。なお、各カメラ用パソ
コン14の時刻はメインパソコン16に合わされている
ため、各カメラ用パソコン14は、同時刻に画像のキャ
プチャを行うようになっている。
【0027】(顔領域検出)各カメラ用パソコン14
は、ビデオカメラ11からのフレーム(画像データ、例
えば図3(a)参照)をキャプチャした後、顔領域検出
を行う。顔領域検出は、色情報を用いた公知の肌色基準
値による手法を用いている。本実施形態では、均等知覚
色空間の1つであるCIE L*u*v 表色系を用いている。
は、ビデオカメラ11からのフレーム(画像データ、例
えば図3(a)参照)をキャプチャした後、顔領域検出
を行う。顔領域検出は、色情報を用いた公知の肌色基準
値による手法を用いている。本実施形態では、均等知覚
色空間の1つであるCIE L*u*v 表色系を用いている。
【0028】まず、入力された画像データから、画像の
全領域に亘り、U,V座標値による2次元色ヒストグラ
ムを求め、予め定めた肌色有効範囲内のピーク値(度数
が最大の値)を肌色基準値とする。その基準値からの色
差に対して公知の判別分析法を適用して閾値を決定し、
その閾値に基づいて肌色領域とその他の領域に2値化す
る(図3(b)参照)。本実施形態では、検出対象者H
が一人の場合を想定しているため、複数の肌色領域が検
出された場合には、各カメラ用パソコン14は最大領域
を顔領域31と判定する(S3)。すなわち、抽出され
た複数の肌色領域にて、画素数(面積)を求め、最大面
積Smax の領域を顔領域31とする。なお、以下の説明
において、前記U,V座標値は、説明の便宜上UV値又
はU値,V値というときもある。
全領域に亘り、U,V座標値による2次元色ヒストグラ
ムを求め、予め定めた肌色有効範囲内のピーク値(度数
が最大の値)を肌色基準値とする。その基準値からの色
差に対して公知の判別分析法を適用して閾値を決定し、
その閾値に基づいて肌色領域とその他の領域に2値化す
る(図3(b)参照)。本実施形態では、検出対象者H
が一人の場合を想定しているため、複数の肌色領域が検
出された場合には、各カメラ用パソコン14は最大領域
を顔領域31と判定する(S3)。すなわち、抽出され
た複数の肌色領域にて、画素数(面積)を求め、最大面
積Smax の領域を顔領域31とする。なお、以下の説明
において、前記U,V座標値は、説明の便宜上UV値又
はU値,V値というときもある。
【0029】(顔向き推定)次に、S4において、各カ
メラ用パソコン14は対応するビデオカメラ11から得
た画像データに基づいて顔向き推定を行う。
メラ用パソコン14は対応するビデオカメラ11から得
た画像データに基づいて顔向き推定を行う。
【0030】本実施形態では、顔向き推定は、4方向面
特徴抽出した結果を線形判別分析により、顔向きの判別
空間を作成する方法で行っている。4方向面特徴抽出で
は、画像データの濃淡値の勾配により各画素での4方向
(縦、横、右斜め45度、左斜め45度)のベクトル場
を求め、方向別に分割したエッジ画像を得る。得られた
エッジ画像は方向性を持った濃淡画像となる。
特徴抽出した結果を線形判別分析により、顔向きの判別
空間を作成する方法で行っている。4方向面特徴抽出で
は、画像データの濃淡値の勾配により各画素での4方向
(縦、横、右斜め45度、左斜め45度)のベクトル場
を求め、方向別に分割したエッジ画像を得る。得られた
エッジ画像は方向性を持った濃淡画像となる。
【0031】具体的には、S3において入力した画像デ
ータからPrewitt オペレータを用いて、微分フィルタと
してのプレヴィットフィルタ処理を行い、水平(横)、
垂直(縦)、右上がり45度(右斜め45度)、右下が
り45度(左斜め45度)の4方向のそれぞれのエッジ
画像を生成する。これらのエッジ画像を、以下、方向面
という。次に、これらの4方向面のそれぞれの画像を顔
領域31で正規化し、8×8に低解像度化して、各方向
面の画素の濃淡値を特徴量(以下、特徴ベクトルとい
う。)として抽出する。
ータからPrewitt オペレータを用いて、微分フィルタと
してのプレヴィットフィルタ処理を行い、水平(横)、
垂直(縦)、右上がり45度(右斜め45度)、右下が
り45度(左斜め45度)の4方向のそれぞれのエッジ
画像を生成する。これらのエッジ画像を、以下、方向面
という。次に、これらの4方向面のそれぞれの画像を顔
領域31で正規化し、8×8に低解像度化して、各方向
面の画素の濃淡値を特徴量(以下、特徴ベクトルとい
う。)として抽出する。
【0032】この特徴ベクトルは4つの方向面に分けて
から解像度を低くしているため、入力画像の解像度を直
接低くする場合よりも、高解像度でエッジ情報が保持さ
れる。その結果、位置ずれや、形状変化の影響を受けに
くく、かつ計算コストを削減して処理の高速化が可能と
なる。
から解像度を低くしているため、入力画像の解像度を直
接低くする場合よりも、高解像度でエッジ情報が保持さ
れる。その結果、位置ずれや、形状変化の影響を受けに
くく、かつ計算コストを削減して処理の高速化が可能と
なる。
【0033】次に、各カメラ用パソコン14は線形判別
分析を行う。なお、線形判別分析は、抽出された特徴量
(特徴ベクトル:xi)が、どのクラスに属するかを判
別するためのものであり、クラス内の分散が小さく、各
クラスの平均特徴ベクトルが互いに離れるような判別空
間を構成すると高い判別力が得られる。図4は判別分析
に係るクラスを示した概念図である。
分析を行う。なお、線形判別分析は、抽出された特徴量
(特徴ベクトル:xi)が、どのクラスに属するかを判
別するためのものであり、クラス内の分散が小さく、各
クラスの平均特徴ベクトルが互いに離れるような判別空
間を構成すると高い判別力が得られる。図4は判別分析
に係るクラスを示した概念図である。
【0034】本実施形態では、予め、学習データに基づ
いた係数行列Aが各カメラ用パソコン14の記憶装置
(図示しない)に記憶されている。なお、学習データ
は、複数の検出対象者Hである人物を撮像して得た画像
データに基づいたデータである。すなわち、図6に示す
ように、光軸を室内中心に向けるように等角度間隔(本
実施形態では22.5度間隔)で放射状に配置された1
6台のビデオカメラ11により、16方向から得た画像
データを得て、上記と同様に顔領域検出と、同顔領域3
1における4方向面特徴抽出を行い、特徴ベクトルxを
求める。
いた係数行列Aが各カメラ用パソコン14の記憶装置
(図示しない)に記憶されている。なお、学習データ
は、複数の検出対象者Hである人物を撮像して得た画像
データに基づいたデータである。すなわち、図6に示す
ように、光軸を室内中心に向けるように等角度間隔(本
実施形態では22.5度間隔)で放射状に配置された1
6台のビデオカメラ11により、16方向から得た画像
データを得て、上記と同様に顔領域検出と、同顔領域3
1における4方向面特徴抽出を行い、特徴ベクトルxを
求める。
【0035】x={x1,x2,……x256}
なお、16台のビデオカメラ11を使用する代わりに、
例えば、1台のビデオカメラ11を使用して、検出対象
者Hが室内中心を中心に等角度毎に回転するたびに撮像
し、そのときの画像データを学習用データに使用しても
よい。
例えば、1台のビデオカメラ11を使用して、検出対象
者Hが室内中心を中心に等角度毎に回転するたびに撮像
し、そのときの画像データを学習用データに使用しても
よい。
【0036】この特徴ベクトルxから判別空間の特徴ベ
クトルy(=Ax)へ線形写像する係数行列Aが求めら
れており、かつ各クラス(本実施形態では学習データを
取り込むときに使用した22.5度間隔に配置したビデ
オカメラ11に応じた16のクラス)が生成され、クラ
スの平均特徴ベクトルyj が算出されている。そして、
前記係数行列Aと、各クラスの平均特徴ベクトルyj の
データが、予め各カメラ用パソコン14の記憶装置に記
憶されている。
クトルy(=Ax)へ線形写像する係数行列Aが求めら
れており、かつ各クラス(本実施形態では学習データを
取り込むときに使用した22.5度間隔に配置したビデ
オカメラ11に応じた16のクラス)が生成され、クラ
スの平均特徴ベクトルyj が算出されている。そして、
前記係数行列Aと、各クラスの平均特徴ベクトルyj の
データが、予め各カメラ用パソコン14の記憶装置に記
憶されている。
【0037】なお、本実施形態では、クラス番号jは、
0、22.5、45、67.5、90、112.5、1
35、157.5、180、−157.5、−135、
−112.5、−90、−67.5、−45、−22.
5の等差となる16の値である。図6に示すように、各
クラス番号(数値)はカメラ用パソコン14に係るビデ
オカメラ11の光軸(カメラ方向)に対する相対顔方向
(相対的な顔向き)とのなす角度と一致する。図6は検
出対象者Hを中心に22.5度間隔で16方向に配置し
たビデオカメラ11の配置を示し、各カメラから検出対
象者Hを撮像した場合の、各カメラから得られる画像デ
ータに対するクラス付与の内容を示している。同図にお
いて、例えば−22.5が付与されたカメラから検出対
象者Hを撮像した画像データには、クラス−22.5が
付与される。本実施形態では、相対顔方向に係るクラス
番号0度が、正面顔を撮像した場合としている。なお、
「−」は、図6において、当該ビデオカメラ11の光軸
から反時計回り方向の角度を示す。
0、22.5、45、67.5、90、112.5、1
35、157.5、180、−157.5、−135、
−112.5、−90、−67.5、−45、−22.
5の等差となる16の値である。図6に示すように、各
クラス番号(数値)はカメラ用パソコン14に係るビデ
オカメラ11の光軸(カメラ方向)に対する相対顔方向
(相対的な顔向き)とのなす角度と一致する。図6は検
出対象者Hを中心に22.5度間隔で16方向に配置し
たビデオカメラ11の配置を示し、各カメラから検出対
象者Hを撮像した場合の、各カメラから得られる画像デ
ータに対するクラス付与の内容を示している。同図にお
いて、例えば−22.5が付与されたカメラから検出対
象者Hを撮像した画像データには、クラス−22.5が
付与される。本実施形態では、相対顔方向に係るクラス
番号0度が、正面顔を撮像した場合としている。なお、
「−」は、図6において、当該ビデオカメラ11の光軸
から反時計回り方向の角度を示す。
【0038】そして、未知データの識別を行う線形判別
分析では、前記係数行列Aに基づいて、未知データから
抽出した4方向面特徴に係る特徴ベクトルxi を写像変
換し、特徴ベクトルyi (=Axi )を生成する。次
に、生成された特徴ベクトルyi と、各クラスの平均特
徴ベクトルyj とのユークリッド距離の2乗である距離
(以下、2乗距離という)Dijを、以下の式(1)で算
出し、2乗距離Dijが最小値となるクラスを決定するこ
とにより、パターン認識を行う(図5参照)。その後、
最小値を含む下位3つの2乗距離Dijの値に対応したク
ラスを用いて以下の式(2)にて、カメラ方向(ビデオ
カメラ11の光軸γが向く方向、図1参照)と相対顔方
向(光軸γに対する相対的な顔向き)βとのなす角度F
を推定する。なお、図5中のDjは、iが省略されてお
り、本明細書中では、Dijに相当する。
分析では、前記係数行列Aに基づいて、未知データから
抽出した4方向面特徴に係る特徴ベクトルxi を写像変
換し、特徴ベクトルyi (=Axi )を生成する。次
に、生成された特徴ベクトルyi と、各クラスの平均特
徴ベクトルyj とのユークリッド距離の2乗である距離
(以下、2乗距離という)Dijを、以下の式(1)で算
出し、2乗距離Dijが最小値となるクラスを決定するこ
とにより、パターン認識を行う(図5参照)。その後、
最小値を含む下位3つの2乗距離Dijの値に対応したク
ラスを用いて以下の式(2)にて、カメラ方向(ビデオ
カメラ11の光軸γが向く方向、図1参照)と相対顔方
向(光軸γに対する相対的な顔向き)βとのなす角度F
を推定する。なお、図5中のDjは、iが省略されてお
り、本明細書中では、Dijに相当する。
【0039】Dij=|yi −yj |2 …(1)
【0040】
【数1】
なお、式(2)において、iはクラス番号を示し、本実
施形態ではn=3を想定している。このため、最小値を
含む下位3つの2乗距離Dijに対応したクラス番号が、
最小値に対応するクラス番号から順にiに代入される。
θは各クラスにおける顔向きの相対角度(カメラ方向に
対する相対顔方向のなす角度=クラス番号)を示す。ま
た、式(2)中において、2乗距離Dijはj が省略され
ている。
施形態ではn=3を想定している。このため、最小値を
含む下位3つの2乗距離Dijに対応したクラス番号が、
最小値に対応するクラス番号から順にiに代入される。
θは各クラスにおける顔向きの相対角度(カメラ方向に
対する相対顔方向のなす角度=クラス番号)を示す。ま
た、式(2)中において、2乗距離Dijはj が省略され
ている。
【0041】(顔向き判定)S5においては、各カメラ
用パソコン14はS4で行った顔向き推定の結果を利用
して、相対顔方向においてその推定された顔向きの角度
Fが所定角度(本実施形態では±20度)範囲内である
か否かを判定する。そして、所定角度内であれば(S5
がYES)、S6に進む。この推定された角度が所定角
度(例えば±20度)範囲内であるか否かという条件
を、本実施形態では所定条件ということがある。
用パソコン14はS4で行った顔向き推定の結果を利用
して、相対顔方向においてその推定された顔向きの角度
Fが所定角度(本実施形態では±20度)範囲内である
か否かを判定する。そして、所定角度内であれば(S5
がYES)、S6に進む。この推定された角度が所定角
度(例えば±20度)範囲内であるか否かという条件
を、本実施形態では所定条件ということがある。
【0042】ここで、本実施形態では、相対顔方向の角
度Fが所定角度内の正面顔を撮像したカメラ11が少な
くとも2つ以上存在するように各ビデオカメラ11は予
め配置されている。換言すれば、本実施形態では、検出
対象者Hがビデオカメラ11の方向に視線を向けている
場合は、必ず2以上のカメラ用パソコン14において、
所定条件が満たされていると判断されるようになってい
る。以下の説明では、ビデオカメラ11A及びビデオカ
メラ11Bで捉えた画像データが所定条件を満たし、後
述する目領域検出の対象として各カメラ用パソコン14
A,14Bに判断されたものとする。
度Fが所定角度内の正面顔を撮像したカメラ11が少な
くとも2つ以上存在するように各ビデオカメラ11は予
め配置されている。換言すれば、本実施形態では、検出
対象者Hがビデオカメラ11の方向に視線を向けている
場合は、必ず2以上のカメラ用パソコン14において、
所定条件が満たされていると判断されるようになってい
る。以下の説明では、ビデオカメラ11A及びビデオカ
メラ11Bで捉えた画像データが所定条件を満たし、後
述する目領域検出の対象として各カメラ用パソコン14
A,14Bに判断されたものとする。
【0043】ところで、推定された顔向きの角度Fが所
定条件を満たしていない(S5がNO)と判定したカメ
ラ用パソコン14は、今回の画像データについては、以
下のステップを行わず、このフローチャートを終了す
る。
定条件を満たしていない(S5がNO)と判定したカメ
ラ用パソコン14は、今回の画像データについては、以
下のステップを行わず、このフローチャートを終了す
る。
【0044】(視線検出)次のS6〜S10の概要を説
明すると、カメラ用パソコン14A,14Bは、顔領域
31の中から目領域32を検出する。そして、さらにそ
の目領域32の中から瞳領域35を検出すると共に、そ
の瞳領域35の大きさを正規化する。そして、瞳領域3
5の形状に対して円形度を算出し、その算出結果をメイ
ンパソコン16に送信する。メインパソコン16は各カ
メラ用パソコン14A,14Bから受信した各円形度の
算出結果を比較して視線を検出する。
明すると、カメラ用パソコン14A,14Bは、顔領域
31の中から目領域32を検出する。そして、さらにそ
の目領域32の中から瞳領域35を検出すると共に、そ
の瞳領域35の大きさを正規化する。そして、瞳領域3
5の形状に対して円形度を算出し、その算出結果をメイ
ンパソコン16に送信する。メインパソコン16は各カ
メラ用パソコン14A,14Bから受信した各円形度の
算出結果を比較して視線を検出する。
【0045】(目領域検出)さて、S6において、ま
ず、カメラ用パソコン14A,14Bは、画像データに
ついて肌色基準値を再算出し、肌色領域を抽出する。抽
出された肌色領域のうち、最大領域を顔領域31と判定
する。
ず、カメラ用パソコン14A,14Bは、画像データに
ついて肌色基準値を再算出し、肌色領域を抽出する。抽
出された肌色領域のうち、最大領域を顔領域31と判定
する。
【0046】カメラ用パソコン14A,14Bは、その
顔領域31に基づき、4方向面特徴と色差面特徴を用い
たテンプレートマッチング手法により、それぞれ目領域
32、並びに口領域を検出する。
顔領域31に基づき、4方向面特徴と色差面特徴を用い
たテンプレートマッチング手法により、それぞれ目領域
32、並びに口領域を検出する。
【0047】ところで、今回の画像データの1つ前に本
フローチャートを用いて処理された画像データにおい
て、このS6で目領域32及び口領域が検出されていた
場合は、前回の検出結果に基づいて、今回得られた顔領
域31を所定領域削除し、顔領域31が前記所定領域分
狭められた探索範囲として設定されるようになってい
る。そして、今回の画像データに関しては、前記探索範
囲が用いられ、テンプレートマッチング手法により目領
域32及び口領域の検出が行われる。なお、テンプレー
トマッチングを行った結果、前記探索範囲に対して目領
域32及び口領域が検出されなかった場合は、再度、顔
領域31に対して両領域の検出が行われるようになって
いる。
フローチャートを用いて処理された画像データにおい
て、このS6で目領域32及び口領域が検出されていた
場合は、前回の検出結果に基づいて、今回得られた顔領
域31を所定領域削除し、顔領域31が前記所定領域分
狭められた探索範囲として設定されるようになってい
る。そして、今回の画像データに関しては、前記探索範
囲が用いられ、テンプレートマッチング手法により目領
域32及び口領域の検出が行われる。なお、テンプレー
トマッチングを行った結果、前記探索範囲に対して目領
域32及び口領域が検出されなかった場合は、再度、顔
領域31に対して両領域の検出が行われるようになって
いる。
【0048】ここで、前記テンプレートマッチング手法
について説明する。この手法は、得られた画像データか
ら、前述した4方向面特徴抽出にて4方向面特徴(方向
面)、及びU,V座標値による色差面特徴を抽出し、肌
色領域抽出で得られた肌色領域(顔領域31)又は探索
範囲に対して、右目、左目、口の各テンプレートを用い
て類似度を計算する。
について説明する。この手法は、得られた画像データか
ら、前述した4方向面特徴抽出にて4方向面特徴(方向
面)、及びU,V座標値による色差面特徴を抽出し、肌
色領域抽出で得られた肌色領域(顔領域31)又は探索
範囲に対して、右目、左目、口の各テンプレートを用い
て類似度を計算する。
【0049】なお、前記色差面特徴は、肌色基準値から
のU値の差、及びV値の差を示すものである。また、前
記テンプレートとは、予め、右目、左目、口の画像を複
数枚用意し、4方向面特徴及び色差面特徴を抽出した画
像データを、所定比率で縮小し、横幅を所定ピクセル
(例えば32ピクセル)に揃え、大きさの正規化を行
う。そして、4方向面特徴に関しては、エッジ方向情報
を4方向に分解し、さらに、4方向面特徴及び色差面特
徴に対してガウシャンフィルタで平滑化し、各画像デー
タを8×8の解像度に変換したものである。このテンプ
レートは、記憶装置(図示しない)に記憶されている。
のU値の差、及びV値の差を示すものである。また、前
記テンプレートとは、予め、右目、左目、口の画像を複
数枚用意し、4方向面特徴及び色差面特徴を抽出した画
像データを、所定比率で縮小し、横幅を所定ピクセル
(例えば32ピクセル)に揃え、大きさの正規化を行
う。そして、4方向面特徴に関しては、エッジ方向情報
を4方向に分解し、さらに、4方向面特徴及び色差面特
徴に対してガウシャンフィルタで平滑化し、各画像デー
タを8×8の解像度に変換したものである。このテンプ
レートは、記憶装置(図示しない)に記憶されている。
【0050】そして、前記テンプレートTと画像データ
(入力画像)Iとの4方向面特徴の類似度aを以下の式
(3)で算出し、色差面特徴の類似度bを以下の式
(4)で算出する。
(入力画像)Iとの4方向面特徴の類似度aを以下の式
(3)で算出し、色差面特徴の類似度bを以下の式
(4)で算出する。
【0051】
【数2】
式(3)、(4)中、Iは入力画像を示し、Tはテンプ
レートを示す。i、jは、1〜m、1〜nの値であり、
m×n画素のテンプレート及び入力画像に対応してい
る。(x,y)は入力画像の左上座標を示す。また、式
(4)中Tu,TvはテンプレートのUV値、Iu,I
vは画像データのUV値を示し、Umax ,Vmax はUV
値の最大範囲を示す。本実施形態では、CIE L*u*v 表色
系を用いており、このCIE L*u*v 表色系において、処理
の高速化及び記憶装置の空間を節約するため、Umax =
256,Vmax =256としている。
レートを示す。i、jは、1〜m、1〜nの値であり、
m×n画素のテンプレート及び入力画像に対応してい
る。(x,y)は入力画像の左上座標を示す。また、式
(4)中Tu,TvはテンプレートのUV値、Iu,I
vは画像データのUV値を示し、Umax ,Vmax はUV
値の最大範囲を示す。本実施形態では、CIE L*u*v 表色
系を用いており、このCIE L*u*v 表色系において、処理
の高速化及び記憶装置の空間を節約するため、Umax =
256,Vmax =256としている。
【0052】次いで、これらの式(3),(4)で算出
した、各類似度a,bに基づいて、以下の式(5)によ
り、最終的な類似度kを算出する。 k=Wa ×a+Wb ×b …(5) 式(5)中Wa ,Wb は、重み付けとして、各類似度
a,bに掛け合わせられる所定の定数であり、Wa +W
b =1を満たしている。なお、本実施形態では、Wa =
Wb =0.5としている。
した、各類似度a,bに基づいて、以下の式(5)によ
り、最終的な類似度kを算出する。 k=Wa ×a+Wb ×b …(5) 式(5)中Wa ,Wb は、重み付けとして、各類似度
a,bに掛け合わせられる所定の定数であり、Wa +W
b =1を満たしている。なお、本実施形態では、Wa =
Wb =0.5としている。
【0053】その算出結果を元に、前記類似度kが予め
設定された閾値以上の箇所を、目の候補領域とする。そ
して、入力画像(画像データ)には、左上座標が予め付
与されており、その座標に基づき目、口の位置関係が把
握できる。従って、その座標に基づいて、例えば、目は
口より上にある、右目と左目の配置等、目、口の大まか
な位置関係(座標位置)を満たし、最も類似度kの高い
組み合わせを目領域32並びに口領域として決定する。
この結果、顔領域31の中で目領域32が検出される。
設定された閾値以上の箇所を、目の候補領域とする。そ
して、入力画像(画像データ)には、左上座標が予め付
与されており、その座標に基づき目、口の位置関係が把
握できる。従って、その座標に基づいて、例えば、目は
口より上にある、右目と左目の配置等、目、口の大まか
な位置関係(座標位置)を満たし、最も類似度kの高い
組み合わせを目領域32並びに口領域として決定する。
この結果、顔領域31の中で目領域32が検出される。
【0054】(瞳領域検出)次にS7において、検出さ
れた目領域32からカメラ用パソコン14A,14Bは
瞳領域35の検出を行う。なお、本実施形態では、S6
にて検出された目領域32のうち何れか一方(例えば右
目)の目領域32について、以下に説明する瞳領域検出
を行う。
れた目領域32からカメラ用パソコン14A,14Bは
瞳領域35の検出を行う。なお、本実施形態では、S6
にて検出された目領域32のうち何れか一方(例えば右
目)の目領域32について、以下に説明する瞳領域検出
を行う。
【0055】まず、目領域画像の彩度値ヒストグラムを
作成して、公知の判別分析法を適用し、顔領域31を目
領域32と肌領域(顔領域の目領域32以外の領域)と
に分離する。一般的に、肌領域の彩度は高く、目領域3
2の彩度は低い。このため、この分離処理はその特性を
利用している。次いで、前記目領域画像の輝度ヒストグ
ラムを作成して、公知の判別分析法を適用し、分離され
た目領域32を、瞳領域35と白目領域34とに分割す
る。このとき、白目領域34と瞳領域35の彩度の違い
は明らかであるため、例えば瞳領域35を瞳孔と虹彩と
に分割する場合と比較して、拡大された画像データでな
くても簡便に分割処理ができる。
作成して、公知の判別分析法を適用し、顔領域31を目
領域32と肌領域(顔領域の目領域32以外の領域)と
に分離する。一般的に、肌領域の彩度は高く、目領域3
2の彩度は低い。このため、この分離処理はその特性を
利用している。次いで、前記目領域画像の輝度ヒストグ
ラムを作成して、公知の判別分析法を適用し、分離され
た目領域32を、瞳領域35と白目領域34とに分割す
る。このとき、白目領域34と瞳領域35の彩度の違い
は明らかであるため、例えば瞳領域35を瞳孔と虹彩と
に分割する場合と比較して、拡大された画像データでな
くても簡便に分割処理ができる。
【0056】その後、瞳領域35の検出結果を元に、瞳
領域35を縮小又は拡大し、所定の大きさに正規化す
る。そして、瞳領域35に対して円形状の補完を行う。
この際、前述したように、彩度値ヒストグラム及び輝度
ヒストグラムにそれぞれ判別分析法を適用して分割する
ことで得られた瞳領域35内には図7(a)に示すよう
に、瞼による陰影35aの存在が考えられる。このと
き、通常、画像の濃淡値を8ビットで表した場合、濃淡
値0が黒、濃淡値256が白となる。従って、領域分割
結果における濃淡値0(黒色)の領域に対して、図7
(b)に示すような水平射影ヒストグラムを作成し、同
ヒストグラムにおいて縦軸方向(図7(b)において上
下方向)の上部に示されるように、極端なピークをもつ
部分を予め設定された閾値に基づいて削除する。つま
り、瞼による陰影35aの部分は該ヒストグラム上でピ
ークとして現れ、それを削除することで、図7(c)に
示すような、瞳領域35のみが抽出される。
領域35を縮小又は拡大し、所定の大きさに正規化す
る。そして、瞳領域35に対して円形状の補完を行う。
この際、前述したように、彩度値ヒストグラム及び輝度
ヒストグラムにそれぞれ判別分析法を適用して分割する
ことで得られた瞳領域35内には図7(a)に示すよう
に、瞼による陰影35aの存在が考えられる。このと
き、通常、画像の濃淡値を8ビットで表した場合、濃淡
値0が黒、濃淡値256が白となる。従って、領域分割
結果における濃淡値0(黒色)の領域に対して、図7
(b)に示すような水平射影ヒストグラムを作成し、同
ヒストグラムにおいて縦軸方向(図7(b)において上
下方向)の上部に示されるように、極端なピークをもつ
部分を予め設定された閾値に基づいて削除する。つま
り、瞼による陰影35aの部分は該ヒストグラム上でピ
ークとして現れ、それを削除することで、図7(c)に
示すような、瞳領域35のみが抽出される。
【0057】(円形度算出)次に、S8において、カメ
ラ用パソコン14A,14Bは、検出された瞳領域35
に対して円のハフ変換を行い、このハフ変換で用いられ
るパラメータ空間における投票数によって円形度の算出
を行う。
ラ用パソコン14A,14Bは、検出された瞳領域35
に対して円のハフ変換を行い、このハフ変換で用いられ
るパラメータ空間における投票数によって円形度の算出
を行う。
【0058】まず、目領域32に対して、白目領域34
と検出された瞳領域35の濃淡の違いを利用して、Prew
itt オペレータを用い図7(d)に示すような瞳領域3
5のエッジ画像を生成することで、エッジ(輪郭)35
bを抽出する。その後、そのエッジ35bを構成する点
(以下「エッジ点」という)群に対して公知の円のハフ
変換を行う。
と検出された瞳領域35の濃淡の違いを利用して、Prew
itt オペレータを用い図7(d)に示すような瞳領域3
5のエッジ画像を生成することで、エッジ(輪郭)35
bを抽出する。その後、そのエッジ35bを構成する点
(以下「エッジ点」という)群に対して公知の円のハフ
変換を行う。
【0059】ここで、円のハフ変換について図8(a)
及び図8(b)を用いて簡単に説明する。図8(a)に
示すようなあるx−y平面において、円は次の方程式で
表される。
及び図8(b)を用いて簡単に説明する。図8(a)に
示すようなあるx−y平面において、円は次の方程式で
表される。
【0060】
(x−a)2+(y−b)2=r2 …(6)
x−y平面上の1つの円は、円の中心(a,b)及び半
径rに関する(a,b,r)パラメータ空間(以下、単
に「パラメータ空間」という)では1点で表現される。
円のハフ変換は、x−y平面を円の特徴を示す3次元の
パラメータ空間に変換する。そして、この円のハフ変換
は、前記式(6)を変換した次式で実現する。
径rに関する(a,b,r)パラメータ空間(以下、単
に「パラメータ空間」という)では1点で表現される。
円のハフ変換は、x−y平面を円の特徴を示す3次元の
パラメータ空間に変換する。そして、この円のハフ変換
は、前記式(6)を変換した次式で実現する。
【0061】
b=±√{r2−(x−a)2}+y …(7)
この式(7)を利用して、x−y平面における円上の任
意の点(x0,y0)をハフ変換すると、パラメータ空
間では、b=±√{r2−(x0−a)2}+y0上に乗
った画素(点(a,b,r))に投票がなされる。する
と、パラメータ空間において、投票結果である点群は、
(x0,y0)を通る全ての円の集まりで表現される。
例えば、図8(a)に示したx−y平面上の3点e(x
1,y1)、f(x2,y2)、g(x3,y3)を前
記式(7)でパラメータ空間に投射すると、それぞれの
半径の値rに対するa−b平面について、各点e,f,
gが図8(b)に示すような1つずつの円に変換され
る。なお、図8(b)は、r=r0におけるa−b平面
を示している。このハフ変換によって得られた円をハフ
曲線という。
意の点(x0,y0)をハフ変換すると、パラメータ空
間では、b=±√{r2−(x0−a)2}+y0上に乗
った画素(点(a,b,r))に投票がなされる。する
と、パラメータ空間において、投票結果である点群は、
(x0,y0)を通る全ての円の集まりで表現される。
例えば、図8(a)に示したx−y平面上の3点e(x
1,y1)、f(x2,y2)、g(x3,y3)を前
記式(7)でパラメータ空間に投射すると、それぞれの
半径の値rに対するa−b平面について、各点e,f,
gが図8(b)に示すような1つずつの円に変換され
る。なお、図8(b)は、r=r0におけるa−b平面
を示している。このハフ変換によって得られた円をハフ
曲線という。
【0062】前記ハフ曲線は、パラメータ空間において
互いに交じり合うため、交点が複数生じる。そして、交
わるハフ曲線の数(即ち、投票数)が最大の交点を見つ
けることにより、x−y平面の円の中心座標と半径が検
出可能になっている。なお、図8(b)においては、交
点(a0,b0,r0)において、3つのハフ曲線が交
わり、交点に対する投票数は3となっている。それに対
して、それ以外の点では投票数が2以下であるため、x
−y平面の円の中心座標は(a0,b0)となり、半径
はr0と決定される。
互いに交じり合うため、交点が複数生じる。そして、交
わるハフ曲線の数(即ち、投票数)が最大の交点を見つ
けることにより、x−y平面の円の中心座標と半径が検
出可能になっている。なお、図8(b)においては、交
点(a0,b0,r0)において、3つのハフ曲線が交
わり、交点に対する投票数は3となっている。それに対
して、それ以外の点では投票数が2以下であるため、x
−y平面の円の中心座標は(a0,b0)となり、半径
はr0と決定される。
【0063】さて、瞳領域35のエッジ画像におけるエ
ッジ点群には左上座標(x,y)が付与される。そし
て、前記円のハフ変換を行い、図7(d)に示すような
エッジ点群が付されたx−y平面を、図9に示すような
瞳領域35の中心座標(a1,b1)と半径r1を示す
ための3次元パラメータ空間へ変換する。そして、x−
y平面における各エッジ点が、パラメータ空間におい
て、前記式(7)を満たす所定の画素(点(a,b,
r))に投票する。そして、図形空間におけるエッジ3
5bをくまなく走査して、パラメータ空間において、最
大投票数を得た点が瞳中心点Cとなる。前記瞳中心点C
が投票数最大点に相当し、パラメータ空間が投票空間に
相当する。なお、図9のa軸及びb軸の値は中心座標を
示し、r軸の値は半径を示す。また、瞳領域35の半径
rの範囲(rmin〜rmax)は予めカメラ用パソコン14
の記憶装置(図示しない)に記憶されており、ハフ変換
の際には、その範囲(rmin〜rmax)内の所定の画素
(点(a,b,r))に投票がなされる。
ッジ点群には左上座標(x,y)が付与される。そし
て、前記円のハフ変換を行い、図7(d)に示すような
エッジ点群が付されたx−y平面を、図9に示すような
瞳領域35の中心座標(a1,b1)と半径r1を示す
ための3次元パラメータ空間へ変換する。そして、x−
y平面における各エッジ点が、パラメータ空間におい
て、前記式(7)を満たす所定の画素(点(a,b,
r))に投票する。そして、図形空間におけるエッジ3
5bをくまなく走査して、パラメータ空間において、最
大投票数を得た点が瞳中心点Cとなる。前記瞳中心点C
が投票数最大点に相当し、パラメータ空間が投票空間に
相当する。なお、図9のa軸及びb軸の値は中心座標を
示し、r軸の値は半径を示す。また、瞳領域35の半径
rの範囲(rmin〜rmax)は予めカメラ用パソコン14
の記憶装置(図示しない)に記憶されており、ハフ変換
の際には、その範囲(rmin〜rmax)内の所定の画素
(点(a,b,r))に投票がなされる。
【0064】ところで、図10に示すように、例えば検
出対象者Hがビデオカメラ11Aを真正面から直視して
いるとき、ビデオカメラ11Aにて撮像された画像にお
ける瞳(瞳領域35)の形状は図11(a)に示すよう
に真円になる。また、このとき、ビデオカメラ11Aの
近傍に位置するビデオカメラ11Bの方向から検出対象
者Hを見ると、同検出対象者Hは他の方向を見ているこ
とになり、ビデオカメラ11Bにて撮像された画像にお
ける瞳(瞳領域35)の形状は図11(b)に示すよう
に、楕円のような変形した円になる。
出対象者Hがビデオカメラ11Aを真正面から直視して
いるとき、ビデオカメラ11Aにて撮像された画像にお
ける瞳(瞳領域35)の形状は図11(a)に示すよう
に真円になる。また、このとき、ビデオカメラ11Aの
近傍に位置するビデオカメラ11Bの方向から検出対象
者Hを見ると、同検出対象者Hは他の方向を見ているこ
とになり、ビデオカメラ11Bにて撮像された画像にお
ける瞳(瞳領域35)の形状は図11(b)に示すよう
に、楕円のような変形した円になる。
【0065】つまり、検出対象者Hの視線が向けられて
いれば、撮像した瞳(瞳領域35)の形状は真円若しく
は真円に近い形を示すのである。その一方で、視線が外
れていれば、外れるほど撮像した瞳(瞳領域35)の形
状は短軸と長軸の距離の差が広がった楕円を示すのであ
る。なお、本実施形態においては、ビデオカメラ11は
全て同じ高さに配置されているため、図11(b)に示
す視線が外れた状態の瞳(瞳領域35)の形状は縦長の
楕円となる。従って、複数のビデオカメラ11で撮像し
た瞳(瞳領域35)の形状を比較して、ある瞳(瞳領域
35)の形状がより真円に近いということは、検出対象
者Hがそのビデオカメラ11へ視線を向けていることを
示す。
いれば、撮像した瞳(瞳領域35)の形状は真円若しく
は真円に近い形を示すのである。その一方で、視線が外
れていれば、外れるほど撮像した瞳(瞳領域35)の形
状は短軸と長軸の距離の差が広がった楕円を示すのであ
る。なお、本実施形態においては、ビデオカメラ11は
全て同じ高さに配置されているため、図11(b)に示
す視線が外れた状態の瞳(瞳領域35)の形状は縦長の
楕円となる。従って、複数のビデオカメラ11で撮像し
た瞳(瞳領域35)の形状を比較して、ある瞳(瞳領域
35)の形状がより真円に近いということは、検出対象
者Hがそのビデオカメラ11へ視線を向けていることを
示す。
【0066】一方、ハフ変換を行った際のパラメータ空
間での投票数において、x−y平面たるエッジ画像の瞳
領域35(エッジ35b)の形状が真円に近いほど図1
2(a)に示すように瞳中心点Cとされる点(a1,b
1,r1)に投票数が集中し、その周辺の投票数との差
が大きくなるという特性がある。また、エッジ画像の瞳
領域35(エッジ35b)の形状が楕円形になった場
合、その長軸と短軸の長さが異なるほど投票数がばらつ
き、図12(b)に示すように、瞳中心点Cとされる点
(a1,b1,r1)の投票数とその周辺の投票数との
差が開きにくくなるという特性がある。なお、図12
(a),(b)に示す3次元空間は、中心座標(a1,
b1)を示すためのa−b平面に、投票数を示すv軸が
直交した三次元空間を示し、図9に示すパラメータ空間
とは異なる。また、図12(a),(b)は共に半径r
=r1のa−b平面における投票数を示している。
間での投票数において、x−y平面たるエッジ画像の瞳
領域35(エッジ35b)の形状が真円に近いほど図1
2(a)に示すように瞳中心点Cとされる点(a1,b
1,r1)に投票数が集中し、その周辺の投票数との差
が大きくなるという特性がある。また、エッジ画像の瞳
領域35(エッジ35b)の形状が楕円形になった場
合、その長軸と短軸の長さが異なるほど投票数がばらつ
き、図12(b)に示すように、瞳中心点Cとされる点
(a1,b1,r1)の投票数とその周辺の投票数との
差が開きにくくなるという特性がある。なお、図12
(a),(b)に示す3次元空間は、中心座標(a1,
b1)を示すためのa−b平面に、投票数を示すv軸が
直交した三次元空間を示し、図9に示すパラメータ空間
とは異なる。また、図12(a),(b)は共に半径r
=r1のa−b平面における投票数を示している。
【0067】以上の結果により、パラメータ空間におい
て決定された瞳中心点Cの投票数(以下、「中心投票
数」という)Vcと、この瞳中心点Cを中心とした比較
領域P内の投票数(以下、「領域投票数」という)Vr
とから、次式(8)により円形度を示す評価値Eを算出
する。
て決定された瞳中心点Cの投票数(以下、「中心投票
数」という)Vcと、この瞳中心点Cを中心とした比較
領域P内の投票数(以下、「領域投票数」という)Vr
とから、次式(8)により円形度を示す評価値Eを算出
する。
【0068】E=k×Vc/Vr …(8)
式(8)中、kは、重み付けとして掛け合わせられる所
定の定数である。また、本実施形態において、前記比較
領域Pとは、瞳中心点Cにおける中心座標(a1,b
1)を中心として5×5画素の範囲を示し、領域投票数
Vrは図12に示すようなr=r1における投票数だけ
ではなく、比較領域Pに含まれたそれぞれのrにおける
投票数も含む。前記瞳中心点Cが第1領域に相当し、比
較領域Pが第2領域に相当する。
定の定数である。また、本実施形態において、前記比較
領域Pとは、瞳中心点Cにおける中心座標(a1,b
1)を中心として5×5画素の範囲を示し、領域投票数
Vrは図12に示すようなr=r1における投票数だけ
ではなく、比較領域Pに含まれたそれぞれのrにおける
投票数も含む。前記瞳中心点Cが第1領域に相当し、比
較領域Pが第2領域に相当する。
【0069】そして、前述したように、瞳領域35が真
円に近くなるほど、瞳中心点Cに投票数が集中するた
め、前記式(8)においては、分子の中心投票数Vcが
大きくなり、評価値Eも大きくなる。また、瞳領域35
が真円から離れるほど投票数がばらつくため、式(8)
においては、分子の中心投票数Vcが小さくなる一方
で、分母の領域投票数Vrが大きくなり、評価値Eが小
さくなる。この結果、前記評価値Eが大きくなれば円形
度が高くなり、評価値Eが小さくなれば円形度は低くな
る。
円に近くなるほど、瞳中心点Cに投票数が集中するた
め、前記式(8)においては、分子の中心投票数Vcが
大きくなり、評価値Eも大きくなる。また、瞳領域35
が真円から離れるほど投票数がばらつくため、式(8)
においては、分子の中心投票数Vcが小さくなる一方
で、分母の領域投票数Vrが大きくなり、評価値Eが小
さくなる。この結果、前記評価値Eが大きくなれば円形
度が高くなり、評価値Eが小さくなれば円形度は低くな
る。
【0070】このようにして算出された円形度(評価値
E)の結果をカメラ用パソコン14A,14Bはメイン
パソコン16に送信する。なお、各カメラ用パソコン1
4A,14Bの時刻はメインパソコン16に合わされて
いるため、各カメラ用パソコン14A,14Bから送信
される円形度(評価値E)の算出結果はそれぞれ同時刻
にキャプチャした画像データから算出されたものになっ
ている。
E)の結果をカメラ用パソコン14A,14Bはメイン
パソコン16に送信する。なお、各カメラ用パソコン1
4A,14Bの時刻はメインパソコン16に合わされて
いるため、各カメラ用パソコン14A,14Bから送信
される円形度(評価値E)の算出結果はそれぞれ同時刻
にキャプチャした画像データから算出されたものになっ
ている。
【0071】(視線検出(カメラ決定))そして、S9
において、メインパソコン16は、カメラ用パソコン1
4Aから受信した評価値Eと、カメラ用パソコン14B
から受信した評価値Eとの大小を比較する。そして、評
価値Eが大きい方、即ち検出した瞳領域が真円により近
い方を視線が向けられているビデオカメラとして、視線
検出が行われる。(S10)。視線が検出されると、メ
インパソコン16は、視線が向けられたビデオカメラに
対応する電気機器17へコマンド信号を出力する(S1
1)。なお、各カメラ用パソコン14A,14Bから受
信した評価値Eが所定の許容範囲内で等しいとメインパ
ソコン16が判断した場合は、何れのビデオカメラ11
A,11Bも検出対象者Hは見ておらず、両ビデオカメ
ラ11A,11Bのほぼ中央を見ているものと判断す
る。そして、このときは、電気機器17へコマンド信号
を出力しない。
において、メインパソコン16は、カメラ用パソコン1
4Aから受信した評価値Eと、カメラ用パソコン14B
から受信した評価値Eとの大小を比較する。そして、評
価値Eが大きい方、即ち検出した瞳領域が真円により近
い方を視線が向けられているビデオカメラとして、視線
検出が行われる。(S10)。視線が検出されると、メ
インパソコン16は、視線が向けられたビデオカメラに
対応する電気機器17へコマンド信号を出力する(S1
1)。なお、各カメラ用パソコン14A,14Bから受
信した評価値Eが所定の許容範囲内で等しいとメインパ
ソコン16が判断した場合は、何れのビデオカメラ11
A,11Bも検出対象者Hは見ておらず、両ビデオカメ
ラ11A,11Bのほぼ中央を見ているものと判断す
る。そして、このときは、電気機器17へコマンド信号
を出力しない。
【0072】従って、上記実施形態によれば、以下のよ
うな効果を得ることができる。 (1)上記実施形態では、各カメラ用パソコン14は、
各ビデオカメラ11により撮像した画像データに含まれ
る目領域32から瞳領域35を検出し、この瞳領域35
の形状に対して円形度を算出する。そして、各カメラ用
パソコン14はその算出結果をメインパソコン16に送
信し、メインパソコン16では、その円形度に基づいて
視線を検出する。従来と異なり、視線検出に瞳孔を利用
せず、瞳孔よりも大きく、目領域32の中から白目領域
34と容易に区別できる瞳領域35の円形度に基づいて
視線検出を行ったため、瞳孔を検出可能な位まで目領域
32を拡大して撮像する必要がなく、各ビデオカメラ1
1にて検出対象者Hを捕捉可能な範囲が広がる。従っ
て、検出対象者Hの位置に影響されることなく、好適に
視線を検出することができる。
うな効果を得ることができる。 (1)上記実施形態では、各カメラ用パソコン14は、
各ビデオカメラ11により撮像した画像データに含まれ
る目領域32から瞳領域35を検出し、この瞳領域35
の形状に対して円形度を算出する。そして、各カメラ用
パソコン14はその算出結果をメインパソコン16に送
信し、メインパソコン16では、その円形度に基づいて
視線を検出する。従来と異なり、視線検出に瞳孔を利用
せず、瞳孔よりも大きく、目領域32の中から白目領域
34と容易に区別できる瞳領域35の円形度に基づいて
視線検出を行ったため、瞳孔を検出可能な位まで目領域
32を拡大して撮像する必要がなく、各ビデオカメラ1
1にて検出対象者Hを捕捉可能な範囲が広がる。従っ
て、検出対象者Hの位置に影響されることなく、好適に
視線を検出することができる。
【0073】(2)上記実施形態では、視線検出空間内
に複数のビデオカメラ11を互いに異なる位置に配置
し、各ビデオカメラ11でそれぞれ同時に検出した各瞳
領域35の円形度をメインパソコン16により比較し
て、どのビデオカメラ11に視線を向けているかを検出
する。従って、従来と異なり、各カメラ用パソコン14
で算出された円形度(評価値E)を予め記憶した参照デ
ータと比較しないため、検出した瞳領域35に対して較
正(キャリブレーション)を行う必要がなく、簡便に視
線検出を行うことができる。
に複数のビデオカメラ11を互いに異なる位置に配置
し、各ビデオカメラ11でそれぞれ同時に検出した各瞳
領域35の円形度をメインパソコン16により比較し
て、どのビデオカメラ11に視線を向けているかを検出
する。従って、従来と異なり、各カメラ用パソコン14
で算出された円形度(評価値E)を予め記憶した参照デ
ータと比較しないため、検出した瞳領域35に対して較
正(キャリブレーション)を行う必要がなく、簡便に視
線検出を行うことができる。
【0074】また、図1には、4つのビデオカメラ11
しか描いていないが、設置するビデオカメラ11はカメ
ラ用パソコン14を介してメインパソコン16に接続す
るだけで容易に追加できる。このため、視線検出の精度
向上及び検出領域の拡張を容易に図ることができる。
しか描いていないが、設置するビデオカメラ11はカメ
ラ用パソコン14を介してメインパソコン16に接続す
るだけで容易に追加できる。このため、視線検出の精度
向上及び検出領域の拡張を容易に図ることができる。
【0075】(3)上記実施形態では、瞳領域35のエ
ッジ画像をハフ変換し、変換先のパラメータ空間におい
て、投票数が最大となる瞳中心点Cと、同瞳中心点Cを
含む比較領域Pにおける各投票数から円形度を示す評価
値Eを算出した。従って、パラメータ空間における投票
数を利用して好適に円形度の算出が実現できる。
ッジ画像をハフ変換し、変換先のパラメータ空間におい
て、投票数が最大となる瞳中心点Cと、同瞳中心点Cを
含む比較領域Pにおける各投票数から円形度を示す評価
値Eを算出した。従って、パラメータ空間における投票
数を利用して好適に円形度の算出が実現できる。
【0076】(4)上記実施形態では、メインパソコン
16において、2つのカメラ用パソコン14A,14B
から受信した評価値Eが所定の許容範囲内で等しいと判
断した場合は、何れのビデオカメラ11A,11Bも見
ておらず、両ビデオカメラ11A,11Bのほぼ中央を
見ているものと判断する。このため、ビデオカメラ11
間の中間点に視線を向けている場合も容易に検出でき
る。
16において、2つのカメラ用パソコン14A,14B
から受信した評価値Eが所定の許容範囲内で等しいと判
断した場合は、何れのビデオカメラ11A,11Bも見
ておらず、両ビデオカメラ11A,11Bのほぼ中央を
見ているものと判断する。このため、ビデオカメラ11
間の中間点に視線を向けている場合も容易に検出でき
る。
【0077】なお、上記実施形態は以下のように変更し
てもよい。・上記実施形態では、カメラ用パソコン14
における円形度(即ち、評価値E)の算出に、瞳領域3
5のエッジ画像をハフ変換する際におけるパラメータ空
間の投票数を利用したが、以下の方法で円形度を算出し
てもよい。すなわち、S7において検出され、円形状の
補完が行われた瞳領域35全体の画素数から面積Sを求
め、瞳領域35のエッジ画像からエッジ35bの画素数
を数えることでエッジ35b(即ち、輪郭線)の長さL
を求める。そして、各カメラ用パソコン14では、次式
(9)から円形度を示す評価値Rateを算出する。
てもよい。・上記実施形態では、カメラ用パソコン14
における円形度(即ち、評価値E)の算出に、瞳領域3
5のエッジ画像をハフ変換する際におけるパラメータ空
間の投票数を利用したが、以下の方法で円形度を算出し
てもよい。すなわち、S7において検出され、円形状の
補完が行われた瞳領域35全体の画素数から面積Sを求
め、瞳領域35のエッジ画像からエッジ35bの画素数
を数えることでエッジ35b(即ち、輪郭線)の長さL
を求める。そして、各カメラ用パソコン14では、次式
(9)から円形度を示す評価値Rateを算出する。
【0078】Rate=4πS/L2 …(9)
これによれば、円形度は式(9)により算出される評価
値Rateに基づいて決定され、前記評価値Rateが
1に近づくほど円形度は高く、1から離れるほど円形度
は低くなる。従って、この別例においては、円形度を算
出するというのは前記評価値Rateを算出することを
示す。
値Rateに基づいて決定され、前記評価値Rateが
1に近づくほど円形度は高く、1から離れるほど円形度
は低くなる。従って、この別例においては、円形度を算
出するというのは前記評価値Rateを算出することを
示す。
【0079】そして、各カメラ用パソコン14で算出さ
れる評価値Rateを受信したメインパソコン16で
は、より1に近いほうを視線方向として検出する。この
ようにしても、瞳領域35の面積S及びエッジ35bの
長さLを利用して好適に円形度の算出が実現できる。
れる評価値Rateを受信したメインパソコン16で
は、より1に近いほうを視線方向として検出する。この
ようにしても、瞳領域35の面積S及びエッジ35bの
長さLを利用して好適に円形度の算出が実現できる。
【0080】・上記実施形態では、式(8)における分
子の中心投票数Vcは、投票数が最大である瞳中心点C
のみの投票数であったが、例えば、瞳中心点Cとその隣
の点を合せた領域の投票数の合計を中心投票数Vcとす
る等、少なくとも比較領域Pよりも狭い領域の投票数で
あれば、中心投票数Vcとしてもよい。この場合、瞳中
心点Cとその隣の点を合せた領域が第1領域に相当す
る。
子の中心投票数Vcは、投票数が最大である瞳中心点C
のみの投票数であったが、例えば、瞳中心点Cとその隣
の点を合せた領域の投票数の合計を中心投票数Vcとす
る等、少なくとも比較領域Pよりも狭い領域の投票数で
あれば、中心投票数Vcとしてもよい。この場合、瞳中
心点Cとその隣の点を合せた領域が第1領域に相当す
る。
【0081】・上記実施形態では、S7における瞳領域
検出を、S6において検出された目領域32のうち何れ
か一方の目領域32について行ったが、右・左、両方の
目領域32に対して行ってもよい。この場合、各瞳領域
35から算出された円形度(評価値E)の平均値が算出
され、その値が、各画像データの円形度とされ、比較さ
れる。このようにすれば、片目について、円形度を算出
する場合と比較して、高精度に視線検出を行うことがで
きる。
検出を、S6において検出された目領域32のうち何れ
か一方の目領域32について行ったが、右・左、両方の
目領域32に対して行ってもよい。この場合、各瞳領域
35から算出された円形度(評価値E)の平均値が算出
され、その値が、各画像データの円形度とされ、比較さ
れる。このようにすれば、片目について、円形度を算出
する場合と比較して、高精度に視線検出を行うことがで
きる。
【0082】・上記実施形態では、複数台のビデオカメ
ラ11を視線検出空間内に設け、各ビデオカメラ11の
カメラ用パソコン14にて算出された円形度(評価値
E)をメインパソコン16が比較することで、視線を検
出したが、撮像された画像データに基づく各円形度同士
の比較ではなく、予めメインパソコン16に記憶した閾
値との比較で視線を検出してもよい。すなわち、各カメ
ラ用パソコン14から送信された評価値Eのうち何れか
1つが閾値を超えた場合に、そのビデオカメラ11に視
線を向けているという視線検出を行う。なお、この場
合、複数の円形度を比較することはないため、設置する
ビデオカメラ11を1台としてもよい。
ラ11を視線検出空間内に設け、各ビデオカメラ11の
カメラ用パソコン14にて算出された円形度(評価値
E)をメインパソコン16が比較することで、視線を検
出したが、撮像された画像データに基づく各円形度同士
の比較ではなく、予めメインパソコン16に記憶した閾
値との比較で視線を検出してもよい。すなわち、各カメ
ラ用パソコン14から送信された評価値Eのうち何れか
1つが閾値を超えた場合に、そのビデオカメラ11に視
線を向けているという視線検出を行う。なお、この場
合、複数の円形度を比較することはないため、設置する
ビデオカメラ11を1台としてもよい。
【0083】・上記実施形態では、ビデオカメラ11は
全て同じ高さに配置されていたが、それぞれ異なる高さ
に配置してもよい。 ・上記実施形態では、メインパソコン16と各カメラ用
パソコン14との通信をイーサネット(登録商標)を介
したソケット通信にて行っていたが、無線電波にて行っ
てもよい。
全て同じ高さに配置されていたが、それぞれ異なる高さ
に配置してもよい。 ・上記実施形態では、メインパソコン16と各カメラ用
パソコン14との通信をイーサネット(登録商標)を介
したソケット通信にて行っていたが、無線電波にて行っ
てもよい。
【0084】次に、上記実施形態及び各別例から把握で
きる技術的思想について以下に記載する。 (1)請求項5に記載の視線検出方法において、前記所
定の撮像ポイントは複数あり、前記視線検出工程では、
複数の撮像ポイントにおける各円形度を比較することで
視線を検出する視線検出方法。
きる技術的思想について以下に記載する。 (1)請求項5に記載の視線検出方法において、前記所
定の撮像ポイントは複数あり、前記視線検出工程では、
複数の撮像ポイントにおける各円形度を比較することで
視線を検出する視線検出方法。
【0085】(2)請求項5又は上記技術的思想(1)
に記載の視線検出方法において、前記円形度算出工程で
は、前記瞳領域を含む画像データをハフ変換し、ハフ変
換の投票空間において、投票数が最大となる投票数最大
点を含む第1領域、及び前記投票数最大点を含み前記第
1領域よりも大きい第2領域における各投票数から円形
度が算出される視線検出方法。
に記載の視線検出方法において、前記円形度算出工程で
は、前記瞳領域を含む画像データをハフ変換し、ハフ変
換の投票空間において、投票数が最大となる投票数最大
点を含む第1領域、及び前記投票数最大点を含み前記第
1領域よりも大きい第2領域における各投票数から円形
度が算出される視線検出方法。
【0086】(3)請求項5又は上記技術的思想(1)
に記載の視線検出方法において、前記円形度算出工程で
は、瞳領域の面積及び瞳領域の輪郭線の長さに基づいて
円形度を算出することを特徴とする視線検出方法。
に記載の視線検出方法において、前記円形度算出工程で
は、瞳領域の面積及び瞳領域の輪郭線の長さに基づいて
円形度を算出することを特徴とする視線検出方法。
【0087】
【発明の効果】以上詳述したように、請求項1の発明に
よれば、検出対象者の頭部位置に影響されることなく、
好適に視線を検出することができる。
よれば、検出対象者の頭部位置に影響されることなく、
好適に視線を検出することができる。
【0088】請求項2の発明によれば、請求項1の効果
に加えて、複数の撮像手段から取得される各画像データ
の円形度を比較することで視線を検出しているため、検
出した瞳領域に対して較正(キャリブレーション)を行
う必要がなく、簡便に視線検出ができる。
に加えて、複数の撮像手段から取得される各画像データ
の円形度を比較することで視線を検出しているため、検
出した瞳領域に対して較正(キャリブレーション)を行
う必要がなく、簡便に視線検出ができる。
【0089】請求項3の発明によれば、請求項1又は請
求項2の発明の効果に加えて、ハフ変換の投票空間にお
ける投票数を利用して好適に円形度の算出を実現でき
る。請求項4の発明によれば、請求項1又は請求項2の
発明の効果に加えて、瞳領域の面積及び輪郭線の長さを
利用して好適に円形度の算出を実現できる。
求項2の発明の効果に加えて、ハフ変換の投票空間にお
ける投票数を利用して好適に円形度の算出を実現でき
る。請求項4の発明によれば、請求項1又は請求項2の
発明の効果に加えて、瞳領域の面積及び輪郭線の長さを
利用して好適に円形度の算出を実現できる。
【0090】請求項5の発明によれば、請求項1の発明
の効果と同様の効果を奏す。
の効果と同様の効果を奏す。
【図1】本発明に係る実施形態の視線検出装置の構成を
示すブロック図。
示すブロック図。
【図2】同じく視線検出方法を示すフローチャート。
【図3】(a)はビデオカメラが撮像した画像データの
説明図、(b)は肌色基準で抽出した画像データの説明
図。
説明図、(b)は肌色基準で抽出した画像データの説明
図。
【図4】判別分析に係るクラスを示した概念図。
【図5】パターン認識の概念図。
【図6】ビデオカメラの光軸(カメラ方向)に対する相
対顔方向とのなす角度Fとの関係を示す説明図。
対顔方向とのなす角度Fとの関係を示す説明図。
【図7】(a)、(c)は瞳領域検出を示す説明図、
(b)は水平射影ヒストグラムを示す説明図、(d)は
瞳領域のエッジ画像を示す説明図。
(b)は水平射影ヒストグラムを示す説明図、(d)は
瞳領域のエッジ画像を示す説明図。
【図8】(a)、(b)は円のハフ変換の説明図。
【図9】パラメータ空間を示す説明図。
【図10】ビデオカメラ11Aを直視した検出対象者を
示す概念図。
示す概念図。
【図11】(a)は円形度が高い瞳領域を示す説明図、
(b)は円形度が低い瞳領域を示す説明図。
(b)は円形度が低い瞳領域を示す説明図。
【図12】(a)、(b)は投票数と中心座標の関係を
示す説明図。
示す説明図。
H…検出対象者、11…ビデオカメラ(撮像手段)、1
4…カメラ用パソコン(瞳領域検出手段、円形度算出手
段)、16…メインパソコン(視線検出手段)、32…
目領域、35…瞳領域
4…カメラ用パソコン(瞳領域検出手段、円形度算出手
段)、16…メインパソコン(視線検出手段)、32…
目領域、35…瞳領域
フロントページの続き
(72)発明者 本郷 仁志
岐阜県大垣市加賀野4丁目1番地の7 財
団法人 ソフトピアジャパン内
Fターム(参考) 2H051 AA00 BA80 DA24
5C054 AA01 AA04 CC02 FC11 FF07
HA05
5L096 AA02 AA06 FA06 FA24 FA35
FA59 FA67 GA02 GA38 GA41
JA03 JA09
Claims (5)
- 【請求項1】 検出対象者を撮像する撮像手段と、 撮像手段が撮像した画像データに含まれる顔の目領域か
ら瞳領域を検出する瞳領域検出手段と、 前記瞳領域検出手段が検出した瞳領域の形状に対して円
形度を算出する円形度算出手段と、 円形度算出手段が算出した円形度に基づいて視線を検出
する視線検出手段とを備えたことを特徴とする視線検出
装置。 - 【請求項2】 前記撮像手段は互いに異なる位置に複数
設けられ、前記視線検出手段は、各撮像手段から得た画
像データに含まれる瞳領域の各円形度を比較することで
視線を検出する請求項1に記載の視線検出装置。 - 【請求項3】 前記円形度算出手段は、前記瞳領域を含
む画像データをハフ変換し、ハフ変換の投票空間におい
て、投票数が最大となる投票数最大点を含む第1領域、
及び前記投票数最大点を含み前記第1領域よりも大きい
第2領域における各投票数から円形度を算出する請求項
1又は請求項2に記載の視線検出装置。 - 【請求項4】 前記円形度算出手段は、瞳領域の面積及
び瞳領域の輪郭線の長さに基づいて円形度を算出する請
求項1又は請求項2に記載の視線検出装置。 - 【請求項5】 所定の撮像ポイントから検出対象者を撮
像する撮像工程と、 撮像した画像データに含まれる顔の目領域から瞳領域を
検出する瞳領域検出工程と、 検出した瞳領域の形状に対する円形度を算出する円形度
算出工程と、 算出した円形度に基づいて視線を検出する視線検出工程
とを備えたことを特徴とする視線検出方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001263937A JP2003070742A (ja) | 2001-08-31 | 2001-08-31 | 視線検出装置及び視線検出方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001263937A JP2003070742A (ja) | 2001-08-31 | 2001-08-31 | 視線検出装置及び視線検出方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003070742A true JP2003070742A (ja) | 2003-03-11 |
Family
ID=19090616
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001263937A Pending JP2003070742A (ja) | 2001-08-31 | 2001-08-31 | 視線検出装置及び視線検出方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2003070742A (ja) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005108206A (ja) * | 2003-09-09 | 2005-04-21 | Fuji Photo Film Co Ltd | 円中心位置検出方法および装置並びにプログラム |
JP2005202562A (ja) * | 2004-01-14 | 2005-07-28 | Konica Minolta Photo Imaging Inc | 画像処理方法、画像処理装置及び画像処理プログラム |
WO2007069294A1 (ja) * | 2005-12-12 | 2007-06-21 | Atsuhiro Ueda | 画像診断用データ・サンプリング・デバイス並びに該デバイスに用いられる撮像用アダプタ |
WO2008007781A1 (fr) * | 2006-07-14 | 2008-01-17 | Panasonic Corporation | Dispositif de détection de la direction d'axe visuel et procédé de détection de la direction de ligne visuelle |
WO2008139530A1 (ja) * | 2007-04-27 | 2008-11-20 | Honda Motor Co., Ltd. | 車両周辺監視装置、車両周辺監視用プログラム、車両周辺監視方法 |
JP2009205469A (ja) * | 2008-02-28 | 2009-09-10 | Alpha Systems:Kk | オブジェクト領域の抽出システムおよび方法 |
US7680357B2 (en) | 2003-09-09 | 2010-03-16 | Fujifilm Corporation | Method and apparatus for detecting positions of center points of circular patterns |
CN101859438A (zh) * | 2009-04-08 | 2010-10-13 | 株式会社尼康 | 被拍摄体跟踪装置及相机 |
JP2010230651A (ja) * | 2009-03-27 | 2010-10-14 | Utechzone Co Ltd | 視線追跡方法及び視線追跡システム |
JP2010250663A (ja) * | 2009-04-17 | 2010-11-04 | Nikon Corp | 画像マッチング装置、およびカメラ |
JP2011224213A (ja) * | 2010-04-21 | 2011-11-10 | Olympus Corp | 頭部装着型瞳孔検出装置 |
KR101096790B1 (ko) | 2009-08-12 | 2011-12-21 | 주식회사 생명과기술 | 멀티 채널 카메라를 이용한 농산물 부피 측정장치 |
JP2012038106A (ja) * | 2010-08-06 | 2012-02-23 | Canon Inc | 情報処理装置、情報処理方法、およびプログラム |
US8126210B2 (en) | 2007-04-27 | 2012-02-28 | Honda Motor Co., Ltd. | Vehicle periphery monitoring device, vehicle periphery monitoring program, and vehicle periphery monitoring method |
US8131068B2 (en) | 2008-06-06 | 2012-03-06 | Nikon Corporation | Image matching device and camera |
JP2012196328A (ja) * | 2011-03-22 | 2012-10-18 | Panasonic Corp | 両眼瞳孔検査装置 |
JP2016028669A (ja) * | 2014-07-23 | 2016-03-03 | 株式会社Jvcケンウッド | 瞳孔検出装置、および瞳孔検出方法 |
JP2021061048A (ja) * | 2021-01-05 | 2021-04-15 | 日本電気株式会社 | 情報処理装置、情報処理方法、およびプログラム |
-
2001
- 2001-08-31 JP JP2001263937A patent/JP2003070742A/ja active Pending
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005108206A (ja) * | 2003-09-09 | 2005-04-21 | Fuji Photo Film Co Ltd | 円中心位置検出方法および装置並びにプログラム |
US7680357B2 (en) | 2003-09-09 | 2010-03-16 | Fujifilm Corporation | Method and apparatus for detecting positions of center points of circular patterns |
JP4510562B2 (ja) * | 2003-09-09 | 2010-07-28 | 富士フイルム株式会社 | 円中心位置検出方法および装置並びにプログラム |
JP2005202562A (ja) * | 2004-01-14 | 2005-07-28 | Konica Minolta Photo Imaging Inc | 画像処理方法、画像処理装置及び画像処理プログラム |
JP4898704B2 (ja) * | 2005-12-12 | 2012-03-21 | 淳大 上田 | 画像診断用データ・サンプリング・デバイス並びに該デバイスに用いられる撮像用アダプタ |
WO2007069294A1 (ja) * | 2005-12-12 | 2007-06-21 | Atsuhiro Ueda | 画像診断用データ・サンプリング・デバイス並びに該デバイスに用いられる撮像用アダプタ |
WO2008007781A1 (fr) * | 2006-07-14 | 2008-01-17 | Panasonic Corporation | Dispositif de détection de la direction d'axe visuel et procédé de détection de la direction de ligne visuelle |
US8406479B2 (en) | 2006-07-14 | 2013-03-26 | Panasonic Corporation | Visual axis direction detection device and visual line direction detection method |
JPWO2008007781A1 (ja) * | 2006-07-14 | 2009-12-10 | パナソニック株式会社 | 視線方向検出装置および視線方向検出方法 |
JP5137833B2 (ja) * | 2006-07-14 | 2013-02-06 | パナソニック株式会社 | 視線方向検出装置および視線方向検出方法 |
JP5145599B2 (ja) * | 2007-04-27 | 2013-02-20 | 本田技研工業株式会社 | 車両周辺監視装置、車両周辺監視用プログラム、車両周辺監視方法 |
US8411145B2 (en) | 2007-04-27 | 2013-04-02 | Honda Motor Co., Ltd. | Vehicle periphery monitoring device, vehicle periphery monitoring program and vehicle periphery monitoring method |
US8126210B2 (en) | 2007-04-27 | 2012-02-28 | Honda Motor Co., Ltd. | Vehicle periphery monitoring device, vehicle periphery monitoring program, and vehicle periphery monitoring method |
WO2008139530A1 (ja) * | 2007-04-27 | 2008-11-20 | Honda Motor Co., Ltd. | 車両周辺監視装置、車両周辺監視用プログラム、車両周辺監視方法 |
JP2009205469A (ja) * | 2008-02-28 | 2009-09-10 | Alpha Systems:Kk | オブジェクト領域の抽出システムおよび方法 |
US8131068B2 (en) | 2008-06-06 | 2012-03-06 | Nikon Corporation | Image matching device and camera |
JP2010230651A (ja) * | 2009-03-27 | 2010-10-14 | Utechzone Co Ltd | 視線追跡方法及び視線追跡システム |
JP2010245923A (ja) * | 2009-04-08 | 2010-10-28 | Nikon Corp | 被写体追尾装置、およびカメラ |
US8594371B2 (en) | 2009-04-08 | 2013-11-26 | Nikon Corporation | Subject tracking device and camera |
CN101859438A (zh) * | 2009-04-08 | 2010-10-13 | 株式会社尼康 | 被拍摄体跟踪装置及相机 |
JP2010250663A (ja) * | 2009-04-17 | 2010-11-04 | Nikon Corp | 画像マッチング装置、およびカメラ |
KR101096790B1 (ko) | 2009-08-12 | 2011-12-21 | 주식회사 생명과기술 | 멀티 채널 카메라를 이용한 농산물 부피 측정장치 |
JP2011224213A (ja) * | 2010-04-21 | 2011-11-10 | Olympus Corp | 頭部装着型瞳孔検出装置 |
JP2012038106A (ja) * | 2010-08-06 | 2012-02-23 | Canon Inc | 情報処理装置、情報処理方法、およびプログラム |
US8761459B2 (en) | 2010-08-06 | 2014-06-24 | Canon Kabushiki Kaisha | Estimating gaze direction |
JP2012196328A (ja) * | 2011-03-22 | 2012-10-18 | Panasonic Corp | 両眼瞳孔検査装置 |
JP2016028669A (ja) * | 2014-07-23 | 2016-03-03 | 株式会社Jvcケンウッド | 瞳孔検出装置、および瞳孔検出方法 |
JP2021061048A (ja) * | 2021-01-05 | 2021-04-15 | 日本電気株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP7103443B2 (ja) | 2021-01-05 | 2022-07-20 | 日本電気株式会社 | 情報処理装置、情報処理方法、およびプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2003070742A (ja) | 視線検出装置及び視線検出方法 | |
CN105574518B (zh) | 人脸活体检测的方法和装置 | |
JP5812599B2 (ja) | 情報処理方法及びその装置 | |
CN112232109B (zh) | 一种活体人脸检测方法及系统 | |
CN104933389B (zh) | 一种基于指静脉的身份识别方法和装置 | |
US20070189584A1 (en) | Specific expression face detection method, and imaging control method, apparatus and program | |
CN109558764A (zh) | 人脸识别方法及装置、计算机设备 | |
JP4729188B2 (ja) | 視線検出装置 | |
CN105654048A (zh) | 一种多视角人脸比对方法 | |
CN105740778B (zh) | 一种改进的三维人脸活体检测方法及其装置 | |
JP2009245338A (ja) | 顔画像照合装置 | |
KR101510312B1 (ko) | 복수의 카메라들을 이용한 3d 얼굴 모델링 장치, 시스템 및 방법 | |
WO2018170695A1 (zh) | 一种表观特征的描述属性识别方法及装置 | |
JP4203279B2 (ja) | 注目判定装置 | |
CN114894337B (zh) | 一种用于室外人脸识别测温方法及装置 | |
JPWO2017187694A1 (ja) | 注目領域画像生成装置 | |
JP2002259989A (ja) | ポインティングジェスチャ検出方法及びその装置 | |
KR20020022295A (ko) | 3차원 정보를 이용한 얼굴 인식 장치 및 방법 | |
CN112633217A (zh) | 基于三维眼球模型计算视线方向的人脸识别活体检测方法 | |
JPH08287216A (ja) | 顔面内部位認識方法 | |
CN112800966B (zh) | 一种视线的追踪方法及电子设备 | |
JP2001291108A (ja) | 画像処理装置およびその方法ならびにプログラム記録媒体 | |
CN112767415B (zh) | 胸部扫查区域自动确定方法、装置、设备及存储介质 | |
CN111652018A (zh) | 一种人脸注册方法和认证方法 | |
WO2021255846A1 (ja) | 画像処理装置、画像処理方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20031031 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20040129 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20050315 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20050907 |