以下、図面を参照して本発明の実施形態について詳細に説明する。
[1.第1実施形態]
[1−1.画面視認判定装置の構成]
先ず、本実施形態に係る画面視認判定装置の構成の構成について、図1を用いて説明する。
図1は、本実施形態に係る画面視認判定装置1の概要構成の一例を示すブロック図である。図1に示すように、画面視認判定装置1は、システム制御部11と、システムバス12と、入出力インターフェース13と、記憶部14と、入力部15と、表示部16と、検出部17と、を備えている。画面視認判定装置1は、表示部16の画面がユーザの視界に入っているか否かを判定する装置である。画面視認判定装置1は、本発明の情報処理装置の一例である。画面視認判定装置1は、例えばパーソナルコンピュータ等であってもよい。
システム制御部11と入出力インターフェース13とは、システムバス12を介して接続されている。
入出力インターフェース13は、記憶部14〜検出部17とシステム制御部11との間のインターフェース処理を行う。
記憶部14は、例えば、ハードディスクドライブ又はソリッドステートドライブ等により構成されている。この記憶部14には、表示部16に表示される映像に対応する映像データが記憶される。
記憶部14には、更にOS、視認判定プログラム等のプログラムが記憶される。視認判定プログラムは、ユーザの視界に表示部16の画面が入っているか否かを判定するためのプログラムである。視認判定プログラムは所定のサーバ装置からネットワークを介してダウンロードされてもよい。或いは、視認判定プログラムは、メモリカード、光ディスク等の記録媒体に記録されてドライブ装置を介して読み込まれるようにしてもよい。また、視認判定プログラムは、プログラム製品であってもよい。
入力部15は、ユーザによる操作を受け付け、操作内容に対応する信号をシステム制御部11に出力する。入力部15の例として、キーボード、マウス、タッチパネル等が挙げられる。
表示部16は、画面に映像を表示するディスプイレイである。表示部16の例として、液晶ディスプレイ、有機EL(Light Emitting)ディスプレイ等が挙げられる。表示部16と入出力インターフェース13とは、例えばディスプレイケーブルにより接続されてもよい。表示部16は、画面視認判定装置1に内蔵されていてもよいし、画面視認判定装置1と接続されていてもよい。
検出部17は、ユーザの眼球の様子を検出する。眼球の様子とは、例えば外見上における眼球の状況であってもよい。より具体的に、眼球の様子とは、ユーザの眼球に現れる物理現象であって、視覚的に観察可能な物理現象の様子であってもよい。このような物理現象の例として、眼球運動及び眼球表面における光学的な反射が挙げられる。検出部17は、例えばカメラを備えてもよい。或いは、検出部17は、カメラを備える携帯端末装置であってもよい。カメラの例として、可視カメラ、赤外線カメラ等が挙げられる。このカメラは、静止画及び動画の少なくとも一方の撮影が可能である。カメラにより眼球の様子が撮影される。検出部17は、検出した眼球運動の様子を示す様子情報をシステム制御部11に出力する。様子情報は、例えば撮影によって生成された静止画データ又は動画データであってもよい。或いは、様子情報は、例えば生成された静止画データ又は動画データを解析することにより、物理現象がどのようにして現れているかを示す情報であってもよい。この場合の様子情報は、両眼に関する情報であってもよいし、片方の眼のみに関する情報であってもよい。検出部17とインターフェース部13とは、例えば所定の規格に従ったインターフェースケーブルにより接続され、又は無線で接続される。例えば、ユーザ自身が検出部17を持ってもよいし、ユーザの顔等に検出部17が装着されるように検出部17が構成されてもよい。
本実施形態においては、検出部17は、眼球運動の様子が検出可能であればよい。具体的には、検出部17は、眼球の動きを検出する。例えば、カメラによってユーザの眼球の様子の動画が撮影される。検出部17は、撮影によって生成された動画データをシステム制御部11へ出力してもよい。或いは、検出部17は、動画データに基づいて眼球がどのように動いたかを検出してもよい。例えば、検出部17は、動画データの各フレームからユーザの眼球を認識し、眼球の映像における瞳孔の位置を特定して、眼球がどの方向に動いたかを特定する。すなわち、検出部17は、ユーザの視線がどのように動いたかを検出する。検出部17は、瞳孔の軌跡又は瞳孔が移動した方向を示す様子情報をシステム制御部11へ出力してもよい。瞳孔の軌跡は、例えば瞳孔の座標の時系列で表されてもよい。瞳孔が移動した方向は、例えば所定方向と瞳孔が移動した方向とがなす角度で表されてもよい。瞳孔の移動方向を検出するのであれば、検出部17のカメラの解像度が低くても、移動方向を比較的正確に検出することが可能である。
システム制御部11は、CPU(Central Processing Unit)11a、ROM(Read Only Memory)11b、RAM(Random Access Memory)11c等により構成されている。
[1−2.画面視認判定装置の機能概要]
次に、図2及び図3を用いて、画面視認装置1のシステム制御部11の機能概要について説明する。
図2は、本実施形態に係る画面視認装置1のシステム制御部11の機能ブロック及びユーザの視界に画面が入っているか否かの判定の様子の例を示す図である。システム制御部11は、CPU11aが、画面視認判定プログラムに含まれる各種コードを読み出し実行することにより、図2に示すように、表示制御部111、取得部112、及び判定部113として機能する。表示制御部111は、本発明の表示制御手段の一例である。取得部112は、本発明の取得手段の一例である。判定部113は、本発明の判定手段及び第2判定手段の一例である。また、図2に示すように、表示部16に所定の態様の映像が表示されているときに、検出部17によりユーザUの右側眼球ER及び左側眼球ELの少なくとも一方の様子が検出される。
表示制御部111は、表示部16に映像を表示させる。この映像は、ユーザの視界に表示部16の画面が入っているか否かの判定に用いられる。
本実施形態において、表示制御部111は、表示部16の画面においてオブジェクトの表示位置が時間の経過に従って変化する映像を表示させる。オブジェクトの例として、何らかの像、絵、マーク、記号、文字等が挙げられる。表示位置の変化は、例えばオブジェクトの連続的な移動であってもよい。図3(a)は、オブジェクトの連続的な移動例を示す図である。図3(a)の例では、表示部16の画面を表示部の正面から見た場合において、オブジェクトD1が画面の右側から左側に滑らかに移動する。表示位置の変化は、例えばオブジェクトの非連続的な移動であってもよい。図3(b)は、オブジェクトの非連続的な移動例を示す図である。図3(b)の例では、当初オブジェクトD2は画面の右半分の領域に表示されており、或る瞬間に、オブジェクトD2は左半分の領域に表示される。オブジェクトの表示位置が変化する方向が時間の経過に従って変化してもよい。このような変化の例として、表示位置が左方向に変化した後、表示位置が上方向に変化すること等が挙げられる。
例えば、記憶部14には、オブジェクトの表示位置が時間の経過に従って変化する動画の動画データが記憶されていてもよい。この場合、表示制御部111は、動画データに従って映像信号を表示部16に出力する。或いは、記憶部14にはオブジェクトの静止画の画像データが記憶されてもよい。この場合、表示制御部111は、例えば記憶部14に記憶されたオブジェクトの移動方向を示す情報、又はオブジェクトの表示位置の時系列を示す情報に基づいて、オブジェクトの表示位置が変化するように映像信号を生成して表示部16に出力する。オブジェクトの表示位置が変化する方向又は軌跡は予め定められてもよいし、表示制御部111が所定の基準に従って又はランダムに決定してもよい。
取得部112は、検出部17から、ユーザの眼球の様子を示す様子情報を取得する。様子情報として動画データを取得した場合、取得部112は、動画データを解析することにより瞳孔の軌跡又は瞳孔が移動した方向を示す情報を生成し、生成した情報を様子情報としてとして判定部113に引き渡してもよい。
判定部113は、取得部112により取得された様子情報が示すユーザの眼球の様子と、表示部16に表示された映像との間の一致度を判定する。判定部113は、ユーザの眼球の様子と表示部16に表示された映像との間の視覚的な特徴の一致度を判定してもよい。例えば、ユーザの視界に表示部16の画面が入っているならば、そのときのユーザの眼球に現れる物理現象は、表示されている映像に対応して視覚的に観察可能な特徴を有することになる。ユーザの視界に画面が入っているとは、意識して画面を見ている状態、及び意識はしていないが画面が見えている状態の少なくとも何れか一方が含まれればよい。ユーザの視界に画面が入っていれば、画面が視界の中心にあってもよいし、中心から離れた位置にあってもよい。様子情報が、ユーザの両眼のそれぞれの様子に関する情報を含む場合、判定部113は、例えばその両眼に関する情報の代表値を計算して、判定を行ってもよい。代表値は、例えば平均値等であってもよい。
ユーザの眼球の様子の視覚的な特徴は、例えば眼球の動き方、眼球における反射像の形状及び模様の少なくとも何れか一方、又は眼球における反射光の変化の仕方等であってもよい。表示部16に表示された映像の視覚的な特徴は、例えば画面内に表示されるオブジェクトの変化の仕方、映像の形状及び模様の少なくとも何れか一方、又は映像の輝度の変化の仕方等であってもよい。
本実施形態における眼球の様子の視覚的な特徴は、眼球の動き方である。本実施形態における映像の視覚的な特徴は、画面内に表示される所定のオブジェクトの表示位置の変化の仕方である。表示位置の変化の仕方は、例えば位置が変化する方向、移動の軌跡等であってもよい。判定部113は、眼球の動きとオブジェクトの表示位置の変化との一致度を判定する。判定部113は、例えば、瞳孔の軌跡とオブジェクトの軌跡との一致度を判定してもよいし、瞳孔の移動方向とオブジェクトの移動方向との一致度を判定してもよい。ユーザが画面のオブジェクトを見ている場合、ユーザはそのオブジェクトを眼で追っているはずである。従って、この場合、眼球の動き方とオブジェクトの表示位置の変化の仕方とは略一致する傾向にある。ユーザが画面のオブジェクトを見ていない場合、ユーザの眼球は動かないか、又は眼球が動いたとしても、眼球の動き方は、オブジェクトの表示位置の変化とは異なる蓋然性がある。
図3(a)の例では、オブジェクトD1は右から左に移動している。図3(c)は、ユーザの眼球の動きの一例を示す図である。図3(c)に示すように、右側眼球ERの瞳孔CR及び左側眼球ELの瞳孔CLは、ユーザU自身から見て右から左に移動している。従って、ユーザの眼球の移動方向はオブジェクトD1の移動方向と一致している。図3(b)の例でも、オブジェクトD2は右から左に移動している。従って、ユーザの瞳孔が図3(c)に示すように移動した場合、ユーザの眼球の移動方向はオブジェクトD2の移動方向と一致している。
一致度の判定後、判定部113は、判定された一致度を示す情報を出力してもよい。例えば、判定部113は、表示部16に一致度を示す情報を表示させてもよい。或いは、判定部113は、一致度に基づいて、ユーザの視界に表示部16の画面が入っているか否かを判定してもよい。例えば、判定部113は、一致度が、所定の閾値以上である場合は、ユーザの視界に表示部16の画面が入っていると判定してもよい。判定部113は、ユーザの視界に表示部16の画面が入っているか否かの判定結果を出力してもよい。例えば、判定部113は、判定結果を表示部16に表示させてもよい。
判定部113は、ユーザの視界に表示部16の画面が入っていると判定された場合、表示制御部111は、本来ユーザに見せる予定の映像を表示部16に表示させてもよい。このときに表示される映像の種類は特に限定されない。例えば、映像は、絵、図形、模様、記号、文字等の少なくとも何れか1つが含まれていてもよい。例えば、表示制御部111は、自動的に映像を表示部16に表示させてもよいし、入力部15に対する操作に基づいて映像を表示部16に表示させてもよい。或いは、表示制御部111は、一致度の判定結果、又はユーザの視界に表示部16の画面が入っているか否かの判定結果を表示部16に表示させてもよい。
[1−3.画面視認判定装置の動作]
次に、画面視認判定装置の動作について、図4を用いて説明する。図4は、本実施形態に係る画面視認判定装置のシステム制御部11による画面視認判定処理の一例を示すフローチャートである。システム制御部11は、例えば入力部15に対して所定の開始操作が行われると、画面視認判定プログラムに含まれる各種コードに従って、画面視認判定処理を実行する。
図4に示すように、表示制御部111は、表示部16に映像信号を出力することにより、時間の経過に従ってオブジェクトの表示位置が変化する映像を表示部16に表示させる。これと同期して、取得部112は、検出部17を動作させる。検出部17は、表示部16によりオブジェクトが表示されている間の動画を撮影して、ユーザの眼球の様子を検出する(ステップS1)。なお、検出部17が携帯端末装置である場合、表示部16による映像の表示に先立って、携帯端末装置は、携帯端末装置の画面に所定のインストラクション情報を表示させてもよい。例えば、インストラクション情報として、表示部16に表示される予定のオブジェクトを表示させるとともに、「このオブジェクトを見てください」又は「近くにあるディスプイレイを見てください」等のメッセージを表示させてもよい。
次いで、取得部112は、検出部17から様子情報を取得する(ステップS2)。例えば、検出部17は、撮影により生成された動画データを取得部112へ出力する。取得部112は、撮影により生成された動画データの各フレームから、ユーザの眼球及び瞳孔を認識し、フレーム上の眼球の映像に対する瞳孔の相対的な座標を取得する。取得部112は、瞳孔の座標の時系列に基づいて、瞳孔の移動方向を示す角度を計算してもよい。時間の経過に従って瞳孔の移動方向が変化する場合、取得部112は、移動方向が変化するごとに、瞳孔の移動方向を示す角度を計算してもよい。取得部112は、眼球の映像に対する瞳孔の相対的な移動量が所定値未満である場合、取得部112は、瞳孔は移動していないと判定してもよい。
次いで、判定部113は、様子情報に基づいて、ユーザの眼球の様子と映像との間の視覚的な特徴の一致度を判定する(ステップS3)。例えば、判定部113は、瞳孔の移動方向の角度とオブジェクトの表示位置の変化方向の角度との差を計算してもよい。判定部113は、計算された差が小さいほど一致度が大きくなるように、一致度を判定してもよい。
次いで、判定部113は、一致度が閾値以上であるか否かを判定する(ステップS4)。このとき、判定部113は、一致度が閾値以上であると判定した場合には(ステップS4:YES)、処理をステップS5に進める。ステップS5において、判定部113は、表示部16の画面はユーザの視界に入っていると判定する。次いで、表示制御部111は、ユーザに見せる予定の映像を表示部16に表示させて(ステップS6)、画面視認判定処理を終了させる。一方、判定部113は、一致度が閾値以上ではないと判定した場合には(ステップS4:YES)、処理をステップS7に進める。ステップS7において、判定部113は、表示部16の画面はユーザの視界に入っていないと判定して、画面視認判定処理を終了させる。
以上説明したように、本実施形態によれば、システム制御部11が、表示部16に表示された映像を表示させる。また、検出部17が、ユーザの眼球の様子を検出する。また、システム制御部11が、ユーザの眼球の様子を示す様子情報を取得する。また、システム制御部11が、検出された眼球の様子と表示部16に表示された映像との間の視覚的な特徴の一致度を判定する。従って、表示部16が配置されている位置の方向を特定しなくても、判定された一致度に基づいて、その表示部16の画面がユーザの視界に入っているか否かの判定が可能である。
また、システム制御部11が、時間の経過に従って表示部16においてオブジェクトの表示位置が変化する映像を表示部16に表示させてもよい。また、検出部17が、眼球の動きを検出してもよい。また、システム制御部11が、眼球の動きとオブジェクトの表示位置の変化との一致度を判定してもよい。この場合、ユーザの眼球の動きと表示部16の画面内のオブジェクトの表示位置の変化との一致度に基づいて、表示部16の画面がユーザの視界に入っているか否かの判定が可能である。また、検出部17のカメラの解像度が比較的低くても、カメラにより撮影された映像に基づいて、眼球の動きを検出することができる。
[2.第2実施形態]
図4及び図5を用いて、第2実施形態について説明する。以下に説明する点を除き、第2実施形態は第1実施形態と同様である。図4に示す画面視認判定処理については、第1実施形態と異なる点について主として説明する。
本実施形態において、表示制御部111は、或る形状及び模様のうち少なくとも何れか一方を有する映像を表示部16に表示させる(ステップS1)。どのような形状又は模様の映像が表示されるかは、予め定められていてもよいし、表示制御部111が複数の映像の中から所定の基準に従って又はランダムに選択してもよい。映像に何らかの色彩が付されていてもよいし、付されていなくてもよい。表示制御部111は、例えば記憶部14に記憶された静止画データ又は動画データに基づいて映像信号を表示部16に出力することにより、表示部16に映像を表示させる。図5(a)は、映像の表示例を示す図である。図5(a)の例では、所定の形状及び模様を有するオブジェクトD3が表示部16に表示される。
検出部17は、ユーザの眼球における反射の様子を検出する(ステップS1)。本実施形態において、検出部17は、眼球における反射像を検出する。例えば、検出部17は、表示部16に映像が表示されている間の一時点におけるユーザの眼球の静止画を撮影し、又は表示部16に映像が表示されている間におけるユーザの眼球の動画を撮影する。検出部17は、撮影によって生成された静止画データ又は動画データを様子情報としてシステム制御部11へ出力してもよい。或いは、検出部17は、生成された静止画データ又は動画データから、眼球の表面に映った反射像を抽出してもよい。例えば、検出部17は、静止画データ又は動画データからユーザの眼球を認識する。検出部17は、瞳孔等の、眼球に元来含まれる形状及び模様を除き、眼球に何らかの形状又は模様が映っている部分を反射像として特定する。検出部17は、眼球に複数の反射像が映っている場合、複数の反射像を抽出してもよい。図5(b)は、眼球における反射像の一例を示す図である。ユーザの右側眼球ERに反射像R1が映り込んでいる。この反射像R1は、表示部16に表示されたオブジェクトD3の映像である。
取得部112は、様子情報として、生成された静止画データ若しくは動画データ、又は検出された反射像の映像データを、検出部17から取得する(ステップS2)。取得部112は、静止画データ又は動画データを取得した場合、取得したデータに基づいて、ユーザの眼球における反射像を検出する。
判定部113は、ユーザの眼球における反射像と表示部16に表示された映像との一致度を判定する(ステップS3)。表示部16の画面がユーザの視界に入っている場合、表示部16に表示された映像がユーザの眼球の表面に反射像として映る。そのため、眼球における反射像として、表示部16に表示された映像が検出部17により検出される蓋然性がある。本実施形態における眼球の視覚的な特徴は、反射像の形状及び模様のうち少なくとも何れか一方である。本実施形態における表示部16に表示された映像の特徴は、映像の形状及び模様のうち少なくとも何れか一方である。
判定部113は、例えば反射像と表示部16に表示された映像のそれぞれについて、形状及び模様のうち少なくとも何れか一方の特徴を示す特徴量を計算する。判定部113は、公知の方法を用いて特徴量を計算することができる。例えば、SIFT(Scale Invariant Feature Transform)、SURF(Speeded Up Robust Features)等のアルゴリズムや、CNN(Convolutional Neural Network)等のディープニューラルネットワークが用いられてもよい。眼球における反射は球面反射となるので、反射像がゆがむ。そのため、判定部113は、ゆがみを補正した上で反射像の特徴量を計算してもよい。特徴量を計算すると、判定部113は、反射像の特徴量と表示部16に表示された映像の特徴量とを比較して、特徴量の一致度を計算する。例えば、判定部113は、一致度として、コサイン類似度、相関関数又は偏差パターン類似度等を計算してもよい。判定部113は、複数の反射像が検出された場合、各反射像について、表示部16に表示された映像との一致度を計算してもよい。
判定部113は、一致度が閾値以上である場合(ステップS4:YES)、表示部16の画面がユーザの視界に入っていると判定する(ステップS5)。判定部113は、複数の反射像が検出された場合、これらの反射像のうち少なくとも1つの反射像について判定された一致度が閾値以上ある場合に、表示部16の画面がユーザの視界に入っていると判定してもよい。例えば、図5(a)に示すオブジェクトD3と図5(b)に示す反射像R1との一致度は閾値以上となる。
以上説明したように、本実施形態によれば、検出部17が、眼球における光学的な反射の様子を検出する。従って、ユーザの眼球における光学的な反射の様子と表示部16に表示された映像との間の視覚的な特徴の一致度に基づいて、表示部16の画面がユーザの視界に入っているか否かの判定が可能である。
具体的に、検出部17が、眼球における反射像を検出する。また、システム制御部11が、眼球における反射像と表示部16に表示された映像との一致度を判定する。従って、判定された一致度に基づいて、表示部16の画面がユーザの視界に入っているか否かの判定が可能である。
[3.第3実施形態]
図4及び図6を用いて、第3実施形態について説明する。以下に説明する点を除き、第3実施形態は第1実施形態と同様である。図4に示す画面視認判定処理については、第1実施形態と異なる点について主として説明する。
本実施形態において、表示制御部111は、時間の経過に従って輝度が変化する映像を表示部16に表示させる(ステップS1)。時間の経過に従って、輝度はどのように変化してもよい。輝度がどのように変化するか否かは予め定められてもよいし、表示制御部111が所定の基準に従って又はランダムに決定してもよい。輝度は徐々に変化するよりも、一瞬にして大きく変化する方が望ましい。輝度は規則的に変化してもよいし、不規則に変化してもよい。時間の経過に従って映像の輝度が変化する間、2段階又は3段階以上の輝度の映像が現れればよい。映像の中に何らかの形状及び模様はあってもよいし、なくてもよい。映像に何らかの色彩が付されていてもよいし、付されていなくてもよい。表示制御部111は、例えば記憶部14に記憶された動画データに従って映像信号を表示部16に出力することにより、時間の経過に従って輝度が変化する映像を表示部16に表示させてもよい。或いは、表示制御部111は、記憶部14に記憶された複数の静止画データを順次用いて映像信号を出力することにより、時間の経過に従って輝度が変化する映像を表示部16に表示させてもよい。或いは、表示制御部111は、動画データ及び静止画データの何れも用いずに、時間の経過に従って表示部16の画面の輝度を変化させてもよい。
時間の経過に従って輝度が変化する映像は、例えば、時間的に交互に表示される第1輝度の映像及び第2輝度の映像を含んでもよい。第1輝度の映像は周期的に表示される。第1輝度と第2輝度は異なる。第1輝度は第2輝度よりも高くてもよいし低くてもよい。第1輝度の映像の表示が継続する時間を第1時間とし、第2輝度の映像の表示が継続する時間を第2時間とする。第1時間は、第2時間と同一であるか第2時間よりも短い。第1時間と比較して、第2時間は十分に長いことが望ましい。第1輝度の映像及び第2輝度の映像の表示がそれぞれ継続する時間は、例えば表示部16の垂直走査周波数に基づいて決定されてもよい。垂直走査周波数の逆数を垂直走査時間とすると、第1時間及び第2時間は、それぞれ垂直走査時間の倍数とする。第1輝度を第2輝度よりも低くする場合、第1時間は極力短いことが望ましい。望ましくは、第1時間は100ミリ秒以下であり、より望ましくは、第1時間は50ミリ秒以下である。第2輝度を十分に高くし、第1輝度の映像の表示が継続する時間を十分に短くすると、残像効果により、第1輝度の映像が表示されている間も第2輝度の映像をユーザが認識するので、映像の輝度の変化(点滅)をユーザに認識させないようにすることができる。第1輝度の映像が表示される周期を、第1輝度表示周期とする。第1輝度表示周期は、予め定められていてもよいし、表示制御部111が所定の基準に従って又はランダムに決定してもよい。第1輝度表示周期は、例えば垂直走査時間の倍数で定められていてもよい。表示制御部111は、第1輝度表示周期から第1時間を減算して、第2時間を計算する。表示制御部111は、第2輝度の映像の映像信号を第2時間継続して表示部16に出力し、次いで第1輝度の映像の映像運信号を第1時間継続して第2時間継続して表示部16に出力する。表示制御部111は、この処理を繰り返し所定時間行う。なお、第1輝度の映像と第2輝度の映像とを交互に表示させる動画データが予め記憶部14に記憶されていてもよい。表示制御部111は、動画データに従って映像を表示部16に表示させてもよい。
図6は、表示部16の画面の様子と眼球における反射光の様子の変化の一例を示す図である。例えば、第1輝度を、表示可能な最低輝度とし(黒色)、第2輝度を、表示可能な最高輝度とする(白色)。第1輝度表示周期を60分の10秒とし、第1時間を60分の1秒とする。従って、第2時間は60分の9秒である。そのため、図6に示すように、60分の10秒ごとに、第1輝度の無地の映像が60分の1秒の間継続して表示される。それ以外の間では第2輝度の無地の映像が表示される。
検出部17は、ユーザの眼球における反射の様子を検出する(ステップS1)。本実施形態において、検出部17は、眼球における反射光の輝度を時系列的に検出する。例えば、検出部17は、表示部16に映像が表示されている間におけるユーザの眼球の動画を撮影する。動画のフレームレートは表示部16の垂直走査周波数と同一であるか又はこれよりも高いことが望ましい。検出部17は、撮影によって生成された動画データを様子情報としてシステム制御部11へ出力してもよい。或いは、検出部17は、生成された動画データの各フレームから、ユーザの眼球を認識してもよい。検出部17は、例えば、フレーム間における眼球の映像を比較して、眼球の映像内において、時間の経過に従って輝度が変化する部分を特定する。検出部17は、特定した部分について、フレームごと又は垂直走査時間ごとの輝度を判定する。検出部17は、判定した輝度の時系列のデータを様子情報としてシステム制御部11へ出力してもよい。検出部17は、眼球の映像内で輝度が変化する部分が複数存在する場合、部分ごとに様子情報を出力してもよい。
図6の例では、ユーザの右側眼球ERにおいて、反射光R2の輝度が、60分の10秒周期で相対的に暗い輝度になっている。反射光R2は、表示部16の画面から放たれる光が反射されたものである。
取得部112は、様子情報として、生成された動画データ、又は検出された輝度の時系列のデータを、検出部17から取得する(ステップS2)。取得部112は、動画データを取得した場合、取得したデータに基づいて、ユーザの眼球における反射光の輝度の時系列のデータを生成する。
判定部113は、ユーザの眼球における反射光の輝度の変化と表示部16に表示された映像の輝度の変化との一致度を判定する(ステップS3)。表示部16の画面がユーザの視界に入っている場合、その画面から放たれた光がユーザの眼球の表面で反射する。そのため、この反射光が検出部17により検出される蓋然性がある。この場合、眼球における反射光の輝度の変化の仕方は、表示部16に表示された映像の輝度の変化の仕方と基本的に一致する。本実施形態における眼球の視覚的な特徴は、眼球における反射光の変化の仕方である。本実施形態における表示部16に表示された映像の特徴は、映像の輝度の変化の仕方である。
判定部113は、例えば、反射光の輝度の時系列のデータに基づいて反射光の輝度の低下や上昇といった輝度の変化の時系列を生成するとともに、表示部16に表示された映像の輝度の変化の時系列を生成してもよい。このとき、判定部113は、輝度の変化が所定値を超えて低下又は上昇した場合にのみ、輝度が変化したと見做してもよい。そして、判定部113は、反射光と表示部16に表示された映像との間で輝度の変化が一致する割合等を、一致度として計算してもよい。或いは、判定部113は、反射光及び表示部16に表示された映像のそれぞれについて、輝度の変化と、変化後の輝度が継続した時間との組み合わせの時系列を生成してもよい。そして、判定部113は、反射光と表示部16に表示された映像との間で、輝度の変化と、変化後の輝度が継続した時間との組み合わせが一致する割合等を、一致度として計算してもよい。検出部17は、眼球の映像内で輝度が変化する部分が複数存在する場合、部分ごとに一致度を計算してもよい。
例えば図6に示すように、時間の経過に従って輝度が変化する映像が、交互に表示される第1輝度の映像及び第2輝度の映像を含む場合、判定部113は、反射光の輝度が低下又は上昇する周期と、第1輝度の映像が表示される周期との一致度を判定する。例えば、判定部113は、反射光の輝度の時系列のデータに基づいて、輝度の変化と、変化後の輝度が継続した時間との組み合わせの時系列を生成する。判定部113は、例えば輝度の変化の時系列の中に、輝度の低下及び上昇の繰り返しが含まれる割合を計算してもよい。また、判定部113は、輝度の低下及び上昇の繰り返しの中で、輝度が低下する時間間隔を、輝度の低下ごとに計算してもよい。或いは、判定部113は、輝度が上昇する時間間隔を、輝度の上昇ごとに計算してもよい。判定部113は、計算された時間間隔のうち第1輝度表示周期と一致する時間間隔の割合を計算してもよい。判定部113は、輝度の変化の時系列の中に、輝度の低下及び上昇の繰り返しが含まれる割合に、輝度が低下又は上昇する時間間隔のうち第1輝度表示周期と一致する時間間隔の割合を乗算して、一致度を計算してもよい。
判定部113は、一致度が閾値以上である場合(ステップS4:YES)、表示部16の画面がユーザの視界に入っていると判定する(ステップS5)。判定部113は、眼球の映像内で輝度が変化する部分が複数存在する場合、これらの部分のうち少なくとも1つについて判定された一致度が閾値以上ある場合に、表示部16の画面がユーザの視界に入っていると判定してもよい。例えば、図6に示す例では、反射光R2の輝度の変化と表示部16に表示された映像の輝度の変化との一致度は閾値以上となる。
以上説明したように、本実施形態によれば、検出部17が、眼球における光学的な反射の様子を検出する。具体的に、システム制御部11が、時間の経過に従って輝度が変化する映像を表示部16に表示させる。また、検出部17が、眼球における反射光の輝度を時系列的に検出する。また、システム制御部11が、反射光の輝度の変化と表示部16に表示された映像の輝度の変化との一致度を判定する。従って、判定された一致度に基づいて、表示部16の画面がユーザの視界に入っているか否かの判定が可能である。また、検出部17のカメラの解像度が比較的低くても、カメラにより撮影された映像に基づいて、眼球における反射光の輝度を検出することができる。
また、システム制御部11が、交互に表示される第1輝度の映像及び第2輝度の映像であって、周期的に表示される第1輝度の映像と、該第1輝度と異なる第2輝度の映像とを表示部16に表示させてもよい。また、システム制御部11が、反射光の輝度が上昇又は低下する周期と、第1輝度の映像が表示される周期との一致度を判定してもよい。この場合、判定された一致度に基づいて、表示部16の画面がユーザの視界に入っているか否かの判定が可能である。
また、第2輝度を十分高くし、第1輝度の映像の表示が継続する時間を十分短くした場合、表示部16に表示される映像の輝度の変化(点滅)をユーザに認識させることなく、表示部16に表示される映像がユーザの眼球で反射することによる反射光の輝度の変化を検出可能となる。
[4.第4実施形態]
図7乃至図9を用いて、第4実施形態について説明する。以下に説明する点を除き、第4実施形態は第1実施形態〜第3実施形態と同様である。
図7は、本実施形態に係る画面視認判定装置の概要構成の一例を示すブロック図である。図7が示す本実施形態に係る画面視認判定装置1が、図1に示す画面視認判定装置1と異なる点は、表示部16に変えて、表示部16−1〜表示部16−n(nは2以上の整数)が備えられている点である。すなわち、本実施形態に係る画面視認判定装置1は複数の表示部を備える。複数の表示部が存在する環境の例として、電器店等が挙げられる。表示部16−1〜表示部16−nのそれぞれの構成及び機能は、表示部16と同様であってもよい。表示部16−1〜表示部16−nは、例えばそれぞれ別々に配置されている。
表示制御部111は、表示部16−1〜表示部16−nに、ユーザの視界に表示部16の画面が入っているか否かを判定するための映像を順次表示させる。この映像は、時間の経過に従ってオブジェクトの表示位置が変化する映像(第1実施形態)、所定の形状及び模様の少なくとも何れか一方を有する映像(第2実施形態)、及び時間の経過に従って輝度が変化する映像(第3実施形態)の何れであってもよい。映像が表示される表示部16−1〜表示部16−nの順序は予め定められていてもよいし、表示制御部111が所定の基準に従って又はランダムに決定してもよい。表示部16−1〜表示部16−nに表示される映像は互いに同一であってもよいし、異なっていてもよい。
検出部17、取得部112及び判定部113は、映像が表示されるごとに動作する。すなわち、表示部16−1〜16−nのうち何れかに映像が表示されるごとに、検出部17はユーザの眼球の様子を検出して、取得部112は検出部17から様子情報を取得する。そして、判定部113は、ユーザの眼球の様子と、表示部16−1〜16−nのうちの何れかに直近に表示された映像との間の視覚的な特徴の一致度を判定する。検出部17、取得部112及び判定部113のそれぞれの具体的な動作方法は、第1実施形態〜第3実施形態の場合と同様である。
判定部113は、所定値以上の一致度を判定した場合、表示部16−1〜16−nのうち、所定の閾値以上の一致度が判定された時点で最後に映像を表示した表示部の画面が、ユーザの視界に入っていると判定する。そして、判定部113は、閾値値以上の一致度を判定した場合は、表示部16−1〜16−nによる映像の順次表示を停止させてもよい。すなわち、判定部113は、表示部16−1〜16−nのうち、閾値以上の一致度が判定された時点でまだ映像を表示していない表示部に対しては、映像を表示させない。
図8(a)及び図8(b)は、複数の表示部の何れかにおける映像の表示の様子の一例を示す図である。例えば、画面視認判定装置1は表示部16−1〜16−3を備えるとする。図8(a)に示すように、表示制御部111は、先ず表示部16−1に映像信号を出力し、表示部16−1は映像を表示する。しかしながら、ユーザUが表示部16−1の画面を見ることができない位置に表示部16−1が配置され、又はユーザUが画面を見ることができない方向に表示部16−1の画面が向いている。そのため、判定部113は、閾値未満の一致度を判定する。従って、判定部113は、表示部16−1の画面がユーザUの視界に入っていないと判定する。
次いで、図8(b)に示すように、表示制御部111は、表示部16−2に映像信号を出力し、表示部16−2は映像を表示する。ユーザUは表示部16−2の画面を見ることができる。そして、表示部16−2に表示された映像がユーザUの視界に入った。そのため、判定部113は、閾値以上の一致度を判定する。従って、判定部113は、表示部16−2の画面がユーザUの視界に入っていると判定する。この後、表示制御部111は、表示部16−3に映像信号を出力しなくてもよい。
なお、表示制御部111は、判定部113により閾値以上の一致度が判定された後も、表示部16−1〜16−nによる映像の順次表示を継続させてもよい。これにより、表示部16−1〜16−nのうち何れの表示部の画面をユーザが見ることができるか否かを判定することができる。例えば、2以上の表示部の画面が同時にユーザの視界に同時に入れることができたり、ユーザが頭を動かすこと等により2以上の表示部の画面をそれぞれユーザの視界に同時に入れることができたりする場合がある。例えば、図8(b)が示すように、表示部16−1の画面がユーザUの視界に入っていると判定された後、表示制御部111は、表示部16−3に映像信号を出力し、表示部16−3は映像を表示する。ユーザUは表示部16−3の画面を見ることができるので、判定部113は、表示部16−3の画面がユーザUの視界に入っていると判定する。
表示制御部111は、表示部16−1〜16−nのうち、判定部113により画面がユーザUの視界に入っていると判定された表示部に、本来ユーザに見せる予定の映像等を表示させてもよい。表示部16−1〜16−nのうち、2以上の表示部のそれぞれについて画面がユーザUの視界に入っていると判定された場合、表示制御部111は、例えば入力部15に対する操作に基づいて、これらの表示部のうち情報を表示させる表示部をユーザに選択させてもよい。或いは、表示制御部111は、最も高い一致度が判定された表示部に情報を表示させてもよい。
図9は、本実施形態に係る画面視認判定装置のシステム制御部11による画面視認判定処理の一例を示すフローチャートである。システム制御部11は、例えば入力部15に対して所定の開始操作が行われると、画面視認判定プログラムに含まれる各種コードに従って、画面視認判定処理を実行する。
図9に示すように、判定部113は、番号iを1に設定する(ステップS11)。次いで、表示制御部111は、表示部16−1〜16−nのうち、i番目に映像を表示する表示部に映像信号を出力することにより、この表示部に映像を表示させる。これと同期して、取得部112は、検出部17を動作させる。検出部17は、表示部16によりオブジェクトが表示されている間の静止画又は動画を撮影して、ユーザの眼球の様子を検出する(ステップS12)。次いで、取得部112は、検出部17から様子情報を取得する(ステップS13)。次いで、判定部113は、様子情報に基づいて、ユーザの眼球の様子と映像との間の視覚的な特徴の一致度を判定する(ステップS14)。ステップS12〜S14の具体的な処理内容は、第1実施形態〜第3実施形態において説明された処理内容と同様である。
次いで、判定部113は、一致度が閾値以上であるか否かを判定する(ステップS15)。このとき、判定部113は、一致度が閾値以上であると判定した場合には(ステップS15:YES)、処理をステップS19に進める。一方、判定部113は、一致度が閾値以上ではないと判定した場合には(ステップS15:NO)、処理をステップS16に進める。
ステップS16において、判定部113は、i番目の表示部の画面はユーザの視界に入っていないと判定する。次いで、判定部113は、番号iがn未満であるか否かを判定する(ステップS17)。判定部113は、番号iがn未満であると判定した場合には(ステップS17:YES)、番号iを1増加させて(ステップS18)、処理をステップS12に進める。一方、判定部113は、番号iがn未満ではないと判定した場合には(ステップS17:NO)、画面視認判定処理を終了させる。
ステップS19において、判定部113は、i番目の表示部の画面はユーザの視界に入っていると判定する。次いで、表示制御部111は、ユーザに見せる予定の映像をi番目の表示部に表示させて(ステップS20)、画面視認判定処理を終了させる。
以上説明したように、本実施形態によれば、システム制御部11が、複数の表示部16−1〜16−nに映像を順次表示させ、検出部17及びシステム制御部11が、映像が表示されるたびに動作する。従って、複数の表示部16−1〜16−nのうちユーザが視界に入れることが可能な表示部16を特定することができる。
また、システム制御部11が、閾値以上の一致度が判定された場合、表示部16−1〜16−nのうち、閾値以上の一致度が判定された時点で最後に映像を表示した表示部16の画面はユーザの視界に入っていると判定してもよい。この場合、表示部16−1〜16−nのうちユーザが視界に入れることが可能な表示部16を特定することができる。
また、システム制御部11が、閾値以上の一致度が判定された場合、表示部16−1〜16−nによる映像の順次表示を停止させてもよい。この場合、ユーザが視界に入れることが可能な表示部を特定するために必要な時間を短縮することができる。
[5.第5実施形態]
図7、図10乃至図13を用いて、第5実施形態について説明する。以下に説明する点を除き、第5実施形態は第1実施形態〜第3実施形態と同様である。
図7に示すように、本実施形態に係る画面視認判定装置1は、表示部16−1〜表示部16−nを備える。
表示制御部111は、表示部16−1〜表示部16−nに、ユーザの視界に表示部16の画面が入っているか否かを判定するための互いに異なる映像を同時に表示させる。これらの映像は、時間の経過に従ってオブジェクトの表示位置が変化する映像(第1実施形態)、所定の形状及び模様の少なくとも何れか一方を有する映像(第2実施形態)、及び時間の経過に従って輝度が変化する映像(第3実施形態)の何れであってもよい。表示部16−1〜表示部16−nに表示される映像は、視覚的な特徴が互いに異なる。
例えば、時間の経過に従ってオブジェクトの表示位置が変化する映像の場合、表示部16−1〜表示部16−nの間で、オブジェクトの表示位置が変化する方向、軌跡等の、表示位置の変化の仕方が異なる。オブジェクトの形状及び模様は同一であってもよいし異なっていてもよい。図10(a)は、複数の表示部による映像の表示例を示す図である。例えば、画面視認判定装置1は表示部16−1及び16−2を備えるとする。例えば図10(a)に示すように、表示制御部111は、表示部16−1に左方向に移動するオブジェクトD4を表示させ、これと同時に、表示部16−2に上方向に移動するオブジェクトD5を表示させる。
所定の形状及び模様の少なくとも何れか一方を有する映像の場合、表示部16−1〜表示部16−nの間で、映像における形状及び模様の少なくとも一方が異なる。色彩は同一であってもよいし異なっていてもよい。図11(a)は、複数の表示部による映像の表示例を示す図である。例えば、画面視認判定装置1は表示部16−1及び16−2を備えるとする。例えば図11(a)に示すように、表示制御部111は、表示部16−1にオブジェクトD6を表示させ、これと同時に、表示部16−2に、オブジェクトD6とは形状の異なるオブジェクトD7を表示させる。
時間の経過に従って輝度が変化する映像の場合、表示部16−1〜表示部16−nの間で、輝度の変化の仕方が異なる。例えば、時間の経過に従って輝度が変化する映像が、交互に表示される第1輝度の映像及び第2輝度の映像を含む場合、表示部16−1〜表示部16−nの間で第1輝度表示周期が異なっていてもよい。第1輝度表示周期が垂直走査時間の倍数で表される場合、表示部16−1〜表示部16−nのそれぞれの第1輝度表示周期は互いに素であることが望ましい。より望ましくは、各第1輝度表示周期は素数である。
図12(a)は、複数の表示部による映像の表示例を示す図である。例えば、画面視認判定装置1は表示部16−1及び16−2を備えるとする。第1輝度を、表示可能な最低輝度とし(黒色)、第2輝度を、表示可能な最高輝度とする(白色)。第1時間を60分の1秒とする。例えば、表示部16−1における第1輝度表示周期が60分の17秒とし、表示部16−2における第1輝度表示周期が60分の11秒であるとする。従って、図12(a)に示すように、表示部16−1には、60分の17秒ごとに、第1輝度の無地の映像が60分の1秒の間継続して表示される。それ以外の間では第2輝度の無地の映像が表示される。表示部16−2には、60分の11秒ごとに、第1輝度の無地の映像が60分の1秒の間継続して表示される。それ以外の間では第2輝度の無地の映像が表示される。
判定部113は、表示部16−1〜表示部16−nそれぞれに表示された映像について、ユーザの眼球の様子と映像との間の視覚的な特徴の一致度を判定する。各表示部に表示された映像についての判定部113の具体的な判定方法は、第1実施形態〜第3実施形態の場合と同様である。
判定部113は、一致度の判定の後、表示部16−1〜表示部16−nのうち、最も高い一致度が判定された映像を表示した表示部を判定する。一致度が高い表示部の画面ほど、ユーザの視界に入っている蓋然性がある。判定部113は、表示部16−1〜表示部16−nのうち、最も高い一致度が判定された映像を表示した表示部の画面は、ユーザの視界に入っていると判定してもよい。或いは、判定部113は、閾値以上の一致度が判定された表示部のうち、最も高い一致度が判定された表示部を判定してもよい。表示部16−1〜表示部16−nのうち2以上の表示部の画面がユーザの視界に入っている場合もある。この場合、視界に入っている表示部のうち一致度が高い表示部ほど、その画面がユーザにとって見やすい蓋然性がある。
図10(b)は、ユーザの眼球の動きの一例を示す図である。図10(a)に示すように、表示部16−1及び16−2に映像が表示されたとする。このとき、図10(b)に示すように、右側眼球ERの瞳孔CR及び左側眼球ELの瞳孔CLは、ユーザU自身から見て下から上に移動している。そのため、眼球の動く方向とオブジェクトD5の動く方向との一致度は、眼球の動く方向とオブジェクトD4の動く方向との一致度よりも高い。従って、判定部113は、ユーザの視界に表示部16−2の画面が入っていると判定する。
図11(b)は、ユーザの眼球における反射像の一例を示す図である。図11(a)に示すように、表示部16−1及び16−2に映像が表示されたとする。このとき、図11(b)に示すように、ユーザの右側眼球ERに反射像R3が映り込んでいる。この反射像R3は、表示部16−2に表示されたオブジェクトD7の映像が反射したものである。そのため、反射像R3とオブジェクトD7との一致度は、反射像R3とオブジェクトD6との一致度よりも高い。従って、判定部113は、ユーザの視界に表示部16−2の画面が入っていると判定する。
図12(b)は、眼球における反射光の様子の変化の一例を示す図である。図12(b)に示すように、ユーザの右側眼球ERにおいて、反射光R4の輝度が、60分の17秒周期で相対的に暗い輝度になっている。反射光R4は、表示部16−1の画面から放たれる光が反射されたものである。そのため、反射光R4の輝度の変化と表示部16−1に表示される映像の輝度の変化との一致度は、反射光R4の輝度の変化と表示部16−2に表示される映像の輝度の変化との一致度よりも高い。従って、判定部113は、ユーザの視界に表示部16−1の画面が入っていると判定する。
表示制御部111は、表示部16−1〜16−nのうち、判定部113により最も高い一致度が判定された映像を表示した表示部に、本来ユーザに見せる予定の映像等を表示させてもよい。
図13は、本実施形態に係る画面視認判定装置のシステム制御部11による画面視認判定処理の一例を示すフローチャートである。システム制御部11は、例えば入力部15に対して所定の開始操作が行われると、画面視認判定プログラムに含まれる各種コードに従って、画面視認判定処理を実行する。
図13に示すように、表示制御部111は、表示部16−1〜16−nの全てに映像信号を出力することにより、表示部16−1〜16−nに視覚的な特徴が互いに異なる複数の映像を表示させる。これと同期して、取得部112は、検出部17を動作させる。検出部17は、表示部16によりオブジェクトが表示されている間の動画を撮影して、ユーザの眼球の様子を検出する(ステップS31)。次いで、取得部112は、検出部17から様子情報を取得する(ステップS32)。ステップS31における検出部17による具体的な処理内容及びステップS32の具体的な処理内容は、第1実施形態〜第3実施形態において説明された処理内容と同様である。
次いで、判定部113は、番号iを1に設定する(ステップS33)。次いで、判定部113は、様子情報に基づいて、ユーザの眼球の様子と、表示部16−iに表示された映像との間の視覚的な特徴の一致度を判定する(ステップS34)。ステップS34の具体的な処理内容は、第1実施形態〜第3実施形態において説明された処理内容と同様である。
次いで、判定部113は、番号iがn未満であるか否かを判定する(ステップS35)。判定部113は、番号iがn未満であると判定した場合には(ステップS35:YES)、番号iを1増加させて(ステップS36)、処理をステップS34に進める。一方、判定部113は、番号iがn未満ではないと判定した場合には(ステップS35:NO)、処理をステップS37に進める。
ステップS37において、判定部113は、表示部16−1〜16−nのうち最も高い一致度が判定された表示部を判定する。次いで、判定部113は、表示部16−1〜16−nのそれぞれについて判定された一致度のうち最も高い一致度が、閾値以上であるか否かを判定する(ステップS38)。このとき、判定部113は、最も高い一致度が閾値以上ではないと判定した場合には(ステップS38:NO)、画面視認判定処理を終了させる。一方、判定部113は、最も高い一致度が閾値以上であると判定した場合には(ステップS38:YES)、処理をステップS39に進める。
ステップS39において、判定部113は、最も高い一致度が判定された表示部に、ユーザに見せる予定の映像を表示部に表示させて、画面視認判定処理を終了させる。
以上説明したように、本実施形態によれば、システム制御部11が、表示部16−1〜16−nのそれぞれに互いに異なる複数の映像を同時に表示させる。また、システム制御部11が、眼球の様子と表示部16−1〜16−nに表示された映像のそれぞれとの間の視覚的な特徴の一致度を判定する。従って、表示部16−1〜16−nのそれぞれについて判定された一致度に基づいて、複数の表示部16−1〜16−nのうちユーザが視界に入っている表示部を特定することができる。また、複数の映像が同時に表示されるので、ユーザが視界に入っている表示部を特定するために必要な時間を短縮することができる。
また、システム制御部11が、表示部16−1〜16−nのうち最も高い一致度が判定された映像を表示した表示部を判定してもよい。この場合、表示部16−1〜16−nのうちユーザの視界に入っている蓋然性が最も高い表示部16を特定することが可能である。
[6.第6実施形態]
図14を用いて、第6実施形態について説明する。以下に説明する点を除き、第6実施形態は第1実施形態〜第5実施形態と同様である。図14は、ユーザの眼球、検出部及び表示部の位置関係の一例を示す図である。
検出部17は、ユーザの眼球の様子を検出するとともに、ユーザの両眼のそれぞれの視線の方向を検出する。例えば、検出部17は、検出部17のカメラにより撮影された画像からユーザの顔、両眼及び瞳孔を認識する。検出部17は、認識された映像に基づいて、検出部17のカメラの撮影方向に対するユーザの顔の向きを計算する。また、検出部17は、両眼の映像に基づいて、両眼のそれぞれについて、眼球の映像における瞳孔の相対的な位置を特定する。検出部17は、両眼のそれぞれについて、顔の向き及び瞳孔の相対的な位置に基づいて、撮影方向に対する視線の方向を計算する。検出部17は、ユーザの両眼のそれぞれの視線の方向を示す情報をシステム制御部11に出力する。視線の方向は例えば角度で示されてもよい。図14に示すように、検出部17の撮影方向と平行な直線NVRと、ユーザの右目ERの視線ELRとのなす角度はθrである。検出部17の撮影方向と平行な直線NVLと、ユーザの左目ELの視線ELLとのなす角度はθlである。
取得部112は、検出部17から両眼のそれぞれの視線の方向を示す情報を取得する。或いは、取得部112は、検出部17から撮影によって生成された静止画データ又は動画データを取得し、取得されたデータに基づいて、両眼のそれぞれの視線の方向を計算してもよい。
システム制御部11は、検出部17により検出された両眼のそれぞれの視線の方向に基づいて、ユーザから視線の交点までの距離を算出する。例えば、図14に示すように、直線NVRと視線NVLは交点Pで交わる。システム制御部11は、例えばユーザから交点Pまでの距離VDを、角度θr、θl、及び右目ERと左目ELとの間隔SDに基づいて計算する。間隔SDは、例えば予め定められていてもよい。或いは、入力部15に対する操作に基づいてユーザの年齢が入力され、この年齢に基づいてシステム制御部11が間隔SDを決定してもよい。
判定部113が、表示部16の画面がユーザの視界に入っていると判定した場合、ユーザから表示部16までの距離として、ユーザから視線の交点までの距離を計算することができる。計算された距離の用途は特には限定されない。例えば、第4実施形態においては、表示部16−1〜16−nのうち2以上の表示部のそれぞれについて、ユーザの視界に画面が入っていると判定された場合において、判定部113は、2以上の表示部のうちユーザからの距離が最も短い表示部に、ユーザに見せる予定の映像を表示させてもよい。
以上説明したように、本実施形態によれば、検出部17が、更にユーザの両眼のそれぞれの視線の方向を検出する。また、システム制御部11が、検出された方向に基づいて、ユーザから視線の交点までの距離を算出する。従って、ユーザが表示部の画面を見ている場合、ユーザから表示部までの距離を算出することができる。
[7.第7実施形態]
[7−1.画面視認判定システムの構成]
図15乃至図16を用いて、第7実施形態について説明する。以下に説明する点を除き、第4実施形態は第1実施形態〜第6実施形態と同様である。
図15は、本実施形態に係る画面視認判定システムの概要構成の一例を示すブロック図である。図15に示すように、画面視認判定システムSは、画面視認判定装置1と、ユーザ端末2と、ディスプレイ3−1〜3−n(nは2以上の整数)とを備える。
ディスプイレイ3−1〜3−nのそれぞれは映像を表示する。ディスプイレイ3−1〜3−nの構成及び機能は、表示部16と同様であってもよい。画面視認判定装置1とディスプレイ3−1〜3−nのそれぞれとはディスプレイケーブルで接続される。図15には複数のディスプレイが示されているが、ディスプレイは1台のみ備えられていてもよい。
ユーザ端末2は、カメラを内蔵する携帯端末装置である。ユーザ端末2は、例えば、スマートフォン、携帯電話機、タブレットコンピュータ等であってもよい。ユーザ端末2はカメラにより撮影された映像に基づいてユーザの眼球の様子を検出する。画面視認判定装置1とユーザ端末2とは、例えば無線LAN等のネットワークを介して通信可能である。
[7−2.画面視認判定装置の構成]
図16(a)は、本実施形態に係る画面視認判定装置の概要構成の一例を示すブロック図である。図16(a)が示す本実施形態に係る画面視認判定装置1が、図1に示す画面視認判定装置1と異なる点は、表示部16及び検出部17に変えて、映像信号出力部18及び通信部19が画面視認判定装置1に備えられている点である。
映像信号出力部18は、ディスプレイ3−1〜3−nのそれぞれとディスプイレイケーブルで接続される。映像信号出力部18は、ディスプイレイケーブルを介して、ディスプレイ3−1〜3−nの一部又は全部に対して映像信号を出力する。
通信部19は、ネットワークを介してユーザ端末2との通信を制御する。
[7−3.ユーザ端末の構成]
図16(b)は、本実施形態に係るユーザ端末の概要構成の一例を示すブロック図である。図16(b)に示すように、ユーザ端末2は、システム制御部21と、システムバス22と、入出力インターフェース23と、記憶部24と、入力部25と、表示部26と、カメラ部27と、通信部28とを備えている。
システム制御部21と入出力インターフェース23とは、システムバス22を介して接続されている。
入出力インターフェース23は、記憶部24〜通信部28とシステム制御部21との間のインターフェース処理を行う。
記憶部24は、例えば、ハードディスクドライブ又はソリッドステートドライブ等により構成されている。この記憶部24には、OS、ユーザ端末用プログラム等のプログラムが記憶される。ユーザ端末用プログラムは、ユーザの眼球の様子を検出して、その結果を画面視認判定装置へ送信するためのプログラムである。ユーザ端末用プログラムは所定のサーバ装置からネットワークを介してダウンロードされてもよい。或いは、ユーザ端末用プログラムは、メモリカード、光ディスク等の記録媒体に記録されてドライブ装置を介して読み込まれるようにしてもよい。また、ユーザ端末用プログラムは、プログラム製品であってもよい。
入力部25は、ユーザによる操作を受け付け、操作内容に対応する信号をシステム制御部11に出力する。入力部25の例として、ボタン、キー、タッチパネル等が挙げられる。
表示部26は、画面に映像を表示するディスプイレイである。表示部16の例として、液晶ディスプレイ、有機ELディスプレイ等が挙げられる。
カメラ部27は、静止画又は動画の少なくとも何れか一方の撮影が可能である。カメラ部27は、例えばCCDイメージセンサ等を備える。
通信部28は、ネットワークを介して画面視認判定装置1との通信を制御する。
システム制御部21は、CPU21a、ROM21b、RAM21c等により構成されている。システム制御部21のCPU21aが、記憶部24に記憶された各種プログラムを実行する。
[7−4.画面視認判定装置、ユーザ端末の機能概要]
画面視認判定装置1のシステム制御部11は、図2に示すように、表示制御部111、取得部112、及び判定部113として機能する。
表示制御部111は、映像信号出力部18から映像信号を出力させることにより、ユーザの視界にディスプレイの画面が入っているか否かを判定するための映像をディスプレイに表示させる。この映像は、第1実施形態〜第3実施形態で説明された映像である。画面視認判定装置1が複数のディスプレイ3−1〜3−nと接続されている場合、表示制御部111は、第4実施形態の場合と同様に、ディスプレイ3−1〜3−nに順次映像を表示させ、又は第5実施形態の場合と同様に、ディスプレイ3−1〜3−nに互いに異なる映像を同時に表示させる。ディスプレイ3−1〜3−nに順次映像を表示させる場合、映像が表示されるディスプレイ3−1〜3−nの順序は、画面視認判定装置1が決定してもよいし、ユーザ端末2が決定してもよい。ユーザ端末2が順序を決定する場合、表示制御部111は、画面視認判定装置1に接続されているディスプレイ3−1〜3−nのそれぞれを識別する情報をユーザ端末2へ送信する。ユーザ端末2は、受信された識別情報に基づいて順序を決定する。
映像を表示するための情報は、画面視認判定装置1の記憶部14に記憶され又は画面視認判定装置1が決定してもよいし、ユーザ端末2の記憶部24に記憶され又はユーザ端末2が決定してもよい。映像を表示するための情報として、静止画データ、動画データ、時間の経過に従ってオブジェクトの表示位置が変化する映像を表示させる場合のオブジェクトの移動の仕方、時間の経過に従って輝度が変化する映像を表示させる場合の輝度の変化の仕方等が挙げられる。映像を表示するための情報が、ユーザ端末2の記憶部24に記憶され又はユーザ端末2が決定する場合、ユーザ端末2は画面視認判定装置1へ、映像を表示するための情報を送信する。ディスプレイ3−1〜3−nに順次映像を表示させる場合であって、各ディスプレイに異なる映像を表示させる場合、ユーザ端末2は、映像の表示のたびにその映像を表示するための情報を送信してもよい。各ディスプレイに同一の映像を表示させる場合、ユーザ端末2は、画面認識判定処理の開始時にその映像を表示するための情報を送信してもよい。ディスプレイ3−1〜3−nに互いに異なる映像を同時に表示させる場合、ユーザ端末2は、画面認識判定処理の開始時に、全ての映像を表示するための情報を送信してもよい。
表示制御部111は、画面視認判定装置1の入力部15に対する所定の開始操作が行われたときに、ディスプレイに対する映像信号の出力を開始してもよいし、ユーザ端末2の入力部25に対する所定の開始操作に応じてユーザ端末2から開始要求を受信したときに、ディスプレイに対する映像信号の出力を開始してもよい。ユーザ端末2が、ディスプレイ3−1〜3−nの順序を決定する場合、ユーザ端末2は、開始要求とともに、決定された順序を示す情報を送信してもよい。
画面視認判定装置1の入力部15又はユーザ端末2の入力部25に対する開始操作が行われたとき、表示制御部111による映像信号の出力に先立って、ユーザ端末2は、表示部26に所定のインストラクション情報を表示してもよい。第1実施形態の場合と同様に、時間の経過に従ってオブジェクトの表示位置が変化する映像を表示させる場合、ユーザ端末2は、インストラクション情報として、このオブジェクトを表示するとともに、「このオブジェクトを見てください」等のメッセージを表示させてもよい。第2実施形態の場合と同様に、形状及び模様の少なくとも何れか一方を有する映像を表示させる場合、ユーザ端末2は、インストラクション情報として、この映像を表示するとともに、「この映像を見てください」等のメッセージを表示させてもよい。ディスプレイ3−1〜3−nに互いに異なる形状、模様を有する映像が表示される場合、ユーザ端末2は、インストラクション情報として、これらの映像を表示するとともに、「何れかの映像を見てください」等のメッセージを表示させてもよい。第3実施形態の場合と同様に、時間の経過に従って輝度が変化する映像を表示させる場合、ユーザ端末2は、インストラクション情報として、「近くのディスプレイを見てください」等のメッセージを表示させてもよい。
表示制御部111の制御に基づいてユーザの視界にディスプレイの画面が入っているか否かを判定するための映像がディスプレイに表示されている間、ユーザ端末2のシステム制御部21は、カメラ部27と協働して、ユーザの眼球の様子を検出する。システム制御部21は、カメラ部27により動画又は静止画の撮影を実行させ、撮影により生成された動画データ又は静止画データに基づいて、ユーザの眼球の様子を示す様子情報を生成する。ユーザの眼球の様子の検出方法は、第1実施形態〜第5実施形態で説明された方法と同様である。システム制御部21は、生成された様子情報を画面視認判定装置1に送信する。
取得部112は、ユーザ端末2から送信されてきた様子情報を、通信部19を介して取得する。
判定部113は、様子情報に基づいて、ユーザの眼球の様子と、ディスプレイに表示された映像との間の視覚的な特徴の一致度を判定する。判定方法は、第1実施形態〜第5実施形態で説明された方法と同様である。
一致度の判定後、判定部113は、判定された一致度を示す情報を出力してもよい。例えば、判定部113は、一致度を示す情報をユーザ端末2へ送信してもよい。ユーザ端末2は、受信した一致度を表示部26に表示させてもよい。
或いは、判定部113は、判定された一致度に基づいて、ユーザの視界にディスプレイの画面が入っているか否かを判定してもよい。判定方法は、第1実施形態〜第5実施形態で説明された方法と同様である。判定部113は、ユーザの視界にディスプレイの画面が入っているか否かの判定結果を示す情報を出力してもよい。例えば、判定部113は、判定結果を示す情報をユーザ端末2へ送信してもよい。ユーザ端末2は、判定結果を示す情報を表示部26に表示させてもよい。
第4実施形態の場合と同様に、ディスプレイ3−1〜3−nに順次映像を表示させる場合、判定部113は、映像が表示されるたびに、ユーザの視界にディスプレイの画面が入っているか否かの判定を行って判定結果を示す情報をユーザ端末2へ送信してもよい。ユーザ端末2のシステム制御部21は、判定結果を示す情報が、ユーザの視界にディスプレイの画面が入っていないことを示す場合、表示要求を画面視認判定装置1へ送信してもよい。表示制御部111は、ユーザ端末2から表示要求を受信した場合に、次の順番のディスプレイに映像を表示させる。システム制御部21は、判定結果を示す情報が、ユーザの視界にディスプレイの画面が入っていることを示す場合、表示要求を送信することなく、ユーザの視界に画面が入っていると判定されたディスプレイを示す情報を表示部26に表示させてもよい。或いは、判定部113は、ユーザの視界にディスプレイの画面が入っていると判定した場合、ユーザの視界に画面が入っていると判定されたディスプレイを示す情報をユーザ端末2へ送信してもよい。ユーザ端末2は、受信された情報を表示部26に表示させてもよい。判定部113は、ユーザの視界にディスプレイの画面が入っていないと判定した場合、ユーザ端末2に何らの情報も送信することなく、ディスプレイ3−1〜3−nによる映像の順次表示を継続してもよい。判定部113は、ディスプレイ3−1〜3−nの全てについて、ユーザの視界にディスプレイの画面が入っていないと判定した場合、何れのディスプレイの画面もユーザの視界に入っていないことを示す情報をユーザ端末2へ送信してもよい。ユーザ端末2は、画面視認判定装置1から受信した情報を表示部26に表示させてもよい。
表示制御部111は、ディスプレイ3−1〜3−nのうちユーザの視界に画面が入っていると判定されたディスプレイに、本来ユーザに見せる予定の映像を表示させてもよい。ディスプレイ3−1〜3−nのうち2以上のディスプレイのそれぞれについて、ユーザの視界に画面が入っていると判定した場合、判定部113は、これら2以上のディスプレイの情報をユーザ端末2へ送信してもよい。ユーザ端末2は、画面視認判定装置1から受信した情報に基づいて、ユーザの視界に画面が入っていると判定されたディスプレイの一覧を表示部26に表示させ、入力部25に対する操作に基づいて、一覧の中から、本来ユーザに見せる予定の映像をユーザに選択させてもよい。
以上説明したように、本実施形態によれば、画面視認判定装置1が、ディスプレイに映像を表示させる。また、ユーザ端末2が、ユーザの眼球の様子を検出する。また、画面視認判定装置1が、ユーザ端末2から眼球の様子を示す様子情報を受信する。また、画面視認判定装置1が、受信された様子情報が示す眼球の様子とディスプレイに表示された映像との間の視覚的な特徴の一致度を判定する。従って、ディスプレイが配置されている位置の方向を特定しなくても、判定された一致度に基づいて、そのディスプレイの画面がユーザの視界に入っているか否かの判定が可能である。