JP5765128B2 - 目視対象物判定装置、目視対象物判定方法および目視対象物判定プログラム - Google Patents

目視対象物判定装置、目視対象物判定方法および目視対象物判定プログラム Download PDF

Info

Publication number
JP5765128B2
JP5765128B2 JP2011174398A JP2011174398A JP5765128B2 JP 5765128 B2 JP5765128 B2 JP 5765128B2 JP 2011174398 A JP2011174398 A JP 2011174398A JP 2011174398 A JP2011174398 A JP 2011174398A JP 5765128 B2 JP5765128 B2 JP 5765128B2
Authority
JP
Japan
Prior art keywords
viewer
time
display device
viewpoint position
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011174398A
Other languages
English (en)
Other versions
JP2013037590A (ja
Inventor
三原 基伸
基伸 三原
哲 中島
哲 中島
清水 雅芳
雅芳 清水
芳英 藤田
芳英 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2011174398A priority Critical patent/JP5765128B2/ja
Publication of JP2013037590A publication Critical patent/JP2013037590A/ja
Application granted granted Critical
Publication of JP5765128B2 publication Critical patent/JP5765128B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Description

本発明は、目視対象物判定装置等に関する。
目視者の顔画像を撮像して視線情報を検出し、目視者が画面上のどの位置を視認しているのかを分析する従来技術が存在する。この従来技術は、例えば、デジタルサイネージ等の電子掲示版に表示された複数の対象物のうち、どの対象物を目視者が視認しているのかを分析する場合に利用される。例えば、目視者によって頻繁に視認される対象物は、目視者が興味のあるものといえ、広告提供者にとって重要な情報となる。
特開2011−79428号公報 特開2003−150306号公報
しかしながら、上述した従来技術では、目視者の目視する対象物を正確に判定することができないという問題があった。
例えば、デジタルサイネージを目視者が見る場合には、いろいろな視線の状態が考えられる。例えば、対象物を直接目視している状態、直接目視している対象物から離れた他の対象物を一緒に見る状態、複数の対象物を交互に見る状態などがある。
従来技術では、上記のように視線の状態がいろいろと異なる場合において、どういう状態であれば、目視者が対象物を目視したのかを判定するための指標が提案されておらず、目視者の目視する対象物を正確に判定することはできていない。上記問題は、デジタルサイネージに限らず、表示装置に表示される物体を目視者が目視しているか否かを判定する場合にも同様に発生する問題である。
開示の技術は、上記に鑑みてなされたものであって、目視者の目視する対象物を正確に判定することができる目視対象物判定装置、目視対象物判定方法および目視対象物判定プログラムを提供することを目的とする。
開示の目視対象物判定装置は、視点位置算出部、補正係数特定部、補正時間算出部、判定部を有する。視点位置算出部は、撮像装置が撮像した目視者の画像データを基にして目視者の視線を検出し、表示装置上の前記視線の先の視点位置を算出する。補正係数特定部は、表示装置に表示される複数の対象物と視点位置との距離に基づいて、対象物毎に補正係数を特定する。補正時間算出部は、目視者の視点位置が表示装置上に存在する時間と対象物毎の補正係数とを基にして、対象物毎に補正時間を算出する。判定部は、補正時間に基づいて、目視者が目視した表示装置の対象物の視認状況を判定する。
本願の目視対象物によれば、目視者の目視する対象物を正確に判定することができるという効果を奏する。
図1は、本実施例にかかるシステムの構成を示す図である。 図2は、本実施例にかかる目視対象物判定装置の構成を示す機能ブロック図である。 図3は、補正係数テーブルのデータ構造の一例を示す図である。 図4は、対象物情報のデータ構造の一例を示す図である。 図5は、累積時間テーブルのデータ構造の一例を示す図である。 図6は、角膜反射法を説明するための図である。 図7は、補正係数の特定結果の一例を示す図である。 図8は、本実施例にかかる目視対象判定装置の処理手順を示すフローチャートである。 図9は、目視対象物判定プログラムを実行するコンピュータの一例を示す図である。
以下に、本願の開示する目視対象物判定装置、目視対象物判定方法および目視対象物判定プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
図1は、本実施例にかかるシステムの構成を示す図である。図1に示すように、このシステムは、撮像装置5、表示装置10、目視対象物判定装置100を有する。
撮像装置5は、目視者1を撮影する装置である。撮像装置5は、撮像した目視者1の画像データを目視対象物判定装置100に出力する。撮像装置5は、例えば、カメラや画像センサ等に対応する。
表示装置10は、各種の情報を表示する装置である。図1に示す例では、表示装置10は、対象物10A、10B、10Cを表示する。表示装置10は、デジタルサイネージ等の電子掲示版や、ディスプレイなどに対応する。
目視対象判定装置100は、目視者1が目視した対象物を判定する装置である。目視対象判定装置100は、目視者1の画像データを基にして、目視者1の視線1aを検出し、表示装置10上の視線1aの先の視点位置1bを算出する。
目視対象判定装置100は、視点位置1bと、対象物10A〜10Cとの距離に基づいて、対象物毎に補正係数を特定する。目視対象装置100は、目視者1が表示装置10を目視している時間と、対象物毎の補正係数とを基にして、対象物毎に補正時間を算出する。目視対象判定装置100は、対象物毎の補正時間を基にして、目視者1が目視した対象物の視認状況を判定する。視認状況は、目視者が対象物を視認できたか否かを示すものに対応する。
図1に示した目視対象物判定装置100の構成について説明する。図2は、本実施例にかかる目視対象物判定装置の構成を示す機能ブロック図である。図2に示すように、この目視対象物判定装置100は、補正係数格納部110、対象物情報格納部120、累積時間テーブル格納部130、表示制御部140を有する。また、目視対象物判定装置100は、タイマ150、視点位置算出部160、補正係数特定部170、補正時間算出部180、判定部190を有する。
補正係数格納部110は、距離と補正係数とを対応付ける補正係数テーブルを格納する。図3は、補正係数テーブルのデータ構造の一例を示す図である。距離は、表示装置10上の視点位置と、対象物との距離に対応する。例えば、視点位置と対象物の中心との距離としてもよい。補正係数は、対象物毎の補正時間を算出する場合に利用される係数である。距離が大きくなるにつれて、補正係数の値は小さくなる。
図3において、距離aは距離bよりも小さい値であり、距離bは距離rよりも小さい値とする。また、補正係数αは補正係数βよりも大きい値とする。
対象物情報格納部120は、対象物情報を格納する。図4は、対象物情報のデータ構造の一例を示す図である。図4に示すように、この対象物情報は、対象物識別情報、座標、形状情報を対応付けて保持する。対象物識別情報は、対象物を一意に識別する情報である。座標は、表示画面10上の対象物の座標に対応する。形状情報は、対象物の形状や色などの情報を含む。
累積時間テーブル格納部130は、対象物毎に補正時間を累積した累積時間を保持する累積時間テーブルを格納する。図5は、累積時間テーブルのデータ構造の一例を示す図である。図5に示すように、この累積時間テーブルは、対象物識別情報、累積時間、目視フラグを対応付けて保持する。このうち、目視フラグは、対象物を目視したか否かを示すものであり、後述の判定部190によって設定される。
表示制御部140は、対象物情報格納部120の対象物情報に基づいて、対象物を表示装置10に表示させる処理部である。
タイマ150は、現在の時間情報を視点位置算出部160に出力する。
視点位置算出部160は、目視者1の画像データを基にして、視線を検出し、表示装置10上の視点位置を算出する処理部である。視点位置算出部160は、視点位置の座標を、補正係数特定部170に出力する。視点位置算出部160は、撮像装置5から画像データを取得する。
また、視点位置算出部160は、目視者1が表示装置10上を目視している時間の長さを計数し、計数した時間を補正時間算出部180に出力する。例えば、視点位置計算部160は、視点位置が、所定の座標範囲に含まれる場合に、目視者1が表示装置10上を目視していると判定する。
視点位置算出部160が視点位置を算出する処理の一例について説明する。視点位置算出部160は、まず、視線を求める。そして、視点位置算出部160は、視線と、表示装置10および目視者1の距離とから、視点位置を算出する。
視点位置算出部160が視線を算出する処理について説明する。視点位置算出部160は、角膜反射法に基づいて視線を検出する。図6は、角膜反射法を説明するための図である。ここでは、光源2を利用して視線を検出する。視線位置算出部160は、図示しない光源を利用してもよい。
図6において、光源2は、赤外線を照射する。3aは角膜を示し、3bは瞳孔面を示し、3cは瞳孔中心を示す。3dは角膜曲率中心を示し、3eは視線角度を示す。4は、カメラで撮影した画像に対応するものであり、4aは画面の瞳孔中心の位置を示し、4bは画面の角膜反射領域の中心位置を示す。例えば、視点位置算出部160は、画像4から瞳孔中心の位置4aと角膜反射領域の中心位置4bとを抽出し、位置4aと4bとの間の距離と、角膜曲率半径から視線1aを検出する。
視点位置算出部160が表示装置10および目視者1の距離を算出する処理について説明する。表示装置10と目視者1との距離を、目視者距離と表記する。視点位置算出部160は、人物の顔の大きさと、目視者距離とを対応付けた距離テーブルを利用する。視点位置算出部160は、画像データに含まれる目視者1の顔の大きさと、距離テーブルとを比較して、目視者距離を算出する。なお、視点位置算出部160は、他のどのような従来技術を利用して、目視者距離を算出してもよい。例えば、視点位置算出部160は、距離センサなどを利用して、目視者距離を算出してもよい。
視点位置算出部160は、目視者距離と、視線とを算出した後に、視点位置を算出する。例えば、視点位置算出部160は、目視者と表示装置と通る直線と、視線ベクトルとのなす角度を求め、求めた角度、視線ベクトル、目視者距離から、表示装置10の視点位置を算出する。
図2の説明に戻る。補正係数特定部170は、対象物毎に、補正係数を特定する処理部である。補正係数特定部170は、対象物と視点位置との距離を求めた後に、対象物の補正係数を特定する。
補正係数特定部170は、対象物情報格納部120の対象物情報と、視点位置とを比較して、対象物と視点位置との距離を算出する。そして、補正係数特定部170は、補正係数格納部110の補正係数テーブルと、距離とを比較して、対応物の補正係数を特定する。補正係数特定部170は、補正係数の特定結果を、補正時間算出部180に出力する。
図7は、補正係数の特定結果の一例を示す図である。図7に示すように、補正係数の特定結果は、対象物識別情報と、補正係数とを対応付ける。例えば、図1に示すような利用シーンを想定した場合には、対象物10Aの補正係数は「1」である。対象物10Bの補正係数は「α」である。対象物10Cの補正係数は「β」である。
補正時間算出部180は、対象物毎の補正時間を求め、対象物毎に補正時間の累積する処理部である。補正時間算出部180は、視点位置算出部160から取得する時間に、対象物の補正係数を乗算することで、対象物毎の補正時間を算出する。
例えば、対象物の補正係数が図7に示すものである場合について説明する。補正時間算出部180は、時間に、補正係数「1」を乗算することで、対象物10Aの補正時間を算出する。補正時間算出部180は、時間に、補正係数「α」を乗算することで、対象物10Bの補正時間を算出する。補正時間算出部180は、時間に、補正係数「β」を乗算することで、対象物10Cの補正時間を算出する。
補正時間算出部180は、視点位置算出部160から時間を取得するたびに、補正時間を算出し、対象物毎に累積時間を算出して、図5に示した累積時間テーブルに登録する。なお、累積時間の初期値は0とする。
判定部190は、累積時間テーブル格納部130の累積時間テーブルを基にして、目視者の目視する対象物を判定する処理部である。判定部190は、累積時間を参照し、この累積時間が所定の閾値以上となった対象物を、目視された対象物と判定する。例えば、判定部190は、目視された対象物の目視フラグを「目視」に設定する。なお、目視フラグの初期値は「目視無し」とする。判定部190は、累積時間テーブルの情報を、外部装置に出力しても良いし、表示装置10に表示してもよい。
次に、目視対象判定装置100の処理手順について説明する。図8は、本実施例にかかる目視対象判定装置の処理手順を示すフローチャートである。図8に示す処理は、例えば、目視対象物判定装置100が、撮像装置5から目視者の画像データを取得したことを契機として実行される。
図8に示すように、目視対象物判定装置100は、目視者の画像データを取得し(ステップS101)、視点位置を算出する(ステップS102)。目視対象物判定装置100は、視点位置と対象物との距離を、対象物毎に算出する(ステップS103)。
目視対象物判定装置100は、対象物毎に補正係数を特定する(ステップS104)。目視対象物判定装置100は、対象物毎に補正係数を累積する(ステップS105)。目視対象物判定装置100は、累積時間を基にして、目視者が目視した対象物を判定する(ステップS106)。
次に、本実施例にかかる目視対象物判定装置100の効果について説明する。
文献「三浦利章 篠原一光「注意の心理学から見たカーナビゲーションの問題点」国際交通安全学会誌 Vol.26、No.4」、「福田忠彦「図形知覚における中心視と周辺視の機能差」 テレビジョン学会誌 第32巻、第6号(1978)」を参照すると、視点位置からはなれた対象物ほど視認しにくくなる旨が記載されている。このため、視点位置が対象物から離れているほど、目視者が対象物を目視し難いといえる。
目視対象物判定装置100は、目視者1の視線から視点位置を算出し、視点位置と表示装置上の対象物との距離に応じた補正係数を用いて、対象物毎に補正時間を算出する。そして、目視対象物判定装置100は、補正時間に基づいて、目視された対象物を判定する。目視対象物判定装置100では、視点位置から離れる対象物ほど、補正時間が少なくなるので、視点位置と対象物の距離を考慮して、目視者が目視した対象物を正確に判定することができる。
また、目視者は、一回の目視時間は少なくても、何度も目視することで、対象物を確認することができる。目視対象物判定装置100は、対象物毎に補正時間を累積した累積時間を算出し、累積時間に基づいて、目視した対象物を判定する。このため、目視者がちらちらと対象物を目視して確認する場合にも対応して、目視した対象物を正確に判定することができる。
ところで、上記の累積時間テーブルのデータ構造は、図5のものに限られない。例えば、累積時間算出部180は、複数の目視者が存在する場合には、目視者毎に、各対象物に対する累積時間を、累積時間テーブルに登録してもよい。この場合には、視点位置算出部160は、目視者毎の視点位置を算出し、補正係数特定部170は、目視者毎に視点位置と対象物との距離に基づいて、補正係数を特定する。
次に、図2に示した目視対象物判定装置100と同様の機能を実現する目視対象物判定プログラムを実行するコンピュータの一例を説明する。図9は、目視対象物判定プログラムを実行するコンピュータの一例を示す図である。
図9に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、ユーザからのデータの入力を受け付ける入力装置202と、ディスプレイ203を有する。また、コンピュータ200は、記憶媒体からプログラム等を読取る読み取り装置204と、ネットワークを介して他のコンピュータとの間でデータの授受を行うインターフェース装置205とを有する。また、コンピュータ200は、各種情報を一時記憶するRAM206と、ハードディスク装置207を有する。そして、各装置201〜207は、バス208に接続される。
ハードディスク装置207は、例えば、視点位置算出プログラム207a、補正係数特定プログラム207b、補正時間算出プログラム207c、判定プログラム207dを有する。CPU201は、各プログラム207a〜207dを読み出して、RAM206に展開する。
視点位置算出プログラム207aは、視点位置算出プロセス206aとして機能する。補正係数特定プログラム207bは、補正係数特定プロセス206bとして機能する。補正時間算出プログラム207cは、補正時間算出プロセス206cとして機能する。判定プログラム207dは、判定プロセス206dとして機能する。
例えば、視点位置算出プロセス206aは、視点位置算出部160に対応する。補正係数特定プロセス206bは、補正係数特定部170に対応する。補正時間算出プロセス207cは、補正時間算出部180に対応する。判定プロセス207dは、判定部190に対応する。
なお、各プログラム207a〜207dについては、必ずしも最初からハードディスク装置207に記憶させておかなくてもよい。例えば、コンピュータ200に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ200がこれらから各プログラム207a〜207dを読み出して実行するようにしてもよい。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)撮像装置が撮像した目視者の画像データを基にして前記目視者の視線を検出し、表示装置上の前記視線の先の視点位置を算出する視点位置算出部と、
前記表示装置に表示される複数の対象物と前記視点位置との距離に基づいて、前記対象物毎に補正係数を特定する補正係数特定部と、
前記目視者の視点位置が前記表示装置上に存在する時間と前記対象物毎の補正係数とを基にして、前記対象物毎に補正時間を算出する補正時間算出部と、
前記補正時間に基づいて、目視者が目視した前記表示装置の対象物の視認状況を判定する判定部と
を有することを特徴とする目視対象物判定装置。
(付記2)前記補正時間算出部は、前記対象物毎に補正時間の累積時間を算出し、前記判定部は、前記対象物毎の累積時間に基づいて、目視者が目視した前記表示画面上の対象物の視認状況を判定することを特徴とする付記1に記載の目視対象物判定装置。
(付記3)コンピュータが実行する目視対象物判定方法であって、
撮像装置が撮像した目視者の画像データを基にして前記目視者の視線を検出し、表示装置上の前記視線の先の視点位置を算出し、
前記表示装置に表示される複数の対象物と前記視点位置との距離に基づいて、前記対象物毎に補正係数を特定し、
前記目視者の視点位置が前記表示装置上に存在する時間と前記対象物毎の補正係数とを基にして、前記対象物毎に補正時間を算出し、
前記補正時間に基づいて、目視者が目視した前記表示装置の対象物の視認状況を判定する
各処理をコンピュータが実行することを特徴とする目視対象物判定方法。
(付記4)前記補正時間を算出する処理は、前記対象物毎に補正時間の累積時間を算出し、前記対象物を判定する処理は、前記対象物毎の累積時間に基づいて、目視者が目視した前記表示画面上の対象物の視認状況を判定することを特徴とする付記3に記載の目視対象物判定方法。
(付記5)コンピュータに、
撮像装置が撮像した目視者の画像データを基にして前記目視者の視線を検出し、表示装置上の前記視線の先の視点位置を算出し、
前記表示装置に表示される複数の対象物と前記視点位置との距離に基づいて、前記対象物毎に補正係数を特定し、
前記目視者の視点位置が前記表示装置上に存在する時間と前記対象物毎の補正係数とを基にして、前記対象物毎に補正時間を算出し、
前記補正時間に基づいて、目視者が目視した前記表示装置の対象物の視認状況を判定する
各処理を実行させることを特徴とする目視対象物判定プログラム。
(付記6)前記補正時間を算出する処理は、前記対象物毎に補正時間の累積時間を算出し、前記対象物を判定する処理は、前記対象物毎の累積時間に基づいて、目視者が目視した前記表示画面上の対象物の視認状況を判定することを特徴とする付記5に記載の目視対象物判定プログラム。
5 撮像装置
10 表示装置
100 目視対象物判定装置

Claims (4)

  1. 撮像装置が撮像した目視者の画像データを基にして前記目視者の視線を検出し、表示装置上の前記視線の先の視点位置を算出する視点位置算出部と、
    前記表示装置に表示される複数の対象物と前記視点位置との距離に基づいて、前記対象物と前記視点位置との距離が大きいほど値が小さくなる補正係数を前記対象物毎に特定する補正係数特定部と、
    前記目視者の視点位置が前記表示装置上に存在する時間を、前記表示装置上に存在する前記対象物の位置に限らず一律に、目視者が対象物を目視している時間として特定し、各対象物について、前記対象物を目視している時間に前記対象物の補正係数を乗算することで、前記対象物毎に補正時間を算出する補正時間算出部と、
    前記補正時間に基づいて、目視者が目視した前記表示装置の対象物の視認状況を判定する判定部と
    を有することを特徴とする目視対象物判定装置。
  2. 前記補正時間算出部は、前記対象物毎に補正時間の累積時間を算出し、前記判定部は、前記対象物毎の累積時間に基づいて、目視者が目視した前記表示装置上の対象物の視認状況を判定することを特徴とする請求項1に記載の目視対象物判定装置。
  3. コンピュータが実行する目視対象物判定方法であって、
    撮像装置が撮像した目視者の画像データを基にして前記目視者の視線を検出し、表示装置上の前記視線の先の視点位置を算出し、
    前記表示装置に表示される複数の対象物と前記視点位置との距離に基づいて、前記対象物と前記視点位置との距離が大きいほど値が小さくなる補正係数を前記対象物毎に特定し、
    前記目視者の視点位置が前記表示装置上に存在する時間を、前記表示装置上に存在する前記対象物の位置に限らず一律に、目視者が対象物を目視している時間として特定し、各対象物について、前記対象物を目視している時間に前記対象物の補正係数を乗算することで、前記対象物毎に補正時間を算出し、
    前記補正時間に基づいて、目視者が目視した前記表示装置の対象物の視認状況を判定する
    各処理をコンピュータが実行することを特徴とする目視対象物判定方法。
  4. コンピュータに、
    撮像装置が撮像した目視者の画像データを基にして前記目視者の視線を検出し、表示装置上の前記視線の先の視点位置を算出し、
    前記表示装置に表示される複数の対象物と前記視点位置との距離に基づいて、前記対象物と前記視点位置との距離が大きいほど値が小さくなる補正係数を前記対象物毎に特定し、
    前記目視者の視点位置が前記表示装置上に存在する時間を、前記表示装置上に存在する前記対象物の位置に限らず一律に、目視者が対象物を目視している時間として特定し、各対象物について、前記対象物を目視している時間に前記対象物の補正係数を乗算することで、前記対象物毎に補正時間を算出し、
    前記補正時間に基づいて、目視者が目視した前記表示装置の対象物の視認状況を判定する
    各処理を実行させることを特徴とする目視対象物判定プログラム。
JP2011174398A 2011-08-09 2011-08-09 目視対象物判定装置、目視対象物判定方法および目視対象物判定プログラム Active JP5765128B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011174398A JP5765128B2 (ja) 2011-08-09 2011-08-09 目視対象物判定装置、目視対象物判定方法および目視対象物判定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011174398A JP5765128B2 (ja) 2011-08-09 2011-08-09 目視対象物判定装置、目視対象物判定方法および目視対象物判定プログラム

Publications (2)

Publication Number Publication Date
JP2013037590A JP2013037590A (ja) 2013-02-21
JP5765128B2 true JP5765128B2 (ja) 2015-08-19

Family

ID=47887142

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011174398A Active JP5765128B2 (ja) 2011-08-09 2011-08-09 目視対象物判定装置、目視対象物判定方法および目視対象物判定プログラム

Country Status (1)

Country Link
JP (1) JP5765128B2 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3530591B2 (ja) * 1994-09-14 2004-05-24 キヤノン株式会社 音声認識装置及びこれを用いた情報処理装置とそれらの方法
JPH08272517A (ja) * 1995-03-28 1996-10-18 Sanyo Electric Co Ltd 視線対応選択装置及び方法並びに情報処理装置
JP2007141059A (ja) * 2005-11-21 2007-06-07 National Institute Of Information & Communication Technology 読書支援システム及びプログラム

Also Published As

Publication number Publication date
JP2013037590A (ja) 2013-02-21

Similar Documents

Publication Publication Date Title
US20180121739A1 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
US10841501B2 (en) Photographing control apparatus and photographing control method
CN108463840B (zh) 信息处理设备、信息处理方法以及记录介质
US20110267374A1 (en) Information display apparatus and information display method
US20130278503A1 (en) Gesture operation input processing apparatus and gesture operation input processing method
JP6123694B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US9619707B2 (en) Gaze position estimation system, control method for gaze position estimation system, gaze position estimation device, control method for gaze position estimation device, program, and information storage medium
JP2012123727A (ja) 広告効果測定サーバ、広告効果測定装置、プログラム、広告効果測定システム
JP2007265125A (ja) コンテンツ表示装置
CN105404395B (zh) 基于增强现实技术的舞台表演辅助训练方法及系统
US20200081249A1 (en) Internal edge verification
CN103608761A (zh) 输入设备、输入方法以及记录介质
US10078918B2 (en) Information processing apparatus, information processing method, and storage medium
CN111527466A (zh) 信息处理装置、信息处理方法和程序
CN111767820A (zh) 对象被关注的识别方法、装置、设备及存储介质
US20190025911A1 (en) Non-transitory computer-readable storage medium, information processing apparatus, and information processing method
JP2015015031A (ja) 広告効果測定サーバ、広告効果測定システム、プログラム
JP2007172378A (ja) 注視対象物体特定装置
KR101308184B1 (ko) 윈도우 형태의 증강현실을 제공하는 장치 및 방법
KR20140014868A (ko) 시선 추적 장치 및 이의 시선 추적 방법
JP6686319B2 (ja) 画像投影装置及び画像表示システム
JP5765128B2 (ja) 目視対象物判定装置、目視対象物判定方法および目視対象物判定プログラム
US9552059B2 (en) Information processing method and electronic device
CN111142825B (zh) 多屏视野的显示方法、系统及电子设备
JP2008203971A (ja) 情報表示システム、視線検知プログラム及び情報表示プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150120

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150519

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150601

R150 Certificate of patent (=grant) or registration of utility model

Ref document number: 5765128

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150