JP3796019B2 - 視線検出装置 - Google Patents
視線検出装置 Download PDFInfo
- Publication number
- JP3796019B2 JP3796019B2 JP25425397A JP25425397A JP3796019B2 JP 3796019 B2 JP3796019 B2 JP 3796019B2 JP 25425397 A JP25425397 A JP 25425397A JP 25425397 A JP25425397 A JP 25425397A JP 3796019 B2 JP3796019 B2 JP 3796019B2
- Authority
- JP
- Japan
- Prior art keywords
- line
- sight
- detected
- detection
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Eye Examination Apparatus (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Description
【発明の属する技術分野】
本発明は、視線検出においてキャリブレーションを行う装置に関するものである。
【0002】
【従来の技術】
従来、視線検出を行う場合には、事前にキャリブレーションを行っておく場合がある。すなわち、視線検出機能を有する装置を具体的に使用する前に、ユーザに対して所定の位置にマーカーを表示し、その表示した時のユーザの顔の画像を取り込んでおいて視線検出の際の参考データとする。例えば、まず、正面位置にマーカーを表示して、その時の顔の画像を取り込み、次に、右10度の位置にマーカーを表示して、その時の顔の画像を取り込むというように順次所定の方向を向いた時の画像を取り込んで、参考データとしておく。そして、視線方向を算出する際に、この参考データを使用して視線検出を行うのである。
【0003】
なお、所定のマーカーが表示された際にその方向を正確に見ていない等の不都合が検出された場合には、再度キャリブレーションの手続をやり直す必要がある。
特に、上記の事前のキャリブレーションは、正確な視線検出を行う場合には必要となる作業である。
【0004】
【発明が解決しようとする課題】
しかし、上記のような事前のキャリブレーションはユーザには負担となり、本来の作業を行うまでに時間を要してしまう。
そこで、本発明は、事前にキャリブレーションを行う必要のない視線検出装置を提供することを目的とするものである。
【0005】
【課題を解決するための手段】
本発明は上記問題点を解決するために創作されたものであって、視線位置を検出する視線検出装置であって、視線位置の位置情報と各視線位置に対応する画像データの情報とを有する視線検出用テーブルを格納する記憶部が設けられ、視線が一定時間停留している視線位置を検出する視線検出手段と、上記視線位置のずれを検知するずれ検知手段と、所定の情報を表示する表示手段と、上記ずれを検知した際、上記表示手段に所定の表示体を表示させる表示体表示手段と、上記表示体の表示位置と上記表示体を表示させた時の視線位置とのずれ量を算出する第2ずれ検知手段と、上記ずれ量が所定の場合に、上記視線検出用テーブルにおける視線位置の位置情報を変更することにより、検出される視線位置の補正を行う補正手段と、を備えることを特徴とする。
【0010】
【発明の実施の形態】
本発明の実施の形態としての実施例を図面を利用して説明する。
本発明に基づく上記視線検出装置としての検出視線位置補正装置A1は、図1に示されるように構成され、カメラ10と、視線検出部12と、ずれ検知部16と、補正部18と、表示部20と、表示制御部22とを有している。また、図2に示すコンピュータ端末Pには、上記構成の検出視線位置補正装置A1が搭載されているものとする。
【0011】
ここで、上記カメラ10は、ユーザの特に顔部を撮影するもので、図2に示すように、表示部20を見るユーザ甲の顔を撮影するように設置されている。このカメラ10は、CCDカメラ等により構成される。
また、上記視線検出手段としての上記視線検出部12は、上記カメラ10により得られた画像データから視線を検出するものであり、該画像データに人間の顔があり、表示部20の方を向いている場合にその人の視線を検出する。具体的には、撮影して得られた画像データに対してエッジ抽出を行い、人間の顔が写っている場合に、その目における黒目の方向を検出することにより行う。詳しくは後述する。また、上記視線検出部12には、視線検出情報格納部14が設けられている。この視線検出情報格納部14には、視線検出に利用される視線検出用テーブルが格納されている。つまり、この視線検出用テーブルには、座標位置の位置情報と、これに対応する濃度分布情報とが複数格納されている。この視線検出情報格納部14におけるデータには、ターゲット表示に伴い取り込まれる追加データとは別に、当初の視線検出用に予めデフォルトされたデータも格納されている。
【0012】
すなわち、視線検出情報格納部14には、図3に示すようなテーブルが設けられている。例えば、画像データ1については、この画像データ1に対応する視線位置(x1,y1)が格納されている。なお、各画像データについては、X方向の濃度分布情報とY方向の濃度分布情報とに分けて抽出して格納されているものとする。例えば、画像データ1については、X方向の濃度分布情報とY方向の濃度分布情報とに分けて格納されている。濃度分布情報は、例えばヒストグラム曲線により構成される。図3において、画像データ1から画像データnまでは予めデフォルトされた画像データである。つまり、一般的な画像データを予め格納してあるのである。また、図3における追加データは、補正用ターゲットを表示した際に得た画像データである。この濃度分布情報は、上記検出用データとして機能する。また、上記視線検出情報格納部14は上記記憶部として機能する。
この視線検出部12は、実際には、視線検出を行うためのプログラム等の各種データを格納したメモリと該プログラムに従い所定の処理を行うCPU等から構成される。
【0013】
また、ずれ検知部16は、検出された視線の位置により視線位置のずれを検知する。例えば、検出された視線位置が表示部20の外部である頻度が高い場合や、注視点があるエリアに偏っている場合等に視線位置のずれがあると判定する。さらに、ずれ検知部16は、上記視線検出部12で検出された視線位置と上記表示制御部22からのターゲット位置とを比較して、それらのずれを検知するものである。つまり、上記視線位置とターゲット位置とのずれ方向及びずれ量を検出する。具体的には、後述する。このずれ検知部16は、ずれ検知手段及び第2ずれ検知手段として機能する。
【0014】
また、上記補正手段としての上記補正部18は、検出される視線位置を補正するものであり、具体的には、ずれが検知された場合に、その時の画像データを取り込み、上記視線検出情報格納部14に格納しておく。上記視線検出情報格納部14への画像データの格納に際しては、ターゲット位置の情報と対応させておく。これにより、以後の視線検出においては、この画像データの情報も利用されることになる。
【0015】
また、表示したターゲット位置の座標についてすでにデフォルトされた画像データがある場合には、その画像データと補正用のターゲットを表示して得た画像データとを平均化する処理を行う。つまり、同じ座標位置についてX方向とY方向の各パターン画像としての濃度分布情報を平均化する。
また、上記表示手段としての上記表示部20は、所定の情報を表示するためのもので、CRTやLCD等のモニタにより構成される。
【0016】
また、表示制御部22は、表示部20への表示を制御するものであり、特に、ずれ検知部16においてずれが検知された場合に、表示部20に視線検知用のターゲットを表示する制御を行う。なお、このターゲットは、視線位置を検出することが可能な大きさの表示体であればよく、文字や記号等のキャラクターでもよく、また、図形等でもよい。この表示制御部22は、上記表示体表示手段として機能する。
【0017】
上記構成の検出視線位置補正装置A1の動作について図4を使用して説明する。まず、ユーザが上記構成の検出視線位置補正装置A1が搭載されたコンピュータ端末Pを使用して処理を行っているものとする。この処理としては、ワードプロセッサによる文字の入力、表計算による処理等任意である。
【0018】
まず、カメラに10により画像データを取り込む(S10)。すなわち、上記カメラ10がユーザ甲の顔を撮影する。すると、このカメラ10により撮影された画像は視線検出部12に送られる。
次に、視線検出部12においては、視線検出が行われる(S11)。すなわち、まず、視線検出部12では、撮影された画像にエッジ抽出処理が行われる。そして、エッジ抽出処理後に、まず、人の顔があるかどうかが検出される。つまり、エッジ抽出処理が行われた画像と人物標準パターン画像とを比較して、人の顔があるかどうかを推定する。なお、人の顔の判定においては、肌色情報をも考慮して行うようにしてもよい。フレーム間の差分画像から移動した物体を検知し、その物体と人物標準パターン画像とを比較して人の顔を判定するようにしてもよい。
【0019】
人の顔があることが検出されたら、視線を検出する。ここでは、視線方向を検出する。すなわち、エッジ抽出することにより得られたエッジ情報から、検出された人の顔における目の垂直方向の位置と水平方向の位置とを推定して目の部分の画像を切り出し、この切り出した領域の濃淡画像を生成する。その後、目における黒目の位置に関する濃度分布情報を水平方向と垂直方向について算出し、予め設けられている水平方向と垂直方向の濃度分布情報と比較し、類似度を算出して視線方向を検出するのである。図3のテーブルにおける画像データ1〜画像データnまでの水平方向の濃度分布情報と垂直方向の濃度分布情報とが、この予め設けられた水平方向と垂直方向の濃度分布情報に相当する。なお、補正用ターゲットを表示することにより、テーブルに格納される濃度分布情報が増えた場合には、これらも視線検出に考慮されることになる。
なお、処理の当初においては、図3の追加データは存在しないので、デフォルトされたデータのみで視線検出を行うことになる。
【0020】
そして、検出された方向の視線の空間位置を検出する。つまり、撮影された画像におけるその人の目の空間座標位置と、検出された視線方向とにより、その視線の空間位置を検出する。なお、上記目の空間座標位置の検出は次のように行う。つまり、図2に示すX方向、Y方向の座標については撮影された2次元画像における座標により検出可能であり、また、Z方向の座標については、例えば、顔の大きさから推定する等の方法や距離センサにより検出する方法がある。なお、このZ方向の座標については、所定の光を照射し、顔や目等に反射して帰ってくるまでの時間により算出してもよい。
【0021】
以上のようにして、目の空間位置と視線方向とに基づき、空間内における視線の位置が決定されるので、その視線が表示部20のどの位置にあるかを判定する。具体的には、表示部20の表示面において視線が通過する視線位置としての座標(X,Y)を算出する。なお、表示部20の表示面外に視線がある時は、該表示面の延長面上の座標を視線位置として検出する。
【0022】
なお、上記視線の検出においては、注視点が検出されるかどうかを条件とするのが好ましい。つまり、視線が一定時間停留している場合に始めて視線が検出されたものとして処理を行う。つまり、視線が表示部20の方を向いていたとしても、視線が一定時間停留しない場合には、表示されたキーワードを知覚したとはいえないとして、視線検出に、所定時間視線が停留していることを条件とすることが望ましい。上記視線検出処理は上記視線検出部12により行う。
【0023】
なお、視線方向検出の方法は上記の方法には限られず、他の方法であってもよい。例えば、人の顔があるかどうかの検出は上記と同様の方法で行い、視線方向の検出については、近赤外光を照射してその反射角度に基づき算出するようにしてもよい。また、上記の方法とこの近赤外光による方法とを併用してもよい。また、上記Z方向の座標は、近赤外光が反射して戻ってくる到達時間により検出してもよい。視線検出の方法については、特開平8−322796号公報や特開平5−205030号公報に開示されている。
【0024】
以上のように視線検出が行われたら、ずれ検知部16によりずれが検知されるか否かが判定される(S12)。すなわち、検出された視線位置が表示部20の外部である頻度が高い場合や、注視点があるエリアに偏っている場合等に視線位置のずれがあると判定する。なお、表示部20の表示範囲の情報は予めずれ検知部16に保持されているものとする。また、アイコンが表示されている画面が表示されている状態で、アイコンの表示範囲以外に注視点が集まる場合にもずれがあるものと判定される。この場合、アイコンの表示範囲についての情報は上記表示制御部22から得る。このステップS12において、ずれが検知された場合には、ステップS13に進み、ずれが検知されない場合には、最初に戻る。つまり、ステップS10に戻る。
【0025】
次に、ステップS13においては、補正用ターゲットを表示する。すなわち、表示部20上に補正用ターゲットを表示させる。この補正用ターゲットの表示は、上記表示制御部22により行う。この補正用ターゲットは、ユーザが該補正用ターゲットが知覚できる程度の大きさとし、色彩については、ユーザに知覚されやすいように周囲の色彩とは異なる色彩とすることが好ましい。また、ユーザの注意を引くためにターゲットを点滅させてもよい。図5に示す例では、×印の補正用ターゲットTが表示されている。
【0026】
補正用ターゲットが表示されたら、その時の視線検出を行う(S14)。この視線検出は、上記ステップS11における視線検出と同様に行う。つまり、表示部20の表示面上の視線位置を検出する。なお、視線検出のタイミングは、表示制御部22が補正用ターゲットを表示し、ユーザの知覚及び視線を動かすまでの遅延を考慮したタイミングで、視線検出指示を視線検出部12に対して行うことにより、補正用ターゲットが表示された時の視線を検出するようにする。
【0027】
そして、上記表示された補正用ターゲットの表示位置と、検出された視線位置とを比較して、それらのずれを検知する(S15)。つまり、上記視線位置とターゲット位置とのずれ方向及びずれ量を検出する。このずれ方向とずれ量を検出する方法として、水平方向(X方向)のずれ量と垂直方向(Y方向)のずれ量とを比較することにより検出する方法が挙げられる。つまり、図5において、補正用ターゲットTの座標が(xα,yα)で、検出された視線位置Kの座標が(xk,yk)の場合に、X方向のずれ量はxα−xkで表され、一方、Y方向のずれ量はyα−ykで表される。
【0028】
以上のようにして、ずれを算出したら、補正の必要があるか否かを判定する(S16)。この場合の考え方として、ずれ量があまり大きい場合には、表示された補正用ターゲットを見逃した可能性が考えられることから補正は行わないようにする。すなわち、上記補正用ターゲットTと視線位置Kとの距離rを算出し、このrが所定のしきい値よりも小さい場合には、補正を行い、一方、該距離rが該しきい値よりも大きい場合には、補正を行わない。
【0029】
そして、補正が必要であると判定された場合には、ステップS17に進み、視線位置の補正を行う。すなわち、その時の画像データを取り込み、上記視線検出情報格納部14に格納しておく。
この場合、ターゲット位置の座標位置の位置情報が既にデフォルトされたデータの位置情報にない場合には、上記視線検出情報格納部14に新規に登録を行う。上記視線検出情報格納部14への画像データの格納に際しては、図3のテーブルの視線位置についてはターゲット位置の位置情報とする。つまり、図5のように(xα,yα)の座標位置に補正用ターゲットを表示させた場合には、テーブルの視線位置には、この(xα,yα)を書き込む。そして、この時の画像データを水平方向の濃度分布情報と垂直方向の濃度分布情報とに分けて格納しておく。これにより、以後の視線検出においては、この画像データの情報も利用されることになる。
【0030】
一方、ターゲット位置の座標位置の位置情報がすでにデフォルトされたデータの中にある場合には、画像データの濃度分布情報を平均化する処理を行う。
例えば、図3において、視線位置(x1,y1)と補正用ターゲット表示位置としての視線位置(xα,yα)とが同じ座標位置の場合には、画像データαを新規に登録するのではなく画像データ1の画像データの内容を平均化したものとする。つまり、X方向についての濃度分布情報については、画像データ1のものと画像データαのものとを平均化するとともに、Y方向についての濃度分布情報についても、画像データ1のものと画像データαのものとを平均化する。
【0031】
以上のようにすれば、以後の視線検出においては、平均化された濃度分布情報との類似度を算出して視線方向を検出するので、より正確な視線の検出を行うことができる。また、コンピュータ端末Pにおける処理の最中に補正用ターゲットを表示して補正を行うので、事前にキャリブレーションを行う必要がない。
【0032】
なお、補正用ターゲットを出す座標位置としては、デフォルトされたデータにおける濃度分布情報を補正するために、当初はデフォルトされたデータにおける視線位置を補正用ターゲットの座標位置とするのが好ましい。
なお、上記説明においては、ステップS10からステップS12に示すように、視線位置のずれを検知した場合に補正用ターゲットを表示するものとして説明したが、上記のようなずれ検知を行わず、定期的に補正用ターゲットを表示するようにしてもよい。また、ユーザの入力操作により補正用ターゲットを表示するようにしてもよい。
【0033】
次に、第2実施例について説明する。第2実施例の検出視線位置補正装置A2の構成は上記第1実施例と略同一であり、図1と同様の構成であるが、表示制御部22の動作が異なる。
つまり、表示制御部22はある入力された文字の表示位置を検出し、この文字の表示位置の情報をずれ検知部16に送る。また、該文字を表示部20に表示するタイミングで、視線検出部12に視線検出を指示するのである。詳しい動作は後述する。
なお、他の構成は上記第1実施例と同様であるのでその説明を省略する。
【0034】
第2実施例における検出視線位置補正装置A2の動作について図6を使用して説明する。まず、図2に示すように、ユーザが上記構成の検出視線位置補正装置A2が搭載されたコンピュータ端末Pを使用して処理を行っているものとする。この処理としては、ワードプロセッサによる文字の入力、表計算による処理等任意である。
【0035】
まず、カメラに10により画像データを取り込む(S20)。すなわち、上記カメラ10がユーザ甲の顔を撮影する。すると、このカメラ10により撮影された画像は視線検出部12に送られる。
次に、視線検出部12においては、視線検出が行われる(S21)。この視線検出の方法は上記第1実施例の場合と同様である。
【0036】
視線検出が行われたら、ずれ検知部16によりずれが検知されるか否かが判定される(S22)。すなわち、検出された視線位置が表示部20の外部である頻度が高い場合や、注視点があるエリアに偏っている場合等に視線位置のずれがあると判定する。なお、表示部20の表示範囲の情報は予めずれ検知部16に保持されているものとする。また、アイコンが表示されている画面が表示されている状態で、アイコンの表示範囲以外に注視点が集まる場合にもずれがあるものと判定される。この場合、アイコンの表示範囲についての情報は上記表示制御部22から得る。このステップS22において、ずれが検知された場合には、ステップS23に進み、ずれが検知されない場合には、最初に戻る。つまり、ステップS20に戻る。
【0037】
次に、ステップS23においては、文字入力があるかどうかが判定される。文字入力があった場合には、ステップS24に移行する。
ステップS24では、入力された文字の入力位置の座標を検出する。図7に示すように、「LOGON」と入力された場合を考えると、表示部20に表示された「LOGON」の表示位置の座標を検出する。検出された座標が(xα,yα)であるとする。なお、検出される座標は便宜上「LOGON」における真ん中の「G」の位置の座標とする。
【0038】
文字入力位置の座標が検出されたら、その時の視線検出を行う(S25)。この視線検出は、上記ステップS21における視線検出と同様に行う。なお、視線検出のタイミングは、実際には、表示制御部22が文字を表示し、ユーザの知覚及び視線を動かすまでの遅延を考慮したタイミングで、視線検出指示を視線検出部12に対して行うことにより、該文字が表示された時の視線を検出するようにするのが好ましい。
【0039】
そして、上記文字の表示位置と、検出された視線位置とを比較して、それらのずれを検知する(S26)。つまり、上記視線位置とターゲット位置とのずれ方向及びずれ量を検出する。このずれ方向とずれ量を検出する方法として、上記と同様に、X方向のずれ量とY方向のずれ量とを比較することにより検出する。つまり、図7において、入力文字Lの座標が(xα,yα)で、検出された視線位置Kの座標が(xk,yk)の場合に、X方向のずれ量はxα−xkで表され、一方、Y方向のずれ量はyα−ykで表される。
【0040】
以上のようにして、ずれを算出したら、補正の必要があるか否かを判定する(S27)。この場合も上記第1実施例と同様に、上記入力文字Lと視線位置Kとの距離rを算出し、このrが所定のしきい値よりも小さい場合には、補正を行い、一方、該距離rが該しきい値よりも大きい場合には、補正を行わない。
【0041】
そして、補正が必要であると判定された場合には、ステップS28に進み、視線位置の補正を行う。この補正の方法は、上記第1実施例と同様である。つまり、ターゲット位置の位置情報が既にデフォルトされたデータの位置情報にない場合には、上記視線検出情報格納部14に新規に登録を行い、一方、ターゲット位置の位置情報がすでにデフォルトされたデータの中にある場合には、画像データの濃度分布情報を平均化する処理を行う。
【0042】
以上のようにすれば、以後の視線検出においては、平均化されたパターン画像との類似度を算出して視線方向を検出するので、より正確な視線の検出を行うことができる。また、コンピュータ端末Pにおける処理の最中に入力された文字の表示位置を検出する等して補正を行うので、事前にキャリブレーションを行う必要がない。また、本第2実施例によれば、入力された文字の表示位置と検出された視線位置とのずれに従い補正を行うので、上記第1実施例のように補正用ターゲットを一々表示する必要がない。
【0043】
なお、この第2実施例においても、上記説明においては、ステップS20からステップS22に示すように、視線位置のずれを検知した場合に補正用ターゲットを表示するものとして説明したが、上記のようなずれ検知を行わず、定期的に補正用ターゲットを表示するようにしてもよい。
【0044】
なお、上記の説明では、視線検出情報格納部14において、画像データをX方向の濃度分布情報とY方向の濃度分布情報とに分けて格納するものとして説明したが、これには限られず、2次元の画像データとして格納するようにしてもよい。
【0045】
また、上記の説明においては、補正の方法として所定の視線位置についてのX方向とY方向の濃度分布情報を変更するものとして説明したが、これには限られず、検出されたずれのずれ方向とずれ量とに従い、図3に示すテーブルの視線位置の情報を変更する処理を行うようにしてもよい。つまり、ある補正用ターゲットと検出された視線位置とのずれをX方向とY方向とに検出し、テーブルに格納されている視線位置の座標情報をそのずれ量だけ補正するのである。
【0046】
つまり、ある補正用ターゲット表示位置と検出された視線位置とのずれをX方向とY方向とに検出し、テーブルに格納されている視線位置の座標情報をそのずれ量だけ補正するのである。すなわち、図5の例では、X方向のずれ量はxα−xk(これをxmとする)で表され、一方、Y方向のずれ量はyα−yk(これをymとする)で表される。そこで、すでに格納されている視線位置のデータをこのずれ量分だけ補正するのである。つまり、画像データ1の場合には、視線位置は(x1−xm,y1−ym)とする。なお、補正する画像データは、予めデフォルトされた画像データのみとするのが好ましい。つまり、デフォルトされた画像データ以外の画像データは、補正用ターゲットを表示して得た画像データであるので、補正の必要性が低いからである。また、補正用ターゲットを表示することにより得た画像データが画像データα、画像データβというように増えていくことになるが、その場合には、補正値を平均化するとにより対応する。
【0047】
【発明の効果】
本発明に基づく視線検出装置によれば、補正用ターゲットや入力された文字等の表示体を表示させることにより、検出される視線位置を補正するので、事前にキャリブレーションを行う必要がない。
【図面の簡単な説明】
【図1】本発明の実施例に基づく視線検出装置の構成を示すブロック図である。
【図2】本発明の実施例に基づく視線検出装置の使用状態を示す斜視図である。
【図3】視線検出用テーブルを示す説明図である。
【図4】本発明の第1実施例に基づく視線検出装置の動作を示すフローチャートである。
【図5】本発明の第1実施例に基づく視線検出装置の動作を示す説明図である。
【図6】本発明の第2実施例に基づく視線検出装置の動作を示すフローチャートである。
【図7】本発明の第2実施例に基づく視線検出装置の動作を示す説明図である。
【符号の説明】
A1、A2 視線検出装置
10 カメラ
12 視線検出部
14 視線検出情報格納部
16 ずれ検知部
18 補正部
20 表示部
22 表示制御部
Claims (1)
- 視線位置を検出する視線検出装置であって、
視線位置の位置情報と各視線位置に対応する画像データの情報とを有する視線検出用テーブルを格納する記憶部が設けられ、視線が一定時間停留している視線位置を検出する視線検出手段と、
上記視線位置のずれを検知するずれ検知手段と、
所定の情報を表示する表示手段と、
上記ずれを検知した際、上記表示手段に所定の表示体を表示させる表示体表示手段と、
上記表示体の表示位置と上記表示体を表示させた時の視線位置とのずれ量を算出する第2ずれ検知手段と、
上記ずれ量が所定の場合に、上記視線検出用テーブルにおける視線位置の位置情報を変更することにより、検出される視線位置の補正を行う補正手段と、
を備えることを特徴とする視線検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP25425397A JP3796019B2 (ja) | 1997-09-02 | 1997-09-02 | 視線検出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP25425397A JP3796019B2 (ja) | 1997-09-02 | 1997-09-02 | 視線検出装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH1176165A JPH1176165A (ja) | 1999-03-23 |
JP3796019B2 true JP3796019B2 (ja) | 2006-07-12 |
Family
ID=17262422
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP25425397A Expired - Fee Related JP3796019B2 (ja) | 1997-09-02 | 1997-09-02 | 視線検出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3796019B2 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4604190B2 (ja) * | 2004-02-17 | 2010-12-22 | 国立大学法人静岡大学 | 距離イメージセンサを用いた視線検出装置 |
JP4951751B2 (ja) * | 2005-04-26 | 2012-06-13 | 国立大学法人静岡大学 | 瞳孔検出に基づくポインティング装置及び方法 |
JP5664064B2 (ja) * | 2010-09-22 | 2015-02-04 | 富士通株式会社 | 視線検出装置および補正係数算出プログラム |
JP2015046111A (ja) * | 2013-08-29 | 2015-03-12 | 株式会社Jvcケンウッド | 視点検出装置および視点検出方法 |
JP6547268B2 (ja) | 2014-10-02 | 2019-07-24 | 富士通株式会社 | 視線位置検出装置、視線位置検出方法及び視線位置検出プログラム |
JP6677239B2 (ja) * | 2015-03-05 | 2020-04-08 | ソニー株式会社 | 情報処理装置、制御方法、およびプログラム |
WO2016147499A1 (ja) * | 2015-03-17 | 2016-09-22 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP6540490B2 (ja) * | 2015-12-11 | 2019-07-10 | 富士通株式会社 | 情報処理システム、情報処理方法、及び情報処理プログラム |
JP2017176414A (ja) * | 2016-03-30 | 2017-10-05 | ソニー株式会社 | 制御装置および方法並びに手術システム |
-
1997
- 1997-09-02 JP JP25425397A patent/JP3796019B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH1176165A (ja) | 1999-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7853050B2 (en) | System and method for operation without touch by operators | |
JP5710589B2 (ja) | 改良されたハンドヘルド画面検知ポインタ | |
US10488925B2 (en) | Display control device, control method thereof, and display control system | |
EP3608755B1 (en) | Electronic apparatus operated by head movement and operation method thereof | |
US7784943B2 (en) | Eyelid detecting apparatus, eyelid detecting method and program thereof | |
CN111543934A (zh) | 一种视力检测方法、装置、电子产品及存储介质 | |
JPH113429A (ja) | 観察者トラッキング自動立体表示装置、画像トラッキングシステム、および画像トラッキング方法 | |
US20140043229A1 (en) | Input device, input method, and computer program | |
KR20040107890A (ko) | 휴대폰의 영상 기울기 제어 방법 | |
US10692230B2 (en) | Document imaging using depth sensing camera | |
JP3796019B2 (ja) | 視線検出装置 | |
US10733739B2 (en) | Method and system for displaying target image based on robot | |
CN111580665A (zh) | 注视点预测方法、装置、移动终端及存储介质 | |
US20240292087A1 (en) | Photographing method and apparatus | |
CN111885314A (zh) | 屏幕调整方法、装置、终端及计算机可读存储介质 | |
WO2018051685A1 (ja) | 輝度制御装置、輝度制御システム及び輝度制御方法 | |
EP2261772A1 (en) | Method for controlling an input device based on the detection of attitude or eye gaze | |
JP2005261728A (ja) | 視線方向認識装置及び視線方向認識プログラム | |
CN117372475A (zh) | 眼球追踪方法和电子设备 | |
JPH1185442A (ja) | 情報出力装置 | |
CN114911445B (zh) | 虚拟现实设备的显示控制方法、虚拟现实设备及存储介质 | |
JP2017138645A (ja) | 視線検出装置 | |
EP2261857A1 (en) | Method for determining the position of an object in an image, for determining an attitude of a persons face and method for controlling an input device based on the detection of attitude or eye gaze | |
CN115542535A (zh) | 眼动跟踪系统 | |
CN112004151A (zh) | 电视设备的控制方法、电视设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20051226 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060307 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060414 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090421 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100421 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110421 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |