JP6237504B2 - 視線入力装置 - Google Patents

視線入力装置 Download PDF

Info

Publication number
JP6237504B2
JP6237504B2 JP2014140628A JP2014140628A JP6237504B2 JP 6237504 B2 JP6237504 B2 JP 6237504B2 JP 2014140628 A JP2014140628 A JP 2014140628A JP 2014140628 A JP2014140628 A JP 2014140628A JP 6237504 B2 JP6237504 B2 JP 6237504B2
Authority
JP
Japan
Prior art keywords
line
sight
image
unit
image group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014140628A
Other languages
English (en)
Other versions
JP2016018377A5 (ja
JP2016018377A (ja
Inventor
佳行 津田
佳行 津田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2014140628A priority Critical patent/JP6237504B2/ja
Priority to DE112015003148.0T priority patent/DE112015003148T5/de
Priority to US15/322,192 priority patent/US20170153699A1/en
Priority to PCT/JP2015/003061 priority patent/WO2016006170A1/ja
Publication of JP2016018377A publication Critical patent/JP2016018377A/ja
Publication of JP2016018377A5 publication Critical patent/JP2016018377A5/ja
Application granted granted Critical
Publication of JP6237504B2 publication Critical patent/JP6237504B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements

Description

本発明は、視線入力パラメータの補正装置および視線入力装置に関するものである。
ユーザーに手間を取らせることなく、自動的に視線入力のパラメータを補正する技術として、ユーザーにより発生されたイベントの発生時点において表示されていたマーカの位置と、イベントの発生時点において視線センサが検出していた視線方向とに基づいて視線入力のパラメータを補正する方法が知られている(例えば特許文献1)。
特開2000−10723号公報
上記特許文献1に記載のパラメータの補正方法は、イベントの発生時点の視線方向をイベント発生時点のマーカ位置に対応する視線方向として採用してしまうため、例えば補正前の視線入力パラメータが大きくずれていた場合など、ユーザーがマーカを操作するために意図的に本来見るべき位置ではない位置を注視した状態でイベントを発生させると、誤ったパラメータの補正が行われて視線検出精度が更に悪化してしまうという問題がある。
本発明はこのような問題を解決するべくなされたものであり、その目的は視線入力パラメータの補正を自動的に精度よく行うことが可能な視線入力パラメータの補正装置または視線入力装置を提供することである。
上記目的を達成するため、請求項1に記載の発明は、表示装置に表示された画像群のうち、ユーザーがどの画像を見ているかを判定するための視線入力パラメータの補正装置であって、ユーザーの顔画像を取得する顔画像取得部と、取得された顔画像に基づいてユーザーの視線位置を検出する視線検出部と、視線検出部の検出結果に基づいて表示装置の画面上で視線が留まった複数エリアを特定する注視点マップ作成部と、表示装置に表示されていた画像群の情報を記憶する記憶装置と、注視点マップ作成部によって得られた複数エリアと記憶装置に記憶されている画像群の情報とを比較し、複数エリアが画像群のいずれに対応するのか推測し、該推測結果に基づいて視線検出部のパラメータを補正する補正部とを備え、補正部は、注視点マップ作成部が特定したエリアの数が所定の数未満であるときには、前記パラメータの補正を行わないことを特徴としている。
この請求項1に記載の発明によれば、表示装置の画面上で視線が留まった複数エリアと表示画面上の画像群とを対応付けてパラメータを補正するため、イベント発生時のユーザーの視線に基づいてパラメータを補正する特許文献1に記載された手法と比べて、視線入力パラメータの補正を精度よく行うことが可能となる。また、請求項1に記載の発明は、注視点マップ作成部が特定したエリアの数が所定の数未満であるときには、補正部はパラメータの補正を行わないことにより、パラメータ補正に適さない少数のエリアのみで補正を行うことを防止できる。
また、請求項2に記載の発明は、請求項1に記載の視線入力パラメータの補正装置において、上記注視点マップ作成部は、視線が留まった複数エリアのうち、視線の停留時間が所定の時間よりも短いエリアをノイズとして対象から除外することを特徴としている。これにより、ノイズが除かれた複数エリアを用いてより精度の高いパラメータ補正が可能となる。
更に、請求項に記載の発明は、請求項1または2に記載の視線入力パラメータの補正装置において、上記注視点マップ作成部が、視線の移動速度を算出し、該移動速度が所定速度未満であった場合に視線が留まったと判定し、視線が留まったと判定したときの視線位置を複数記憶し、複数記憶された視線位置を複数のグループに分けて前記複数のエリアを特定することを特徴とする。これにより、検出された視線位置を適切なグループに分けて複数のエリアとして特定することが可能となる。
また、請求項に記載の発明は、表示装置に画像群を表示させ、ユーザーがどの画像を見ているかを判定することで該ユーザーが前記画像群のいずれを選択しようとしているのか判定する視線入力装置であって、ユーザーの顔画像を取得する顔画像取得部と、取得された顔画像に基づいてユーザーの視線位置を検出する視線検出部と、表示装置に画像群を表示させる表示制御部と、視線検出部の検出結果に基づいて表示装置の画面上で視線が留まった複数エリアを特定する注視点マップ作成部と、表示装置に表示されていた画像群の情報を記憶する記憶装置と、注視点マップ作成部によって得られた複数エリアと、記憶装置に記憶されていた画像群の位置関係とを比較し、複数エリアが画像群のいずれに対応するのか推測し、該推測結果に基づいて視線検出部のパラメータを補正する補正部と、補正部によって補正されたパラメータに基づいて表示装置に表示された画像群のうち、ユーザーが現在どの画像を見ているかを判定する判定部と、を備え、表示制御部は、判定部によってユーザーがどの画像を見ているのか判定した後に、該ユーザーが見ている前記画像に対する決定入力操作がなされた場合には画像群を新しい画像群に置き換え、補正部は、前記注視点マップ作成部が特定したエリアの数が所定の数未満であるときには、前記パラメータの補正を行わないことを特徴としている。
この請求項に記載の発明によれば、請求項1に記載の発明と同じく、表示装置の画面上で視線が留まった複数エリアと表示画面上の画像群とを対応付けてパラメータを補正するため、イベント発生時のユーザーの視線に基づいてパラメータを補正する特許文献1に記載された手法と比べて視線入力パラメータの補正を精度よく行うことが可能となる。また、請求項4に記載の発明は、注視点マップ作成部が特定したエリアの数が所定の数未満であるときには、補正部はパラメータの補正を行わないことにより、パラメータ補正に適さない少数のエリアのみで補正を行うことを防止できる。
また、請求項に記載の発明は、請求項に記載の発明において、表示制御部が、環状、V字状または扇状に並んだ画像群を前記表示装置に表示させることを特徴としている。これにより、画面上で視線が留まった複数エリアの数が少ない場合であっても、該複数エリアが画像群のどの画像にそれぞれ対応するのか対応付けることが容易となる。
また、請求項に記載の発明は、請求項またはに記載の発明において、表示制御部は、新しい画像群として、置き換え前の画像群の画像配置と同一の画像配置の新しい画像群を用いることを特徴としている。これにより、置き換え前の画像群に基づいて蓄積した複数エリアの位置情報を新しい画像群とも対比させることが可能となり、より精度の高いパラメータの補正を行うことが可能となる。
本発明の実施形態における視線入力装置および視線入力パラメータ補正装置の構成を示すブロック図である。 補正部が行う補正の具体例を可視化した図である。 視線入力パラメータの補正方法を示すフローチャートである。 ユーザーの決定入力によって表示中の画像群が新しい画像群に置き換わったときの表示例を示す図である。 V字状または扇状に並んだ画像群を用いて補正を行った例を示した図である。
以下、本発明の実施形態を図面に基づいて説明する。なお、実形態において対応する構成要素には同一の符号を付すことにより、重複する説明を省略する場合がある。
図1は本実施形態における視線入力装置100および視線入力パラメータ補正装置220の構成を示すブロック図である。本実施形態における視線入力装置100は、図示しない車両に搭載されるものであり、ダッシュボードやステアリングコラムに搭載された撮像装置110で撮影した画像から車両の乗員(視線入力装置100のユーザー)がセンターメーターやヘッドアップディスプレイなどの車載表示装置120に表示された画像群のうち、どの画像を見ているかを判定し、ステアリングスイッチなどの決定入力装置130によって決定入力がなされた場合に、該ユーザーが見ていた画像に対応するアプリケーションプログラム140を実行させるものである。
以下、視線入力装置100の各構成要素について説明する。本実施形態における視線入力装置100は、撮像装置110からユーザーの顔の画像を取得する画像取得部150と、顔画像に基づいてユーザーの視線位置を繰り返し検出する視線検出部160と、視線検出部160の検出結果に基づいてある特定期間(例えば2〜3秒間)において表示装置120の画面上で視線が留まったエリアを複数特定する注視点マップ作成部170と、該特定期間において表示装置120に表示されていた画像群の情報を記憶する記憶装置180と、視線検出部160で検出した視線位置と記憶装置180に記憶された視線入力パラメータとに基づいて表示装置120に表示されている画像群のうち、ユーザーが現在どの画像を見ているかを判定する判定部190と、記憶装置に記憶された画像群の情報と注視点マップとに基づいて上記視線入力パラメータを補正する補正部200と、ユーザーが現在どの画像を見ているか及び/または決定入力操作に基づいて表示装置120の表示態様を変更する表示制御部210とを備えている。
ここで表示装置210は、現在実行中のアプリケーションプログラムの実行状態に応じた画像群を表示装置120に表示させるものであり、判定部190によってユーザーがどの画像を見ているのか判定した後に、該ユーザーが見ている画像に対する決定入力操作がなされた場合に、実行中のアプリケーションプログラムの状態を遷移させて表示中の画像群を新しい画像群に置き換えるものである。
また、視線検出部160で繰り返し検出された視線位置にはそれぞれ(X,Y)座標が与えられ、注視点マップ作成部160は該(X,Y)座標を用いて表示装置120の画面上で視線が留まったエリアを複数特定し、注視点マップとして記憶装置に記憶させる。
また、視線入力装置100の各構成要素のうち、画像取得部150、視線検出部160、注視点マップ作成部170、記憶部180および補正部200が本実施形態における視線入力パラメータの補正装置220を構成している。
図2は補正部220が行う制御の具体例を可視化した図である。図2の左上の四角形の枠内は、注視点マップの元となった視線データが得られた特定期間において表示装置120に表示されていた画像群(ボタン画像Aないしボタン画像F)の配置例を示している。図2の右上の座標系は当該特定期間において得られた視線データを元に注視点マップ作成部170によって作成される注視点マップの例を示している。補正部220は、これらの画像群の配置情報と注視点マップを記憶部180からロードして画像群の位置関係と注視点マップ中の各エリアの位置関係を比較し、複数のエリアが画像群のうちのいずれの画像に対応するのか推測する。そして補正部は推測した対応関係に基づいて上記視線入力パラメータを補正し、補正後の視線入力パラメータを記憶装置180に記憶する。
これにより、ユーザーが表示画面に表示される複数の画像群を俯瞰することを利用して注視点マップが更新され、注視点マップと実際に表示されていた画像群の配置情報とに基づいて視線入力パラメータが補正されて新しいものに更新されるため、ユーザーに手間をかけずに視線入力パラメータの補正を精度よく行うことが可能となる。
図3は図2において説明した視線入力パラメータの補正方法をより具体的に説明するためのフローチャートである。
まず、ステップS1では、画像取得部150にて撮像装置110から取得した画像に基づいて、視線検出部160で視線位置を計測し、(X,Y)座標を付与する。
次に、ステップS2では、ステップS1で計測した視線位置の(X,Y)座標と、実行中のアプリケーションプログラムが表示制御装置210を介して表示装置120に表示させている画像群を視線入力パラメータの補正に用いる画像群として時刻データと共に記憶装置180に記憶する。
そして、ステップS3において今すぐ視線入力パラメータの補正(キャリブレーション)を行うべきか否かを判定し、行う必要が無いと判定された場合はステップS1に戻る。視線入力パラメータの補正要否の判定は、様々な方法によって判定できるが、例えば、特定期間(例えば、2〜3秒間)視線位置が所定の範囲(例えば、表示画面領域の1.5倍)に収まっているかどうかによって判定するようにすると良い。
ステップS3において今すぐ視線入力パラメータの補正が必要だと判定された場合、ステップS4において、特定期間(例えば、2〜3秒間)遡って記憶装置180に蓄積された各時刻tにおける視線位置の(X,Y)座標から各時刻tにおける視線の移動速度(瞬間的な移動量:dxt,dyt)を算出し、ステップS5へと進む。
ステップS5では、ステップS4で算出した上記特定期間中の各時刻tそれぞれにおける視線の移動速度が、一定時間所定の閾値速度(Tg:例えば100deg/秒)未満であるか否かを判定し、いずれの時刻においても移動速度が所定時間(例えば0.2〜0.3秒間)所定の閾値速度(Tg)以下とならなかった場合、即ちステップS5が否定判定であった場合はステップS1に戻り、少なくともいずれかの時刻において移動速度が上記所定時間、所定の閾値速度(Tg)以上となっていた場合、即ちステップS5が肯定判定であった場合はステップS6に進む。これにより、ある期間視線が留まったエリアあったとしても、視線の停留時間が非常に短いものはノイズとして対象から除外することができる。これにより、ノイズが除かれたデータ用いたより精度の高いパラメータ補正が可能となる。
ステップS6では、視線の移動速度が一定時間所定速度未満となった時刻の視線位置データの集合から、視線が表示装置120の画面上のある位置で留まった位置を判定する。具体的には、一定時間所定速度未満となった時刻の視線位置データの平均位置座標(avet(xt,yt))を算出する。
そして、ステップS7では、ステップS6で算出した平均位置座標(avet(xt,yt))を、記憶装置180内に設けられた注視点マップ(G(X,Y))に新しい注視点(X,Y)として加え、ステップS8へと進む。
ステップS8では、注視点マップ(G(X,Y))に蓄えられた複数の注視点(X,Y)のうち、所定数以上の注視点が集まった注視点グループ(G(X,Y)極大:以下クラスタと称する)を複数抽出し、ステップS9へと進む。このステップS8において選ばれた複数のクラスタは、図2における注視点マップ上の各エリア1〜5に相当する。このように検出された視線位置を適切なグループ(クラスタ)に分けて複数のエリアとして特定することで、表示装置に表示していた画像群とのマッチングを取ることが可能となる。
ステップS9では、ステップS8で抽出したクラスタ数(Nm(P))が、所定数(Tn)よりも大きいか否かを判定する。抽出したクラスタ数(Nm(P))が所定数(Tn)以下であったと判定すると、視線入力パラメータの補正を行うのに充分な数のデータがまだ得られていないとして、ステップS1に戻る。つまり、パラメータ補正に適さない少数のエリアのみで補正を行うことを防止できる。また、抽出したクラスタ数(Nm(P))が所定数(Tn)よりも大きいと判定すると、ステップS10へと進む。尚、上記所定数(Tn)は表示されていた画像群の数および配置に依存してその最小数が予め決定されている。
ステップS10では、抽出したクラスタの位置座標と、上記特定期間中において実行中のアプリケーションプログラムが表示制御装置210を介して表示装置120に表示させていた画像群の位置座標とをマッチングさせ、所定のアルゴリズムに基づいて視線入力パラメータの補正値候補(F)を算出する。
以下、一例として視線入力パラメータが視線位置座標を引数とする線形関数F(X,Y)で表されている場合を説明する。ここで、Xbef,Ybefを視線検出部160がオリジナルで算出した視線位置座標、Xaft、Yaftを視線入力パラメータが反映された視線位置座標、ax、ay、bx、byを本発明による補正対象となる定数とすると、F(X,Y)は、(Xaft=ax*Xbef+by、Yaft=ay*Xbef+by)となる。
上記ステップS10における所定のアルゴリズムは、例えば上記線形関数F(X,Y)の変数ax、ay、bx、byを変化させ、各クラスタiにおいて最も座標が近い画像との距離を算出し、それら距離の合計が最小となる変数ax、ay、bx、byを求めるアルゴリズムを採用することができる。
ステップS11では、ステップS10で算出した視線入力パラメータの補正値候補が正しいか否かを検証し、正しいと判定した場合はステップS12へと進み、正しくないと判定した場合はステップS1へと戻る。尚、線入力パラメータの補正値候補が正しいか否かの検証は、様々な方法によって判定できるが、例えば、(Xaft,Yaft)と画像との距離、即ち残存誤差の合計が閾値未満かどうかを判定することによって検証するようにすると良い。
ステップS13では、補正部200によって記憶装置180内の視線入力パラメータ(C)をステップS10で算出した視線入力パラメータの補正値候補(F)で置き換える補正を行う。
以上の説明した実施形態によれば、表示装置120の画面上で視線が留まった複数エリアと表示画面上の画像群とを対応付けてパラメータを補正することができるため、何らかの決定入力がなされた時点のユーザーの視線に基づいてパラメータを補正する手法と比べて、視線入力パラメータの補正を精度よく行うことが可能となる。
また、図4は、表示制御部210がユーザーの決定入力部130への入力によって実行中のアプリケーションプログラムの状態を遷移させ、表示中の画像群を新しい画像群に置き換えたときの例を示している。図4に示された画像群の置き換えは、新しい画像群として、置き換え前の画像群の画像配置と同一の画像配置の新しい画像群を用いることを特徴としている。これにより、置き換え前の画像群に基づいて蓄積した複数エリアの位置情報を新しい画像群とも対比させることが可能となり、より精度の高いパラメータの補正を行うことが可能となる。
また、図4に示した画像群は環状に並んで配置されており、図5に示した画像群はV字状または扇状に並んでいる。このように画像群を配置することで、画面上で視線が留まった複数エリアの数が少ない場合であっても、該複数エリアが画像群のどの画像にそれぞれ対応するのか対応付けることが容易となる。即ち、画像群を縦横のマトリックス状に当配列した場合に比べて上述した所定数(Tn)が満たすべき最小値を小さくすることができる。
100・・・視線入力装置、110・・・撮影装置、120・・・表示装置、130・・・決定入力装置、140・・・アプリケーションプログラム、150・・・顔画像取得部、160・・・視線検出部、170・・・注視マップ作成部、180・・・記憶装置、190・・・判定部、200・・・補正部、210・・・表示制御部、220・・・視線入力パラメータ補正装置。

Claims (6)

  1. 表示装置に表示された画像群のうち、ユーザーがどの画像を見ているかを判定するための視線入力パラメータの補正装置であって、
    ユーザーの顔画像を取得する顔画像取得部と、
    取得された顔画像に基づいてユーザーの視線位置を検出する視線検出部と、
    前記視線検出部の検出結果に基づいて前記表示装置の画面上で視線が留まった複数エリアを特定する注視点マップ作成部と、
    前記表示装置に表示されていた画像群の情報を記憶する記憶装置と、
    前記注視点マップ作成部によって得られた複数エリアと、前記記憶装置に記憶されていた前記画像群の情報とを比較し、前記複数エリアが前記画像群のいずれに対応するのか推測し、該推測結果に基づいて視線検出部のパラメータを補正する補正部と
    を備え
    前記補正部は、前記注視点マップ作成部が特定したエリアの数が所定の数未満であるときには、前記パラメータの補正を行わないことを特徴とする視線入力パラメータの補正装置。
  2. 前記注視点マップ作成部は、視線が留まった複数エリアのうち、視線の停留時間が所定の時間よりも短いエリアをノイズとして対象から除外することを特徴とする請求項1に記載の視線入力パラメータの補正装置。
  3. 前記注視点マップ作成部は、
    視線の移動速度を算出し、
    前記移動速度が所定速度未満であった場合に視線が留まったと判定し、
    前記視線が留まったと判定したときの視線位置を複数記憶し、
    前記複数記憶された視線位置を複数のグループに分けて前記複数のエリアを特定することを特徴とする請求項1または2に記載の視線入力パラメータの補正装置。
  4. 表示装置に画像群を表示させ、ユーザーがどの画像を見ているかを判定することで該ユーザーが前記画像群のいずれを選択しようとしているのか判定する視線入力装置であって、
    ユーザーの顔画像を取得する顔画像取得部と、
    取得された顔画像に基づいてユーザーの視線位置を検出する視線検出部と、
    前記表示装置に画像群を表示させる表示制御部と、
    前記視線検出部の検出結果に基づいて前記表示装置の画面上で視線が留まった複数エリアを特定する注視点マップ作成部と、
    前記表示装置に表示されていた画像群の情報を記憶する記憶装置と、
    前記注視点マップ作成部によって得られた複数エリアと、前記記憶装置に記憶されていた前記画像群の位置関係とを比較し、前記複数エリアが前記画像群のいずれに対応するのか推測し、該推測結果に基づいて視線検出部のパラメータを補正する補正部と、
    前記補正部によって補正されたパラメータに基づいて前記表示装置に表示された画像群のうち、ユーザーが現在どの画像を見ているかを判定する判定部と、を備え、
    前記表示制御部は、前記判定部によってユーザーがどの画像を見ているのか判定した後に、該ユーザーが見ている前記画像に対する決定入力操作がなされた場合には前記画像群を新しい画像群に置き換え
    前記補正部は、前記注視点マップ作成部が特定したエリアの数が所定の数未満であるときには、前記パラメータの補正を行わないことを特徴とする視線入力装置。
  5. 前記表示制御部は、環状、V字状または扇状に並んだ画像群を前記表示装置に表示させることを特徴とする請求項に記載の視線入力装置。
  6. 前記表示制御部は、前記新しい画像群として、置き換え前の画像群の画像配置と同一の画像配置の新しい画像群を用いることを特徴とする請求項またはに記載の視線入力装置。
JP2014140628A 2014-07-08 2014-07-08 視線入力装置 Expired - Fee Related JP6237504B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014140628A JP6237504B2 (ja) 2014-07-08 2014-07-08 視線入力装置
DE112015003148.0T DE112015003148T5 (de) 2014-07-08 2015-06-18 Sichtlinieneingabeparameterkorrekturvorrichtung und Sichtlinieneingabevorrichtung
US15/322,192 US20170153699A1 (en) 2014-07-08 2015-06-18 Sight line input parameter correction apparatus, and sight line input apparatus
PCT/JP2015/003061 WO2016006170A1 (ja) 2014-07-08 2015-06-18 視線入力パラメータの補正装置、及び視線入力装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014140628A JP6237504B2 (ja) 2014-07-08 2014-07-08 視線入力装置

Publications (3)

Publication Number Publication Date
JP2016018377A JP2016018377A (ja) 2016-02-01
JP2016018377A5 JP2016018377A5 (ja) 2016-06-30
JP6237504B2 true JP6237504B2 (ja) 2017-11-29

Family

ID=55063828

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014140628A Expired - Fee Related JP6237504B2 (ja) 2014-07-08 2014-07-08 視線入力装置

Country Status (4)

Country Link
US (1) US20170153699A1 (ja)
JP (1) JP6237504B2 (ja)
DE (1) DE112015003148T5 (ja)
WO (1) WO2016006170A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017004117A (ja) * 2015-06-05 2017-01-05 富士通テン株式会社 視線検出装置および視線検出方法
JP2018041219A (ja) * 2016-09-06 2018-03-15 アイシン・エィ・ダブリュ株式会社 視点取得システムおよび視点取得プログラム
JP2019017988A (ja) * 2017-07-18 2019-02-07 富士通株式会社 視線位置検出プログラム、視線位置検出装置及び視線位置検出方法
CN108563778B (zh) * 2018-04-24 2022-11-04 北京市商汤科技开发有限公司 一种关注信息的处理方法及装置、存储介质、电子设备
JP7200749B2 (ja) * 2019-02-27 2023-01-10 富士通株式会社 情報処理プログラム、情報処理方法及び情報処理装置
CN113094930B (zh) * 2021-05-06 2022-05-20 吉林大学 一种驾驶人行为状态数据采集装置和检测方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4950069A (en) * 1988-11-04 1990-08-21 University Of Virginia Eye movement detector with improved calibration and speed
JPH08272517A (ja) * 1995-03-28 1996-10-18 Sanyo Electric Co Ltd 視線対応選択装置及び方法並びに情報処理装置
JPH1049290A (ja) * 1996-08-05 1998-02-20 Sony Corp 情報処理装置および方法
JP3673834B2 (ja) * 2003-08-18 2005-07-20 国立大学法人山口大学 眼球運動を用いた視線入力コミュニケーション方法
US8970518B2 (en) * 2010-03-10 2015-03-03 Panasonic Intellectual Property Corporation Of America Click position control apparatus, click position control method, and touch sensor system
US10031576B2 (en) * 2010-06-09 2018-07-24 Dynavox Systems Llc Speech generation device with a head mounted display unit
JP5716345B2 (ja) * 2010-10-06 2015-05-13 富士通株式会社 補正値算出装置、補正値算出方法および補正値算出プログラム
JP5785015B2 (ja) * 2011-07-25 2015-09-24 京セラ株式会社 電子機器、電子文書制御プログラムおよび電子文書制御方法
US20140055337A1 (en) * 2012-08-22 2014-02-27 Mobitv, Inc. Device eye tracking calibration
JP2014067203A (ja) * 2012-09-26 2014-04-17 Kyocera Corp 電子機器、注視点検出プログラムおよび注視点検出方法
JP6007758B2 (ja) * 2012-12-03 2016-10-12 富士通株式会社 ユーザ操作端末装置、ユーザ操作端末プログラム
US9710130B2 (en) * 2013-06-12 2017-07-18 Microsoft Technology Licensing, Llc User focus controlled directional user input

Also Published As

Publication number Publication date
DE112015003148T5 (de) 2017-03-30
US20170153699A1 (en) 2017-06-01
JP2016018377A (ja) 2016-02-01
WO2016006170A1 (ja) 2016-01-14

Similar Documents

Publication Publication Date Title
JP6237504B2 (ja) 視線入力装置
JP7191714B2 (ja) デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法
JP5923746B2 (ja) 物体検出枠表示装置及び物体検出枠表示方法
JP2017091079A5 (ja)
KR101380997B1 (ko) 공간 인식을 통한 벡터 기반 제스처를 보정하는 방법 및 그 장치
JP2010193428A (ja) ロール角補正方法及び装置
JP2012110618A5 (ja)
JP6840697B2 (ja) 視線方向推定装置、視線方向推定方法、及び視線方向推定プログラム
JP2018004541A5 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP2016018377A5 (ja)
JP2006067272A (ja) カメラキャリブレーション装置及びカメラキャリブレーション方法
JP6515704B2 (ja) 車線検出装置及び車線検出方法
CN111226188B (zh) 使用追踪矢量的眼睛凝视跟踪校正
JP2017010241A5 (ja)
RU2018118363A (ru) Способы обнаружения и управления опорным маркером, отображаемым на устройстве отображения
JP2015001580A5 (ja)
US9349042B2 (en) Human detection and tracking apparatus, human detection and tracking method, and human detection and tracking program
JP2021022315A5 (ja)
EP3069935A1 (en) Rearview mirror angle setting system, method, and program
CN107735826A (zh) 信号机检测装置及信号机检测方法
CN104101305A (zh) 柔性显示器的弯曲运动的光学检测
JP2013092820A (ja) 距離推定装置
JPWO2018180597A1 (ja) 注意喚起装置
JP5847315B2 (ja) 表示装置
JP2020107031A (ja) 指示ジェスチャ検出装置、およびその検出方法

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20160506

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160511

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171016

R151 Written notification of patent or utility model registration

Ref document number: 6237504

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees