JPWO2009150747A1 - 視線入力によるユーザーインターフェース装置、ユーザーインターフェース方法、ユーザーインターフェースプログラム、及びユーザーインターフェースプログラムが記録された記録媒体 - Google Patents

視線入力によるユーザーインターフェース装置、ユーザーインターフェース方法、ユーザーインターフェースプログラム、及びユーザーインターフェースプログラムが記録された記録媒体 Download PDF

Info

Publication number
JPWO2009150747A1
JPWO2009150747A1 JP2010516698A JP2010516698A JPWO2009150747A1 JP WO2009150747 A1 JPWO2009150747 A1 JP WO2009150747A1 JP 2010516698 A JP2010516698 A JP 2010516698A JP 2010516698 A JP2010516698 A JP 2010516698A JP WO2009150747 A1 JPWO2009150747 A1 JP WO2009150747A1
Authority
JP
Japan
Prior art keywords
line
sight
user
target
user interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2010516698A
Other languages
English (en)
Inventor
杉原 源興
源興 杉原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Publication of JPWO2009150747A1 publication Critical patent/JPWO2009150747A1/ja
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement

Abstract

ユーザーの意思を的確に認識し、誤った判定を防止することができる視線入力によるユーザーインターフェース装置、ユーザーインターフェース方法、ユーザーインターフェースプログラム、及びユーザーインターフェースプログラムが記録された記録媒体を提供する。視線入力によるユーザーインターフェース装置は、ユーザーに対する情報を表示画面(14)上に表示する情報表示手段(16)と、前記情報表示手段(16)の表示画面(14)上において、ユーザーに視認されるべき視標(36−1乃至36−4)が移動するように、情報表示手段(16)を制御する表示制御手段(24)と、前記情報表示手段(16)の表示画面(14)上でのユーザーの視線を検出する視線検出手段(34)と、前記視線検出手段(34)からの視線情報に基づき、移動する視標(36−1乃至36−4)にユーザーの視線が随従するか否かを判定する視線判定手段(38)と、を含む。

Description

本願は、視線入力によるユーザーインターフェース装置、ユーザーインターフェース方法、ユーザーインターフェースプログラム、及びユーザーインターフェースプログラムが記録された記録媒体に関し、特に、ユーザーの視線情報を利用して機器の操作等を行うユーザーインターフェース装置、ユーザーインターフェース方法、ユーザーインターフェースプログラム、及びユーザーインターフェースプログラムが記録された記録媒体に関する。
ハンズフリー操作の分野では、音声を用いた機器操作が実用化されている。しかし、このような音声を用いた機器操作では、発話できる語彙に制限があったり、周囲の雑音による妨害があったり、あるいは、利用状況によっては発話そのものを差控える必要があるという課題がある。
そこで、現在、HMD(ヘッドマウントディスプレイ)、カメラ、カメラ付きパーソナルコンピュータ(PC)等の機器おいて、ユーザーの視線情報を利用して機器の操作を行う技術が提案されている。このように機器とのインターフェース(機器操作を含む)に視線情報を利用することは、ハンズフリー操作の利便性の観点から有効である。
視線入力による機器操作は、視線そのものが、既に広く使われているGUI(Graphic User Interface)におけるポインティングデバイスと同様の働きを行えることもあり、インターフェースとしての可能性が高い。従って、情報表示画面とユーザーの視線方向との対応付けを適切に行うことができれば、有力なインターフェースになり得ると言うことができる。
しかし、視線を用いたインターフェースには、次のような課題がある。
すなわち、視線入力の意図が機器に適切に伝達されず、この結果、機器が所望の動作を行わなかったり、誤動作することがある。これは、視線入力に複数の意味を持たせることが困難であることに起因する。例えば、GUIにおける画面操作に視線入力を用いる場合を考えると、画面上の特定の位置を指示して当該位置に描画されている操作ボタンに関心があることを示すことはできるが、更に進んで、当該ボタンを押圧すなわち操作する意思を伝達することは容易ではない。すなわち、マウスによるGUI操作の場合には、画面に表示されたボタンにカーソルを合わせ当該ボタンをクリックすることにより当該ボタンの操作が行われるが、視線入力の場合には、ボタンをクリックすることに相当する決定の意思を伝達することは困難である。
上記の課題に鑑みて、特許文献1乃至特許文献3に記載された技術が提案されている。
特開平07―283974号公報 特開平08―030380号公報 特開平09−018775号公報
特許文献1の視線検出装置を備えたビデオカメラにおいては、画面上に表示された操作対象に対して、ユーザーの視線が所定回数以上あるいは所定時間以上駐留した場合に、ユーザーによる機能選択の意思があると判断して当該機能を実行している。
特許文献2の表示装置においては、画面上の対象物を指示するために視線を利用し、当該対象物に対する操作を決定するためにキーボード等のキー操作を利用している。
特許文献3の視線入力装置においては、機器の誤動作を防止するために、視線による選択操作が行われて画面が切り換わった直後の所定の期間、次の選択操作の受付けを禁止している。
上記特許文献1乃至特許文献3の技術においては、次のような問題がある。
特許文献1の技術は、画面に表示された視標に対する視線の駐留時間あるいは駐留回数に基づき、当該視標に対するユーザーの選択意思を判断するものである。しかし、視線の駐留時間からユーザーの選択意思を判断する方法では、ユーザーが無意識に一点を見つめている場合、ユーザーが特段の意思を持たない状態であるにもかかわらず、視標に対するユーザーの選択意思があるものと誤って判断し、この結果、誤認識が生じる可能性がある。また、視線の駐留回数からユーザーの選択意思を判断する方法では、視標に対するユーザーの視線が定まらない期間に、ユーザーの視線が偶然に視標に所定回数だけ一致してしまい、この結果、誤認識が生じる可能性がある。
特許文献2の技術は、ユーザーの明確な意思決定を視線ではなくキーボード等のキー操作すなわち手入力で行うものであり、このように手入力を必要とすることは、ハンズフリー操作を目的とするインターフェースとして問題である。
特許文献3の技術は、表示画面が切り換わった直後の所定期間に画面上の視標とユーザーの視線が偶然に一致してしまうような場合を回避するのものである。しかし、この技術は、通常の表示画面での操作時においては、誤判定を生じる可能性があり、従って、視線入力に基づいて操作対象に対するユーザーの関心や決定意思を判断するための有効な手法を提供するものではない。
本願は、上記課題に鑑みて為されたものであり、その目的の一例は、ユーザーの意思を的確に認識し、誤った判定を防止することができる視線入力によるユーザーインターフェース装置、ユーザーインターフェース方法、ユーザーインターフェースプログラム、及びユーザーインターフェースプログラムが記録された記録媒体を提供することにある。
上記の課題を解決するために、請求項1記載の発明は、ユーザーに対する情報を表示画面上に表示する情報表示手段と、前記情報表示手段の表示画面上において、ユーザーに視認されるべき視標が移動するように、情報表示手段を制御する表示制御手段と、前記情報表示手段の表示画面上でのユーザーの視線を検出する視線検出手段と、前記視線検出手段からの視線情報に基づき、移動する視標にユーザーの視線が随従するか否かを判定する視線判定手段と、を含むことを特徴とする視線入力によるユーザーインターフェース装置である。
上記の課題を解決するために、請求項9記載の発明は、表示画面上において、ユーザーに視認されるべき視標を移動させる視標移動工程と、前記表示画面上でのユーザーの視線を検出する視線検出工程と、前記視線検出工程により得られる視線情報に基づき、移動する視標にユーザーの視線が随従するか否かを判定する視線判定工程と、を含むことを特徴とする視線入力によるユーザーインターフェース方法である。
上記の課題を解決するために、請求項10載の発明は、コンピュータを、請求項1乃至8のうちいずれか1項に記載の装置として機能させることを特徴とする視線入力によるユーザーインターフェースプログラムである。
上記の課題を解決するために、請求項11載の発明は、請求項10に記載のプログラムが、前記コンピュータにより読取可能に記録されていることを特徴とする記録媒体である。
HMD(ヘッドマウントディスプレイ)におけるユーザーインターフェース装置の構成図である。 本願の実施の形態によるユーザーインターフェース装置のブロック回路図である。 表示画面上の状態を示す図である。 視線判定部の構成を示す図である。 視線検出部の構成を示す図である。 視点データの書式例を示す図である。 判定結果の書式例を示す図である。 本願の実施の形態によるユーザーインターフェース装置の動作を示すフローチャート図である。 表示画面上の状態を示す図である。 表示画面上の状態を示す図である。 表示画面上の状態を示す図である。 表示画面上の状態を示す図である。 本願の他の実施の形態によるユーザーインターフェース装置のブロック回路図である。 視線判定部の構成を示す図である。 本願の更に他の実施の形態によるユーザーインターフェース装置の情報表示部を示す図である。 本願の尚更に他の実施の形態によるユーザーインターフェース装置の視線判定部を示す図である。 本願の尚更に他の実施の形態によるユーザーインターフェース装置の動作を示すフローチャート図である。 表示画面上の状態を示す図である。 表示画面上の状態を示す図である。 表示画面上の状態を示す図である。 表示画面上の状態を示す図である。 表示画面上の状態を示す図である。 表示画面上の状態を示す図である。
符号の説明
14:表示画面
16:情報表示部
24:表示制御部
32:視線計測部
34:視線検出部
38:視線判定部
40:随従判定部
36−1乃至36−4:視標(機能アイコン)
50:視点
56、58、60、62、64:発光素子(LED)
66:注視判定部
次に、本願を実施するための最良の形態について、図面を用いて説明する。
図1には、HMD(ヘッドマウントディスプレイ)におけるユーザーインターフェース装置の構成が示されている。
図1において、符号10は、ユーザーに対して情報を表示する情報表示ブロックを示し、符号12は、ユーザーの視線を検出する視線検出ブロックを示す。
前記情報表示ブロック10は、ユーザーに対する情報を表示画面14上に表示するLCD(Liquid Crystal Display)等の情報表示部16を含み、表示画面14上の情報を示す光は、光学系としての凸レンズ18及びハーフミラー20を介して、ユーザーの眼球22に到達する。これにより、ユーザーの眼球22は、表示画面14上の情報を認識することができる。なお、情報表示部16には表示制御部24が接続されており、表示制御部24により、情報表示部16の表示画面14上に表示されるべき情報の表示が制御される。
前記視線検出ブロック12は、赤外線LED(Light Emitting Diode)26を含み、LED26からの赤外線は、光学系としてのハーフミラー28、凸レンズ30、及びハーフミラー20を介して、ユーザーの眼球22に到達する。そして、眼球22からの反射光は、光学系としてのハーフミラー20、凸レンズ30、及びハーフミラー28を介して、視線計測部32に到達する。視線計測部32は、眼球22からの反射光に基づき、眼球22の向きすなわち視線を計測することができる。なお、視線計測部32からの信号は、視線検出部34に出力される。
次に、図2には、本願の実施の形態によるユーザーインターフェース装置のブロック回路が示されており、図2において、図1と同一部材には同一符号が付されている。
図2において、情報表示部16は、ユーザーに対する情報としての視標を表示画面上に表示するものである。図3を参照すると、情報表示部16の表示画面14は、機能選択画面であり、表示画面14上には、4つの視標36−1乃至36―4が表示されている。4つの視標36−1乃至36−4は、それぞれ、機能1乃至機能4を示す。なお、視標36−1乃至36−4により示される機能1乃至機能4は、その内容が特に限定されるわけではない。
図2において、表示制御部24は、前記情報表示部16の表示画面14上における視標36−1乃至36−4の移動を制御する。すなわち、図3を参照すると、表示制御部24の制御により、表示画面14上の2つの視標36−1及び36−3は、図の右方向に移動し、一方、他の2つの視標36−2及び36−4は、図の左方向に移動する。なお、表示画面14上において、2つの視標36−1及び36−3は、図の右方向の端部に到達すると、今度は図の左方向に移動し、同様に、他の2つの視標36−2及び36−4は、図の左方向に到達すると、今度は図の右方向に移動する。
図2において、視線検出部34は、情報表示部16の表示画面14を見ているユーザーの視線を検出する。当該視線検出部34からの視線情報に基づき、視線判定部38は、情報表示部16の表示画面14上で移動する視標36−1乃至36−4のいずれかにユーザーの視線が随従するか否かを判定する。
次に、本願の実施の形態によるユーザーインターフェース装置の特徴事項を説明する。
表示制御部24は、情報表示部16の表示画面14上で視標36−1乃至36−4を所定の速度で移動させる(図3を参照)。ここで、視標36−1乃至36−4は、機能アイコン等のユーザーが視線を向けるべき対象となるものである。視線判定部30は、図4に示されるように、随従判定部40を含み、当該随従判定部40は、視線検出部34からの視点データ列に基づき、視標36−1乃至36−4のいずれかにユーザーの視線が随従するか否か、すなわち、いずれかの視標にユーザーの視線が滑らかに随従したか否かを判定する。
ここで、随従眼球運動について説明する。人間は自発的に眼球を滑らかに動かすことができず、すなわち、人間は移動している対象物や、実際には移動していなくても移動しているように感じる刺激(仮現運動刺激と呼ばれる)を眼で追った場合にのみ、眼球を滑らかに動かすことができるのである。このとき観測される眼球の動きは、随従眼球運動と呼ばれる。
本願の実施の形態における随従判定部40は、ユーザーの視線に基づく上述した随従眼球運動を利用し、視点データ列からユーザーの意思を認識しようとするものである。
なお、坂下らによる文献「画像処理による3次元眼球運動計測」(実験力学 Vol16、No.3、2006年9月)には、眼球運動の種別とその特性、そして測定方法に関する一般的な方法が記載されている。
次に、情報表示部16、視線検出部34、視線判定部38、及び表示制御部24について、より詳細に説明する。
情報表示部16は、ユーザーに対するコンテンツ視聴や機器操作のための情報を表示画面14上に提示する。特に、ユーザーが機器操作の際に視線を向ける対象となる視標36−1乃至36−4を表示画面14上に表示する(図3を参照)。なお、視線検出部34から供給される視点データに基づき、ユーザーの視点を表示画面14上にオーバーレイ表示してもよい。
視線検出部34について説明すると、図5には、視線検出部34の構成が示されている。図5を参照すると、視線計測部32は、ユーザーの眼球の向きを捉える機能を有しており、当該視線計測部32からの出力は、眼球の向きを示す数値信号から構成され、すなわち、眼球の向きを示すX成分信号42X及びY成分信号42Yから構成される。X成分信号42X及びY成分信号42Yは、表示画面14上の視点の位置と整合するように、それぞれ、増幅器44X及び44Yで増幅され、適当な時間間隔でA/D変換器46X及び46YによりA/D変換された後、タイムスタンプとともに出力される。A/D変換器46X及び46Yからの出力は、統合部48に供給されるようになっており、図6は、統合部48から出力される視点データの書式例を示す。図6を参照すると、各タイムスタンプについて、眼球の向きを示すX座標の数値及びY座標の数値が示されている。
視線判定部38は、前述したように、随従判定部40を含む(図4を参照)。随従判定部40は、視線検出部34から供給される一連の視点データ列に基づき、ユーザーの視線が表示画面14上のある位置から他の位置まで滑らかに移動したことを検出すると、そのような状態すなわち随従眼球運動を示す判定結果を出力する。図7は、視線判定部38から出力される判定結果の書式例を示す。
表示制御部24は、情報表示部16の表示画面14の制御を行う。すなわち、表示制御部24は、前述したように、視標36−1乃至36−4が表示画面14上で移動するように、情報表示部16の表示画面14を制御する(図3を参照)。また、表示制御部24は、視線判定部38から供給される判定結果に基づき、ユーザーの機器操作の要求を認識し、この認識に応じて情報表示部16における表示画面14を変化させる。
以上のように、本願の実施の形態によるユーザーインターフェース装置においては、表示制御部24は、情報表示部16の表示画面14上で視標36−1乃至36−4を移動させてユーザーの随従眼球運動を誘発し、視線判定部38内の随従判定部40により、移動させた視標36−1乃至36−4のいずれかに対するユーザー視線の追跡を判定する。
このように、偶発的には生じ難いユーザーの随従眼球運動を利用しているので、ユーザーの意思を的確に認識し、誤った判定を防止することができる。
次に、上記のように構成された本願の実施の形態によるユーザーインターフェース装置の動作を、図8のフローチャート、及び図3、図9乃至図12の表示画面の状態を参照しながら説明する。
図8において、ステップS1で機能選択動作が開始され、ステップS2で。情報表示部16がユーザーに機能選択画面14を提示し、表示制御部24の制御により、視標としての機能アイコン36−1乃至36−4が動いている(図3を参照)。
ステップS3において、情報表示部16は、視線検出部34から供給される視点データに基づき、ユーザーの視点50を表示してもよい(図9を参照)。
ステップS4において、機能1を示す視標36−1を選択したいユーザーは、動いている当該視標36−1を眼で追う(図10及び図11を参照)。
ステップS5において、ある程度の期間ユーザーによる機能1を示す視標36−1の追跡が行われると、視線判定部38は、「随従」を示す判定結果を出力する。
ステップS6において、表示制御部24は、判定結果に基づき、ユーザーによる機能1を示す視標36−1の追跡(すなわち機能1の選択の意思)を認識する。
ステップS7において、表示制御部24は、情報表示部16を制御し、機能1用の表示画面14を表示し(図12を参照)、ステップS8で終了する。
なお、図12においては、機能1用の表示画面14が表示されているが、この表示画面14上には、1つの視標52が表示されている。この視標52は、「戻る」を示す視標であり、移動する当該視標52にユーザーの視線が随従すると、「戻る」の機能が実行される。これにより、図12に示される機能1用の表示画面14から1つ前の画面に戻り、すなわち、前記図3に示される表示画面14が表示されることになる。
以上説明したように、本願の実施の形態によるユーザーインターフェース装置によれば、表示制御部による制御により、表示画面上の1つまたは複数の視標(機能アイコン等)が各々所定の速度で移動する。そして、当該移動している視標の何れかをユーザーが眼で追ったときに観測される随従眼球運動を視線判定部が検出すると、ユーザーが明確な意思を持って当該視標を選択したと判断され、すなわち、当該指標に対応する機能を選択したと判断される。かかる手法によれば、視線入力によるユーザーと機器との間の意思疎通の精度は、従来手法に比べて格段に向上する。なぜならば、偶発的には起こり難い随従眼球運動を利用して、すなわちユーザーの明確な意思により起こる随従眼球運動を利用して、ユーザーと機器との間のコミュニケーションを行うからである。
これにより、機器の誤動作を軽減することができ、更に、構成として簡単な視標の動きを眼で追うだけであるので、機器の操作方法として簡単である。
なお、本願の実施の形態によれば、表示制御部が表示画面上の視標を移動させ、ユーザーの随従眼球運動の誘発を試みるので、ユーザーは、視標を眼で追うことにより該当する機能の選択を的確に行うことができ、従って、機器は、ユーザーによる機能選択の意思を的確に認識することができる。
また、本願の実施の形態において、複数の視標を表示画面上で移動させる際に、近くの視標はなるべく異なる動きをするように制御し、例えば、近くの複数の視標が異なる方向に動いたり、あるいは、複数の視標が異なる速度で動くように制御してもよい。このように近くの複数の視標が動くときには、視線の検出精度がそれほど高くない場合においても、ユーザーがどの視標を追跡したかを容易に判定することができる。
また、本願の実施の形態において、視標を表示画面上で(ある方向に)移動させる際に、最初は遅い速度で移動させてもよい。このように視標を最初は遅い速度で移動させる場合には、当該視標を追跡しようとするユーザーが視標の動きを容易に捉えることができる。
次に、図13には、本願の他の実施の形態によるユーザーインターフェース装置のブロック回路が示されている。
図13において、視線判定部38は、表示制御部24に判定結果を示す信号52を供給し、また、表示制御部24は、視線判定部38に「視標を動作させている期間」を示すゲート信号54を供給する。このゲート信号54は、図14に示されるように、視線判定部38内の随従判定部40に供給される。
すなわち、ユーザーの視線の随従判定を行う期間としては、表示制御部24が視標を動作させている期間だけで十分であるので、表示制御部24は、視線判定部38に「視標を動作させている期間」を示すゲート信号54を供給し、視線判定部38は、表示制御部24が視標を動作させている期間だけ、ユーザーの視線の随従判定を行うことになる。
このような構成によれば、視線判定部38の負荷が軽減される。更に、他の要因(例えば、表示制御部による視標の移動ではなく別の動く物体をユーザーが偶然に眼で追った場合等)により生じる随従眼球運動をユーザーの意図的な操作であると誤認識する可能性を防ぐことができる。
次に、図15には、本願の更に他の実施の形態によるユーザーインターフェース装置が示されている。
図15においては、情報表示部16が移動する視標を表現する手段として、実際には移動しない固定された複数の発光素子が使用されている。すなわち、情報表示部16の表示画面14上には、ユーザーが選択可能である5つの機能(機能1乃至機能5)の横に、それぞれ、4つの発光素子(例えばLED)56乃至56、58乃至58、60乃至60、62乃至62、及び64乃至64が整列して配置されている。表示制御部24は、各機能1乃至5の横に配置されたLED56乃至56、58乃至58、60乃至60、62乃至62、及び64乃至64を端から順に(例えば、左端から右端に順に)点滅させ、当該LEDの点滅をユーザーに眼で追わせる。例えば、図15においては、4つのLED60乃至60のうち左端のLED60が点滅されており、その後、右隣のLED60が点滅させられ、このようにして、4つのLED60乃至60が左端から右端に順に点滅される。
以上のように、情報表示部16の表示画面14上において、LED56乃至56、58乃至58、60乃至60、62乃至62、及び64乃至64を端から順に点滅させることにより、実際には動いていないが動いているように見える刺激(仮現運動刺激)を用いて、ユーザーの視線の随従眼球運動を誘発する。
このように仮現運動刺激を用いてユーザーの視線の随従眼球運動を誘発する構成によれば、低コストな表示手段(例えばLED等)を用いて、本願が意図する信頼性の高い視線入力によるユーザーインターフェース装置を実現することができる。
次に、図16には、本願の尚更に他の実施の形態によるユーザーインターフェース装置が示されている。
図16において、視線判定部38は、随従判定部40に加えて、注視判定部66を備える。この注視判定部66は、一連の視点データ列の信号68に基づき、ユーザーの視線が表示画面14上のある特定エリアに集中していることを判定すると、その旨の判定結果信号70を多重部72に供給する。随従判定部40は、ユーザーの視線が表示画面14上のある位置から別の位置まで滑らかに移動したことを判定すると、その旨の判定結果信号74を多重部72に供給する。多重部72は、判定結果信号70あるいは判定結果信号74のうちいずれかを受け取ると、その旨の判定結果信号76を表示制御部24に出力する。
これにより、全体として例えば図17のフローチャートに示すような動作が可能になる。すなわち、表示制御部24は、表示画面14上で定常的に全ての視標を移動させるのではなく、ユーザーが注視している視標のみを移動させて、当該視標に対する随従眼球運動を誘発することが可能となる。
以下、図17のフローチャートに示される動作を図18乃至図23の表示画面の状態を参照しながら説明する。
図17において、ステップS10で機能選択動作が開始され、ステップS11で、情報表示部16がユーザーに機能選択画面14を提示する(図18を参照)。図18では、5つの機能を選択できる様子が表されており、すなわち、機能1乃至機能5をそれぞれ示す視標36−1乃至36−5が示されている。
ステップS12で、ユーザーが機能3を選択しようとして、当該機能3を示す視標すなわちアイコン36−3を見る。ここで、情報表示部16は、機能3のアイコン36−3にユーザーの視点50を表示してもよい(図19を参照)。
ステップS13で、ユーザーが所定時間以上、機能3のアイコン36−3を見ると、注視判定部66は、注視を表す判定結果信号70を出力する。
ステップS14で、表示制御部24は、ユーザーが機能3に興味があると判断し、情報表示部16に対して機能3のアイコン36−3の移動を指示する。
ステップS15で、情報表示部16は、表示制御部24の指示により、機能3のアイコン36−3を右方向に適切な速度で移動する(図20を参照)。
ステップS16で、ユーザーは、移動した機能3のアイコン36−3を眼で追跡する。このとき、情報表示部16は、追跡中のユーザーの視点50を表示してもよい(図21を参照)。
ステップS17で、情報表示部16は、表示画面14上で機能3のアイコン36−3を移動させ、ユーザーは、当該機能3のアイコン36−3を眼で追跡する(図22を参照)。
ステップS18で、ユーザーによる機能3のアイコン36−3の追跡が終了すると、随従判定部40は、随従を表す判定結果信号を出力する。
ステップS19で、表示制御部24は、ユーザーが機能3を選択したと判断し、情報表示部16に対して機能3の表示画面14を表示するように指示する。
ステップS20で、情報表示部16は、表示制御部24の指示により、機能3の表示画面14を表示し(図23を参照)、ステップS21で終了する。
なお、図23においては、機能3用の表示画面14が表示されているが、この表示画面14上には、1つの視標52が表示されている。この視標52は、「戻る」を示す視標であり、移動する当該視標52にユーザーの視線が随従すると、「戻る」の機能が実行される。これにより、図23に示される機能3用の表示画面14から1つ前の画面に戻り、すなわち、前記図18に示される表示画面14が表示されることになる。
以上の構成によれば、視線判定部内には、随従判定部に加えて、注視判定部が設けられており、表示制御部は、注視されている視標だけを移動させてユーザーの随従眼球運動を誘発させる。
従って、ユーザーの視点を表示画面上にオーバーレイ表示しないような使用環境において、注視している所望の視標が動かないことを通じて、ユーザーは視線検出機構の調整ずれ等、機器の不具合を知ることができる。
また、人間にとって目障りである周辺視(視線から外れた方向にある物を見ること)により動く物体を検知するという事態を回避することができる。
また、ユーザーが注視した視標を移動させる際に、当該視標を移動させたにもかかわらず視線が視標を追跡しない場合には、当該視標の移動を停止して視標を元の位置に戻してもよい。このような構成によれば、注視の誤判定に基づく無駄な視標移動動作を最小限にとどめることができ、これにより、新たに注視判定を待機する待機動作に入ることができる。
なお、本願は、HMD(ヘッドマウントディスプレイ)、カメラ/カムコーダ(及びこれらのビューファインダーを用いたユーザーインターフェース)、カメラを搭載したPC、PDA、携帯電話、ゲーム機等に適用が可能である。
また、本願は、上記実施の形態に限定されるものではない。上記実施の形態は、例示であり、本願の請求の範囲に記載された技術的思想と実質的に同一な構成を有し、同様な作用効果を奏するものは、いかなるものであっても本願の技術的範囲に包含される。
【0003】
かし、視線の駐留時間からユーザーの選択意思を判断する方法では、ユーザーが無意識に一点を見つめている場合、ユーザーが特段の意思を持たない状態であるにもかかわらず、視標に対するユーザーの選択意思があるものと誤って判断し、この結果、誤認識が生じる可能性がある。また、視線の駐留回数からユーザーの選択意思を判断する方法では、視標に対するユーザーの視線が定まらない期間に、ユーザーの視線が偶然に視標に所定回数だけ一致してしまい、この結果、誤認識が生じる可能性がある。
[0012]
特許文献2の技術は、ユーザーの明確な意思決定を視線ではなくキーボード等のキー操作すなわち手入力で行うものであり、このように手入力を必要とすることは、ハンズフリー操作を目的とするインターフェースとして問題である。
[0013]
特許文献3の技術は、表示画面が切り換わった直後の所定期間に画面上の視標とユーザーの視線が偶然に一致してしまうような場合を回避するのものである。しかし、この技術は、通常の表示画面での操作時においては、誤判定を生じる可能性があり、従って、視線入力に基づいで操作対象に対するユーザーの関心や決定意思を判断するための有効な手法を提供するものではない。
[0014]
本願は、上記課題に鑑みて為されたものであり、その目的の一例は、ユーザーの意思を的確に認識し、誤った判定を防止することができる視線入力によるユーザーインターフェース装置、ユーザーインターフェース方法、ユーザーインターフェースプログラム、及びユーザーインターフェースプログラムが記録された記録媒体を提供することにある。
課題を解決するための手段
[0015]
上記の課題を解決するために、請求項1記載の発明は、ユーザーに対する情報を表示画面上に表示する情報表示手段と、前記情報表示手段の表示画面上において、ユーザーに視認されるべき視標が移動するように、情報表示手段を制御する表示制御手段と、前記情報表示手段の表示画面上でのユーザーの視線を検出する視線検出手段と、前記視線検出手段からの視線情報に基づき、前記移動する視標に対応する機能が選択されたか否かを判断するために、当該移動する視標にユーザーの視線が随従するか否かを判定する視線判定手段と、を含む視線入力による
【0004】
ユーザーインターフェース装置において、前記視線判定手段は、前記視線検出手段からの視線情報に基づき、ユーザーの視線が1つの視標を注視していることを判定する注視判定手段を備え、前記注視判定手段がユーザーの視線が1つの視標を注視していることを判定すると、前記表示制御手段は、視標が移動するように情報表示手段を制御し、前記視線判定手段は、移動する視標にユーザーの視線が随従するか否かを判定することを特徴とする視線入力によるユーザーインターフェース装置である。
[0016]
上記の課題を解決するために、請求項9記載の発明は、表示画面上において、ユーザーに視認されるべき視標を移動させる視標移動工程と、前記表示画面上でのユーザーの視線を検出する視線検出工程と、前記視線検出工程により得られる視線情報に基づき、前記移動する視標に対応する機能が選択されたか否かを判断するために、当該移動する視標にユーザーの視線が随従するか否かを判定する視線判定工程と、を含む視線入力によるユーザーインターフェース方法において、前記視線判定工程は、前記視線検出工程で検出された視線情報に基づき、ユーザーの視線が1つの視標を注視していることを判定する注視判定工程を備え、前記注視判定工程においてユーザーの視線が1つの視標を注視していることが判定されると、前記視標移動工程では、視標が移動され、前記視線判定工程では、移動する視標にユーザーの視線が随従するか否かが判定されることを特徴とする視線入力によるユーザーインターフェース方法である。
[0017]
上記の課題を解決するために、請求項10載の発明は、コンピュータを、請求項1乃至8のうちいずれか1項に記載の装置として機能させることを特徴とする視線入力によるユーザーインターフェースプログラムである。
[0018]
上記の課題を解決するために、請求項11載の発明は、請求項10に記載のプログラムが、前記コンピュータにより読取可能に記録されていることを特徴とする記録媒体である。
図面の簡単な説明
[0019]
[図1]HMD(ヘッドマウントディスプレイ)におけるユーザーインターフェース装置の構成図である。
[図2]本願の実施の形態によるユーザーインターフェース装置のブロック回路図である。
[図3]表示画面上の状態を示す図である。
[図4]視線判定部の構成を示す図である。
[図5]視線検出部の構成を示す図である。
[図6]視点データの書式例を示す図である。
[図7]判定結果の書式例を示す図である。
[図8]本願の実施の形態によるユーザーインターフェース装置の動作を示すフローチャート図である。
[図9]表示画面上の状態を示す図である。
[図10[表示画面上の状態を示す図である。
[図11]表示画面上の状態を示す図である。
[図12]表示画面上の状態を示す図である。
上記の課題を解決するために、請求項1記載の発明は、ユーザーに対する情報を表示画面上に表示する情報表示手段と、前記情報表示手段の表示画面上において、ユーザーに視認されるべき視標が移動するように、情報表示手段を制御する表示制御手段と、前記情報表示手段の表示画面上でのユーザーの視線を検出する視線検出手段と、前記視線検出手段からの視線情報に基づき、前記移動する視標に対応する機能が選択されたか否かを判断するために、当該移動する視標にユーザーの視線が随従するか否かを判定する視線判定手段と、を含む視線入力によるユーザーインターフェース装置において、前記視線判定手段は、前記視線検出手段からの視線情報に基づき、ユーザーの視線が1つの視標を注視していることを判定する注視判定手段を備え、前記注視判定手段がユーザーの視線が1つの視標を注視していることを判定すると、前記表示制御手段は、視標が移動するように情報表示手段を制御し、前記視線判定手段は、移動する視標にユーザーの視線が随従するか否かを判定することを特徴とする視線入力によるユーザーインターフェース装置である。
上記の課題を解決するために、請求項記載の発明は、表示画面上において、ユーザーに視認されるべき視標を移動させる視標移動工程と、前記表示画面上でのユーザーの視線を検出する視線検出工程と、前記視線検出工程により得られる視線情報に基づき、前記移動する視標に対応する機能が選択されたか否かを判断するために、当該移動する視標にユーザーの視線が随従するか否かを判定する視線判定工程と、を含む視線入力によるユーザーインターフェース方法において、前記視線判定工程は、前記視線検出工程で検出された視線情報に基づき、ユーザーの視線が1つの視標を注視していることを判定する注視判定工程を備え、前記注視判定工程においてユーザーの視線が1つの視標を注視していることが判定されると、前記視標移動工程では、視標が移動され、前記視線判定工程では、移動する視標にユーザーの視線が随従するか否かが判定されることを特徴とする視線入力によるユーザーインターフェース方法である。
上記の課題を解決するために、請求項記載の発明は、コンピュータを、請求項1乃至のうちいずれか1項に記載の装置として機能させることを特徴とする視線入力によるユーザーインターフェースプログラムである。
上記の課題を解決するために、請求項10載の発明は、請求項に記載のプログラムが、前記コンピュータにより読取可能に記録されていることを特徴とする記録媒体である。

Claims (11)

  1. ユーザーに対する情報を表示画面上に表示する情報表示手段と、
    前記情報表示手段の表示画面上において、ユーザーに視認されるべき視標が移動するように、情報表示手段を制御する表示制御手段と、
    前記情報表示手段の表示画面上でのユーザーの視線を検出する視線検出手段と、
    前記視線検出手段からの視線情報に基づき、移動する視標にユーザーの視線が随従するか否かを判定する視線判定手段と、
    を含むことを特徴とする視線入力によるユーザーインターフェース装置。
  2. 請求項1記載の装置において、
    前記視線判定手段は、前記視線検出手段からの視線情報に基づき、ユーザーの視線が1つの視標を注視していることを判定する注視判定手段を備え、
    前記注視判定手段がユーザーの視線が1つの視標を注視していることを判定すると、前記表示制御手段は、視標が移動するように情報表示手段を制御し、前記視線判定手段は、移動する視標にユーザーの視線が随従するか否かを判定することを特徴とする視線入力によるユーザーインターフェース装置。
  3. 請求項1又は2のうちいずれか1項に記載の装置において、
    前記情報表示手段は、複数の整列配置された光源を備え、
    当該複数の光源を順次点滅させることにより、情報表示手段の表示画面上において、視標が移動しているように見せることを特徴とする視線入力によるユーザーインターフェース装置。
  4. 請求項1乃至3のうちいずれか1項に記載の装置において、
    前記表示制御手段は、前記情報表示手段の表示画面上において、複数の視標が異なる向き又は異なる速度で移動するように、情報表示手段を制御することを特徴とする視線入力によるユーザーインターフェース装置。
  5. 請求項1乃至4のうちいずれか1項に記載の装置において、
    前記表示制御手段は、前記情報表示手段の表示画面上において、視標が最初は遅い速度で移動するように、情報表示手段を制御することを特徴とする視線入力によるユーザーインターフェース装置。
  6. 請求項1乃至5のうちいずれか1項に記載の装置において、
    前記表示制御手段が情報表示手段の表示画面上において視標が移動するように情報表示手段を制御している期間に、前記視線判定手段は、移動する視標にユーザーの視線が随従するか否かを判定することを特徴とする視線入力によるユーザーインターフェース装置。
  7. 請求項1乃至6のうちいずれか1項に記載の装置において、
    前記表示制御手段が情報表示手段の表示画面上において視標が移動するように情報表示手段を制御している期間のうち早い時点において、前記視線判定手段が移動する視標にユーザーの視線が随従することを判定しない場合には、前記視線判定手段は、未随従の判定結果を出力することを特徴とする視線入力によるユーザーインターフェース装置。
  8. 請求項7に記載の装置において、
    前記視線判定手段が未随従の判定結果を出力した場合には、前記表示制御手段は、情報表示手段の表示画面上における視標の移動を中止し、当該視標を元の位置に戻すことを特徴とする視線入力によるユーザーインターフェース装置。
  9. 表示画面上において、ユーザーに視認されるべき視標を移動させる視標移動工程と、
    前記表示画面上でのユーザーの視線を検出する視線検出工程と、
    前記視線検出工程により得られる視線情報に基づき、移動する視標にユーザーの視線が随従するか否かを判定する視線判定工程と、
    を含むことを特徴とする視線入力によるユーザーインターフェース方法。
  10. コンピュータを、請求項1乃至8のうちいずれか1項に記載の装置として機能させることを特徴とする視線入力によるユーザーインターフェースプログラム。
  11. 請求項10に記載のプログラムが、前記コンピュータにより読取可能に記録されていることを特徴とする記録媒体。
JP2010516698A 2008-06-13 2008-06-13 視線入力によるユーザーインターフェース装置、ユーザーインターフェース方法、ユーザーインターフェースプログラム、及びユーザーインターフェースプログラムが記録された記録媒体 Ceased JPWO2009150747A1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2008/060889 WO2009150747A1 (ja) 2008-06-13 2008-06-13 視線入力によるユーザーインターフェース装置、ユーザーインターフェース方法、ユーザーインターフェースプログラム、及びユーザーインターフェースプログラムが記録された記録媒体

Publications (1)

Publication Number Publication Date
JPWO2009150747A1 true JPWO2009150747A1 (ja) 2011-11-10

Family

ID=41416468

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010516698A Ceased JPWO2009150747A1 (ja) 2008-06-13 2008-06-13 視線入力によるユーザーインターフェース装置、ユーザーインターフェース方法、ユーザーインターフェースプログラム、及びユーザーインターフェースプログラムが記録された記録媒体

Country Status (3)

Country Link
US (1) US20110169730A1 (ja)
JP (1) JPWO2009150747A1 (ja)
WO (1) WO2009150747A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10593092B2 (en) * 1990-12-07 2020-03-17 Dennis J Solomon Integrated 3D-D2 visual effects display
JP5655674B2 (ja) * 2011-04-01 2015-01-21 ブラザー工業株式会社 ヘッドマウントディスプレイ及びこれに用いられるプログラム
WO2013033842A1 (en) * 2011-09-07 2013-03-14 Tandemlaunch Technologies Inc. System and method for using eye gaze information to enhance interactions
JP5880115B2 (ja) * 2012-02-17 2016-03-08 ソニー株式会社 ヘッドマウントディスプレイ、ヘッドマウントディスプレイ制御プログラム及びヘッドマウントディスプレイの制御方法
KR101417433B1 (ko) * 2012-11-27 2014-07-08 현대자동차주식회사 눈동자의 움직임을 이용한 사용자 인증 장치 및 그 방법
KR101354321B1 (ko) * 2012-11-27 2014-02-05 현대자동차주식회사 눈동자의 움직임을 이용한 명령 입력 장치 및 그 방법
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
KR101417470B1 (ko) * 2012-12-12 2014-07-08 현대자동차주식회사 응시 대상 확인 장치 및 방법
JP6199038B2 (ja) * 2013-02-04 2017-09-20 学校法人東海大学 視線分析装置
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
GB2514603B (en) 2013-05-30 2020-09-23 Tobii Ab Gaze-controlled user interface with multimodal input
JP6134235B2 (ja) * 2013-08-30 2017-05-24 Kddi株式会社 制御装置、電子制御システム、制御方法、およびプログラム
JP2015153195A (ja) * 2014-02-14 2015-08-24 オムロン株式会社 ジェスチャ認識装置およびジェスチャ認識装置の制御方法
US20160048665A1 (en) * 2014-08-12 2016-02-18 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Unlocking an electronic device
CN106293031B (zh) 2015-06-04 2019-05-21 北京智谷睿拓技术服务有限公司 信息处理方法、信息处理装置及用户设备
CN106296796B (zh) * 2015-06-04 2019-08-13 北京智谷睿拓技术服务有限公司 信息处理方法、信息处理装置及用户设备
CN106294911B (zh) * 2015-06-04 2019-09-10 北京智谷睿拓技术服务有限公司 信息处理方法、信息处理装置及用户设备
CN107688385A (zh) * 2016-08-03 2018-02-13 北京搜狗科技发展有限公司 一种控制方法及装置
CN106908951A (zh) 2017-02-27 2017-06-30 阿里巴巴集团控股有限公司 虚拟现实头戴设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0651901A (ja) * 1992-06-29 1994-02-25 Nri & Ncc Co Ltd 視線認識によるコミュニケーション装置
JP2003038443A (ja) * 2001-07-31 2003-02-12 Matsushita Electric Works Ltd 脳機能検査方法とその装置、脳機能検査システム、脳機能検査サービス方法及びそのプログラムと装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4345764A (en) * 1980-01-30 1982-08-24 Gordon Barlow Design Hand-held electronic game
US6243076B1 (en) * 1998-09-01 2001-06-05 Synthetic Environments, Inc. System and method for controlling host system interface with point-of-interest data
US6603491B2 (en) * 2000-05-26 2003-08-05 Jerome H. Lemelson System and methods for controlling automatic scrolling of information on a display or screen
IL138831A (en) * 2000-10-03 2007-07-24 Rafael Advanced Defense Sys An information system is operated by Mabat
US7627139B2 (en) * 2002-07-27 2009-12-01 Sony Computer Entertainment Inc. Computer image and audio processing of intensity and input devices for interfacing with a computer program
US6943754B2 (en) * 2002-09-27 2005-09-13 The Boeing Company Gaze tracking system, eye-tracking assembly and an associated method of calibration
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US20060250322A1 (en) * 2005-05-09 2006-11-09 Optics 1, Inc. Dynamic vergence and focus control for head-mounted displays

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0651901A (ja) * 1992-06-29 1994-02-25 Nri & Ncc Co Ltd 視線認識によるコミュニケーション装置
JP2003038443A (ja) * 2001-07-31 2003-02-12 Matsushita Electric Works Ltd 脳機能検査方法とその装置、脳機能検査システム、脳機能検査サービス方法及びそのプログラムと装置

Also Published As

Publication number Publication date
WO2009150747A1 (ja) 2009-12-17
US20110169730A1 (en) 2011-07-14

Similar Documents

Publication Publication Date Title
WO2009150747A1 (ja) 視線入力によるユーザーインターフェース装置、ユーザーインターフェース方法、ユーザーインターフェースプログラム、及びユーザーインターフェースプログラムが記録された記録媒体
US10423225B2 (en) Display apparatus, and input processing method and system using same
JP5962403B2 (ja) 情報処理装置、表示制御方法及びプログラム
US10394320B2 (en) System for gaze interaction
JP6865175B2 (ja) 実在オブジェクトおよび仮想オブジェクトと対話するための生体力学に基づく視覚信号用のシステムおよび方法
US6160899A (en) Method of application menu selection and activation using image cognition
US20200285379A1 (en) System for gaze interaction
US8873147B1 (en) Chord authentication via a multi-touch interface
US9619021B2 (en) Head mounted display providing eye gaze calibration and control method thereof
US9946338B2 (en) Information processing to vary screen display based on a gaze point of the user
US8947351B1 (en) Point of view determinations for finger tracking
US20150062006A1 (en) Feature tracking for device input
US11017257B2 (en) Information processing device, information processing method, and program
WO2012011263A1 (ja) ジェスチャ入力装置およびジェスチャ入力方法
CN110546601B (zh) 信息处理装置、信息处理方法和程序
KR101919009B1 (ko) 안구 동작에 의한 제어 방법 및 이를 위한 디바이스
WO2013141161A1 (ja) 情報端末、入力受付制御方法及び入力受付制御プログラム
US20180150133A1 (en) Glasses-type terminal and control method therefor
KR20150107452A (ko) 디스플레이 장치 및 제어 방법
JP2019079204A (ja) 情報入出力制御システムおよび方法
KR20230037147A (ko) 비접촉 응시 기반 헤딩 정보를 이용한 사용자 명령 인식 장치 및 이를 이용한 방법
WO2021208965A1 (zh) 文本输入方法、移动设备、头戴式显示设备以及存储介质
US9940900B2 (en) Peripheral electronic device and method for using same
EP3255927A1 (en) Method and device for accessing wi-fi network
US20180292980A1 (en) System, information processing method, and storage medium

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121106

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20130326