JP2019135601A - 入力制御装置、入力制御方法及びプログラム - Google Patents

入力制御装置、入力制御方法及びプログラム Download PDF

Info

Publication number
JP2019135601A
JP2019135601A JP2018018229A JP2018018229A JP2019135601A JP 2019135601 A JP2019135601 A JP 2019135601A JP 2018018229 A JP2018018229 A JP 2018018229A JP 2018018229 A JP2018018229 A JP 2018018229A JP 2019135601 A JP2019135601 A JP 2019135601A
Authority
JP
Japan
Prior art keywords
head
input
display device
viewpoint position
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018018229A
Other languages
English (en)
Inventor
田淵 純一
Junichi Tabuchi
純一 田淵
良樹 柳
Yoshiki Yanagi
良樹 柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2018018229A priority Critical patent/JP2019135601A/ja
Publication of JP2019135601A publication Critical patent/JP2019135601A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】表示装置に対する頭部の動きによる入力操作を高精度に行う。【解決手段】制御装置6は、ユーザの視線の向きを示す視線情報を取得する視線情報取得部142と、ユーザの頭部の向きを示す頭部情報を取得する頭部情報取得部143と、頭部の動きに対応する入力操作を受け付ける操作受付部146と、取得された視線情報及び頭部情報に基づいて、表示装置2に対するユーザの視点位置を推定する視点位置推定部144と、推定された視点位置が表示装置2内に位置する際には入力操作の受け付けを許可し、視点位置が表示装置2外に位置する際には入力操作の受け付けを許可しない入力制御部147と、を備える。【選択図】図5

Description

本発明は、入力制御装置、入力制御方法及びプログラムに関する。
近年、ユーザが手を使わずにパーソナルコンピュータの入力操作を実現する技術が提案されている。例えば、下記の特許文献1には、CCDセンサを用いてユーザの眼球位置を推定して、表示装置上のカーソル等の表示を操作する技術が開示されている。また、ユーザによる操作をより簡易にするために、近年、頭部の動きに応じて携帯端末等を操作できる頭部装着型のデバイスが提案されている。
特開2000−23065号公報
上記の頭部装着型のデバイスでは、例えば、首を縦に振れば応答の操作、首を横に振れば拒否の操作がなされる。しかし、ユーザの表示装置に対する正確な視点位置を検出できないので、頭部の想定外の動きに起因して誤って入力操作が行われる恐れがある。
そこで、本発明はこれらの点に鑑みてなされたものであり、表示装置に対する頭部の動きによる入力操作を高精度に行うことを目的とする。
本発明の第1の態様においては、ユーザの視線の向きを示す視線情報を取得する視線情報取得部と、前記ユーザの頭部の向きを示す頭部情報を取得する頭部情報取得部と、前記頭部の動きに対応する入力操作を受け付ける操作受付部と、取得された前記視線情報及び前記頭部情報に基づいて、表示装置に対する前記ユーザの視点位置を推定する視点位置推定部と、推定された前記視点位置が前記表示装置内に位置する際には前記入力操作の受け付けを許可し、前記視点位置が前記表示装置外に位置する際には前記入力操作の受け付けを許可しない入力制御部と、を備える、入力制御装置を提供する。
また、前記入力制御装置は、前記表示装置に前記入力操作を行う対象の操作領域を表示させる表示制御部を更に備え、前記表示制御部は、前記視点位置が前記表示装置内に位置すると、前記操作領域を強調表示させることとしてもよい。
また、前記入力制御装置は、前記表示装置に前記入力操作を行う対象の操作領域を表示させる表示制御部を更に備え、前記入力制御部は、前記視点位置が前記操作領域に位置すると、前記入力操作の受け付けを許可することとしてもよい。
また、前記入力制御部は、前記視点位置が前記操作領域に位置し始めてから所定時間経過すると、前記入力操作の受け付けを許可することとしてもよい。
また、前記表示制御部は、前記操作領域内に文字を表示させ、前記入力制御部は、前記視点位置が前記操作領域内の前記文字に位置すると、前記入力操作の受け付けを許可することとしてもよい。
また、前記入力制御部は、前記視点位置が前記表示装置内に位置する際には、前記頭部の異なる複数の動きの各々に対応する入力操作の受け付けを許可することとしてもよい。
また、前記入力制御部は、前記視点位置が前記表示装置内に位置する際には、前記頭部の第1方向の第1動きに対応する第1入力操作と、前記頭部の前記第1方向とは交差する第2方向の第2動きに対応する第2入力操作のいずれか一方の受け付けを許可することとしてもよい。
また、前記表示制御部は、前記第1入力操作によって選択される第1入力項目と前記第2入力操作によって選択される第2入力項目とを表示させた状態で、1回目の前記第1動きがあると、前記第1入力項目を強調表示し、前記入力制御部は、前記第1入力項目が強調表示された状態で2回目の前記第1動きがあると、前記第1入力項目の選択を確定することとしてもよい。
また、前記表示制御部は、前記第1入力項目が強調表示された状態で前記第2動きがあると、前記第1入力項目の強調表示を解除することとしてもよい。
また、前記入力制御装置は、前記頭部の異なる複数の動きの各々を、国を識別する識別コードと関連づけて記憶する記憶部を更に備えることとしてもよい。
また、前記入力制御部は、前記視点位置が前記表示装置内に位置した後に前記視点位置が前記表示装置内に位置しない状態になってから所定時間が経過するまでの間は、前記入力操作の受け付けを許可することとしてもよい。
また、前記視線情報取得部は、前記ユーザの眼電位を検出する眼電位計から、前記視線情報を取得し、前記頭部情報取得部は、前記頭部の動きを検出する6軸センサから、前記頭部情報を取得することとしてもよい。
また、前記視線情報取得部は、前記ユーザの頭部に装着された頭部装着機器に設けられた前記眼電位計から、前記視線情報を取得し、前記頭部情報取得部は、前記頭部装着機器に設けられた前記6軸センサから、前記頭部情報を取得することとしてもよい。
本発明の第2の態様においては、ユーザの視線の向きを示す視線情報を取得するステップと、前記ユーザの頭部の向きを示す頭部情報を取得するステップと、前記頭部の動きに対応する入力操作を受け付けるステップと、取得された前記視線情報及び前記頭部情報に基づいて、表示装置に対する前記ユーザの視点位置を推定するステップと、推定された前記視点位置が前記表示装置内に位置する際には前記入力操作の受け付けを許可し、前記視点位置が前記表示装置外に位置する際には前記入力操作の受け付けを許可しないステップと、を備える、入力制御方法を提供する。
本発明の第3の態様においては、コンピュータに、ユーザの視線の向きを示す視線情報を取得するステップと、前記ユーザの頭部の向きを示す頭部情報を取得するステップと、前記頭部の動きに対応する入力操作を受け付けるステップと、取得された前記視線情報及び前記頭部情報に基づいて、表示装置に対する前記ユーザの視点位置を推定するステップと、推定された前記視点位置が前記表示装置内に位置する際には前記入力操作の受け付けを許可し、前記視点位置が前記表示装置外に位置する際には前記入力操作の受け付けを許可しないステップと、を実行させるためのプログラムを提供する。
本発明によれば、表示装置に対する頭部の動きによる入力操作を高精度に行うことができるという効果を奏する。
本発明の一の実施形態に係る表示システムSの構成を説明するための模式図である。 表示装置2の表示画面の一例を示す模式図である。 ユーザUの頭部及び視線の向きを説明するための模式図である。 表示装置2に対するユーザの視点位置を説明するための模式図である。 制御装置6の詳細構成を説明するためのブロック図である。 選択ウィンドウW1の表示例を示す模式図である。 頭部の2回の動きで入力操作を確定する場合の、選択ウィンドウW1の表示例を説明するための模式図である。 頭部の動きに対応した入力操作の受け付け処理の流れを説明するためのフローチャートである。
<表示システムの概要>
本発明の一の実施形態に係る表示システムの概要について、図1及び図2を参照しながら説明する。
図1は、一の実施形態に係る表示システムSの構成を説明するための模式図である。図2は、表示装置2の表示画面の一例を示す模式図である。
表示システムSは、図1に示すように、表示装置2と、頭部装着機器4と、制御装置6とを有する。表示システムSは、頭部装着機器4を装着したユーザUの表示装置2に対する視点位置に応じて、表示装置2の表示を制御したり、入力操作を制御したりする。
表示装置2は、制御装置6の制御により、表示画面2aに様々な表示を行う。表示装置2は、例えば据え置き型のディスプレイであり、図1に示すようにユーザUから離れた位置に設置されている。表示装置2は、表示画面2aに例えば図2に示すような選択ウィンドウW1を表示する。
選択ウィンドウW1は、ユーザに入力操作を選択させるためのウィンドウである。選択ウィンドウW1は、ユーザへの問いかけを示す文Tと、問いかけに対して選択をする選択ボタンB1及び選択ボタンB2とを含む。例えば、選択ボタンB1は、問いかけに対して応答するボタンであり、選択ボタンB2は、問いかけに対して拒否するボタンである。
頭部装着機器4は、ユーザUの頭部に装着されている機器であり、ここでは一例として図1に示すようにメガネである。このため、頭部装着機器4は、ユーザUの頭部の回転に連動して回転する。頭部装着機器4には、ユーザUの視線の向きを検出する視線検出センサ(後述する眼電位センサ)と、ユーザUの頭部の動きを検出する頭部検出センサ(後述する6軸センサ)とが設けられている。
ユーザUは、注視先を見るために、体軸に対して頭部の向きを変えたり、視線の向きを変えたりする。図1では、ユーザUが、表示装置2の表示画面2aに正対している状態である。すなわち、ユーザUの頭部及び視線の向きが、同一方向であり、表示装置2の表示画面2aを向いている状態である。
図3は、ユーザUの頭部及び視線の向きを説明するための模式図である。図3(a)には、ユーザUが、表示装置2の縁側を注視するために、図1に示す状態から頭部の向きを体軸C周りに回転して右斜めに変わった状態が示されている。図3(a)では、視線の向きは頭部の向きと同じ向きである。図3(b)には、頭部が右斜めを向いているユーザUが、視線の向きのみを変えて表示装置2の中央に向けている状態が示されている。すなわち、視線の向きが、頭部の向きと異なっている。
制御装置6は、表示装置2の表示を制御する。制御装置6は、例えば表示装置2に接続されたパーソナルコンピュータに設けられている。制御装置6は、頭部装着機器4との間で通信(例えば近距離無線通信)が可能であり、様々な情報の送受信を行う。制御装置6は、頭部装着機器4の視線検出センサ及び頭部検出センサの検出結果を受信する通信部を有する。制御装置6は、視線検出センサ及び頭部検出センサの出力値に基づいて、表示装置2のどの位置にユーザUの視点位置があるのかを紐付ける機能も有する。
本実施形態では、制御装置6は、詳細は後述するが、表示装置2を見ているユーザUの視線の向きを示す視線情報と、ユーザUの頭部の動きを示す頭部情報とを取得して、表示装置2に対するユーザUの視点位置を推定する。このように視線情報及び頭部情報に基づいて視点位置を推定することで、図1及び図3に示すように頭部及び視線の向きが変化しても、視線情報と頭部情報の片方の情報に基づいて視点位置を推定する場合に比べて、表示装置2に対するユーザの視点位置を高精度に推定できる。
また、制御装置6は、表示装置2が画面(例えば図2の選択ウィンドウW1)を表示中に、視点位置に応じてユーザの頭部の動きに対応する入力操作の受け付けを制御する入力制御装置として機能する。
図4は、表示装置2に対するユーザの視点位置を説明するための模式図である。制御装置6は、視点位置が表示装置2内に位置する(例えば図4の位置P1に位置する)際には、頭部の動きに対応する入力操作の受け付けを許可する。一方で、制御装置6は、視点位置が表示装置2外に位置する(例えば図4の位置P2に位置する)際には、頭部の動きに対応する入力操作の受け付けを許可しない。ユーザの視線が表示装置2外を見ている際には、入力操作とは関係無い想定外の頭部の動きが発生する可能性があるため、視点位置が表示装置2外に位置する際に入力操作の受け付けを許可しないことによって、誤入力を防止できる。
<制御装置の詳細構成>
制御装置6の詳細構成について、図5を参照しながら説明する。
図5は、制御装置6の詳細構成を説明するためのブロック図である。制御装置6は、図5に示すように、記憶部12と、制御部14とを有する。
記憶部12は、不揮発性メモリ(例えばROM)及び揮発性メモリ(例えばRAM)を含む。記憶部12は、制御部14により実行されるプログラムや各種のデータを記憶している。また、記憶部12は、頭部の異なる複数の動きの各々を、国を識別する識別コードと関連づけて記憶する。例えば、問いかけに対する応答に対応する動き及び拒否に対応する動きは、国によって異なることがあるが、上記のように関連づけて記憶しておくことで制御部14が識別しやすくなる。
制御部14は、例えばCPUである。制御部14は、記憶部12に記憶されたプログラムを実行することにより、表示装置2の表示を制御する。制御部14は、図5に示すように、視線情報取得部142と、頭部情報取得部143と、視点位置推定部144と、表示制御部145と、操作受付部146と、入力制御部147とを有する。
視線情報取得部142は、ユーザの視線の向きを示す視線情報を取得する。例えば、視線情報取得部142は、ユーザの頭部に装着された頭部装着機器4に設けられた眼電位計42から、視線情報を取得する。具体的には、視線情報取得部142は、通信インターフェースを介して眼電位計42が検出した眼電位に関する情報を受け取り、当該情報に基づいて視線情報を取得する。視線情報取得部142は、取得した視線情報を視点位置推定部144に出力する。
眼電位計42は、ユーザの眼電位を求めることで、例えばユーザの眼の動きや瞬きを検出するセンサであり、視線の検出に用いられる。ここで、眼電位とは、ユーザの眼球の角膜側と網膜側の間に生じる電位差を指す。目の周囲の皮膚に電極を着けて電位差を測定すると、眼の動きや瞬きによって電位差が変わることが知られている。眼電位計42は、例えば頭部装着機器4であるメガネのノーズパッドに設けられている。
頭部情報取得部143は、ユーザUの頭部の動きや向きを示す頭部情報を取得する。例えば、頭部情報取得部143は、ユーザの頭部に装着された頭部装着機器4に設けられた6軸センサ44から、頭部情報を取得する。頭部情報取得部143は、通信インターフェースを介して6軸センサ44の検出結果を受け取り、当該検出結果に基づいて頭部情報を取得する。頭部情報取得部143は、取得した頭部情報を視点位置推定部144に出力する。
6軸センサ44は、移動や回転の速度を検出するセンサであり、ユーザの体軸上に位置する頭部の動きの検出に用いられる。6軸センサ44は、例えば、3軸(X軸、Y軸、Z軸)方向の加速度を計測する加速度センサと、3軸周りの角速度(回転の速度)を計測するジャイロセンサを含む。これにより、ユーザの体軸の変化を高精度に検知できる。6軸センサ44は、例えばメガネのフレームに設けられている。
また、頭部情報取得部143は、記憶部12に記憶された頭部の動きに関する情報を参照して、実際の頭部の動き(例えば、頷きや首振り)を特定してもよい。なお、記憶部12に国毎の異なる頭部の動きに関する情報が記憶されている場合には、頭部情報取得部143は、国毎の習慣等による頭部の動きを適切に識別して特定できる。
視点位置推定部144は、視線情報及び頭部情報に基づいて、表示装置2に対するユーザの視点位置を推定する。具体的には、視点位置推定部144は、視線情報取得部142が取得した視線情報と、頭部情報取得部143が取得した頭部情報に基づいて、表示装置2に対するユーザの視点位置を推定する。視点位置推定部144は、視点位置の推定結果を表示制御部145に出力する。
上述したように、眼電位計42を用いて視線の向きを検出し、かつ6軸センサ44を用いて頭部の向きを検出することで、視点位置を高精度に推定できる。例えば、頭部が向いている方向と視線が向いている方向が違う場合には、視線の向きだけで視点位置を検出すると誤検知が発生しうるが、上記のように視線の向き及び頭部の向きの両方を検出することで、視点位置を高精度に推定できる。
視点位置推定部144は、図1に示すユーザの状態を初期状態として、頭部及び視線の向きが変わった状態を判別する。初期状態は、例えば、ユーザの頭部及び視線の状態が一定時間以上経過した場合に、設定される。これに限定されず、例えば瞬きが連続して3回以上行われた場合に設定されてもよい。また、カメラやコンパス等の他のデバイスを用いて、初期状態が設定されてもよい。
表示制御部145は、表示装置2の表示を制御する。表示制御部145は、表示装置2の表示画面2aに入力操作を行う対象の操作領域を表示させる。例えば、表示制御部145は、操作領域の一例として図2に示す選択ウィンドウW1を表示させる。選択ウィンドウW1は、前述したように、文T及び選択ボタンB1、B2を含む。
表示制御部145は、視点位置推定部144によって推定された視点位置に応じて、表示を制御する。例えば、表示制御部145は、視点位置が表示装置2内に位置すると、選択ウィンドウW1を強調表示させる。
図6は、選択ウィンドウW1の表示例を示す模式図である。表示制御部145は、視点位置推定部144によって視点位置が表示画面2a内に位置すると推定されると、図6に示すように選択ウィンドウW1の枠の線を太くして強調表示する。ただし、これに限定されず、表示制御部145は、選択ウィンドウW1の色を濃くして強調表示させてもよい。これにより、ユーザは、頭部の動きによって選択ウィンドウW1における入力操作が可能な状態であることを認識できる。
操作受付部146は、ユーザUの頭部の動きに対応する入力操作を受け付ける。操作受付部146は、6軸センサ44の検出結果から頭部の動きに関する情報を取得して、当該情報に基づいて対応する入力操作を受け付ける。操作受付部146は、ユーザUの頭部の異なる複数の動きの各々に対応する入力操作を受け付ける。
ここで、入力操作を行う頭部の2つの動きが、例えば頷き(第1動き)と首振り(第1動きとは異なる第2動き)であるものとする。頷きは、上下方向(第1方向)の頭部の動き(首を縦に振る動き)であり、首振りは、左右方向(第2方向)の頭部の動き(首を横に振る動き)である。このような第1動き及び第2動きによって、図2に示す選択ウィンドウW1での2つの選択ボタンB1、B2の選択操作が行われる。例えば操作受付部146は、ユーザが頷きを1回行うと選択ボタンB1(第1入力項目)の選択(第1入力操作)を受け付け、ユーザが首振りを1回行うと選択ボタンB2(第2入力項目)の選択(第2入力操作)を受け付ける。
入力制御部147は、視点位置推定部144によって推定された視点位置に基づいて、操作受付部146によるユーザの頭部の動きに対応した入力操作の受け付けを制御する。具体的には、入力制御部147は、推定された視点位置が表示装置2内に位置する際には入力操作の受け付けを許可し、視点位置が表示装置2外に位置する際には入力操作の受け付けを許可しない。ユーザが表示装置2を見ない状態での頭部の動きによる入力操作は、誤入力が発生する恐れがある。また、ユーザが入力操作とは関係なく、頭部を動かすことがある。そこで、上記のように視点位置が表示装置2外に位置する際には入力操作の受け付けを許可しないことで、誤入力を防止できる。
入力制御部147は、視点位置が表示装置2内に位置する際には、頭部の異なる複数の動きの各々に対応する入力操作の受け付けを許可する。例えば、入力制御部147は、図2に示す選択ウィンドウW1が表示されている状態で、視点位置が表示画面2a内に位置する際には頭部の動きに対応した選択ボタンB1、B2の選択操作の受け付けを許可する。具体的には、入力制御部147は、頭部の頷きに対応した選択ボタンB1の選択操作と、頭部の首振りに対応した選択ボタンB2の選択操作の受け付けを許可する。一方で、入力制御部147は、選択ウィンドウW1が表示されている状態で、視点位置が表示画面2a外に位置する際には、頭部の動きに対応した選択操作の受け付けを許可しない。
入力制御部147は、視点位置が選択ウィンドウW1内に位置すると入力操作の受け付けを許可し、視点位置が選択ウィンドウW1外に位置すると入力操作の受け付けを許可しなくてもよい。図6に示すように視点位置が選択ウィンドウW1内位置する場合には、選択操作を行う選択ウィンドウW1を把握した上で選択操作を行うので、意図しない選択ウィンドウに対する誤操作を防止できる。
入力制御部147は、図6に示すように視点位置が選択ウィンドウW1内の文T上に位置すると、入力操作の受け付けを許可してもよい。例えば、入力制御部147は、視点位置が文T上の所定時間以上継続して位置していると、その後の頭部の動きに対応する入力操作を受け付ける。視点位置が選択ウィンドウW1の文T上に位置する場合には、ユーザが文Tの内容を理解して選択ボタンB1、B2を選択することになり、誤った理解による誤操作を防止できる。
入力制御部147は、視点位置が選択ウィンドウW1に位置し始めてから所定時間経過すると、入力操作の受け付けを許可してもよい。すなわち、入力制御部147は、選択ウィンドウW1の表示内容を確認するために視線が選択ウィンドウW1上に所定時間継続して位置する場合に、入力操作の受け付けを許可する。
上記では、入力制御部147は、頭部の1回の動き(頷き、又は首振り)があると選択ボタンB1、B2の選択操作を確定することとしたが、これに限定されない。例えば、入力制御部147は、頭部の2回の動きがあることで、選択ボタンB1、B2の選択操作を確定することとしてもよい。具体的には、入力制御部147は、選択ウィンドウW1が表示された状態で、頷き1回が行われると選択ボタンB1を選択状態にし、その選択状態で頷きが更に1回行われると選択ボタンB1の選択を確定する。なお、入力制御部147は、選択ボタンB1の選択状態で首振りが1回行われると、選択ボタンB1の選択状態を解除してもよい。これにより、誤選択を容易に解消できる。
図7は、頭部の2回の動きで入力操作を確定する場合の、選択ウィンドウW1の表示例を説明するための模式図である。
表示制御部145は、選択ウィンドウW1を表示させた状態で、選択ボタンB1を選択する1回目の頷きがあると、選択ボタンB1を強調表示させる。例えば、表示制御部145は、図7(a)に示すように選択ボタンB1に選択状態を示すためのマークMを重畳して表示させる。これにより、ユーザは、選択ボタンB1が選択状態であることを容易に理解できるので、誤って選択された状態か否かを容易に判別できる。その後、入力制御部147は、マークMが表示された状態で2回目の頷きがあると、選択ボタンB1の選択を確定する。
一方で、マークMが表示された状態で首振りが1回あると、入力制御部147は選択ボタンB1の選択状態を解除し、表示制御部145は図7(b)に示すようにマークMを非表示にする(強調表示を解除する)。このようにユーザが理解しやすいように表示を切り替えることで、入力操作の利便性が高まる。
上記では、ユーザが室内等に設置された表示装置2を見るケースについて説明したが、これに限定されない。例えば、車の運転者が、カーナビゲーション(表示装置)の表示画面を見るケースにも適用できる。運転者は、運転中に表示画面を継続して見ることが困難であるケースが想定される。このため、入力制御部147は、運転者の視点位置が表示画面に位置した後に、視点位置が表示画面内に位置しない状態になってから所定時間が経過するまでの間は、運転者の頭部の動きに対応する入力操作の受け付けを許可する。これにより、運転者が表示画面を一瞥すれば、その後の所定時間だけ頭部の動きに対応する入力操作を受け付けが許可されるので、運転者が入力操作を行いやすくなる。
なお、上記では、眼電位計42である眼電位センサによってユーザの視線の向きを検出することとしたが、これに限定されない。例えば、CCDカメラ等の他のデバイスで、視線の向きを検出することとしてもよい。
また、上記では、加速度センサ及びジャイロセンサから成る6軸センサ44でユーザの頭部の向きを検出することとしたが、これに限定されない。例えば、カメラで頭部を撮像することで頭部の向きを検出してもよい。
また、上記では、ユーザの視線の向き及び頭部の向きを検出するセンサ(眼電位計42及び6軸センサ44)が頭部装着機器4に設けられていることとしたが、これに限定されない。例えば、視線の向き及び頭部の向きを検出するカメラが、ユーザを撮像できるように表示装置2に取り付けられていてもよい。
また、上記では、表示装置2が据え置き型のディスプレイであることとしたが、これに限定されない。例えば、表示装置2は、360度の全周に画面を表示可能なヘッドマウントディスプレイであってもよい。このヘッドマウントディスプレイは、頭部の動きに連動して回転しないディスプレイである。
また、上記では、表示装置2の表示制御装置である制御装置6は、表示装置2に接続されたパーソナルコンピュータに設けられていることとしたが、これに限定されない。例えば、制御装置6は、頭部装着機器4に設けられていてもよく、この場合には、制御装置6が処理した表示内容を表示装置2に送信して表示させる。また、制御装置6は、頭部装着機器4に設けられた制御部と、パーソナルコンピュータに設けられた制御部とによって、構成されてもよい。
<頭部の動きに対応した入力操作の受け付け処理>
頭部の動きに対応した入力操作の受け付け処理について、図8を参照しながら説明する。入力操作の受け付け処理は、制御装置6の制御部14が記憶部12に記憶されたプログラムを実行することで実現される。なお、当該プログラムは、外部サーバからダウンロードされたものであってもよい。
図8は、頭部の動きに対応した入力操作の受け付け処理の流れを説明するためのフローチャートである。本フローチャートは、制御部14の表示制御部145が、表示装置2に画面を表示させているところから開始される(ステップS102)。ここでは、表示制御部145は、表示画面2aに選択ウィンドウW1(図2)を表示させており、ユーザは、頭部装着機器4であるメガネを装着して、表示装置2を見ているものとする。
次に、視線情報取得部142は、ユーザの視線の向きを示す視線情報を取得する(ステップS104)。具体的には、視線情報取得部142は、頭部装着機器4の眼電位計42が検出した眼電位に基づいて、視線情報を取得する。
次に、頭部情報取得部143は、ユーザの頭部の動きを示す頭部情報を取得する(ステップS106)。具体的には、頭部情報取得部143は、頭部装着機器4の6軸センサ44の検出結果に基づいて、頭部情報を取得する。
上記では、視線情報を取得した後に頭部情報を取得することとしたが、これに限定されない。例えば、頭部情報を取得した後に視線情報を取得したり、視線情報と頭部情報を同時に取得したりしてもよい。
次に、視点位置推定部144は、取得された視線情報及び頭部情報に基づいて、表示装置2に対するユーザの視点位置を推定する(ステップS108)。このように視線情報及び頭部情報の両方を用いることで、ユーザの視点位置を高精度に推定できる。そして、視点位置推定部144は、ユーザの視点位置が表示装置2の表示画面2aに位置しているか否かを判定する(ステップS110)。
ステップS110で視点位置が表示画面2aに位置していると判定された場合には(Yes)、入力制御部147は、ユーザの頭部の動きに対応する入力操作の受け付けを許可する(ステップS112)。例えば、入力制御部147は、図2に示す選択ウィンドウW1の表示中に、頭部の頷きに対応したボタンB1の選択操作と、頭部の首振りに対応したボタンB2の選択操作の受け付けを許可する。そして、制御部14は、受け付けた選択操作に対応する処理を行う。
一方で、ステップS110で視点位置が表示画面2aに位置していないと判定された場合には(No)、入力制御部147は、ユーザの頭部の動きに対応する入力操作の受け付けを許可しない(ステップS114)。例えば、入力制御部147は、図2に示す選択ウィンドW1が表示されていても、頭部の頷きに対応したボタンB1の選択操作と、頭部の首振りに対応したボタンB2の選択操作の受け付けを許可しない。なお、その後、ユーザが頭部を動かすことで視点位置が表示画面2aに位置する場合には、ステップS112の処理が行われる。
<本実施形態における効果>
上述した実施形態の入力制御装置である制御装置6は、ユーザの視線の向きを示す視線情報と頭部の向きを示す頭部情報に基づいて、表示装置2に対するユーザの視点位置を推定する。そして、制御装置6は、推定した視点位置が表示装置2内に位置する際には、頭部の動きに対応する入力操作の受け付けを許可し、視点位置が表示装置2外に位置する際には、頭部の動きに対応する入力操作の受け付けを許可しない。
視線情報及び頭部情報に基づいてユーザの視点位置を推定することで、表示装置2に対するユーザの視点位置をより高精度に推定できる。そして、このように推定された視点位置が表示装置2外に位置する際には頭部の動きに対応する入力操作の受け付けを許可しないことによって、ユーザが表示装置2外に視線を向けて入力操作とは関係無く頭部を動かしたことに起因する誤入力を防止できる。同様に、頭部に限らず視点を動かしたことに起因する誤入力も防止できる。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の分散・統合の具体的な実施の形態は、以上の実施の形態に限られず、その全部又は一部について、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を合わせ持つ。
2 表示装置
4 頭部装着機器
6 制御装置
12 記憶部
14 制御部
142 視線情報取得部
143 頭部情報取得部
144 視点位置推定部
145 表示制御部
146 操作受付部
147 入力制御部

Claims (15)

  1. ユーザの視線の向きを示す視線情報を取得する視線情報取得部と、
    前記ユーザの頭部の向きを示す頭部情報を取得する頭部情報取得部と、
    前記頭部の動きに対応する入力操作を受け付ける操作受付部と、
    取得された前記視線情報及び前記頭部情報に基づいて、表示装置に対する前記ユーザの視点位置を推定する視点位置推定部と、
    推定された前記視点位置が前記表示装置内に位置する際には前記入力操作の受け付けを許可し、前記視点位置が前記表示装置外に位置する際には前記入力操作の受け付けを許可しない入力制御部と、
    を備える、入力制御装置。
  2. 前記表示装置に前記入力操作を行う対象の操作領域を表示させる表示制御部を更に備え、
    前記表示制御部は、前記視点位置が前記表示装置内に位置すると、前記操作領域を強調表示させる、
    請求項1に記載の入力制御装置。
  3. 前記表示装置に前記入力操作を行う対象の操作領域を表示させる表示制御部を更に備え、
    前記入力制御部は、前記視点位置が前記操作領域に位置すると、前記入力操作の受け付けを許可する、
    請求項1又は2に記載の入力制御装置。
  4. 前記入力制御部は、前記視点位置が前記操作領域に位置し始めてから所定時間経過すると、前記入力操作の受け付けを許可する、
    請求項3に記載の入力制御装置。
  5. 前記表示制御部は、前記操作領域内に文字を表示させ、
    前記入力制御部は、前記視点位置が前記操作領域内の前記文字に位置すると、前記入力操作の受け付けを許可する、
    請求項2から4のいずれか1項に記載の入力制御装置。
  6. 前記入力制御部は、前記視点位置が前記表示装置内に位置する際には、前記頭部の異なる複数の動きの各々に対応する入力操作の受け付けを許可する、
    請求項2から5のいずれか1項に記載の入力制御装置。
  7. 前記入力制御部は、前記視点位置が前記表示装置内に位置する際には、前記頭部の第1方向の第1動きに対応する第1入力操作と、前記頭部の前記第1方向とは交差する第2方向の第2動きに対応する第2入力操作のいずれか一方の受け付けを許可する、
    請求項6に記載の入力制御装置。
  8. 前記表示制御部は、前記第1入力操作によって選択される第1入力項目と前記第2入力操作によって選択される第2入力項目とを表示させた状態で、1回目の前記第1動きがあると、前記第1入力項目を強調表示し、
    前記入力制御部は、前記第1入力項目が強調表示された状態で2回目の前記第1動きがあると、前記第1入力項目の選択を確定する、
    請求項7に記載の入力制御装置。
  9. 前記表示制御部は、前記第1入力項目が強調表示された状態で前記第2動きがあると、前記第1入力項目の強調表示を解除する、
    請求項8に記載の入力制御装置。
  10. 前記頭部の異なる複数の動きの各々を、国を識別する識別コードと関連づけて記憶する記憶部を更に備える、
    請求項6又は7に記載の入力制御装置。
  11. 前記入力制御部は、前記視点位置が前記表示装置内に位置した後に前記視点位置が前記表示装置内に位置しない状態になってから所定時間が経過するまでの間は、前記入力操作の受け付けを許可する、
    請求項1から10のいずれか1項に記載の入力制御装置。
  12. 前記視線情報取得部は、前記ユーザの眼電位を検出する眼電位計から、前記視線情報を取得し、
    前記頭部情報取得部は、前記頭部の動きを検出する6軸センサから、前記頭部情報を取得する、
    請求項1から11のいずれか1項に記載の入力制御装置。
  13. 前記視線情報取得部は、前記ユーザの頭部に装着された頭部装着機器に設けられた前記眼電位計から、前記視線情報を取得し、
    前記頭部情報取得部は、前記頭部装着機器に設けられた前記6軸センサから、前記頭部情報を取得する、
    請求項12に記載の入力制御装置。
  14. ユーザの視線の向きを示す視線情報を取得するステップと、
    前記ユーザの頭部の向きを示す頭部情報を取得するステップと、
    前記頭部の動きに対応する入力操作を受け付けるステップと、
    取得された前記視線情報及び前記頭部情報に基づいて、表示装置に対する前記ユーザの視点位置を推定するステップと、
    推定された前記視点位置が前記表示装置内に位置する際には前記入力操作の受け付けを許可し、前記視点位置が前記表示装置外に位置する際には前記入力操作の受け付けを許可しないステップと、
    を備える、入力制御方法。
  15. コンピュータに、
    ユーザの視線の向きを示す視線情報を取得するステップと、
    前記ユーザの頭部の向きを示す頭部情報を取得するステップと、
    前記頭部の動きに対応する入力操作を受け付けるステップと、
    取得された前記視線情報及び前記頭部情報に基づいて、表示装置に対する前記ユーザの視点位置を推定するステップと、
    推定された前記視点位置が前記表示装置内に位置する際には前記入力操作の受け付けを許可し、前記視点位置が前記表示装置外に位置する際には前記入力操作の受け付けを許可しないステップと、
    を実行させるためのプログラム。
JP2018018229A 2018-02-05 2018-02-05 入力制御装置、入力制御方法及びプログラム Pending JP2019135601A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018018229A JP2019135601A (ja) 2018-02-05 2018-02-05 入力制御装置、入力制御方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018018229A JP2019135601A (ja) 2018-02-05 2018-02-05 入力制御装置、入力制御方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2019135601A true JP2019135601A (ja) 2019-08-15

Family

ID=67624216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018018229A Pending JP2019135601A (ja) 2018-02-05 2018-02-05 入力制御装置、入力制御方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2019135601A (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0764709A (ja) * 1993-08-26 1995-03-10 Olympus Optical Co Ltd 指示処理装置
JP2007094619A (ja) * 2005-09-28 2007-04-12 Omron Corp 認識装置および方法、記録媒体、並びに、プログラム。
WO2013141161A1 (ja) * 2012-03-23 2013-09-26 株式会社エヌ・ティ・ティ・ドコモ 情報端末、入力受付制御方法及び入力受付制御プログラム
WO2015051047A1 (en) * 2013-10-01 2015-04-09 Quantum Interface, Llc. Selection attractive interfaces, systems and apparatuses including such interfaces, methods for making and using same
JP2015087824A (ja) * 2013-10-28 2015-05-07 オムロン株式会社 画面操作装置および画面操作方法
JP2017058971A (ja) * 2015-09-16 2017-03-23 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0764709A (ja) * 1993-08-26 1995-03-10 Olympus Optical Co Ltd 指示処理装置
JP2007094619A (ja) * 2005-09-28 2007-04-12 Omron Corp 認識装置および方法、記録媒体、並びに、プログラム。
WO2013141161A1 (ja) * 2012-03-23 2013-09-26 株式会社エヌ・ティ・ティ・ドコモ 情報端末、入力受付制御方法及び入力受付制御プログラム
WO2015051047A1 (en) * 2013-10-01 2015-04-09 Quantum Interface, Llc. Selection attractive interfaces, systems and apparatuses including such interfaces, methods for making and using same
JP2015087824A (ja) * 2013-10-28 2015-05-07 オムロン株式会社 画面操作装置および画面操作方法
JP2017058971A (ja) * 2015-09-16 2017-03-23 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置

Similar Documents

Publication Publication Date Title
US10489981B2 (en) Information processing device, information processing method, and program for controlling display of a virtual object
JP6265348B2 (ja) 視線計測装置、視線計測方法および視線計測プログラム
US20180032131A1 (en) Information processing device, control method, and program
JP6399692B2 (ja) ヘッドマウントディスプレイ、画像表示方法及びプログラム
EP3979234A1 (en) Information processing device, information processing method, and program
US20220091663A1 (en) Virtual object display device and virtual object display method
CN110520822B (zh) 控制装置、信息处理系统、控制方法和程序
US11978287B2 (en) Information provision system, information terminal, and information provision method
KR20180059366A (ko) 가상 현실 기기 상에서의 이미지 줌인 및 줌아웃을 위한 방법 및 장치
JP2017045242A (ja) 情報表示装置
US11137600B2 (en) Display device, display control method, and display system
JP2017191426A (ja) 入力装置、入力制御方法、コンピュータプログラム、及び記憶媒体
JP2005261728A (ja) 視線方向認識装置及び視線方向認識プログラム
US11409369B2 (en) Wearable user interface control system, information processing system using same, and control program
CN117784926A (zh) 控制装置、控制方法和计算机可读存储介质
JP2012114755A (ja) ヘッドマウントディスプレイ及びコンピュータプログラム
JP2019135601A (ja) 入力制御装置、入力制御方法及びプログラム
JP6587364B2 (ja) プログラムおよび画像表示システム
JP6199038B2 (ja) 視線分析装置
CN116521108A (zh) 一种显示方法、可穿戴设备及存储介质
KR20180060403A (ko) 영상 기반의 드론 제어장치
JP2021162876A (ja) 画像生成システム、画像生成装置及び画像生成方法
JP2017126009A (ja) 表示制御装置、表示制御方法、およびプログラム
JP6876639B2 (ja) 表示制御装置、表示制御方法及びプログラム
JP7106140B2 (ja) プログラムおよび画像表示システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210414

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210928