JP7115737B2 - 視線入力装置、視線入力方法、視線入力プログラム及び視線入力システム - Google Patents

視線入力装置、視線入力方法、視線入力プログラム及び視線入力システム Download PDF

Info

Publication number
JP7115737B2
JP7115737B2 JP2018109288A JP2018109288A JP7115737B2 JP 7115737 B2 JP7115737 B2 JP 7115737B2 JP 2018109288 A JP2018109288 A JP 2018109288A JP 2018109288 A JP2018109288 A JP 2018109288A JP 7115737 B2 JP7115737 B2 JP 7115737B2
Authority
JP
Japan
Prior art keywords
sight
line
input
unit
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018109288A
Other languages
English (en)
Other versions
JP2019212151A5 (ja
JP2019212151A (ja
Inventor
健太朗 吉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ORYLAB INC.
Original Assignee
ORYLAB INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ORYLAB INC. filed Critical ORYLAB INC.
Priority to JP2018109288A priority Critical patent/JP7115737B2/ja
Priority to PCT/JP2019/021937 priority patent/WO2019235408A1/ja
Priority to CN201980036881.3A priority patent/CN112219179A/zh
Publication of JP2019212151A publication Critical patent/JP2019212151A/ja
Priority to US17/100,966 priority patent/US20210072827A1/en
Publication of JP2019212151A5 publication Critical patent/JP2019212151A5/ja
Application granted granted Critical
Publication of JP7115737B2 publication Critical patent/JP7115737B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B27/0103Head-up displays characterised by optical features comprising holographic elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)

Description

本発明は、ユーザの視線に基づいて入力を受け付ける視線入力装置、視線入力方法、視線入力プログラム及び視線入力システムに関する。
従来、体が不自由等の理由によって手足を用いた操作を行いづらいユーザのために、ユーザの視線を用いて入力する視線入力システムが開発されている。特許文献1には、ユーザの目の画像に基づいて視線の動きを検出し、視線の動きに対応する操作を実行するシステムが記載されている。
特開2018-18449号公報
特許文献1に記載のシステムは、視線の動きを検出する前に、ユーザに画面上に表示された9つの点を順番に注視させることによって視線の位置と画面の位置との関係を特定するためのキャリブレーションを行う。このようなキャリブレーションは、ユーザにとって複数の点を順番に注視するための負担が大きいという問題があった。
本発明はこれらの点に鑑みてなされたものであり、視線入力を行う際のユーザの負担を軽減できる視線入力装置、視線入力方法、視線入力プログラム及び視線入力システムを提供することを目的とする。
本発明の第1の態様に係る視線入力装置は、ユーザの視線を特定する視線特定部と、前記ユーザが前記ユーザの頭部に固定された表示部中の基準位置を見ている際に前記視線特定部が特定した前記視線を、基準視線として記憶部に記憶させる基準設定部と、入力可能な複数の入力要素を表す全体の領域のうち一部の領域を前記表示部に表示させるとともに、前記基準視線と前記視線特定部が特定した前記視線との間の関係に基づいて、前記全体の領域の中で前記一部の領域を変更する表示制御部と、前記一部の領域内の前記基準位置を含む所定領域に位置する入力要素の入力を受け付ける入力受付部と、を有する。
前記表示制御部は、前記基準視線から前記視線特定部が特定した前記視線への向きに、前記全体の領域の中で一部の領域を移動させてもよい。
前記表示制御部は、前記基準視線と前記視線特定部が特定した前記視線との間の差に基づいて、前記一部の領域の移動の速さを変化させてもよい。
前記表示制御部は、前記基準視線と前記視線特定部が特定した前記視線との間の差が所定値以下である場合に、前記一部の領域の移動を停止させてもよい。
前記入力受付部は、前記所定領域に所定時間以上位置する前記入力要素を、前記ユーザによる入力として受け付けてもよい。
前記表示制御部が前記ユーザに対し前記表示部中の所定の1点を見つめるように促す情報を前記表示部に表示させた後に、前記基準設定部は前記基準視線を設定してもよい。
前記基準設定部は、前記ユーザが操作する操作装置の操作に応じて、前記基準視線を設定してもよい。
前記表示制御部は、前記入力受付部が前記ユーザによる入力を受け付ける期間には前記表示部に前記一部の領域を表示させ、前記入力受付部が前記ユーザによる入力を受け付けない期間には前記表示部に前記一部の領域を表示させなくてもよい。
前記表示制御部は、前記入力受付部が前記ユーザによる入力を受け付ける期間には前記表示部が光を透過しない状態に切り替え、前記入力受付部が前記ユーザによる入力を受け付けない期間には前記表示部が光を透過する状態に切り替えてもよい。
本発明の第2の態様に係る視線入力方法は、プロセッサが、ユーザの視線を特定するステップと、前記ユーザが前記ユーザの頭部に固定された表示部中の基準位置を見ている際に前記特定するステップで特定された前記視線を、基準視線として記憶部に記憶させるステップと、入力可能な複数の入力要素を表す全体の領域のうち一部の領域を前記表示部に表示させるとともに、前記基準視線と前記特定するステップで特定された前記視線との間の関係に基づいて、前記全体の領域の中で前記一部の領域を変更するステップと、前記一部の領域内の前記基準位置を含む所定領域に位置する入力要素の入力を受け付けるステップと、を実行する。
本発明の第3の態様に係る視線入力プログラムは、コンピュータに、ユーザの視線を特定するステップと、前記ユーザが前記ユーザの頭部に固定された表示部中の基準位置を見ている際に前記特定するステップで特定された前記視線を、基準視線として記憶部に記憶させるステップと、入力可能な複数の入力要素を表す全体の領域のうち一部の領域を前記表示部に表示させるとともに、前記基準視線と前記特定するステップで特定された前記視線との間の関係に基づいて、前記全体の領域の中で前記一部の領域を変更するステップと、前記一部の領域内の前記基準位置を含む所定領域に位置する入力要素の入力を受け付けるステップと、を実行させる。
本発明の第4の態様に係る視線入力システムは、ユーザの頭部に固定された頭部装着装置と、前記頭部装着装置との間で信号を授受する視線入力装置と、を有し、前記頭部装着装置は、前記ユーザが視認できるように前記ユーザの頭部に固定された表示部を備え、前記視線入力装置は、前記ユーザの視線を特定する視線特定部と、前記ユーザが前記表示部中の基準位置を見ている際に前記視線特定部が特定した前記視線を、基準視線として記憶部に記憶させる基準設定部と、入力可能な複数の入力要素を表す全体の領域のうち一部の領域を前記表示部に表示させるとともに、前記基準視線と前記視線特定部が特定した前記視線との間の関係に基づいて、前記全体の領域の中で前記一部の領域を変更する表示制御部と、前記一部の領域内の前記基準位置を含む所定領域に位置する入力要素の入力を受け付ける入力受付部と、を備える。
本発明によれば、視線入力を行う際のユーザの負担を軽減できるという効果を奏する。
本実施形態に係る視線入力システムの模式図である。 本実施形態に係る視線入力システムのブロック図である。 本実施形態に係る頭部装着装置の正面図である。 設定画面を表示している表示部の模式図である。 ユーザが入力可能な入力要素の模式図である。 表示領域を変更する処理の模式図である。 入力画面を表示している表示部の模式図である。 本実施形態に係る視線入力方法のフローチャートを示す図である。
[視線入力システムSの構成]
図1は、本実施形態に係る視線入力システムSの模式図である。視線入力システムSは、視線入力装置1と、頭部装着装置2と、操作装置3とを含む。視線入力システムSは、その他のサーバ、端末等の機器を含んでもよい。
頭部装着装置2は、ユーザの頭部に固定可能な装置であり、視線入力装置1から受信した情報を表示し、またユーザの視線を検出するための情報を取得して視線入力装置1へ送信する。操作装置3は、ユーザが保持可能な、ユーザの操作を受け付ける装置である。操作装置3は、頭部装着装置2に一体化されて設けられてもよい。
頭部装着装置2及び操作装置3は、それぞれBluetooth(登録商標)、無線LAN(Local Area Network)等の無線通信技術による無線で、又はケーブルによる有線で、視線入力装置1に接続される。頭部装着装置2及び操作装置3は、視線入力装置1に直接接続されてもよく、インターネット等のネットワークを介して接続されてもよい。
視線入力装置1は、後述する視線入力方法によって、ユーザが装着した頭部装着装置2から受信した情報に基づいて、ユーザによる文字、記号、アイコン等の入力要素の入力を受け付けるコンピュータである。視線入力装置1は、頭部装着装置2に一体化されて構成されてもよい。すなわち、頭部装着装置2は、視線入力装置1の機能を有してもよい。
[視線入力システムSの構成]
図2は、本実施形態に係る視線入力システムSのブロック図である。図2において、矢印は主なデータの流れを示しており、図2に示したもの以外のデータの流れがあってよい。図2において、各ブロックはハードウェア(装置)単位の構成ではなく、機能単位の構成を示している。そのため、図2に示すブロックは単一の装置内に実装されてよく、あるいは複数の装置内に別れて実装されてよい。ブロック間のデータの授受は、データバス、ネットワーク、可搬記憶媒体等、任意の手段を介して行われてよい。
操作装置3は、ユーザの操作を受け付けるための、ボタン、スイッチ、タッチパネル等の操作部材を含む。操作装置3は、操作部材に対するユーザの操作を検出し、ユーザの操作を示す信号を視線入力装置1へ送信する。
頭部装着装置2は、表示部21と、撮像部22と、インタフェース23とを有する。頭部装着装置2の構造については、図3を用いて後述する。インタフェース23は、視線入力装置1との間で信号の授受をするための接続部である。インタフェース23は、視線入力装置1から受信した信号に所定の処理を行ってデータを取得し、取得したデータを表示部21に入力する。また、インタフェース23は、撮像部22から入力されたデータに所定の処理を行って信号を生成し、生成した信号を視線入力装置1に送信する。
表示部21は、各種情報を表示するための、液晶ディスプレイ等の表示装置を含む。表示部21は、視線入力装置1から受信した信号に従って情報を表示する。
撮像部22は、頭部装着装置2上に設けられ、頭部装着装置2を装着したユーザの目(眼球)を含む所定の撮像範囲を撮像する撮像装置である。撮像部22は、CCD(Charge Coupled Device)センサ、CMOS(Complementary Metal Oxide Semiconductor)センサ等の撮像素子を含む。撮像部22は、予め設定されたタイミングで撮像を行ってもよく、あるいは視線入力装置1から受信した撮像の指示に従って撮像を行ってもよい。撮像部22は、撮像した撮像画像を示す信号を視線入力装置1に送信する。
視線入力装置1は、制御部11と、インタフェース12と、記憶部13と、を有する。制御部11は、視線特定部111と、表示制御部112と、基準設定部113と、入力受付部114と、出力部115とを有する。
インタフェース12は、頭部装着装置2及び操作装置3との間で信号の授受をするための接続部である。インタフェース12は、頭部装着装置2及び操作装置3から受信した信号に所定の処理を行ってデータを取得し、取得したデータを制御部11に入力する。また、インタフェース12は、制御部11から入力されたデータに所定の処理を行って信号を生成し、生成した信号を頭部装着装置2及び操作装置3に送信する。
記憶部13は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクドライブ等を含む記憶媒体である。記憶部13は、制御部11が実行するプログラムを予め記憶している。また、記憶部13は、ユーザが入力可能な複数の文字、記号、アイコン等の入力要素を示す入力要素情報と、基準設定部113が設定した基準とする視線を示す基準情報と、入力受付部114が受け付けたユーザにより入力された入力要素を示す入力情報とを記憶する。記憶部13は、視線入力装置1の外部に設けられてもよく、その場合にインタフェース12を介して制御部11との間でデータの授受を行ってもよい。
制御部11は、例えばCPU(Central Processing Unit)等のプロセッサであり、記憶部13に記憶されたプログラムを実行することにより、視線特定部111、表示制御部112、基準設定部113、入力受付部114及び出力部115として機能する。視線特定部111、表示制御部112、基準設定部113、入力受付部114及び出力部115の機能については、図4~図7を用いて後述する。制御部11の機能の少なくとも一部は、電気回路によって実行されてもよい。また、制御部11の機能の少なくとも一部は、ネットワーク経由で実行されるプログラムによって実行されてもよい。
本実施形態に係る視線入力システムSは、図2に示す具体的な構成に限定されない。例えば視線入力装置1は、1つの装置に限られず、2つ以上の物理的に分離した装置が有線又は無線で接続されることにより構成されてもよい。
[頭部装着装置2の構成]
図3(a)、図3(b)は、本実施形態に係る頭部装着装置2の正面図である。図3(a)、図3(b)は、頭部装着装置2がユーザの頭部に装着されている状態を表している。図3(a)の頭部装着装置2は、ユーザの頭部に固定される固定部24を有する。例えば固定部24は、一部を切り欠いたリング状の形状を有し、ユーザの頭部を挟みこむ構造を有する。これにより固定部24は、頭部装着装置2の表示部21及び撮像部22をユーザの頭部に直接固定する。
図3(b)の頭部装着装置2は、ユーザが装着している眼鏡に固定される固定部24を有する。例えば固定部24は、クリップ等によって眼鏡のつる(テンプル)を挟み込む構造を有する。これにより固定部24は、ユーザが装着している眼鏡を介して、頭部装着装置2の表示部21及び撮像部22をユーザの頭部に固定する。
固定部24は、図3(a)、図3(b)に示した構造に限られず、表示部21及び撮像部22をユーザの頭部に固定可能なその他構造であってもよい。
図3(a)、図3(b)に示すように、表示部21及び撮像部22は、固定部24によって、ユーザの一方の目の前方(すなわち、ユーザの頭部の前方)に固定される。頭部装着装置2はユーザの頭部に対して固定されているため、ユーザの頭部がどこを向いていても、表示部21は表示中の情報をユーザに視認させることができ、撮像部22はユーザの目を含む撮像範囲の画像を撮像できる。また、頭部装着装置2はユーザの頭部に対して固定されているため、ユーザが移動しても表示部21とユーザとの間の相対的な位置が変化せず、再度キャリブレーションをする必要がない。また、表示部21及び撮像部22がユーザの片目のみに設けられているため、ユーザは一方の目で文字入力をしている間に、他方の目で前方をみることができる。
[視線入力方法の説明]
(キャリブレーション)
本実施形態に係る視線入力方法において、まず視線入力装置1は、キャリブレーション処理を実行する。キャリブレーションは、視線入力のための基準となる視線を予め取得しておくことである。キャリブレーションを実行する間、視線特定部111は、ユーザの視線を所定の時間間隔で定期的に特定する。具体的には、まず視線特定部111は、頭部装着装置2の撮像部22が撮像した、ユーザの目を含む撮像範囲の撮像画像を取得する。
次に視線特定部111は、取得した撮像画像に基づいて、ユーザの視線(すなわちユーザの目の向き)を特定する。本実施形態に係る頭部装着装置2はユーザの頭部に固定されているため、撮像部22はユーザの目に対して相対的に固定されている。そのため、頭部装着装置2の頭部への固定がずれない限り、撮像画像中で目(眼球)全体の位置が動くことはなく、ユーザが見ている位置に応じて目の向きのみが変化する。したがって、ユーザの視線は、撮像画像中のユーザの黒目(すなわち瞳孔及び虹彩の少なくとも一方)の位置に対応する。
そこで視線特定部111は、取得した撮像画像から抽出したユーザの瞳孔及び虹彩の少なくとも一方の位置(例えば撮像画像中の瞳孔又は虹彩の重心の座標)を、ユーザの視線として特定する。このとき視線特定部111は、例えば撮像画像に対してパターンマッチングを行うことによって、ユーザの瞳孔及び虹彩の少なくとも一方の位置を抽出する。
視線特定部111が視線を特定する方法は、上述の具体的な方法に限定されず、その他方法であってもよい。例えば視線特定部111は目頭又は角膜上の輝点を基準点とし、瞳孔又は虹彩を動点とし、基準点と動点との間の位置関係に基づいて、ユーザの視線を特定してもよい。この場合には、基準点は視線によらず固定されており、動点は視線に応じて変化するため、基準点に対する動点の相対的な位置を、ユーザの視線として特定する。また、例えば視線特定部111は眼球の運動(すなわち眼球の回転角度、回転速度等)を検出することによって、視線を特定してもよい。
視線特定部111がユーザの視線を特定するのと並行して、表示制御部112は、頭部装着装置2の表示部21に信号を送信し、基準とする視線を設定するための設定画面を表示させる。
図4は、設定画面を表示している表示部21の模式図である。表示部21は、設定画面として、ユーザへの指示を示すメッセージM1と、基準位置Pを示す記号M2とを表示する。
基準位置Pは、基準とする視線を設定する際にユーザが見つめるための表示部21中の所定の1点である。本実施形態では、1点の基準位置Pを用いてキャリブレーションをしているが、2点の基準位置Pを用いてキャリブレーションをすることによって、基準視線を設定してもよい。基準位置Pは、例えば表示部21の中心点であるが、これに限られず、例えば所定の形状(円、四角形等)を有する領域であってもよい。記号M2は、ユーザに対して基準位置Pの点を見つめるように促す記号であり、例えば十字の記号の交差部分が基準位置Pに一致する。
メッセージM1は、ユーザに対して基準位置Pの点を見つめるように促す情報である。本実施形態では表示部21がメッセージM1を示す文字列を表示しているが、頭部装着装置2に設けられたスピーカからメッセージM1を示す音声を出力してもよい。メッセージM1を見た又は聞いたユーザは基準位置Pを見つめるため、ユーザの視線は基準位置Pに向いている状態になる。
表示制御部112が表示部21に設定画面を表示させた後、基準設定部113は、ユーザが基準位置Pを見ている際の視線を、基準視線として特定する。基準設定部113は、ユーザが基準位置Pを見ているタイミングを判定するために、ユーザが操作装置3を操作したタイミングを用いてもよい。この場合に、ユーザは、基準位置Pを見つめている間に操作装置3を操作(例えばボタンを押下)する。そして基準設定部113は、操作装置3から操作を示す信号を受信した際に基準視線を特定する。
また、基準設定部113は、ユーザが基準位置Pを見ているタイミングを判定するために、ユーザが所定の言葉を発したタイミングを用いてもよい。この場合に、ユーザは、基準位置Pを見つめている間に、頭部装着装置2に設けられたマイクロフォンに対して所定の言葉を示す音声を入力する。そして基準設定部113は、頭部装着装置2から所定の言葉を示す音声を受信した際に基準視線を特定する。基準設定部113は、音声から所定の言葉を検出するために、公知の音声認識技術を用いることができる。
また、基準設定部113は、ユーザが基準位置Pを見ているタイミングを自動的に判定してもよい。この場合に、基準設定部113は、例えば表示部21が設定画面を表示してから所定時間が経過した際や、ユーザの視線が停止してから所定時間が経過した際に、基準視線を特定する。
そして基準設定部113は、特定した基準視線を示す基準情報を記憶部13に記憶させることによって、基準とする視線を設定する。基準情報は、基準視線として特定されたユーザの瞳孔及び虹彩の少なくとも一方の位置(例えば撮像画像中の瞳孔又は虹彩の重心の座標)又は画像でもよい。
(入力要素の入力受付)
キャリブレーションが完了した後に、視線入力装置1は、ユーザによる入力要素の入力を受け付ける。入力受付のために、視線特定部111は、ユーザの視線を所定の時間間隔で定期的に特定する。視線特定部111がユーザの視線を特定する方法は、キャリブレーションの際と同様である。
視線特定部111がユーザの視線を特定するのと並行して、表示制御部112は、頭部装着装置2の表示部21に信号を送信し、ユーザによる入力を受け付けるための入力画面を表示させるための制御を行う。具体的には、まず表示制御部112は、記憶部13に予め記憶された入力要素情報を取得する。入力要素情報は、ユーザが入力可能な複数の文字、記号、アイコン等の入力要素を示す情報である。アイコンは、例えばロボットやコンピュータ等の装置に対する所定の指示(ロボットの特定の動作、特定のソフトウェアの実行等)に関連付けられた図形である。ユーザが入力可能な入力要素の種類(例えば日本語文字、英語文字、数字、記号等)は、ユーザによる入力に従って切り替えられてもよい。
次に表示制御部112は、取得した入力要素情報が示す入力要素の中で、頭部装着装置2の表示部21での表示対象を決定する。図5は、ユーザが入力可能な入力要素の模式図である。具体的には、表示制御部112は、入力要素情報が示す全ての入力要素を平面上に並べた全体領域R1を生成する。そして、表示制御部112は、全体領域R1のうち一部の領域である表示領域R2を、表示対象として決定する。表示領域R2は、入力要素情報が示す全ての入力要素のうち一部である複数の入力要素を含む。表示領域R2の大きさは、頭部装着装置2の表示部21の大きさに応じて予め設定される。
ユーザによる入力の受け付け開始時において、全体領域R1の中の表示領域R2は、所定の位置(初期位置)に設定される。例えば表示領域R2の初期位置は、全体領域R1の中心である。初期位置は、全体領域R1のその他の位置でもよい。
表示制御部112は、決定した表示領域R2を示す情報を頭部装着装置2の表示部21に送信し、ユーザによる入力を受け付けるための入力画面を表示させる。表示部21は、入力画面として、表示領域R2に含まれる複数の入力要素を表示する。
さらに表示制御部112は、基準設定部113が特定した基準視線と、視線特定部111が特定したユーザの現在の視線(現在視線)との関係に基づいて、全体領域R1の中の表示領域R2を変更する。
図6は、表示領域R2を変更する処理の模式図である。図6は、基準設定部113が特定した基準視線D1と、視線特定部111が特定した現在視線D2とを表している。図6では、視認性のために、基準視線D1及び現在視線D2をそれぞれ表示部21上に射影した位置に記号を表している。基準視線D1を表示部21上に射影した位置は、基準位置Pと一致する。
具体的には、表示制御部112は、基準設定部113が特定した基準視線D1を示す基準情報を記憶部13から取得する。また、表示制御部112は、視線特定部111が特定したユーザの最新の視線を現在視線D2として取得する。表示制御部112は、基準視線D1を基準とした現在視線D2の向き及び距離(すなわちベクトル)を算出する。基準視線D1を基準とした現在視線D2の距離は、基準視線D1の位置と現在視線D2の位置との間の差であり、例えば撮像画像中の瞳孔又は虹彩の重心の座標に基づいて算出してもよいし、表示部21上における基準視線D1及び現在視線D2の射影位置(座標)に基づいて算出してもよい。
そして表示制御部112は、算出した基準視線D1から現在視線D2への向き及び距離に基づいて、全体領域R1の中で表示領域R2を移動させる移動速度(すなわち移動の向き及び速さ)を決定する。表示制御部112は、基準視線D1から現在視線D2への向きを、全体領域R1の中で表示領域R2を移動させる向きとする。また、表示制御部112は、所定の規則に従って基準視線D1から現在視線D2への距離に基づいて算出した値を、全体領域R1の中で表示領域R2を移動させる速さとする。
ここで表示制御部112は、基準視線D1から現在視線D2への距離が大きいほど速さを大きくし、距離が小さいほど速さを小さくする。基準視線D1から現在視線D2への距離が所定値以下である場合(すなわち基準視線D1と現在視線D2とが近い場合)に、表示制御部112は速さをゼロにし、表示領域R2の移動を停止させる。例えば表示制御部112は、基準視線D1から現在視線D2への距離に比例するように速さを算出してもよく、あるいは基準視線D1から現在視線D2への距離の増加に応じて段階的(不連続)に増加するように速さを算出してもよい。表示制御部112は、このような向き及び速さを、移動速度として決定する。
表示制御部112は、所定の時間間隔で移動速度を決定し、決定した移動速度を用いて全体領域R1の中で表示領域R2を移動させ、移動後の表示領域R2を表示部21に表示させることを繰り返す。これにより表示制御部112は、ユーザの現在視線に応じて動的に全体領域R1の中の表示領域R2の位置及び移動速度を動的に変更し、ユーザが所望する入力要素を表示領域R2の中に移動させることができる。
このように表示制御部112は、基準視線から現在視線への向き及び距離のみを算出し、表示部21上における視線の精密な座標を特定しない。そのため、上述の基準設定部113による視線調節において、1つの点のみを見ているユーザの視線を基準として設定すればよく、ユーザが複数の点を順番に注視する必要がない。
このような構成により、ユーザは、基準位置Pから遠い位置を見ることによって、入力したい入力要素を素早く表示領域R2の中に移動させることができる。一方、ユーザは、基準位置Pから近い位置を見ることによって、入力した入力要素を細かく移動させることができる。
入力受付部114は、所定の条件が満たされた場合に、ユーザによる入力要素の入力を受け付ける。図7は、入力画面を表示している表示部21の模式図である。表示部21は、入力画面として、表示領域R2に含まれる複数の入力要素Eと、基準位置Pを示す記号M2とを表示する。基準位置Pを示す記号M2は、省略されてもよい。
図7には、入力領域R3が破線で表されている。入力領域R3は、基準位置Pを含む所定の領域である。入力領域R3の大きさ及び形状は予め設定される。入力領域R3は、図7の例では基準位置Pを中心とした所定の半径の円であるが、矩形や多角形等のその他の形状でもよい。入力領域R3の大きさは、1つの入力要素Eが入力領域R3に位置することができ、かつ2つ以上の入力要素Eが同時に入力領域R3に位置することができない大きさに設定されることが望ましい。
入力受付部114は、表示領域R2に含まれる複数の入力要素Eのうちいずれか1つの入力要素Eが入力領域R3に位置すると、時間のカウントを開始する。入力受付部114は、入力要素Eが入力領域R3に位置することを、(1)入力要素Eの代表点(中心点等)が入力領域R3内に位置していること、(2)入力要素Eの少なくとも一部が入力領域R3に重なっていること、(3)入力要素Eが基準位置Pに重なっていること、のうちいずれかによって検出する。
入力受付部114は、入力領域R3に位置する入力要素Eが替わった場合に、時間のカウントをリセットして改めて開始する。入力受付部114は、1つの入力要素Eについての時間のカウントが所定時間(例えば5秒)以上となった場合に、該入力要素Eを、ユーザによる入力として受け付ける。
出力部115は、入力受付部114がユーザによる入力として受け付けた入力要素を示す入力情報を、記憶部13に記憶させる。また、出力部115は、入力受付部114がユーザによる入力として受け付けた入力情報を、インタフェース12を介して外部に出力してもよい。
このように本実施形態に係る視線入力装置1は、基準視線と現在視線との間の関係(すなわち向き及び距離)に基づいて入力要素の入力を受け付けるため、ユーザが基準位置Pの1点を見つめる際の視線を基準視線として特定するだけで、キャリブレーションすることができる。これにより、ユーザは複数の点を順番に注視する必要がないため、キャリブレーションを容易にすることができる。
また、視線入力装置1は、全ての入力要素を含む全体領域の一部を表示領域として表示し、ユーザの視線に応じて表示領域を移動させるため、表示領域が移動しない場合に比べて各入力要素が大きく表示される。その結果、ユーザは、入力要素に対応する小さな領域を精密に注視する必要がなく、大きな領域を注視すればよいので、入力要素を容易に選択できる。
表示制御部112は、視線入力装置1がユーザによる入力を受け付けている期間には表示部21に入力要素を表示させ(すなわち表示部21をONにし)、視線入力装置1がユーザによる入力を受け付けていない期間には表示部21に入力要素を表示させなくて(すなわち表示部21をOFFにして)もよい。視線入力装置1がユーザによる入力を受け付けているか否かは、例えばユーザが操作装置3において所定の操作を行うことによって切り替えられる。これにより、視線入力装置1は文字入力を受け付けている期間のみユーザに対して入力要素を提示するため、ユーザは文字入力が可能か否かを容易に判断できる。
さらに表示部21は、透過型ディスプレイを用いて、光を通す透過状態と光を通さない非透過状態との間で切り替え可能に構成されてもよい。この場合に、表示制御部112は、視線入力装置1がキャリブレーションをしている期間又はユーザによる入力を受け付けている期間には光を通さない非透過状態に切り替え、視線入力装置1がそれ以外の期間には光を通す透過状態に切り替えてもよい。これにより、ユーザは、キャリブレーションをしていない際、及び文字入力をしていない際には両目で前方を見ることができる。
[視線入力方法のフローチャート]
図8は、本実施形態に係る視線入力方法のフローチャートを示す図である。図8のフローチャートは、例えばユーザが頭部装着装置2を装着することによって開始される。まず視線特定部111は、表示制御部112が基準位置Pを示す記号M2を表示部21に表示させている間に頭部装着装置2の撮像部22が撮像した撮像画像を用いて、ユーザの視線を特定することによりキャリブレーションする(S11)。表示制御部112は、頭部装着装置2の表示部21に信号を送信し、基準とする視線を設定するための設定画面を表示させる(S12)。
基準設定部113は、ユーザが設定画面の表示に従って基準位置Pを見ている際の視線を、基準視線として特定する(S13)。基準視線が特定できず、キャリブレーションが終了していない場合に(S14のNO)、視線入力装置1はステップS11に戻って処理を繰り返す。
キャリブレーションが終了した後に(S14のYES)、視線特定部111は、入力受付のために、頭部装着装置2の撮像部22が撮像した撮像画像を用いて、ユーザの視線を特定する(S15)。
表示制御部112は、入力要素情報の全ての入力要素を示す全体領域のうち表示対象とする一部の領域である表示領域を決定する(S16)。ユーザによる入力の受け付け開始時には、表示制御部112は、全体領域の中の表示領域を、所定の位置(初期位置)に設定する。その後には、表示制御部112は、基準設定部113が特定した基準視線と、視線特定部111が特定したユーザの現在視線との関係に基づいて表示領域の移動速度を算出し、算出した移動速度を用いて全体領域の中の表示領域を決定する。
表示制御部112は、初期位置又は移動後の表示領域を示す情報を頭部装着装置2の表示部21に送信し、ユーザによる入力を受け付けるための入力画面を表示させる(S17)。入力受付部114は、表示領域に含まれる複数の入力要素のうち、基準位置を含む所定の入力領域に位置するいずれか1つの入力要素について、時間のカウントを開始又は継続する(S18)。
時間のカウントをしている入力要素が替わった場合に(S19のYES)、入力受付部114は、時間のカウントをリセットし(S20)、ステップS23に進む。
時間のカウントをしている入力要素が替わっていない場合(S19のNO)であって、時間のカウントが所定時間以上になった場合に(S21のYES)、入力受付部114は、時間のカウントをしている入力要素を、ユーザによる入力として受け付ける(S22)。時間のカウントが所定時間以上になっていない場合に(S21のNO)、入力受付部114は、ステップS23に進む。
所定の終了条件(例えばユーザが頭部装着装置2を取り外すこと又は視線入力装置1に対して所定の終了操作を行うこと)が満たされていない場合に(S23のNO)、視線入力装置1はステップS15に戻って処理を繰り返す。所定の終了条件が満たされた場合に(S23のYES)、視線入力装置1は処理を終了する。
図8においては、キャリブレーション処理と入力受付処理とが連続的に行われているが、キャリブレーション処理と入力受付処理とは独立して行われてもよい。例えば視線入力装置1は、キャリブレーション処理を一回行った後に、入力受付処理を複数回行ってもよい。さらに視線入力装置1は、頭部装着装置2がユーザの頭部から取り外されて再装着された場合や、ユーザが操作装置3を用いてキャリブレーションの指示の操作を行った場合に、キャリブレーション処理を再度行ってもよい。
[実施形態の効果]
本実施形態によれば、視線入力装置1は、基準視線と現在視線との間の関係(すなわち向き及び距離)に基づいて入力要素の入力を受け付けるため、ユーザが基準位置Pを示す記号M2の1点を見つめる際の視線を基準視線として特定するだけで、キャリブレーションすることができる。頭部装着装置2はユーザの頭部に対して固定されているため、ユーザが移動しても、再度キャリブレーションをする必要がなく、キャリブレーションの回数自体を削減することができる。人間にとって、正面を注視することよりも、目だけを動かして正面から離れた周辺部を注視することは難しい。そのため、特許文献1の記載の技術のように複数の点を見つめてキャリブレーションをすることは、ユーザにとって負担となり得る。それに対して本実施形態に係る視線入力システムSは、ユーザが1点を見るだけで基準とする視線を設定できるため、キャリブレーション時のユーザの負担を軽減することができる。
また、視線入力装置1は、全ての入力要素を含む全体領域の一部を表示領域として表示し、ユーザの視線に応じて表示領域を移動させることによって、ユーザによる入力を決定する。そのため、視線入力装置1は、全体領域を表示する場合に比べて各入力要素を大きく表示させることができるので、ユーザは多数の入力要素のうち1つを精密に注視する必要がなく、入力要素を容易に選択できる。ユーザは入力したい入力要素を見続けると、入力したい入力要素が入力領域R3に近付くほど移動速度が遅くなるため、入力したい入力要素を入力領域R3の中に位置させることが容易である。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の分散・統合の具体的な実施の形態は、以上の実施の形態に限られず、その全部又は一部について、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を合わせ持つ。
視線入力装置1の制御部11(プロセッサ)は、図8に示す視線入力方法に含まれる各ステップ(工程)の主体となる。すなわち、制御部11は、図8に示す視線入力方法を実行するためのプログラムを記憶部13から読み出し、当該プログラムを実行して視線入力装置1の各部を制御することによって、図8に示す視線入力方法を実行する。図8に示す視線入力方法に含まれるステップは一部省略されてもよく、ステップ間の順番が変更されてもよく、複数のステップが並行して行われてもよい。
S 視線入力システム
1 視線入力装置
2 頭部装着装置
3 操作装置
11 制御部
13 記憶部
21 表示部
111 視線特定部
112 表示制御部
113 基準設定部
114 入力受付部

Claims (11)

  1. ユーザの視線を特定する視線特定部と、
    前記ユーザが前記ユーザの頭部に固定された表示部中の基準位置を見ている際に前記視線特定部が特定した前記視線を、基準視線として記憶部に記憶させる基準設定部と、
    入力可能な複数の入力要素を表す全体の領域のうち一部の領域を前記表示部に表示させるとともに、前記基準視線と前記視線特定部が特定した前記視線との間の関係に基づいて、前記全体の領域の中で前記一部の領域を変更する表示制御部と、
    前記一部の領域内の前記基準位置を含む所定領域に位置する入力要素の入力を受け付ける入力受付部と、
    を有し、
    前記表示制御部は、前記基準視線から前記視線特定部が特定した前記視線への向きに、前記全体の領域の中で前記一部の領域を移動させる、
    視線入力装置。
  2. 前記表示制御部は、前記基準視線と前記視線特定部が特定した前記視線との間の差に基づいて、前記一部の領域の移動の速さを変化させる、請求項に記載の視線入力装置。
  3. 前記表示制御部は、前記基準視線と前記視線特定部が特定した前記視線との間の差が所定値以下である場合に、前記一部の領域の移動を停止させる、請求項又はに記載の視線入力装置。
  4. 前記入力受付部は、前記所定領域に所定時間以上位置する前記入力要素を、前記ユーザによる入力として受け付ける、請求項1からのいずれか一項に記載の視線入力装置。
  5. 前記表示制御部が前記ユーザに対し前記表示部中の所定の1点を見つめるように促す情報を前記表示部に表示させた後に、前記基準設定部は前記基準視線を設定する、請求項1からのいずれか一項に記載の視線入力装置。
  6. 前記基準設定部は、前記ユーザが操作する操作装置の操作に応じて、前記基準視線を設定する、請求項1からのいずれか一項に記載の視線入力装置。
  7. 前記表示制御部は、前記入力受付部が前記ユーザによる入力を受け付ける期間には前記表示部に前記一部の領域を表示させ、前記入力受付部が前記ユーザによる入力を受け付けない期間には前記表示部に前記一部の領域を表示させない、請求項1からのいずれか一項に記載の視線入力装置。
  8. 前記表示制御部は、前記入力受付部が前記ユーザによる入力を受け付ける期間には前記表示部が光を透過しない状態に切り替え、前記入力受付部が前記ユーザによる入力を受け付けない期間には前記表示部が光を透過する状態に切り替える、請求項に記載の視線入力装置。
  9. プロセッサが、
    ユーザの視線を特定するステップと、
    前記ユーザが前記ユーザの頭部に固定された表示部中の基準位置を見ている際に前記特定するステップで特定された前記視線を、基準視線として記憶部に記憶させるステップと、
    入力可能な複数の入力要素を表す全体の領域のうち一部の領域を前記表示部に表示させるとともに、前記基準視線と前記特定するステップで特定された前記視線との間の関係に基づいて、前記全体の領域の中で前記一部の領域を変更するステップと、
    前記一部の領域内の前記基準位置を含む所定領域に位置する入力要素の入力を受け付けるステップと、
    を実行し、
    前記変更するステップにおいて、前記基準視線から前記特定するステップで特定された前記視線への向きに、前記全体の領域の中で前記一部の領域を移動させる、
    視線入力方法。
  10. コンピュータに、
    ユーザの視線を特定するステップと、
    前記ユーザが前記ユーザの頭部に固定された表示部中の基準位置を見ている際に前記特定するステップで特定された前記視線を、基準視線として記憶部に記憶させるステップと、
    入力可能な複数の入力要素を表す全体の領域のうち一部の領域を前記表示部に表示させるとともに、前記基準視線と前記特定するステップで特定された前記視線との間の関係に基づいて、前記全体の領域の中で前記一部の領域を変更するステップと、
    前記一部の領域内の前記基準位置を含む所定領域に位置する入力要素の入力を受け付けるステップと、
    を実行させ
    前記変更するステップにおいて、前記基準視線から前記特定するステップで特定された前記視線への向きに、前記全体の領域の中で前記一部の領域を移動させる、
    視線入力プログラム。
  11. ユーザの頭部に固定された頭部装着装置と、
    前記頭部装着装置との間で信号を授受する視線入力装置と、
    を有し、
    前記頭部装着装置は、前記ユーザが視認できるように前記ユーザの頭部に固定された表示部を備え、
    前記視線入力装置は、
    前記ユーザの視線を特定する視線特定部と、
    前記ユーザが前記表示部中の基準位置を見ている際に前記視線特定部が特定した前記視線を、基準視線として記憶部に記憶させる基準設定部と、
    入力可能な複数の入力要素を表す全体の領域のうち一部の領域を前記表示部に表示させるとともに、前記基準視線と前記視線特定部が特定した前記視線との間の関係に基づいて、前記全体の領域の中で前記一部の領域を変更する表示制御部と、
    前記一部の領域内の前記基準位置を含む所定領域に位置する入力要素の入力を受け付ける入力受付部と、
    を備え
    前記表示制御部は、前記基準視線から前記視線特定部が特定した前記視線への向きに、前記全体の領域の中で前記一部の領域を移動させる、
    視線入力システム。
JP2018109288A 2018-06-07 2018-06-07 視線入力装置、視線入力方法、視線入力プログラム及び視線入力システム Active JP7115737B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018109288A JP7115737B2 (ja) 2018-06-07 2018-06-07 視線入力装置、視線入力方法、視線入力プログラム及び視線入力システム
PCT/JP2019/021937 WO2019235408A1 (ja) 2018-06-07 2019-06-03 視線入力装置、視線入力方法、視線入力プログラム及び視線入力システム
CN201980036881.3A CN112219179A (zh) 2018-06-07 2019-06-03 视线输入装置、视线输入方法、视线输入程序以及视线输入系统
US17/100,966 US20210072827A1 (en) 2018-06-07 2020-11-23 Line-of-sight input device, method of line-of-sight input, and line-of-sight input system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018109288A JP7115737B2 (ja) 2018-06-07 2018-06-07 視線入力装置、視線入力方法、視線入力プログラム及び視線入力システム

Publications (3)

Publication Number Publication Date
JP2019212151A JP2019212151A (ja) 2019-12-12
JP2019212151A5 JP2019212151A5 (ja) 2021-07-26
JP7115737B2 true JP7115737B2 (ja) 2022-08-09

Family

ID=68770436

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018109288A Active JP7115737B2 (ja) 2018-06-07 2018-06-07 視線入力装置、視線入力方法、視線入力プログラム及び視線入力システム

Country Status (4)

Country Link
US (1) US20210072827A1 (ja)
JP (1) JP7115737B2 (ja)
CN (1) CN112219179A (ja)
WO (1) WO2019235408A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010102215A (ja) 2008-10-27 2010-05-06 Sony Computer Entertainment Inc 表示装置、画像処理方法、及びコンピュータプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08321973A (ja) * 1995-05-24 1996-12-03 Canon Inc 視線入力装置
JP2000020196A (ja) * 1998-07-01 2000-01-21 Shimadzu Corp 視線入力装置
JP2004287823A (ja) * 2003-03-20 2004-10-14 Seiko Epson Corp ポインティング操作支援システム
JP2014092940A (ja) * 2012-11-02 2014-05-19 Sony Corp 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
JP6183188B2 (ja) * 2013-12-02 2017-08-23 富士通株式会社 表示装置,プログラム及び表示方法
US20160209918A1 (en) * 2015-01-16 2016-07-21 Kabushiki Kaisha Toshiba Electronic apparatus and method
CN108139813A (zh) * 2015-10-19 2018-06-08 鸥利研究所股份有限公司 视线输入装置、视线输入方法以及视线输入程序
JP2017091327A (ja) * 2015-11-12 2017-05-25 富士通株式会社 ポインティング支援装置、ポインティング支援方法およびポインティング支援プログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010102215A (ja) 2008-10-27 2010-05-06 Sony Computer Entertainment Inc 表示装置、画像処理方法、及びコンピュータプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
伊藤 和幸,「文字入力インタフェース」,ヒューマンインタフェース学会誌,日本,ヒューマンインタフェース学会 Human Interface Soci,2002年08月09日,第4巻、第3号,第151-156頁

Also Published As

Publication number Publication date
US20210072827A1 (en) 2021-03-11
CN112219179A (zh) 2021-01-12
WO2019235408A1 (ja) 2019-12-12
JP2019212151A (ja) 2019-12-12

Similar Documents

Publication Publication Date Title
US10585288B2 (en) Computer display device mounted on eyeglasses
US9965030B2 (en) Wearable glasses and method of displaying image via the wearable glasses
US11481025B2 (en) Display control apparatus, display apparatus, and display control method
KR101709611B1 (ko) 디스플레이와 카메라가 장착된 스마트 안경과 이를 이용한 공간 터치 입력 및 보정 방법
WO2019187487A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2016177658A (ja) 仮想入力装置、入力方法、およびプログラム
CN108369451B (zh) 信息处理装置、信息处理方法及计算机可读存储介质
KR20150064591A (ko) 검안기기 제어방법
JP2016082411A (ja) ヘッドマウントディスプレイ、画像表示方法及びプログラム
JP6341759B2 (ja) 頭部装着型情報表示装置及び頭部装着型情報表示装置の制御方法
EP3985486B1 (en) Glasses-type terminal
EP3346368B1 (en) Device, method and system for control of a target apparatus
CN115598842A (zh) 提升用户体验和注视互动准确度的光学系统和相关方法
CN113655638A (zh) 用于控制智能家电的方法及装置、智能眼镜
JP7115737B2 (ja) 視線入力装置、視線入力方法、視線入力プログラム及び視線入力システム
JP2018112753A (ja) 情報表示端末及び情報表示方法
JP6637757B2 (ja) 眼調節機能支援システム
JP2019086916A (ja) 作業支援装置、作業支援方法、作業支援プログラム
US20210389827A1 (en) Wearable user interface control system, information processing system using same, and control program
CN113641238A (zh) 一种控制方法、装置、终端设备、受控设备及存储介质
JP7031112B1 (ja) 眼鏡型端末
CN110162170A (zh) 基于终端可扩展区域的控制方法及装置
JP7080448B1 (ja) 端末装置
WO2017122508A1 (ja) 情報表示システムおよび情報表示方法
WO2022158280A1 (ja) 撮影装置、撮影制御方法、及び、プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210513

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220721

R150 Certificate of patent or registration of utility model

Ref document number: 7115737

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150