JP6348191B2 - 電子機器 - Google Patents

電子機器 Download PDF

Info

Publication number
JP6348191B2
JP6348191B2 JP2016572152A JP2016572152A JP6348191B2 JP 6348191 B2 JP6348191 B2 JP 6348191B2 JP 2016572152 A JP2016572152 A JP 2016572152A JP 2016572152 A JP2016572152 A JP 2016572152A JP 6348191 B2 JP6348191 B2 JP 6348191B2
Authority
JP
Japan
Prior art keywords
image
line
display
user
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016572152A
Other languages
English (en)
Other versions
JPWO2016121883A1 (ja
Inventor
明良 野田
明良 野田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Publication of JPWO2016121883A1 publication Critical patent/JPWO2016121883A1/ja
Application granted granted Critical
Publication of JP6348191B2 publication Critical patent/JP6348191B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本出願は、ユーザの目の動作に応じて、所定の入力を行うことが可能な電子機器に関する。
上記の電子機器として、近年、画像およびマウスを表示する表示部と、ユーザの視線方向を検出する視線検出装置と、検出された視線方向に表示部に表示されているマウスを移動させる表示制御部と、を備えるヘッドマウントディスプレイが知られている(例えば、特許文献1参照)。
特開2011−125692号公報
特許文献1に記載のヘッドマウントディスプレイにおいては、入力の際の操作性をさらに向上させる新規な入力態様の提案が望まれる。
本出願の目的は、目の動作に応じて、所定の入力を行うことが可能な電子機器において、操作性がさらに向上された電子機器を提供することにある。
態様の一つに係る電子機器は、表示部と、ユーザの視線の移動動作に基づいて、前記表示部の表示領域におけるユーザの視線位置を推定する制御部と、を備え、前記制御部は、前記表示領域に第1画像が表示された状態で、前記視線位置が、該第1画像から離れる方向に向かって、前記第1画像の領域から所定距離だけ離れたことを契機に、該第1画像を非表示にするものである。
態様の一つに係る電子機器は、第1表示領域と第2表示領域とを有する表示部と、ユーザの視線の移動動作に基づいて、前記表示部におけるユーザの視線位置を推定する制御部と、を備え、前記制御部は、前記第2表示領域に第1画像が表示された状態で、前記視線位置が前記第2表示領域から所定距離だけ離れたことを契機に、該第1画像を非表示にするものである。
態様の一つに係る電子機器は、表示部と、ユーザの視線の移動動作に基づいて、前記表示部の表示領域におけるユーザの視線位置を推定する制御部と、を備え、前記制御部は、前記表示領域中において、第1範囲と、該第1範囲を包含しかつ該第1範囲よりも大きい第2範囲と、を設定し、前記第1範囲内に前記第1画像が表示された状態で、前記視線位置が前記第2範囲外へ移動したことを契機に、該第1画像を非表示にするものである。
態様の一つに係る電子機器は、表示部と、ユーザの視線の移動動作に基づいて、前記表示部の表示領域におけるユーザの視線位置を推定する制御部と、を備え、前記制御部は、前記視線位置が第1方向へ第1距離移動したことを契機に、前記表示領域における前記第1方向側に第1画像を表示し、前記第1画像が表示された状態で、前記視線位置が前記第1方向とは反対側の第2方向へ前記第1距離よりも長い第2距離移動したことを契機に該第1画像を非表示にするものである。
態様の一つに係る電子機器は、第1画像を表示する表示部と、ユーザの視線の移動動作に基づいて、前記表示部の表示領域におけるユーザの視線位置を推定する制御部と、を備え、前記制御部は、前記第1画像の領域が前記表示領域に対して占める割合が所定値未満の場合に、前記視線位置が該第1画像の領域から所定距離だけ離れたことを契機に、該第1画像を非表示にするものである。
図1は、一実施形態に係る電子機器1の概略構成の一例を示す図である。 図2は、一実施形態に係る電子機器1の後ろ側の一例を示した図である。 図3は、一実施形態に係る他の電子機器1の後ろ側の一例を示した図である。 図4は、一実施形態に係る一実施形態に係る電子機器1の機能ブロックの一例を示す図である。 図5は、一実施形態に係るユーザの所定の目の動作とそれに対応付けられた処理パターンの組み合わせの一例を示す図である。 図6Aは、電子機器1の表示部20の表示態様の一例を示す図である。 図6B−1は、電子機器1の表示部20の表示態様の一例を示す図である。 図6B−2は、電子機器1の表示部20の表示態様の一例を示す図である。 図6Cは、電子機器1の表示部20の表示態様の一例を示す図である。 図7Aは、電子機器1の表示部20の表示態様の他の一例を示す図である。 図7Bは、電子機器1の表示部20の表示態様の他の一例を示す図である。 図8Aは、電子機器1の表示部20の表示態様の他の一例を示す図である。 図8Bは、電子機器1の表示部20の表示態様の他の一例を示す図である。 図9Aは、電子機器1の表示部20の表示態様の他の一例を示す図である。 図9Bは、電子機器1の表示部20の表示態様の他の一例を示す図である。 図10Aは、電子機器1の表示部20の表示態様の他の一例を示す図である。 図10Bは、電子機器1の表示部20の表示態様の他の一例を示す図である。 図10Cは、電子機器1の表示部20の表示態様の他の一例を示す図である。 図10Dは、電子機器1の表示部20の表示態様の他の一例を示す図である。 図11Aは、電子機器1の別の形状の一例を示す図である。 図11Bは、電子機器1の別の形状の一例を示す図である。
以下、本出願を実施するための実施形態を、本出願につき図面を参照しつつ詳細に説明する。なお、以下の説明により本出願が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。
図1は、一実施形態に係る電子機器1の概略構成の一例を示す図である。図1に示す電子機器1は、ユーザの頭部に装着可能な装着部10と、装着部10に取付けられてユーザの眼前に配置される表示部20と、装着部10の一部に設けられる操作部30と、を備える。表示部20は、該表示部20の一部又は全部の領域に、ユーザが視認できるように画像を表示する。
電子機器1は、図1に示すように、眼鏡形状或いはゴーグル形状である。電子機器1の装着部10は、正面部11と、側面部12、13とからなる。装着部10がユーザに装着されたとき、正面部11は、ユーザの眼前に配置され、側面部12、13は、ユーザの側頭部に沿って配置される。
正面部11は、上述したように、ユーザに装着された場合、ユーザの眼前に配置される部分である。正面部11は、ブリッジと、ブリッジを隔てて左右に設けられる二つの縁部、いわゆるリムとが一体となって構成されている。ブリッジは、電子機器1の装着時にユーザの鼻と接する部分であり、ユーザの鼻に沿って凹んだ形状である。縁部は、表示部20を支持している。また、縁部は、側面部12、13と連結している。
側面部12、13は、上述したようにユーザに装着された場合、ユーザの両側頭部に沿って配置される部分、いわゆる眼鏡の弦の部分である。側面部12、13は、一方の端部が正面部11の一方の端部と連結している。ここで、正面部11と連結される側面部12の端部である眼鏡の弦の根元部分には、ユーザの使用感に合わせるための、圧力調整用のバネや角度を変更するアジャスタが配置されている。
表示部20は、ユーザの左右の目の眼前に設けられる一対の表示部である第1表示部20aと第2表示部20bとを有している。表示部20は、第1表示部20a、第2表示部20bの周囲が、正面部11の縁部によって囲われている。
表示部20は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)や、有機EL(Organic Electro−Luminescence)パネルなどで構成された表示パネルを用いることができる。ここで、表示部20は、表示パネルを半透明または透明の板状部材で作製することが好ましい。表示部20の表示パネルを半透明または透明の板状部材で作製することで、ユーザが表示部20を介して景色を見ることができる。
操作部30は、側面部12と側面部13の其々に設けられる。操作部30は、接触を検出するタッチセンサ30a、30bである。タッチセンサ30a、30bには、例えば、静電容量式、超音波式、感圧式、抵抗膜式、光検知式等、各種方式のセンサが用いられ得る。尚、電子機器1において、操作部30は、タッチセンサ30a、30bの何れか一方のみを有する構成であってもよい。
図2は、一実施形態に係る電子機器1の後ろ側の一例を示した図である。電子機器1は、後述する検出部40としての筋電センサを備える。
筋電センサは、ユーザの目の周辺に接触可能な位置に設けられる電極を有する。筋電センサは、例えばまばたきや視線移動を含むユーザの目の動作に伴って生じる筋電位を検出する。ここで、筋電位を測定するための測定電極として、ユーザの鼻の左右側部のそれぞれに接触可能な第1電極40aと第2電極40bとが、装着部10のブリッジから延設されるノーズパッドに設けられる。また、基準電極として、ユーザの鼻の中央部に接触可能な第3電極40cがブリッジに設けられる。このような構成とすることにより、筋電センサは、例えば、ユーザが視線を所定の方向に移動させた、或いは、まばたきを行ったときに、第3電極40cを基準とした第1電極40a及び第2電極40bの電位の変化を検出する。
筋電センサに用いられる基準電極としての第3電極40cは、ブリッジとは異なる位置に設けられていてもよい。例えば、第3電極40cは、側面部12或いは側面部13における、正面部11とは反対側の端部近傍に設けてられてもよい。なお、電極の配置構成はこれらに限定されるものではなく、公知の種々の技術が適用されてよい。
また、図2において、電子機器1が検出部40として筋電センサを備える構成を示したが検出部40は筋電センサに限定されない。
図3は、一実施形態に係る電子機器1の後ろ側の一例を示した図である。電子機器1は、検出部40としての撮像部を備える。
撮像部は、電子機器1の正面部11において、ユーザの顔面に対面するように設けられる。撮像部は、正面部11の左右両端部の近傍に其々設けられる。其々の撮像部は、40d、40eとする。撮像部は、撮像レンズ、絞り、ズームレンズ、及びフォーカスレンズ等により構成されるレンズ系、レンズ系に対してフォーカス動作やズーム動作を行わせる駆動系、レンズ系で得られる撮像光を光電変換して撮像信号を生成する固体撮像素子アレイ等を有する。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイにより実現されてよい。
次に、図4を参照して、電子機器1の機能について説明する。図4は、一実施形態に係る電子機器1の機能ブロックの一例を示す図である。図4に示すように、電子機器1は、表示部20、操作部30、検出部40、制御部50、記憶部60、及び通信部70を備える。
表示部20は、制御部50による制御に基づいて映像や画像を表示する。なお、表示部20は、ユーザが視認できる画像を表示することができれば、つまりユーザに画像を見せることができればよく、種々の構成を用いることができる。例えば、表示部20としては、プロジェクタのように表示パネル或いはスクリーンに画像を投影する構成としてもよい。なお、画像を投影させる場合、レーザ光を走査させて画像を投影する構成としてもよいし、液晶パネルに光を透過させて画像を投影する構成としてもよい。また、表示部20からユーザに向けて直接レーザ光を照射することでユーザに対して画像を表示する構成としてもよい。
操作部30は、前述したように、例えば、電子機器1の側面部12、13に設けられるタッチセンサである。操作部30は、側面部12、13においてユーザの指が触れた位置を入力位置として検出する。操作部30は、検出した入力位置に応じた信号を制御部50へ出力する。これにより、ユーザは、電子機器1に対して種々のタッチ操作を行うことができる。タッチ操作の種類として、例えば、側面部12、13に指を接触させた後、短時間のうちに指を離す操作や、側面部12、13を指で任意の方向、例えば、側面部の長手方向に弾く操作や、側面部12、13に指を接触させたまま側面部の長手方向へ移動させる操作等が挙げられる。なお、指を移動させる方向はこれに限らず、側面部の短手方向への指の接触移動を所定の操作として適用してもよい。また、側面部の長手方向への指の接触移動と側面部の短手方向への指の移動とを併せて検出してもよい。また、側面部が複数の面から構成される場合には、該複数の面に対する複数の接触に基づいて、例えば、複数の接触位置が互いに近づく方向へ移動すること等に基づいて、所定の操作を検出してもよい。
なお、操作部30は、タッチセンサに限定されず、例えば、単一または複数のボタンであってもよい。
検出部40は、該検出部40が筋電センサである場合、前述したように、ユーザが視線を所定の方向に移動させた、或いは、まばたきを行ったときの筋電位の変化を検出する。筋電センサは、検出された筋電位変化の情報を制御部50に出力する。
一方、検出部40が、撮像部である場合、撮像部は、ユーザの目の撮影を行う。撮像部は、撮影して取得された画像データ、或いは、所定の時間、例えば1/15秒毎に撮影して取得された一連の画像データを動画データとして制御部50に出力する。
制御部50は、例えば、マイクロプロセッサユニット(MPU:Micro Processing Unit)で構成されている。制御部50は、ソフトウェアで指示された手順にしたがって上述した電子機器1の各種の処理を実行する。すなわち、制御部50は、オペレーティングシステムプログラムやアプリケーションのプログラム等から命令コードを順次読み込んで処理を実行する。このように、制御部50は、各部の動作を制御し、各部に必要なデータ、例えば、表示部20に映像や画像を表示させるための制御信号、或いは画像信号を出力する。
また、制御部50は、検出部40としての筋電センサから出力された筋電位変化の情報に基づいて、ユーザの目の動作を推定、或いは検出する。目の動作としては、まばたきの有無、或いは、視線方向、視線位置の変化等も含む視線移動の有無等が該当する。
或いは、制御部50は、検出部40としての撮像部から出力された画像データ或いは動画データに含まれる被写体である目を抽出し、被写体である目の動きを解析することで、ユーザの目の動作を推定する。目の動作としては、まばたきの有無、或いは、視線方向、視線位置の変化等も含む視線移動の有無等が該当する。例えば、制御部50は、画像データ或いは動画データに含まれる被写体である目を抽出し、さらに黒目領域の中心を算出する等の所定の処理を施すことによって視線移動の有無を推定する。なお、画像から被写体を抽出する方法としては、種々の画像処理技術を用いることができる。
記憶部60は、例えば、不揮発性の記憶デバイス、例えば、ROM(Read Only Memory)等の不揮発性半導体メモリ、ハードディスク装置等や、読み書き可能な記憶デバイス、例えば、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)等で構成され、各種プログラムを記憶する。記憶部60は、検出部40から出力された情報から推定され得るユーザの目の動作パターンと、各動作パターンに対応付けられた複数の表示処理パターンとを予め記憶している。
通信部70は、アンテナとRF回路部とから成り、制御部50による制御に基づいて、外部装置と例えば電話通信や情報通信を含む通信を行う。
以下、電子機器1がユーザの目の所定動作を検出することで、該動作に対応付けられた所定の処理を行う、即ち、所定操作がなされる例を、図5〜図10Dを参照して説明する。図5は、一実施形態に係るユーザの所定の目の動作とそれに対応付けられた処理パターンの組み合わせの一例を示す図である。図5は、記憶部60に記憶される、ユーザの所定の目の動作とそれに対応付けられた処理パターンの組み合わせの一例を示している。図6A〜図10Dは、電子機器1において、図5に例示された所定の処理パターンに基づいた表示部20の表示態様の一例を示す図である。
パターン1において、ユーザは、正視した状態にあり、目の所定の動作を行っていない。この場合、制御部50は、ユーザによる入力操作があったことを認識せず、従って特に処理は行わない。
パターン2における「視線の所定方向への移動」は、例えば、表示部20に表示される所定オブジェクトを表示画像中において所定方向へ移動させる処理(操作)に対応付けられる。また、「視線の所定方向への移動」は、例えば、表示画像中における所定の位置を指定する処理に対応付けられてもよい。また、「視線の所定方向への移動」は、例えば、表示部20の表示領域に新たな画像を表示させる処理に対応付けられてもよい。
パターン3における「視線の所定方向への移動後に注視」する動作は、例えば、電子機器1に所定の処理を実行させる操作に対応付けられる。例えば、ユーザの視線位置が表示部20に表示された所定の操作アイコンと重なる位置に移動した後に、所定時間、例えば1秒以上継続して操作アイコンと重なっている場合に、操作アイコンが選択されたものと見なされ、操作アイコンに対応付けられた所定の処理を実行するようにする。
パターン4における「複数回の瞬き」を行う動作は、例えば、電子機器1に所定の処理を実行させる操作に対応付けられる。例えば、ユーザの視線位置が表示部20に表示された所定の操作アイコンと重なっている状態で、瞬きを複数回行うと、操作アイコンが選択されたものと見なされ、操作アイコンに対応付けられた所定の処理を実行するようにする。また、他にも、電子機器1の起動・停止、スリープ状態への移行・解除、音楽アプリ―ケーションにおける音楽再生の実行・停止等のI/O動作を実現させるための操作に割り当てられてもよい。
次に、目の所定動作の検出に基づいて所定の処理を実行する例について説明する。図6A,図6B−1,図6B−2,図6Cは、電子機器1の表示部20の表示態様の一例を示す図である。図1に示す電子機器1のように、表示部20の形状は曲線部分を含みうるが、図6A,図6B−1,図6B−2,図6Cでは、表示部20の一部の領域を抜粋した長方形状の領域を表示領域21として示している。
図6Aに示す状態は、表示部20が何も画像を表示していない状態であり、例えば、ユーザが正視状態にある場合、図5におけるパターン1に該当する。このとき、制御部50は、検出部40が検出する検出結果に基づいて、表示部20の表示領域21におけるユーザの視線位置を検出している。図6Aにおいては、ユーザの視線位置が十字のアイコン101として表示されている。なお、電子機器1においては、必ずしも視線位置をユーザが視認できるように表示する必要はなく、単に視線位置を検出していれば足りる。なお、本実施例では、アイコン101が単に視線位置を示しているものとして説明していく。
ここで、ユーザの視線位置が、図6Aに示される位置101にある状態から、図6B−1に示される位置102へ移動したことを制御部50が推定すると、これを契機に、表示領域21にオブジェクト201である第1画像が表示される。なお、図6B−1において、視線位置が移動する前の該視線位置101を破線で示し、視線位置が移動した後の該視線位置102を実線で示している。以後同様に、視線位置の移動を説明する場合には、移動前の視線位置を破線、移動後の視線位置を実線で示すことにする。制御部50は、視線位置の移動を推定すると、該位置の移動方向を推定し、表示領域21における、推定した方向に基づいた位置にオブジェクト201を表示する。図6B−1の例においては、推定した、位置101から位置102へ向かう方向である略右方向(以下、「第1方向」という。)に基づいて、表示領域21における右方向側である第1方向側にオブジェクト201を表示する。
図6B−1において、オブジェクト201は、歩行案内をユーザに提供するための画像である。オブジェクト201には、任意の出発地点から任意の目的地点に向かう道順が示されている。オブジェクト201は、ユーザが進むべき方向、或いは曲がるべき曲がり角を示す矢印アイコンとこれに付随する文字情報とを含んでいる。オブジェクト201は、例えば、有色透明な画像上に不透明な文字が重ねられて表示されてもよいし、不透明な画像上に不透明な文字が重ねられて表示されてもよい。
ここで、視線位置の移動方向と、該移動方向に基づくオブジェクト201の表示位置と、の規定は適宜定められてよい。例えば、移動方向を左右上下の4方向に規定し、視線位置の移動ベクトル成分を4方向に分解し、該4方向の内、最も移動した成分が大きい方向に基づいて、オブジェクト201の表示位置を決定してもよい。なお、左右方向は、表示領域21が長方形状の場合には下辺又は上辺に平行な方向と規定してもよいし、或いは水平方向と規定してもよいし、或いは第1表示部20aと第2表示部20bとが並ぶ方向と規定してもよい。また、視線位置の移動方向は、方位間隔を90°とした左右上下の4方向でなく、方位間隔を45°とした8方向に規定されてもよい。また、表示領域21を複数の分割された領域として規定し、該複数の領域の内、視線位置の移動方向と交わる領域にオブジェクト201を表示するようにしてもよい。図6B−2は、表示領域21を5分割して規定した場合の模式図を示している。5分割された各領域は、例えば、表示領域21の各端辺を含む4つの領域21(a)〜(d)と、中心部を含む領域21(e)を有している。ここで、視線位置が位置101から位置102に移動すると、該移動方向と領域21(a)〜(d)との交点を推定し、該交点が推定された領域にオブジェクト201を表示する。ここで、4つの領域21(a)〜(d)と視線位置の移動方向との交点は、表示領域21の内側で推定された点を適用してもよいし、表示領域21の外側で推定された点を適用してもよい。具体的には例えば、表示領域21の内側で推定された点301を適用し、該点301を含む領域21(b)にオブジェクト201を表示してもよいし、一方で、表示領域21の外側で推定された点302を適用し、点302を含む領域21(d)にオブジェクト201を表示するようにしてもよい。
このように、電子機器1は、ユーザの視線の移動動作を検出する検出部40の検出結果に基づいて、表示部20の表示領域21におけるユーザの視線位置を推定し、該視線位置が第1方向へ移動したことを契機に、表示領域21における第1方向側に第1画像を表示する構成を有する。従って、表示領域21においてユーザが視認している位置の近くに有用な情報を表示させることができる。
再度、図6B−1を参照すると、図6B−1に示すように、オブジェクト201である第1画像が表示されている状態で、図6Cに示すように、視線位置が、オブジェクト201から離れる方向である位置102から位置103へ向かう方向に向かって、該オブジェクト201の領域から所定距離d1だけ離れたことを制御部50が推定すると、これを契機に、該オブジェクト201が非表示となる。なお、オブジェクト201が非表示となっていることを模式的に示すために、オブジェクト201が表示されていた領域を破線で示している。以後同様に、オブジェクト201が非表示となっていることを示す場合には、オブジェクト201が表示されていた領域を破線で示すことにする。
ここで、視線位置が「オブジェクト201から離れる方向」に移動しているか否かを、例えば、横方向である左右と縦方向である上下とを規定し、視線位置の移動ベクトル成分を横方向と縦方向とに分解したときの2つのベクトル成分に基づいて判定してもよい。例えば、視線位置の移動ベクトル成分を横方向と縦方向とに分解し、横方向への移動ベクトル成分と、縦方向への移動ベクトル成分と、の双方が、オブジェクト201から離れる方向を有している場合に、「オブジェクト201から離れる方向」と判定してよい。また、例えば、横方向への移動ベクトル成分と、縦方向への移動ベクトル成分と、の内の一方が、オブジェクト201から離れる方向を有している場合に、「オブジェクト201から離れる方向」と判定してよい。また、例えば、横方向への移動ベクトル成分と縦方向への移動ベクトル成分の内、移動距離の長い一方を採用し、該方向がオブジェクト201から離れる方向である場合に、「オブジェクト201から離れる方向」へ視線位置が移動しているものと見なしてもよい。なお、視線位置の移動方向は、方位間隔を90°とした上下左右の4方向でなく、方位間隔を45°とした8方向として規定されてもよいし、方向をさらに細分化してもよい。
ここで、ユーザの一連の視線移動における視線経路が直線的でなく曲線部分や屈曲部分を所定割合以上含む場合には、視線位置の移動方向、或いはベクトルが一定でなくなる。このような場合、例えば、視線移動が開始された点である始点と一連の視線移動が終了した点である終点とを結んだ仮想線をユーザの視線移動の方向と特定してもよい。また、例えば、一連の視線移動が推定されると、該視線移動が終了した点である終点から所定区間遡った点とを結んだ仮想線をユーザの視線移動の方向と特定してもよい。
また、ユーザの意図していない視線移動によってオブジェクト201が表示されないように、視線位置の移動を検出した後、所定時間以上、視線位置の変動が検出されなかった場合に、オブジェクト201を表示するようにしてもよい。
このように、電子機器1は、第1画像が表示された状態で、視線位置が、該第1画像から離れる方向に向かって、第1画像の領域から所定距離だけ離れたことを契機に、該第1画像を非表示にする構成を有する。このような構成を有することにより、例えば、ユーザが第1画像と他の画像、或いは表示部20越しに視認される景色の中の所定の対象物とを見比べたい場合に、視線位置が第1画像の領域から外れて第1画像が非表示となったり、視線位置が再度第1画像の領域に近づくことで第1画像が再度表示されたり、といった繰返しがなされないため、使い勝手がよい。
次に、電子機器1の表示部20の他の表示態様について説明する。図7A,図7Bは、電子機器1の表示部20の表示態様の他の一例を示す図である。図7A,図7Bに示す例では、表示領域21が破線で互いに分断される第1表示領域21(f)と第2表示領域21(g)との少なくとも二つの領域が規定されている。
図7Aに示すように、制御部50は、視線位置が第1表示領域21(f)内の位置101から第2表示領域21(g)内の位置102へ移動したことを推定し、これを契機に、第2表示領域21(g)にオブジェクト201である第1画像を表示させる。なお、視線位置が移動する前においては、オブジェクト201が表示されておらず、図6Aに示す状態と同様となるため、図示を省略する。
次に、図7Bに示すように、オブジェクト201である第1画像が表示されている状態で、制御部50は、視線位置が第2表示領域21(g)から所定距離d2だけ離れたことを契機に、該オブジェクト201を非表示にする。
このように、電子機器1は、視線位置が表示領域21の内の第1表示領域21(f)から第2表示領域21(g)へ移動したことを契機に、該第2表示領域21(g)に第1画像を表示する構成を有する。従って、表示領域21においてユーザが視認している位置の近くに有用な情報を表示させることができる。また、電子機器1は、第1画像が表示された状態で、視線位置が第2表示領域21(g)から所定距離d2だけ離れたことを契機に、該第1画像を非表示にする構成を有する。従って、視線位置が第2表示領域21(g)の範囲を超えて該第2表示領域21(g)外へ移動したのみでは第1画像が非表示となることがない。
次に、電子機器1の表示部20の他の表示態様について説明する。図8A,図8Bは、電子機器1の表示部20の表示態様の他の一例を示す図である。図8A,図8Bに示す例では、視線位置が入ると第1画像を表示する第1範囲と、該第1範囲を包含しかつ該第1範囲よりも大きい第2範囲と、が規定されている。第1範囲は、表示領域21において破線で分断される2つの領域の内の右側の領域21(h)(図8Aに図示)である。第2範囲は、表示領域21において破線で分断される2つの領域の内の右側の領域21(i)(図8Bに図示)である。このように、第2範囲21(i)は、第1範囲21(h)を包含しかつ該第1範囲21(h)よりも大きい。
図8Aに示すように、制御部50は、視線位置が第1範囲21(h)外から第1範囲21(h)内へ移動したことを推定し、これを契機に、該第1範囲21(h)にオブジェクト201を表示させる。このような構成を有することにより、表示領域21においてユーザが視認している位置の近くに有用な情報を表示させることができる。なお、視線位置が移動する前においては、オブジェクト201が表示されておらず、図6Aに示す状態と同様となるため、図示を省略する。
次に、図8Bに示すように、オブジェクト201が表示されている状態で、制御部50は、視線位置が第2範囲21(i)外へ移動したことを契機に、該オブジェクト201を非表示にする。このような構成を有することにより、視線位置を多少動かしても第1画像が非表示となることがない。
次に、電子機器1の表示部20の他の表示態様について説明する。図9A,図9Bは、電子機器1の表示部20の表示態様の他の一例を示す図である。図9Aに示すように、制御部50は、視線位置が位置101から位置102へ移動したことを推定し、これを契機に、表示領域21にオブジェクト201である第1画像が表示されている状態が示されている。なお、視線位置が移動する前においては、オブジェクト201が表示されておらず、図6Aに示す状態と同様となるため、図示を省略する。
図9Aにおいて、制御部50は、視線位置が位置101から位置102へ移動する方向である第1方向に基づいて、表示領域21における第1方向側にオブジェクト201を表示する。このとき、制御部50は、視線位置の第1方向への移動距離d5である第1距離を算出する。移動距離d5は、例えば、視線位置の一連の移動における始点と終点とを結んだ仮想線の長さとしてよい。また、視線位置の一連の移動は、例えば、視線位置が所定時間変動しなかった状態から視線移動の推定或いは検出を開始し、移動後、視線位置が所定時間変動しなかった場合になされたものと見なしてよい。
次に、図9Bに示すように、オブジェクト201である第1画像が表示されている状態で、視線位置が、図9Aにおいて移動した第1方向とは反対方向である第2方向へ、移動距離d5である第1距離よりも長い移動距離d6である第2距離を制御部50が推定すると、これを契機に、該オブジェクト201が非表示となる。
また、実際の視線移動の移動方向を第1方向とするのではなく、例えば、移動方向を左右上下の4方向に規定し、実際の視線移動のベクトル成分を4方向に分解し、該4方向の内、最も移動した成分が大きい方向を第1方向と規定してもよい。即ち、図9A,図9Bで例えると、制御部50は、位置101から位置102への視線位置の移動ベクトルを左右上下の4方向に分解し、最も移動した成分が大きかった方向として、移動距離d’5の右方向の移動成分を抽出する。一方、制御部50は、オブジェクト201が表示されている状態で、視線位置の移動を推定或いは検出したときには、視線位置の移動ベクトルから、移動距離d’6の左方向の移動成分を抽出する。そして、制御部50は、移動距離d’5と移動距離d’6とを比較し、移動距離d’6が移動距離d’5よりも大きい場合にはオブジェクト201を非表示とする処理を行う。
このように、電子機器1は、視線位置が第1方向へ第1距離移動したことを契機に、表示領域21における第1方向側に第1画像を表示する構成を有する。従って、表示領域21においてユーザが視認している位置の近くに有用な情報を表示させることができる。また、電子機器1は、第1画像が表示された状態で、視線位置が第1方向とは反対側の第2方向へ第1距離よりも長い第2距離移動したことを契機に該第1画像を非表示にする構成を有する。従って、視線位置を動かしても第1画像が非表示となることがない。
次に、電子機器1の表示部20の他の表示態様について説明する。図10A,図10B,図10C,図10Dは、電子機器1の表示部20の表示態様の他の一例を示す図である。図10Aでは、視線位置が位置101から位置102へ移動したことを制御部50が推定し、これを契機に、表示領域21にオブジェクト201である第1画像が表示されている状態が示されている。オブジェクト201を表示するための視線移動の条件は、上述した図6A,図6B−1,図6B−2,図6C,図7A,図7B,図8A,図8B,図9A,図9Bに示す例のいずれかを採用してよい。言い換えると、図10A,図10B,図10C,図10Dに示す例は、図6A,図6B−1,図6B−2,図6C,図7A,図7B,図8A,図8B,図9A,図9Bに示す例のいずれかと組み合わせることができる。また、図10Aに示すように、オブジェクト201が表示された状態で、視線位置102は、オブジェクト201、例えば歩行案内をユーザに提供するための画像におけるユーザが任意に設定した出発地「○○駅」を示す表示領域201(a)に位置する。
次に、図10Bに示すように、視線位置が、表示領域201(a)から、表示領域201(b)、例えば曲がり角等のルート途中の案内ポイントを提示する領域へ移動すると、表示領域201(b)の表示内容、例えば曲がり角の情報に関連して、実際の風景写真に曲がるべき方向を重畳させたオブジェクト202、若しくは単に地図画像である第2画像が表示される。即ち、制御部50は、表示領域21におけるオブジェクト201である第1画像の領域以外の領域に、該オブジェクト201である第1画像に関連するオブジェクト202である第2画像を表示する。
次に、図10Cに示すように、視線位置が、表示領域201(b)から、表示領域201(c)、例えば表示領域201(b)に示される案内ポイントの次の案内ポイントへ移動すると、オブジェクト202である第2画像の表示内容が、表示領域201(b)に関連する内容から表示領域201(c)に関連する内容に変更される。
このとき、オブジェクト201である第1画像において、視線位置が位置101から位置102へ移動したときの方向である第1方向と交差する方向、言い換えると図6B−1に示す例における第1方向に該当する方向、へ移動したことを契機に、オブジェクト202である第2画像の表示内容を変更する構成としてもよい。即ち、図6B−1に示す例のように、推定した視線位置の移動方向である、図6B−1における第1方向に基づいて、表示領域21における右方向側である第1方向側にオブジェクト201を表示する場合には、第1方向と交差する方向である上下方向への視線位置の移動に基づいて、オブジェクト202である第2画像の表示内容を変更する構成としてよい。このような構成により、オブジェクト201である第1画像を表示させるための視線移動によって、オブジェクト202である第2画像の表示内容が誤って変更されてしまわずに済む。
なお、必ずしも、視線動作によってオブジェクト202である第2画像の表示内容を変更する構成である必要はない。例えば、オブジェクト202である第2画像が表示されている状態で、前述した操作部30に対する所定の接触操作に応じてオブジェクト202である第2画像の表示内容を変更される構成であってもよい。
ここで、上述した図6Cに示す例の、視線位置が、オブジェクト201である第1画像から離れる方向に向かって、第1画像の領域から所定距離d1だけ離れたことを契機に、該第1画像を非表示とする構成における、「所定距離」は、オブジェクト202である第2画像の大きさに基づいて設定されてもよい。
また、図7Aに示す例の、視線位置が、表示領域21の内の第1表示領域21(f)から第2表示領域21(g)へ移動したことを契機に、該第2表示領域21(g)にオブジェクト201である第1画像を表示し、図7Bに示す例の、視線位置が第2表示領域21(g)から所定距離d2だけ離れたことを契機に、該第1画像を非表示とする構成における、「所定距離」は、オブジェクト202である第2画像の大きさに基づいて設定されてもよい。
例えば、図10Dに示すように、視線位置が、オブジェクト202である第2画像を超えてオブジェクト201である第1画像から遠ざかる位置に移動する程度の長さを所定距離d7として設定してよい。
また、所定距離は、オブジェクト202である第2画像として表示される表示内容に応じて変更されてもよい。例えば、オブジェクト202である第2画像の表示内容が文字情報を所定割合以上含む場合に、文字情報を所定割合未満しか含まない場合と比較して、長く設定されるようにしてもよい。ユーザがオブジェクト202である第2画像を視認する場合、オブジェクト202である第2画像が、文字情報を含まないイメージのみであれば、該イメージにおける、オブジェクト201である第1画像に近い一部のみを視ても概要を把握することができる。言い換えると、このような場合、短距離の視線移動で概要を把握することができる。そして、オブジェクト202である第2画像の一部を視認し、オブジェクト202が所望とする表示内容であれば、ユーザは、視線をオブジェクト201である第1画像に戻し、次いで、例えば、複数回の瞬き、図5におけるパターン4を行うことで、オブジェクト202の表示内容の選択決定、或いは、オブジェクト202の表示の維持等を実行させてもよい。一方、オブジェクト202である第2画像が、文字情報を含むものであれば、概要を把握するためにより広範囲の視線移動を要するかもしれない。言い換えると、概要を把握するために長距離の視線移動が求められる。この場合、仮に、オブジェクト201である第1画像を非表示とするために要する視線移動距離の所定距離が短いと、オブジェクト202である第2画像の概要を把握しようと視線を移動させることによって、オブジェクト201である第1画像が非表示となってしまい、結果、煩わしい操作となってしまうかもしれない。
このように、オブジェクト202である第2画像の表示内容が文字情報を含むか否か、或いは文字情報がどの程度の割合で含まれるのかによって、オブジェクト201である第1画像を非表示とするために要する適切な視線移動距離の所定距離が異なる可能性がある。これに対し電子機器1では、オブジェクト202である第2画像の表示内容が文字情報を含むか否か、或いは文字情報がどの程度の割合で含まれるのかによって、オブジェクト201である第1画像を非表示とするために要する視線移動距離を適宜変更してもよい。従って、ユーザにとって煩わしさが感じさせない視線移動操作を実現することができる。
また、所定距離は、ユーザによって設定可能であってもよい。
以上に、本出願を諸図面や実施形態に基づき説明してきたが、本出願はこれに限定されない。例えば、電子機器は、表示部と、ユーザの視線の移動動作を検出する検出部と、前記検出部の検出結果に基づいて、前記表示部の表示領域におけるユーザの視線位置を推定する制御部と、を備え、前記制御部は、前記視線位置が所定方向へ移動したことを契機に、前記表示領域における前記所定方向側に第1画像を表示するものであってよい。また、前記第1画像の領域が前記表示部の表示領域に対して占める割合が所定値未満の場合、前記視線位置が該第1画像の領域から所定距離だけ離れたことを契機に、該第1画像を非表示にするものであってよい。また、前記第1画像の領域が前記表示部の表示領域に対して占める割合が所定値以上の場合、前記視線位置が該第1画像の領域内から領域外へ移動したことを契機に、該第1画像を非表示にするものであってもよい。
ここで、前記第1画像の領域が前記表示部の表示領域に対して占める割合が所定値以上の場合とは、例えば、前記第1画像の領域が前記表示部の表示領域に対して占める割合が50%以上でありかつ前記表示領域の中心領域を含んでいる場合である。
また、上記の実施例では、視線位置の移動に基づいて、第1画像の表示を行う構成を説明してきたが、このような構成に限定されず、例えば、外部装置との通信によって所定の情報を受信したことを契機に、該情報に関連する第1画像を表示する構成であってよい。また、第1画像は、常時表示されるものであってもよい。
また、上記の実施例では、視線位置の移動に基づいて第1画像を非表示にする構成を説明してきた。なお、本明細書で開示される電子機器1では、このような構成に加えて、第1画像が表示されてから所定時間後に該第1画像を非表示にする構成をさらに有していてもよい。
本出願を諸図面や実施形態に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本出願の範囲に含まれることに留意されたい。さらに、本明細書において開示される全ての技術的事項は、矛盾しないように再配置可能であり、複数の構成部を1つに組み合わせたり、或いは分割したりすることが可能である。
上記の実施形態では、電子機器1が、眼鏡形状或いはゴーグル形状のような形状を有する例を示してきたが、電子機器1の形状はこれに限定されない。例えば、電子機器1は、図11Aに示すように、ユーザの頭部のほぼ上半分を覆うようなヘルメットタイプの形状を有していてもよい。或いは、電子機器1は、図11Bに示すように、ユーザの顔面のほぼ全体を覆うようなマスクタイプの形状を有していてもよい。
また、上記の実施形態では、表示部20がユーザの左右の目の前に設けられる一対の表示部20a、20bを有している構成を例示してきたが、これに限定されず、表示部20は、ユーザの左右の目の内の一方の前に設けられる一つの表示部を有している構成であってもよい。
また、上記の実施形態では、正面部の縁部が、表示部20の表示領域21の縁の全周を囲っている構成を例示してきたが、これに限定されず、表示部20の表示領域21の縁の一部のみを囲っている構成であってもよい。
1 電子機器
10 装着部
11 正面部
12 側面部
13 側面部
20 表示部
30 操作部
40 検出部
50 制御部
60 記憶部
70 通信部

Claims (6)

  1. 表示部と、
    ユーザの視線の移動動作に基づいて、前記表示部の表示領域におけるユーザの視線位置を推定する制御部と、を備え、
    前記制御部は、前記表示領域に第1画像が表示された状態で、前記視線位置が、該第1画像から離れる方向に向かって、前記第1画像の領域から所定距離だけ離れたことを契機に、該第1画像を非表示にし、
    前記所定距離は、前記表示領域における前記第1画像の領域以外の領域に表示される該第1画像に関連する第2画像の表示内容に基づいて設定される
    電子機器。
  2. 前記制御部は、前記視線位置が第1方向へ移動したことを契機に、前記表示領域における前記第1方向側に前記第1画像を表示する
    請求項1に記載の電子機器。
  3. 前記制御部は、前記表示領域における前記第1画像の領域以外の領域に、該第1画像に関連する第2画像を表示し、
    前記第1画像の領域中において、前記視線位置が前記第1方向と交差する方向へ移動したことを契機に、前記第2画像の表示内容を変更する
    請求項2に記載の電子機器。
  4. 第1表示領域と第2表示領域とを有する表示部と、
    ユーザの視線の移動動作に基づいて、前記表示部におけるユーザの視線位置を推定する制御部と、を備え、
    前記制御部は、前記第1表示領域に第1画像が表示された状態で、前記視線位置が前記第1表示領域から所定距離だけ離れたことを契機に、該第1画像を非表示にし、
    前記所定距離は、前記第2表示領域に表示される前記第1画像に関連する第2画像の表示内容に基づいて設定される
    電子機器。
  5. 前記制御部は、前記視線位置が前記第2表示領域から前記第1表示領域へ移動したことを契機に、該第2表示領域に第1画像を表示する
    請求項4に記載の電子機器。
  6. 前記所定距離は、前記表示内容が文字情報を所定割合以上含む場合に、前記表示内容が文字情報を所定割合未満しか含まない場合と比較して、長く設定される
    請求項1から5の何れか一項に記載の電子機器。
JP2016572152A 2015-01-29 2016-01-28 電子機器 Active JP6348191B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015015700 2015-01-29
JP2015015700 2015-01-29
PCT/JP2016/052525 WO2016121883A1 (ja) 2015-01-29 2016-01-28 電子機器

Publications (2)

Publication Number Publication Date
JPWO2016121883A1 JPWO2016121883A1 (ja) 2017-08-31
JP6348191B2 true JP6348191B2 (ja) 2018-06-27

Family

ID=56543488

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016572152A Active JP6348191B2 (ja) 2015-01-29 2016-01-28 電子機器

Country Status (3)

Country Link
US (2) US20180004288A1 (ja)
JP (1) JP6348191B2 (ja)
WO (1) WO2016121883A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017068634A1 (ja) * 2015-10-19 2017-04-27 富士通株式会社 作業支援システム、作業支援方法および作業支援プログラム
US10229540B2 (en) * 2015-12-22 2019-03-12 Google Llc Adjusting video rendering rate of virtual reality content and processing of a stereoscopic image
US11205426B2 (en) * 2017-02-27 2021-12-21 Sony Corporation Information processing device, information processing method, and program
WO2019026130A1 (ja) * 2017-07-31 2019-02-07 日本電気株式会社 作業支援装置、作業支援方法、プログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10222287A (ja) * 1997-02-10 1998-08-21 Sony Corp 情報入力装置
JP2000089884A (ja) * 1998-09-09 2000-03-31 Hitachi Business Solution Kk 情報処理システム
JP4691071B2 (ja) * 2007-07-05 2011-06-01 ヤフー株式会社 ページアクション起動装置、ページアクション起動制御方法、および、ページアクション起動制御プログラム
JP5613025B2 (ja) 2009-11-18 2014-10-22 パナソニック株式会社 視線検出装置、視線検出方法、眼電位計測装置、ウェアラブルカメラ、ヘッドマウントディスプレイ、電子めがねおよび眼科診断装置
US10469916B1 (en) * 2012-03-23 2019-11-05 Google Llc Providing media content to a wearable device
JP5966963B2 (ja) * 2013-02-15 2016-08-10 株式会社デンソー 文字入力装置、および文字入力方法
US9665171B1 (en) 2013-03-04 2017-05-30 Tobii Ab Gaze and saccade based graphical manipulation
KR20160016907A (ko) 2013-05-29 2016-02-15 미쓰비시덴키 가부시키가이샤 정보 표시 장치
KR101795204B1 (ko) 2013-06-25 2017-11-07 후지쯔 가부시끼가이샤 정보 처리 장치 및 기록 매체
JP2016115965A (ja) * 2014-12-11 2016-06-23 ソニー株式会社 医療用眼鏡型表示装、情報処理装置及び情報処理方法

Also Published As

Publication number Publication date
US20180004288A1 (en) 2018-01-04
US20200057494A1 (en) 2020-02-20
JPWO2016121883A1 (ja) 2017-08-31
WO2016121883A1 (ja) 2016-08-04
US11112866B2 (en) 2021-09-07

Similar Documents

Publication Publication Date Title
US10591729B2 (en) Wearable device
US9619021B2 (en) Head mounted display providing eye gaze calibration and control method thereof
RU2638004C2 (ru) Устройство обработки информации, способ управления отображением и программа
KR20230066626A (ko) 증강 현실에서 인터랙티브 게임 제어를 위한 손 제스처들의 추적
US11112866B2 (en) Electronic device
JP4927631B2 (ja) 表示装置、その制御方法、プログラム、記録媒体および集積回路
JP6367673B2 (ja) 電子機器
JP6547741B2 (ja) 情報処理システムおよび情報処理方法
US20140256429A1 (en) Image display system and head-mounted display device
CN105612478A (zh) 用户接口程序化的缩放
CN112213856A (zh) 可穿戴眼镜和经由可穿戴眼镜显示图像的方法
US20190179406A1 (en) Display device and image display method
CN115917465A (zh) 使用卷帘快门相机的视觉惯性追踪
JP2006276748A (ja) 情報呈示装置、情報呈示方法、及びコンピュータプログラム
CN110908569A (zh) 虚实影像的互动方法及装置
CN115598842A (zh) 提升用户体验和注视互动准确度的光学系统和相关方法
US20210406542A1 (en) Augmented reality eyewear with mood sharing
US20230367118A1 (en) Augmented reality gaming using virtual eyewear beams
JP2016126687A (ja) ヘッドマウントディスプレイ、操作受付方法および操作受付プログラム
US10742937B2 (en) Watching apparatus, watching method, and recording medium
JP6670965B2 (ja) 表示システム及び表示方法
JP6686319B2 (ja) 画像投影装置及び画像表示システム
JP6244666B2 (ja) 表示装置及びプログラム
US10691250B2 (en) Information processing device, information processing method, and program for preventing reflection of an operation in an output
JPWO2017217375A1 (ja) 画像表示装置、画像表示方法、及び画像表示プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180515

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180530

R150 Certificate of patent or registration of utility model

Ref document number: 6348191

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150