JP2018156391A - 情報表示システム - Google Patents

情報表示システム Download PDF

Info

Publication number
JP2018156391A
JP2018156391A JP2017052713A JP2017052713A JP2018156391A JP 2018156391 A JP2018156391 A JP 2018156391A JP 2017052713 A JP2017052713 A JP 2017052713A JP 2017052713 A JP2017052713 A JP 2017052713A JP 2018156391 A JP2018156391 A JP 2018156391A
Authority
JP
Japan
Prior art keywords
user
view
field
information
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017052713A
Other languages
English (en)
Other versions
JP6874448B2 (ja
Inventor
渡邉 和則
Kazunori Watanabe
和則 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Original Assignee
Denso Wave Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc filed Critical Denso Wave Inc
Priority to JP2017052713A priority Critical patent/JP6874448B2/ja
Priority to US15/921,099 priority patent/US20180268218A1/en
Publication of JP2018156391A publication Critical patent/JP2018156391A/ja
Application granted granted Critical
Publication of JP6874448B2 publication Critical patent/JP6874448B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2358/00Arrangements for display data security

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Manipulator (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】安全な情報提示を可能にする。
【解決手段】情報表示システム(10)は、ユーザ(90)が装着可能であってユーザの視界(91)内に情報を表示可能な装着型ディスプレイ(20)と、監視対象(11)に関する情報である監視対象情報(42)を取得可能な監視対象情報取得部(32)と、ユーザの視界を特定するための視界情報を取得する視界情報取得部(33)と、視界情報取得部で取得した視界情報に基づいてユーザの視界内に存在する監視対象を識別する監視対象識別部(34)と、ユーザの視界内に捉えた監視対象について監視対象情報が存在している場合に監視対象情報の存在を示すシンボル表示(41)をユーザの視界内に表示すると共に、ユーザの視界内に設定された照準(51)がユーザの視界内においてシンボル表示と重なった場合にそのシンボル表示に対応した監視対象情報をユーザの視界内に表示する表示制御部(35)と、を備える。
【選択図】図5

Description

本発明は、ユーザの頭部に装着するタイプのディスプレイにより、ユーザの視界内に監視対象に関する情報を表示する情報表示システムに関する。
近年、ユーザの頭部に装着可能な頭部装着型ディスプレイいわゆるヘッドマウントディスプレイ(以下、HMDと称する)を用いて、例えば仮想現実の画像や様々な情報を表示する技術が提案されている。この技術の適用として、例えばロボットや搬送車の作業領域内やその近傍で作業するユーザに対して、そのロボットや搬送車の安全に関する情報を提示するために、その安全に関する情報を、ユーザが装着したHMDに表示することが想定される。これによれば、ユーザは、ティーチィングペンダントやタブレット端末等を覗き込むことなく視線を上げたまま、ロボットや搬送車の安全に関する情報を取得することができるようになるため、安全性の向上が図られる。
しかしながら、一般的なHMDの多くは、ユーザの視界と重なる場所に透過型の表示部を配置し、その表示部に各種情報を表示させる構成である。この場合、表示部に表示される情報と、ユーザが表示部を通して見ている実景とが重なることになる。このため、例えばロボットや搬送車が複数存在している場合、その全てのロボットや搬送車の情報をユーザの視界内に同時に表示すると、ユーザの視界が遮られてしまう。更には、ユーザの注意が視界内のロボットや搬送車に向けられていないにもかかわらず、これらロボットや搬送車に関する情報が表示されて視界が塞がれてしまうと、その注意が向けられていないロボットや搬送車と衝突してしまうなどの思わぬ事態に発展する可能性がある。これらの結果、かえって安全性の低下が懸念される場面もある。
特開2015−228201号公報
本発明は上記事情に鑑みてなされたものであり、その目的は、装着型ディスプレイを用いてユーザに情報を提示するものにおいて、安全な情報提示が可能な情報表示システムを提供することにある。
(請求項1)
請求項1の情報表示システムは、ユーザが装着可能であってユーザの視界内に情報を表示可能な装着型ディスプレイと、監視対象に関する情報である監視対象情報を取得可能な監視対象情報取得部と、ユーザの視界を特定するための視界情報を取得する視界情報取得部と、前記視界情報取得部で取得した前記視界情報に基づいてユーザの視界内に存在する監視対象を識別する監視対象識別部と、ユーザの視界内に捉えた前記監視対象について前記監視対象情報が存在している場合に前記監視対象情報の存在を示すシンボル表示をユーザの視界内に表示すると共に、ユーザの視界内に設定された照準がユーザの視界内において前記シンボル表示と重なった場合にその前記シンボル表示に対応した前記監視対象情報をユーザの視界内に表示する表示制御部と、を備える。
これによれば、ユーザは、視界内に表示されたシンボル表示を確認することで、自己の視界内に捉えた監視対象について監視対象情報が存在しているか否かを確認することができる。そして、ユーザは、頭部の向きつまり視線を変えて視界を動かし、これにより視界内に設定された照準を視界内においてシンボル表示と重ねることで、そのシンボル表示に対応した監視対象情報を視界内に表示させることができる。つまり、ユーザは、表示させたい監視対象情報に対応したシンボル表示に視線を合わせる動作を行うことで、その監視対象情報を視界内に表示させることができる。このため、視界内に複数の監視対象を捉えている場合であっても、多数の監視対象情報が視界内に同時に表示されて、ユーザの視界が遮られることがない。
また、この構成によれば、ユーザが、視線を動かして照準をシンボル表示に重ねるという行為によって視界内の監視対象についての監視対象情報を見ようとする意思を示さない限り、ユーザの視界内にはその視界を占有して塞ぐ監視対象情報は表示されない。そのため、この構成によれば、ユーザの意図とは関係なく、監視対象情報が視界内に表示されて視界が塞がれるという事態を極力回避することができる。
更には、ユーザが視線を動かして照準をシンボル表示に重ねることで、必然的にユーザの注意がそのシンボル表示、ひいてはそのシンボル表示に対応した監視対象に向く。そのため、ユーザの注意が、視界内の監視対象に向けられていないにもかかわらず、注意していない監視対象に関する監視対象情報によって視界が塞がれてしまうことを防止できる。したがって、本構成によれば、複数の監視対象情報が表示されることによって視界が埋められてしまったり、ユーザの注意が監視対象に向いていないにもかかわらずその監視対象に係る監視対象情報が表示されてしまったりすることを防止できる。その結果、ユーザの視界を妨げ難く安全性の高い情報提示が可能になる。
(請求項2)
請求項2の情報表示システムにおいて、前記表示制御部は、前記照準をユーザの視界内に視認可能に表示する。これによれば、ユーザは、照準とシンボル表示とを目視で確認しながら両者を重ね合わせることができる。したがって、本構成によれば、ユーザは、照準とシンボル表示とを容易に重ね合わせることができ、その結果、操作性が向上する。
(請求項3)
ここで、ユーザが監視対象情報を見るために視界を動かしたのではなく、例えば通常の作業に伴って視界が動いてしまった場合に、ユーザが意図していないにもかかわらず、視界内において照準とシンボル表示とが重なってしまうことが想定される。この場合、通常の作業で視界を動かした際に、視界内において照準がシンボル表示を通過して一時的に重なってしまったというだけで、ユーザの意図に反して視界内に監視対象情報が表示されると、かえってユーザの視界を妨げることになる。そこで、請求項3の情報表示システムにおいて、前記表示制御部は、前記照準が前記シンボル表示と重なってから所定期間経過した後に前記監視対象情報を表示する。
これによれば、ユーザが、照準とシンボル表示とを所定期間以上重ねて見た場合に限り、つまりユーザが照準とシンボル表示とを重ねるという意図を明確に示した場合に限り、視界内に監視対象情報が表示される。つまり、これによれば、ユーザが意図していないにもかかわらず、視界内において照準がシンボル表示を通過して一時的に重なってしまったというだけで視界内に監視対象情報が表示されることを防ぐことができる。その結果、ユーザの視界を更に妨げ難く、より安全性の高い情報提示が可能になる。
(請求項4)
請求項4の情報表示システムにおいて、前記表示制御部は、ユーザの視界内において前記照準が前記シンボル表示と重なった場合に、その前記照準と重なった前記シンボル表示を、前記照準が重なっていない場合と異なる態様で表示する。これによれば、ユーザは、シンボル表示の表示態様が変化するか否かを見ることで、照準がシンボル表示と重なっているか否かを確認することができる。
すなわち、監視対象情報が表示される前の場面を想定すると、ユーザは、シンボル表示の表示態様の変化を見ることで、照準がシンボル表示と重なっているかを目視で確認することができる。また、視界内に複数の監視対象を捉えている場合、ユーザは、表示態様が変化しているシンボル表示を見ることで、自分がどのシンボル表示に対応した監視対象情報を見ようとしているのかを目視で確認することができる。
更に、監視対象情報が表示された後の場面を想定すると、視界内に複数の監視対象を捉えている場合、表示されている監視対象情報に対応したシンボル表示は、監視対象情報が表示されていない他のシンボル表示と異なる態様で表示されていることになる。このため、ユーザは、視界内に複数の監視対象を捉えており視界内に複数のシンボル表示が表示されている場合であっても、他と異なる態様で表示されているシンボル表示を見ることで、現在表示されている監視対象情報が視界内のどのシンボル表示に対応したものであるかを一見して確認することができる。これらの結果、ユーザの確認がし易くなり、更に安全性の高い情報提示が可能になる。
(請求項5)
請求項5の情報表示システムにおいて、前記表示制御部は、ユーザの視界内に不透明な表示領域を表示すると共に、前記表示領域内に前記監視対象情報を表示する。これによれば、不透明な表示領域内に監視対象情報を表示することで、表示領域内に表示された監視対象情報が、表示領域の後ろの実景に紛れ込む事を防ぐことができる。したがって、監視対象情報をより見易くすることができ、その結果、より安全性の高い情報提示が可能になる。
(請求項6)
ここで、例えばユーザが移動する際には目標地点である遠方を見ていることが多いが、遠方にある監視対象は視界内において小さく映っているため、その移動中のユーザが監視対象自体を注視している可能性は低い。しかしながら、目標地点を見ながら移動しているユーザが、視線を動かした際に意図せずに照準が遠方の監視対象に対応したシンボル表示と重なってしまうことも想定される。この場合、ユーザの意図に反して、視界内に監視対象情報が表示されると、移動中のユーザの視界が塞がることになるため、かえって安全性の低下が懸念される。
そこで、請求項6の情報表示システムにおいて、前記表示制御部は、ユーザの視界内に捉えた前記監視対象のうちユーザから所定距離以上離れている前記監視対象については、前記照準が前記シンボル表示と重なっている場合であっても前記監視対象情報をユーザの視界内に表示しない。又は、前記表示制御部は、ユーザの視界内に捉えた前記監視対象のうちユーザから所定距離以上離れている前記監視対象についての前記表示シンボルをユーザの視界内に表示しない。
これによれば、例えば移動中のユーザの視界内において、照準が、偶然にも遠方にある監視対象に対応したシンボル表示と重なってしまった場合であっても、視界内にそのシンボル表示に対応する監視対象情報は表示されない。又は、表示制御部は、監視対象が遠方に存在している場合には、シンボル表示自体を表示させない。このため、照準がシンボル表示に重なることもなく、したがって遠方の監視対象に関する監視対象情報も視界内に表示されない。これらの結果、例えば移動中のユーザが視界内に遠方の監視対象を捉えた場合であっても、その遠方の監視対象については監視対象情報が表示されることがない。したがって、移動中のユーザの視界が塞がることを低減することができ、その結果、更なる安全性の向上が図られる。
一実施形態による情報表示システムの概略構成を模式的に示す図 一実施形態による情報表示システムの電気的構成を模式的に示すブロック図 一実施形態について、表示部を透過してユーザに見える視界の一例を示すもので、視界内に監視対象を捉えた場合を示す図 一実施形態について、表示部を透過してユーザに見える視界の一例を示すもので、視界内において照準と第1シンボル表示とを重ねた状態を示す図 一実施形態について、表示部を透過してユーザに見える視界の一例を示すもので、視界内に第1監視対象情報が表示された状態を示す図 一実施形態について、表示部を透過してユーザに見える視界の一例を示すもので、視界内において照準と第2シンボル表示とを重ねた状態を示す図 一実施形態について、表示部を透過してユーザに見える視界の一例を示すもので、視界内に第2監視対象情報が表示された状態を示す図 一実施形態について、表示部を透過してユーザに見える視界の一例を示すもので、視界内に遠方の監視対象を捉えた場合を示す図 一実施形態について、ディスプレイ制御装置の制御部で実行される処理内容を示すフローチャート
以下、一実施形態について図面を参照しながら説明する。
図1及び図2に示すように、情報表示システム10は、監視対象である少なくとも1台この場合2台のロボット11と、各ロボット11に対応して設けられたロボットコントローラ12と、安全装置13と、いわゆるヘッドマウントディスプレイと称される頭部装着型ディスプレイ20(以下、HMD20と称する)と、ディスプレイ制御装置30と、を含んで構成されている。
以下の説明において、これら2台のロボット11を区別する際には、第1ロボット111及び第2ロボット112と称する。また、第1ロボットロボット111及び第2ロボット112に対応するロボットコントローラ12を、それぞれ第1ロボットコントローラ121及び第2ロボットコントローラ122と称する。
ロボット11は、例えば6軸の垂直多関節型ロボットで構成されている。一般的な構成につき詳しい説明は省略するが、ロボット11は、サーボモータにより駆動される6軸のアームを有し、第6軸アームの先端部に、例えばパレット内に収容されているワークを把持するためのハンド等を備えている。ロボット11は、ロボットコントローラ12に図示しない接続ケーブルを介して接続される。各軸のサーボモータは、このロボットコントローラ12により制御される。
各ロボットコントローラ12は、それぞれ安全装置13に通信可能に接続されている。安全装置13は、ロボットコントローラ12側からロボット11の動作状態及びロボットコントローラ12による制御状態を特定可能な各種の情報を取得可能に構成されている。そのため、安全装置13は、ロボット11のアームの回転角度やモータの通電状態等、ロボット11の動作状態を示す動作情報、及びロボットコントローラ12の制御状態を示す制御情報をリアルタイムで取得することができる。
また、安全装置13は、各ロボットコントローラ12から取得した各ロボット11の情報に基づいて、ロボット11の現在の形態つまり姿勢を3次元的にモデリングした3Dモデル画像データを生成することができる。また、安全装置13は、各ロボット11が設置されている領域、例えば工場内における基準位置を原点とした2次元座標系における各ロボット11の座標つまりはロボット11の設置位置も記憶している。
HMD20は、ユーザの頭部に装着可能な形態に構成されており、ユーザの視界内に各種情報を表示させることができる。HMD20は、両目を覆う両眼型、又は一方の目のみを覆う単眼型のいずれでも良いが、本実施形態は、ユーザの視界を奪い易い両眼型により適している。また、HMD20の形状は、眼鏡のように装着する眼鏡型や帽子のように装着する帽子型などが想定されるが、いずれも形状であっても良い。本実施形態のHMD20は、眼鏡型を想定している。
HMD20は、図2にも示すように、表示部21及びカメラ22を有している。表示部21は、ユーザ90がHMD20を装着した状態において、そのユーザの視界と重なる位置に設けられている。本実施形態の場合、表示部21は、眼鏡のレンズ部分に相当する部分であり、画像などの情報を表示することができるいわゆる透過型のディスプレイで構成されている。このため、HMD20に表示される画像は、ユーザの視界に重なって表示されることになる。換言すると、ユーザは、自身の目で見た現実の風景と、HMD20によって表示された仮想的な画像とを併せて見ることになる。
カメラ22は、小型のCCDカメラやCMOSカメラで構成されており、HMD20に一体的に取り付けられている。このカメラ22は、ユーザの顔の向きと一致するように、HMD20のフレームの一側部に設けられている。カメラ22は、図1に示すように、ユーザ90がHMD20を頭部に装着した状態で、ユーザ90の頭部正面が向いている方向の画像を撮像する。そのため、カメラ22によって撮像される画像は、ユーザ90の視界とほぼ同一の画角となっている。換言すると、カメラ22は、ユーザ90が見ている風景とほぼ同一の風景を撮像する。
なお、表示部21は、透過型のディスプレイに限られず、非透過型のディスプレイで構成しても良い。この場合、HMD20は、カメラ22で撮影した画像をリアルタイムで表示部21に表示させることで、カメラ22が撮影した風景をユーザに対し仮想的に提示、すなわちユーザの視界を表示部21に再現すれば良い。また、HMD20は、表示部21を有するものに限られず、仮想的な画像をユーザの網膜に直接投影する網膜投影型であっても良い。
HMD20は、ディスプレイ制御装置30に無線又は有線で接続されている。なお、ディスプレイ制御装置30は、HMD20と一体に構成されていても良い。図2に示すように、ディスプレイ制御装置30は、マイクロコンピュータ等で構成された制御部31を内蔵しており、HMD20の表示部21に表示する画像データを送信したり、カメラ22により撮影された画像データを受信したりする。また、ディスプレイ制御装置30は、安全装置13と有線又は無線通信が可能となっている。
図2に示すように、ディスプレイ制御装置30は、制御部31の他、監視対象情報取得部32、視界情報取得部33、監視対象識別部34、及び表示制御部35を有している。制御部31は、例えばCPU311や、ROM、RAM、及び書き換え可能なフラッシュメモリなどの記憶領域312を有するマイクロコンピュータを主体に構成されており、HDM20の全体の制御を司っている。
記憶領域312は、情報表示プログラムを記憶している。制御部31は、CPU311において情報表示プログラムを実行することにより、監視対象情報取得部32、視界情報取得部33、監視対象識別部34、及び表示制御部35等を、ソフトウェア的に実現する。なお、これら監視対象情報取得部32、視界情報取得部33、監視対象識別部34、及び表示制御部35は、例えば制御部31と一体の集積回路としてハードウェア的に実現してもよい。
監視対象情報取得部32は、安全装置13から、監視対象である各ロボット11に関する情報として、監視対象情報をリアルタイムで取得することがでる。監視対象情報は、各ロボット11の動作によって随時変化する情報等によって構成されている。例えば監視対象情報は、上述した3Dモデル画像データを含む各ロボット11の動作状態を示す動作情報や、コントローラ12の制御状態を示す制御情報を含んでいる。また、監視対象情報は、例えばユーザに対してロボット11に関する警告や注意を提示するための警告注意情報等を含んでいる。
また、監視対象情報取得部32は、監視対象である各ロボット11について、各ロボット11とユーザ90との距離を取得することができる。監視対象情報取得部32は、例えば各ロボット11の位置情報と、ユーザ90の位置情報とに基づいて、各ロボット11とユーザ90との距離を取得することができる。ユーザ90の位置情報は、ユーザ90に装着されるHMD20又はユーザ90に携帯されるディスプレイ表示装置30に小型のGPS(Global Positioning System)を設けることで取得することができる。また、ユーザ90の位置情報は、GPSユニットのように直接的に位置を特定するものではなく、例えば工場の入り口等の基準位置からのユーザ90の移動軌跡を取得し、基準位置に対する変位量に基づいて間接的に位置を特定するような構成としてもよい。
視界情報取得部33は、HMD20を装着したユーザ90の視界を特定するための視界情報を取得する処理を行うことができる。ユーザ90の視界とは、ユーザ90がHMD20を装着した状態においてユーザ90の目に映る風景を意味する。本実施形態の場合、ユーザ90の視界とは、眼鏡のレンズ部分である表示部21を通してユーザ90の目に映る風景を意味する。視界情報取得部33は、例えばカメラ22で撮像した画像から、ユーザ90の視界情報を取得する。本実施形態では、例えば図3等に示すように、カメラ22の撮像範囲221及び表示部21の領域を、ユーザ90の視界91と擬制している。
図2に示す監視対象識別部34は、視界情報取得部33で取得した視界情報に基づいて、ユーザ90の視界91内に存在する監視対象11を識別する処理を行うことができる。監視対象識別部34は、例えば次のようにして監視対象11を識別することができる。すなわち、例えば各監視対象11に、それぞれ個体を特定するためのマーカーを付しておく。そして、監視対象識別部34は、カメラ22で撮像された画像を基に監視対象11に付されたマーカーを認識することで、各監視対象11を識別することができる。
表示制御部35は、図3に示すように、ユーザ90の視界91内に捉えた監視対象11について監視対象情報が存在している場合、つまり視界91内に捉えた監視対象11について監視対象情報取得部32で監視対象情報を取得している場合には、監視対象情報の存在を示すシンボル表示41をユーザ90の視界91内に表示する。例えば図3の例において、視界91内に捉えられた2台のロボット111、112のそれぞれが監視対象情報を有しているとする。この場合、表示制御部35は、各ロボット111、112に対応した2つのシンボル表示411、412を視界91内に表示する。
なお、以下の説明において、これら2つのシンボル表示411、412を区別する際には、第1ロボット111に対応するものを第1シンボル表示411と称し、第2ロボット112に対応するものを第2シンボル表示412と称する。表示制御部35は、各シンボル表示41を、各監視対象11から吹き出されたような図形として各監視対象11の近傍に表示する。また、表示制御部35は、複数のシンボル表示41を同時に表示する場合、各シンボル表示41が相互に重ならないように表示する。
ここで、シンボル表示41とは、監視対象11に関する監視対象情報が存在していることを示す表示である。シンボル表示41は、ユーザに与える情報量を極力少なくするため、3文字以上の文字列を有さない図記号で構成されている。本実施形態の場合、シンボル表示41は、例えばISO7010で照準化された一般危険を示すマークに準じており、例えば吹出し図形の内部に「!」の記号を付した図記号で構成されている。なお、シンボル表示41は、この図記号に限られない。例えば、「注」や「警」の1文字、又は「注意」や「警告」の2文字の文字列を有する構成であってもよい。
図3等に示すように、ユーザ90の視界91内には、照準51が設定されている。照準51は、ユーザ90の視界91内においてユーザ90の視線の先を仮想的に示すものである。本実施形態の場合、照準51は、視界91内において特定の場所、例えば視界91の上下方向及び左右方向の中心部に設定されており、視認可能な例えば十字の図形で構成されている。
照準51は、ユーザ90の頭部の向きに対して相対的に固定されている。すなわち、ユーザ90の頭部の向きが変化しても、視界91内における照準51の位置は変化しない。照準51は、例えば表示部21に予め物理的に印刷されたものでも良いし、表示制御部35によって表示部21に表示されたものでも良い。また、照準51は、視界91内における特定箇所に規定しておけば、必ずしも視界91内に視認可能に表示する必要はない。
ユーザ90は、視界91内に捉えたロボット111、112のうち例えば第1ロボット111の監視対象情報421を確認したい場合、図4に示すように、第1ロボット111に対応した第1シンボル表示411に視線を向けて、視界91内において照準51と第1シンボル表示411とが重なるように視界91を動かす。すると、表示制御部35は、まず、照準51と重なった第1シンボル表示411を、照準51が重なっていない場合に対して色やサイズを変えるなどして異なる態様で表示する。これにより、ユーザ90は、照準51によって第1シンボル表示411を捉えていることがわかる。
照準51が第1シンボル表示411と重なってから所定期間経過すると、表示制御部35は、図5に示すように、視界91内に、第1ロボット111に対応した第1監視対象情報421を表示する。これにより、ユーザ90は、第1ロボット111に関する第1監視対象情報421を確認することができる。なお、この場合、所定期間は、例えば1〜3秒程度であるが、ユーザの任意に設定しても良い。
同様に、ユーザ90は、図3の状態において、視界91内に捉えたロボット111、112のうち第2ロボット112の監視対象情報422を確認したい場合、図6に示すように、第2ロボット112に対応した第2シンボル表示412に視線を向けて、視界91内において照準51と第2シンボル表示412とが重なるように視界91を動かす。すると、表示制御部35は、まず、照準51と重なった第2シンボル表示412を、照準51が重なっていない場合に対して色やサイズを変えるなどして異なる態様で表示する。これにより、ユーザ90は、照準51によって第2シンボル表示412を捉えていることがわかる。
照準51が第2シンボル表示412と重なってから所定期間例えば上述したように1〜3秒程度経過すると、表示制御部35は、図7に示すように、視界91内に、第2ロボット112に対応した第2監視対象情報422を表示する。これにより、上述した第1監視対象情報421の場合と同様に、ユーザ90は、第2ロボット112に関する第2監視対象情報422を確認することができる。
監視対象情報42を表示する際、表示制御部35は、図5及び図7に示すように、ユーザ90の視界91内に不透明な表示領域211を表示し、その不透明な表示領域211内に、監視対象情報42を構成する文字情報や数字、図形、記号情報を表示する。本実施形態の場合、表示制御部35は、表示領域211内を、例えば監視対象情報42とは反対色で不透明に表示することで、表示領域211の後ろの実景を覆い隠している。これにより、表示領域211内に表示された監視対象情報42が、表示領域211の後ろの実景に紛れ込む事を防ぐことができるため、監視対象情報42が見易くなる。なお、表示領域211は、監視対象情報42を表示させるための領域であるため、表示制御部35は、表示領域211を示す枠及び表示領域211内を、必ずしも表示部21に表示する必要はない。
また、図8に示すように、監視対象情報取得部32から取得した視界91内の各ロボット11からユーザ90までの距離が所定以上離れていている場合、表示制御部35は、次の処理を行う。すなわち、この場合、表示制御部35は、照準51が、例えば遠方にある第1ロボット111に対応する第1シンボル表示411と重なっている場合であっても、照準51と重なった第1シンボル表示411に対応した第1ロボット111についての監視対象情報をユーザ90の視界91内に表示しない。
制御表示部35は、上記の処理に換えて、次のような処理を行っても良い。すなわち、制御表示部35は、各ロボット11からユーザ90までの距離が所定以上離れていている場合、そもそも各ロボット11についてのシンボル表示41をユーザ90の視界91内に表示しないようにしても良い。
次に、ディスプレイ制御装置30の制御部31において行われる制御フローについて、図9も参照して説明する。制御部31は、情報表示プログラムを実行すると、図8に示す制御フローを実行する。制御部31は、まず、ステップS11において、監視対象情報取得部32、視界情報取得部33、及び監視対象識別部34の処理により、視界91内に捉えた監視対象11について、視界91内に表示すべき監視対象情報42が存在しているか否かを判断する。なお、監視対象11について監視対象情報42の取得が無い場合とは、例えば監視対象11の電源が落とされて動作が停止している場合、すなわち監視対象11に接近しても危険が無い場合等である。
視界91内に捉えた監視対象11について、視界91内に表示すべき監視対象情報42が存在していない場合(ステップS11でNO)、制御部31は、ステップS11へ処理を戻す。一方、視界91内に捉えた監視対象11について、視界91内に表示すべき監視対象情報42が存在している場合(ステップS11でYES)、制御部31は、ステップS12へ処理を移行する。
次に、制御部31は、表示制御部35の処理により、視界91内に捉えた各監視対象11について、視界91内にシンボル表示41を表示する。次に、ステップS13において、制御部31は、視界91内において照準51と重なっているシンボル表示41があるか否かを判断する。照準51が、視界91内に表示されたシンボル表示41のいずれとも重なっていない場合(ステップS13でNO)、制御部31は、ステップS11へ処理を戻し、ステップS11以降を繰り返す。
一方、照準51が、視界91内に表示されたシンボル表示41のいずれかと重なっている場合(ステップS13でYES)、制御部31は、ステップS14へ処理を移行する。ステップS14において、制御部31は、監視対象情報取得部32の処理により、照準51が重なったシンボル表示41に対応する監視対象11からユーザ90までの距離を取得する。そして、制御部31は、表示制御部35の処理により、照準51が重なったシンボル表示41に対応する監視対象11からユーザ90までの距離が所定距離以下であるか否かを判断する。ユーザ90から監視対象11までの距離が所定距離を超えている場合(ステップS14でNO)、制御部31は、ステップS11へ処理を戻し、ステップS11以降を繰り返す。
一方、ユーザ90から監視対象11までの距離が所定距離以下である場合(ステップS14でYES)、制御部31は、ステップS15へ処理を移行する。制御部31は、ステップS15において、表示制御部35の処理により、照準51が重なっているシンボル表示41を、照準51が重なっていない場合と例えば色やサイズを変える等して異なる態様で表示する。
次に、制御部31は、ステップS16において、ステップS15を実行してから所定期間が経過したか否か、すなわち、照準51と同一のシンボル表示41とが所定期間連続して重なっていたか否かを判断する。所定期間連続して重なっていなかった場合(ステップS16でNO)、制御部31は、ステップS11へ処理を戻し、ステップS11以降を繰り返す。一方、照準51と同一のシンボル表示41とが所定期間連続して重なっていた場合(ステップS16でYES)、制御部31は、ステップS17へ処理を移行する。そして、制御部31は、表示制御部35の処理により、照準51が重ねられたシンボル表示41に対応した監視対象情報42をユーザ90の視界91内に表示する。
そして、制御部31は、ステップS11へ処理を戻し、ステップS11以降を繰り返す。なお、監視対象情報42の表示は、例えば現在視界91内に表示されている監視対象情報42に対応したシンボル表示41から照準51が外されるまで、又は監視対象情報42が表示されてから予め設定された所定期間経過まで、表示される。
以上説明した実施形態によれば、情報表示システム10において、表示制御部35は、ユーザ90の視界91内に捉えた監視対象11について、監視対象情報42が存在している場合に監視対象情報42の存在を示すシンボル表示41をユーザ90の視界91内に表示する。そして、表示制御部35は、ユーザ90の視界91内に設定された照準51が、ユーザ90の視界91内においてシンボル表示41と重なった場合に、そのシンボル表示41に対応した監視対象情報42をユーザ90の視界91内に表示する。
これによれば、ユーザ90は、視界91内に表示されたシンボル表示41を確認することで、自己の視界91内に捉えた監視対象11について監視対象情報42が存在しているか否かを確認することができる。そして、ユーザ90は、頭部の向きつまり視線を変えて視界91を動かし、これにより視界91内に設定された照準51を視界91内においてシンボル表示41と重ねることで、そのシンボル表示41に対応した監視対象情報42を視界91内に表示させることができる。このため、視界91内に複数の監視対象11を捉えている場合であっても、多数の監視対象情報42が視界91内に同時に表示されて、ユーザ90の視界91が遮られることがない。したがって、これによれば、視界91内に複数の監視対象11を捉えた場合であっても、視界91内に表示される監視対象情報42が視界91を妨げないようにすることができ、その結果、ユーザ90の視界91を妨げ難い情報提示が可能になる。
また、表示制御部35は、照準51をユーザ90の視界91内に視認可能に表示する。これによれば、ユーザ90は、照準51とシンボル表示41と目視で確認しながら両者を重ね合わせることができる。したがって、これによれば、ユーザは、照準51とシンボル表示41と容易に重ね合わせることができ、その結果、操作性が向上する。
ここで、ユーザ90が監視対象情報42を見るために視界91を動かしたのではなく、例えば通常の作業に伴って視界91が動いてしまった場合に、ユーザ90が意図していないにもかかわらず、視界91内において照準51とシンボル表示41とが重なってしまうことが想定される。この場合、通常の作業で視界91を動かした際に、視界91内において照準51がシンボル表示41を通過して一時的に重なってしまったというだけで、ユーザ90の意図に反して視界91内に監視対象情報42が表示されると、かえってユーザ90の視界91を妨げることになる。そこで、本実施形態において、表示制御部35は、照準51がシンボル表示41と重なってから例えば1〜3秒程度の所定期間を経過した後に、視界91内に監視対象情報42を表示する。
これによれば、ユーザ90が、照準51とシンボル表示41とを所定期間以上重ねて見た場合に限り、つまりユーザ90が照準51とシンボル表示41とを重ねるという意図を明確に示した場合に限り、視界91内に監視対象情報42が表示される。つまり、これによれば、ユーザ90が意図していないにもかかわらず、視界91内において照準51がシンボル表示41を通過して一時的に重なってしまったというだけで視界91内に監視対象情報42が表示されることを防ぐことができる。その結果、ユーザ90の視界91を更に妨げ難く、より安全性の高い情報提示が可能になる。
また、表示制御部35は、ユーザ90の視界91内において照準51がシンボル表示41と重なった場合に、その照準51と重なったシンボル表示41を、照準51が重なっていない場合と異なる態様で表示する。これによれば、ユーザ90は、シンボル表示41の表示態様が変化するか否かを見ることで、照準51がシンボル表示41と重なっているか否かを確認することができる。
すなわち、例えば図4又は図6に示すように、監視対象情報42が表示される前の場面を想定すると、ユーザ90は、シンボル表示41の表示態様の変化を見ることで、照準51がシンボル表示41と重なっているかを目視で確認することができる。また、視界91内に複数の監視対象11を捉えている場合、ユーザ90は、表示態様が変化しているシンボル表示41を見ることで、自分がどのシンボル表示41に対応した監視対象情報42を見ようとしているのかを目視で確認することができる。
更に、図5又は図7に示すように、監視対象情報42が表示された後の場面を想定すると、視界91内に複数の監視対象11を捉えている場合、例えば図5の例では、視界91内に表示されている第1監視対象情報421に対応した第1シンボル表示411は、第2監視対象情報422が表示されていない第2シンボル表示412とは異なる態様で表示されている。
このため、ユーザ90は、視界91内に複数の監視対象11を捉えており視界91内に複数のシンボル表示41が表示されている場合であっても、他と異なる態様で表示されているシンボル表示41を見ることで、現在表示されている監視対象情報42が視界91内のどのシンボル表示41に対応したものであるかを一見して確認することができる。これらの結果、ユーザ90の確認がし易くなり、更に安全性の高い情報提示が可能になる。
また、表示制御部35は、ユーザ90の視界91内に不透明な表示領域211を表示すると共に、表示領域211内に監視対象情報42を表示する。これによれば、不透明な表示領域211内に監視対象情報42を表示することで、表示領域211内に表示された監視対象情報42が、表示領域211の後ろの実景に紛れ込む事を防ぐことができる。したがって、監視対象情報42をより見易くすることができ、その結果、より安全性の高い情報提示が可能になる。
ここで、例えばユーザ90が移動する際には目標地点である遠方を見ていることが多いが、例えば図8に示すように遠方にある監視対象11は視界91内において小さく映っているため、その移動中のユーザ90が監視対象11自体を注視している可能性は低い。しかしながら、目標地点を見ながら移動しているユーザ90が、視線を動かした際に意図せずに照準51が遠方の監視対象11に対応したシンボル表示41と重なってしまうことも想定される。この場合、ユーザ90の意図に反して、視界91内に監視対象情報42が表示されると、移動中のユーザ90の視界が塞がることになるため、かえって安全性の低下が懸念される。
そこで、本実施形態において、表示制御部35は、ユーザ90の視界91内に捉えた監視対象11のうちユーザ90から所定距離以上離れている監視対象11については、照準51がシンボル表示41と重なっている場合であっても監視対象情報42をユーザ90の視界91内に表示しない。これによれば、図8に示すように、例えば移動中のユーザ90の視界91内において、照準51が、偶然にも遠方にある監視対象11に対応したシンボル表示41と重なったしまった場合であっても、視界91内にそのシンボル表示41に対応する監視対象情報42は表示されない。
これによれば、図8に示すように、例えば移動中のユーザ90の視界91内において、照準51が、偶然にも遠方にある監視対象11に対応したシンボル表示41と重なってしまった場合であっても、視界91内にそのシンボル表示41に対応する監視対象情報42は表示されない。この結果、例えば移動中のユーザ90が視界91内の遠方に監視対象11を捉えた場合であっても、その遠方の監視対象11については監視対象情報42が表示されることがない。したがって、移動中のユーザ90の視界91が塞がることを低減することができ、その結果、更なる安全性の向上が図られる。
また、表示制御部35は、ユーザ90の視界91内に捉えた監視対象11のうちユーザ90から所定距離以上離れている監視対象11についてのシンボル表示41をユーザ90の視界91内に表示しないようにしても良い。これによっても、上記と同様に、例えば移動中のユーザ90が視界91内の遠方に監視対象11を捉えた場合であっても、その遠方の監視対象11については監視対象情報42が表示されることがない。したがって、移動中のユーザ90の視界91が塞がることを低減することができ、その結果、上記と同様に更なる安全性の向上が図られる。
なお、本発明の実施形態は、上記し又図面に記載した態様に限定されるものではなく、その要旨を逸脱しない範囲で種々の変形や拡張をすることができる。
例えば制御部31、監視対象情報取得部32、視界情報取得部33、監視対象識別部34、及び表示制御部35を、それぞれ安全装置13側又はHMD20側に分散させて設けても良い。
ロボット11は、特定の場所に固定されているものに限られず、例えば自走可能な構成であってもよい。更に、監視対象11は、ロボットに限られず、例えばフォークリフト等のように人が運転する有人搬送車や、自動で走行可能な無人搬送車等の移動体等であっても良い。
図面中、10は情報表示システム、11はロボット(監視対象)、20はヘッドマウントディスプレイ(装着型ディスプレイ)、32は監視対象情報取得部、33は視界情報取得部、34は監視対象識別部、35は表示制御部、41はシンボル表示、42は監視対象情報、51は照準、を示す。

Claims (6)

  1. ユーザが装着可能であってユーザの視界内に情報を表示可能な装着型ディスプレイと、
    監視対象に関する情報である監視対象情報を取得可能な監視対象情報取得部と、
    ユーザの視界を特定するための視界情報を取得する視界情報取得部と、
    前記視界情報取得部で取得した前記視界情報に基づいてユーザの視界内に存在する監視対象を識別する監視対象識別部と、
    ユーザの視界内に捉えた前記監視対象について前記監視対象情報が存在している場合に前記監視対象情報の存在を示すシンボル表示をユーザの視界内に表示すると共に、ユーザの視界内に設定された照準がユーザの視界内において前記シンボル表示と重なった場合にその前記シンボル表示に対応した前記監視対象情報をユーザの視界内に表示する表示制御部と、
    を備える情報表示システム。
  2. 前記表示制御部は、前記照準をユーザの視界内に視認可能に表示する、
    請求項1に記載の情報表示システム。
  3. 前記表示制御部は、前記照準が前記シンボル表示と重なってから所定期間経過した後に前記監視対象情報を表示する、
    請求項1又は2に記載の情報表示システム。
  4. 前記表示制御部は、ユーザの視界内において前記照準が前記シンボル表示と重なった場合に、その前記照準と重なった前記シンボル表示を、前記照準が重なっていない場合と異なる態様で表示する、
    請求項1から3のいずれか一項に記載の情報表示システム。
  5. 前記表示制御部は、ユーザの視界内に不透明な表示領域を表示すると共に、前記表示領域内に前記監視対象情報を表示する、
    請求項1から4のいずれか一項に記載の情報表示システム。
  6. 前記表示制御部は、
    ユーザの視界内に捉えた前記監視対象のうちユーザから所定距離以上離れている前記監視対象については、前記照準が前記シンボル表示と重なっている場合であっても前記監視対象情報をユーザの視界内に表示しない、
    又は、
    ユーザの視界内に捉えた前記監視対象のうちユーザから所定距離以上離れている前記監視対象についての前記表示シンボルをユーザの視界内に表示しない、
    請求項1から5のいずれか一項に記載の情報表示システム。
JP2017052713A 2017-03-17 2017-03-17 情報表示システム Active JP6874448B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017052713A JP6874448B2 (ja) 2017-03-17 2017-03-17 情報表示システム
US15/921,099 US20180268218A1 (en) 2017-03-17 2018-03-14 Information display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017052713A JP6874448B2 (ja) 2017-03-17 2017-03-17 情報表示システム

Publications (2)

Publication Number Publication Date
JP2018156391A true JP2018156391A (ja) 2018-10-04
JP6874448B2 JP6874448B2 (ja) 2021-05-19

Family

ID=63520182

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017052713A Active JP6874448B2 (ja) 2017-03-17 2017-03-17 情報表示システム

Country Status (2)

Country Link
US (1) US20180268218A1 (ja)
JP (1) JP6874448B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102499576B1 (ko) * 2018-01-08 2023-02-15 삼성전자주식회사 전자 장치 및 그 제어 방법
KR20210014813A (ko) 2019-07-30 2021-02-10 삼성디스플레이 주식회사 표시장치

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005207783A (ja) * 2004-01-20 2005-08-04 Mazda Motor Corp 車両用画像表示装置、車両用画像表示方法及び車両用画像表示プログラム
JP2010210822A (ja) * 2009-03-09 2010-09-24 Brother Ind Ltd ヘッドマウントディスプレイ
JP2015228095A (ja) * 2014-05-30 2015-12-17 キヤノン株式会社 頭部装着型情報表示装置及び頭部装着型情報表示装置の制御方法
JP5876607B1 (ja) * 2015-06-12 2016-03-02 株式会社コロプラ フローティング・グラフィカルユーザインターフェース
JP2016107379A (ja) * 2014-12-08 2016-06-20 ファナック株式会社 拡張現実対応ディスプレイを備えたロボットシステム
JP2016192000A (ja) * 2015-03-31 2016-11-10 横河電機株式会社 業務支援装置及び業務支援方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5815411A (en) * 1993-09-10 1998-09-29 Criticom Corporation Electro-optic vision system which exploits position and attitude
US20100208033A1 (en) * 2009-02-13 2010-08-19 Microsoft Corporation Personal Media Landscapes in Mixed Reality
US8405871B2 (en) * 2009-09-10 2013-03-26 Bentley Systems, Incorporated Augmented reality dynamic plots techniques for producing and interacting in Augmented Reality with paper plots for which accompanying metadata is accessible
US20140063055A1 (en) * 2010-02-28 2014-03-06 Osterhout Group, Inc. Ar glasses specific user interface and control interface based on a connected external device type
US20150309316A1 (en) * 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US8686871B2 (en) * 2011-05-13 2014-04-01 General Electric Company Monitoring system and methods for monitoring machines with same
EP2608153A1 (en) * 2011-12-21 2013-06-26 Harman Becker Automotive Systems GmbH Method and system for playing an augmented reality game in a motor vehicle
US9096920B1 (en) * 2012-03-22 2015-08-04 Google Inc. User interface method
US9996150B2 (en) * 2012-12-19 2018-06-12 Qualcomm Incorporated Enabling augmented reality using eye gaze tracking
WO2014128810A1 (ja) * 2013-02-22 2014-08-28 ソニー株式会社 ヘッドマウントディスプレイ及び画像表示装置
US10182606B2 (en) * 2015-02-05 2019-01-22 Amit TAL Helmut with monocular optical display
JP2016192122A (ja) * 2015-03-31 2016-11-10 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10300362B2 (en) * 2015-04-23 2019-05-28 Win Reality, Llc Virtual reality sports training systems and methods
US10248284B2 (en) * 2015-11-16 2019-04-02 Atheer, Inc. Method and apparatus for interface control with prompt and feedback
FR3063713B1 (fr) * 2017-03-09 2019-07-05 Airbus Operations (S.A.S.) Systeme et procede d'affichage pour un aeronef

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005207783A (ja) * 2004-01-20 2005-08-04 Mazda Motor Corp 車両用画像表示装置、車両用画像表示方法及び車両用画像表示プログラム
JP2010210822A (ja) * 2009-03-09 2010-09-24 Brother Ind Ltd ヘッドマウントディスプレイ
JP2015228095A (ja) * 2014-05-30 2015-12-17 キヤノン株式会社 頭部装着型情報表示装置及び頭部装着型情報表示装置の制御方法
JP2016107379A (ja) * 2014-12-08 2016-06-20 ファナック株式会社 拡張現実対応ディスプレイを備えたロボットシステム
JP2016192000A (ja) * 2015-03-31 2016-11-10 横河電機株式会社 業務支援装置及び業務支援方法
JP5876607B1 (ja) * 2015-06-12 2016-03-02 株式会社コロプラ フローティング・グラフィカルユーザインターフェース

Also Published As

Publication number Publication date
JP6874448B2 (ja) 2021-05-19
US20180268218A1 (en) 2018-09-20

Similar Documents

Publication Publication Date Title
CN106808496B (zh) 机器人安全系统
JP6645142B2 (ja) ロボット安全システム
US11765331B2 (en) Immersive display and method of operating immersive display for real-world object alert
US10474411B2 (en) System and method for alerting VR headset user to real-world objects
JP6491574B2 (ja) Ar情報表示装置
JP2022530012A (ja) パススルー画像処理によるヘッドマウントディスプレイ
JP7003633B2 (ja) 透過型表示装置、表示制御方法、およびコンピュータープログラム
KR20150101612A (ko) 폐쇄형 시야(Closed-view)를 제공하는 헤드 마운티드 디스플레이 및 그 제어 방법
US20180136716A1 (en) Method for operating a virtual reality system, and virtual reality system
EP3163407B1 (en) Method and apparatus for alerting to head mounted display user
JP6399692B2 (ja) ヘッドマウントディスプレイ、画像表示方法及びプログラム
JP6540572B2 (ja) 表示装置および表示制御方法
JP2017094466A (ja) ロボットモニタシステム
US20190019308A1 (en) Image display device
JP6874448B2 (ja) 情報表示システム
JP6834620B2 (ja) 情報表示システム
JP2017100204A (ja) ロボット操作システム
JP5895792B2 (ja) 作業補助システムおよびプログラム
JP2022122936A (ja) 情報表示システム
JP2021065971A (ja) ロボット教示システム、画像生成方法、及びプログラム
JP6958018B2 (ja) 情報表示システム
JP2017094450A (ja) ロボット安全システム
KR101975556B1 (ko) 로봇의 관측 시점 제어 장치
CN115079973A (zh) 显示系统和显示装置
JP2018056845A (ja) 作業支援装置、システム、方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210405

R150 Certificate of patent or registration of utility model

Ref document number: 6874448

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250