JP2023065837A - 頭部装着型表示装置、及び、頭部装着型表示装置の制御方法 - Google Patents

頭部装着型表示装置、及び、頭部装着型表示装置の制御方法 Download PDF

Info

Publication number
JP2023065837A
JP2023065837A JP2021176209A JP2021176209A JP2023065837A JP 2023065837 A JP2023065837 A JP 2023065837A JP 2021176209 A JP2021176209 A JP 2021176209A JP 2021176209 A JP2021176209 A JP 2021176209A JP 2023065837 A JP2023065837 A JP 2023065837A
Authority
JP
Japan
Prior art keywords
user
unit
level
display
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021176209A
Other languages
English (en)
Inventor
由貴 藤巻
Yuki Fujimaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2021176209A priority Critical patent/JP2023065837A/ja
Priority to CN202211327546.9A priority patent/CN116055827A/zh
Priority to US17/975,610 priority patent/US11886636B2/en
Publication of JP2023065837A publication Critical patent/JP2023065837A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

Figure 2023065837000001
【課題】実空間の物体等が使用者に危険をもたらす可能性について、適切に使用者に注意を促す。
【解決手段】外景を透過する表示部20と、使用者Uの視線方向を検出する視線検出部と、第1対象物の危険度を算出し、視線方向を基に第1対象物の危険度を補正することによって第1対象物の注意レベルを判定し、及び第2対象物の危険度を算出し、視線方向を基に第2対象物の危険度を補正することによって第2対象物の注意レベルを判定する処理を行う判定部と、第1対象物の注意レベルが、第2対象物の注意レベルよりも高い場合に、第1対象物に関する第1画像を表示部20に表示させる表示制御部と、を備える、HMD100。
【選択図】図1

Description

本発明は、頭部装着型表示装置、及び、頭部装着型表示装置の制御方法に関する。
従来、頭部装着型表示装置(HMD:Head Mounted Display)を装着している使用者に対し、危険を報知する技術が提案された。特許文献1は、外景において移動している移動物体を特定し、移動物体が使用者に近づく速度に基づいて、表示画像の表示態様を設定する構成を開示する。
特開2017-117175号公報
特許文献1に開示された構成では、低速で移動する物体や、静止している物体について、使用者に報知することが難しい。このため、実空間の物体等が使用者に危険をもたらす可能性について、より適切に、使用者に注意を促すことが望まれていた。
本開示の一態様は、第1対象物と第2対象物とが含まれる外景を透過する表示部と、使用者の視線方向を検出する視線検出部と、前記第1対象物が前記使用者に到達するまでにかかる第1時間と前記第2対象物が前記使用者に到達するまでにかかる第2時間とを算出する時間算出部と、前記第1対象物に関する第1情報と前記第2対象物に関する第2情報とを取得し、前記第1情報と前記第1時間とを基に前記第1対象物の危険度を算出し、前記視線方向を基に前記第1対象物の危険度を補正し、補正された前記第1対象物の危険度を基に前記第1対象物の注意レベルを判定し、前記第2情報と前記第2時間とを基に前記第2対象物の危険度を算出し、前記視線方向を基に前記第2対象物の危険度を補正し、補正された前記第2対象物の危険度を基に前記第2対象物の注意レベルを判定する判定部と、前記第1対象物の前記注意レベルが、前記第2対象物の前記注意レベルよりも高い場合に、前記第1対象物に関する第1画像を前記表示部に表示させる表示制御部と、を備える、頭部装着型表示装置である。
本開示の別の一態様は、第1対象物と第2対象物とが含まれる外景を透過する表示部と、使用者の視線方向を検出する視線検出部と、を備える頭部装着型表示装置の制御方法であって、前記第1対象物に関する第1情報と、前記第2対象物に関する第2情報と、を取得し、前記第1対象物が前記使用者に到達するまでにかかる第1時間と、前記第2対象物が前記使用者に到達するまでにかかる第2時間と、を算出し、前記第1情報と前記第1時間とを基に前記第1対象物の危険度を算出し、前記視線方向を基に前記第1対象物の危険度を補正し、補正された前記第1対象物の危険度を基に前記第1対象物の注意レベルを判定し、前記第2情報と前記第2時間とを基に前記第2対象物の危険度を算出し、前記視線方向を基に前記第2対象物の危険度を補正し、補正された前記第1対象物の危険度を基に前記第2対象物の注意レベルを判定し、前記第1対象物の前記注意レベルが、前記第2対象物の前記注意レベルよりも高い場合に、前記第1対象物に関する第1画像を前記表示部に表示させる、頭部装着型表示装置の制御方法である。
HMDの構成を示す図。 HMDの外観図。 HMDのブロック図。 制御部の機能ブロック図。 使用者の視線方向を検出する様子を示す模式図。 HMDによる表示例を示す図。 HMDの動作を示すフローチャート。 HMDの動作を示すフローチャート。 HMDの動作を示すフローチャート。 表示の遷移の例を示す説明図。
[1.HMDの全体構成]
図1は、HMD100の構成を示す図である。図2はHMD100の外観図であり、使用者Uの顔に対向する側の斜視図である。
HMD100は、使用者Uが頭部に装着する頭部装着型表示装置である。HMDは、Head Mounted Displayの略である。
HMD100は、使用者が虚像を視認すると同時に外景を直接視認可能な、光学透過型の表示装置である。ここで、外景は、HMD100を装着する使用者Uの外部の景色であり、使用者Uが表示部20を装着していない状態でも肉眼により視認可能な、実空間の光景を指す。使用者Uは、HMD100のユーザーであり、操作者ということもできる。
HMD100は、使用者Uが頭部に装着する表示部20、及び、表示部20を制御するコントローラー10を備える。表示部20は、使用者Uの頭部に装着された状態で使用者に虚像を視認させる。コントローラー10は、使用者UがHMD100を操作するための制御装置として機能する。
以下の説明では、表示部20が使用者Uに視認させる虚像を、便宜的に、表示画像と呼ぶ。HMD100が、画像データに基づく画像光を表示部20から射出することを、画像を表示すると表現する。画像とは、静止画像に限らず、動画像あるいは映像を含む。この構成は一例であり、たとえば、HMD100が、光学的に不透過であってもよい。この場合、HMD100は、例えば、いわゆるビデオシースルー型の表示装置であってもよい。具体的には、HMD100は、透光性を有しない表示部20を備え、後述する外側カメラ61の撮影画像を表示部20に表示することによって、使用者Uに間接的に外景を視認させる構成であってもよい。
コントローラー10は、箱形の本体11を有する。本体11は、使用者Uの操作を受け付ける操作子として、各種のスイッチ等を備える。表示部20は、本実施形態では眼鏡形状を有する。表示部20は、右保持部21と、左保持部23と、前部フレーム27とで構成される本体を有する。表示部20の本体には、右表示ユニット22、左表示ユニット24、右導光板26、及び左導光板28が設けられる。
右保持部21及び左保持部23は、前部フレーム27の両端部から後方に延び、使用者Uの頭部に表示部20を保持する。前部フレーム27の両端部のうち表示部20の装着時に使用者Uの右側に位置する端部を端部ERとし、左側に位置する端部を端部ELとする。
右導光板26及び左導光板28は、前部フレーム27に設けられる。表示部20の装着状態において、右導光板26は使用者Uの右眼の前に位置する。左導光板28は使用者Uの左眼の前に位置する。
右表示ユニット22及び左表示ユニット24は、光学ユニット及び周辺回路をユニット化したモジュールである。右表示ユニット22は、右保持部21に取り付けられ、左表示ユニット24は、左保持部23に取り付けられる。右表示ユニット22及び左表示ユニット24は、画像データに基づく画像光を出射する。
右導光板26及び左導光板28は、光透過性の樹脂等によって形成される光学部品である。例えば、右導光板26及び左導光板28はプリズムである。右導光板26は、右表示ユニット22が出力する画像光を使用者Uの右眼に向けて導く。左導光板28は、左表示ユニット24が出力する画像光を使用者の左眼に導く。これにより、使用者Uの両眼に画像光が入射し、使用者Uが画像を視認できる。
使用者Uの右眼には、右導光板26により導かれた画像光と、右導光板26を透過した外光とが入射する。使用者Uの左眼には、左導光板28により導かれた画像光と、左導光板28を透過した外光とが入射する。つまり、HMD100は、内部で処理した画像に対応する画像光と外光とを重ねて使用者Uの眼に入射させる。使用者Uには、右導光板26及び左導光板28を透かして外景が見える。さらに、使用者Uは、外景に重ねて、画像光による画像を見ることができる。
右導光板26及び左導光板28の表面に、使用者Uの右眼及び左眼に入射する外光を減衰させるシェードを設けてもよい。このシェードは、電気的に光の透過率を調整可能な電子シェードであってもよい。
前部フレーム27には、照度センサー65が配置される。照度センサー65は、表示部20を装着する使用者Uの前方からの外光を受光する。
前部フレーム27には、外側カメラ61が配置される。図1の例では、外側カメラ61が前部フレーム27の端部ER側にある。外側カメラ61は、使用者Uの正面を含む撮影範囲を撮影するデジタルカメラである。外側カメラ61は、右導光板26及び左導光板28を透過する外光を遮らない位置に設けられる。外側カメラ61の位置は図1の例に制限されない。外側カメラ61は、端部EL側に配置されてもよく、右導光板26と左導光板28との連結部に配置されてもよい。外側カメラ61は、撮影部の一例に対応する。
外側カメラ61は、CCDやCMOS等の撮影素子及び撮影レンズ等を備えるデジタルカメラである。本実施形態の外側カメラ61は単眼カメラであるが、ステレオカメラで構成してもよい。外側カメラ61は、後述する制御部120の制御に従って撮影を実行し、撮影画像データを制御部120に出力する。外側カメラ61は撮影レンズを有する。外側カメラ61の撮影レンズは、いわゆる広角レンズであってもよい。この広角レンズは、超広角レンズ、準広角レンズと呼ばれるレンズであってもよい。外側カメラ61の撮影レンズは、単焦点レンズであってもよいし、ズームレンズであってもよいし、複数のレンズからなるレンズ群であってもよい。CCDはCharge Coupled Deviceの略である。CMOSはComplementaryMetal-Oxide-Semiconductorの略である。
前部フレーム27には、LEDインジケーター67が配置される。LEDインジケーター67は、端部ERにおいて外側カメラ61の近傍に配置され、外側カメラ61の動作中に点灯して、撮影中であることを報知する。LEDはLight Emitting Diodeの略である。
前部フレーム27には、距離センサー64が設けられる。距離センサー64は、表示部20から、使用者Uの前方に位置する測定対象物までの距離を検出する。測定対象物は、実空間に位置する現実の物体や構造物である。距離センサー64は、例えば、光反射式距離センサーであってもよい。具体的には、LEDやレーザーダイオード等の光源と、光源が発する光が測定対象物に反射する反射光を受光する受光部とを有するセンサーが挙げられる。また、距離センサー64は、超音波式の距離センサーであってもよい。すなわち、距離センサー64は、超音波を発する音源と、測定対象物で反射する超音波を受信する検出部とを備える構成であってもよい。また、距離センサー64は、測域センサーとも呼ばれるレーザーレンジスキャナーであってもよい。
後述するように、HMD100は、制御部120によって、外側カメラ61、及び、距離センサー64の少なくともいずれかを利用してSLAM処理を実行する。制御部120は、表示部20を装着している使用者Uの周辺の物体の環境マップを作成し、環境マップにおける使用者Uの自己位置を特定する。距離センサー64はSLAM処理を行うためのセンサーであり、具体的には、LIDARシステムを構成するセンサーであってもよい。距離センサー64は、測定対象物と表示部20との間の距離を検出するセンサーに限定されず、例えば、レーザーレンジスキャナーであってもよい。SLAMはSimultaneous Localization and Mappingの略である。LIDARはLight Detection and Ranging、Laser Imaging Detection and Rangingの略である。プロセッサー125が外側カメラ61のみを利用してSLAMを実行可能な場合、HMD100は距離センサー64を備えていない構成であってもよい。
HMD100は、距離センサー64とともに、或いは、距離センサー64に代えて、使用者Uの周囲のガス成分を検出するガスセンサー、或いは、その他の環境センサーを備えてもよい。
また、前部フレーム27には、図示はしないが、サーモカメラ66が設けられる。サーモカメラ66は、赤外光を撮影するカメラであり、赤外線画像の画像データを出力する。サーモカメラ66が撮影する赤外線画像は、サーモカメラ66の撮影範囲内における温度分布を示す。サーモカメラ66の撮影範囲は外側カメラ61の撮影範囲と重なる。
コントローラー10と表示部20とは、接続ケーブル40により接続される。接続ケーブル40は、本体11のコネクター42に着脱可能に接続される。
接続ケーブル40は、オーディオコネクター46を備える。オーディオコネクター46には、ヘッドセット30が接続される。ヘッドセット30は、ステレオヘッドホンを構成する右イヤホン32及び左イヤホン34と、マイク63とを有する。
右イヤホン32は、使用者Uの右耳に装着される。左イヤホン34は、使用者Uの左耳に装着される。右イヤホン32及び左イヤホン34は、インナーイヤー型のイヤホン、或いは、カナル型のイヤホンである。右イヤホン32及び左イヤホン34は、イヤーマフを介して耳介に接触するオーバーヘッド型のヘッドホンであってもよい。右イヤホン32及び左イヤホン34は、後述する音声インターフェイス181が出力する音声信号に基づき音声を出力する。
マイク63は、音声を集音して、音声信号を、音声インターフェイス181に出力する。マイク63は、モノラルマイクであってもステレオマイクであってもよい。マイク63は、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。
コントローラー10は、ホイール操作部12、中央キー13、操作パッド14、上下キー15、LED表示部17、及び電源スイッチ18を備える。これらは使用者Uにより操作される被操作部ということができる。これらの被操作部は本体11の表面に配置される。これらの被操作部は、例えば、使用者Uの手指により操作される。
本体11にはLED表示部17が設置される。LED表示部17は、HMD100の動作状態を示すLEDインジケーターである。LED表示部17は、光を透過可能な透過部によりカバーされる。LED表示部17のカバーは、本体11の表面の一部を構成する。LED表示部17が発光すると、この光が透過部を透過する。これにより、透過部に形成された文字、記号、模様等が視認可能となる。LED表示部17には、使用者Uの手指の接触を検出するタッチセンサーが、透過部に重ねて配置される。LED表示部17とタッチセンサーとの組合せはソフトウェアキーとして機能する。
電源スイッチ18は、HMD100の電源のオン/オフを切り替えるスイッチである。
本体11は、コントローラー10を、外部の装置に接続するインターフェイスとして、USBコネクター19を備える。USBはUniversal Serial Busの略である。
前部フレーム27には、使用者Uが表示部20を装着した状態で使用者Uの顔を向く内側カメラ68が設けられる。本実施形態のHMD100は、一対の内側カメラ68を備える。詳細には、使用者Uの右眼を向く内側カメラ68、及び、使用者Uの左眼を向く内側カメラ68を備える。内側カメラ68は、赤外光や可視光により、使用者Uの右眼および左眼をそれぞれ撮影する。制御部120は、内側カメラ68の撮影画像により、使用者Uの右眼の視線、及び、左眼の視線の方向を特定できる。また、HMD100は、内側カメラ68の撮影画像を解析することにより、右眼及び左眼の瞳孔のサイズを検出することができる。HMD100は、瞳孔のサイズの変化をもとに、使用者Uの瞳孔の縮瞳または散瞳の状態を特定してもよい。また、HMD100は、内側カメラ68の撮影画像をもとに、右眼及び左眼のまぶたの開閉状態を検出してもよい。
図3は、HMD100を構成する各部の構成を示すブロック図である。
コントローラー10は、プロセッサー125を備える。プロセッサー125は、CPUやMPU等で構成される。プロセッサー125には、メモリー118及び不揮発性記憶部121が接続される。メモリー118は、例えばRAMであり、データやプログラムを一時的に記憶するワークエリアを形成する。不揮発性記憶部121は、磁気的記憶装置、フラッシュROM等の半導体記憶素子、或いはその他の種類の不揮発性記憶装置により構成される。不揮発性記憶部121は、プロセッサー125が実行するプログラムや、プロセッサー125によって処理されるデータを不揮発的に記憶する。CPUはCentral Processing Unitの略であり、MPUはMicro Processing Unitの略である。RAMはRandom Access Memoryの略であり、ROMはRead Only Memoryの略である。
プロセッサー125には、入力装置として操作部170が接続される。プロセッサー125には、センサー類として、6軸センサー111、磁気センサー113、及び、GPS受信部115が接続される。
プロセッサー125には、通信部117、音声インターフェイス181、外部メモリーインターフェイス191、USBコネクター19、センサーハブ193、及び、FPGA194が接続される。これらのコンポーネントは外部とのインターフェイスとして機能する。以下の説明および図において、インターフェイスをI/Fと略する。FPGAはField Programmable Gate Arrayの略である。
コントローラー10は、制御基板を備える。この制御基板には、プロセッサー125が実装される。制御基板に、6軸センサー111、磁気センサー113、GPS受信部115、通信部117、メモリー118、不揮発性記憶部121等が実装されてもよい。制御基板に、外部メモリーインターフェイス191、USBコネクター19、センサーハブ193、FPGA194、及びインターフェイス197が実装されてもよい。さらに、制御基板に、コネクター42、及びUSBコネクター19が実装されてもよい。
メモリー118は、プロセッサー125が実行するプログラム、及び、プロセッサー125が処理するデータ等を一時的に記憶するワークエリアを構成する。不揮発性記憶部121は、フラッシュメモリー等の半導体メモリーデバイスで構成される。不揮発性記憶部121は、プロセッサー125が実行するプログラムや、プロセッサー125が処理するデータを記憶する。
操作部170は、LED表示部17に配置されたタッチセンサー、ホイール操作部12、中央キー13、操作パッド14、上下キー15、及び電源スイッチ18に対する操作を検出する。操作部170は、操作に対応する操作信号をプロセッサー125に出力する。操作部170は、プロセッサー125の制御に従って、LED表示部17を点灯、点滅、消灯させる。
6軸センサー111は、コントローラー10の動きを検出するモーションセンサーの一例である。モーションセンサーは、慣性センサーや動きセンサーと言い換えることもできる。6軸センサー111は、3軸加速度センサー、及び、3軸ジャイロセンサーを備える。磁気センサー113は、例えば、3軸の地磁気センサーである。6軸センサー111は、加速度センサーとジャイロセンサーがモジュール化されたIMUであってもよい。IMUは、Inertial Measurement Unitの略である。また、6軸センサー111と磁気センサー113がモジュール化された構成であってもよい。
GPS受信部115は、不図示のGPSアンテナによってGPS信号を受信する。GPS受信部115は、GPS信号に基づき、コントローラー10の現在位置の座標を検出または算出する。GPSは、Global Positioning Systemの略である。
6軸センサー111、磁気センサー113及びGPS受信部115は、予め指定されたサンプリング周期に従ってプロセッサー125に出力値を出力する。また、6軸センサー111、磁気センサー113及びGPS受信部115は、プロセッサー125の要求に応じて、検出値をプロセッサー125に出力してもよい。
通信部117は、外部の機器との間で無線通信を実行する通信装置である。通信部117は、不図示のアンテナ、RF回路、ベースバンド回路、通信制御回路等を備える。通信部117は、例えば、Bluetooth、Wi-Fiを含む無線LAN等の規格に準拠した無線通信を行う。RFはRadio Frequencyの略である。Bluetoothは登録商標である。Wi-Fiは登録商標である。
音声インターフェイス181は、オーディオコネクター46を介して右イヤホン32、左イヤホン34、及びマイク63に接続される。音声インターフェイス181は、プロセッサー125の制御に従って、右イヤホン32及び左イヤホン34のそれぞれに音声信号を出力し、音声を出力させる。音声インターフェイス181は、マイク63から入力される音声信号をプロセッサー125に出力する。音声インターフェイス181は、アナログ音声信号とデジタル音声データとを変換するコンバーターを備えてもよい。この場合、音声インターフェイス181とプロセッサー125との間でデジタル音声データが入出力される。
HMD100は、ステレオ音声を処理可能である。具体的には、音声インターフェイス181により、使用者Uの右耳と左耳のそれぞれに対応するチャンネルを含む2チャンネルのステレオ音声を、右イヤホン32及び左イヤホン34により出力させることができる。
外部メモリーインターフェイス191は、可搬型のメモリーデバイスを接続可能なインターフェイスであり、例えば、カード型記録媒体を装着してデータの読取が可能なメモリーカードスロットとインターフェイス回路とを含む。
インターフェイス197は、センサーハブ193及びFPGA194を、表示部20に接続する。
センサーハブ193は、表示部20が備える各種センサーの検出値を取得してプロセッサー125に出力する。FPGA194は、プロセッサー125と表示部20の各部との間で送受信するデータの処理、及び、インターフェイス197を介した伝送を実行する。
表示部20は、上述したように眼鏡形状であり、右保持部21及び左保持部23は眼鏡のテンプルに類似する部材である。右保持部21及び左保持部23は、それぞれ、前部フレーム27に対して回動可能である。例えば、右保持部21及び左保持部23は、それぞれ、前部フレーム27に対しヒンジ構造により連結される。使用者Uが表示部20を装着した状態で、右保持部21及び左保持部23は、使用者Uの頭部の大きさに合わせた角度で開く。
コントローラー10には、接続ケーブル40、及び、不図示の表示部20内部の配線により、右表示ユニット22及び左表示ユニット24がそれぞれ接続される。
右表示ユニット22は、画像光を発するOLEDユニット221を備える。OLEDユニット221が発する画像光は、レンズ群等を含む光学系により、右導光板26に導かれる。左表示ユニット24は、画像光を発するOLEDユニット241を備える。OLEDユニット241が発する画像光は、レンズ群等を含む光学系により、左導光板28に導かれる。OLEDは、Organic Light Emitting Diodeの略である。
OLEDユニット221、241は、OLEDパネルやOLEDパネルを駆動する駆動回路を有する。OLEDパネルは、有機エレクトロルミネッセンスにより発光する自発光型の表示パネルである。OLEDパネルは、例えば、赤、緑、青の色光をそれぞれ発する発光素子を、マトリクス状に配置して構成される。駆動回路は、プロセッサー125の制御に従って、OLEDパネルの発光素子の選択及び発光素子への通電を実行して、OLEDパネルの発光素子を発光させる。これにより、OLEDユニット221、241が画像光を形成し、この画像光が、右導光板26及び左導光板28を経由して、使用者Uの右眼及び左眼に入射する。
右表示ユニット22は、表示ユニット基板210を有する。表示ユニット基板210には、インターフェイス211、受信部213、及び、EEPROM215が実装される。インターフェイス211は、インターフェイス197に接続される。インターフェイス211は、受信部213、EEPROM215、外側カメラ61、照度センサー65、および、LEDインジケーター67を、コントローラー10に接続する。受信部213は、インターフェイス211を介してコントローラー10から入力されるデータを受信する。図では、受信部213をRxと略する。
EEPROM215は、データを記憶する。EEPROM215は、例えば、OLEDユニット221、241の発光特性や表示特性に関するデータ、右表示ユニット22または左表示ユニット24が備えるセンサーの特性に関するデータなどを記憶する。EEPROM215が記憶するデータはプロセッサー125により読み取り可能である。EEPROMは、Electrically Erasable Programmable ROMの略である。
インターフェイス211には、外側カメラ61から、撮影画像データ、或いは、外側カメラ61の撮影結果を示す信号が入力される。インターフェイス211には、距離センサー64から、距離センサー64の検出範囲に位置する対象物までの距離を測定した測定結果が入力される。インターフェイス211には、照度センサー65から、受光量、及び/または受光強度に対応する検出値が入力される。インターフェイス211には、サーモカメラ66から、赤外線画像の画像データが入力される。
LEDインジケーター67は、インターフェイス211を介して入力される信号に従って点灯および消灯する。内側カメラ68は、撮影を実行し、撮影画像データ、或いは、撮影結果を示す信号をインターフェイス211に出力する。受信部213は、インターフェイス211を介してプロセッサー125が送信するデータを受信する。受信部213は、インターフェイス211を介して受信した画像データを、OLEDユニット221に出力する。
左表示ユニット24は、表示ユニット基板230を有する。表示ユニット基板230には、インターフェイス231及び受信部233が実装される。表示ユニット基板230には、6軸センサー235、及び、磁気センサー237が実装される。インターフェイス231は、受信部233、6軸センサー235、及び、磁気センサー237を、コントローラー10に接続する。受信部233はインターフェイス231を介してコントローラー10から入力されるデータを受信する。
6軸センサー235は、表示部20の動きを検出するモーションセンサーの一例である。6軸センサー235は、3軸加速度センサー、及び、3軸ジャイロセンサーを備える。6軸センサー235は、上記のセンサーがモジュール化されたIMUであってもよい。磁気センサー237は、例えば、3軸の地磁気センサーである。6軸センサー235及び磁気センサー237は、検出値または検出データをインターフェイス231に出力する。これらの検出値または検出データはインターフェイス231を介してプロセッサー125に出力される。
外側カメラ61、距離センサー64、照度センサー65、サーモカメラ66、内側カメラ68、6軸センサー235、及び、磁気センサー237は、コントローラー10のセンサーハブ193に接続される。これらの各センサーには、センサーハブ193から制御信号が入力される。また、LEDインジケーター67はセンサーハブ193に接続される。
センサーハブ193は、プロセッサー125の制御に従って、各センサーのサンプリング周期の設定及び初期化を行う。センサーハブ193は、各センサーのサンプリング周期に合わせて、各センサーへの通電、制御データの送信、検出値の取得等を実行する。センサーハブ193は、予め設定されたタイミングで、各センサーの検出値をプロセッサー125に出力する。センサーハブ193は、プロセッサー125の制御に従ってLEDインジケーター67への通電を開始及び停止させ、外側カメラ61が撮影を開始及び終了するタイミングに合わせて、LEDインジケーター67を点灯または点滅させる。
[2.HMDの制御部の構成]
図4は、HMD100の制御部120の機能ブロック図である。制御部120は、メモリー118、不揮発性記憶部121、及び、プロセッサー125を含む。制御部120は、EEPROM215を含んでもよい。
不揮発性記憶部121は、制御プログラム151を記憶する。制御プログラム151は、プロセッサー125が実行するプログラムである。不揮発性記憶部121は、設定値記憶部152、閾値記憶部153、認識データ記憶部154、及び、危険度データベース155を有する。以下の説明及び図ではデータベースをDBと省略して記載する。設定値記憶部152、閾値記憶部153、認識データ記憶部154、及び、損害DB155は、不揮発性記憶部121の記憶領域に設けられる論理的な、或いは仮想的な記憶部である。
設定値記憶部152は、HMD100の動作に係る各種の設定値を記憶する。設定値記憶部152は、プロセッサー125がHMD100を制御する際にパラメーター、行列式、演算式、LUT等を用いる場合、これらを記憶する。LUTはLookUp Tableの略である。
閾値記憶部153は、プロセッサー125の処理において使用する閾値を記憶する。例えば、閾値記憶部153は、後述する距離閾値、時間閾値、表示閾値、及び、逸脱時間閾値を記憶する。逸脱時間閾値は、例えば、図9を参照して後述するように、損害情報の値に対応して複数記憶される。閾値記憶部153が記憶する閾値は、操作部170に対する操作により入力されてもよいし、HMD100の製造工程において閾値記憶部153に書き込まれてもよい。また、プロセッサー125が制御プログラム151を実行することによって、動的に閾値を精製し、閾値記憶部153に記憶してもよい。また、閾値記憶部153は、プロセッサー125によって選択される複数の閾値の候補を記憶してもよい。
認識データ記憶部154は、プロセッサー125が外側カメラ61の撮影画像から対象物を認識するためのデータを記憶する。対象物は、移動可能な移動物、建物や道路に固定された設備、道路の路面や床面それ自体の形状を含む。移動物は、例えば、電車、自動車、自動二輪車等の移動体を含む。また、移動物は、家具、家電製品、工具、日用品であり、その他の移動物を含み、動物や使用者U以外の人間を含む。設備は、壁、手すり、及び、これらに取り付けられた棚や装飾品等の設置物を含む。道路の路面や床面それ自体の形状とは、階段、スロープ、排水溝、排水口、マンホール等の人工的な構造物を含む。また、道路の路面や床面それ自体の形状とは、路面の凹凸、水たまり、ひび割れ、陥没等の自然発生的な形状を含んでもよい。
プロセッサー125は、後述するように、外側カメラ61の撮影画像から対象物の画像を切り出す処理を行う。この処理において、プロセッサー125は、対象物の画像をパターンマッチングにより検出する処理、画像解析のアルゴリズムを利用して対象物を検出する処理、SLAM処理によって撮影画像に含まれる対象物を検出する処理等を実行する。これらの処理で必要なデータが、認識データ記憶部154に記憶される。
損害DB155は、プロセッサー125が認識する対象物による損害に関する損害情報を含むデータベースである。対象物による損害とは、対象物によって使用者Uが受ける可能性のある損害をいう。これは、対象物によって生じる使用者Uの損害と言い換えることができる。
対象物によって使用者Uが受ける可能性のある損害とは、使用者Uが対象物に接触または遭遇した場合に、使用者Uの身体に生じる怪我等の害をいう。例えば、使用者Uの墜落・転落、使用者Uの転倒、使用者Uの対象物への激突、対象物の飛来・落下、対象物の崩壊・倒壊、対象物の使用者Uへの激突が挙げられる。このほか、使用者Uの身体が対象物に挟まれる、使用者Uの身体が対象物により切られる、使用者Uが溺れる、使用者Uと高温または低温の対象物との接触、放射線による被曝、有害光線による障害、ガス中毒、酸素欠乏症、感電、交通事故等が挙げられる。
損害DB155は、対象物の種類や名称に対応付けて、対象物によって使用者Uが受ける可能性のある損害の程度を示す損害情報を記憶する。例えば、損害DB155が記憶する損害情報は、対象物によって使用者Uが受ける可能性のある損害の発生確率と、対象物によって使用者Uが受ける可能性のある損害の重篤度とを総合した指標である。損害情報は、数値であってもよい。具体的には、損害情報は、損害の程度を数値化した指標であってもよい。損害情報は、損害の程度を段階的に示す数値であってもよい。この場合、損害情報は、損害レベルと言い換えることもできる。
損害の発生確率は、対象物の種類と損害の種類との組合せ毎に、統計的な指標をもとに定められる。損害の重篤度は、上記の損害が生じた場合に使用者Uが受ける被害の重篤度である。重篤度は、例えば、使用者Uの身体に発生し得る怪我の大きさ、治療期間の指標、後遺症の有無等に基づき、予め決定される。1つの対象物が、複数種類の損害に関係する可能性がある場合、損害DB155は、対象物に関係する全ての損害の発生確率と重篤度とを加味した損害情報を記憶する。損害DB155が記憶する損害情報は、第1情報、及び、第2情報の一例に対応する。すなわち、距離検出部173が検出した第1対象物に対応する損害情報は第1情報の一例に対応し、第2対象物に対応する損害情報は第2情報の一例に対応する。
制御部120は、基本制御部171、表示制御部172、距離検出部173、温度検出部174、時間算出部175、視線検出部176、判定部177、動作検出部178、及び、入力検出部179を備える。これらの各機能部は、プロセッサー125が制御プログラム151を実行することによって、ソフトウェアとハードウェアとの協働により構成される。
基本制御部171は、HMD100の各部を制御する基本機能を実行する。基本制御部171は、HMD100の電源がオンされたときに起動処理を実行し、HMD100の各部を初期化する。基本制御部171は、コントローラー10の電源をオフにする場合に、シャットダウン処理を実行し、HMD100を停止させる。
表示制御部172は、表示部20を制御して、使用者Uに視認されるように、画像や文字を含む各種画面を表示させる。
距離検出部173は、外側カメラ61の撮影画像、及び、距離センサー64の検出結果の少なくともいずれかに基づいて、使用者Uの周囲にある対象物を検出する。距離検出部173は、検出した対象物と使用者Uとの間の距離を検出する。また、距離検出部173は、例えば、SLAM処理を実行し、使用者Uの周辺の対象物の環境マップを作成し、環境マップにおける使用者Uの自己位置を特定してもよい。距離検出部173が検出する対象物のいずれか1つが第1対象物の一例に対応し、第1対象物以外のいずれかの対象物が、第2対象物の一例に対応する。
温度検出部174は、サーモカメラ66が撮影する赤外線画像に基づいて、距離検出部173が検出する対象物の温度を検出する。温度検出部174は、距離検出部173が対象物を検出した検出結果、及び、距離検出部173が対象物の検出に用いた外側カメラ61の撮影画像のうち、少なくともいずれかを利用して、赤外線画像における対象物の位置を特定する。温度検出部174は、特定した位置の温度を、対象物の温度とする。距離検出部173が複数の対象物を検出した場合、温度検出部174は、距離検出部173により検出された複数の対象物のそれぞれについて温度を検出する。
時間算出部175は、距離検出部173が検出した対象物について、対象物と使用者Uとが接触するまでの時間を算出する。詳細には、時間算出部175は、距離検出部173が検出した対象物と使用者Uとの間の距離の変化を求め、求めた変化から、対象物と使用者Uとの相対速度を算出する。時間算出部175は、対象物と使用者Uとの相対速度、及び、対象物と使用者Uとの間の距離に基づいて、対象物と使用者Uとの間の距離がゼロになるまでの時間を算出する。ここで、距離検出部173は、対象物と使用者Uとの間の距離として、実際には、対象物と外側カメラ61との間の距離を検出する。この距離は、対象物と表示部20との間の距離であるが、実質的に、対象物と使用者Uとの間の距離と見なすことができる。このため、距離検出部173が検出する距離を、以下では、対象物と使用者Uとの間の距離と見なして説明する。
対象物と使用者Uとの間の距離がゼロになることは、対象物の位置と使用者Uの位置とが重なるか、或いは、対象物の位置と使用者Uの位置とが極めて近接することを意味する。時間算出部175は、対象物と使用者Uとの間の距離がゼロになるまでの時間を算出する処理において、対象物が移動するか使用者Uが移動するかを区別しない。すなわち、対象物と使用者Uとの間の距離がゼロになるまでの時間は、対象物が移動するか使用者Uが移動するかに関係なく、対象物と使用者Uとの相対速度に基づき算出される。
対象物と使用者Uとの間の距離がゼロになるまでの時間は、対象物と、使用者Uの身体や衣服が接触または遭遇するまでの時間を示す。例えば、対象物が移動体である場合、対象物と使用者Uとの間の距離がゼロになると、対象物と使用者Uとが接触する。対象物が移動しない設備である場合、対象物と使用者Uとの間の距離がゼロになることは、対象物に使用者Uが接触することを意味する。対象物が床面の凹凸である場合、対象物と使用者Uとの間の距離がゼロになることは、使用者Uが対象物の位置に到達することを意味する。
距離検出部173が複数の対象物を検出した場合、時間算出部175は、複数の対象物のそれぞれについて、対象物と使用者Uとの間の距離がゼロになるまでの時間を算出する。具体的には、時間算出部175は、距離検出部173が検出した第1対象物が使用者Uに到達するまでにかかる第1時間、及び、距離検出部173が検出した第2対象物が使用者Uに到達するまでにかかる第2時間を、それぞれ算出する。
視線検出部176は、内側カメラ68の撮影画像を取得して解析することにより、使用者Uの視線の方向を検出する。
図5は、使用者Uの視線方向を検出する様子を示す模式図である。
図5において、符号OBは対象物を示し、符号REは使用者Uの右眼を示し、符号RDは右眼REの視線方向を示す。符号LEは使用者Uの左眼を示し、符号LDは左眼LEの視線方向を示す。
視線検出部176は、使用者Uの視線の方向を検出する。詳細には、視線検出部176は、内側カメラ68が右眼REを撮影した撮影画像を解析することにより、視線方向RDを検出する。同様に、視線検出部176は、内側カメラ68が左眼LEを撮影した撮影画像を解析することにより、視線方向LDを検出する。視線方向RDと視線方向LDとが交差する位置VPは、使用者Uが注視する位置に相当する。この位置を注視位置VPと呼ぶ。言い換えると、視線方向RDは、使用者Uの右眼REから注視位置VPに向かう方向であり、視線方向LDは、使用者Uの右眼LEEから注視位置VPに向かう方向である。視線検出部176は、表示部20の基準位置から注視位置VPに向かう方向VDを、視線方向VDとして検出する。基準位置は、表示部20の位置の基準として予め決められた位置であり、例えば、前部フレーム27の左右方向における中心、或いは、一対の内側カメラ68の中央の位置である。視線方向VDは、視線方向RDと視線方向LDとを総合した、両目による使用者Uの視線の方向を表す。言い換えると、視線方向VDは、表示部20の中心から注視位置VPに向かう方向である。
使用者Uが対象物OBを注視すると、使用者Uの視線方向RD及び視線方向LDは対象物OBの位置において交差する。すなわち、注視位置VPが、対象物OBに重なる範囲にある。換言すれば、注視位置VPが対象物OBに重なる位置である場合、使用者Uが対象物OBを注視しているということができる。
視線検出部176は、使用者Uの右眼RE及び左眼LEから注視位置VPまでの距離D2を検出してもよい。この場合、距離検出部173が検出する対象物OBまでの距離と、視線検出部176が検出する距離D2とを比較することによって、注視位置VPが対象物OBに重なる位置であるか否かを、より正確に判定できる。ここで、距離検出部173が検出する距離は、図に符号D1で示すように、外側カメラ61の設置位置である表示部20から対象物OBまでの距離である。従って、注視位置VPが対象物OBに一致する場合であっても、距離D1と距離D2との間には図5に示すように差がある。しかしながら、その差は使用者Uの身体の大きさ等に比べて小さいため、距離D1と距離D2とを単純に比較することによって、正確な判定を行うことができる。
判定部177は、距離検出部173が検出した対象物の危険度を算出する。危険度は、損害DB155に記憶された損害情報と、距離検出部173が検出した対象物までの距離とを基に決定される。危険度は、対象物が使用者Uに対して潜在的に有する危険の度合いを示す指標である。
例えば、判定部177は、損害情報の数値と、距離検出部173が検出した距離とを乗じることによって危険度を算出する。判定部177は、距離検出部173が検出した距離を、段階的に数値化してもよい。この場合、損害情報は、上述したように、損害の大きさを段階的に数値化した値とすることができるから、損害情報の値と、距離を段階的に数値化した値とを乗算することによって、容易に危険度を算出できる。
判定部177は、対象物の危険度を補正することによって、対象物の注意レベルを判定する。詳細には、判定部177は、注視位置VPが対象物の位置に重なるか否かに応じて、対象物の危険度を補正することにより、注意レベルを判定する。注視位置VPが対象物の位置に重なる場合、換言すれば、使用者Uの視線方向VDが対象物の位置に対応する方向である。
注意レベルは、使用者Uが対象物に注意を向けるべきか否かを判定するための指標である。本実施形態で、注意レベルは、段階的に数値化された値である。ここで、対象物の危険度が段階的に数値化された値である場合、危険度を、そのまま注意レベルとしてもよい。
例えば、判定部177は、注視位置VPが対象物の位置に重なる場合に、対象物の危険度を低い値に補正し、補正後の危険度を注意レベルとする。判定部177は、注視位置VPが対象物の位置に重なっていない場合は、例えば、対象物の危険度を、そのまま注意レベルとする。
また、判定部177は、距離検出部173が複数の対象物を検出した場合、距離検出部173により検出された複数の対象物のそれぞれについて危険度を算出する。具体的には、判定部177は、距離検出部173が検出した第1対象物の危険度を算出し、危険度を補正することによって第1対象物の注意レベルを判定する。また、判定部177は、距離検出部173が検出した第2対象物の危険度を算出し、危険度を補正することによって第2対象物の注意レベルを判定する。判定部177は、複数の対象物のうち注視位置VPに重なる対象物を、注視対象の対象物とする。判定部177は、注視対象の対象物の危険度を、注視対象でない対象物の危険度より低い値となるように補正し、補正後の危険度を注意レベルとする。また、例えば、判定部177は、注視対象でない対象物の注意レベルを、対象物の危険度と同じ値とする。例えば、判定部177は、注視位置VPが第1対象物に重なる位置である場合、第2対象物の危険度を、第2対象物の注意レベルとし、第1対象物の注意レベルを、第2対象物の注意レベルより低くなるよう補正してもよい。
判定部177は、対象物について時間算出部175が算出した時間に基づいて注意レベルを補正してもよい。例えば、判定部177は、時間算出部175が算出した第1時間が第2時間よりも短く、かつ、第1対象物の損害情報が第2対象物の損害情報よりも高い値である場合に、第1対象物の注意レベルを第2対象物の注意レベルよりも高くなるように補正してもよい。
判定部177は、温度検出部174が検出した対象物の温度に基づいて、対象物の危険度を算出してもよい。例えば、判定部177は、温度検出部174が検出した対象物の温度が、使用者Uに損害を与える可能性をもとに決定された基準温度よりも高温である場合や、低温である場合に、損害情報の値を加算して、危険度を算出してもよい。使用者Uに損害を与える可能性をもとに決定された基準温度は、使用者Uが対象物に触れて火傷を負う可能性がある温度や、使用者Uが対象物に触れて凍傷を負う可能性がある温度とすることができ、高温側の基準温度と低温側の基準温度とを含んでもよい。
動作検出部178は、使用者Uの身体の動作を検出する。動作検出部178は、外側カメラ61の撮影画像を利用して、使用者Uの動作を検出する。例えば、動作検出部178は、表示部20の移動と一致しない使用者Uの身体の一部の動きを検出する。ここで、使用者Uの身体の一部とは、例えば、腕、手、指、足である。動作検出部178は、外側カメラ61の撮影画像に限らず、6軸センサー111の検出結果および6軸センサー235の検出結果のいずれか1以上を利用して、使用者Uの身体の動作を検出してもよい。動作検出部178は、使用者Uの身体全体の動作を検出してもよい。
時間算出部175は、動作検出部178が検出した使用者Uの動作に基づいて、対象物と使用者Uとの間の距離がゼロになるまでの時間を算出することも可能である。上述のように、時間算出部175は、対象物と使用者Uとの相対速度と、対象物と使用者Uとの間の距離とに基づき時間を算出する。この処理において、時間算出部175は、動作検出部178が検出した使用者Uの動作と、表示部20の動きとを加算して、対象物と使用者Uとの相対速度を求める。これにより、より正確に、対象物と使用者Uとの間の距離がゼロになるまでの時間を算出できる。また、例えば、時間算出部175は、動作検出部178が検出した動作が対象物に近づく動作である場合に、動作検出部178が検出した動作と表示部20の動きとを加算して、対象物と使用者Uとの相対速度を求めてもよい。
入力検出部179は、操作部170に対する使用者Uの操作を受け付ける。入力検出部179は、外側カメラ61の撮影画像や、6軸センサー111及び6軸センサー235の検出結果から、使用者Uのジェスチャーによる入力を検出してもよい。
図6は、HMD100による表示例を示す図である。
表示制御部172は、判定部177により判定された注意レベルが、予め設定された表示基準より高い場合に、使用者Uに対して対象物への注意を促す報知を行う。報知の方法としては、右イヤホン32及び左イヤホン34から音声を出力する方法や、不図示のバイブレーターを動作させる方法が挙げられる。本実施形態では、表示部20によって、使用者Uに対して注意を促す画像を、注意を促す対象である対象物に対応する表示位置に表示させる方法を採用する。
符号VAは、表示部20で表示される画像や表示部20を透過して外景を使用者Uが視認する範囲である。換言すれば、使用者Uが表示部20を透過して外景を視認する場合の視野が範囲VAに相当する。
本実施形態では、右導光板26及び左導光板28が表示する画像を使用者Uが視認する範囲と、表示部20を透過して使用者Uが外景を視認する範囲とが一致する例を示す。これは一例であり、例えば、右導光板26及び左導光板28が表示する画像が、表示部20を透過して使用者Uが外景を視認する範囲より小さくてもよい。この場合も、右導光板26及び左導光板28が表示する画像は、右導光板26及び左導光板28を透過して使用者Uが視認する外景と重なる。
図6は、使用者Uが建物の内部に居り、実空間に複数の対象物90A、90Bが存在する例を示す。以下では対象物90A、90Bを区別しない場合は対象物90と記載する。後述する注意画像301も同様である。
対象物90Aは階段であり、対象物90Bは自走式のロボット掃除機である。対象物90Aには、使用者Uが転落または衝突する危険を生む可能性がある。対象物90Bには、使用者Uが衝突する危険や、衝突により使用者Uが転倒する危険を生む可能性がある。
注意画像301Aは、対象物90Aについて使用者Uに注意を促す画像である。注意画像301Aは、範囲VAにおいて対象物90Aが視認される位置に重なる表示位置、または、対象物90Aが視認される位置の近傍の表示位置に、表示される。この位置を、対象物90Aに対応する表示位置という。注意画像301Bは、対象物90Bについて使用者Uに注意を促す画像であり、範囲VAにおいて対象物90Bに対応する表示位置に表示される。注意画像301Aと注意画像301Bは同一の画像であってもよいし、異なる画像であってもよい。対象物90Aが第1対象物に対応する場合、注意画像301Aは、第1画像の一例に対応する。同様に、対象物90Bが第2対象物に対応する場合、注意画像301Bは第2画像の一例に対応する。
また、表示制御部172は、範囲VAに視認されない対象物についての注意画像301を表示してもよい。図6に示す注意画像301Cは、範囲VAの左方に存在する対象物であって、使用者Uが右導光板26及び左導光板28を透過して視認できる範囲外の対象物について、使用者Uに注意を促す画像である。範囲VAの左方に対象物が存在することを示すため、注意画像301Cは左向きの矢印を含む。
表示制御部172は、距離検出部173が検出した複数の対象物のうち、判定部177が判定した注意レベルが最も高いレベルである1の対象物について、注意画像301を表示させる。図6には3つの注意画像301A、301B、301Cを示すが、本実施形態では、同時に表示部20により表示する注意画像301は1つである。この場合、注意画像301が使用者Uの視界の妨げにならず、使用者Uの注意を分散させずに、効果的に注意を促すことができるという利点がある。
注意画像301A、301B、301Cは、表示制御部172が、予め不揮発性記憶部121に記憶された画像データをもとに表示させてもよい。また、表示制御部172が注意画像301A、301B、301Cを表示するための画像データを生成する処理を行ってもよい。
[3.表示システムの動作]
図7、図8及び図9は、HMD100の動作を示すフローチャートである。これら各図には、注意画像301の表示に関する制御部120の動作を示す。
ステップS11で、距離検出部173は、外側カメラ61の撮影画像を取得して解析することにより、撮影画像に写っている対象物を検出する。次に、ステップS12で、距離検出部173は、表示部20と、ステップS11で検出した対象物との間の距離を検出する。
続いて、ステップS13で、判定部177は、距離検出部173が検出した対象物について危険度を算出する。距離検出部173が複数の対象物を検出した場合、判定部177は、複数の対象物の各々について危険度を算出する。
ステップS14で、判定部177は、処理対象とする対象物を選択する。ステップS15で、視線検出部176は、使用者Uの視線方向VDを検出する。ステップS16で、判定部177は、視線方向VDと対象物の位置との関係を特定する。例えば、判定部177は、ステップS16で、視線方向VDが、ステップS14で選択した処理対象の対象物の位置に対応する方向であるか否かを特定する。
ステップS17で、判定部177は、ステップS16で特定した結果に基づいて、使用者Uが処理対象の対象物を注視しているか否かを判定する。使用者Uが処理対象の対象物を注視していないと判定した場合(ステップS17;NO)、判定部177は、後述するステップS22に移行する。使用者Uが処理対象の対象物を注視していると判定した場合、判定部177はステップS18に移行する。
ステップS18で、判定部177は、処理対象の対象物を注視中の対象物に設定する。次に、ステップS19で、判定部177は、使用者Uが処理対象の対象物を注視する状態が継続した時間を取得する。この時間を注視時間と呼ぶ。注視時間は、例えば、視線検出部176が検出した視線方向VDの履歴を解析することによって取得される。
ステップS20で、判定部177は、注視時間が時間閾値より長いか否かを判定する。注視時間が時間閾値以下であると判定した場合(ステップS20;NO)、判定部177は、ステップS22に移行する。注視時間が時間閾値より長いと判定した場合(ステップS20;YES)、判定部177はステップS21に移行する。
ステップS21で、判定部177は、処理対象の対象物の危険度を、より低い値に補正し、補正した危険度に基づき注意レベルを判定する。例えば、判定部177は、処理対象の対象物の危険度を所定段階だけ低く補正する。また、例えば、判定部177は、処理対象の対象物の危険度を、他の対象物の危険度より低くなるように補正してもよい。また、例えば、ステップS21で、判定部177は、処理対象の対象物の注意レベルを、視線方向が処理対象の対象物に対応しない方向である場合の当該対象物の注意レベルよりも低くさせるように処理を行う。その後、判定部177はステップS23に移行する。
ステップS22で、判定部177は、処理対象の対象物の危険度に基づき注意レベルを判定し、ステップS23に移行する。
ステップS23で、表示制御部172は、処理対象の対象物の注意レベルが表示閾値より高いか否かを判定する。処理対象の対象物の注意レベルが表示閾値以下であると判定した場合(ステップS23;NO)、制御部120は本処理を終了する。処理対象の対象物の注意レベルが表示閾値より高いと判定した場合(ステップS23;YES)、表示制御部172はステップS24に移行する。
ステップS24で、表示制御部172は、他の対象物に関する注意画像301を表示中であるか否かを判定する。すなわち、処理対象の対象物でない対象物についての注意画像301を表示中か否かを判定する。他の対象物に関する注意画像301を表示中でないと判定した場合(ステップS24;NO)、表示制御部172はステップS26に移行する。他の対象物に関する注意画像301を表示中であると判定した場合(ステップS24;YES)、表示制御部172はステップS25に移行する。
ステップS25で、表示制御部172は、表示中の注意画像301、すなわち処理対象の対象物でない対象物についての注意画像301の表示を停止させ、ステップS26に移行する。ステップS26で、表示制御部172は、処理対象の対象物に関する注意を促す注意画像301を、表示部20によって表示させ、本処理を終了する。
制御部120は、図7に示す処理を終了した場合、ステップS14に戻って、他の対象物を処理対象の対象物として新たに選択して、処理を継続してもよい。
また、制御部120は、図7に示す処理を、HMD100の動作中に、所定周期で繰り返し実行する。これにより、使用者Uの近傍の対象物について注意レベルが定期的に更新される。注意レベルが更新される毎に、必要に応じて注意画像301が表示され、或いは、注意画像301の表示が停止される。
図8は、注意画像301が表示されている間に制御部120が実行する動作を示す。
ステップS41で、表示制御部172は、注意画像301が表示されている対象物を特定する。ステップS42で、距離検出部173は、ステップS41において特定された対象物と表示部20との距離を検出する。ステップS43で、表示制御部172は、ステップS42において検出された距離が距離閾値より大きいか否かを判定する。検出された距離が距離閾値以下である場合(ステップS43;NO)、表示制御部172は本処理を終了する。検出された距離が距離閾値より大きい場合(ステップS43;YES)、表示制御部172はステップS44に移行する。ステップS44で、表示制御部172は、表示中の注意画像301の表示を停止し、本処理を終了する。
制御部120は、図8に示す処理を、注意画像301の表示中に所定周期で繰り返し実行する。これにより、対象物が使用者Uから遠く離れたときに、不要な注意画像301を速やかに非表示とすることができる。
図9は、ステップS18で注視中の対象物と設定された対象物について、制御部120が所定周期で実行する動作を示す。
ステップS61で、判定部177は、注視中の対象物として設定された対象物を特定する。注視中の対象物は、使用者Uの視線方向VDに重なる位置にある対象物であり、基本的に1つである。注視中の対象物が複数ある場合、ステップS61で、判定部177はいずれか1つの対象物を選択する。
ステップS62で、視線検出部176は、視線方向VDを検出する。ステップS63で、判定部177は、視線方向VDがステップS61で特定された対象物から逸脱したか否かを判定する。ステップS62において、詳細には、判定部177は、ステップS62で検出された視線方向VDが、ステップS61で特定された対象物の位置と重なる方向にあるか否かに基づき、視線方向VDが対象物から逸脱したか否かを判定する。換言すれば、判定部177は、視線方向VDが対象物に対応する方向か否かを判定する。
視線方向VDが対象物から逸脱していないと判定した場合(ステップS63;NO)、判定部177は、本処理を終了する。視線方向VDが対象物から逸脱したと判定した場合(ステップS63;NO)、判定部177はステップS64に移行する。
ステップS64で、判定部177は、視線方向VDが対象物から逸脱した時間を取得する。この時間を、視線逸脱時間と呼ぶ。視線逸脱時間は、例えば、視線検出部176が検出した視線方向VDの履歴を解析することによって取得される。
次に、ステップS65で、判定部177は、ステップS61で特定された対象物の損害情報を取得する。続いて、ステップS66で、判定部177は、損害情報の値に対応する逸脱時間閾値を取得する。本実施形態の損害情報は、上記のように数値化されている。閾値記憶部153は、複数の損害情報の値にそれぞれ対応する複数の逸脱時間閾値を、記憶する。
ステップS67で、判定部177は、視線逸脱時間が逸脱時間閾値より長いか否かを判定する。視線逸脱時間が逸脱時間閾値以下であると判定した場合(ステップS67;NO)、判定部177は、本処理を終了する。
視線逸脱時間が逸脱時間閾値より長いと判定した場合(ステップS67;YES)、判定部177は、ステップS68に移行する。ステップS68で、判定部177は、ステップS61で特定した対象物について、注視中の対象物との設定を解除する。
次に、ステップS69で、判定部177は、ステップS61で特定した対象物の注意レベルを、他の対象物の注意レベルより高くなるように補正する。ステップS70で、表示制御部172は、ステップS69で補正された注意レベルが、表示閾値より高いか否かを判定する。表示制御部172は、注意レベルが表示閾値以下であると判定した場合(ステップS70;NO)、本処理を終了する。表示制御部172は、注意レベルが、表示閾値より高いと判定した場合(ステップS70;YES)、ステップS71に移行する。
ステップS71で、表示制御部172は、他の対象物に関する注意画像301の表示を停止する。すなわち、処理中の対象物以外の対象物について表示されている注意画像301を、非表示とする。ステップS72で、表示制御部172は、処理中の対象物に関する注意を促す注意画像301を、表示部20によって表示させ、本処理を終了する。
図10は、表示部20による表示の遷移の例を示す説明図であり、図7、図8及び図9に示した動作によって注意画像301の表示が遷移する状態を模式的に示す。
図10には、距離検出部173によって2つの対象物が検出された例を示す。これら2つの対象物を対象物1、及び、対象物2とする。また、表示部20と対象物との距離を、段階的に数値化された値で示す。図10に示すように、以下の例で表示閾値は注意レベル3、距離閾値は距離10、時間閾値は注視時間5秒に設定される。
状態ST1は、使用者Uが対象物1、2のいずれも注視していない状態である。対象物1の注意レベルは対象物2の注意レベルより高い値である。かつ、対象物1の注意レベルは表示閾値より高い。従って、対象物1について注意画像301が表示される。
状態ST1において、使用者Uが対象物1を注視すると、制御部120は状態ST2に移行する。状態ST2で、対象物1は注視中の対象物に設定されているので、対象物1の注意レベルは対象物2よりも低くなるよう補正される。この結果、対象物2の注意レベルが、対象物1の注意レベルより高い状態となっている。対象物2の注意レベルは表示閾値より高い。従って、状態ST2では、対象物2について注意画像301が表示される。
状態ST2において、使用者Uの視線方向VDが対象物1から逸脱すると、制御部120は状態ST1に移行する。この場合、対象物1についての注視中の対象物の設定が解除されることにより、対象物1の注意レベルを低くする補正が行われなくなるので、対象物1の注意レベルは対象物2の注意レベルより高い値である。従って、対象物1について注意画像301が表示される。
状態ST1において、使用者Uが移動すると、対象物1と使用者Uとの距離、及び、使用者Uと対象物2との距離が変化する。変化後の状態を状態ST3として示す。状態ST3では、対象物1と使用者Uとの距離、及び、使用者Uと対象物2との距離が、いずれも状態ST1より長い。このため、対象物1の注意レベル及び対象物2の注意レベルが、いずれも状態ST1より低い。使用者Uが移動した後または移動中に、制御部120が図7の動作を再実行することにより、対象物1の注意レベル及び対象物2の注意レベルが更新され、状態ST3となる。
状態ST3では、対象物1の注意レベルは対象物2の注意レベルより高い値である。かつ、対象物1の注意レベルは表示閾値より高い。従って、対象物1について注意画像301が表示される。
状態ST3において、使用者Uがさらに移動すると、対象物1と使用者Uとの距離、及び、使用者Uと対象物2との距離が変化する。変化後の状態を状態ST4として示す。状態ST4では、対象物1と使用者Uとの距離、及び、使用者Uと対象物2との距離が、いずれも状態ST3より長い。このため、対象物1の注意レベル及び対象物2の注意レベルが、いずれも状態ST3より低い。使用者Uが移動した後または移動中に、制御部120が図7の動作を再実行することにより、対象物1の注意レベル及び対象物2の注意レベルが更新され、状態ST4となる。
状態ST4では、対象物1の注意レベルは対象物2の注意レベルより高い値である。しかしながら、対象物1の注意レベルは表示閾値より低い。従って、表示部20は注意画像301を非表示とする。
[4.実施形態の作用]
以上説明したように、本発明を適用した実施形態に係るHMD100は、第1対象物と第2対象物とが含まれる外景を透過する表示部20と、使用者Uの視線方向VDを検出する視線検出部176と、を備える。HMD100は、第1対象物が使用者Uに到達するまでにかかる第1時間と、第2対象物が使用者Uに到達するまでにかかる第2時間とを算出する時間算出部175を備える。HMD100は、判定部177を備える。判定部177は、第1対象物に関する第1情報と第2対象物に関する第2情報とを取得し、第1情報と第1時間とを基に第1対象物の危険度を算出する。判定部177は、視線方向VDを基に第1対象物の危険度を補正し、補正された第1対象物の危険度を基に第1対象物の注意レベルを判定する。判定部177は、第2情報と第2時間とを基に第2対象物の危険度を算出し、視線方向VDを基に第2対象物の危険度を補正し、補正された第2対象物の危険度を基に第2対象物の注意レベルを判定する。HMD100は、第1対象物の注意レベルが、第2対象物の注意レベルよりも高い場合に、第1対象物に関する第1画像を表示部20に表示させる表示制御部172を備える。
HMD100の制御方法は、第1対象物と第2対象物とが含まれる外景を透過する表示部20と、使用者Uの視線方向VDを検出する視線検出部176とを備えるHMD100の制御方法である。この制御方法は、制御部120により、第1対象物に関する第1情報と、第2対象物に関する第2情報と、を取得する。また、制御部120により、第1対象物が使用者Uに到達するまでにかかる第1時間と、第2対象物が使用者Uに到達するまでにかかる第2時間とを算出する。また、制御部120により、第1情報と第1時間とを基に第1対象物の危険度を算出させる。また、制御部120により、視線方向VDを基に第1対象物の危険度を補正し、補正された第1対象物の危険度を基に第1対象物の注意レベルを判定する。また、制御部120により、第2情報と第2時間とを基に第2対象物の危険度を算出し、視線方向VDを基に第2対象物の危険度を補正し、補正された第2対象物の危険度を基に第2対象物の注意レベルを判定する。また、第1対象物の注意レベルが、第2対象物の注意レベルよりも高い場合に、第1対象物に関する第1画像を表示部20に表示させる。
HMD100、及び、HMD100の制御方法によれば、使用者Uの周囲に存在する対象物について、使用者Uが注意を払うべきか否かを示す指標となる注意レベルを、視線方向VDを加味して正確に判定できる。そして、注意レベルに基づいて注意画像301を表示することによって、HMD100は、実空間の物体等が使用者に危険をもたらす可能性について、適切に使用者Uに注意を促すことができる。
表示制御部172は、第2対象物の注意レベルが、第1対象物の注意レベルよりも高い場合に、第2対象物に関する第2画像を表示部20に表示させる。これにより、使用者Uの周囲に複数の対象物が存在する場合に、注意レベルの高い対象物について注意画像301を表示させることができる。従って、実空間の物体等が使用者に危険をもたらす可能性について、より適切に使用者Uに注意を促すことができる。
表示制御部172は、第2対象物の前記注意レベルが、第1対象物の前記注意レベルよりも高い場合に、表示部20による第1画像の表示を停止させる。これにより、使用者Uの周囲に複数の対象物が存在する場合に、注意レベルの低い対象物について注意画像301を表示させないので、より適切に使用者Uに注意を促すことができる。
HMD100は、使用者Uの位置から第1対象物までの距離を検出する距離検出部173を備える。表示制御部172は、使用者Uの位置から第1対象物までの距離が第1閾値より大きい場合に、表示部20による第1画像の表示を停止させる。この場合、使用者Uの位置から遠く離れているために使用者Uが注意を払う必要性が小さい対象物について、注意画像301を非表示とすることができる。このため、注意画像301の不要な表示を避けることができ、HMD100の利用に関し、使用者Uの利便性の向上を図ることができる。
判定部177は、視線方向VDが第1対象物の位置に対応する方向である場合の第1対象物の注意レベルを、視線方向VDが第1対象物の位置に対応しない方向である場合の第1対象物の注意レベルよりも低くさせる。これにより、使用者Uが視線を向けている対象物について注意画像301を表示する頻度が低下する。このため、注意画像301の不要な表示を避けることができ、HMD100の利用に関し、使用者Uの利便性の向上を図ることができる。さらに、使用者Uが視線を向けている対象物の注意レベルが、補正後も表示閾値より高い場合には、注意画像301が表示される。従って、対象物に対して使用者Uが注意を向けるべき必要性と、使用者Uの視線方向VDとの両方に対応して、注意画像301を適切に表示できる。
判定部177は、視線方向VDが第1対象物の位置に対応する方向である状態の注視時間を取得し、注視時間が時間閾値を超えた場合に、第1対象物の注意レベルを第2対象物の注意レベルよりも低くさせる。これにより、使用者Uが時間閾値を超える時間、注視した対象物について注意画像301を非表示とするので、注意画像301の不要な表示を避けることができ、HMD100の利用に関し、使用者Uの利便性の向上を図ることができる。また、注意画像301が、使用者Uが対象物を注視することの妨げとなることを防止できる。
判定部177は、視線方向VDが第1対象物の位置に対応しない方向である場合に、第1対象物の注意レベルを第2対象物の注意レベルよりも高くさせる。これにより、使用者Uの視線方向VDに対応して、実空間の物体等が使用者に危険をもたらす可能性について、適切に使用者Uに注意を促すことができる。
視線方向VDが第1対象物の位置に対応する方向から、第1対象物の位置に対応しない方向に変更された場合に、表示制御部172は、第1対象物に対応する損害情報に基づいて、第1対象物に関する第1画像を表示部20に再表示させる。これにより、使用者Uの視線方向VDが対象物の方向を向いていることに対応して、注意画像301を非表示とした後に、必要に応じて注意画像301を再表示し、使用者Uに対して注意を促すことができる。また、第1対象物によって生じる使用者Uの損害の大きさに基づいて再表示を行うことによって、不要な注意画像301の表示を避けることができる。
第1情報は、第1対象物によって生じる使用者Uの損害に関する情報であり、第2情報は、第2対象物によって生じる使用者Uの損害に関する情報である。例えば、第1情報は第1対象物の損害情報の値であり、第2情報は第2対象物の損害情報の値である。これにより、使用者Uが対象物から受ける可能性のある損害の大きさを、注意レベルの判定に反映させることができる。このため、実空間の物体等が使用者に危険をもたらす可能性をより正確に評価することによって、適切に使用者Uに注意を促すことができる。
判定部177は、第1時間が第2時間よりも短く、かつ、第1対象物によって生じる使用者Uの損害が第2対象物によって生じる使用者Uの損害よりも大きい場合に、第1対象物の注意レベルを第2対象物の注意レベルよりも高くなるように補正してもよい。この場合、使用者Uの位置に先に到達する可能性があり、より大きい損害を生じる対象物について注意画像301を表示することができる。
HMD100は、第1対象物の温度と、第2対象物の温度とを検出する温度検出部174を備える。判定部177は、第1情報と、第1時間と、第1対象物の温度と、に基づいて第1対象物の危険度を算出し、第2情報と、第2時間と、第2対象物の温度と、に基づいて第2対象物の危険度を算出してもよい。この場合、判定部177は、対象物の温度によって使用者Uが受ける可能性のある損害を、注意レベルの判定に反映させることができる。このため、実空間の物体等が使用者に危険をもたらす可能性をより正確に評価することによって、適切に使用者Uに注意を促すことができる。
HMD100は、使用者Uの動作を検出する動作検出部178を備える。時間算出部175は、使用者Uが第1対象物に近づく動作が検出された場合に、使用者Uの動作に基づいて第1時間を算出する。時間算出部175は、使用者Uが第2対象物に近づく動作が検出された場合に、使用者Uの動作に基づいて第2時間を算出する。これにより、HMD100と対象物との相対速度に加え、使用者Uの動作を反映させて、第1時間及び第2時間をより正確に算出できる。従って、実空間の物体等が使用者に危険をもたらす可能性について、適切に使用者Uに注意を促すことができる。
HMD100は、外景に含まれる第1対象物と第2対象物とを撮影する外側カメラ61を備える。距離検出部173は、外側カメラ61の撮影画像に基づいて、対象物を検出する。
[5.他の実施形態]
本発明は上記実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
例えば、制御部120は、使用者Uの身体における表示部20の位置を反映して、使用者Uと対象物との間の距離の検出や、対象物が使用者Uに到達するまでの時間の算出を行ってもよい。また、例えば、制御部120は、6軸センサー235及び/または磁気センサー237の検出結果を利用して、視線方向VDを検出してもよい。
表示部20の表示画像及び/または、右イヤホン32及び左イヤホン34から出力する音声を処理する装置は、コントローラー10に限定されない。HMD100が、コントローラー10に替えて、外部のコンピューターを利用してもよい。すなわち、図4に示したプロセッサー125が構成する各機能部を、表示部20に接続されるコンピューターが備える構成とし、不揮発性記憶部121が記憶する各種の数値や情報を、表示部20に接続されるコンピューターが記憶する構成としてもよい。この場合、図7、図8及び図9に示す処理は、上記コンピューターにより実行される。HMD100は、表示部20が備える各種センサーや、コントローラー10が備える各種センサーの検出データをコンピューターに送信し、コンピューターから入力される表示データに基づき表示を行えばよい。この種のコンピューターは、例えば、スマートフォン、PDA端末、タブレット型パーソナルコンピューターであってもよい。
また、上記実施形態では、コントローラー10が表示部20と有線接続される構成を例示したが、これに限定されず、コントローラー10に対して表示部20が無線接続される構成であってもよい。また、コントローラー10を複数の装置により実現してもよい。また、コントローラー10に代えて、使用者の身体、着衣、或いは、使用者が身につける装身具に取り付け可能なウェアラブルデバイスを用いてもよい。この場合のウェアラブルデバイスは、例えば、時計型の装置、指輪型の装置、レーザーポインター、マウス、エアーマウス、ゲームコントローラー、ペン型のデバイス等であってもよい。
また、上記実施形態では、表示部20とコントローラー10とが分離され、接続ケーブル40を介して接続された構成を例に挙げて説明した。これに限定されず、コントローラー10と表示部20とが一体に構成され、使用者の頭部に装着される構成とすることも可能である。
また、表示部20は使用者Uの頭部に直接装着されるものに限らない。例えば、表示部20に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよい。
画像光を使用者の眼に導く光学系は、右導光板26及び左導光板28によって画像光を使用者の眼に入射させる構成であれば、種々の構成を採用できる。例えば、右導光板26及び左導光板28の一部にハーフミラーを設け、右導光板26及び左導光板28で生成する画像光をハーフミラーにより使用者Uの右眼RE及び左眼LEに反射する構成が挙げられる。また、右導光板26及び左導光板28の全面又は大部分を占める面積を有する表示領域に、画像を表示する構成としてもよい。この場合には、画像の表示位置を変化させる動作において、画像を縮小する処理を含めてもよい。また、右導光板26及び左導光板28として、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
また、上記各実施形態では、表示部20はOLEDユニット221、241により画像光を生成する構成として説明したが、本発明はこれに限定されない。例えば、右表示ユニット22及び左表示ユニット24は、透過型液晶パネルを用いてもよいし、透過型液晶パネルに代えて反射型液晶パネルを用いてもよいし、デジタル・マイクロミラー・デバイスを用いてもよい。また、LCDパネルに代えてLCOS技術を適用した構成を用いてもよい。LCOSは、Liquid crystal on siliconの略である。
また、表示部20は、LEDアレイ、レーザーアレイ、量子ドット発光型素子等に代表される自発光型の表示素子を利用した構成であってもよい。また、表示部20は、例えば、レーザー光源とレーザースキャナーとを組み合わせたレーザースキャン方式のディスプレイであってもよい。
また、図3、図4等に示した機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図に示した通りに独立したハードウェア資源を配置する構成に限定されない。
また、図7、図8及び図9に示すフローチャートの処理単位は、制御部120による処理を理解容易にするために、主な処理内容に応じて分割したものである。各フローチャートの処理単位の分割の仕方や名称によって実施形態が制限されることはない。また、上記のフローチャートの処理順序も、図示した例に限られるものではない。
また、プロセッサー125が実行するプログラムは、外部の装置やデバイスに記憶され、通信部117等を介して取得されてもよい。また、コンピューターで読み取り可能に記録した記録媒体に記録しておくことも可能である。記録媒体としては、磁気的、光学的記録媒体又は半導体メモリーデバイスを用いることができる。具体的には、フレキシブルディスク、各種の光ディスク、光磁気ディスク、フラッシュメモリー、カード型記録媒体等の可搬型、或いは固定式の記録媒体が挙げられる。また、記録媒体は、画像表示装置が備える内部記憶装置であるRAM、ROM、HDD等の不揮発性記憶装置であってもよい。
10…コントローラー、11…本体、12…ホイール操作部、13…中央キー、14…操作パッド、15…上下キー、17…LED表示部、18…電源スイッチ、19…USBコネクター、20…表示部、21…右保持部、22…右表示ユニット、23…左保持部、24…左表示ユニット、26…右導光板、27…前部フレーム、28…左導光板、30…ヘッドセット、32…右イヤホン、34…左イヤホン、40…接続ケーブル、42…コネクター、46…オーディオコネクター、61…外側カメラ、63…マイク、64…距離センサー、65…照度センサー、66…サーモカメラ、67…LEDインジケーター、68…内側カメラ、90、90A、90B…対象物、100…HMD、118…メモリー、120…制御部、121…不揮発性記憶部、125…プロセッサー、151…制御プログラム、152…設定値記憶部、153…閾値記憶部、154…認識データ記憶部、155…危険度データベース、170…操作部、171…基本制御部、173…距離検出部、174…温度検出部、175…時間算出部、176…視線検出部、177…判定部、178…動作検出部、179…入力検出部、301、301A、301B、301C…注意画像、U…使用者。

Claims (13)

  1. 第1対象物と第2対象物とが含まれる外景を透過する表示部と、
    使用者の視線方向を検出する視線検出部と、
    前記第1対象物が前記使用者に到達するまでにかかる第1時間と前記第2対象物が前記使用者に到達するまでにかかる第2時間とを算出する時間算出部と、
    前記第1対象物に関する第1情報と前記第2対象物に関する第2情報とを取得し、前記第1情報と前記第1時間とを基に前記第1対象物の危険度を算出し、前記視線方向を基に前記第1対象物の危険度を補正し、補正された前記第1対象物の危険度を基に前記第1対象物の注意レベルを判定し、前記第2情報と前記第2時間とを基に前記第2対象物の危険度を算出し、前記視線方向を基に前記第2対象物の危険度を補正し、補正された前記第2対象物の危険度を基に前記第2対象物の注意レベルを判定する判定部と、
    前記第1対象物の前記注意レベルが、前記第2対象物の前記注意レベルよりも高い場合に、前記第1対象物に関する第1画像を前記表示部に表示させる表示制御部と、を備える、頭部装着型表示装置。
  2. 前記表示制御部は、前記第2対象物の前記注意レベルが、前記第1対象物の前記注意レベルよりも高い場合に、前記第2対象物に関する第2画像を前記表示部に表示させる、請求項1に記載の頭部装着型表示装置。
  3. 前記表示制御部は、前記第2対象物の前記注意レベルが、前記第1対象物の前記注意レベルよりも高い場合に、前記表示部による前記第1画像の表示を停止させる、請求項2に記載の頭部装着型表示装置。
  4. 前記使用者の位置から前記第1対象物までの距離を検出する距離検出部を備え、
    前記表示制御部は、前記使用者の位置から前記第1対象物までの距離が第1閾値より大きい場合に、前記表示部による前記第1画像の表示を停止させる、請求項1または請求項2に記載の頭部装着型表示装置。
  5. 前記判定部は、前記視線方向が前記第1対象物の位置に対応する方向である場合の前記第1対象物の前記注意レベルを、前記視線方向が前記第1対象物の位置に対応しない方向である場合の前記第1対象物の前記注意レベルよりも低くさせる、請求項1から請求項4のいずれか1項に記載の頭部装着型表示装置。
  6. 前記判定部は、前記視線方向が前記第1対象物の位置に対応する方向である状態の注視時間を取得し、前記注視時間が時間閾値を超えた場合に、前記第1対象物の前記注意レベルを前記第2対象物の前記注意レベルよりも低くさせる、請求項5に記載の頭部装着型表示装置。
  7. 前記判定部は、前記視線方向が前記第1対象物の位置に対応しない方向である場合に、前記第1対象物の前記注意レベルを前記第2対象物の前記注意レベルよりも高くさせる、請求項5または請求項6に記載の頭部装着型表示装置。
  8. 前記視線方向が前記第1対象物の位置に対応する方向から、前記第1対象物の位置に対応しない方向に変更された場合に、前記表示制御部は、前記第1情報に基づいて、前記第1画像を前記表示部に再表示させる、請求項6に記載の頭部装着型表示装置。
  9. 前記第1情報は、前記第1対象物によって生じる前記使用者の損害に関する情報であり、
    前記第2情報は、前記第2対象物によって生じる前記使用者の損害に関する情報である、請求項1から請求項8のいずれか1項に記載の頭部装着型表示装置。
  10. 前記判定部は、前記第1時間が前記第2時間よりも短く、かつ、前記第1対象物によって生じる前記使用者の損害が前記第2対象物によって生じる前記使用者の損害よりも大きい場合に、前記第1対象物の前記注意レベルを前記第2対象物の前記注意レベルよりも高くなるように補正する、請求項9に記載の頭部装着型表示装置。
  11. 前記第1対象物の温度と前記第2対象物の温度とを検出する温度検出部を備え、
    前記判定部は、
    前記第1情報と、前記第1時間と、前記第1対象物の温度と、に基づいて前記第1対象物の前記危険度を算出し、
    前記第2情報と、前記第2時間と、前記第2対象物の温度と、に基づいて前記第2対象物の前記危険度を算出する、請求項1から請求項10のいずれか1項に記載の頭部装着型表示装置。
  12. 前記使用者の動作を検出する動作検出部を備え、
    前記時間算出部は、
    前記使用者が前記第1対象物に近づく動作が検出された場合に、前記使用者の動作に基づいて前記第1時間を算出し、
    前記使用者が前記第2対象物に近づく動作が検出された場合に、前記使用者の動作に基づいて前記第2時間を算出する、請求項1から請求項11のいずれか1項に記載の頭部装着型表示装置。
  13. 第1対象物と第2対象物とが含まれる外景を透過する表示部と、使用者の視線方向を検出する視線検出部と、を備える頭部装着型表示装置の制御方法であって、
    前記第1対象物に関する第1情報と、前記第2対象物に関する第2情報と、を取得し、
    前記第1対象物が前記使用者に到達するまでにかかる第1時間と、前記第2対象物が前記使用者に到達するまでにかかる第2時間と、を算出し、
    前記第1情報と前記第1時間とを基に前記第1対象物の危険度を算出し、
    前記視線方向を基に前記第1対象物の危険度を補正し、
    補正された前記第1対象物の危険度を基に前記第1対象物の注意レベルを判定し、
    前記第2情報と前記第2時間とを基に前記第2対象物の危険度を算出し、
    前記視線方向を基に前記第2対象物の危険度を補正し、
    補正された前記第2対象物の危険度を基に前記第2対象物の注意レベルを判定し、
    前記第1対象物の前記注意レベルが、前記第2対象物の前記注意レベルよりも高い場合に、前記第1対象物に関する第1画像を前記表示部に表示させる、頭部装着型表示装置の制御方法。
JP2021176209A 2021-10-28 2021-10-28 頭部装着型表示装置、及び、頭部装着型表示装置の制御方法 Pending JP2023065837A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021176209A JP2023065837A (ja) 2021-10-28 2021-10-28 頭部装着型表示装置、及び、頭部装着型表示装置の制御方法
CN202211327546.9A CN116055827A (zh) 2021-10-28 2022-10-26 头部佩戴型显示装置和头部佩戴型显示装置的控制方法
US17/975,610 US11886636B2 (en) 2021-10-28 2022-10-28 Head-mounted display apparatus and method for controlling head-mounted display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021176209A JP2023065837A (ja) 2021-10-28 2021-10-28 頭部装着型表示装置、及び、頭部装着型表示装置の制御方法

Publications (1)

Publication Number Publication Date
JP2023065837A true JP2023065837A (ja) 2023-05-15

Family

ID=86128384

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021176209A Pending JP2023065837A (ja) 2021-10-28 2021-10-28 頭部装着型表示装置、及び、頭部装着型表示装置の制御方法

Country Status (3)

Country Link
US (1) US11886636B2 (ja)
JP (1) JP2023065837A (ja)
CN (1) CN116055827A (ja)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6733174B2 (ja) 2015-12-24 2020-07-29 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
US9977241B2 (en) 2015-03-17 2018-05-22 Seiko Epson Corporation Head-mounted display device, control method for head-mounted display device, and computer program
US20180088323A1 (en) * 2016-09-23 2018-03-29 Sheng Bao Selectably opaque displays
US11249544B2 (en) * 2016-11-21 2022-02-15 TeleLingo Methods and systems for using artificial intelligence to evaluate, correct, and monitor user attentiveness
JP7003633B2 (ja) 2017-12-20 2022-01-20 セイコーエプソン株式会社 透過型表示装置、表示制御方法、およびコンピュータープログラム
US10928898B2 (en) * 2019-01-03 2021-02-23 International Business Machines Corporation Augmented reality safety
US11474610B2 (en) * 2019-05-20 2022-10-18 Meta Platforms Technologies, Llc Systems and methods for generating dynamic obstacle collision warnings for head-mounted displays
US11099638B2 (en) * 2019-10-24 2021-08-24 Facebook Technologies, Llc Systems and methods for generating dynamic obstacle collision warnings based on detecting poses of users

Also Published As

Publication number Publication date
US20230134416A1 (en) 2023-05-04
US11886636B2 (en) 2024-01-30
CN116055827A (zh) 2023-05-02

Similar Documents

Publication Publication Date Title
US9898868B2 (en) Display device, method of controlling the same, and program
US9395543B2 (en) Wearable behavior-based vision system
EP3210095B1 (en) System, method and computer program for hands-free configuration of a luminous distribution
US9411160B2 (en) Head mounted display, control method for head mounted display, and image display system
US10635182B2 (en) Head mounted display device and control method for head mounted display device
US20160266386A1 (en) User-based context sensitive hologram reaction
US10948724B2 (en) Transmissive display device, display control method, and computer program
KR20170137476A (ko) 모바일 디바이스 및 그 제어 방법
US20140022371A1 (en) Pupil detection device
KR20140059213A (ko) 홍채 스캔 프로파일링을 이용하는 헤드 마운티드 디스플레이
US20160165220A1 (en) Display apparatus and method of controlling display apparatus
WO2015123167A1 (en) Ophthalmoscope device
WO2013067230A1 (en) See-through display brightness control
KR20150057048A (ko) 시력 기반의 가상화면을 이용한 안경 장치
US20160170482A1 (en) Display apparatus, and control method for display apparatus
JP2014191386A (ja) 頭部装着型表示装置、および、頭部装着型表示装置の制御方法
US11216066B2 (en) Display device, learning device, and control method of display device
JP2017146726A (ja) 移動支援装置、及び、移動支援方法
EP3276448B1 (en) Wearable electronic device, gesture detection method for wearable electronic device, and gesture detection program for wearable electronic device
JP2023065837A (ja) 頭部装着型表示装置、及び、頭部装着型表示装置の制御方法
JP6638325B2 (ja) 表示装置、及び、表示装置の制御方法
US20230319237A1 (en) Information processing system, display device, and program
JP2022113973A (ja) 表示方法、表示装置、及び、プログラム
KR20160027813A (ko) 글래스형 단말기
WO2023023206A1 (en) Systems and methods for performing eye-tracking