JP2017067876A - 頭部装着型表示装置、頭部装着型表示装置の制御方法、およびコンピュータープログラム - Google Patents

頭部装着型表示装置、頭部装着型表示装置の制御方法、およびコンピュータープログラム Download PDF

Info

Publication number
JP2017067876A
JP2017067876A JP2015190545A JP2015190545A JP2017067876A JP 2017067876 A JP2017067876 A JP 2017067876A JP 2015190545 A JP2015190545 A JP 2015190545A JP 2015190545 A JP2015190545 A JP 2015190545A JP 2017067876 A JP2017067876 A JP 2017067876A
Authority
JP
Japan
Prior art keywords
head
depth
display device
mounted display
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015190545A
Other languages
English (en)
Other versions
JP6645096B2 (ja
Inventor
和夫 西沢
Kazuo Nishizawa
和夫 西沢
勇一 毛利
Yuichi Mori
勇一 毛利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015190545A priority Critical patent/JP6645096B2/ja
Priority to US15/261,618 priority patent/US20170092004A1/en
Publication of JP2017067876A publication Critical patent/JP2017067876A/ja
Application granted granted Critical
Publication of JP6645096B2 publication Critical patent/JP6645096B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0127Head-up displays characterised by optical features comprising devices increasing the depth of field
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】現実空間の奥行き方向において、対象物がどの位置に存在するか把握することが容易とする。
【解決手段】表示部を備える頭部装着型表示装置(HMD)である。HMDは、表示部を介して視認される対象物についてのHMDからの奥行きを示す対象物奥行情報を取得する対象物奥行情報取得部と、HMDを取り巻く外界において使用者によって操作される操作体についてのHMDらの奥行きを示す操作体奥行情報を取得する操作体奥行情報取得部と、前記取得された対象物奥行情報と、前記取得された操作体奥行情報とに基づいて、HMDからの奥行き方向において、対象物と操作体との位置関係が所定の条件を満たすと判定されたときに、対象物についての前記奥行き方向の位置の認識を容易にするための補助画像を、表示部に表示させる補助画像表示制御部と、を備える。
【選択図】図7

Description

本発明は、頭部装着型表示装置、頭部装着型表示装置の制御方法、およびコンピュータープログラムに関する。
使用者の頭部に装着されて用いられることによって、使用者の視野領域に拡張現実感(AR、Augmented Reality)情報を提示する頭部装着型表示装置が知られている(例えば、特許文献1)。ARは、現実空間にコンピューターの生成する仮想的な物体を重ね合わせて表示を行う技術である。頭部装着型表示装置を装着した使用者は、視野領域に、現実空間に存在する対象物とAR情報である仮想物体との両方を視認することで、拡張現実感を体感することができる。
特開2015−84150号公報
上記従来の技術では、使用者は、視野領域に、現実空間に存在する対象物とAR情報との両方を視認する必要があることから、現実空間の奥行き方向において、対象物がどの位置に存在するかを把握することが容易でなかった。
なお、この問題は、現実空間の対象物に限らず、仮想3次元空間に配置された対象物(3Dオブジェクト)が奥行き方向においてどの位置に存在するかを把握する場合にも共通する問題であった。そのほか、従来の頭部装着型表示装置においては、使用者の利便性の向上や、検出精度の向上、装置構成のコンパクト化、低コスト化、省資源化、製造の容易化等が望まれていた。
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。
(1)本発明の一形態は、表示部を備える頭部装着型表示装置である。前記頭部装着型表示装置は、前記表示部を介して視認される対象物についての前記頭部装着型表示装置からの奥行きを示す対象物奥行情報を取得する対象物奥行情報取得部と、前記頭部装着型表示装置を取り巻く外界において使用者によって操作される操作体についての前記頭部装着型表示装置からの奥行きを示す操作体奥行情報を取得する操作体奥行情報取得部と、前記取得された対象物奥行情報と、前記取得された操作体奥行情報とに基づいて、前記頭部装着型表示装置からの奥行き方向において、前記対象物と前記操作体との位置関係が所定の条件を満たすと判定されたときに、前記対象物についての前記奥行き方向の位置の認識を容易にするための補助画像を、前記表示部に表示させる補助画像表示制御部と、を備える。この形態の頭部装着型表示装置によれば、頭部装着型表示装置からの奥行き方向において、対象物と操作体との位置関係が所定の条件を満たすと判定されたときに、対象物についての奥行き方向の位置の認識を容易にするための補助画像が、表示部に表示される。このため、使用者は、奥行き方向において、対象物がどの位置に存在するかを容易に把握することができる。
(2)前記形態の頭部装着型表示装置において、前記補助画像表示制御部は、前記奥行き方向において、前記対象物から第1の距離だけ前記頭部装着型表示装置側に位置する第1の位置よりも、前記操作体が前記対象物側に移動したと判定されたときに、前記補助画像を表示させていてもよい。この形態の頭部装着型表示装置によれば、操作体が第1の位置より対象物側に移動したときに、補助画像を表示することができる。このため、使用者は、操作体が第1の位置より対象物側に移動したときに限って補助画像を表示させることができ、第1の位置より頭部装着型表示装置側に操作体があるときには、補助画像は表示されない。したがって、操作体が対象物に近づいていないときには補助画像は表示されないことから、使用者にとって、利便性に優れている。
(3)前記形態の頭部装着型表示装置において、前記奥行き方向に垂直な二次元空間における前記対象物の位置と前記操作体の位置とを示す二次元位置情報を取得する二次元位置情報取得部を備えていてもよい。前記補助画像表示制御部は、前記奥行きの方向において、前記対象物から前記第1の距離よりも短い第2の距離だけ前記頭部装着型表示装置側に位置する第2の位置よりも、前記操作体が前記対象物側に移動したと判定され、かつ、前記取得された二次元位置情報に基づいて、前記二次元空間における前記操作体と前記対象物との間の距離が所定値を下回る距離であると判定されたときに、前記補助画像の表示を停止していてもよい。この形態の頭部装着型表示装置によれば、奥行き方向に加えて、二次元空間においても操作体が対象物に十分に近づいたと判定できた場合に、補助画像の表示は停止される。このために、操作体によって対象物に対して作業が行われる直前には、補助画像の表示は消される。したがって、補助画像が作業の支障となることがなく、作業性が低下することを防止できる。
(4)前記形態の頭部装着型表示装置において、前記補助画像は、同じ奥行きの点の集まりでできる矩形破線を、一定の間隔でつらねた線群であってもよい。この形態の頭部装着型表示装置によれば、対象物についての奥行き方向の位置の認識を、より容易とすることができる。
(5)前記形態の頭部装着型表示装置において、前記表示部は、前記外界を透過視認可能な表示部であり、前記操作体は、前記外界に実在する物体であってもよい。この形態の頭部装着型表示装置によれば、外界に実在する対象物についての奥行き方向の位置の認識を、より容易とすることができる。
(6)前記形態の頭部装着型表示装置において、前記操作体は、仮想3次元空間に配置された物体であり、前記対象物奥行情報は、前記仮想3次元空間における前記対象物までの奥行きを示す情報であってもよい。この形態の頭部装着型表示装置によれば、仮想3次元空間に配置された対象物についての奥行き方向の位置の認識を、より容易とすることができる。
上述した本発明の各形態の有する複数の構成要素はすべてが必須のものではなく、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、適宜、前記複数の構成要素の一部の構成要素について、その変更、削除、新たな他の構成要素との差し替え、限定内容の一部削除を行なうことが可能である。また、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、上述した本発明の一形態に含まれる技術的特徴の一部または全部を上述した本発明の他の形態に含まれる技術的特徴の一部または全部と組み合わせて、本発明の独立した一形態とすることも可能である。
本発明は、頭部装着型表示装置以外の種々の形態で実現することも可能である。例えば、頭部装着型表示装置の制御方法、頭部装着型表示装置の備える各構成要素の機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体等で実現できる。
本発明の一実施形態における頭部装着型表示装置の概略構成を示す説明図である。 HMDの構成を機能的に示すブロック図である。 HMDによる拡張現実感表示の一例を示す説明図である。 HMDの使用形態の一例を示す説明図である。 補助画像表示ルーチンを示すフローチャートである。 デプスマップの一例を示す説明図である。 マーカーの一例を示す説明図である。 HMDと第1のボールとを上方から見たときの平面図である。 補助画像の一例を示す説明図である。 補助画像表示停止ルーチンを示すフローチャートである。 補助画像の表示が停止される直前の使用者の視界を例示する説明図である。 補助画像の表示が停止された直後の使用者の視界を例示する説明図である。 補助画像の表示が停止されない状態の使用者の視界を例示する説明図である。 変形例1における補助画像としての影を示す説明図である。 変形例におけるHMDの外観の構成を示す説明図である。
A.頭部装着型表示装置の基本構成:
図1は、本発明の一実施形態における頭部装着型表示装置の概略構成を示す説明図である。頭部装着型表示装置100は、頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。HMD100は、グラスを通過して視認される外界の中に画像が浮かび上がるシースルー型の頭部装着型表示装置である。
HMD100は、使用者の頭部に装着された状態において使用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御部(コントローラー)10とを備えている。
画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有している。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、を含んでいる。右光学像表示部26および左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右および左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに接続されている。
右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21および左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。
右表示駆動部22は、右保持部21の内側、換言すれば、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。また、左表示駆動部24は、左保持部23の内側に配置されている。なお、以降では、右保持部21および左保持部23を区別せず「保持部」として説明する。同様に、右表示駆動部22および左表示駆動部24を区別せず「表示駆動部」として説明し、右光学像表示部26および左光学像表示部28を区別せず「光学像表示部」として説明する。
表示駆動部は、液晶ディスプレイ(Liquid Crystal Display、以下「LCD」と呼ぶ)241、242や投写光学系251、252等を含む(図2参照)。表示駆動部の構成の詳細は後述する。光学部材としての光学像表示部は、導光板261、262(図2参照)と調光板とを含んでいる。導光板261、262は、光透過性の樹脂材料等によって形成され、表示駆動部から出力された画像光を使用者の眼に導く。調光板は、薄板状の光学素子であり、画像表示部20の表側(使用者の眼の側とは反対の側)を覆うように配置されている。調光板は、導光板261、262を保護し、導光板261、262の損傷や汚れの付着等を抑制する。また、調光板の光透過率を調整することによって、使用者の眼に入る外光量を調整して虚像の視認のしやすさを調整することができる。なお、調光板は省略可能である。
画像表示部20は、さらに、画像表示部20を制御部10に接続するための接続部40を有している。接続部40は、制御部10に接続される本体コード48と、本体コード48が2本に分岐した右コード42および左コード44と、分岐点に設けられた連結部材46と、を含んでいる。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続されている。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続されている。連結部材46には、イヤホンプラグ30を接続するためのジャックが設けられている。イヤホンプラグ30からは、右イヤホン32および左イヤホン34が延伸している。
画像表示部20と制御部10とは、接続部40を介して各種信号の伝送を行う。本体コード48における連結部材46と反対側の端部と、制御部10とのそれぞれには、互いに嵌合するコネクター(図示省略)が設けられており、本体コード48のコネクターと制御部10のコネクターとの嵌合/嵌合解除により、制御部10と画像表示部20とが接続されたり切り離されたりする。右コード42と、左コード44と、本体コード48には、例えば、金属ケーブルや光ファイバーを採用することができる。
制御部10は、HMD100を制御するための装置である。制御部10は、点灯部12と、タッチパッド14と、十字キー16と、電源スイッチ18とを含んでいる。点灯部12は、HMD100の動作状態(例えば、電源のON/OFF等)を、その発光態様によって通知する。点灯部12としては、例えば、LED(Light Emitting Diode)を用いることができる。タッチパッド14は、タッチパッド14の操作面上での接触操作を検出して、検出内容に応じた信号を出力する。タッチパッド14としては、静電式や圧力検出式、光学式といった種々のタッチパッドを採用することができる。十字キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、HMD100の電源の状態を切り替える。
図2は、HMD100の構成を機能的に示すブロック図である。制御部10は、入力情報取得部110と、記憶部120と、電源130と、無線通信部132と、GPSモジュール134と、CPU140と、インターフェイス180と、送信部(Tx)51および52とを備え、各部は図示しないバスにより相互に接続されている。
入力情報取得部110は、例えば、タッチパッド14や十字キー16、電源スイッチ18などに対する操作入力に応じた信号を取得する。記憶部120は、ROM、RAM、DRAM、ハードディスク等によって構成されている。
電源130は、HMD100の各部に電力を供給する。電源130としては、例えば、リチウムポリマーバッテリー、リチウムイオンバッテリーなどの二次電池を用いることができる。さらに、二次電池に替えて、一次電池や燃料電池でもよいし、無線給電を受けて動作するようにしてもよい。さらには、太陽電池とキャパシターから給電を受けるようにしてもよい。無線通信部132は、無線LANやBluetooth(登録商標)、iBeacon(登録商標)といった所定の無線通信規格に則って、他の機器との間で無線通信を行う。GPSモジュール134は、GPS衛星からの信号を受信することにより、自身の現在位置を検出する。
CPU140は、記憶部120に格納されているコンピュータープログラムを読み出して実行することにより、オペレーティングシステム(ОS)150、画像処理部160、表示制御部162、対象物奥行情報取得部164、操作体奥行情報取得部166、補助画像表示制御部168、および音声処理部170として機能する。
画像処理部160は、インターフェイス180や無線通信部132を介して入力されるコンテンツ(映像)に基づいて信号を生成する。そして、画像処理部160は、生成した信号を、接続部40を介して画像表示部20に供給することで、画像表示部20を制御する。画像表示部20に供給するための信号は、アナログ形式とディジタル形式の場合で異なる。アナログ形式の場合、画像処理部160は、クロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、画像データDataとを生成し、送信する。具体的には、画像処理部160は、コンテンツに含まれる画像信号を取得する。取得した画像信号は、例えば動画像の場合、一般的に1秒あたり30枚のフレーム画像から構成されているアナログ信号である。画像処理部160は、取得した画像信号から垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離し、それらの周期に応じて、PLL回路等によりクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等を用いてディジタル画像信号に変換する。画像処理部160は、変換後のディジタル画像信号を、RGBデータの画像データDataとして、1フレームごとに記憶部120内のDRAMに格納する。
一方、ディジタル形式の場合、画像処理部160は、クロック信号PCLKと、画像データDataとを生成し、送信する。具体的には、コンテンツがディジタル形式の場合、クロック信号PCLKが画像信号に同期して出力されるため、垂直同期信号VSyncおよび水平同期信号HSyncの生成と、アナログ画像信号のA/D変換とが不要となる。なお、画像処理部160は、記憶部120に格納された画像データDataに対して、解像度変換処理や、輝度、彩度の調整といった種々の色調補正処理や、キーストーン補正処理等の画像処理を実行してもよい。
画像処理部160は、生成されたクロック信号PCLK、垂直同期信号VSync、水平同期信号HSyncと、記憶部120内のDRAMに格納された画像データDataとを、送信部51、52を介してそれぞれ送信する。なお、送信部51を介して送信される画像データDataを「右眼用画像データData1」とも呼び、送信部52を介して送信される画像データDataを「左眼用画像データData2」とも呼ぶ。送信部51、52は、制御部10と画像表示部20との間におけるシリアル伝送のためのトランシーバーとして機能する。
表示制御部162は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部162は、制御信号により、右LCD制御部211による右LCD241の駆動ON/OFFや、右バックライト制御部201による右バックライト221の駆動ON/OFF、左LCD制御部212による左LCD242の駆動ON/OFFや、左バックライト制御部202による左バックライト222の駆動ON/OFFなどを個別に制御することにより、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。表示制御部162は、右LCD制御部211と左LCD制御部212とに対する制御信号を、送信部51および52を介してそれぞれ送信する。同様に、表示制御部162は、右バックライト制御部201と左バックライト制御部202とに対する制御信号を、それぞれ送信する。
対象物奥行情報取得部164は、透過して視認される外界の対象物についてのHMD100からの奥行きを示す対象物奥行情報を取得する。「奥行き」とは、HMD100の所定の向き、すなわち、使用者が画像表示部20を頭部に装着した状態において使用者が向いている方向におけるHMD100からの距離である。「奥行き方向」とは、使用者が画像表示部20を頭部に装着した状態において使用者が向いている方向、すなわち、光学像表示部26、28の向きであり、図1のZ軸方向である。
操作体奥行情報取得部166は、透過して視認される外界に侵入した使用者の手についてのHMD100からの奥行きを示す手奥行情報を取得する。使用者の手が、本発明の一形態における「操作体」の下位概念に相当する。
補助画像表示制御部168は、対象物奥行情報取得部164によって取得された対象物奥行情報と、操作体奥行情報取得部166によって取得された操作体奥行情報とに基づいて、HMD10からの奥行き方向において、前記対象物と前記操作体との位置関係が所定の条件を満たすと判定されたときに、対象物についての奥行き方向の位置の認識を容易にするための補助画像を、表示制御部162に表示させる。対象物奥行情報取得部164、操作体奥行情報取得部166、および補助画像表示制御部168については、後ほど詳述する。
音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、連結部材46に接続された右イヤホン32内の図示しないスピーカーおよび左イヤホン34内の図示しないスピーカーに対して供給する。なお、例えば、Dolby(登録商標)システムを採用した場合、音声信号に対する処理がなされ、右イヤホン32および左イヤホン34からは、それぞれ、例えば周波数等が変えられた異なる音が出力される。
インターフェイス180は、制御部10に対して、コンテンツの供給元となる種々の外部機器OAを接続するためのインターフェイスである。外部機器ОAとしては、例えば、パーソナルコンピューターPCや携帯電話端末、ゲーム端末等がある。インターフェイス180としては、例えば、USBインターフェイスや、マイクロUSBインターフェイス、メモリーカード用インターフェイス等を用いることができる。
画像表示部20は、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、カメラ61(図1も参照)と、デプス(Depth)センサー62と、9軸センサー66とを備えている。
カメラ61は、RGBカメラであり、使用者が画像表示部20を装着した際の使用者の鼻根部に対応する位置に配置されている。そのため、カメラ61は、使用者が画像表示部20を頭部に装着した状態において使用者が向いている方向の外界をカラー撮像する。なお、カメラ61は、RGBカメラに換えて、白黒カメラとすることができる。
デプスセンサー62は、奥行き(距離)センサーの一種であり、カメラ61と並んで配置されている。そのため、デプスセンサー62は、使用者が向いている方向におけるHMD100からの距離である奥行きを検出する。
9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサーであり、本実施形態では使用者の眉間に対応する位置に配置されている。9軸センサー66は、画像表示部20に設けられているため、画像表示部20が使用者の頭部に装着されているときには、使用者の頭部の動きを検出する。検出された頭部の動きから画像表示部20の向き、すなわち、使用者の視界が特定される。
右表示駆動部22は、受信部(Rx)53と、光源として機能する右バックライト(BL)制御部201および右バックライト(BL)221と、表示素子として機能する右LCD制御部211および右LCD241と、右投写光学系251とを含んでいる。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して「画像光生成部」とも呼ぶ。
受信部53は、制御部10と画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右バックライト221は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データData1とに基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。右LCD241は、マトリクス状に配置された各画素位置の液晶を駆動することによって、右LCD241を透過する光の透過率を変化させることにより、右バックライト221から照射される照明光を、画像を表す有効な画像光へと変調する。
右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。右光学像表示部26としての右導光板261は、右投写光学系251から出力された画像光を、所定の光路に沿って反射させつつ使用者の右眼REに導く。光学像表示部は、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いてもよいし、半透過反射膜を用いてもよい。なお、HMD100が画像光を出射することを、本明細書では「画像を表示する」とも呼ぶ。
左表示駆動部24は、右表示駆動部22と同様の構成を有している。すなわち、左表示駆動部24は、受信部(Rx)54と、光源として機能する左バックライト(BL)制御部202および左バックライト(BL)222と、表示素子として機能する左LCD制御部212および左LCD242と、左投写光学系252とを含んでいる。右LCD241と同様に、左LCD242は、マトリクス状に配置された各画素位置の液晶を駆動することによって、左LCD242を透過する光の透過率を変化させることにより、左バックライト222から照射される照明光を、画像を表す有効な画像光へと変調する。なお、本実施形態ではバックライト方式を採用することとしたが、フロントライト方式や、反射方式を用いて画像光を射出してもよい。
B.拡張現実感表示について:
図3は、HMD100による拡張現実感表示の一例を示す説明図である。図3では、使用者の視界VRを例示している。上述のようにして、HMD100の使用者の両眼に導かれた画像光が使用者の網膜に結像することにより、使用者は拡張現実感(AR)としての画像VIを視認する。図3の例では、画像VIは、HMD100のOSの待ち受け画面である。また、光学像表示部26、28が外界SCからの光を透過することで、使用者は外界SCを視認する。このように、本実施形態のHMDの使用者は、視界VRのうち画像VIが表示された部分については、画像VIと、画像VIの背後に外界SCと、を見ることができる。また、視界VR1のうち画像VIが表示されていない部分については、外界SCだけを見ることができる。
図4は、HMD100の使用形態の一例を示す説明図である。図4では、使用者の視界VRを例示している。図4の例では、光学像表示部26、28が外界SCからの光を透過することで、外界に存在する3つのボールB1,B2,B3を視認している。図示の例示では、実空間において、第1のボールB1は、第2のボールB2および第3のボールB3よりも使用者、すなわちHMD100側に位置しており、使用者は、光学像表示部26、28を通して、そのように視認される。第1のボールB1には、作業を行う対象物であることを示すマーカーMKが予め貼り付けられている。図示はしないが、このマーカーMKの近傍には、必要に応じてAR情報が表示される。AR情報は、例えば、作業内容や作業手順等である。
使用者は、光学像表示部26、28を覗きながら、自身の手HAによって、第1のボールB1を掴む作業を行う。この掴む作業を行う際に、使用者の視認を補助するため補助画像が、補助画像表示制御部168によって表示される。対象物奥行情報取得部164、操作体奥行情報取得部166、および補助画像表示制御部168は、記憶部120に記憶されている所定のプログラムをCPU140が実行することで、機能的に実現される。所定のプログラムの詳細について、次に説明する。
C.補助画像表示/表示停止ルーチンについて:
図5は、補助画像表示ルーチンを示すフローチャートである。この補助画像表示ルーチンは、上記所定のプログラムに対応するもので、CPU140によって所定時間ごとに繰り返し実行される。処理が開始されると、CPU140は、まず、カメラ61からRGB画像を取得し(ステップS110)、デプスセンサー62の出力信号から、外界を二次元の画像として捉え、その画像の各画素での奥行きを画素の濃淡によって示すデプスマップ(距離画像)を生成する(ステップS120)。
図6は、デプスマップの一例を示す説明図である。図示するように、デプスマップDPは、濃淡画像であり、濃淡によって各画素での奥行き(距離)を表す。
図5のステップS120の実行後、CPU140は、ステップS110によって取得したRGB画像内からマーカーを認識し、マーカーの二次元位置座標を取得する(ステップS130)。本実施形態では、図4に示すように、手で掴む作業を行う対象物である第1のボールB1にマーカーMKが予め貼り付けられており、RGB画像内からマーカーMKを認識することで、対象物の認識を可能としている。
図7は、マーカーMKの一例を示す説明図である。図示するように、マーカーMKは、二次元マーカーであり、対象物を指定するための標識となる、予め定められたパターンの画像が印刷されている。このパターンの画像によって、対象物が識別可能となる。図5のステップS130では、RGB画像内からマーカーMKを認識し、二次元空間におけるマーカーMKの位置を示す座標値を、二次元位置座標として取得する。
なお、本実施形態では、対象物に対してマーカーを予め貼り付けることによって対象物の認識を可能としていた。これに対して、変形例として、対象物である第1のボールB1以外の物体、すなわち、第2および第3のボールB1,B2を球でない他の形状とし、対象物である第1のボールB1の形状パターンを予め記憶しておき、RGB画像におけるパターン認識によって対象物を認識するようにしてもよい。また、第1のボールB1を第2および第3のボールB1,B2の各色と相違する色とし、対象物である第1のボールB1の色を予め記憶しておき、RGB画像における色認識によって対象物を認識するようにしてもよい。
図5のステップS130の実行後、CPU140は、ステップS120によって取得したデプスマップ内からマーカーMKを認識し、マーカーMKの奥行きDmkを取得する(ステップS140)。マーカーMKの奥行きDmkとは、奥行き方向におけるHMD100からマーカーMKまでの距離である。ステップS120およびS140の処理が、対象物奥行情報取得部164(図2)に相当する。なお、二次元位置座標を取得する場合と同様に、マーカーMKに替えて、対象物である第1のボールB1の形状パターンを予め記憶しておき、デプスマップにおけるパターン認識によって対象物を認識するようにしてもよい。
次いで、CPU140は、ステップS130によって取得したマーカーの二次元位置座標と、ステップS120によって取得したデプスマップとを、光学像表示部26、28を透過して見た座標系で表現する値に変換する視野変換を行う(ステップS150)。カメラ61およびデプスセンサー62は、光学像表示部26、28とは異なった位置に設けられており、ステップS130によって取得したマーカーの二次元位置座標はカメラ61から見た二次元座標系で表現されたものであり、ステップS130によって取得したデプスマップはデプスセンサー62から見た二次元座標系で表現されたものである。このため、ステップS150では、二次元位置座標とデプスマップとを、光学像表示部26、28を透過して見た二次元座標系で表現する値に変換する視野変換を行う。
なお、上記二次元座標系は、光学像表示部26、28を透過して見た二次元空間を示す座標系である。この二次元空間は奥行き方向であるZ軸に対して垂直な空間であり、二次元座標系の2つの座標軸は図1におけるX軸とY軸である。
図5のステップS150の実行後、CPU140は、ステップS110によって取得したRGB画像内に手が含まれるか否かを判定する(ステップS160)。本実施形態では、人の手の形状パターンを予め記憶しておき、RGB画像におけるパターン認識によって手の認識を行う。これに換えて、人の手の色(肌色)を予め記憶しておき、RGB画像における色認識によって手を認識するようにしてもよい。あるいは、手の形状パターンと肌色との両方から手を認識するようにしてもよい。ステップS160では、RGB画像内に手が認識されたときには、手が含まれると判定し、手が認識されないときには、手が含まれないと判定する。
手の認識は、上記の形状パターンや色によって認識する方法に換えて、手を識別するためのマーカーを使用者の手に貼り付けて、このマーカーを認識する構成としてもよい。
ステップS160で、RGB画像内に手が含まれないと判定された場合には、CPU140は、「リターン」に処理を進めて、補助画像表示ルーチンを一旦終了する。一方、ステップS160で、RGB画像内に手が含まれると判定された場合には、ステップS170に処理を進める。
ステップS170では、CPU140は、ステップS120によって取得したデプスマップ内からステップS160で手と認識した部分を抽出し、その抽出したデータから手の奥行きDhaを取得する。手の奥行きDhaとは、奥行き方向におけるHMD100から手までの距離である。なお、手までの距離とは、手のうちの特定点までの距離である。特定点は、本実施形態では、5つの指先のうちで、奥行き方向においてマーカーMKに最も近い指先とした。特定点は、これに換えて、特定の指(例えば、中指)の先としてもよい。また、手の重心位置等の他の位置としてもよい。ステップS120およびS170の処理が、操作体奥行情報取得部166(図2)に相当する。
ステップS170の実行後、CPU140は、ステップS170によって取得された手の奥行きDhaが、ステップS140によって取得されたマーカーMKの奥行きDmkから第1の距離D1だけ引いた値より、大きいか否かを判定する(ステップS180)。
図8は、HMD100と、マーカーMKの貼り付けられた第1のボールB1とを上方から見たときの平面図である。HMD100からマーカーMKに向かう方向が奥行き方向Zである。マーカーMKの奥行きDmkから第1の距離D1だけ引いた値の位置、すなわち、マーカーMKに対して第1の距離D1だけHMD100側の位置が、図中の第1の位置P1である。手の奥行きDhaは、奥行き方向Zにおける手の指先(マーカーMKに最も近い指先、以下、同じ)の位置Phaまでの距離である。このため、ステップS180による判定は、奥行き方向において、手の指先の位置Phaが第1の位置P1よりマーカーMK側に移動したか否かを判定することを意味する。
ステップS180で、手の奥行きDhaが、マーカーMKの奥行きDmk−D1以下であると判定されたとき、すなわち、手の指先の位置Phaが第1の位置P1よりマーカーMK側に移動していないと判定されたときには、CPU140は、「リターン」に処理を進めて、補助画像表示ルーチンを一旦終了する。
一方、ステップS180で、手の奥行きDhaが、マーカーMKの奥行きDmk−D1より大きいと判定されたとき、すなわち、手の指先の位置Phaが第1の位置P1よりマーカーMK側に移動していると判定されたときには、CPU140は、ステップS190に処理を進めて、補助画像を表示制御部162(図2)に表示させる。ステップS180およびS190の処理が、補助画像表示制御部168(図2)に相当する。
図9は、補助画像の一例を示す説明図である。図9では、使用者の視界VRを例示している。この例示では、実空間において、第1のボールB1が対象物として視認されており、第1のボールB1に対して補助画像GDが表示されている。図示するように、補助画像GDは、対象物の奥行き感が視認できるように、同じ奥行きの点の集まりでできる矩形破線G1,G2,G3,…,Gn(nは正数)を、一定の間隔でつらねた線群(グリッド)である。なお、図示では、矩形破線の数は7本としたが、7本に限る必要はなく、他の数とすることもできる。
図9において、外側から2つ目の矩形破線G2が、Dmk−D1の奥行きを示すものであるとする。図中においては、矩形破線G2は太線で描いているが、これは説明のために便宜的に太線としているだけで、矩形破線G2は他の矩形破線G1,G3〜Gnと同じ線の太さである。手HAの指先FGが、矩形破線G2よりも第1のボールB1側に移動したとき、図5のステップS180で肯定判定され、ステップS190によって補助画像GDが表示される。すなわち、使用者は、手HAが矩形破線G2を超えるまでは、矩形破線G2を含む補助画像GDは視認できず、矩形破線G2を超えて初めて、矩形破線G2を含む補助画像GDが視認される。
図5に戻り、ステップS190によって補助画像GDが表示された後、CPU140は、ステップS200に処理を進めて、補助画像GDが表示された旨を示すフラグFを値1にセットする(ステップS195)。フラグFは、初期状態では値0であり、ステップS195によって値1にセットされる。ステップS195の実行後、CPU140は、「リターン」に処理を進めて、補助画像表示ルーチンを一旦終了する。
図10は、補助画像表示停止ルーチンを示すフローチャートである。この補助画像表示停止ルーチンは、補助画像GDが表示された旨を示すフラグFが値1であるときに、図5の補助画像表示ルーチンに換えて実行される。すなわち、フラグFが値1であるときに、CPU140によって所定時間ごとに繰り返し実行される。
補助画像表示停止ルーチンにおけるステップS210からステップS260までの処理は、図5の補助画像表示ルーチンにおけるステップS110からステップS160までの処理と同一である。
ステップS260で、RGB画像内に手が含まれると判定された場合には、ステップS270に処理を進める。ステップS270では、CPU140は、ステップS220によって取得したデプスマップ内からステップS260で手と認識した部分を抽出し、その抽出したデータから手の奥行きDhaと、手のマーカーMKに対する二次元空間内距離Shaを算出する。手の奥行きDhaは、図5の補助画像表示ルーチンにおけるステップS170で取得した手の奥行きDhaと同一である。ステップS270では、さらに、デプスマップを用いて、奥行き方向に垂直な二次元空間の幅方向(図9におけるX−Y空間)における、手の指先とマーカーMKとの間の距離を算出、この距離を二次元空間内距離Shaとして取得する。
続いて、CPU140は、図5の補助画像表示ルーチンにおけるステップS180と同様に、ステップS270によって取得された手の奥行きDhaが、ステップS240によって取得されたマーカーMKの奥行きDmkから第1の距離D1だけ引いた値より、大きいか否かを判定する(ステップS280)。ここで、手の奥行きDhaが、マーカーMKの奥行きDmk−D1以下であると判定されたとき、すなわち、手の指先の位置Phaが第1の位置P1よりマーカーMK側でなくなったと判定されたときには、CPU140は、ステップS295に処理を進めて、図5のステップS190で表示された補助画像の表示を、表示制御部162(図2)に停止させるとともに、補助画像が表示された旨を示すフラグFを値0にクリアする(ステップS297)。なお、ステップS260で、RGB画像内に手が含まれないと判定された場合にも、CPU140は、ステップS295、S297と処理を進めて、補助画像の表示を停止させるとともに、フラグFを値0にクリアする。
一方、ステップS280で、手の奥行きDhaが、マーカーMKの奥行きDmk−D1より大きいと判定されたとき、すなわち、手の指先の位置Phaが第1の位置P1よりマーカーMK側に移動していると判定されたときには、CPU140は、ステップS290に処理を進める。ステップS290では、以下の第1の条件と第2の条件の双方を満たすか否かを判定する。
第1の条件は、ステップS270によって取得された手の奥行きDhaが、ステップS240によって取得されたマーカーMKの奥行きDmkから第2の距離D2だけ引いた値より大きいことである。図8に示すように、第2の距離D2は、第1の距離D1より短い。このため、第1の条件は、手の指先の位置Phaが、第1の位置P1よりマーカーMK側に位置する第2の位置P2よりも、マーカーMK側に移動していることを意味する。
第2の条件は、ステップS270によって取得された二次元空間内距離Sha(図8を参照)が、所定値S0より短いことである。すなわち、第2の条件は、X−Y空間における手の指先の位置PhaとマーカーMKとの間の距離が所定値S0を下回る距離であることを意味する。図8では、手の指先の位置PhaとマーカーMKとが、Y軸方向においては同じ位置にある場合を例示している。図8の例では、ShaがS0より大きいことから、第2の条件は満たされない。
第1の条件と第2の条件の双方を満たしたとき、奥行き方向Zに加えて、X−Y空間において、手の指先は対象物である第1のボールB1に十分に近づいたことを意味する。このため、ステップS290で、第1の条件と第2の条件の双方を満たしたと判定されたときには、CPUはステップS295、S297と処理を進めて、補助画像の表示を停止させるとともに、フラグFを値0にクリアする。ステップS297の実行後、CPU140は、「リターン」に処理を進めて、補助画像表示停止ルーチンを一旦終了する。
一方、ステップS290で否定判定、すなわち、第1の条件と第2の条件のうちの少なくとも一方を満たさないと判定されたときには、CPU140は、「リターン」に処理を進めて、補助画像表示停止ルーチンを一旦終了する。すなわち、ステップS290で否定判定されたときには、補助画像の表示を停止させることなく、その表示を継続する。
図11は、補助画像が停止される直前の使用者の視界VRを例示する説明図である。図12は、補助画像が停止された直後の使用者の視界VRを例示する説明図である。図11において、外側から3つ目の矩形破線G3が、Dmk−D2の奥行きを示すものであるとする。図中においては、矩形破線G3は太線で描いているが、これは説明のために便宜的に太線としているだけで、矩形破線G3は他の矩形破線G1,G2,G4〜Gnと同じ線の太さである。手HAの指先FGが、矩形破線G3に達するまでは、補助画像GDが表示されている。その後、手HAの指先DGが、矩形破線G3よりも第1のボールB1側に移動し、かつ前述した第2の条件を満たしたときに、図12に示すように、補助画像の表示は停止される。
図13は、補助画像の表示が停止されない状態の使用者の視界VRを例示する説明図である。この例示では、X−Y空間における手の指先FGとマーカーMKとの間の距離である二次元空間内距離Shaが、所定値S0より長い。このため、補助画像の表示は停止されず、補助画像GDは継続して表示される。
D.実施形態の効果について:
以上のように構成された本実施形態のHMD100によれば、HMD100からの奥行き方向Zにおいて、手の指先が、矩形破線G2よりも第1のボールB1側に移動したと判定されたときに、同じ奥行きの点の集まりでできる矩形破線G1〜Gnを一定の間隔でつらねた線群からなる補助画像GDが、光学像表示部26、28に表示される。このため、使用者は、現実空間の奥行き方向において、対象物がどの位置に存在するかを容易に把握することができる。
また、本実施形態では、奥行き方向Zにおいて、手の指先が、第1の位置P1よりマーカーMK側に位置する第2の位置P2よりもマーカーMK側に移動したと判定され、さらに、X−Y平面において、手の指先が、マーカーMKに対して所定値W0を下回る距離に近づいていると判定されたときに、補助画像GDの表示が停止される。このため、奥行き方向ZおよびX−Y平面において、手の指先がマーカーMKに十分に近づいたと判定でき、この場合に補助画像GDの表示は停止される。このために、手の指先によって対象物である第1のボールB1に対して作業が行われる直前には、補助画像GDの表示は消される。したがって、補助画像GDが作業の支障となることがなく、作業性が低下することを防止できる。
E.変形例:
なお、この発明は前記実施形態およびその変形例に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば、次のような変形も可能である。
E−1.変形例1:
前記実施形態では、対象物についての奥行き方向の位置の認識を容易にするための補助画像GD(図9)は、同じ奥行きの点の集まりでできる矩形破線G1〜Gnを一定の間隔でつらねた線群であった。これに対して、変形例として、補助画像は、対象物の影であってもよい。
図14は、変形例1における補助画像としての影SDを示す説明図である。影SDは、対象物である第1のボールB1に接続されている。影SDは、第1のボールB1によって光線が妨げられることで生じる暗い部分である。影SDの長さで、第1のボールB1のHMDに対する奥行きを示している。奥行きが長いほど(すなわち、遠いほど)、影SDの長さは長くなる。この構成によっても、第1実施形態と同様の効果を奏することができる。
なお、補助画像は、前記実施形態のような船群や、この変形例のような影に限る必要はなく、対象物についての奥行き方向の位置の認識を容易にするためのものであれば、距離を示す数値、色によって奥行きを示すボーダー線等、種々の形状、色等に換えることができる。
E−2.変形例2:
前記実施形態では、使用者によって操作される操作体は使用者の手としていた。これに対して、変形例として、操作体を工具や、指示棒等としてもよい。
E−3.変形例3:
前記実施形態では、対象物の奥行きと操作体の奥行きとをデプスセンサーによって検出していた。これに対して、変形例として、ステレオカメラや、単眼カメラで撮影した2枚の画像に基づいて奥行きを求めるようにしてもよい。さらに、光学的に奥行きを測定する構成に換えて、iBeacon(登録商標)の技術を用いて、対象物や操作体にBLE(Bluetooth Low Energy)端末を設けることで、対象物や操作体からの距離を取得するようにしてもよい。また、iBeacon以外の通信技術を用いて、距離を測定するようにしてもよい。
E−4.変形例4:
前記実施形態では、奥行き方向において、対象物に対して第1の距離D1だけHMD側である第1の位置P1より対象物側に、操作体が移動したと判定されたときに、補助画像を表示させる構成とした。これに対して、変形例として、HMDと対象物との間の距離の所定の割合だけ対象物側に、操作体が移動したと判定されたとき、補助画像を表示させる構成としてもよい。要は、奥行き方向において、対象物と操作体との位置関係が所定の条件を満たすと判定されたときであれば、種々の条件に換えることもできる。
E−5.変形例5:
前記実施形態では、光学像表示部26、28(図1)を透過して視認できる現実世界の物体を対象物とし、その視認された現実世界の物体に対してARとしての補助画像を表示する構成とした。これに対して、変形例として、ARとしての3Dオブジェクトを対象物として光学像表示部に表示し、その3Dオブジェクトに対して補助画像を表示する構成としてもよい。3Dオブジェクトは、仮想的な3次元空間に配置される物体であり、3次元空間上の座標位置が定められていることから、対象物奥行情報取得部は、3Dオブジェクトの座標位置から取得する構成とすればよい。この構成によれば、画面上に表示された3Dオブジェクトに対して、操作体を近づけたときに、3Dオブジェクトについての奥行き方向の位置の認識を容易にするための補助画像が表示されることになり、使用者は、奥行き方向において、仮想オブジェクトがどの位置に存在するかを容易に把握することができる。
なお、3Dオブジェクトの座標位置は、3Dオブジェクトの表面を示す位置であってもよいし、3Dオブジェクトの中心を示す位置であってもよく、これらの位置から奥行きを求める。さらに、外界の対象物に対して3Dオブジェクトを、対象物の表面よりもHMD側に付加することが考えられるが、この場合には、3Dオブジェクトを対象物として奥行きを求めるようにしてもよい。
E−6.変形例6:
前記実施形態では、HMD100は、使用者が装着した状態において外景が透過される透過型ヘッドマウントディスプレイとした。これに対して、変形例として、外景の透過が遮断される非透過型ヘッドマウントディスプレイとして構成してもよい。この構成は、例えば、外景をカメラで撮影して、表示部に撮影された外景を表示し、その外景の画像にAR画像を重畳することによって実現できる。なお、非透過型ヘッドマウントディスプレイは、変形例5に示した、3Dオブジェクトを対象物として表示する際に好適である。
E−7.その他の変形例:
上記実施形態では、ヘッドマウントディスプレイの構成について例示した。しかし、ヘッドマウントディスプレイの構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、各構成部の追加・削除・変換等を行うことができる。
上記実施形態における、制御部と、画像表示部とに対する構成要素の割り振りは、あくまで一例であり、種々の態様を採用可能である。例えば、以下のような態様としてもよい。(i)制御部にCPUやメモリー等の処理機能を搭載、画像表示部には表示機能のみを搭載する態様、(ii)制御部と画像表示部との両方にCPUやメモリー等の処理機能を搭載する態様、(iii)制御部と画像表示部とを一体化した態様(例えば、画像表示部に制御部が含まれ眼鏡型のウェアラブルコンピューターとして機能する態様)、(iv)制御部の代わりにスマートフォンや携帯型ゲーム機を使用する態様、(v)制御部と画像表示部とを無線通信かつワイヤレス給電可能な構成とすることにより接続部(コード)を廃した態様。
上記実施形態では、説明の便宜上、制御部が送信部を備え、画像表示部が受信部を備えるものとした。しかし、上記実施形態の送信部および受信部は、いずれも、双方向通信が可能な機能を備えており、送受信部として機能することができる。また、例えば、図2に示した制御部は、有線の信号伝送路を介して画像表示部と接続されているものとした。しかし、制御部と、画像表示部とは、無線LANや赤外線通信やBluetooth(登録商標)等の無線の信号伝送路を介した接続により接続されていてもよい。
例えば、上記実施形態で示した制御部、画像表示部の構成は任意に変更することができる。具体的には、例えば、制御部からタッチパッドを省略し、十字キーのみで操作する構成としてもよい。また、制御部に操作用スティック等の他の操作用インターフェイスを備えてもよい。また、制御部にはキーボードやマウス等のデバイスを接続可能な構成として、キーボードやマウスから入力を受け付けるものとしてもよい。また、例えば、タッチパッドや十字キーによる操作入力のほか、フットスイッチ(使用者の足により操作するスイッチ)による操作入力を取得してもよい。例えば、画像表示部に赤外線センサー等の視線検知部を設けた上で、使用者の視線を検知し、視線の動きに対応付けられたコマンドによる操作入力を取得してもよい。例えば、カメラを用いて使用者のジェスチャーを検知し、ジェスチャーに対応付けられたコマンドによる操作入力を取得してもよい。ジェスチャー検知の際は、使用者の指先や、使用者の手に付けられた指輪や、使用者の手にする医療器具等を動き検出のための目印にすることができる。フットスイッチや視線による操作入力を取得可能とすれば、使用者が手を離すことが困難である作業においても、入力情報取得部は、使用者からの操作入力を取得することができる。
図15は、変形例におけるHMDの外観の構成を示す説明図である。図13(A)の例の場合、画像表示部20xは、右光学像表示部26に代えて右光学像表示部26xを備え、左光学像表示部28に代えて左光学像表示部28xを備えている。右光学像表示部26xと左光学像表示部28xとは、上記実施形態の光学部材よりも小さく形成され、HMDの装着時における使用者の右眼および左眼の斜め上にそれぞれ配置されている。図13(B)の例の場合、画像表示部20yは、右光学像表示部26に代えて右光学像表示部26yを備え、左光学像表示部28に代えて左光学像表示部28yを備えている。右光学像表示部26yと左光学像表示部28yとは、上記実施形態の光学部材よりも小さく形成され、HMDの装着時における使用者の右眼および左眼の斜め下にそれぞれ配置されている。このように、光学像表示部は使用者の眼の近傍に配置されていれば足りる。また、光学像表示部を形成する光学部材の大きさも任意であり、光学像表示部が使用者の眼の一部分のみを覆う態様、換言すれば、光学像表示部が使用者の眼を完全に覆わない態様のHMDとして実現することもできる。
例えば、ヘッドマウントディスプレイは、両眼タイプの透過型ヘッドマウントディスプレイであるものとしたが、単眼タイプのヘッドマウントディスプレイとしてもよい。
例えば、画像処理部、表示制御部、音声処理部等の機能部は、CPUがROMやハードディスクに格納されているコンピュータープログラムをRAMに展開して実行することにより実現されるものとして記載した。しかし、これら機能部は、当該機能を実現するために設計されたASIC(Application Specific Integrated Circuit:特定用途向け集積回路)を用いて構成されてもよい。
例えば、上記実施形態では、画像表示部を眼鏡のように装着するヘッドマウントディスプレイであるとしているが、画像表示部が通常の平面型ディスプレイ装置(液晶ディスプレイ装置、プラズマディスプレイ装置、有機ELディスプレイ装置等)であるとしてもよい。この場合にも、制御部と画像表示部との間の接続は、有線の信号伝送路を介した接続であってもよいし、無線の信号伝送路を介した接続であってもよい。このようにすれば、制御部を、通常の平面型ディスプレイ装置のリモコンとして利用することもできる。
また、画像表示部として、眼鏡のように装着する画像表示部に代えて、例えば帽子のように装着する画像表示部といった他の形状の画像表示部を採用してもよい。また、イヤホンは耳掛け型やヘッドバンド型を採用してもよく、省略してもよい。また、例えば、自動車や飛行機等の車両に搭載されるヘッドアップディスプレイ(HUD、Head-Up Display)として構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。
例えば、上記実施形態では、表示駆動部は、バックライトと、バックライト制御部と、LCDと、LCD制御部と、投写光学系を用いて構成されるものとした。しかし、上記の態様はあくまで例示である。表示駆動部は、これらの構成部と共に、またはこれらの構成部に代えて、他の方式を実現するための構成部を備えていてもよい。例えば、表示駆動部は、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部と、投写光学系とを備える構成としてもよい。例えば、表示駆動部は、LCDに代えてDMD(デジタル・マイクロミラー・デバイス)等を用いることもできる。例えば、表示駆動部は、RGBの各色光を発生させるための色光源とリレーレンズを含む信号光変調部と、MEMSミラーを含む走査光学系と、これらを駆動する駆動制御回路と、を含むように構成されてもよい。このように、有機ELやDMDやMEMSミラーを用いても、「表示駆動部における射出領域」とは、表示駆動部から画像光が実際に射出される領域であることに変わりはなく、各デバイス(表示駆動部)における射出領域を上記実施形態と同様に制御することによって、上記実施形態と同様の効果を得ることができる。また、例えば、表示駆動部は、画素信号に応じた強度のレーザーを、使用者の網膜へ出射する1つ以上のレーザーを含むように構成されてもよい。この場合、「表示駆動部における射出領域」とは、表示駆動部から画像を表すレーザー光が実際に射出される領域を表す。レーザー(表示駆動部)におけるレーザー光の射出領域を上記実施形態と同様に制御することによって、上記実施形態と同様の効果を得ることができる。
本発明は、上述の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
10…制御部(コントローラー)
12…点灯部
14…タッチパッド
16…十字キー
18…電源スイッチ
20…画像表示部
21…右保持部
22…右表示駆動部
23…左保持部
24…左表示駆動部
26…右光学像表示部
28…左光学像表示部
30…イヤホンプラグ
32…右イヤホン
34…左イヤホン
40…接続部
42…右コード
44…左コード
46…連結部材
48…本体コード
51…送信部
52…送信部
53…受信部
54…受信部
61…カメラ
62…デプスセンサー
100…頭部装着型表示装置(HMD)
110…入力情報取得部
120…記憶部
130…電源
132…無線通信部
134…GPSモジュール
140…CPU
160…画像処理部
162…表示制御部
164…対象物奥行情報取得部
166…操作体奥行情報取得部
168…補助画像表示制御部
170…音声処理部
180…インターフェイス
201…右バックライト制御部
202…左バックライト制御部
211…右LCD制御部
212…左LCD制御部
221…右バックライト
222…左バックライト
241…右LCD
242…左LCD
251…右投写光学系
252…左投写光学系
261…右導光板
262…左導光板
B1…第1のボール
B2…第2のボール
B3…第3のボール
DP…デプスマップ
HA…手
FG…指先
GD…補助画像
MK…マーカー
SD…影

Claims (8)

  1. 表示部を備える頭部装着型表示装置であって、
    前記表示部を介して視認される対象物についての前記頭部装着型表示装置からの奥行きを示す対象物奥行情報を取得する対象物奥行情報取得部と、
    前記頭部装着型表示装置を取り巻く外界において使用者によって操作される操作体についての前記頭部装着型表示装置からの奥行きを示す操作体奥行情報を取得する操作体奥行情報取得部と、
    前記取得された対象物奥行情報と、前記取得された操作体奥行情報とに基づいて、前記頭部装着型表示装置からの奥行き方向において、前記対象物と前記操作体との位置関係が所定の条件を満たすと判定されたときに、前記対象物についての前記奥行き方向の位置の認識を容易にするための補助画像を、前記表示部に表示させる補助画像表示制御部と、
    を備える頭部装着型表示装置。
  2. 請求項1に記載の頭部装着型表示装置であって、
    前記補助画像表示制御部は、
    前記奥行き方向において、前記対象物から第1の距離だけ前記頭部装着型表示装置側に位置する第1の位置よりも、前記操作体が前記対象物側に移動したと判定されたときに、前記補助画像を表示させる、頭部装着型表示装置。
  3. 請求項2に記載の頭部装着型表示装置であって、
    前記奥行き方向に垂直な二次元空間における前記対象物の位置と前記操作体の位置とを示す二次元位置情報を取得する二次元位置情報取得部を備え、
    前記補助画像表示制御部は、
    前記奥行きの方向において、前記対象物から前記第1の距離よりも短い第2の距離だけ前記頭部装着型表示装置側に位置する第2の位置よりも、前記操作体が前記対象物側に移動したと判定され、かつ、前記取得された二次元位置情報に基づいて、前記二次元空間における前記操作体と前記対象物との間の距離が所定値を下回る距離であると判定されたときに、前記補助画像の表示を停止する、頭部装着型表示装置。
  4. 請求項1から請求項3までのいずれか一項に記載の頭部装着型表示装置であって、
    前記補助画像は、同じ奥行きの点の集まりでできる矩形破線を、一定の間隔でつらねた線群である、頭部装着型表示装置。
  5. 請求項1から請求項4までのいずれか一項に記載の頭部装着型表示装置であって、
    前記表示部は、前記外界を透過視認可能な表示部であり、
    前記操作体は、前記外界に実在する物体である、頭部装着型表示装置。
  6. 請求項1から請求項4までのいずれか一項に記載の頭部装着型表示装置であって、
    前記操作体は、仮想3次元空間に配置された物体であり、
    前記対象物奥行情報は、前記仮想3次元空間における前記対象物までの奥行きを示す情報である、頭部装着型表示装置。
  7. 表示部を備える頭部装着型表示装置の制御方法であって、
    前記表示部を介して視認される対象物についての前記頭部装着型表示装置からの奥行きを示す対象物奥行情報を取得する工程と、
    前記頭部装着型表示装置を取り巻く外界において使用者によって操作される操作体についての前記頭部装着型表示装置からの奥行きを示す操作体奥行情報を取得する工程と、
    前記取得された対象物奥行情報と、前記取得された操作体奥行情報とに基づいて、前記頭部装着型表示装置からの奥行き方向において、前記対象物と前記操作体との位置関係が所定の条件を満たすと判定されたときに、前記対象物についての前記奥行き方向の位置の認識を容易にするための補助画像を、前記表示部に表示させる工程と、
    を備える頭部装着型表示装置の制御方法。
  8. 表示部を備えた頭部装着型表示装置を制御するためのコンピュータープログラムであって、
    前記表示部を介して視認される対象物についての前記頭部装着型表示装置からの奥行きを示す対象物奥行情報を取得する機能と、
    前記頭部装着型表示装置を取り巻く外界において使用者によって操作される操作体についての前記頭部装着型表示装置からの奥行きを示す操作体奥行情報を取得する機能と、
    前記取得された対象物奥行情報と、前記取得された操作体奥行情報とに基づいて、前記頭部装着型表示装置からの奥行き方向において、前記対象物と前記操作体との位置関係が所定の条件を満たすと判定されたときに、前記対象物についての前記奥行き方向の位置の認識を容易にするための補助画像を、前記表示部に表示させる機能と、
    をコンピューターに実現させる、コンピュータープログラム。
JP2015190545A 2015-09-29 2015-09-29 頭部装着型表示装置、頭部装着型表示装置の制御方法、およびコンピュータープログラム Active JP6645096B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015190545A JP6645096B2 (ja) 2015-09-29 2015-09-29 頭部装着型表示装置、頭部装着型表示装置の制御方法、およびコンピュータープログラム
US15/261,618 US20170092004A1 (en) 2015-09-29 2016-09-09 Head-mounted display device, control method for head-mounted display device, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015190545A JP6645096B2 (ja) 2015-09-29 2015-09-29 頭部装着型表示装置、頭部装着型表示装置の制御方法、およびコンピュータープログラム

Publications (2)

Publication Number Publication Date
JP2017067876A true JP2017067876A (ja) 2017-04-06
JP6645096B2 JP6645096B2 (ja) 2020-02-12

Family

ID=58409764

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015190545A Active JP6645096B2 (ja) 2015-09-29 2015-09-29 頭部装着型表示装置、頭部装着型表示装置の制御方法、およびコンピュータープログラム

Country Status (2)

Country Link
US (1) US20170092004A1 (ja)
JP (1) JP6645096B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017091504A (ja) * 2016-08-26 2017-05-25 株式会社オプティム 遠隔指示方法及び遠隔端末用プログラム
WO2020246425A1 (ja) * 2019-06-07 2020-12-10 マツダ株式会社 映像処理方法、映像処理装置、及び映像処理プログラムを記録した記録媒体
JP2021131764A (ja) * 2020-02-20 2021-09-09 沖電気工業株式会社 情報処理装置、情報処理方法、プログラム、および情報処理システム
WO2024004321A1 (ja) * 2022-06-28 2024-01-04 キヤノン株式会社 画像処理装置、頭部装着型表示装置、画像処理装置の制御方法、頭部装着型表示装置の制御方法、およびプログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019114822A (ja) * 2016-03-23 2019-07-11 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置
DE112016007015T5 (de) * 2016-07-29 2019-03-21 Mitsubishi Electric Corporation Anzeigevorrichtung, anzeigesteuervorrichtung und anzeigesteuerverfahren
US10909375B2 (en) * 2018-08-08 2021-02-02 Mobilitie, Llc System and method for operation in an augmented reality display device
US11138771B2 (en) * 2020-02-03 2021-10-05 Apple Inc. Systems, methods, and graphical user interfaces for annotating, measuring, and modeling environments

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012173772A (ja) * 2011-02-17 2012-09-10 Panasonic Corp ユーザインタラクション装置、ユーザインタラクション方法、ユーザインタラクションプログラム、及び集積回路
US20150106767A1 (en) * 2013-10-16 2015-04-16 Atheer, Inc. Method and apparatus for addressing obstruction in an interface
JP5777786B1 (ja) * 2014-09-12 2015-09-09 キヤノン株式会社 情報処理装置、情報処理方法、プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012173772A (ja) * 2011-02-17 2012-09-10 Panasonic Corp ユーザインタラクション装置、ユーザインタラクション方法、ユーザインタラクションプログラム、及び集積回路
US20150106767A1 (en) * 2013-10-16 2015-04-16 Atheer, Inc. Method and apparatus for addressing obstruction in an interface
JP5777786B1 (ja) * 2014-09-12 2015-09-09 キヤノン株式会社 情報処理装置、情報処理方法、プログラム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017091504A (ja) * 2016-08-26 2017-05-25 株式会社オプティム 遠隔指示方法及び遠隔端末用プログラム
WO2020246425A1 (ja) * 2019-06-07 2020-12-10 マツダ株式会社 映像処理方法、映像処理装置、及び映像処理プログラムを記録した記録媒体
JP2020201634A (ja) * 2019-06-07 2020-12-17 マツダ株式会社 映像処理方法、映像処理装置、映像処理プログラム及び映像処理プログラムを記録した記録媒体
CN113853646A (zh) * 2019-06-07 2021-12-28 马自达汽车株式会社 影像处理方法、影像处理装置及记录有影像处理程序的记录介质
JP7279530B2 (ja) 2019-06-07 2023-05-23 マツダ株式会社 映像処理方法、映像処理装置、映像処理プログラム及び映像処理プログラムを記録した記録媒体
US11790624B2 (en) 2019-06-07 2023-10-17 Mazda Motor Corporation Video processing method, video processing apparatus, and recording medium having video processing program recorded therein
CN113853646B (zh) * 2019-06-07 2024-01-02 马自达汽车株式会社 影像处理方法、影像处理装置及记录有影像处理程序的记录介质
JP2021131764A (ja) * 2020-02-20 2021-09-09 沖電気工業株式会社 情報処理装置、情報処理方法、プログラム、および情報処理システム
JP7392512B2 (ja) 2020-02-20 2023-12-06 沖電気工業株式会社 情報処理装置、情報処理方法、プログラム、および情報処理システム
WO2024004321A1 (ja) * 2022-06-28 2024-01-04 キヤノン株式会社 画像処理装置、頭部装着型表示装置、画像処理装置の制御方法、頭部装着型表示装置の制御方法、およびプログラム

Also Published As

Publication number Publication date
JP6645096B2 (ja) 2020-02-12
US20170092004A1 (en) 2017-03-30

Similar Documents

Publication Publication Date Title
US11054650B2 (en) Head-mounted display device, control method of head-mounted display device, and display system
US10297062B2 (en) Head-mounted display device, control method for head-mounted display device, and computer program
US10529133B2 (en) Head mounted display apparatus and control method therefor, and computer program
JP6645096B2 (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、およびコンピュータープログラム
US10627620B2 (en) Head-mounted display device, method of controlling head-mounted display device, and computer program
US9778469B2 (en) Head-mounted display device and control method of head-mounted display device
CN105988219B (zh) 头部佩戴型显示装置以及头部佩戴型显示装置的控制方法
JP6337418B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
US9547372B2 (en) Image processing device and head mounted display apparatus including the same
US20160110921A1 (en) Head mounted display, method of controlling head mounted display, and computer program
JP6369005B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP6492673B2 (ja) 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
JP2016142887A (ja) 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
JP2016091348A (ja) 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
US20150168728A1 (en) Head mounted display device
JP6451222B2 (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP6394108B2 (ja) 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
JP6683218B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP6287399B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191223

R150 Certificate of patent or registration of utility model

Ref document number: 6645096

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150