JP2016082462A - 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム - Google Patents
頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム Download PDFInfo
- Publication number
- JP2016082462A JP2016082462A JP2014213442A JP2014213442A JP2016082462A JP 2016082462 A JP2016082462 A JP 2016082462A JP 2014213442 A JP2014213442 A JP 2014213442A JP 2014213442 A JP2014213442 A JP 2014213442A JP 2016082462 A JP2016082462 A JP 2016082462A
- Authority
- JP
- Japan
- Prior art keywords
- head
- movement information
- unit
- display unit
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/64—Constructional details of receivers, e.g. cabinets or dust covers
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0123—Head-up displays characterised by optical features comprising devices increasing the field of view
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Optics & Photonics (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】対象物と拡張情報との間の位置ずれを解消する。【解決手段】外界を透過視認可能な表示部を備えた頭部装着型表示装置である。頭部装着型表示装置は、表示部に、透過して視認される外界の対象物T1,T2の位置に対応づけて所定の画像AR1,AR2を表示させる重畳画像表示制御部と、表示部の動きを表す視界移動情報を取得する視界移動情報取得部と、対象物の前記表示部に対する相対的な動きを表す対象物移動情報を取得する対象物移動情報取得部とを備える。前記重畳画像表示制御部は、前記取得された視界移動情報と前記取得された対象物移動情報とが実質的に整合しない場合に、少なくとも対象物移動情報に基づいて所定時間後の対象物の表示部に対する相対位置を推定し、所定の画像AR1の表示位置を、前記推定した相対位置に基づいて定める。【選択図】図19
Description
本発明は、外界を透過視認可能な表示部を備えた頭部装着型表示装置およびその制御方法、並びにコンピュータープログラムに関する。
近年、現実空間の物体に対してコンピューターによる情報を付加する拡張現実(AR、Augmented Reality)と呼ばれる技術が注目されている。拡張現実を実現する手法の一つとして、外界を透過視認可能なシースルー型の頭部装着型表示装置がある。シースルー型の頭部装着型表示装置によれば、液晶パネル等の光変調素子によって生成された画像光を、使用者の眼前に配置した光学系等で反射させることによって、透過して視認される外界に、拡張現実としての拡張情報を画像として浮かび上がらせることができる。
通常のIT機器では画像を表示するために若干の処理時間(遅れ時間)がかかり、頭部装着型表示装置でも同じである。例えば、正面を向いている頭部装着型表示装置の使用者が横を向く動作をした場合に、視認している外界の動きとは若干遅れて画像表示がなされる。このために、透過して視認される外界の対象物と、その対象物の位置に対応づけて表示される拡張情報との間で位置ずれが生じ、使用者には、それが表示遅れとして認識されることになる。
上記の問題を解消するために、従来、特許文献1が提案されている。特許文献1に記載の技術によれば、表示する領域よりも大きな画像を生成すると共に、ジャイロセンサーにより遅れ時間における使用者の頭部の動きを検出し、前記生成された画像が、頭部の動きに対してどれだけ遅延しているかを計算し、その遅延の分だけ、前記生成された画像からの表示画像としての切り出し位置を変更することによって、上記の表示遅れを解消することができる。
しかしながら、前記従来の技術では、使用者の頭部の動きに応じた表示遅れを解消するだけのものであり、物体である対象物が例えば刻々と移動した場合に、遅れ時間の間に、対象物と、その対象物の位置に対応づけて表示される拡張情報との間で位置ずれが起きることに変わりがなかった。このために、対象物と拡張情報との間の位置ずれを解消することができないという課題があった。そのほか、従来の頭部装着型表示装置においては、使用者の利便性の向上や、検出精度の向上、装置構成のコンパクト化、低コスト化、省資源化、製造の容易化等が望まれていた。
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。
(1)本発明の一形態は、外界を透過視認可能な表示部を備えた頭部装着型表示装置である。この頭部装着型表示装置は、前記表示部に、透過して視認される外界の対象物の位置に対応づけて所定の画像を表示させる重畳画像表示制御部と、前記表示部の動きを表す視界移動情報を取得する視界移動情報取得部と、前記対象物の前記表示部に対する相対的な動きを表す対象物移動情報を取得する対象物移動情報取得部と、を備えてもよい。前記重畳画像表示制御部は、前記取得された視界移動情報と前記取得された対象物移動情報とが実質的に整合しない場合に、少なくとも前記対象物移動情報に基づいて、所定時間後の前記対象物の前記表示部に対する相対位置を推定し、前記所定の画像の表示位置を、前記推定した相対位置に基づいて定めてもよい。この形態の頭部装着型表示装置によれば、対象物が、表示部の動きによらず表示部に対して相対的に移動する移動物である場合において、所定時間後の対象物の推定された位置に対応づけて所定の画像を表示させることができる。したがって、対象物が前記移動物である場合において、所定時間の間に発生する対象物と前記所定の画像との間の位置ずれを解消することができる。
(2)前記形態の頭部装着型表示装置において、前記所定の画像は、前記対象物に付与する拡張現実としての拡張情報であってもよい。この形態の頭部装着型表示装置によれば、対象物と、対象物に付与する拡張現実としての拡張情報との間の位置ずれを解消することができる。
(3)前記形態の頭部装着型表示装置において、前記重畳画像表示制御部は、前記取得された視界移動情報と前記取得された対象物移動情報とが実質的に整合する場合に、前記視界移動情報に基づいて、所定時間後の前記対象物の前記表示部に対する相対位置を推定し、前記所定の画像の表示位置を、前記推定した相対位置に基づいて定めていてもよい。この形態の頭部装着型表示装置によれば、対象物が、表示部の動きによってのみ、表示部に対して相対的に移動する静止物である場合においても、対象物と所定の画像との間の位置ずれを解消することができる。
(4)前記形態の頭部装着型表示装置において、前記視界移動情報取得部は、前記表示部に設けられたモーションセンサーを有していてもよい。この形態の頭部装着型表示装置によれば、表示部の動きを高精度に検出することができる。
(5)前記形態の頭部装着型表示装置において、前記対象物移動情報取得部は、前記表示部に設けられたRGBセンサーおよびデプスセンサーを有していてもよい。この形態の頭部装着型表示装置によれば、移動物の表示部に対する相対移動を高精度に検出することができる。
(6)前記形態の頭部装着型表示装置において、前記対象物移動情報取得部は、前記対象物に予め配設されたモーションセンサーの検出信号を無線通信にて受信してもよい。この形態の頭部装着型表示装置によれば、移動物の表示部に対する相対移動を高精度に検出することができる。
(7)前記形態の頭部装着型表示装置において、前記対象物移動情報取得部は、前記対象物に予め配設された無線通信端末からの信号を受信してもよい。この形態の頭部装着型表示装置によれば、移動物の表示部に対する相対移動を高精度に検出することができる。
(8)前記形態の頭部装着型表示装置において、前記所定時間を可変する調整部を備えるようにしてもよい。この形態の頭部装着型表示装置によれば、所定時間の間に発生する対象物と前記所定の画像との間の位置ずれを、より確実に解消することができる。
(9)前記形態の頭部装着型表示装置において、前記視界移動情報を、他の頭部装着型表示装置に対して送信する情報提供部を備えるようにしてもよい。この形態の頭部装着型表示装置によれば、簡易な構成によって、他の頭部装着型表示装置との間で、互いの表示部の動きをやり取りすることができる。
(10)本発明の他の形態は、頭部装着型表示装置である。この頭部装着型表示装置は、外界を透過視認可能な表示部と、前記外界の対象物が、前記表示部の動きによらず前記表示部に対して相対的に移動する移動物と、前記表示部の動きによってのみ前記表示部に対して相対的に移動する静止物とのいずれの場合であっても、所定時間後の前記対象物の前記表示部に対する相対位置に対応づけて所定の画像を、前記表示部に表示させる重畳画像表示制御部と、を備えるようにしてもよい。この形態の頭部装着型表示装置によれば、表示部の動きによらず対象物が表示部に対して相対的に移動する場合、表示部の動きによってのみ表示部に対して対象物が相対的に移動する場合のいずれにおいても、対象物と所定の画像との間の位置ずれを解消することができる。
上述した本発明の各形態の有する複数の構成要素はすべてが必須のものではなく、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、適宜、前記複数の構成要素の一部の構成要素について、その変更、削除、新たな他の構成要素との差し替え、限定内容の一部削除を行なうことが可能である。また、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、上述した本発明の一形態に含まれる技術的特徴の一部または全部を上述した本発明の他の形態に含まれる技術的特徴の一部または全部と組み合わせて、本発明の独立した一形態とすることも可能である。
例えば、本発明の一形態は、表示部と、重畳画像表示制御部と、視界移動情報取得部と、対象物移動情報取得部と、の4つの要素の内の一つ以上の要素を備えた装置として実現可能である。すなわち、この装置は、表示部を有していてもよく、有していなくてもよい。また、装置は、重畳画像表示制御部を有していてもよく、有していなくてもよい。また、装置は、視界移動情報取得部を有していてもよく、有していなくてもよい。また、装置は、対象物移動情報取得部を有していてもよく、有していなくてもよい。表示部は、例えば、外界を透過視認可能なものとしてもよい。重畳画像表示制御部は、例えば、表示部に、透過して視認される外界の対象物の位置に対応づけて所定の画像を表示させるようにしてもよい。視界移動情報取得部は、例えば、表示部の動きを表す視界移動情報を取得するようにしてもよい。対象物移動情報取得部は、例えば、対象物の表示部に対する相対的な動きを表すようにしてもよい。さらに、重畳画像表示制御部は、例えば、取得された視界移動情報と取得された対象物移動情報とが実質的に整合しない場合に、少なくとも対象物移動情報に基づいて、所定時間後の前記対象物の表示部に対する相対位置を推定し、所定の画像の表示位置を、推定した相対位置に基づいて定めるようにしてもよい。こうした装置は、例えば、頭部装着型表示装置として実現できるが、頭部装着型表示装置以外の他の装置としても実現可能である。このような形態によれば、使用者の利便性の向上や、検出精度の向上、装置構成のコンパクト化、低コスト化、省資源化、製造の容易化等の種々の課題の少なくとも1つを解決することができる。前述した頭部装着型表示装置の各形態の技術的特徴の一部または全部は、いずれもこの装置に適用することが可能である。
例えば、本発明の他の形態は、表示部と、重畳画像表示制御部と、の2つの要素の内の一つ以上の要素を備えた装置として実現可能である。すなわち、この装置は、表示部を有していてもよく、有していなくてもよい。また、装置は、重畳画像表示制御部を有していてもよく、有していなくてもよい。表示部は、例えば、外界を透過視認可能なものとしてもよい。重畳画像表示制御部は、例えば、外界の対象物が、表示部の動きによらず表示部に対して相対的に移動する移動物と、表示部の動きによってのみ表示部に対して相対的に移動する静止物とのいずれの場合であっても、所定時間後の対象物の表示部に対する相対位置に対応づけて所定の画像を、表示部に表示させるようにしてもよい。こうした装置は、例えば、頭部装着型表示装置として実現できるが、頭部装着型表示装置以外の他の装置としても実現可能である。このような形態によれば、使用者の利便性の向上や、検出精度の向上、装置構成のコンパクト化、低コスト化、省資源化、製造の容易化等の種々の課題の少なくとも1つを解決することができる。前述した頭部装着型表示装置の各形態の技術的特徴の一部または全部は、いずれもこの装置に適用することが可能である。
本発明は、頭部装着型表示装置以外の種々の形態で実現することも可能である。例えば、表示装置、頭部装着型表示装置および表示装置の制御方法、頭部装着型表示システム、表示装置、頭部装着型表示システムおよび表示装置の機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体、そのコンピュータープログラムを含み搬送波内に具現化されたデータ信号等の形態で実現できる。
A.第1実施形態:
A−1.頭部装着型表示装置の基本構成:
図1は、本発明の第1実施形態における頭部装着型表示装置の概略構成を示す説明図である。頭部装着型表示装置100は、頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。HMD100は、グラスを通過して視認される外界の中に画像が浮かび上がるシースルー型の頭部装着型表示装置である。
A−1.頭部装着型表示装置の基本構成:
図1は、本発明の第1実施形態における頭部装着型表示装置の概略構成を示す説明図である。頭部装着型表示装置100は、頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。HMD100は、グラスを通過して視認される外界の中に画像が浮かび上がるシースルー型の頭部装着型表示装置である。
HMD100は、使用者の頭部に装着された状態において使用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御部(コントローラー)10とを備えている。
画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有している。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、を含んでいる。右光学像表示部26および左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右および左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに接続されている。
右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21および左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。
右表示駆動部22は、右保持部21の内側、換言すれば、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。また、左表示駆動部24は、左保持部23の内側に配置されている。なお、以降では、右保持部21および左保持部23を区別せず「保持部」として説明する。同様に、右表示駆動部22および左表示駆動部24を区別せず「表示駆動部」として説明し、右光学像表示部26および左光学像表示部28を区別せず「光学像表示部」として説明する。
表示駆動部は、液晶ディスプレイ(Liquid Crystal Display、以下「LCD」と呼ぶ)241、242や投写光学系251、252等を含む(図2参照)。表示駆動部の構成の詳細は後述する。光学部材としての光学像表示部は、導光板261、262(図2参照)と調光板とを含んでいる。導光板261、262は、光透過性の樹脂材料等によって形成され、表示駆動部から出力された画像光を使用者の眼に導く。調光板は、薄板状の光学素子であり、画像表示部20の表側(使用者の眼の側とは反対の側)を覆うように配置されている。調光板は、導光板261、262を保護し、導光板261、262の損傷や汚れの付着等を抑制する。また、調光板の光透過率を調整することによって、使用者の眼に入る外光量を調整して虚像の視認のしやすさを調整することができる。なお、調光板は省略可能である。
画像表示部20は、さらに、画像表示部20を制御部10に接続するための接続部40を有している。接続部40は、制御部10に接続される本体コード48と、本体コード48が2本に分岐した右コード42および左コード44と、分岐点に設けられた連結部材46と、を含んでいる。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続されている。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続されている。連結部材46には、イヤホンプラグ30を接続するためのジャックが設けられている。イヤホンプラグ30からは、右イヤホン32および左イヤホン34が延伸している。
画像表示部20と制御部10とは、接続部40を介して各種信号の伝送を行う。本体コード48における連結部材46と反対側の端部と、制御部10とのそれぞれには、互いに嵌合するコネクター(図示省略)が設けられており、本体コード48のコネクターと制御部10のコネクターとの嵌合/嵌合解除により、制御部10と画像表示部20とが接続されたり切り離されたりする。右コード42と、左コード44と、本体コード48には、例えば、金属ケーブルや光ファイバーを採用することができる。
制御部10は、HMD100を制御するための装置である。制御部10は、点灯部12と、タッチパッド14と、十字キー16と、電源スイッチ18とを含んでいる。点灯部12は、HMD100の動作状態(例えば、電源のON/OFF等)を、その発光態様によって通知する。点灯部12としては、例えば、LED(Light Emitting Diode)を用いることができる。タッチパッド14は、タッチパッド14の操作面上での接触操作を検出して、検出内容に応じた信号を出力する。タッチパッド14としては、静電式や圧力検出式、光学式といった種々のタッチパッドを採用することができる。十字キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、HMD100の電源の状態を切り替える。
図2は、HMD100の構成を機能的に示すブロック図である。制御部10は、入力情報取得部110と、記憶部120と、電源130と、無線通信部132と、GPSモジュール134と、CPU140と、インターフェイス180と、送信部(Tx)51および52とを備え、各部は図示しないバスにより相互に接続されている。
入力情報取得部110は、例えば、タッチパッド14や十字キー16、電源スイッチ18などに対する操作入力に応じた信号を取得する。記憶部120は、ROM、RAM、DRAM、ハードディスク等によって構成されている。
電源130は、HMD100の各部に電力を供給する。電源130としては、例えば、リチウムポリマーバッテリー、リチウムイオンバッテリーなどの二次電池を用いることができる。さらに、二次電池に替えて、一次電池や燃料電池でもよいし、無線給電を受けて動作するようにしてもよい。さらには、太陽電池とキャパシターから給電を受けるようにしてもよい。無線通信部132は、無線LANやBluetooth(登録商標)、iBeacon(登録商標)といった所定の無線通信規格に則って、他の機器との間で無線通信を行う。GPSモジュール134は、GPS衛星からの信号を受信することにより、自身の現在位置を検出する。
CPU140は、記憶部120に格納されているコンピュータープログラムを読み出して実行することにより、オペレーティングシステム(ОS)150、画像処理部160、表示制御部162、重畳画像表示制御部164、視界移動情報取得部166、対象物移動情報取得部168、および音声処理部170として機能する。
画像処理部160は、インターフェイス180や無線通信部132を介して入力されるコンテンツ(映像)に基づいて信号を生成する。そして、画像処理部160は、生成した信号を、接続部40を介して画像表示部20に供給することで、画像表示部20を制御する。画像表示部20に供給するための信号は、アナログ形式とディジタル形式の場合で異なる。アナログ形式の場合、画像処理部160は、クロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、画像データDataとを生成し、送信する。具体的には、画像処理部160は、コンテンツに含まれる画像信号を取得する。取得した画像信号は、例えば動画像の場合、一般的に1秒あたり30枚のフレーム画像から構成されているアナログ信号である。画像処理部160は、取得した画像信号から垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離し、それらの周期に応じて、PLL回路等によりクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等を用いてディジタル画像信号に変換する。画像処理部160は、変換後のディジタル画像信号を、RGBデータの画像データDataとして、1フレームごとに記憶部120内のDRAMに格納する。
一方、ディジタル形式の場合、画像処理部160は、クロック信号PCLKと、画像データDataとを生成し、送信する。具体的には、コンテンツがディジタル形式の場合、クロック信号PCLKが画像信号に同期して出力されるため、垂直同期信号VSyncおよび水平同期信号HSyncの生成と、アナログ画像信号のA/D変換とが不要となる。なお、画像処理部160は、記憶部120に格納された画像データDataに対して、解像度変換処理や、輝度、彩度の調整といった種々の色調補正処理や、キーストーン補正処理等の画像処理を実行してもよい。
画像処理部160は、生成されたクロック信号PCLK、垂直同期信号VSync、水平同期信号HSyncと、記憶部120内のDRAMに格納された画像データDataとを、送信部51、52を介してそれぞれ送信する。なお、送信部51を介して送信される画像データDataを「右眼用画像データData1」とも呼び、送信部52を介して送信される画像データDataを「左眼用画像データData2」とも呼ぶ。送信部51、52は、制御部10と画像表示部20との間におけるシリアル伝送のためのトランシーバーとして機能する。
表示制御部162は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部162は、制御信号により、右LCD制御部211による右LCD241の駆動ON/OFFや、右バックライト制御部201による右バックライト221の駆動ON/OFF、左LCD制御部212による左LCD242の駆動ON/OFFや、左バックライト制御部202による左バックライト222の駆動ON/OFFなどを個別に制御することにより、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。表示制御部162は、右LCD制御部211と左LCD制御部212とに対する制御信号を、送信部51および52を介してそれぞれ送信する。同様に、表示制御部162は、右バックライト制御部201と左バックライト制御部202とに対する制御信号を、それぞれ送信する。
重畳画像表示制御部164は、表示制御部162に、透過して視認される外界の対象物の位置に所定の画像、例えば拡張現実としての拡張情報を表示させる。視界移動情報取得部166は、画像表示部20の動きを表す視界移動情報を取得する。対象物移動情報取得部168は、対象物の画像表示部20に対する相対的な動きを表す対象物移動情報を取得する。重畳画像表示制御部164は、前記取得された視界移動情報と前記取得された対象物移動情報とが実質的に整合しない場合に、少なくとも前記対象物移動情報に基づいて、所定時間後の前記対象物の画像表示部20に対する相対位置を推定し、前記拡張情報の表示位置を、前記推定した相対位置に基づいて定める。各部164、166、168については、後ほど詳述する。
音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、連結部材46に接続された右イヤホン32内の図示しないスピーカーおよび左イヤホン34内の図示しないスピーカーに対して供給する。なお、例えば、Dolby(登録商標)システムを採用した場合、音声信号に対する処理がなされ、右イヤホン32および左イヤホン34からは、それぞれ、例えば周波数等が変えられた異なる音が出力される。
インターフェイス180は、制御部10に対して、コンテンツの供給元となる種々の外部機器OAを接続するためのインターフェイスである。外部機器ОAとしては、例えば、パーソナルコンピューターPCや携帯電話端末、ゲーム端末等がある。インターフェイス180としては、例えば、USBインターフェイスや、マイクロUSBインターフェイス、メモリーカード用インターフェイス等を用いることができる。
画像表示部20は、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、カメラ61(図1も参照)と、デプス(Depth)センサー62と、9軸センサー66とを備えている。
カメラ61は、RGBカメラであり、使用者が画像表示部20を装着した際の使用者の鼻根部に対応する位置に配置されている。そのため、カメラ61は、HMD100の所定の向き、すなわち、使用者が画像表示部20を頭部に装着した状態において使用者が向いている方向の外界をカラー撮像する。なお、カメラ61は、RGBカメラに換えて白黒カメラとしてもよい。
デプスセンサー62は、距離センサーの一種であり、外界を二次元の画像として捉え、それぞれのピクセルでの奥行きを濃淡によって示す距離画像(デプスマップ)を出力する。デプスセンサー62は、カメラ61と並んで配置されている。なお、デプスセンサー62はステレオカメラに換えることができ、ステレオカメラによっても各部の距離を測定することができる。
9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサーであり、本実施形態では使用者の眉間に対応する位置に配置されている。9軸センサー66は、画像表示部20に設けられているため、画像表示部20が使用者の頭部に装着されているときには、使用者の頭部の動きを検出する。検出された頭部の動きから画像表示部20の向き、すなわち、使用者の視界が特定される。
右表示駆動部22は、受信部(Rx)53と、光源として機能する右バックライト(BL)制御部201および右バックライト(BL)221と、表示素子として機能する右LCD制御部211および右LCD241と、右投写光学系251とを含んでいる。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して「画像光生成部」とも呼ぶ。
受信部53は、制御部10と画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右バックライト221は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データData1とに基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。右LCD241は、マトリクス状に配置された各画素位置の液晶を駆動することによって、右LCD241を透過する光の透過率を変化させることにより、右バックライト221から照射される照明光を、画像を表す有効な画像光へと変調する。
右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。右光学像表示部26としての右導光板261は、右投写光学系251から出力された画像光を、所定の光路に沿って反射させつつ使用者の右眼REに導く。光学像表示部は、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いてもよいし、半透過反射膜を用いてもよい。なお、HMD100が画像光を出射することを、本明細書では「画像を表示する」とも呼ぶ。
左表示駆動部24は、右表示駆動部22と同様の構成を有している。すなわち、左表示駆動部24は、受信部(Rx)54と、光源として機能する左バックライト(BL)制御部202および左バックライト(BL)222と、表示素子として機能する左LCD制御部212および左LCD242と、左投写光学系252とを含んでいる。右LCD241と同様に、左LCD242は、マトリクス状に配置された各画素位置の液晶を駆動することによって、左LCD242を透過する光の透過率を変化させることにより、左バックライト222から照射される照明光を、画像を表す有効な画像光へと変調する。なお、本実施形態ではバックライト方式を採用することとしたが、フロントライト方式や、反射方式を用いて画像光を射出してもよい。
A−2.拡張現実表示について:
図3は、HMD100による拡張現実表示の一例を示す説明図である。図3では、使用者の視界VRを例示している。上述のようにして、HMD100の使用者の両眼に導かれた画像光が使用者の網膜に結像することにより、使用者は拡張現実(AR)としての画像VIを視認する。図3の例では、画像VIは、HMD100のOSの待ち受け画面である。また、光学像表示部26、28が外界SCからの光を透過することで、使用者は外界SCを視認する。このように、本実施形態のHMDの使用者は、視界VRのうち画像VIが表示された部分については、画像VIと、画像VIの背後に外界SCと、を見ることができる。また、視界VR1のうち画像VIが表示されていない部分については、外界SCだけを見ることができる。
図3は、HMD100による拡張現実表示の一例を示す説明図である。図3では、使用者の視界VRを例示している。上述のようにして、HMD100の使用者の両眼に導かれた画像光が使用者の網膜に結像することにより、使用者は拡張現実(AR)としての画像VIを視認する。図3の例では、画像VIは、HMD100のOSの待ち受け画面である。また、光学像表示部26、28が外界SCからの光を透過することで、使用者は外界SCを視認する。このように、本実施形態のHMDの使用者は、視界VRのうち画像VIが表示された部分については、画像VIと、画像VIの背後に外界SCと、を見ることができる。また、視界VR1のうち画像VIが表示されていない部分については、外界SCだけを見ることができる。
図4は、HMD100による拡張現実表示の他の例を示す説明図である。図4では、使用者Uの視界VR1を例示している。視界VR1には、図示するように、人T1と椅子T2とが存在する外界SC1が含まれている。また、外界SC1に重畳して、拡張現実としての第1および第2の拡張情報AR1、AR2が表示される。第1の拡張情報AR1は、人T1の位置に対応づけて表示される吹き出しの画像であり、人T1の名前を示す文字が記載されている。第2の拡張情報AR2は、椅子T2の位置に対応づけて表示される吹き出しの画像であり、「椅子」という文字が記載されている。使用者Uは、光学像表示部26,28を透過して視認した外界SC1の物体についての説明情報を、第1および第2の拡張情報AR1、AR2によって視認することができる。拡張情報が付与される物体を、以下、「対象物」と呼ぶ。すなわち、第1および第2の拡張情報AR1、AR2が付与される人T1および椅子T2を、以下、「対象物T1」、「対象物T2」と呼ぶ。
図4の状態において、使用者Uが、矢印Rに示すように頭を回して横を向く動作をした場合に、視界VR1は、右向きに所定量、すなわち、+Aだけ移動する。この場合、視界VR1内における対象物T1、T2の位置は、+Aと逆方向、同一の移動量である−Aだけ相対移動することになり、その移動した位置に対応づけて第1および第2の拡張情報AR1、AR2の表示位置も移動する。こうした拡張情報の表示および表示位置の制御を行うのが、図2の重畳画像表示制御部164、視界移動情報取得部166、および対象物移動情報取得部168である。各部164、166、168は、記憶部120に記憶されている所定のプログラムをCPU140が実行することで、機能的に実現される。所定のプログラムの詳細について、以下に説明する。
図5は、拡張現実表示制御処理を示すフローチャートである。この拡張現実表示制御処理は、上記所定のプログラムに対応するもので、CPU140によって所定時間ごとに繰り返し実行される。ここで、所定時間は、HMD100で表示する映像の1フレーム当たりの時間である。処理が開始されると、CPU140は、まず、初期設定として早送り時間の設定を行う(ステップS100)。「早送り時間」は、HMD100が移動したときに拡張情報を再表示するまでに要する、画面表示の遅れ時間に相当する時間である。遅れ時間は、予め実験的にあるいはシミュレーションにより求めることができる。この求めた遅れ時間を踏まえて、本実施形態では、早送り時間を10〜200msecの範囲内の値、例えば100msecに設定した。
次いで、CPU140は、画像表示部20の動きを示す情報を、使用者Uの視界移動情報として取得する視界移動情報取得処理を行う(ステップS200)。この視界移動情報取得処理では、9軸センサー66(図1、図2)から、3軸(x軸、y軸、z軸)方向の加速度と、1軸(z軸)周りの回転の角速度とを取得し、これらの情報から画像表示部20の動きを求める。図1に示すように、x軸、y軸、z軸は互いに垂直な軸であり、z軸は画像表示部20の上下方向であり、x軸は画像表示部20の左右方向である。
図6は、9軸センサー66から得られる加速度ax、ay、azを示すグラフである。第1の加速度axはx軸方向の加速度であり、第2の加速度ayはy軸方向の加速度であり、第3の加速度azはz軸方向の加速度である。
図7は、9軸センサー66から得られる角速度ωzを示すグラフである。角速度ωzは、z軸周りの回転の角速度である。
ステップS200では、CPU140は、図6に示す加速度ax、ay、azと、図7に示す角速度ωzとを取得し、これらの情報と時間情報から画像表示部20の位置、姿勢の変化、および速度、すなわち、画像表示部20の動きを求める。画像表示部20の動きは、使用者の頭部の動きに追従することから、使用者の視界の動きと考えることができる。このために、上記求められた画像表示部20の動きは、記憶部120に格納される視界移動情報に追記される。視界移動情報は、使用者の視界についての現在までの履歴を示すもので、上記のように画像表示部20の動きを追記することで、視界移動情報は最新の状態に更新される。
なお、ステップS200では、人体の首の回転自由度から、角速度としてz軸周りの回転の角速度ωzだけを用いていたが、これに換えて、角速度ωzを含む2軸や3軸回りの回転の角速度を用いるようにしてもよい。
続いて、CPU140は、対象物移動情報取得処理を行う(ステップS300)。対象物移動情報取得処理は、対象物T1、T2の画像表示部20に対する相対的な動きを表す情報を、対象物移動情報として取得する処理である。
図8は、対象物移動情報取得処理の詳細を示すフローチャートである。対象物移動情報取得処理に処理が移行すると、CPU140は、まず、カメラ61からRGB画像を取得し(ステップS310)、デプスセンサー62から距離画像を取得する(ステップS320)。
図9は、デプスセンサー62によって得られた距離画像の一例を示す説明図である。図示するように、距離画像DPは、濃淡画像であり、濃淡によって各ピクセルでの奥行き(距離)を表す。距離画像DPは、「デプスマップ」とも呼ばれる。
図8のステップS320の実行後、CPU140は、ステップS310によって取得したRGB画像内からマーカーを検出し(ステップS330)、マーカーの二次元位置座標を取得する(ステップS340)。本実施形態では、対象物T1、T2に対してマーカーが予め貼り付けられており、RGB画像内からマーカーを検出することで、視界VR1に入った対象物T1、T2の認識を可能としている。
図10は、マーカーMKの一例を示す説明図である。図示するように、マーカーMKは、二次元マーカーであり、拡張情報を表示する位置を指定するための標識となる、予め定められたパターンの画像が印刷されている。このパターンの画像によって、各対象物T1、T2が識別可能となる。図8のステップS330では、RGB画像内からマーカーMKを検出し、マーカーMKの位置を二次元座標として取得する。二次元座標は、RGB画像の4隅のうちの一点を原点とする座標である。
なお、本実施形態では、対象物T1、T2に対してマーカーを予め貼り付けることによって対象物の認識を可能としていたが、これに替えて、対象物である「人」とか「椅子」の形状パターンを予め記憶しておき、RGB画像におけるパターン認識によって対象物を認識するようにしてもよい。
ステップS340の実行後、CPU140は、ステップS320によって取得した距離画像内からマーカーMKを検出し(ステップS350)、マーカーの奥行き情報を取得する(ステップS360)。なお、マーカーMKに替えて、対象物の形状パターンを予め記憶しておき、距離画像におけるパターン認識によって対象物を認識するようにしてもよい。
その後、CPU140は、ステップS340によって取得したマーカーの二次元位置座標と、ステップS360によって取得したマーカーの奥行き情報とによって、対象物の現在の三次元位置を特定し(すなわち、マーカーの位置を対象物の位置とみなして三次元位置を特定し)、この三次元位置を、記憶部120に格納される三次元軌跡データに追記する。三次元軌跡データは、対象物の画像表示部20に対する相対位置についての現在までの履歴を示すもので、位置と、位置の時間変化率(すなわち速度)とを表す。上記の特定した現在の三次元位置を追記することで、三次元軌跡データは、最新の状態に更新される。
ステップS370の実行後、CPU140は、「リターン」に抜けて、対象物移動情報取得処理を一旦、終了する。なお、ステップS340からステップS370までの処理によれば、マーカー毎、すなわち対象物T1、T2毎に処理が繰り返し行われ、その結果、視界VR1に入った対象物T1、T2毎に三次元軌跡データが生成されることになる。こうして生成された対象物T1、T2毎の三次元軌跡データは、対象物移動情報として記憶部120に一旦格納される。
図8の対象物移動情報取得処理を終えると、次いで、CPU140は、移動物/静止物判定処理を行う(図5:ステップS400)。移動物/静止物判定処理は、対象物T1、T2が、現実空間で動きのある移動物か、現実空間で静止している静止物かを判定する処理である。
図11は、移動物/静止物判定処理の詳細を示すフローチャートである。移動物/静止物判定処理に処理が移行すると、CPU140は、まず、ステップS200によって取得された視界移動情報と、ステップS300によって取得された対象物移動情報とを比較して(ステップS410)、対象物T1、T2は、視界VR1の動きと同じだけ逆方向に動いているか否かを判定する(ステップS420)。
図12は、図4で例示した視界VR1における対象物T1、T2の動きを示す説明図である。図4で例示したように、使用者Uが頭を回して横を向く動作をした際には、図12に示すように、視界VR内で、静止物である対象物T2は、視界VR1の動き+Aと同一の移動量だけ逆方向に移動する(すなわち、−Aだけ移動する)。このために、対象物T2は、図11のステップS420で肯定判定される。ステップS420で肯定判定されたときには、対象物を「静止物」であると判定する(ステップS430)。なお、静止物は、画像表示部20の動きによってのみ画像表示部20に対して相対的に移動する対象物と言うことができる。また、図4では、使用者Uが横を向く動作を行うことで視界VRが移動する場合を説明したが、これに換えて、使用者Uが歩行等によって移動することで視界VRが移動する場合もある。この場合にも、静止物である対象物T2は、視界VR1の動き+Aと同一の移動量だけ逆方向に移動し、ステップS420では肯定判定される。
一方、図12に示すように、視界VR1において、対象物T1は、−Aとは異なる移動、例えばBだけ移動する。これは、対象物T1が、画像表示部20の動きによらず画像表示部20に対して相対的に移動する「移動物」であるためである。このために、移動物である対象物T1は、図11のステップS420で否定判定される。ステップS420で否定判定されたときには、対象物を「移動物」であると判定する(ステップS440)。
ステップS420の判定処理は、視界移動情報と対象物移動情報とが実質的に整合するか否かを判定する処理といえる。「実質的に整合する」とは、視界移動情報によって表される画像表示部20の動きと、対象物移動情報によって表される対象物T1、T2の画像表示部20に対する相対的な動きとが、逆方向、かつ、大きさの差が閾値以内であることをいう。「逆方向」とは、画像表示部20で規定される表示面またはそれと平行な仮想的な平面に写像された2つの動きベクトルの間の角度が180°を中心に所定範囲内(たとえば誤差範囲内)にあることをいう。視界移動情報と対象物移動情報とが実質的に整合すれば、視界移動情報によって表される画像表示部20の動きと、対象移動情報によって表される対象物の動きとが、実質的に一致する。ステップS430またはS440の実行後、CPU140は、「リターン」に抜けて、移動物/静止物判定処理を一旦、終了する。
図11の移動物/静止物判定処理を終えると、次いで、CPU140は、移動物/静止物判定処理の判定結果が「移動物」、「静止物」のいずれであるかを判別し(図5:ステップS500)、「移動物」であると判別された場合には、移動物位置推定処理を実行する(ステップS600)。移動物位置推定処理は、現在からステップS100で設定した早送り時間だけ経過したときに、移動物がいずれの位置に移動したかを推定するものである。ここでいう「位置」は、移動物についての画像表示部20に対する相対位置である。
図13は、移動物位置推定処理の詳細を示すフローチャートである。移動物位置推定処理に処理が移行すると、CPU140は、まず、記憶部120から、移動物である対象物についての三次元軌跡データを読み込む(ステップS610)。三次元軌跡データは、図8のステップS370によって記憶部120に格納されたデータであり、これら三次元軌跡データの中から、移動物である対象物についての三次元軌跡データを読み込む。
次いで、CPU140は、ステップS610によって読み込んだ対象物(移動物)の三次元軌跡データに基づいて、早送り時間後の対象物の移動速度を推定する(ステップS620)。早送り時間は、図5のステップS100で設定した値である。上記の推定は、本実施形態ではカルマンフィルターを用いて行う。カルマンフィルターは、離散的な誤差のある観測から、時々刻々と時間変化する量(例えばある物体の位置と速度)を推定するもので、周知の技術である。なお、カルマンフィルターに替えて、ベイズ推定、ニューラルネットワーク等の他の推定理論によって移動速度を推定する構成としてもよい。
続いて、ステップS610によって算出された移動速度に早送り時間を掛けることによって、早送り時間後の対象物(移動物)の移動位置を算出する(ステップS630)。ステップS630の実行後、CPU140は、「リターン」に抜けて、移動物位置推定処理を一旦、終了する。
図14は、図13の移動物位置推定処理によって求められる移動位置の変化を概念的に示す説明図である。図中の(a)には、三次元軌跡データによって表される対象物の動きが示されており、矢印の先端P1が対象物の現在の位置である。図中の(b)には、ステップS630によって求められる早送り時間後の対象物の移動位置P2が示されている。早送り時間後において、破線に示すように、対象物は、現在の位置P1から位置P2に移動すると推定される。なお、ここでいう「動き」、「位置」とは、対象物の画像表示部20に対する相対的な「動き」、「位置」である。また、対象物の位置とは、厳密には、対象物におけるマーカーの貼付位置である。
図5のステップS500で、移動物/静止物判定処理の判定結果が「静止物」であると判別された場合には、静止物位置推定処理を実行する(ステップS700)。静止物位置推定処理は、現在からステップS100で設定した早送り時間だけ経過したときに、静止物がいずれの位置に移動したかを推定するものである。ここでいう「位置」は、静止物についての画像表示部20に対する相対位置である。
図15は、静止物位置推定処理の詳細を示すフローチャートである。静止物位置推定処理に処理が移行すると、CPU140は、まず、記憶部120から視界移動情報を読み込む(ステップS710)。視界移動情報は、図5のステップS200によって記憶部120に格納された視界VR1の動きを示す情報である。
次いで、CPU140は、ステップS710によって読み込んだ視界移動情報に基づいて、早送り時間後の視界VR1の移動速度を推定する(ステップS720)。早送り時間は、図5のステップS100で設定した値である。上記の推定は、図13のステップS620と同様に、カルマンフィルターを用いて行う。カルマンフィルターに替えて、ベイズ推定、ニューラルネットワーク等の他の推定理論によって移動速度を推定する構成としてもよい。
続いて、ステップS720によって算出された移動速度に時間を掛けることによって、早送り時間後の視界VR1の移動量を算出する(ステップS730)。その後、早送り時間後の対象物(静止物)の位置を、上記の移動量だけ現在の位置から逆方向に移動することによって算出する(ステップS740)。ステップS740の実行後、CPU140は、「リターン」に抜けて、静止物位置推定処理を一旦、終了する。
図16は、視界VR1における対象物T1、T2の推定位置を示す説明図である。図15の静止物位置推定処理によれば、静止物である対象物T2は、破線で示す現在の位置から、早送り時間後には、視界VR1の動き+Aと同一の移動量だけ逆方向に移動した、実線で示す位置に移ると推定される。一方、図13の移動物位置推定処理によれば、移動物である対象物T1は、破線で示す現在の位置から、現在までの対象物T2の画像表示部20に対する相対移動の履歴に基づいて推定された、実線で示す位置に移ると推定される。
図13の移動物位置推定処理、または図15の静止物位置推定処理が終了すると、次いで、CPU140は、拡張情報生成・表示処理を行う(図5:ステップS800)。拡張情報生成・表示処理は、移動物位置推定処理または静止物位置推定処理によって推定された対象物の位置(マーカーの位置)に対応づけて拡張情報を表示させる処理である。
図17は、拡張情報生成・表示処理の詳細を示すフローチャートである。拡張情報生成・表示処理に処理が移行すると、CPU140は、まず、ステップS330によって検出されたマーカーをマーカー識別番号に変換し、拡張情報データベースからマーカー識別番号に対応する拡張情報を取得する処理を行う(ステップS810)。拡張情報データベースは、記憶部120に予め格納されたものである。
図18は、拡張情報データベースDBのデータ構造の一例を示す説明図である。拡張情報データベースDBは、「マーカー識別番号」、「表示内容」、「表示属性」、「表示相対位置」の4つの項目C1、C2、C3、C4によって構成されるレコードを複数、備える。一のマーカー毎に一のレコードが対応している。「マーカー識別番号」の項目C1には、マーカーを識別するための1以上の整数が格納される。「表示内容」の項目C2には、表示する拡張情報の内容を示すテキストデータが格納される。「表示属性」の項目C3は、表示する拡張情報についての属性を格納するもので、「吹き出し色」の項目C31と、文字サイズの項目C32とを含む。「表示位置」の項目C4には、マーカーに対する拡張情報の相対的な表示位置が格納される。表示位置は、例えば、吹き出し画像の左下隅の座標と右上隅の座標とによって規定される。
ステップS810では、詳しくは、ステップS330によって検出されたマーカーの画像パターンをマーカー識別番号に変換し、このマーカー識別番号をキーとして、拡張情報データベースDBを検索する。「マーカー識別番号」の項目C1とキーが一致するレコードを選択し、そのレコードに含まれる「表示内容」、「表示属性」、「表示相対位置」の各項目C2、C3、C4のデータを、拡張情報として拡張情報データベースDBから読み出す。
次いで、CPU140は、ステップS810によって取得した「表示内容」と「表示属性」の各項目C2、C3のデータに基づいて、表示画像を生成する(ステップS820)。続いて、CPU140は、移動物位置推定処理または静止物位置推定処理によって推定された対象物の位置(マーカーの位置)と、「表示相対位置」の項目C4のデータとに基づいて、拡張情報の表示位置を決定する(ステップS830)。その後、CPU140は、その表示位置に、ステップS820によって生成された表示画像を表示する(ステップS840)。ステップS840の実行後、CPU140は、拡張情報生成・表示処理を終えて、拡張現実表示制御処理を終了する。
CPU140および拡張現実表示制御処理における図5のステップS200の処理によって、図2の視界移動情報取得部166が実現されている。図5のステップS300の処理によって、図2の対象物移動情報取得部168が実現されている。図5のステップS400、S500、S600およびS800の処理によって、図2の重畳画像表示制御部164が実現されている。
A−3.実施形態の効果について:
図19は、拡張現実表示制御処理によって表示される拡張情報AR1、AR2を示す説明図である。図中の実線で示した対象物T1、T2が、移動物位置推定処理および静止物位置推定処理によって推定された、早送り時間後の位置である。その対象物T1に貼り付けられたマーカーの位置に対応づけて第1の拡張情報AR1が表示され、対象物T2に貼り付けられたマーカーの位置に対応づけて第2の拡張情報AR2が表示される。
図19は、拡張現実表示制御処理によって表示される拡張情報AR1、AR2を示す説明図である。図中の実線で示した対象物T1、T2が、移動物位置推定処理および静止物位置推定処理によって推定された、早送り時間後の位置である。その対象物T1に貼り付けられたマーカーの位置に対応づけて第1の拡張情報AR1が表示され、対象物T2に貼り付けられたマーカーの位置に対応づけて第2の拡張情報AR2が表示される。
このために、本実施形態のHMD100によれば、透過して視認される外界の対象物が、現実空間で動きのある移動物である対象物T1と、現実空間で静止している静止物である対象物T2とのいずれの場合にも、拡張情報を表示するのに早送り時間に相当する遅れ時間を要したとしても、各対象物T1、T2に対して各拡張情報AR1、AR2は位置すれが起こることなく表示される。
図19に示すように、視界VR1が右向きに所定量、すなわち、+Aだけ移動した場合に、現在の対象物(図中のT1*)は+Aと同一の移動量だけ逆方向に相対移動する(すなわち、−Aだけ移動する)が、この視界VR1の移動の最中に、移動物である対象物T1は、−Aとは異なる位置に移動することがあり得る。すなわち、移動物である対象物T1は、画像表示部20の動きによらず画像表示部20に対して相対的に移動することがあり得る。この場合に、従来のヘッドマウントディスプレイによれば、上記視界VR1の移動後に、−Aだけ相対移動した対象物(図中のT1**)の位置に対応して拡張情報AR1**が表示されるように表示位置を切り替えていることから、視界VR1の移動後の対象物T1と拡張情報AR1**との間に大きな位置ずれが生じていた。これに対して、本実施形態のHMD100によれば、上述したように、対象物T1と拡張情報AR1との間に位置ずれが生じることがない。したがって、本実施形態のHMD100によれば、拡張情報を表示するのに遅れ時間を要したとしても、移動物、静止物のいずれの場合にも、拡張情報を位置ずれを起こすこと表示することができるという効果を奏する。
また、第1実施形態のHMD100によれば、対象物が移動物であるか静止物であるかの判定を、対象物の画像表示部20に対する相対移動の履歴を示す対象物移動情報(三次元軌跡データ)と、画像表示部20の動きの履歴を示す視界移動情報とに基づいて行っている。このために、移動物、静止物を判定を新たなセンサーを設けることなく、容易に構成することができる。
B.変形例:
なお、この発明は前記第1実施形態およびその変形例に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば、次のような変形も可能である。
なお、この発明は前記第1実施形態およびその変形例に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば、次のような変形も可能である。
B−1.変形例1:
第1実施形態およびその変形例では、画像表示部20に設けたカメラ61およびデプスセンサー62によって、対象物の画像表示部20に対する相対移動を検出する構成としていたが、これに換えて、加速度および角速度、あるいは加速度を検出するモーションセンサーを対象物に設け、モーションセンサーの検出信号を無線通信にてHMDが受信する構成としてもよい。この変形例によれば、移動物である対象物の画像表示部20に対する相対移動を、より高精度に検出することが可能となる。
第1実施形態およびその変形例では、画像表示部20に設けたカメラ61およびデプスセンサー62によって、対象物の画像表示部20に対する相対移動を検出する構成としていたが、これに換えて、加速度および角速度、あるいは加速度を検出するモーションセンサーを対象物に設け、モーションセンサーの検出信号を無線通信にてHMDが受信する構成としてもよい。この変形例によれば、移動物である対象物の画像表示部20に対する相対移動を、より高精度に検出することが可能となる。
B−2.変形例2:
第1実施形態およびその変形例では、画像表示部20に設けたカメラ61およびデプスセンサー62によって、対象物の画像表示部20に対する相対移動を検出する構成としていたが、これに換えて、iBeacon(登録商標)のBLE(Bluetooth Low Energy)端末や、Wi−Fi(登録商標)端末、GPS端末などの各種端末のうちの一または複数を対象物に設け、これらの端末からの信号をHMDが受信する構成としてもよい。これらの技術によれば、各種端末に対するHMDの相対位置を検出することが可能となる。したがって、移動物である対象物の画像表示部20に対する相対移動を高精度に検出することが可能となる。
第1実施形態およびその変形例では、画像表示部20に設けたカメラ61およびデプスセンサー62によって、対象物の画像表示部20に対する相対移動を検出する構成としていたが、これに換えて、iBeacon(登録商標)のBLE(Bluetooth Low Energy)端末や、Wi−Fi(登録商標)端末、GPS端末などの各種端末のうちの一または複数を対象物に設け、これらの端末からの信号をHMDが受信する構成としてもよい。これらの技術によれば、各種端末に対するHMDの相対位置を検出することが可能となる。したがって、移動物である対象物の画像表示部20に対する相対移動を高精度に検出することが可能となる。
B−3.変形例3:
第1実施形態において、ステップS200によって取得した視界移動情報を、無線通信部132を介して、他の頭部装着型表示装置に送信する構成としてもよい。この変形例3によれば、簡易な構成によって、他の頭部装着型表示装置との間で、互いの表示部の動きをやり取りすることができる。
第1実施形態において、ステップS200によって取得した視界移動情報を、無線通信部132を介して、他の頭部装着型表示装置に送信する構成としてもよい。この変形例3によれば、簡易な構成によって、他の頭部装着型表示装置との間で、互いの表示部の動きをやり取りすることができる。
B−4.変形例4:
第1実施形態では、拡張情報として、文字が記載された吹き出しの図形としたが、これはあくまでも一例であり、種々の態様に換えることができる。文字、図形、画像、動画、これらの組合せ等とすることができる。また、画像は3D画像としてもよい。3D画像は、対応づける対象物の距離情報に基づいて、奥行きや大きさなどを変更するようにすることができる。
第1実施形態では、拡張情報として、文字が記載された吹き出しの図形としたが、これはあくまでも一例であり、種々の態様に換えることができる。文字、図形、画像、動画、これらの組合せ等とすることができる。また、画像は3D画像としてもよい。3D画像は、対応づける対象物の距離情報に基づいて、奥行きや大きさなどを変更するようにすることができる。
B−5.変形例5:
第1実施形態では、対象物が静止物である場合と移動物である場合とで、拡張情報の表示の態様(色、サイズ、強調表示/非強調表示の切り換え、点滅の有無等)が同一である構成としたが、これに換えて、拡張情報の表示の態様を切り替えるようにしてもよい。例えば、図19において、静止物である対象物T2に対して貼り付けられた第2の拡張情報AR2は通常表示として、移動物である対象物T1に対して貼り付けられた第1の拡張情報AR1は点滅表示としてもよい。この構成によれば、移動中の対象物を容易に視認することができる。
第1実施形態では、対象物が静止物である場合と移動物である場合とで、拡張情報の表示の態様(色、サイズ、強調表示/非強調表示の切り換え、点滅の有無等)が同一である構成としたが、これに換えて、拡張情報の表示の態様を切り替えるようにしてもよい。例えば、図19において、静止物である対象物T2に対して貼り付けられた第2の拡張情報AR2は通常表示として、移動物である対象物T1に対して貼り付けられた第1の拡張情報AR1は点滅表示としてもよい。この構成によれば、移動中の対象物を容易に視認することができる。
B−6.変形例6:
第1実施形態では、対象物の位置を推定する将来の時点を、早送り時間後として、その早送り時間を一定時間としたが、これに換えて、早送り時間を可変して適切な時間に調整するように構成してもよい。詳しくは、ステップS310によってカメラからRGB画像を取得する際に、RGB画像にタイムスタンプ情報を付加するようにして、その取り込んだRGB画像の少なくとも一部をタイムスタンプ情報とともに画像表示部20に表示させるようにする。その表示された画面の画像を取り込んで、その画面に記されたタイムスタンプ情報を、現在のタイムスタンプ情報から減算して遅れ時間を計算する。この遅れ時間を早送り時間として設定するようにする。こうした処理を、例えばHMDをオンしたとき毎に行うようにして、早送り時間を適切な時間に調整するようにする。この変形例によれば、画像表示の遅れ時間の間に発生する、対象物と拡張情報との間の位置ずれを、より確実に解消することができる。
第1実施形態では、対象物の位置を推定する将来の時点を、早送り時間後として、その早送り時間を一定時間としたが、これに換えて、早送り時間を可変して適切な時間に調整するように構成してもよい。詳しくは、ステップS310によってカメラからRGB画像を取得する際に、RGB画像にタイムスタンプ情報を付加するようにして、その取り込んだRGB画像の少なくとも一部をタイムスタンプ情報とともに画像表示部20に表示させるようにする。その表示された画面の画像を取り込んで、その画面に記されたタイムスタンプ情報を、現在のタイムスタンプ情報から減算して遅れ時間を計算する。この遅れ時間を早送り時間として設定するようにする。こうした処理を、例えばHMDをオンしたとき毎に行うようにして、早送り時間を適切な時間に調整するようにする。この変形例によれば、画像表示の遅れ時間の間に発生する、対象物と拡張情報との間の位置ずれを、より確実に解消することができる。
B−7.その他の変形例:
上記実施形態では、ヘッドマウントディスプレイの構成について例示した。しかし、ヘッドマウントディスプレイの構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、各構成部の追加・削除・変換等を行うことができる。
上記実施形態では、ヘッドマウントディスプレイの構成について例示した。しかし、ヘッドマウントディスプレイの構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、各構成部の追加・削除・変換等を行うことができる。
上記実施形態における、制御部と、画像表示部とに対する構成要素の割り振りは、あくまで一例であり、種々の態様を採用可能である。例えば、以下のような態様としてもよい。(i)制御部にCPUやメモリー等の処理機能を搭載、画像表示部には表示機能のみを搭載する態様、(ii)制御部と画像表示部との両方にCPUやメモリー等の処理機能を搭載する態様、(iii)制御部と画像表示部とを一体化した態様(例えば、画像表示部に制御部が含まれ眼鏡型のウェアラブルコンピューターとして機能する態様)、(iv)制御部の代わりにスマートフォンや携帯型ゲーム機を使用する態様、(v)制御部と画像表示部とを無線通信かつワイヤレス給電可能な構成とすることにより接続部(コード)を廃した態様。
上記実施形態では、説明の便宜上、制御部が送信部を備え、画像表示部が受信部を備えるものとした。しかし、上記実施形態の送信部および受信部は、いずれも、双方向通信が可能な機能を備えており、送受信部として機能することができる。また、例えば、図2に示した制御部は、有線の信号伝送路を介して画像表示部と接続されているものとした。しかし、制御部と、画像表示部とは、無線LANや赤外線通信やBluetooth(登録商標)等の無線の信号伝送路を介した接続により接続されていてもよい。
例えば、上記実施形態で示した制御部、画像表示部の構成は任意に変更することができる。具体的には、例えば、制御部からタッチパッドを省略し、十字キーのみで操作する構成としてもよい。また、制御部に操作用スティック等の他の操作用インターフェイスを備えてもよい。また、制御部にはキーボードやマウス等のデバイスを接続可能な構成として、キーボードやマウスから入力を受け付けるものとしてもよい。また、例えば、タッチパッドや十字キーによる操作入力のほか、フットスイッチ(使用者の足により操作するスイッチ)による操作入力を取得してもよい。例えば、画像表示部に赤外線センサー等の視線検知部を設けた上で、使用者の視線を検知し、視線の動きに対応付けられたコマンドによる操作入力を取得してもよい。例えば、カメラを用いて使用者のジェスチャーを検知し、ジェスチャーに対応付けられたコマンドによる操作入力を取得してもよい。ジェスチャー検知の際は、使用者の指先や、使用者の手に付けられた指輪や、使用者の手にする医療器具等を動き検出のための目印にすることができる。フットスイッチや視線による操作入力を取得可能とすれば、使用者が手を離すことが困難である作業においても、入力情報取得部は、使用者からの操作入力を取得することができる。
図20は、変形例におけるHMDの外観の構成を示す説明図である。図20(A)の例の場合、画像表示部20xは、右光学像表示部26に代えて右光学像表示部26xを備え、左光学像表示部28に代えて左光学像表示部28xを備えている。右光学像表示部26xと左光学像表示部28xとは、上記実施形態の光学部材よりも小さく形成され、HMDの装着時における使用者の右眼および左眼の斜め上にそれぞれ配置されている。図20(B)の例の場合、画像表示部20yは、右光学像表示部26に代えて右光学像表示部26yを備え、左光学像表示部28に代えて左光学像表示部28yを備えている。右光学像表示部26yと左光学像表示部28yとは、上記実施形態の光学部材よりも小さく形成され、HMDの装着時における使用者の右眼および左眼の斜め下にそれぞれ配置されている。このように、光学像表示部は使用者の眼の近傍に配置されていれば足りる。また、光学像表示部を形成する光学部材の大きさも任意であり、光学像表示部が使用者の眼の一部分のみを覆う態様、換言すれば、光学像表示部が使用者の眼を完全に覆わない態様のHMDとして実現することもできる。
例えば、ヘッドマウントディスプレイは、両眼タイプの透過型ヘッドマウントディスプレイであるものとしたが、単眼タイプのヘッドマウントディスプレイとしてもよい。また、使用者がヘッドマウントディスプレイを装着した状態において外景の透過が遮断される非透過型ヘッドマウントディスプレイとして構成してもよい。
例えば、画像処理部、表示制御部、音声処理部等の機能部は、CPUがROMやハードディスクに格納されているコンピュータープログラムをRAMに展開して実行することにより実現されるものとして記載した。しかし、これら機能部は、当該機能を実現するために設計されたASIC(Application Specific Integrated Circuit:特定用途向け集積回路)を用いて構成されてもよい。
例えば、上記実施形態では、画像表示部を眼鏡のように装着するヘッドマウントディスプレイであるとしているが、画像表示部が通常の平面型ディスプレイ装置(液晶ディスプレイ装置、プラズマディスプレイ装置、有機ELディスプレイ装置等)であるとしてもよい。この場合にも、制御部と画像表示部との間の接続は、有線の信号伝送路を介した接続であってもよいし、無線の信号伝送路を介した接続であってもよい。このようにすれば、制御部を、通常の平面型ディスプレイ装置のリモコンとして利用することもできる。
また、画像表示部として、眼鏡のように装着する画像表示部に代えて、例えば帽子のように装着する画像表示部といった他の形状の画像表示部を採用してもよい。また、イヤホンは耳掛け型やヘッドバンド型を採用してもよく、省略してもよい。また、例えば、自動車や飛行機等の車両に搭載されるヘッドアップディスプレイ(HUD、Head-Up Display)として構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。
例えば、上記実施形態では、表示駆動部は、バックライトと、バックライト制御部と、LCDと、LCD制御部と、投写光学系を用いて構成されるものとした。しかし、上記の態様はあくまで例示である。表示駆動部は、これらの構成部と共に、またはこれらの構成部に代えて、他の方式を実現するための構成部を備えていてもよい。例えば、表示駆動部は、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部と、投写光学系とを備える構成としてもよい。例えば、表示駆動部は、LCDに代えてDMD(デジタル・マイクロミラー・デバイス)等を用いることもできる。例えば、表示駆動部は、RGBの各色光を発生させるための色光源とリレーレンズを含む信号光変調部と、MEMSミラーを含む走査光学系と、これらを駆動する駆動制御回路と、を含むように構成されてもよい。このように、有機ELやDMDやMEMSミラーを用いても、「表示駆動部における射出領域」とは、表示駆動部から画像光が実際に射出される領域であることに変わりはなく、各デバイス(表示駆動部)における射出領域を上記実施形態と同様に制御することによって、上記実施形態と同様の効果を得ることができる。また、例えば、表示駆動部は、画素信号に応じた強度のレーザーを、使用者の網膜へ出射する1つ以上のレーザーを含むように構成されてもよい。この場合、「表示駆動部における射出領域」とは、表示駆動部から画像を表すレーザー光が実際に射出される領域を表す。レーザー(表示駆動部)におけるレーザー光の射出領域を上記実施形態と同様に制御することによって、上記実施形態と同様の効果を得ることができる。
本発明は、上述の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
10…制御部(コントローラー)
12…点灯部
14…タッチパッド
16…十字キー
18…電源スイッチ
20…画像表示部
21…右保持部
22…右表示駆動部
23…左保持部
24…左表示駆動部
26…右光学像表示部
28…左光学像表示部
30…イヤホンプラグ
32…右イヤホン
34…左イヤホン
40…接続部
42…右コード
44…左コード
46…連結部材
48…本体コード
51…送信部
52…送信部
53…受信部
54…受信部
61…カメラ
62…デプスセンサー
110…入力情報取得部
100…頭部装着型表示装置(HMD)
120…記憶部
130…電源
132…無線通信部
140…CPU
160…画像処理部
162…表示制御部
164…重畳画像表示制御部
166…視界移動情報取得部
168…対象物移動情報取得部
170…音声処理部
180…インターフェイス
201…右バックライト制御部
202…左バックライト制御部
211…右LCD制御部
212…左LCD制御部
221…右バックライト
222…左バックライト
241…右LCD
242…左LCD
251…右投写光学系
252…左投写光学系
261…右導光板
262…左導光板
T1,T2…対象物
MK…マーカー
SC1…外界
AR1,AR2…拡張情報
12…点灯部
14…タッチパッド
16…十字キー
18…電源スイッチ
20…画像表示部
21…右保持部
22…右表示駆動部
23…左保持部
24…左表示駆動部
26…右光学像表示部
28…左光学像表示部
30…イヤホンプラグ
32…右イヤホン
34…左イヤホン
40…接続部
42…右コード
44…左コード
46…連結部材
48…本体コード
51…送信部
52…送信部
53…受信部
54…受信部
61…カメラ
62…デプスセンサー
110…入力情報取得部
100…頭部装着型表示装置(HMD)
120…記憶部
130…電源
132…無線通信部
140…CPU
160…画像処理部
162…表示制御部
164…重畳画像表示制御部
166…視界移動情報取得部
168…対象物移動情報取得部
170…音声処理部
180…インターフェイス
201…右バックライト制御部
202…左バックライト制御部
211…右LCD制御部
212…左LCD制御部
221…右バックライト
222…左バックライト
241…右LCD
242…左LCD
251…右投写光学系
252…左投写光学系
261…右導光板
262…左導光板
T1,T2…対象物
MK…マーカー
SC1…外界
AR1,AR2…拡張情報
Claims (12)
- 外界を透過視認可能な表示部を備えた頭部装着型表示装置であって、
前記表示部に、透過して視認される外界の対象物の位置に対応づけて所定の画像を表示させる重畳画像表示制御部と、
前記表示部の動きを表す視界移動情報を取得する視界移動情報取得部と、
前記対象物の前記表示部に対する相対的な動きを表す対象物移動情報を取得する対象物移動情報取得部と、
を備え、
前記重畳画像表示制御部は、
前記取得された視界移動情報と前記取得された対象物移動情報とが実質的に整合しない場合に、少なくとも前記対象物移動情報に基づいて、所定時間後の前記対象物の前記表示部に対する相対位置を推定し、前記所定の画像の表示位置を、前記推定した相対位置に基づいて定める、頭部装着型表示装置。 - 請求項1に記載の頭部装着型表示装置であって、
前記所定の画像は、前記対象物に付与する拡張現実としての拡張情報である、頭部装着型表示装置。 - 請求項1または請求項2に記載の頭部装着型表示装置であって、
前記重畳画像表示制御部は、
前記取得された視界移動情報と前記取得された対象物移動情報とが実質的に整合する場合に、前記視界移動情報に基づいて、所定時間後の前記対象物の前記表示部に対する相対位置を推定し、前記所定の画像の表示位置を、前記推定した相対位置に基づいて定める、頭部装着型表示装置。 - 請求項1から請求項3までのいずれか一項に記載の頭部装着型表示装置であって、
前記視界移動情報取得部は、
前記表示部に設けられたモーションセンサーを有する、頭部装着型表示装置。 - 請求項1から請求項4までのいずれか一項に記載の頭部装着型表示装置であって、
前記対象物移動情報取得部は、
前記表示部に設けられたRGBセンサーおよびデプスセンサーを有する、頭部装着型表示装置。 - 請求項1から請求項4までのいずれか一項に記載の頭部装着型表示装置であって、
前記対象物移動情報取得部は、
前記対象物に予め配設されたモーションセンサーの検出信号を無線通信にて受信する、頭部装着型表示装置。 - 請求項1から請求項4までのいずれか一項に記載の頭部装着型表示装置であって、
前記対象物移動情報取得部は、
前記対象物に予め配設された無線通信端末からの信号を受信する、頭部装着型表示装置。 - 請求項1に記載の頭部装着型表示装置であって、
前記所定時間を可変する調整部を備える、頭部装着型表示装置。 - 請求項1から請求項8までのいずれか一項に記載の頭部装着型表示装置であって、
前記視界移動情報を、他の頭部装着型表示装置に対して送信する情報提供部を備える、頭部装着型表示装置。 - 頭部装着型表示装置であって、
外界を透過視認可能な表示部と、
前記外界の対象物が、前記表示部の動きによらず前記表示部に対して相対的に移動する移動物と、前記表示部の動きによってのみ前記表示部に対して相対的に移動する静止物とのいずれの場合であっても、所定時間後の前記対象物の前記表示部に対する相対位置に対応づけて所定の画像を、前記表示部に表示させる重畳画像表示制御部と、
を備える頭部装着型表示装置。 - 外界を透過視認可能な表示部を備えた頭部装着型表示装置の制御方法であって、
前記表示部に、透過して視認される外界の対象物の位置に対応づけて所定の画像を表示させる工程と、
前記表示部の動きを表す視界移動情報を取得する工程と、
前記対象物の前記表示部に対する相対的な動きを表す対象物移動情報を取得する工程と、
を備え、
前記所定の画像を表示させる工程は、
前記取得された視界移動情報と前記取得された対象物移動情報とが実質的に整合しない場合に、少なくとも前記対象物移動情報に基づいて、所定時間後の前記対象物の前記表示部に対する相対位置を推定し、前記所定の画像の表示位置を、前記推定した相対位置に基づいて定める、頭部装着型表示装置の制御方法。 - 外界を透過視認可能な表示部を備えた頭部装着型表示装置を制御するためのコンピュータープログラムであって、
前記表示部に、透過して視認される外界の対象物の位置に対応づけて所定の画像を表示させる機能と、
前記表示部の動きを表す視界移動情報を取得する機能と、
前記対象物の前記表示部に対する相対的な動きを表す対象物移動情報を取得する機能と、
をコンピューターに実現させ、
前記所定の画像を表示させる機能は、
前記取得された視界移動情報と前記取得された対象物移動情報とが実質的に整合しない場合に、少なくとも前記対象物移動情報に基づいて、所定時間後の前記対象物の前記表示部に対する相対位置を推定し、前記所定の画像の表示位置を、前記推定した相対位置に基づいて定める、コンピュータープログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014213442A JP2016082462A (ja) | 2014-10-20 | 2014-10-20 | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム |
EP15852666.5A EP3211602B1 (en) | 2014-10-20 | 2015-10-15 | Head-mounted type display device and method for controlling same, and computer program |
US15/519,920 US10529133B2 (en) | 2014-10-20 | 2015-10-15 | Head mounted display apparatus and control method therefor, and computer program |
PCT/JP2015/005216 WO2016063504A1 (ja) | 2014-10-20 | 2015-10-15 | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014213442A JP2016082462A (ja) | 2014-10-20 | 2014-10-20 | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016082462A true JP2016082462A (ja) | 2016-05-16 |
Family
ID=55760564
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014213442A Pending JP2016082462A (ja) | 2014-10-20 | 2014-10-20 | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10529133B2 (ja) |
EP (1) | EP3211602B1 (ja) |
JP (1) | JP2016082462A (ja) |
WO (1) | WO2016063504A1 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018141943A (ja) * | 2017-02-28 | 2018-09-13 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
WO2019142446A1 (ja) * | 2018-01-18 | 2019-07-25 | 株式会社日立製作所 | 作業端末、漏油検出装置、及び、漏油検出方法 |
JP2019124678A (ja) * | 2018-01-18 | 2019-07-25 | 株式会社日立製作所 | 作業端末、漏油検出装置、及び、漏油検出方法 |
JP2020517032A (ja) * | 2017-04-17 | 2020-06-11 | エイトアイ リミテッド | ホログラム位置 |
KR20200100160A (ko) * | 2017-12-29 | 2020-08-25 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 대상물 모션 예측 방법, 모션 모델 보정 방법, 기정 양 도출 방법 및 가상 현실 뷰 생성 방법 |
JP2021051180A (ja) * | 2019-09-25 | 2021-04-01 | 株式会社Jvcケンウッド | 表示装置、表示システム、表示調整方法及び表示調整プログラム |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10867445B1 (en) * | 2016-11-16 | 2020-12-15 | Amazon Technologies, Inc. | Content segmentation and navigation |
US10466774B2 (en) | 2016-11-22 | 2019-11-05 | Honeywell International Inc. | NTE display systems and methods with optical trackers |
US10726814B2 (en) * | 2017-01-27 | 2020-07-28 | Canon Kabushiki Kaisha | Image display apparatus, image processing apparatus, image display method, image processing method, and storage medium |
WO2018156809A1 (en) * | 2017-02-24 | 2018-08-30 | Masimo Corporation | Augmented reality system for displaying patient data |
EP3585254B1 (en) | 2017-02-24 | 2024-03-20 | Masimo Corporation | Medical device cable and method of sharing data between connected medical devices |
US20180275837A1 (en) * | 2017-03-23 | 2018-09-27 | RideOn Ltd. | Graphical user interface (gui) controls |
JP7058946B2 (ja) * | 2017-04-28 | 2022-04-25 | キヤノン株式会社 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
US10932705B2 (en) | 2017-05-08 | 2021-03-02 | Masimo Corporation | System for displaying and controlling medical monitoring data |
KR20190118040A (ko) * | 2018-04-09 | 2019-10-17 | 삼성전자주식회사 | 웨어러블 디스플레이 장치 및 그의 입체 영상 표시 방법 |
JP7121523B2 (ja) * | 2018-04-10 | 2022-08-18 | キヤノン株式会社 | 画像表示装置、画像表示方法 |
US11966054B2 (en) * | 2018-05-15 | 2024-04-23 | Sony Corporation | Display device |
JP6506454B1 (ja) * | 2018-06-14 | 2019-04-24 | 株式会社バーチャルキャスト | データ差し替え装置、端末、およびデータ差し替えプログラム |
JP7262973B2 (ja) * | 2018-10-31 | 2023-04-24 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
EP3690609B1 (en) | 2019-01-30 | 2021-09-22 | DENTSPLY SIRONA Inc. | Method and system for controlling dental machines |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4734640B2 (ja) * | 2006-02-10 | 2011-07-27 | 国立大学法人岐阜大学 | 仮想現実画像表示装置 |
US8260036B2 (en) * | 2007-05-09 | 2012-09-04 | Honeywell International Inc. | Object detection using cooperative sensors and video triangulation |
JP5091976B2 (ja) * | 2010-04-09 | 2012-12-05 | 株式会社東芝 | 映像表示装置、映像表示方法及び映像表示プログラム |
US9262950B2 (en) | 2011-04-20 | 2016-02-16 | Microsoft Technology Licensing, Llc | Augmented reality extrapolation techniques |
US20130177296A1 (en) * | 2011-11-15 | 2013-07-11 | Kevin A. Geisner | Generating metadata for user experiences |
US9024844B2 (en) * | 2012-01-25 | 2015-05-05 | Microsoft Technology Licensing, Llc | Recognition of image on external display |
US9691241B1 (en) * | 2012-03-14 | 2017-06-27 | Google Inc. | Orientation of video based on the orientation of a display |
JP6066037B2 (ja) * | 2012-03-27 | 2017-01-25 | セイコーエプソン株式会社 | 頭部装着型表示装置 |
CN104145292A (zh) * | 2012-07-13 | 2014-11-12 | 三星电子株式会社 | 用于基于内容名称提供内容和实时流传输内容的内容请求器和内容提供器的通信方法 |
US9619021B2 (en) * | 2013-01-09 | 2017-04-11 | Lg Electronics Inc. | Head mounted display providing eye gaze calibration and control method thereof |
JP6355978B2 (ja) * | 2014-06-09 | 2018-07-11 | 株式会社バンダイナムコエンターテインメント | プログラムおよび画像生成装置 |
US9489739B2 (en) * | 2014-08-13 | 2016-11-08 | Empire Technology Development Llc | Scene analysis for improved eye tracking |
-
2014
- 2014-10-20 JP JP2014213442A patent/JP2016082462A/ja active Pending
-
2015
- 2015-10-15 EP EP15852666.5A patent/EP3211602B1/en active Active
- 2015-10-15 WO PCT/JP2015/005216 patent/WO2016063504A1/ja active Application Filing
- 2015-10-15 US US15/519,920 patent/US10529133B2/en active Active
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018141943A (ja) * | 2017-02-28 | 2018-09-13 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2020517032A (ja) * | 2017-04-17 | 2020-06-11 | エイトアイ リミテッド | ホログラム位置 |
KR20200100160A (ko) * | 2017-12-29 | 2020-08-25 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 대상물 모션 예측 방법, 모션 모델 보정 방법, 기정 양 도출 방법 및 가상 현실 뷰 생성 방법 |
JP2021508886A (ja) * | 2017-12-29 | 2021-03-11 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | オブジェクトの動きを予測する方法、運動モデルを調整する方法、所定量を導出する方法、及び仮想現実ビューを生成する方法 |
JP7162063B2 (ja) | 2017-12-29 | 2022-10-27 | フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | オブジェクトの動きを予測する方法、運動モデルを調整する方法、所定量を導出する方法、及び仮想現実ビューを生成する方法 |
KR102509678B1 (ko) * | 2017-12-29 | 2023-03-14 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 대상물 모션 예측 방법, 모션 모델 보정 방법, 기정 양 도출 방법 및 가상 현실 뷰 생성 방법 |
WO2019142446A1 (ja) * | 2018-01-18 | 2019-07-25 | 株式会社日立製作所 | 作業端末、漏油検出装置、及び、漏油検出方法 |
JP2019124678A (ja) * | 2018-01-18 | 2019-07-25 | 株式会社日立製作所 | 作業端末、漏油検出装置、及び、漏油検出方法 |
US11494888B2 (en) | 2018-01-18 | 2022-11-08 | Hitachi, Ltd. | Work terminal, oil leakage detection apparatus, and oil leakage detection method |
JP2021051180A (ja) * | 2019-09-25 | 2021-04-01 | 株式会社Jvcケンウッド | 表示装置、表示システム、表示調整方法及び表示調整プログラム |
JP7338358B2 (ja) | 2019-09-25 | 2023-09-05 | 株式会社Jvcケンウッド | 表示装置、表示システム、表示調整方法及び表示調整プログラム |
Also Published As
Publication number | Publication date |
---|---|
US10529133B2 (en) | 2020-01-07 |
WO2016063504A1 (ja) | 2016-04-28 |
EP3211602B1 (en) | 2020-11-18 |
EP3211602A1 (en) | 2017-08-30 |
US20170323479A1 (en) | 2017-11-09 |
EP3211602A4 (en) | 2018-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2016063504A1 (ja) | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム | |
US10297062B2 (en) | Head-mounted display device, control method for head-mounted display device, and computer program | |
US11054650B2 (en) | Head-mounted display device, control method of head-mounted display device, and display system | |
JP6337418B2 (ja) | 頭部装着型表示装置および頭部装着型表示装置の制御方法 | |
US10627620B2 (en) | Head-mounted display device, method of controlling head-mounted display device, and computer program | |
JP6232763B2 (ja) | 頭部装着型表示装置および頭部装着型表示装置の制御方法 | |
JP6476643B2 (ja) | 頭部装着型表示装置、情報システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム | |
US20160133051A1 (en) | Display device, method of controlling the same, and program | |
JP6369005B2 (ja) | 頭部装着型表示装置および頭部装着型表示装置の制御方法 | |
JP6645096B2 (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、およびコンピュータープログラム | |
US10114604B2 (en) | Head-mounted display device, control method for head-mounted display device, and computer program | |
JP6492673B2 (ja) | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム | |
JP2016142887A (ja) | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム | |
JP2016004340A (ja) | 情報配信システム、頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム | |
US10198367B2 (en) | Information processing device and method for controlling input/output devices via designated functions | |
JP2016024208A (ja) | 表示装置、表示装置の制御方法、および、プログラム | |
JP2016091348A (ja) | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム | |
JP6394108B2 (ja) | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム | |
JP2016109710A (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム | |
JP6451222B2 (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム | |
JP6683218B2 (ja) | 頭部装着型表示装置および頭部装着型表示装置の制御方法 | |
JP6287399B2 (ja) | 頭部装着型表示装置および頭部装着型表示装置の制御方法 | |
JP6394174B2 (ja) | 頭部装着型表示装置、画像表示システム、頭部装着型表示装置を制御する方法、および、コンピュータープログラム |