JP6287849B2 - ヘッドマウントディスプレイ、画像表示装置及び画像表示方法 - Google Patents

ヘッドマウントディスプレイ、画像表示装置及び画像表示方法 Download PDF

Info

Publication number
JP6287849B2
JP6287849B2 JP2014544282A JP2014544282A JP6287849B2 JP 6287849 B2 JP6287849 B2 JP 6287849B2 JP 2014544282 A JP2014544282 A JP 2014544282A JP 2014544282 A JP2014544282 A JP 2014544282A JP 6287849 B2 JP6287849 B2 JP 6287849B2
Authority
JP
Japan
Prior art keywords
display
image
unit
control unit
field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014544282A
Other languages
English (en)
Other versions
JPWO2014128810A1 (ja
Inventor
博隆 石川
博隆 石川
岩津 健
健 岩津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2014128810A1 publication Critical patent/JPWO2014128810A1/ja
Application granted granted Critical
Publication of JP6287849B2 publication Critical patent/JP6287849B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B2027/0192Supplementary details
    • G02B2027/0198System for aligning or maintaining alignment of an image in a predetermined direction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0492Change of orientation of the displayed image, e.g. upside-down, mirrored
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • G09G2340/145Solving problems related to the presentation of information to be displayed related to small screens
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/12Use of DVI or HDMI protocol in interfaces along the display data pipeline

Description

本技術は、表示視野に特定の情報を含む画像を表示することが可能なヘッドマウントディスプレイ及び画像表示装置に関する。
現実空間の画像に、現実空間に対応する画像を付加する、拡張現実(AR:Augmented Reality)と呼ばれる技術が知られている。例えば特許文献1には、観察者の属する実空間に任意の物体の三次元形状情報を表示することが可能な立体合成装置が記載されている。また特許文献2には、ユーザが視認している外界に存在する対象物に関するオブジェクトを表示することが可能なヘッドマウントディスプレイが記載されている。
特開2000−184398号公報 特開2012−53643号公報
近年、シースルー型ヘッドマウントディスプレイにおいては、例えば、シースルー領域を確保しつつ、情報表示領域を制限したい場合がある。この場合、オブジェクトがディスプレイの視界に入りにくくなる、あるいは、オブジェクトが視界に入った状態を保つことが困難となるおそれがある。
以上のような事情に鑑み、本技術の目的は、オブジェクトの検索性あるいは視認性を向上させることができるヘッドマウントディスプレイ及び画像表示装置を提供することにある。
上記目的を達成するため、本技術の一形態に係るヘッドマウントディスプレイは、表示部と、検出部と、第1の制御ユニットとを具備する。
上記表示部は、ユーザの頭部に装着可能であり、ユーザに実空間の視野を提供可能に構成される。
上記検出部は、上記表示部の少なくとも一軸周りの方位を検出する。
上記第1の制御ユニットは、領域制限部と、記憶部と、表示制御部とを有する。上記領域制限部は、上記表示部を包囲する3次元座標における上記視野の上記一軸方向に沿った表示領域を制限することが可能に構成される。上記記憶部は、上記視野に表示すべき画像を上記3次元座標に対応付けて記憶する。上記表示制御部は、上記検出部の出力に基づいて上記方位に対応する上記3次元座標上の画像を上記視野に表示する。
上記ヘッドマウントディスプレイによれば、上記一軸周りの姿勢変化に応じて表示される画像がユーザの視野に入る確率が高まるため、画像の検索性を向上させることができる。また当該画像が視野に入った状態を容易に保つことができるため、画像の視認性をも向上させることができる。
ここで「表示部の方位」とは、典型的には、表示部の正面方向を意味する。ヘッドマウントディスプレイに関しては、表示部の正面方向は、ユーザの正面方向と定義することができる。したがって「表示部の方位」は、ユーザの顔の向きと同義に解釈され得る。
「表示部の一軸周りの方位」とは、当該一軸を中心とする表示部の方位を意味し、例えば当該一軸が鉛直軸の場合には、東西南北の水平方向が対応する。この場合、例えば北を基準方位としたとき、当該方位からの角度で表示部の方位を表すことができる。一方、上記一軸が水平軸の場合、当該一軸周りの表示部の方位は、水平面を基準とした仰角あるいは俯角で表すことができる。上記の例に限られず、上記一軸は、鉛直軸および水平軸と交差する他の軸であってもよい。
上記検出部は、上記表示部の鉛直軸周りの方位を検出し、上記領域制限部は、鉛直軸周りの円筒座標における高さ方向の領域を上記視野の縦方向の領域に応じて制限してもよい。これによりユーザの水平視野内における画像の検索性及び視認性を向上させることができる。
この場合、上記領域制限部は、上記記憶部に記憶された画像の少なくとも一部が上記視野に表示される高さに、上記円筒座標の高さ方向の領域を制限してもよい。これにより一定の方位に存在する当該画像を容易に認識することができる。
上記表示制御部は、上記方位が第1の所定角度以上変化したときは、上記方位の変化に応じて上記画像を上記視野内で移動させ、上記方位の変化が上記第1の所定角度未満のときは、上記視野における上記画像の表示位置を固定してもよい。これによりユーザの鉛直軸周りの不用意な姿勢変化に起因する画像の移動を規制して、画像の視認性を高めることができる。
上記検出部は、上記表示部の水平軸周りの姿勢変化をさらに検出するように構成されてもよい。この場合、上記表示制御部は、上記姿勢変化が第2の所定角度以上のときは、上記姿勢変化に応じて上記画像を上記視野内で移動させ、上記姿勢変化が上記第2の所定角度未満のときは、上記視野における上記画像の表示位置を固定する。これによりユーザの水平軸周りの不用意な姿勢変化に起因する画像の移動を規制して、画像の更なる視認性の向上を図ることができる。
上記表示制御部は、上記検出部の出力変化が所定時間にわたって所定以下のときは、上記画像を上記視野の所定位置に移動させてもよい。すなわち所定時間にわたって検出部の出力が変化しないときは視野に表示された画像をユーザが参照している蓋然性が高いため、その画像を視野の所定位置に移動させることで画像の視認性を高めるようにしている。上記所定位置は、例えば視野の中央部であってもよく、更に移動後の画像は拡大表示されてもよい。
上記に代えて、上記表示制御部は、ユーザの操作により生成される所定信号の入力を検出したときは、上記画像を上記視野の所定位置に移動させてもよい。この構成においても上述と同様に画像の視認性を高めることができるとともに、ユーザの意図に即して画像の表示を制御することが可能となる。
上記表示制御部は、上記視野の所定位置に上記画像が表示されている状態において、上記検出部の出力変化が所定周波数以上のときは、上記検出部の出力のうち上記所定周波数以上の周波数成分を無効としてもよい。上記所定周波数として、例えば、ユーザの顔ぶれに相当する周波数に設定することにより、ユーザの細かい顔ぶれの影響を受けることなく、画像の視認性を確保することができる。
一方、上記第1の制御ユニットは、ユーザの操作により生成される所定信号の入力を検出したときは、上記3次元座標における高さ方向の領域を上記視野の上記一軸方向の領域に合わせて制限し、上記視野に表示される画像をすべて上記視野において同一の高さに揃えるように構成されてもよい。これにより視野に表示された画像の視認性の更なる向上を図ることができる。
上記画像は、上記視野に存在する所定の対象物に関連する情報を含むものとすることができる。これにより上記対象物に関連する情報をユーザへ提供することができる。また、上記画像は静止画であってもよいし、アニメーション画像等の動画であってもよい。
上記検出部は、表示部の方位や姿勢変化を検出できるものであれば特に限定されず、例えば地磁気センサ、モーションセンサ、あるいはこれらの組み合わせ等が採用可能である。
上記ヘッドマウントディスプレイは、上記記憶部に記憶される複数の画像を取得する画像取得部を有する第2の制御ユニットをさらに具備してもよい。
上記第1の制御ユニットは、上記第2の制御ユニットに対して、上記複数の画像の中から選択された1つ以上の画像の送信を要求するように構成されてもよい。このように第1の制御ユニットが主体となって必要な画像を必要な順序で取得できるようにすることで、第1及び第2の制御ユニット間の通信速度や、送信要求から実際に画像が送信されるまでの時間(レイテンシ)等の問題を感じさせないシステムを構築することができる。
この場合、上記第1の制御ユニットは、上記3次元座標上の、上記視野の表示領域により近い座標位置に対応付けられた画像の優先的な送信を上記第2の制御ユニットに対して要求するように構成されてもよい。
なお、画像がアニメーション画像である場合は、現在時刻とアニメーションフレーム時刻とを考慮して優先付けすればよい。例えば、上記第1の制御ユニットは、上記アニメーション画像を構成する全画像の少なくとも一部の一括的な送信を上記第2の制御ユニットに対して要求するように構成されてもよい。
上記第1の制御ユニットは、上記記憶部に記憶された画像のすべてについて、その座標位置と上記視野の表示領域との距離を定期的に評価し、上記視野の表示領域から最も遠い座標位置の画像を上記記憶部から削除するように構成されてもよい。これにより記憶部の容量の低減を図ることが可能となる。
上記第2の制御ユニットは、上記表示部の位置情報を取得可能な位置情報取得部をさらに有してもよい。上記画像取得部は、上記第1の制御ユニットへ送信可能な上記位置情報に対応する画像を取得する。これにより第2の制御ユニットは、ユーザの現在位置に応じて最適な画像を取得することができる。
一方、本技術の一形態に係る画像表示装置は、表示部と、検出部と、領域制限部と、記憶部と、表示制御部とを具備する。
上記表示部は、実空間を表示可能な表示面を有する。
上記検出部は、上記表示部の少なくとも一軸周りの方位を検出する。
上記領域制限部は、上記表示部を包囲する3次元座標における上記視野の上記一軸方向に沿った表示領域を制限することが可能に構成される。
上記記憶部は、上記視野に表示すべき画像を上記3次元座標に対応付けて記憶する。
上記表示制御部は、上記検出部の出力に基づいて上記方位に対応する上記3次元座標上の画像を上記視野に表示する。
以上のように、本技術によれば、オブジェクト画像の検索性あるいは視認性を向上させることができる。
本技術の一実施形態に係るヘッドマウントディスプレイの機能を説明する概略図である。 上記ヘッドマウントディスプレイを示す全体図である。 上記ヘッドマウントディスプレイを含むシステムの構成を示すブロック図である。 上記ヘッドマウントディスプレイにおける制御ユニットの機能ブロック図である。 上記ヘッドマウントディスプレイにおけるワールド座標系の一例としての円筒座標を示す概略図である。 上記ヘッドマウントディスプレイにおけるワールド座標系の一例としての円筒座標を示す概略図である。 図5Aに示す円筒座標の展開図である。 図5Bに示す円筒座標の展開図である。 上記円筒座標系における座標位置の説明図である。 視野とオブジェクトとの関係を概念的に示す上記円筒座標の展開図である。 円筒座標(ワールド座標)から視野(ローカル座標)への変換方法を説明する図である。 円筒座標(ワールド座標)から視野(ローカル座標)への変換方法を説明する図である。 上記ヘッドマウントディスプレイにおける顔ぶれ補正機能を説明する概念図である。 上記ヘッドマウントディスプレイにおける顔ぶれ補正機能を説明する概念図である。 領域制限された円筒座標に対応付けられたオブジェクトと視野との相対位置関係を示す概略図である。 領域制限された円筒座標に対応付けられたオブジェクトと視野との相対位置関係を示す概略図である。 領域制限された円筒座標にオブジェクトを配置する手順を説明する概念図である。 領域制限された円筒座標にオブジェクトを配置する手順を説明する概念図である。 領域制限された円筒座標にオブジェクトを配置する手順を説明するシーケンス図である。 上記システムの動作の概要を説明するフローチャートである。 上記制御ユニットによるオブジェクトデータの受信手順の一例を示すフローチャートである。 上記制御ユニットによる視野へのオブジェクトの描画手順の一例を示すフローチャートである。
以下、本技術に係る実施形態を、図面を参照しながら説明する。本実施形態では、画像表示装置としてヘッドマウントディスプレイに本技術を適用した例について説明する。
<第1の実施形態>
図1は、本技術の一実施形態に係るヘッドマウントディスプレイ(以下「HMD」と称する。)の機能を説明する概略図である。まず図1を参照して、本実施形態に係るHMDの基本的な機能の概要について説明する。
ここで図1において、X軸方向及びY軸方向は相互に直交する水平方向を示し、Z軸方向は鉛直軸方向を示している。これらXYZ直交座標系は、ユーザの属する実空間の座標系を表し、X軸の矢印は北方向を示し、Y軸の矢印は東方向を示している。またZ軸の矢印は重力方向を示している。
[HMDの機能の概要]
本実施形態のHMD100は、ユーザUの頭部に装着され、ユーザUの実空間の視野V(表示視野)に仮想的な画像を表示することが可能に構成される。視野Vに表示される画像には、当該視野Vに存在する所定の対象物A1,A2,A3,A4に関連する情報が含まれる。所定の対象物としては、例えば、ユーザUの周囲に存在する風景、店舗、商品等が該当する。
HMD100は、HMDを装着したユーザUを包囲する仮想上のワールド座標系に対応付けられた画像(以下、オブジェクトともいう。)B1,B2,B3,B4を予め記憶する。ワールド座標系は、ユーザの属する実空間と等価な座標系であって、ユーザUの位置及び所定の軸方向を基準とした対象物A1〜A4の位置を定める。本実施形態においてワールド座標は、鉛直軸を軸心とする円筒座標C0が採用されるが、これ以外にユーザUを中心とする天球座標等の他の3次元座標が採用されてもよい。
円筒座標C0の半径R、高さHは任意に設定可能である。ここでは、半径Rは、ユーザUから対象物A1〜A4までの距離よりも短く設定されるが、上記距離よりも長くてもよい。また高さHは、HMD100を介して提供されるユーザUの視野Vの高さ(縦方向の長さ)Hv以上の大きさに設定される。
オブジェクトB1〜B4は、そのワールド座標系に存在する対象物A1〜A4に関連する情報を表示する画像であって、文字や絵柄等を含む画像であってもよいし、アニメーション画像であってもよい。またオブジェクトは、2次元画像であってもよいし、3次元画像であってもよい。さらにオブジェクトの形状は、矩形、円形その他の幾何学的形状であってもよく、オブジェクトの種類によって適宜設定可能である。
円筒座標C0上におけるオブジェクトB1〜B4の座標位置は、例えば、対象物A1〜A4を注視するユーザの目線Lと円筒座標C0との交差位置にそれぞれ対応付けられる。図示の例では、オブジェクトB1〜B4各々の中心位置を上記交差位置に一致させたが、これに限られず、オブジェクトの周縁の一部(例えば四隅の一部)を上記交差位置に一致させてもよい。あるいは、オブジェクトB1〜B4の座標位置が上記交差位置から離れた任意の位置に対応付けられてもよい。
円筒座標C0は、北方向を0°とした鉛直軸周りの角度を表す周方向の座標軸(θ)と、ユーザUの水平方向の目線Lhを基準とした上下方向の角度を表す高さ方向の座標軸(h)とを有する。座標軸(θ)は、東周りを正方向とし、座標軸(h)は、俯角を正方向、仰角を負方向としている。
後述するように、HMD100は、ユーザUの視点方向を検出するための検出部を有しており、当該検出部の出力に基づいて、ユーザUの視野Vが円筒座標C0上のどの領域に対応するかを判定する。そしてHMD100は、視野Vを形成するxy座標系の対応領域に何れかのオブジェクト(例えばオブジェクトB1)が存在するときは、上記対応領域にオブジェクトB1を表示(描画)する。
以上のように本実施形態のHMD100は、実空間の対象物A1に重畳してオブジェクトB1を視野Vに表示することで、ユーザUに対して対象物A1に関連する情報を提供する。またHMD100は、ユーザUの視点の方位あるいは方向に応じて、所定の対象物A1〜A4に関するオブジェクト(B1〜B4)をユーザUに提供することができる。
続いて、HMD100の詳細について説明する。図2は、HMD100を示す全体図であり、図3は、その構成を示すブロック図である。
[HMDの構成]
HMD100は、表示部10と、表示部10の姿勢を検出する検出部20と、表示部10の駆動を制御する制御ユニット30とを有する。本実施形態においてHMD100は、ユーザに実空間の視野Vを提供可能なシースルー型のHMDで構成されている。
(表示部)
表示部10は、ユーザUの頭部に装着可能に構成される。表示部10は、第1及び第2の表示面11R,11Lと、第1及び第2の画像生成部12R,12Lと、支持体13とを有する。
第1及び第2の表示面11R,11Lは、それぞれユーザUの右眼及び左眼に実空間(外界視野)を提供可能な透明性を有する光学素子で構成される。第1及び第2の画像生成部12R,12Lは、それぞれ第1及び第2の表示面11R,11Lを介してユーザUへ提示される画像を生成可能に構成される。支持体13は、表示面11R,11L及び画像生成部12R,12Lを支持し、第1及び第2の表示面11L,11RがユーザUの右眼及び左眼にそれぞれ対向するようにユーザの頭部に装着されることが可能な適宜の形状を有する。
以上のように構成される表示部10は、ユーザUに対して、表示面11R,11Lを介して実空間に所定の画像(あるいは虚像)が重畳された視野Vを提供することが可能に構成される。
(検出部)
検出部20は、表示部10の少なくとも一軸周りの方位あるいは姿勢変化を検出することが可能に構成される。本実施形態において検出部20は、X,Y及びZ軸周りの表示部10の方位あるいは姿勢変化をそれぞれ検出するように構成されている。
ここで、表示部10の方位とは、典型的には、表示部の正面方向を意味する。本実施形態では、表示部10の方位は、ユーザUの顔の向きと定義される。
検出部20は、角速度センサ、加速度センサ等のモーションセンサ、あるいはこれらの組み合わせによって構成することができる。この場合、検出部20は、角速度センサ及び加速度センサの各々を3軸方向に配置したセンサユニットで構成されてもよいし、各軸に応じて使用するセンサを異ならせてもよい。表示部10の姿勢変化、変化の方向及びその変化の量等は、例えば角速度センサの出力の積分値を用いることができる。
また、鉛直軸(Z軸)周りの表示部10の方位の検出には、地磁気センサが採用されてもよい。あるいは、地磁気センサと上記モーションセンサとが組み合わされてもよい。これにより精度の高い方位あるいは姿勢変化の検出が可能となる。
検出部20は、表示部10の適宜の位置に配置されている。検出部20の位置は特に限定されず、例えば画像生成部12R,12Lのいずれか一方、あるいは支持体13の一部に配置される。
(制御ユニット)
制御ユニット30(第1の制御ユニット)は、検出部20の出力に基づいて、表示部10(画像生成部12R,12L)の駆動を制御する制御信号を生成する。本実施形態において制御ユニット30は、接続ケーブル30aを介して表示部10と電気的に接続されている。勿論これに限られず、制御ユニット30は表示部10と無線通信回線を通じて接続されてもよい。
図3に示すように制御ユニット30は、CPU301と、メモリ302(記憶部)と、送受信部303と、内部電源304と、入力操作部305とを有する。
CPU301は、HMD100全体の動作を制御する。メモリ302は、ROM(Read Only Memory)及びRAM(Random Access Memory)等を有し、CPU301によるHMD100の制御を実行するためのプログラムや各種パラメータ、表示部10で表示するべき画像(オブジェクト)、その他必要なデータを記憶する。送受信部303は、後述する携帯情報端末200との通信のためのインターフェースを構成する。内部電源304は、HMD100の駆動に必要な電力を供給する。
入力操作部305は、ユーザ操作によって表示部10で表示される画像を制御するためのものである。入力操作部305は、メカニカルスイッチで構成されてもよいし、タッチセンサで構成されてもよい。入力操作部305は、表示部10に設けられてもよい。
HMD100はさらに、スピーカ等の音響出力部、カメラ等を備えていてもよい。この場合、上記音声出力部及びカメラは、典型的には表示部10に設けられる。さらに制御ユニット30には、表示部10の入力操作画面等を表示する表示デバイスが設けられてもよい。この場合、入力操作部305は、当該表示デバイスに設けられたタッチパネルで構成されてもよい。
(携帯情報端末)
携帯情報端末200(第2の制御ユニット)は、制御ユニット30と無線通信回線を介して相互に通信可能に構成されている。携帯情報端末200は、表示部10で表示するべき画像を取得する機能と、取得した画像を制御ユニット30へ送信する機能とを有する。携帯情報端末200は、HMD100と有機的に組み合わされることで、HMDシステムを構築する。
携帯情報端末200は、表示部10を装着するユーザUによって携帯され、パーソナルコンピュータ(PC:Personal Computer)、スマートフォン、携帯電話機、タブレットPC、PDA(Personal Digital Assistant)等の情報処理装置で構成されるが、HMD100専用の端末装置であってもよい。
図3に示すように携帯情報端末200は、CPU201と、メモリ202と、送受信部203と、内部電源204と、表示部205と、カメラ206と、位置情報取得部207とを有する。
CPU201は、携帯情報端末200全体の動作を制御する。メモリ202は、ROM及びRAM等を有し、CPU201による携帯情報端末200の制御を実行するためのプログラムや各種パラメータ、制御ユニット30へ送信される画像(オブジェクト)、その他必要なデータを記憶する。内部電源204は、携帯情報端末200の駆動に必要な電力を供給する。
送受信部203は、WiFi(Wireless Fidelity)等の無線LAN(IEEE802.11等)や移動通信用の3Gや4Gのネットワークを用いて、サーバNや制御ユニット30、近隣の他の携帯情報端末等と通信する。携帯情報端末200は、送受信部203を介してサーバNから、制御ユニット30へ送信するべき画像(オブジェクト)やそれを表示するためのアプリケーションをダウンロードし、メモリ202へ格納する。
サーバNは、典型的にはCPU、メモリ等を含むコンピュータで構成され、ユーザUの要求に応じて、あるいはユーザUの意図に依らず自動的に、所定の情報を携帯情報端末200へ送信する。
表示部205は、例えばLCDやOLEDで構成され、各種メニューやアプリケーションのGUI等を表示する。典型的には、表示部205は、タッチパネルと一体とされており、ユーザのタッチ操作を受け付け可能である。携帯情報端末200は、表示部205のタッチ操作によって制御ユニット30へ所定の操作信号を入力することが可能に構成されている。
位置情報取得部207は、典型的にはGPS(Global Positioning System)受信機を含む。携帯情報端末200は、位置情報取得部207を用いてユーザU(表示部10)の現在位置を測位し、サーバNから必要な画像(オブジェクト)を取得することが可能に構成される。すなわちサーバNは、ユーザの現在位置に関する情報を取得し、その位置情報に応じた画像データやアプリケーションソフトウェア等を携帯情報端末200へ送信する。
(制御ユニットの詳細)
次に、制御ユニット30の詳細について説明する。
図4は、CPU301の機能ブロック図である。CPU301は、座標設定部311と、画像管理部312と、座標判定部313と、表示制御部314とを有する。CPU301は、メモリ302に格納されたプログラムに従って、これら座標設定部311、画像管理部312、座標判定部313及び表示制御部314における処理を実行する。
座標設定部311は、ユーザU(表示部10)を包囲する3次元座標を設定する処理を実行するように構成される。本例では、上記3次元座標は、鉛直軸Azを中心とする円筒座標C0(図1参照)が用いられる。座標設定部311は、円筒座標C0の半径Rと高さHをそれぞれ設定する。座標設定部311は、典型的には、ユーザUに提示するべきオブジェクトの数や種類等に応じて円筒座標C0の半径R及び高さHを設定する。
円筒座標C0の半径Rは固定値でもよいが、表示するべき画像の大きさ(ピクセルサイズ)等に応じて任意に設定可能な可変値であってもよい。円筒座標C0の高さHは、表示部10によってユーザUへ提供される視野Vの縦方向(垂直方向)の高さHv(図1参照)の例えば1倍以上3倍以下の大きさに設定される。高さHの上限は、Hvの3倍に限られず、Hvの3倍を超える大きさであってもよい。
図5Aは、視野Vの高さHvと同一の高さH1を有する円筒座標C0を示している。図5Bは、視野Vの高さHvの3倍の高さH2を有する円筒座標C0を示している。
図6A及び図6Bは、円筒座標C0を展開して示す模式図である。上述のように円筒座標C0は、北方向を0°とした鉛直軸周りの角度を表す周方向の座標軸(θ)と、ユーザUの水平方向の目線Lhを基準とした上下方向の角度を表す高さ方向の座標軸(h)とを有する。座標軸(θ)は、東周りを正方向とし、座標軸(h)は、俯角を正方向、仰角を負方向としている。高さhは、視野Vの高さHvの大きさを100%としたときの大きさを表し、円筒座標C0の原点OP1は、北方向の方位(0°)とユーザUの水平方向の目線Lh(h=0%)との交点に設定される。
座標設定部311は、表示部10を包囲する3次元座標における視野Vの一軸方向に沿った表示領域を制限することが可能な領域制限部としての機能を有する。本実施形態において座標設定部311は、表示部10を包囲する円筒座標C0における視野Vの高さ方向の視野領域(Hv)を制限する。具体的には、座標設定部311は、高さ(H)の規定値が、視野Vの高さHvよりも大きいとき、当該円筒座標の高さ(H)を視野Vの高さ方向の領域に応じて制限する。さらに座標設定部311は、ユーザUによる操作に応じて、例えば、円筒座標の高さをH2(図5B)からH1(図5A)に制限する。
画像管理部312は、メモリ302に格納された画像を管理する機能を有し、例えば、表示部10を介して表示される単数又は複数の画像をメモリ302へ格納し、及び、メモリ302に格納された画像を選択的に削除する処理を実行するように構成される。メモリ302へ格納される画像は、携帯情報端末200から送信される。画像管理部312はまた、送受信部303を介して携帯情報端末200に対して画像の送信を要求する。
メモリ302は、視野Vに表示すべき単数又は複数の画像(オブジェクト)を円筒座標C0に対応付けて記憶することができるように構成される。すなわちメモリ302は、図1に示した円筒座標C0上の個々のオブジェクトB1〜B4を円筒座標C0上の座標位置とともに記憶する。
図7に示すように、円筒座標系(θ,h)と直交座標系(X,Y,Z)とは、X=rcosθ、Y=rsinθ、Z=h、の関係を有する。図1に示したように視野Vの方位あるいは姿勢に対応して表示すべき個々のオブジェクトB1〜B4は、それぞれ固有の円筒座標C0上の座標領域を占めており、その領域内の特定の座標位置P(θ,h)とともにメモリ302に格納される。
オブジェクトB1〜B4の座標位置は、各オブジェクトB1〜B4の表示領域内であればどの位置に設定されてもよく、1つのオブジェクトにつき特定の1点(例えば中心位置)に設定されてもよいし、2点以上(例えば対角の2点、あるいは四隅の点)に設定されてもよい。
また図1に示したように、オブジェクトB1〜B4の座標位置が対象物A1〜A4を注視するユーザの目線Lと円筒座標C0との交差位置に対応付けられたとき、ユーザUは、オブジェクトB1〜B4を対象物A1〜A4と重なる位置で視認する。これに代えて、オブジェクトB1〜B4の座標位置が上記交差位置から離れた任意の位置に対応付けられてもよい。これにより対象物A1〜A4に対してオブジェクトB1〜B4を所望の位置に表示あるいは描画することができる。
座標判定部313は、検出部20の出力に基づいてユーザUの視野Vが円筒座標C0上のどの領域に対応するかを判定する処理を実行するように構成される。すなわち、視野Vは、ユーザU(表示部10)の姿勢変化によって円筒座標C0上を移動し、その移動方向や移動量は、検出部20の出力に基づいて算出される。座標判定部313は、検出部20の出力に基づいて表示部10の移動方向及び移動量を算出し、円筒座標C0上のどの領域に視野Vが属するかを判定する。
図8は、円筒座標C0上における視野VとオブジェクトB1〜B4との関係を概念的に示す円筒座標C0の展開図である。視野Vは略矩形状であり、その左上の隅部を原点OP2とするxy座標(ローカル座標)を有する。x軸は、原点OP2から水平方向に延びる軸であり、y軸は、原点OP2から垂直方向に延びる軸である。そして座標判定部313は、視野Vの対応領域にオブジェクトB1〜B4の何れかが存在するかどうかを判定する処理を実行するように構成される。
表示制御部314は、検出部20の出力(すなわち座標判定部313の判定結果)に基づいて表示部10の方位に対応する円筒座標C0上のオブジェクトを視野Vに表示(描画)する処理を実行するように構成される。例えば図8に示すように、視野Vの現在の方位が、円筒座標C0上のオブジェクトB1,B2の表示領域にそれぞれ重なる場合、それらの重なる領域B10,B20に相当する画像を視野Vに表示する(ローカルレンダリング:Local Rendering)。
図9A及び図9Bは、円筒座標C0(ワールド座標)から視野V(ローカル座標)への変換方法を説明する図である。
図9Aに示すように円筒座標C0上における視野Vの基準点の座標を(θv,hv)とし、視野Vの領域内に位置するオブジェクトBの基準点の座標を(θ0、h0)とする。視野V及びオブジェクトBの基準点はどの点に設定されてもよく、本例では矩形状である視野V及びオブジェクトBの左上のコーナ部に設定される。αv[°]は、ワールド座標上における視野Vの幅角度であり、その値は表示部10の設計あるいは仕様によって確定する。
表示制御部314は、円筒座標系(θ,h)をローカル座標系(x,y)に変換することで、視野VにおけるオブジェクトBの表示位置を決定する。図9Bに示すようにローカル座標系における視野Vの高さ及び幅をそれぞれHv及びWvとし、ローカル座標系(x,y)におけるオブジェクトBの基準点の座標を(x0,y0)とすると、変換式は、以下のとおりである。
x0=(θ0−θv)・Wv/αv …(1)
y0=(h0−hv)・Hv/100 …(2)
表示制御部314は、典型的には、表示部10の方位あるいは姿勢の変化に追従して、視野V内でオブジェクトBの表示位置を変化させる。この制御は、視野VにオブジェクトBの少なくとも一部が存在する限り継続される。
一方、近年においてはHMDの小型化に伴ってその表示領域が狭くなる傾向にある。またシースルー型ヘッドマウントディスプレイにおいては、例えば、シースルー領域を確保しつつ、情報表示領域を制限したい場合がある。このような場合、上述のように表示部10の方位あるいは姿勢の変化に追従して視野V内でオブジェクトBの表示位置が変化すると、オブジェクトBが視野Vに入った状態を保つことが困難になるおそれがある。このような問題を解決するため、本実施形態のHMD100は以下に説明するようなオブジェクト表示固定機能を有する。
<オブジェクト表示固定機能>
(1)ノンストリクト(Non Strict)属性の導入
表示制御部314は、表示部10の方位あるいは姿勢が所定角度以上変化したときは、上記方位あるいは姿勢の変化に応じてオブジェクトを視野V内で移動させ、上記方位あるいは姿勢の変化が上記所定角度未満のときは、視野Vにおけるオブジェクトの表示位置を固定する処理を実行可能に構成される。
本実施形態では、オブジェクトにノンストリクト属性が導入されてもよい。すなわち、オブジェクトBがワールド座標系(円筒座標C0)の1ヶ所に固定されるのではなく、ユーザUが見ている方向がある角度範囲内の場合、表示部10のローカル座標系(x,y)にオブジェクトが固定表示されてもよい。このような処理を実行することにより、視野Vにオブジェクトが入った状態を容易に維持することができる。したがって、ユーザUの鉛直軸周り又は水平軸周りの不用意な姿勢変化に起因するオブジェクトの移動を規制して、オブジェクトの視認性を高めることができる。
上記所定角度としては、鉛直軸(Z軸)周りの角度でもよいし、水平軸(X軸及び/又はY軸)まわりの角度であってもよいし、それらの双方であってもよい。上記所定角度の値は適宜設定可能であり、例えば±15°である。上記所定角度は、鉛直軸周りの角度(第1の所定角度)及び水平軸周り(第2の所定角度)で同一であってもよいし、相互に異なっていてもよい。
(2)第1のグラブ機能
表示制御部314は、検出部20の出力変化が所定時間にわたって所定以下のときは、オブジェクトBを視野Vの所定位置に移動させる処理を実行可能に構成される。
本実施形態では、所定時間にわたって検出部20の出力が変化しないときは視野Vに表示されたオブジェクトをユーザが参照している蓋然性が高いため、そのオブジェクトを視野Vの所定位置に移動させることでオブジェクトの視認性を高めるようにしてもよい。
上記所定時間は特に限定されず、例えば5秒程度に設定される。上記所定位置も特に限定されず、例えば視野Vの中央部や隅部、あるいは上下左右の何れか偏った位置とされる。更に、移動後のオブジェクトは拡大等の誇張表示がされてもよい。
当該機能は、例えば、オブジェクトが視野Vの中心に位置する状態で、所定時間検出部20の出力変化が認められない場合に、当該オブジェクトBを視野Vのローカル座標系(x,y)の所定位置に固定表示するようにしてもよい。この場合、検出部20の出力が所定の値を超えたとき、当該オブジェクトの固定表示機能が解除される。このときの検出部20の出力値は、上述した表示部10の所定の軸周りへの所定角度以上の姿勢変化に相当する出力変化量であってもよいし、それ以外の出力変化量であってもよい。
(3)第2のグラブ機能
表示制御部314は、ユーザUの操作により生成される所定信号の入力を検出したときは、オブジェクトを視野Vの所定位置に移動させる処理を実行可能に構成される。このような構成においても上述と同様にオブジェクトの視認性を高めることができるとともに、ユーザの意図に即して画像の表示を制御することが可能となる。
この処理は、例えば、オブジェクトを視野Vの中心に合わせて、入力操作部305あるいは携帯情報端末200へ所定の入力操作を行うことで、オブジェクトが視野Vのローカル座標系(x,y)に固定される。そして入力操作部305等を再度操作することで、オブジェクトがワールド座標系に復帰し、オブジェクトの固定表示機能が解除される。
(4)顔ぶれ補正機能
表示制御部314は、視野Vの所定位置にオブジェクトが表示されている状態において、検出部20の出力変化が所定周波数以上のときは、検出部20の出力のうち上記所定周波数以上の周波数成分を無効とする処理を実行可能に構成される。
視野V内のオブジェクトが表示部10の方位あるいは姿勢変化に追従して移動すると、ユーザUの細かい顔のぶれにも追従してしまい、オブジェクトの視認性が悪化するおそれがある。この問題を防止するために、所定以上の高周波成分に対してはオブジェクトを表示部10の姿勢変化に追従させず、所定未満の低周波成分に対してはオブジェクトの表示位置を視野V(ローカル座標系)に固定するようにしてもよい。上記所定周波数として、例えば、ユーザの顔ぶれに相当する周波数に設定される。これにより、ユーザの細かい顔ぶれの影響を受けることなく、画像の視認性を確保することができる。
図10A及び図10Bは、顔ぶれ補正機能を説明する概念図である。同図において、V1はある時点におけるローカル座標系を示し、V2は、V1に対応する顔ぶれ補正座標系を示す。OP及びOP’は、V1及びV2の原点を示す。
顔ぶれ補正機能が有効とされた場合、顔ぶれ補正座標系にオブジェクトが置かれる。顔ぶれ補正座標系は、視野Vのローカル座標系(x,y)に対してPD制御で追従制御される。PD制御とは、フィードバック制御の一種であり、一般に、比例制御(Proportional Control)及び微分制御(Differential Control)を組み合わせて設定値に収束させる制御をいう。図10A,10Bにおいて、視野Vと視野V’の間に各々接続されたバネ(p)及びダンパ(d)のうち、バネ(p)がPD制御のP成分に相当し、ダンパ(d)がPD制御のD成分に相当する。
追従制御の計算方法の一例を挙げると、ある時点tでのローカル座標系V1にある点を(x(t),y(t))とし、それと対応する顔ぶれ補正座標系V2の点を(x’(t),y’(t))とする。さらにサンプル周期(Δt)前のローカル座標系V1の点を(x(t−Δt),y(t−Δt))とし、それと対応する顔ぶれ補正座標系V2の点を(x’(t−Δt),y’(t−Δt))とする。対応点の差分を(Δx(t),Δy(t))とすると、
Δx(t)=x’(t)−x(t) …(3)
Δy(t)=y’(t)−y(t) …(4)
と表され、対応点の速度差分を(Δvx(t),Δvy(t))とすると、
Δvx(t)={Δx’(t)−Δx’(t−Δt)}−{Δx(t)−Δx(t−Δt)} …(5)
Δvy(t)={Δy’(t)−Δy’(t−Δt)}−{Δy(t)−Δy(t−Δt)} …(6)
と表される。そのときに顔ぶれ補正座標系V1’がローカル座標系V1に追従移動すべき量(Δp(t)、Δq(t))は、
Δp(t)=Px×Δx(t)+Dx×Δvx(t) …(7)
Δq(t)=Py×Δy(t)+Dy×Δvy(t) …(8)
と表される。
ここで、Px、Pyはx、yに対する差分ゲイン定数、Dx、Dyはx、yに対する速度ゲイン定数である。
ローカル座標系V1が回転した場合でも、顔ぶれ補正座標系V1’は回転成分には追従しない(図10B)。すなわち、ユーザの前後方向の軸周りに顔を傾けた場合でもオブジェクトの傾きは規制されることになる。
上述の各オブジェクト表示固定機能(1)〜(4)は、それぞれ個別に適用されてもよいし、各機能を適宜組み合わせて適用されてもよい。例えば、上記(1)〜(3)の何れか1つと上記(4)との組み合わせが適用可能である。
<領域制限機能>
続いて、HMD100の領域制限機能について説明する。
近年、シースルー型ヘッドマウントディスプレイにおいては、例えば、シースルー領域を確保しつつ、情報表示領域を制限したい場合がある。この場合、オブジェクト画像が視界に入りにくくなるおそれがある。そこで本実施形態では、オブジェクトの検索性を高める目的で、ワールド座標系の領域制限機能を有する。
上述のように座標設定部311は、表示部10を包囲する円筒座標C0におけるZ軸方向に沿った領域(H)を視野Vの高さ方向の領域(Hv)に応じて制限することが可能な領域制限部としての機能を有する(図5A参照)。円筒座標C0の高さHを制限することにより、ユーザの水平視野内における画像の検索性及び視認性を向上させることができる。
円筒座標C0の高さ方向の制限量は特に限定されず、本実施形態では、円筒座標C0の高さは、視野Vの高さHvと同一の高さ(H1)に制限される。表示制御部314は、当該領域制限機能が有効とされた場合には、領域制限された円筒座標C0内に各オブジェクトB1〜B4が位置するように、円筒座標系(θ,h)のうち少なくともh座標を変更してオブジェクトB1〜B4を視野Vに表示することが可能に構成される。
図11A及び図11Bは、高さH1に領域制限された円筒座標C1に対応付けられたオブジェクトB1〜B4と視野Vとの相対位置関係を示す概略図である。ユーザUは、Z軸(鉛直軸)周りの姿勢変更だけで全ての方位に対応付けられたオブジェクトB1〜B4を視認することが可能となるため、オブジェクトB1〜B4の検索性が飛躍的に向上することになる。
図11Aの例では、全てのオブジェクトB1〜B4を円筒座標C1内に配置されたが、これに限られず、必要に応じて、少なくとも1つのオブジェクトが円筒座標C1内に配置されてもよい。また円筒座標C1に配置されるオブジェクトB1〜B4の高さは特に限定されず、各々任意に設定可能である。
さらに図11の例では、オブジェクトB1〜B4の全体が円筒座標C1内に配置されたが、オブジェクトB1〜B4の少なくとも一部が視野Vに表示されるように構成されてもよい。これにより一定の方位に存在する当該画像を容易に認識することができる。この場合、入力操作部305等へのユーザUによる入力操作によって、円筒座標C1の高さH1をこれよりも大きい高さに変更可能に構成されてもよい。これにより当該オブジェクトの全体を視認することができる。
上述の領域制限機能を有効にするか無効にするかは、ユーザUによる設定によって選択可能に構成されてもよい。本実施形態のHMD100は、通常モードとして、ワールド座標系を円筒座標C1とする領域制限機能が有効な状態に設定されており、ユーザによる自発的な設定変更によって当該領域制限機能の変更(例えば高さHの変更)あるいは無効状態への切り替えが可能に構成される。
一方、制御ユニット30は、ユーザUの操作により生成される所定信号の入力を検出したときは、円筒座標における高さ方向の領域を視野Vの高さ方向の領域(Hv)に合わせて制限し、視野Vに表示されるオブジェクトをすべて視野Vにおいて同一の高さに揃える処理を実行可能に構成されてもよい。
すなわち、領域制限機能が無効状態である場合、あるいはワールド座標系が円筒座標C1以外の円筒座標に設定されている場合において、ユーザUによる入力操作部305等への入力操作によって、ワールド座標系を円筒座標C1に強制的に切り替えられる。そして更に、全てのオブジェクトB1〜B4が図11Bに示すように視野Vにおいて同一の高さで表示される位置に各オブジェクトB1〜B4が円筒座標C1内に配置される。これにより視野に表示された画像の視認性の更なる向上を図ることができる。
<画像管理機能>
続いて、HMD100の画像管理機能について説明する。
上述のように本実施形態では、制御ユニット30へのオブジェクトデータの送信に携帯情報端末200が用いられる。携帯情報端末200は、ユーザU(表示部10)の位置を測位する位置情報取得部207と、制御ユニット30のメモリ302へ格納すべき複数のオブジェクト(B1〜B4)をサーバN等から取得可能な送受信部203等を含む画像取得部を備える。
本実施形態において制御ユニット30は、携帯情報端末200に対して、複数のオブジェクトデータの中から選択された1つ以上のオブジェクトデータの送信を要求し、携帯情報端末200は、制御ユニット30へ要求されたオブジェクトデータを送信する。
ここで、表示部10の視野Vへオブジェクトを円滑に描画する上で、携帯情報端末200と制御ユニット30との間の通信速度とレイテンシ(送信要求から実際に画像が送信されるまでの時間)が問題になる。本実施形態では、上記通信速度やレイテンシの問題を回避する目的で、制御ユニット30(本例では画像管理部312)は以下のように構成されている。
まず、制御ユニット30は、あらかじめ必要な複数のオブジェクトデータを携帯情報端末200から取得するように構成される。これにより、視野Vへのオブジェクトの描画タイミングを制御ユニット30側で制御できるようになり、通信環境等によらずにユーザUへ必要なオブジェクトを適切なタイミングで提供できるようになる。
また制御ユニット30は、円筒座標C0上の、視野Vの表示領域により近い座標位置に対応付けられたオブジェクトの優先的な送信を携帯情報端末200に対して要求するように構成される。このように視野Vへ提示される可能性の高いオブジェクトデータを優先的に取得しておくことで、視野Vへのオブジェクト表示の遅延を阻止することができる。
この際、画像管理部312は、まずワールド座標上にオブジェクトの配置位置に相当する単数又は複数のフレームを設定し、次いで、当該フレームに、優先度の高いオブジェクトを配置する処理を実行可能に構成される。なお、「ワールド座標上にフレームあるいはオブジェクトを配置する」とは、ワールド座標上にフレームあるいはオブジェクトを対応付けることを意味する。
一例として、高さH1に領域制限された円筒座標C1にオブジェクトB3及びB4を配置する手順を図12A、図12B及び図13に示す。なお以下の手順は、領域制限されていない円筒座標C0あるいは他の3次元座標で構成されたワールド座標系にも同様に適用可能である。
本実施形態では、オブジェクトの画像データ(オブジェクトデータ)と当該オブジェクトの座標位置を定めるフレームデータの各々が、携帯情報端末200から制御ユニット30へ送信される。フレームデータは、オブジェクトデータよりもデータ量が少ないため、オブジェクトデータと比較して取得に時間を要さない。このため、先にフレームデータ取得の通信を行い、後から優先度順にオブジェクトデータ取得の通信を行う。
(フレーム登録フェーズ)
まず、携帯情報端末200は、制御ユニット30へオブジェクトB3を配置するためのフレームF3の送信要否を確認し(ステップ101)、これに対して制御ユニット30は、携帯情報端末200へフレームF3の送信を要求する(ステップ102)。制御ユニット30は、受信したフレームF3をメモリ302へ格納することで、フレームF3を円筒座標C1上の対応位置へ配置する。
続いて、携帯情報端末200は、制御ユニット30へオブジェクトB4を配置するためのフレームF4の送信要否を確認し(ステップ103)、これに対して制御ユニット30は、携帯情報端末200へフレームF4の送信を要求する(ステップ104)。制御ユニット30は、受信したフレームF4をメモリ302へ格納することで、フレームF4を円筒座標C1上の対応位置へ配置する。全フレームデータの送信後、携帯情報端末200は制御ユニット30へオブジェクトデータの送信許可を通知する(ステップ105)。
(データ取得フェーズ)
制御ユニット30は、上記オブジェクトデータの送信許可通知をトリガにデータ取得フェーズに移行する。具体的には例えば、制御ユニット30は、検出部20の出力に基づき、現在の視野V(表示部10)の方位に最も近いフレーム(本例ではフレームF4)を判定し、そのフレームに属するオブジェクト(本例ではオブジェクトB4)の画像データの送信を要求する(ステップ106)。この要求を受けて、携帯情報端末200は、制御ユニット30へオブジェクトB4の画像データを送信する(ステップ107)。制御ユニット30は、受信したオブジェクトB4の画像データをメモリ302へ格納することで、オブジェクトB4を円筒座標C1上のフレームF4内に配置する。
続いて、制御ユニット30は、フレームF4の次に視野Vの方位に近いフレーム(本例ではフレームF3)を判定し、そのフレームに属するオブジェクト(本例ではオブジェクトB3)の画像データの送信を要求する(ステップ108)。この要求を受けて、携帯情報端末200は、制御ユニット30へオブジェクトB3の画像データを送信する(ステップ109)。制御ユニット30は、受信したオブジェクトB3の画像データをメモリ302へ格納することで、オブジェクトB3を円筒座標C1上のフレームF3内に配置する。
以上のように、制御ユニット30は、円筒座標C1上にあらかじめオブジェクトのフレームデータを登録しておくことで、現在の視野Vを基準とするオブジェクトの取得優先度を判定可能とし、その判定結果に基づいて、優先度の高い(視野Vに最も近い)オブジェクトから順次その画像データを取得するように構成される。
ここで、オブジェクトがアニメーション画像の場合には、現在時刻とアニメーションフレーム時刻とを考慮して優先付けを行えばよい。例えば、制御ユニット30は、当該アニメーション画像を構成する全画像の少なくとも一部の一括的な送信を携帯情報端末200に対して要求するように構成される。このようにオブジェクトがアニメーション画像の場合であっても、そのフレームレートを考慮して必要な数の画像(例えば1秒後までの画像)をキャッシュしておくことで、動的に対応することができる。
上述のようなシステムを構築するには、オブジェクトデータを保持するメモリ302の容量を大きくする必要が生じる。しかし、必要性が高いオブジェクトデータを優先的に保持し、必要性が低いデータを破棄する処理を動的に実施することで、全ては保持しきれないオブジェクトデータ量でも適切なオブジェクト表示が実現可能となる。なお破棄したデータは、必要性が出たら再取得すればよい。
すなわち制御ユニット30は、メモリ302に記憶されたオブジェクトのすべてについて、その座標位置と視野Vの表示領域との距離を定期的に評価し、視野Vの表示領域から最も遠い座標位置のオブジェクトをメモリ302から削除するように構成されてもよい。具体的には、円筒座標C1上の全オブジェクトと視野Vの現在方位との相対位置関係に基づいて、全オブジェクトの優先度を各々評価し、優先度の低いオブジェクトデータを消去する。これにより視野Vに近いオブジェクトデータの保存領域を確保することができる。
優先度の評価方法は特に限定されず、例えば、円筒座標C1における視野Vの中心位置とオブジェクトの中心位置との間のピクセル数に基づいて評価することができる。またアニメーション画像の場合は、再生時刻に基づいた係数を評価値に乗じてもよい。
[HMDの動作]
次に、以上のように構成される本実施形態に係るHMD100を備えたHMDシステムの動作の一例について説明する。
図14は、本実施形態に係るHMDシステムの動作の概要を説明するフローチャートである。
まず、携帯情報端末200の位置情報取得部207を用いて、ユーザU(表示部10)の現在位置が測定される(ステップ201)。表示部10の位置情報は、サーバNに送信される。そして携帯情報端末200は、サーバNから、ユーザUの周囲の実空間に存在する所定の対象物に関連するオブジェクトデータを取得する(ステップ202)。
次に、携帯情報端末200は、制御ユニット30へオブジェクトデータの送信準備ができたことを通知する。制御ユニット30(本例では座標設定部311)は、オブジェクデータの種類等に応じてワールド座標系としての円筒座標C0の高さ(H)及び半径(R)を設定する(ステップ203)。
この場合、座標設定部311は、表示部10によって提供される視野Vの高さ(Hv)に応じた領域制限機能が有効な場合には、ワールド座標系を例えば図12Aに示す円筒座標C1に設定する。
続いて、制御ユニット30は、検出部20の出力に基づいて視野Vの方位を検出し(ステップ204)、携帯情報端末200からオブジェクトデータを取得してメモリ302へ格納する(ステップ205)。
図15は、制御ユニット30によるオブジェクトデータの受信手順の一例を示すフローチャートである。
制御ユニット30は、携帯情報端末200からのオブジェクトデータの送信許可確認を受信した後(ステップ301)、全オブジェクトのフレーム登録が完了したかどうかを判定する(ステップ302)。全オブジェクトのフレーム登録が完了しないとオブジェクトの座標位置が定まらず、また、オブジェクトの優先度の評価が不可能となるからである。フレーム登録が未完の場合は処理を終了し、上述した未完フレームの登録処理を実行する。
一方、全オブジェクトのフレーム登録が完了しているときは、受信していないオブジェクトの有無とメモリ302の容量を確認する(ステップ303)。未登録オブジェクトがあり、かつメモリ容量が十分である場合は、当該未登録オブジェクトを受信しメモリ302へ格納する(ステップ304)。
なお制御ユニット30は、定期的にメモリ302内のオブジェクトの優先度を評価し、評価値の低いものは必要に応じて削除する。
制御ユニット30は、円筒座標C0における視野Vの対応領域に何れかのオブジェクトデータが存在する場合には、当該オブジェクトを視野Vの対応位置に表示部10を介して表示(描画)する(ステップ206)。視野Vへのオブジェクトの表示に際しては、上述したオブジェクト表示固定機能の何れかが適用されてもよい。
図16は、制御ユニット30による視野Vへのオブジェクトの描画手順の一例を示すフローチャートである。
制御ユニット30は、検出部20の出力に基づいて現在の視野Vの方位を算出する(ステップ401)。視野Vの方位は、ワールド座標系(θ,h)に換算されて、円筒座標C0上のどの位置に対応するかモニタリングされる。
次に制御ユニット30は、メモリ302に格納された全オブジェクトのうち、スキャンが未完了のオブジェクトがあるかどうか判定する(ステップ402)。上記スキャンは、画面更新毎にメモリ302に格納された全オブジェクトに対して行われる。
スキャン未完了のオブジェクトがある場合、当該オブジェクトがワールド座標系のオブジェクトがどうか判定し(ステップ403)、「No」の場合は視野Vに当該オブジェクトを描画する(ステップ404)。
一方、ステップ403において判定が「Yes」の場合には、続いて当該オブジェクトについて上記オブジェクト表示固定機能の何れか(例えば第1のグラブ機能)が適用されているかどうかを判定する(ステップ405)。当該機能が適用されている場合、所期の条件を満たした時点で当該オブジェクトを視野Vに固定表示する(ステップ406)。一方、何れの表示固定機能の適用がない場合には、視野Vがオブジェクト位置に入った時点で視野Vに当該オブジェクトを描画する(ステップ407)。
以後、上述の処理が繰り返される。これにより表示部10を介してユーザUの現在位置に則した最新のオブジェクトをユーザUへ提供することが可能となる。
<第2の実施形態>
続いて、本技術の第2の実施形態について説明する。以下、第1の実施形態と異なる構成について主に説明し、上述の実施形態と同様の構成についてはその説明を省略または簡略化する。
本実施形態に係るヘッドマウントディスプレイは、ユーザの頭部に装着可能に構成されユーザに実空間の視野を提供可能な表示部と、上記表示部の方位を検出する検出部と、上記検出部の出力に基づいて画像を上記視野に表示する表示制御部とを備える。
上記表示制御部は、上記方位が第1の所定角度以上変化したときは、上記方位の変化に応じて上記画像を前記視野内で移動させる。
上記表示制御部は、上記方位の変化が上記第1の所定角度未満のときは、上記視野における上記画像の表示位置を固定する。
上記表示部および検出部は、第1の実施形態で説明した表示部10および検出部20にそれぞれ相当する。上記表示制御部は、第1の実施形態で説明したオブジェクト表示固定機能((1)ノンストリクト属性の導入)を有する表示制御部314に相当する。
すなわち本実施形態のヘッドマウントディスプレイは、ワールド座標が円筒座標に限定されない他の任意の座標系に適用可能である。本実施形態においても第1の実施形態と同様な作用効果を得ることができる。すなわち、視野にオブジェクトが入った状態を容易に維持することができるため、ユーザの不用意な姿勢変化に起因するオブジェクトの移動を規制し、オブジェクトの視認性を高めることができる。
なお本実施形態においても、第1の実施形態と同様に、領域制限機能および画像管理機能の少なくとも1つを備えていてもよい。
<第3の実施形態>
続いて、本技術の第3の実施形態について説明する。以下、第1の実施形態と異なる構成について主に説明し、上述の実施形態と同様の構成についてはその説明を省略または簡略化する。
本実施形態に係るヘッドマウントディスプレイは、ユーザの頭部に装着可能に構成されユーザに実空間の視野を提供可能な表示部と、上記表示部の方位を検出する検出部と、上記検出部の出力に基づいて画像を上記視野に表示する表示制御部とを備える。
上記表示制御部は、上記検出部の出力変化が所定時間にわたって所定以下のときは、上記画像を前記視野の所定位置に移動させる。
または、上記表示制御部は、ユーザの操作により生成される所定信号の入力を検出したときは、上記画像を上記視野の所定位置に移動させる。
上記表示部および検出部は、第1の実施形態で説明した表示部10および検出部20にそれぞれ相当する。上記表示制御部は、第1の実施形態で説明したオブジェクト表示固定機能((2)第1のグラブ機能、または、(3)第2のグラブ機能)を有する表示制御部314に相当する。
すなわち本実施形態のヘッドマウントディスプレイは、ワールド座標が円筒座標に限定されない他の任意の座標系に適用可能である。本実施形態においても第1の実施形態と同様な作用効果を得ることができる。すなわち、視野にオブジェクトが入った状態を容易に維持することができるため、ユーザの不用意な姿勢変化に起因するオブジェクトの移動を規制し、オブジェクトの視認性を高めることができる。
なお本実施形態においても、第1の実施形態と同様に、領域制限機能および画像管理機能の少なくとも1つを備えていてもよい。
<第4の実施形態>
続いて、本技術の第4の実施形態について説明する。以下、第1の実施形態と異なる構成について主に説明し、上述の実施形態と同様の構成についてはその説明を省略または簡略化する。
本実施形態に係るヘッドマウントディスプレイは、ユーザの頭部に装着可能に構成されユーザに実空間の視野を提供可能な表示部と、上記表示部の方位を検出する検出部と、上記検出部の出力に基づいて画像を上記視野に表示する表示制御部を備える。
上記表示制御部は上記視野の所定位置にうえ記画像が表示されている状態において、上記検出部の出力変化が所定周波数以上のときは、上記検出部の出力のうち上記所定周波数以上の周波数成分を無効とする。
上記表示部および検出部は、第1の実施形態で説明した表示部10および検出部20にそれぞれ相当する。上記表示制御部は、第1の実施形態で説明したオブジェクト表示固定機能((4)顔ぶれ補正機能)を有する表示制御部314に相当する。
すなわち本実施形態のヘッドマウントディスプレイは、ワールド座標が円筒座標に限定されない他の任意の座標系に適用可能である。本実施形態においても、上述の第1の実施形態と同様の作用効果を得ることができる。すなわち、ユーザの細かい顔ぶれの影響を受けることなく、画像の視認性を確保することができる。
なお本実施形態においても、第1の実施形態と同様に、領域制限機能および画像管理機能の少なくとも1つを備えていてもよい。
以上、本技術の実施形態について説明したが、本技術は上述の実施形態にのみ限定されるものではなく、本技術の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。
例えば以上の実施形態では、HMDに本技術を適用した例を説明したが、HMD以外の画像表示装置として、例えば、車両の運転席や航空機等のコックピットに搭載されるヘッドアップディスプレイ(HUD)にも本技術は適用可能である。
また以上の実施形態では、シースルー型(透過型)のHMDへの適用例を説明したが、非透過型のHMDにも本技術は適用可能である。この場合、表示部に装着したカメラで撮像された外界視野に、本技術に係る所定のオブジェクトを表示すればよい。
さらに以上の実施形態では、HMD100は、実空間に存在する所定の対象物に関連する情報を含むオブジェクトを視野Vに表示するように構成されたが、これに限られず、ユーザUの現在位置や進行方向に基づいて行先案内表示等が視野Vに表示されてもよい。
なお、本技術は以下のような構成も採ることができる。
(1) ユーザの頭部に装着可能に構成され、ユーザに実空間の視野を提供可能な表示部と、
前記表示部の少なくとも一軸周りの方位を検出する検出部と、
前記表示部を包囲する3次元座標における前記視野の前記一軸方向に沿った表示領域を制限することが可能な領域制限部と、前記視野に表示すべき画像を前記3次元座標に対応付けて記憶する記憶部と、前記検出部の出力に基づいて前記方位に対応する前記3次元座標上の画像を前記視野に表示する表示制御部と、を有する第1の制御ユニットと
を具備するヘッドマウントディスプレイ。
(2)上記(1)に記載のヘッドマウントディスプレイであって、
前記検出部は、前記表示部の鉛直軸周りの方位を検出し、
前記領域制限部は、鉛直軸周りの円筒座標における高さ方向の領域を前記視野の縦方向の領域に応じて制限する
ヘッドマウントディスプレイ。
(3)上記(2)に記載のヘッドマウントディスプレイであって、
前記領域制限部は、前記記憶部に記憶された画像の少なくとも一部が前記視野に表示される高さに、前記円筒座標の高さ方向の領域を制限する
ヘッドマウントディスプレイ。
(4)上記(1)〜(3)のいずれか1つに記載のヘッドマウントディスプレイであって、
前記表示制御部は、
前記方位が第1の所定角度以上変化したときは、前記方位の変化に応じて前記画像を前記視野内で移動させ、
前記方位の変化が前記第1の所定角度未満のときは、前記視野における前記画像の表示位置を固定する
ヘッドマウントディスプレイ。
(5)上記(4)に記載のヘッドマウントディスプレイであって、
前記検出部は、前記表示部の水平軸周りの姿勢変化をさらに検出し、
前記表示制御部は、
前記姿勢変化が第2の所定角度以上のときは、前記姿勢変化に応じて前記画像を前記視野内で移動させ、
前記姿勢変化が前記第2の所定角度未満のときは、前記視野における前記画像の表示位置を固定する
ヘッドマウントディスプレイ。
(6)上記(1)から(3)のいずれか1つに記載のヘッドマウントディスプレイであって、
前記表示制御部は、前記検出部の出力変化が所定時間にわたって所定以下のときは、前記画像を前記視野の所定位置に移動させる
ヘッドマウントディスプレイ。
(7)上記(1)から(6)のいずれか1つに記載のヘッドマウントディスプレイであって、
前記表示制御部は、ユーザの操作により生成される所定信号の入力を検出したときは、前記画像を前記視野の所定位置に移動させる
ヘッドマウントディスプレイ。
(8)上記(1)〜(7)のいずれか1つに記載のヘッドマウントディスプレイであって、
前記表示制御部は、前記視野の所定位置に前記画像が表示されている状態において、前記検出部の出力変化が所定周波数以上のときは、前記検出部の出力のうち前記所定周波数以上の周波数成分を無効とする
ヘッドマウントディスプレイ。
(9)上記(1)〜(8)のいずれか1つに記載のヘッドマウントディスプレイであって、
前記第1の制御ユニットは、ユーザの操作により生成される所定信号の入力を検出したときは、前記3次元座標における高さ方向の領域を前記視野の前記一軸方向の領域に合わせて制限し、前記視野に表示される画像をすべて前記視野において同一の高さに揃える
ヘッドマウントディスプレイ。
(10)上記(1)〜(9)のいずれか1つに記載のヘッドマウントディスプレイであって、
前記画像は、前記視野に存在する所定の対象物に関連する情報を含む
ヘッドマウントディスプレイ。
(11)上記(1)〜(10)のいずれか1つに記載のヘッドマウントディスプレイであって、
前記画像は、アニメーション画像を含む
ヘッドマウントディスプレイ。
(12)上記(1)〜(11)のいずれか1つに記載のヘッドマウントディスプレイであって、
前記検出部は、地磁気センサを含む
ヘッドマウントディスプレイ。
(13)上記(1)〜(12)のいずれか1つに記載のヘッドマウントディスプレイであって、
前記検出部は、前記表示部の動きを検出するモーションセンサを含む
ヘッドマウントディスプレイ。
(14)上記(1)〜(13)のいずれか1つに記載のヘッドマウントディスプレイであって、
前記記憶部に記憶される複数の画像を取得する画像取得部を有する第2の制御ユニットをさらに具備する
ヘッドマウントディスプレイ。
(15)上記(14)に記載のヘッドマウントディスプレイであって、
前記第1の制御ユニットは、前記第2の制御ユニットに対して、前記複数の画像の中から選択された1つ以上の画像の送信を要求する
ヘッドマウントディスプレイ。
(16)上記(13)又は(14)に記載のヘッドマウントディスプレイであって、
前記第1の制御ユニットは、前記3次元座標上の、前記視野の表示領域により近い座標位置に対応付けられた画像の優先的な送信を前記第2の制御ユニットに対して要求する
ヘッドマウントディスプレイ。
(17)上記(16)に記載のヘッドマウントディスプレイであって、
前記画像はアニメーション画像であり、
前記第1の制御ユニットは、前記アニメーション画像を構成する全画像の少なくとも一部の一括的な送信を前記第2の制御ユニットに対して要求する
ヘッドマウントディスプレイ。
(18)上記(16)又は(17)に記載のヘッドマウントディスプレイであって、
前記第1の制御ユニットは、前記記憶部に記憶された画像のすべてについて、その座標位置と前記視野の表示領域との距離を定期的に評価し、前記視野の表示領域から最も遠い座標位置の画像を前記記憶部から削除する
ヘッドマウントディスプレイ。
(19)上記(14)〜(18)のいずれか1つに記載のヘッドマウントディスプレイであって、
前記第2の制御ユニットは、前記表示部の位置情報を取得可能な位置情報取得部をさらに有し、
前記画像取得部は、前記第1の制御ユニットへ送信可能な前記位置情報に対応する画像を取得する
ヘッドマウントディスプレイ。
10…表示部
11R,11L…表示面
12R,12L…画像生成部
20…検出部
30…制御ユニット
100…ヘッドマウントディスプレイ(HMD)
200…携帯情報端末
311…座標設定部
312…画像管理部
313…座標判定部
314…表示制御部
A1〜A4…対象物
B、B1〜B4…オブジェクト
C0,C1…円筒座標(ワールド座標)
V…視野
U…ユーザ

Claims (20)

  1. ユーザの頭部に装着可能に構成され、ユーザに実空間の視野を提供可能な表示部と、
    鉛直軸周りの方位を検出する検出部と、
    前記表示部を包囲する3次元座標における表示領域であって、前記視野の鉛直軸方向に沿った表示領域を制限することが可能な領域制限部と、
    前記視野に表示すべき画像を前記3次元座標に対応付けて記憶する記憶部と、
    前記検出部の出力に基づいて前記方位に対応する前記3次元座標上の前記画像の少なくとも一部が前記視野に表示されるように、前記表示領域に前記画像を配置して表示することが可能な表示制御部と
    を具備するヘッドマウントディスプレイ。
  2. 請求項1に記載のヘッドマウントディスプレイであって、
    前記領域制限部は、前記記憶部に記憶された画像の少なくとも一部が前記視野に表示される高さに、前記円筒座標の高さ方向の領域を制限する
    ヘッドマウントディスプレイ。
  3. 請求項1に記載のヘッドマウントディスプレイであって、
    前記表示制御部は、
    前記方位が第1の所定角度以上変化したときは、前記方位の変化に応じて前記画像を前記視野内で移動させ、
    前記方位の変化が前記第1の所定角度未満のときは、前記視野における前記画像の表示位置を固定する
    ヘッドマウントディスプレイ。
  4. 請求項3に記載のヘッドマウントディスプレイであって、
    前記検出部は、前記表示部の水平軸周りの姿勢変化をさらに検出し、
    前記表示制御部は、
    前記姿勢変化が第2の所定角度以上のときは、前記姿勢変化に応じて前記画像を前記視野内で移動させ、
    前記姿勢変化が前記第2の所定角度未満のときは、前記視野における前記画像の表示位置を固定する
    ヘッドマウントディスプレイ。
  5. 請求項1に記載のヘッドマウントディスプレイであって、
    前記表示制御部は、前記検出部の出力変化が所定時間にわたって所定以下のときは、前記画像を前記視野の所定位置に移動させる
    ヘッドマウントディスプレイ。
  6. 請求項1に記載のヘッドマウントディスプレイであって、
    前記表示制御部は、ユーザの操作により生成される所定信号の入力を検出したときは、前記画像を前記視野の所定位置に移動させる
    ヘッドマウントディスプレイ。
  7. 請求項1に記載のヘッドマウントディスプレイであって、
    前記表示制御部は、前記視野の所定位置に前記画像が表示されている状態において、前記検出部の出力変化が所定周波数以上のときは、前記検出部の出力のうち前記所定周波数以上の周波数成分を無効とする
    ヘッドマウントディスプレイ。
  8. 請求項1に記載のヘッドマウントディスプレイであって、
    前記領域制限部、前記記憶部および前記表示制御部は第1の制御ユニットを構成し、
    前記第1の制御ユニットは、ユーザの操作により生成される所定信号の入力を検出したときは、前記3次元座標における高さ方向の領域を前記視野の前記一軸方向の領域に合わせて制限し、前記視野に表示される画像をすべて前記視野において同一の高さに揃える
    ヘッドマウントディスプレイ。
  9. 請求項1に記載のヘッドマウントディスプレイであって、
    前記画像は、前記視野に存在する所定の対象物に関連する情報を含む
    ヘッドマウントディスプレイ。
  10. 請求項1に記載のヘッドマウントディスプレイであって、
    前記画像は、アニメーション画像を含む
    ヘッドマウントディスプレイ。
  11. 請求項1に記載のヘッドマウントディスプレイであって、
    前記検出部は、地磁気センサを含む
    ヘッドマウントディスプレイ。
  12. 請求項1に記載のヘッドマウントディスプレイであって、
    前記検出部は、前記表示部の動きを検出するモーションセンサを含む
    ヘッドマウントディスプレイ。
  13. 請求項1に記載のヘッドマウントディスプレイであって、
    前記記憶部に記憶される複数の画像を取得する画像取得部を有する第2の制御ユニットをさらに具備する
    ヘッドマウントディスプレイ。
  14. 請求項13に記載のヘッドマウントディスプレイであって、
    前記領域制限部、前記記憶部および前記表示制御部は第1の制御ユニットを構成し、
    前記第1の制御ユニットは、前記第2の制御ユニットに対して、前記複数の画像の中から選択された1つ以上の画像の送信を要求する
    ヘッドマウントディスプレイ。
  15. 請求項13に記載のヘッドマウントディスプレイであって、
    前記領域制限部、前記記憶部および前記表示制御部は第1の制御ユニットを構成し、
    前記第1の制御ユニットは、前記3次元座標上の、前記視野の表示領域により近い座標位置に対応付けられた画像の優先的な送信を前記第2の制御ユニットに対して要求する
    ヘッドマウントディスプレイ。
  16. 請求項15に記載のヘッドマウントディスプレイであって、
    前記画像はアニメーション画像であり、
    前記第1の制御ユニットは、前記アニメーション画像を構成する全画像の少なくとも一部の一括的な送信を前記第2の制御ユニットに対して要求する
    ヘッドマウントディスプレイ。
  17. 請求項15に記載のヘッドマウントディスプレイであって、
    前記第1の制御ユニットは、前記記憶部に記憶された画像のすべてについて、その座標位置と前記視野の表示領域との距離を定期的に評価し、前記視野の表示領域から最も遠い座標位置の画像を前記記憶部から削除する
    ヘッドマウントディスプレイ。
  18. 請求項13に記載のヘッドマウントディスプレイであって、
    前記領域制限部、前記記憶部および前記表示制御部は第1の制御ユニットを構成し、
    前記第2の制御ユニットは、前記表示部の位置情報を取得可能な位置情報取得部をさらに有し、
    前記画像取得部は、前記第1の制御ユニットへ送信可能な前記位置情報に対応する画像を取得する
    ヘッドマウントディスプレイ。
  19. 実空間の視野を提供可能な表示面を有する表示部と、
    鉛直軸周りの方位を検出する検出部と、
    前記表示部を包囲する3次元座標における表示領域であって、前記視野の鉛直軸方向に沿った表示領域を制限することが可能な領域制限部と、
    前記視野に表示すべき画像を前記3次元座標に対応付けて記憶する記憶部と、
    前記検出部の出力に基づいて前記方位に対応する前記3次元座標上の前記画像の少なくとも一部が前記視野に表示されるように、前記表示領域に前記画像を配置して表示することが可能な表示制御部と
    を具備する画像表示装置。
  20. 実空間の視野を提供可能な表示部の鉛直軸周りの方位を検出部で検出し、
    前記視野に表示すべき画像を、前記表示部を包囲する3次元座標に対応付けて記憶し、
    前記3次元座標における表示領域であって、前記視野の鉛直軸方向に沿った表示領域を制限し、
    前記検出部の出力に基づいて前記方位に対応する前記3次元座標上の前記画像の少なくとも一部が前記視野に表示されるように、前記表示領域に前記画像を配置して表示する
    画像表示方法。
JP2014544282A 2013-02-22 2013-12-16 ヘッドマウントディスプレイ、画像表示装置及び画像表示方法 Active JP6287849B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013033076 2013-02-22
JP2013033076 2013-02-22
PCT/JP2013/007386 WO2014128810A1 (ja) 2013-02-22 2013-12-16 ヘッドマウントディスプレイ及び画像表示装置

Publications (2)

Publication Number Publication Date
JPWO2014128810A1 JPWO2014128810A1 (ja) 2017-02-02
JP6287849B2 true JP6287849B2 (ja) 2018-03-07

Family

ID=51390650

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2014544282A Active JP6287849B2 (ja) 2013-02-22 2013-12-16 ヘッドマウントディスプレイ、画像表示装置及び画像表示方法
JP2014544283A Active JP5906322B2 (ja) 2013-02-22 2014-02-24 ヘッドマウントディスプレイ、画像表示装置及び画像表示方法
JP2016053924A Active JP6406293B2 (ja) 2013-02-22 2016-03-17 ディスプレイ
JP2018175635A Active JP6838591B2 (ja) 2013-02-22 2018-09-20 制御装置、制御方法及びプログラム
JP2021020492A Active JP7268692B2 (ja) 2013-02-22 2021-02-12 情報処理装置、制御方法及びプログラム

Family Applications After (4)

Application Number Title Priority Date Filing Date
JP2014544283A Active JP5906322B2 (ja) 2013-02-22 2014-02-24 ヘッドマウントディスプレイ、画像表示装置及び画像表示方法
JP2016053924A Active JP6406293B2 (ja) 2013-02-22 2016-03-17 ディスプレイ
JP2018175635A Active JP6838591B2 (ja) 2013-02-22 2018-09-20 制御装置、制御方法及びプログラム
JP2021020492A Active JP7268692B2 (ja) 2013-02-22 2021-02-12 情報処理装置、制御方法及びプログラム

Country Status (5)

Country Link
US (7) US9709806B2 (ja)
EP (2) EP2960896B1 (ja)
JP (5) JP6287849B2 (ja)
CN (2) CN104246864B (ja)
WO (2) WO2014128810A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017187757A (ja) * 2016-03-30 2017-10-12 TsZ株式会社 画像表示装置

Families Citing this family (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014128810A1 (ja) * 2013-02-22 2014-08-28 ソニー株式会社 ヘッドマウントディスプレイ及び画像表示装置
WO2014129105A1 (ja) * 2013-02-22 2014-08-28 ソニー株式会社 ヘッドマウントディスプレイシステム、ヘッドマウントディスプレイ及びヘッドマウントディスプレイ制御プログラム
EP3188132B1 (en) * 2014-08-27 2021-05-05 Sony Corporation Display control device, display control method, and program
US9508195B2 (en) * 2014-09-03 2016-11-29 Microsoft Technology Licensing, Llc Management of content in a 3D holographic environment
US20170310944A1 (en) * 2014-09-30 2017-10-26 Mirama Service Inc. Input/output device, input/output program, and input/output method
US20170302904A1 (en) * 2014-09-30 2017-10-19 Mirama Service Inc. Input/output device, input/output program, and input/output method
JP6399692B2 (ja) * 2014-10-17 2018-10-03 国立大学法人電気通信大学 ヘッドマウントディスプレイ、画像表示方法及びプログラム
JP2016096513A (ja) * 2014-11-17 2016-05-26 株式会社ゼンリンデータコム 情報処理システム、情報処理方法及びプログラム
JP6550734B2 (ja) * 2014-12-02 2019-07-31 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP2016110319A (ja) * 2014-12-04 2016-06-20 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
US9542718B2 (en) * 2014-12-18 2017-01-10 Intel Corporation Head mounted display update buffer
CN104615241B (zh) * 2015-01-04 2017-08-25 谭希韬 基于头转动的穿戴式眼镜控制方法和系统
US10740971B2 (en) 2015-01-20 2020-08-11 Microsoft Technology Licensing, Llc Augmented reality field of view object follower
EP3264982A4 (en) * 2015-03-04 2018-09-26 California Institute of Technology Position sensing and guiding system
JP6481456B2 (ja) * 2015-03-26 2019-03-13 富士通株式会社 表示制御方法、表示制御プログラム、及び情報処理装置
JP6439935B2 (ja) * 2015-05-07 2018-12-19 パナソニックIpマネジメント株式会社 表示制御方法、ヘッドマウントディスプレイ、およびプログラム
JP2016218268A (ja) * 2015-05-21 2016-12-22 セイコーエプソン株式会社 可搬型表示装置、表示システム、表示方法
JP6344311B2 (ja) * 2015-05-26 2018-06-20 ソニー株式会社 表示装置、情報処理システム及び制御方法
WO2016195733A1 (en) * 2015-06-01 2016-12-08 Thomson Licensing Reactive animation for virtual reality
US9520002B1 (en) * 2015-06-24 2016-12-13 Microsoft Technology Licensing, Llc Virtual place-located anchor
CN106303404A (zh) * 2015-06-29 2017-01-04 北京智谷睿拓技术服务有限公司 可视化内容传输控制方法、发送方法、及其装置
JP6611501B2 (ja) * 2015-07-17 2019-11-27 キヤノン株式会社 情報処理装置、仮想オブジェクトの操作方法、コンピュータプログラム、及び記憶媒体
CN107851333A (zh) * 2015-07-28 2018-03-27 株式会社日立制作所 图像生成装置、图像生成系统以及图像生成方法
CN105183148A (zh) * 2015-08-03 2015-12-23 众景视界(北京)科技有限公司 用于头戴式智能设备的平移检测方法及平移检测装置
JP6346131B2 (ja) * 2015-09-07 2018-06-20 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像生成方法
JP5913709B1 (ja) * 2015-09-29 2016-04-27 株式会社コロプラ 画像生成装置、画像生成方法、及び画像生成プログラム
CN105354820B (zh) * 2015-09-30 2018-05-22 深圳多新哆技术有限责任公司 调整虚拟现实图像的方法及装置
US20170092002A1 (en) * 2015-09-30 2017-03-30 Daqri, Llc User interface for augmented reality system
WO2017077681A1 (ja) * 2015-11-02 2017-05-11 ソニー株式会社 ウェアラブルディスプレイ、画像表示装置及び画像表示システム
JP6518582B2 (ja) * 2015-12-21 2019-05-22 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および操作受付方法
US10229541B2 (en) 2016-01-28 2019-03-12 Sony Interactive Entertainment America Llc Methods and systems for navigation within virtual reality space using head mounted display
JP6134019B1 (ja) * 2016-01-29 2017-05-24 株式会社コロプラ 仮想現実空間提供方法および仮想現実空間提供プログラム
EP3206122A1 (en) 2016-02-10 2017-08-16 Nokia Technologies Oy An apparatus and associated methods
EP3211629A1 (en) * 2016-02-24 2017-08-30 Nokia Technologies Oy An apparatus and associated methods
US10931913B2 (en) 2016-04-14 2021-02-23 Sony Interactive Entertainment Inc. Reception apparatus, transmission apparatus, control method, transmission method, and program
US20170329394A1 (en) * 2016-05-13 2017-11-16 Benjamin Lloyd Goldstein Virtual and augmented reality systems
JP6549066B2 (ja) * 2016-07-13 2019-07-24 株式会社コロプラ 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム
JP6440910B2 (ja) * 2016-07-29 2018-12-19 三菱電機株式会社 表示装置、表示制御装置および表示制御方法
CN106412424A (zh) * 2016-09-20 2017-02-15 乐视控股(北京)有限公司 全景视频的视野调整方法及装置
GB2557593A (en) * 2016-12-09 2018-06-27 Sony Interactive Entertainment Inc Virtual reality
KR101843018B1 (ko) * 2016-12-15 2018-03-28 (주)잼투고 영상합성 시스템 및 영상합성방법
JP2018101019A (ja) 2016-12-19 2018-06-28 セイコーエプソン株式会社 表示装置及び表示装置の制御方法
JP6874448B2 (ja) * 2017-03-17 2021-05-19 株式会社デンソーウェーブ 情報表示システム
WO2018209557A1 (zh) * 2017-05-16 2018-11-22 深圳市大疆创新科技有限公司 用于设备控制的方法、设备和计算机可读存储介质
JP6717268B2 (ja) * 2017-07-12 2020-07-01 京セラドキュメントソリューションズ株式会社 情報処理装置及び情報処理プログラム
WO2019031397A1 (ja) * 2017-08-07 2019-02-14 ナーブ株式会社 画像表示装置、画像表示方法及び画像表示プログラム
CN109584263B (zh) * 2017-09-25 2023-11-24 京东方科技集团股份有限公司 可穿戴设备的测试方法及系统
US11347052B2 (en) 2017-10-23 2022-05-31 Sony Corporation Display control apparatus, head mounted display, and display control method
CN109996060B (zh) * 2017-12-30 2021-09-03 深圳多哚新技术有限责任公司 一种虚拟现实影院系统及信息处理方法
US11113887B2 (en) * 2018-01-08 2021-09-07 Verizon Patent And Licensing Inc Generating three-dimensional content from two-dimensional images
TWI658291B (zh) * 2018-01-25 2019-05-01 宏碁股份有限公司 頭戴式顯示器及其操作方法
US10740982B2 (en) * 2018-05-04 2020-08-11 Microsoft Technology Licensing, Llc Automatic placement and arrangement of content items in three-dimensional environment
JP7077132B2 (ja) * 2018-05-16 2022-05-30 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
US11170625B2 (en) 2018-05-18 2021-11-09 California Institute Of Technology Head positioner for retinal surgery patients
JP6556295B2 (ja) * 2018-05-24 2019-08-07 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像生成方法
US20190378334A1 (en) * 2018-06-08 2019-12-12 Vulcan Inc. Augmented reality portal-based applications
US20190385372A1 (en) * 2018-06-15 2019-12-19 Microsoft Technology Licensing, Llc Positioning a virtual reality passthrough region at a known distance
CN108646925B (zh) * 2018-06-26 2021-01-05 朱光 一种分体式头戴显示器系统及交互方法
US10996831B2 (en) 2018-06-29 2021-05-04 Vulcan Inc. Augmented reality cursors
TWI691891B (zh) * 2018-09-07 2020-04-21 財團法人工業技術研究院 多重目標物資訊顯示方法及裝置
WO2020059028A1 (ja) * 2018-09-18 2020-03-26 マクセル株式会社 ヘッドマウントディスプレイ及びオブジェクトの表示方法
KR102203371B1 (ko) 2018-11-30 2021-01-15 삼성물산 주식회사 놀이공원에서 놀이기구를 가동하는 동안 이미지를 시각화하는 장치, 방법 및 이미지 시각화 장치를 관리하는 장치 및 방법
US11054896B1 (en) * 2019-02-07 2021-07-06 Facebook, Inc. Displaying virtual interaction objects to a user on a reference plane
US11493357B2 (en) * 2019-09-02 2022-11-08 Aisin Corporation Superimposed image display device, superimposed image drawing method, and computer program
JP2021119364A (ja) * 2020-01-30 2021-08-12 セイコーエプソン株式会社 表示装置、表示装置の制御方法およびプログラム
EP4158446A1 (en) * 2020-05-27 2023-04-05 Telefonaktiebolaget Lm Ericsson (Publ) Method and device for controlling display of content
US11087557B1 (en) * 2020-06-03 2021-08-10 Tovy Kamine Methods and systems for remote augmented reality communication for guided surgery
JP7252309B1 (ja) 2021-12-27 2023-04-04 株式会社電通国際情報サービス タスク表示システム
CN114931752A (zh) * 2022-05-23 2022-08-23 网易(杭州)网络有限公司 游戏中的显示方法、装置、终端设备及存储介质
WO2023238264A1 (ja) * 2022-06-08 2023-12-14 マクセル株式会社 情報表示装置およびその表示方法

Family Cites Families (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS596322B2 (ja) 1978-02-15 1984-02-10 瀬尾高圧工業株式会社 低高圧蒸気の取出し装置
JPS596322A (ja) 1982-06-30 1984-01-13 Hitachi Metals Ltd Fe−Cr−Co系磁性材料の製造方法
JPS596322U (ja) 1982-07-01 1984-01-17 松下電器産業株式会社 超音波遅延線
US6061064A (en) * 1993-08-31 2000-05-09 Sun Microsystems, Inc. System and method for providing and using a computer user interface with a view space having discrete portions
US6351261B1 (en) * 1993-08-31 2002-02-26 Sun Microsystems, Inc. System and method for a virtual reality system having a frame buffer that stores a plurality of view points that can be selected and viewed by the user
US6388638B2 (en) * 1994-10-28 2002-05-14 Canon Kabushiki Kaisha Display apparatus and its control method
US5742264A (en) * 1995-01-24 1998-04-21 Matsushita Electric Industrial Co., Ltd. Head-mounted display
JPH1093889A (ja) * 1996-09-13 1998-04-10 Minolta Co Ltd 頭部載置型映像表示装置
JPH10341387A (ja) 1997-06-10 1998-12-22 Canon Inc 表示装置
JPH11153987A (ja) * 1997-11-19 1999-06-08 Olympus Optical Co Ltd グラフィック表示装置
WO2000017848A1 (en) * 1998-09-22 2000-03-30 Vega Vista, Inc. Intuitive control of portable data displays
JP2000184398A (ja) 1998-10-09 2000-06-30 Sony Corp 仮想画像立体合成装置、仮想画像立体合成方法、ゲ―ム装置及び記録媒体
KR20010105316A (ko) * 1998-12-17 2001-11-28 도낀 가부시끼가이샤 방향각 검출기
US7132214B2 (en) 2000-09-08 2006-11-07 Shipley Company, L.L.C. Polymers and photoresist compositions for short wavelength imaging
JP2003296757A (ja) * 2002-03-29 2003-10-17 Canon Inc 情報処理方法および装置
JP4373286B2 (ja) * 2004-05-06 2009-11-25 オリンパス株式会社 頭部装着型表示装置
SE527257C2 (sv) 2004-06-21 2006-01-31 Totalfoersvarets Forskningsins Anordning och metod för att presentera en omvärldsbild
JP4642400B2 (ja) * 2004-07-20 2011-03-02 オリンパス株式会社 情報表示システム
US20060050070A1 (en) * 2004-09-07 2006-03-09 Canon Kabushiki Kaisha Information processing apparatus and method for presenting image combined with virtual image
JP4686176B2 (ja) * 2004-11-22 2011-05-18 オリンパス株式会社 画像再生装置
JP2006171311A (ja) * 2004-12-15 2006-06-29 Nec Corp 表示部を備えた電子機器及びその制御方法
EP1848966A1 (en) * 2005-02-17 2007-10-31 Lumus Ltd Personal navigation system
JP4661314B2 (ja) * 2005-04-04 2011-03-30 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
JP2007316568A (ja) 2006-05-29 2007-12-06 Fumiaki Murakami 広視野画像表示操作装置
JP4927631B2 (ja) * 2006-06-27 2012-05-09 パナソニック株式会社 表示装置、その制御方法、プログラム、記録媒体および集積回路
US8786675B2 (en) * 2008-01-23 2014-07-22 Michael F. Deering Systems using eye mounted displays
JP5083559B2 (ja) 2008-06-02 2012-11-28 カシオ計算機株式会社 画像合成装置、画像合成方法及びプログラム
US9204050B2 (en) 2008-12-25 2015-12-01 Panasonic Intellectual Property Management Co., Ltd. Information displaying apparatus and information displaying method
US9111498B2 (en) * 2010-08-25 2015-08-18 Eastman Kodak Company Head-mounted display with environmental state detection
JP5360021B2 (ja) 2010-08-31 2013-12-04 ブラザー工業株式会社 携帯型情報処理装置、及び携帯型情報処理装置のためのコンピュータプログラム
CN103080983A (zh) 2010-09-06 2013-05-01 国立大学法人东京大学 车辆系统
WO2012049795A1 (ja) * 2010-10-12 2012-04-19 パナソニック株式会社 表示処理装置、表示方法およびプログラム
KR101266198B1 (ko) 2010-10-19 2013-05-21 주식회사 팬택 증강현실 객체정보의 가시성을 높이는 디스플레이 장치 및 디스플레이 방법
US8576276B2 (en) * 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
EP3654147A1 (en) * 2011-03-29 2020-05-20 QUALCOMM Incorporated System for the rendering of shared digital interfaces relative to each user's point of view
CN103380625A (zh) 2011-06-16 2013-10-30 松下电器产业株式会社 头戴式显示器及其位置偏差调整方法
US20120327116A1 (en) * 2011-06-23 2012-12-27 Microsoft Corporation Total field of view classification for head-mounted display
JP5830987B2 (ja) 2011-07-06 2015-12-09 ソニー株式会社 表示制御装置、表示制御方法およびコンピュータプログラム
US8854282B1 (en) * 2011-09-06 2014-10-07 Google Inc. Measurement method
US9268406B2 (en) * 2011-09-30 2016-02-23 Microsoft Technology Licensing, Llc Virtual spectator experience with a personal audio/visual apparatus
US9480539B2 (en) * 2011-11-03 2016-11-01 James Ortlieb Viewing system and viewing method for assisting user in carrying out surgery by identifying a target image
US20150199081A1 (en) * 2011-11-08 2015-07-16 Google Inc. Re-centering a user interface
US8866852B2 (en) * 2011-11-28 2014-10-21 Google Inc. Method and system for input detection
US20130178257A1 (en) * 2012-01-06 2013-07-11 Augaroo, Inc. System and method for interacting with virtual objects in augmented realities
US20130246967A1 (en) * 2012-03-15 2013-09-19 Google Inc. Head-Tracked User Interaction with Graphical Interface
US8947323B1 (en) * 2012-03-20 2015-02-03 Hayes Solos Raffle Content display methods
US9710056B2 (en) * 2012-03-21 2017-07-18 Google Inc. Methods and systems for correlating movement of a device with state changes of the device
US9210413B2 (en) * 2012-05-15 2015-12-08 Imagine Mobile Augmented Reality Ltd System worn by a moving user for fully augmenting reality by anchoring virtual objects
US20130342572A1 (en) * 2012-06-26 2013-12-26 Adam G. Poulos Control of displayed content in virtual environments
US10514541B2 (en) * 2012-12-27 2019-12-24 Microsoft Technology Licensing, Llc Display update time reduction for a near-eye display
US10133342B2 (en) * 2013-02-14 2018-11-20 Qualcomm Incorporated Human-body-gesture-based region and volume selection for HMD
WO2014128810A1 (ja) * 2013-02-22 2014-08-28 ソニー株式会社 ヘッドマウントディスプレイ及び画像表示装置
EP3067781B1 (en) * 2013-11-05 2023-03-08 Sony Group Corporation Information processing device, method of processing information, and program
CN105714455B (zh) * 2016-04-15 2018-04-20 苏州市丹纺纺织研发有限公司 一种弹簧式捕纬器

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017187757A (ja) * 2016-03-30 2017-10-12 TsZ株式会社 画像表示装置

Also Published As

Publication number Publication date
EP4099136A1 (en) 2022-12-07
WO2014129204A1 (ja) 2014-08-28
JP6838591B2 (ja) 2021-03-03
US20150130837A1 (en) 2015-05-14
US20240027774A1 (en) 2024-01-25
EP2960896A4 (en) 2016-10-26
JP6406293B2 (ja) 2018-10-17
US20180143439A1 (en) 2018-05-24
US9910281B2 (en) 2018-03-06
JP2019008319A (ja) 2019-01-17
CN104221077A (zh) 2014-12-17
JP7268692B2 (ja) 2023-05-08
JPWO2014129204A1 (ja) 2017-02-02
JP2021092802A (ja) 2021-06-17
US20150049002A1 (en) 2015-02-19
US20200103658A1 (en) 2020-04-02
JPWO2014128810A1 (ja) 2017-02-02
WO2014128810A1 (ja) 2014-08-28
JP5906322B2 (ja) 2016-04-20
US11885971B2 (en) 2024-01-30
CN104246864B (zh) 2016-06-29
CN104246864A (zh) 2014-12-24
US20190250410A1 (en) 2019-08-15
US20230041942A1 (en) 2023-02-09
CN104221077B (zh) 2017-07-14
EP2960896A1 (en) 2015-12-30
US11513353B2 (en) 2022-11-29
US9709806B2 (en) 2017-07-18
US10317681B2 (en) 2019-06-11
US10534183B2 (en) 2020-01-14
EP2960896B1 (en) 2022-07-20
JP2016153899A (ja) 2016-08-25

Similar Documents

Publication Publication Date Title
JP6287849B2 (ja) ヘッドマウントディスプレイ、画像表示装置及び画像表示方法
WO2016088420A1 (ja) 表示制御装置、表示制御方法およびプログラム
US10796669B2 (en) Method and apparatus to control an augmented reality head-mounted display
US20210058612A1 (en) Virtual reality display method, device, system and storage medium
US20150170422A1 (en) Information Display System With See-Through HMD, Display Control Program and Display Control Method
WO2013145536A1 (en) Information processing apparatus, information processing system, and information processing method
KR20180043609A (ko) 디스플레이 장치 및 디스플레이 장치의 영상 처리 방법
CN108351736B (zh) 可穿戴显示器、图像显示装置和图像显示系统
JP2017026762A (ja) 表示制御装置、表示制御方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161202

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170815

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180122

R151 Written notification of patent or utility model registration

Ref document number: 6287849

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151