JP2015188175A - 頭部装着型表示装置および頭部装着型表示装置の制御方法 - Google Patents

頭部装着型表示装置および頭部装着型表示装置の制御方法 Download PDF

Info

Publication number
JP2015188175A
JP2015188175A JP2014065100A JP2014065100A JP2015188175A JP 2015188175 A JP2015188175 A JP 2015188175A JP 2014065100 A JP2014065100 A JP 2014065100A JP 2014065100 A JP2014065100 A JP 2014065100A JP 2015188175 A JP2015188175 A JP 2015188175A
Authority
JP
Japan
Prior art keywords
image
head
user
display device
mounted display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014065100A
Other languages
English (en)
Other versions
JP6379572B2 (ja
Inventor
総志 木村
Fusayuki Kimura
総志 木村
恵一 岡野
Keiichi Okano
恵一 岡野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014065100A priority Critical patent/JP6379572B2/ja
Priority to US14/607,556 priority patent/US9799144B2/en
Publication of JP2015188175A publication Critical patent/JP2015188175A/ja
Application granted granted Critical
Publication of JP6379572B2 publication Critical patent/JP6379572B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Abstract

【課題】頭部装着型表示装置において、使用者に頭部装着型表示装置を操作するための操作部を提供しつつ、仮想空間への没入感を感じさせる。【解決手段】使用者が虚像を視認可能な頭部装着型表示装置は、使用者に虚像を視認させるための画像表示部と、頭部装着型表示装置を操作するために用いられる複数の画像と、背景画像とを表す虚像を、画像表示部に形成させる表示処理部と、使用者の頭部の動きを検出する動き検出部とを備える。表示処理部は、使用者の頭部の動きに応じて背景画像を変更する。【選択図】図9

Description

本発明は、頭部装着型表示装置に関する。
使用者の頭部に装着されて用いられることによって、使用者の視野領域に虚像を形成する頭部装着型表示装置が知られている。この頭部装着型表示装置は、ヘッドマウントディスプレイ(HMD:Head Mounted Display)とも呼ばれる。
このような頭部装着型表示装置において、使用者に視認させる虚像を、使用者の頭の動き等に追従させて変化させ、仮想空間を提示するバーチャルリアリティと呼ばれる技術が知られている。頭部装着型表示装置を用いて実現される仮想空間では、自身の動きに応じて視認する虚像が変化することから、使用者は、自身の眼で直接仮想空間を見ているという強い没入感を得ることができる。特許文献1には、仮想表示スクリーンの異なる位置に、操作部として機能する仮想画面をそれぞれ配置し、使用者の頭部の動きに応じて、一の操作部(仮想画面)を使用者に視認させる頭部装着型表示装置が記載されている。
特許第3872100号公報
特許文献1に記載された技術では、使用者は、頭部の動きに応じて全く異なる操作部(仮想画面)を視認するため、没入感を得づらいという課題があった。
このため、使用者に頭部装着型表示装置を操作するための操作部を提供しつつ、仮想空間への没入感を感じさせることのできる頭部装着型表示装置が望まれている。そのほか、頭部装着型表示装置には、小型化、低コスト化、省資源化、製造の容易化、使い勝手の向上等が望まれている。
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。
(1)本発明の一形態によれば、使用者が虚像を視認可能な頭部装着型表示装置が提供される。この頭部装着型表示装置は;前記使用者に前記虚像を視認させるための画像表示部と;前記頭部装着型表示装置を操作するために用いられる複数の画像と、背景画像とを表す前記虚像を、前記画像表示部に形成させる表示処理部と;前記使用者の頭部の動きを検出する動き検出部と、を備え;前記表示処理部は、前記使用者の頭部の動きに応じて前記背景画像を変更する。この形態の頭部装着型表示装置によれば、表示処理部は、頭部装着型表示装置を操作するために用いられる複数の画像と、背景画像とを表す虚像を画像表示部に形成させることで、使用者に視認させる。このため、表示処理部は、使用者に頭部装着型表示装置を操作するための操作部を提供することができる。また、表示処理部は、使用者の頭部の動きに応じて背景画像を変更するため、使用者は、自身の頭部の動きに応じて変化する背景画像によって、仮想空間への没入感を感じることができる。この結果、使用者に頭部装着型表示装置を操作するための操作部を提供しつつ、仮想空間への没入感を感じさせることのできる頭部装着型表示装置を提供することができる。
(2)上記形態の頭部装着型表示装置において;前記表示処理部は;前記背景画像の領域よりも大きな領域を有する対象画像から、前記対象画像の一部を抜き出して前記背景画像とし;前記使用者の頭部の動きに応じて前記対象画像から抜き出す部分を変更することで、前記背景画像を変更してもよい。この形態の頭部装着型表示装置によれば、表示処理部は、使用者の頭部の動きに応じて対象画像から背景画像として抜き出す部分を変更するため、背景画像の変化に連続性を持たせることができる。この結果、使用者により深い没入感を感じさせることができる。
(3)上記形態の頭部装着型表示装置において;前記表示処理部は;検出された前記使用者の頭部の水平方向の動きに応じて、前記対象画像から前記背景画像として抜き出す部分を水平方向に移動させ;検出された前記使用者の頭部の鉛直方向の動きに応じて、前記対象画像から前記背景画像として抜き出す部分を鉛直方向に移動させてもよい。この形態の頭部装着型表示装置によれば、表示処理部は、使用者の頭部の水平方向の動きに応じて、対象画像から背景画像として抜き出す部分を水平方向に移動させ、使用者の頭部の鉛直方向の動きに応じて、対象画像から背景画像として抜き出す部分を鉛直方向に移動させる。このように、表示処理部は、使用者の頭部の動きに追従して背景画像を変化させるため、使用者により深い没入感を感じさせることができる。
(4)上記形態の頭部装着型表示装置では、さらに;前記対象画像の水平方向の大きさに対する前記使用者の頭部の水平方向の移動量と、前記対象画像の鉛直方向の大きさに対する前記使用者の頭部の鉛直方向の移動量と、を予め記憶する記憶部を備え;前記表示処理部は、検出された前記使用者の頭部の水平方向の動きおよび前記水平方向の移動量と、検出された前記使用者の頭部の鉛直方向の動きおよび前記鉛直方向の移動量と、に基づいて、前記対象画像から前記背景画像として抜き出す部分を決定してもよい。この形態の頭部装着型表示装置によれば、表示処理部は、記憶部に記憶されている使用者の頭部の水平および鉛直方向の移動量と、検出された使用者の頭部の水平および鉛直方向の動きに基づいて対象画像から抜き出す部分を決定する。このため、記憶部の内容を変更することで簡便に、表示処理部の処理を変更することができる。
(5)上記形態の頭部装着型表示装置において;前記表示処理部は、さらに;前記使用者の頭部の斜め方向の動きに応じて、前記対象画像から前記背景画像として抜き出す部分を傾けてもよい。この形態の頭部装着型表示装置によれば、表示処理部は、使用者の頭部の斜め方向の動きに応じて、対象画像から背景画像として抜き出す部分を傾ける。このように、表示処理部は、使用者の頭部の動きに追従して背景画像を変化させるため、使用者により深い没入感を感じさせることができる。
(6)上記形態の頭部装着型表示装置において;前記表示処理部は、さらに;現在時刻に応じて前記対象画像を変更してもよい。この形態の頭部装着型表示装置によれば、表示処理部は、現在時刻に応じて対象画像を変更するため、使用者により深い没入感を感じさせることができる。
(7)上記形態の頭部装着型表示装置では、さらに;前記対象画像の特性に関する特性条件を予め記憶する記憶部を備え;前記表示処理部は;前記対象画像の元となる元画像を取得し;取得した前記元画像が前記特性条件を満たさない場合は、前記元画像を変換することで前記特性条件を満たすような前記対象画像を生成し;取得した前記元画像が前記特性条件を満たす場合は、前記元画像をそのまま前記対象画像としてもよい。この形態の頭部装着型表示装置によれば、表示処理部は、対象画像の元となる元画像が対象画像の特性に関する特性条件を満たさない場合は、元画像を変換することで特性条件を満たすような対象画像を生成する。このため、背景画像を生成するために用いられる対象画像の特性を画一化することができる。
(8)上記形態の頭部装着型表示装置では、さらに;前記対象画像の生成に関する生成条件を予め記憶する記憶部を備え;前記表示処理部は;前記対象画像の元となる元画像を取得し;取得した前記元画像を、前記生成条件に従って変換することで前記対象画像を生成してもよい。この形態の頭部装着型表示装置によれば、表示処理部は、対象画像の元となる元画像を、対象画像の生成に関する生成条件に従って変換することで対象画像を生成する。このため、背景画像を生成するために用いられる対象画像の特性を画一化することができる。
(9)上記形態の頭部装着型表示装置では、さらに;前記使用者の視線を検出する視線検出部を備え;前記表示処理部は、さらに、前記使用者の視線に応じて前記背景画像を変更してもよい。この形態の頭部装着型表示装置によれば、表示処理部は、使用者の視線に応じて背景画像を変更する。このため、使用者は、自身の頭部の動きに加えて、自身の視線の変化に応じて変化する背景画像によって、仮想空間へのより没入感を感じることができる。
(10)上記形態の頭部装着型表示装置では、さらに;前記使用者の姿勢を検出する姿勢検出部を備え;前記表示処理部は、さらに、前記使用者の姿勢に応じて前記背景画像を変更してもよい。この形態の頭部装着型表示装置によれば、表示処理部は、使用者の姿勢に応じて背景画像を変更する。このため、使用者は、自身の頭部の動きに加えて、自身の姿勢の変化に応じて変化する背景画像によって、仮想空間へのより没入感を感じることができる。
(11)上記形態の頭部装着型表示装置において;前記複数の画像には、少なくとも、前記頭部装着型表示装置内のアイコン画像が含まれていてもよい。この形態の頭部装着型表示装置によれば、複数の画像には、頭部装着型表示装置にインストールされているアプリケーションの起動用のアイコン画像を含むことができる。
上述した本発明の各形態の有する複数の構成要素は全てが必須のものではなく、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、適宜、前記複数の構成要素の一部の構成要素について、その変更、削除、新たな構成要素との差し替え、限定内容の一部削除を行うことが可能である。また、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、上述した本発明の一形態に含まれる技術的特徴の一部または全部を上述した本発明の他の形態に含まれる技術的特徴の一部または全部と組み合わせて、本発明の独立した一形態とすることも可能である。
例えば、本発明の一形態は、画像表示部と、表示処理部と、動き検出部と、の3つの要素のうちの一部または全部の要素を備えた装置として実現可能である。すなわち、この装置は、画像表示部を有していてもよく、有していなくてもよい。また、この装置は、表示処理部を有していてもよく、有していなくてもよい。また、この装置は、動き検出部を有していてもよく、有していなくてもよい。こうした装置は、例えば頭部装着型表示装置として実現できるが、頭部装着型表示装置以外の他の装置としても実現可能である。前述した頭部装着型表示装置の各形態の技術的特徴の一部または全部は、いずれもこの装置に適用することが可能である。
なお、本発明は、種々の態様で実現することが可能であり、例えば、頭部装着型表示装置および頭部装着型表示装置の制御方法、頭部装着型表示システム、これらの方法、装置またはシステムの機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体等の形態で実現することができる。
本発明の一実施形態における頭部装着型表示装置の概略構成を示す説明図である。 HMDの構成を機能的に示すブロック図である。 画像設定の一例を示す説明図である。 HMDの利用者によって与えられた元画像ファイル124が表す画像の一例を示す説明図である。 連動動作設定の一例を示す説明図である。 連動動作設定について説明するための説明図である。 アイコン情報の一例を示す説明図である。 使用者に視認される虚像の一例を示す説明図である。 UI表示処理の手順を示すフローチャートである。 使用者の頭部の動きの検出について説明するための説明図である。 UI表示処理のステップS114について説明するための説明図である。 UI表示処理のステップS114について説明するための説明図である。 UI表示処理のステップS114について説明するための説明図である。 UI表示処理を経て使用者に視認されるUI画像を表す虚像の一例を示す説明図である。 第2実施家形態におけるHMDの構成を機能的に示すブロック図である。 変形例におけるHMDの外観の構成を示す説明図である。
A.第1実施形態:
A−1.頭部装着型表示装置の構成:
図1は、本発明の一実施形態における頭部装着型表示装置の概略構成を示す説明図である。頭部装着型表示装置100は、頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。本実施形態のHMD100は、使用者が、虚像を視認すると同時に外景も直接視認可能な光学透過型の頭部装着型表示装置である。また、本実施形態のHMD100では、後述のUI(User Interface)表示処理を実行することにより、HMD100を操作するために用いられる複数の画像(例えばアイコン画像)を、背景画像に対して重畳させた画像を表す虚像を使用者に視認させることができる。さらに、本実施形態のHMD100では、背景画像を使用者の頭部の動きに応じて変化させることができる。
HMD100は、使用者の頭部に装着された状態において使用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御部(コントローラー)10とを備えている。なお、以降の説明において、HMD100によって使用者が視認する虚像を便宜的に「表示画像」とも呼ぶ。また、画像データーに基づいて生成された画像光を射出することを「画像を表示する」ともいう。
画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有している。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、9軸センサー66と、を含んでいる。右光学像表示部26および左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右および左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに接続されている。
右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21および左保持部23は、眼鏡のテンプル(つる)のようにして、頭部に画像表示部20を保持する。
右表示駆動部22は、右保持部21の内側、換言すれば、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。また、左表示駆動部24は、左保持部23の内側に配置されている。なお、以降では、右保持部21および左保持部23を総称して単に「保持部」とも呼び、右表示駆動部22および左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26および左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。
表示駆動部は、液晶ディスプレイ(Liquid Crystal Display、以下「LCD」と呼ぶ)241、242や投写光学系251、252等を含む(図2参照)。表示駆動部の構成の詳細は後述する。光学部材としての光学像表示部は、導光板261、262(図2参照)と調光板とを含んでいる。導光板261、262は、光透過性の樹脂材料等によって形成され、表示駆動部から出力された画像光を使用者の眼に導く。調光板は、薄板状の光学素子であり、画像表示部20の表側(使用者の眼の側とは反対の側)を覆うように配置されている。調光板は、導光板261、262を保護し、導光板261、262の損傷や汚れの付着等を抑制する。また、調光板の光透過率を調整することによって、使用者の眼に入る外光量を調整して虚像の視認のしやすさを調整することができる。なお、調光板は省略可能である。
9軸センサー66は、使用者が画像表示部20を装着した際の使用者の右側のこめかみに対応する位置に配置されている。9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサーである。9軸センサー66は、画像表示部20に設けられているため、画像表示部20が頭部に装着されているときには、頭部の動きを検出する「動き検出部」として機能する。ここで、頭部の動きとは、頭部の速度・加速度・角速度・向き・向きの変化を含む。
画像表示部20は、さらに、画像表示部20を制御部10に接続するための接続部40を有している。接続部40は、制御部10に接続される本体コード48と、本体コード48が2本に分岐した右コード42および左コード44と、分岐点に設けられた連結部材46と、を含んでいる。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続されている。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続されている。連結部材46には、イヤホンプラグ30を接続するためのジャックが設けられている。イヤホンプラグ30からは、右イヤホン32および左イヤホン34が延伸している。
画像表示部20と制御部10とは、接続部40を介して各種信号の伝送を行う。本体コード48における連結部材46とは反対側の端部と、制御部10とのそれぞれには、互いに嵌合するコネクター(図示省略)が設けられている。本体コード48のコネクターと制御部10のコネクターとの嵌合/嵌合解除により、制御部10と画像表示部20とが接続されたり切り離されたりする。右コード42と、左コード44と、本体コード48には、例えば、金属ケーブルや光ファイバーを採用することができる。
制御部10はHMD100を制御するための装置である。制御部10は、決定キー11と、点灯部12と、表示切替キー13と、トラックパッド14と、輝度切替キー15と、方向キー16と、メニューキー17と、電源スイッチ18と、を含んでいる。決定キー11は、押下操作を検出して、制御部10で操作された内容を決定する信号を出力する。点灯部12は、HMD100の動作状態を、その発光状態によって通知する。HMD100の動作状態としては、例えば、電源のON/OFF等がある。点灯部12としては、例えば、LED(Light Emitting Diode)が用いられる。表示切替キー13は、押下操作を検出して、例えば、コンテンツ動画の表示モードを3Dと2Dとに切り替える信号を出力する。
トラックパッド14は、トラックパッド14の操作面上での使用者の指の操作を検出して、検出内容に応じた信号を出力する。トラックパッド14としては、静電式や圧力検出式、光学式といった種々の方式を採用できる。輝度切替キー15は、押下操作を検出して、画像表示部20の輝度を増減する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、HMD100の電源投入状態を切り替える。
図2は、HMD100の構成を機能的に示すブロック図である。制御部10は、入力情報取得部110と、記憶部120と、電源130と、無線通信部132と、CPU140と、インターフェイス180と、送信部(Tx)51および52とを備え、各部は図示しないバスにより相互に接続されている。
入力情報取得部110は、決定キー11、表示切替キー13、トラックパッド14、輝度切替キー15、方向キー16、メニューキー17、および、電源スイッチ18に対する操作入力に応じた信号を取得する。なお、入力情報取得部110は、上記以外の種々の方法を用いた操作入力を取得することができる。例えば、フットスイッチ(使用者の足により操作するスイッチ)による操作入力を取得してもよい。また、例えば、視線検出部62によって検出された使用者の視線、目の動きに対応付けられたコマンドによる操作入力を取得してもよい。このコマンドは使用者によって追加可能に設定されていてもよい。また、例えば、使用者の視界方向の画像を撮影するカメラを用いて使用者のジェスチャーを検知し、ジェスチャーに対応付けられたコマンドによる操作入力を取得してもよい。ジェスチャー検知の際は、使用者の指先や、使用者の手に付けられた指輪や、使用者の手にする医療器具等を動き検出のための目印にすることができる。フットスイッチや視線による操作入力を取得可能とすれば、使用者が手を離すことが困難である作業においても、入力情報取得部110は、使用者からの操作入力を取得することができる。
記憶部120は、ROM、RAM、DRAM、ハードディスク等によって構成されている。記憶部120には、オペレーティングシステム(ОS)をはじめとする種々のコンピュータープログラムが格納されている。また、記憶部120は、画像設定122と、元画像ファイル124と、連動動作設定126と、アイコン情報128とを含んでいる。
図3は、画像設定122の一例を示す説明図である。画像設定122は、後述のUI表示処理において、元画像から対象画像を生成する際に使用される。ここで「元画像」とは、HMD100の利用者によって与えられる画像である。また、「対象画像」とは、UI表示処理において、HMD100を操作するために用いられる複数の画像(例えばアイコン画像)が重畳される「背景画像」の抽出元となる画像を意味する。画像設定122には、対象画像の特性に関する特性条件と、対象画像の生成に関する生成条件と、が予め記憶されている。なお、画像設定122の内容は、使用者によって追加、削除、変更可能な構成としてもよい。
対象画像の特性に関する特性条件には、例えば、画像ファイルのサイズと、画像ファイルのフォーマットと、画像の大きさ(幅、高さ)と、が含まれている。画像ファイルのサイズには、対象画像の画像ファイルの大きさ(バイト数)として推奨されるファイルサイズの上限値、下限値、上限値および下限値の組み合わせ、の少なくともいずれかが記憶されている。画像ファイルのフォーマットには、対象画像の画像ファイルのデーター記録方式として推奨される形式、例えば、JPEG、GIF等が記憶されている。画像の大きさには、対象画像の幅方向および高さ方向のピクセル数として推奨される上限値、下限値、上限値および下限値の組み合わせ、の少なくともいずれかが記憶されている。
対象画像の生成に関する生成条件には、例えば、加工後のファイル命名規則と、変換方式と、付加的画像処理と、が含まれている。加工後のファイル命名規則には、後述のUI表示処理において生成される対象画像の画像ファイルの命名規則が記憶されている。なお、ファイル命名規則は、例えば正規表現を用いて表現することができる。変換方式には、UI表示処理において実施される、元画像から対象画像への変換方式が記憶されている。変換方式とは、拡大・縮小処理、切り出し処理といった「実行される処理の指定」と、当該処理における具体的な方式(3-lobed Lanczos-windowed sinc補間、平均画素法等)とが含まれる。付加的画像処理とは、UI表示処理において生成される対象画像に対する、付加的な画像処理である。付加的な画像処理としては、例えば、ガンマ補正、輝度補正、コントラスト補正、ノイズ除去、輪郭強調等を採用することができる。
図4は、HMD100の利用者によって与えられた元画像ファイル124が表す画像の一例を示す説明図である。図4の例では、元画像ファイル124が表す画像(以降、「元画像」とも呼ぶ。)は、下一面に花畑、左側に森林、中央に富士山、右側に小屋が写されたパノラマ写真である。
図5は、連動動作設定126の一例を示す説明図である。連動動作設定126は、後述のUI表示処理において、背景画像を使用者の頭部の動きに応じて変化させる際に使用される。連動動作設定126には、水平角度と、鉛直角度と、リセット時間と、表示領域の大きさと、ホームポジション座標と、が予め記憶されている。なお、連動動作設定126の内容は、使用者によって追加、削除、変更可能な構成としてもよい。
図6は、連動動作設定126について説明するための説明図である。なお、図6では図示の便宜上、対象画像TPを白画像として示している。連動動作設定126の水平角度には、対象画像TPの水平方向の大きさBHに対応する使用者の頭部の水平方向の移動量が記憶されている。例えば、水平角度に「360度」と記憶されている場合、後述のUI表示処理において、頭部の水平方向の移動量が360度となった場合に、背景画像を対象画像TPの水平方向の大きさBHと同じだけ移動させる。鉛直角度には、対象画像TPの鉛直方向(垂直方向)の大きさBPに対応する使用者の頭部の鉛直方向の移動量が記憶されている。例えば、鉛直角度に「45度」と記憶されている場合、UI表示処理において、頭部の鉛直方向の移動量が45度となった場合に、背景画像を対象画像TPの鉛直方向の大きさBPと同じだけ移動させる。なお、対象画像TPのデーター量およびUI表示処理の処理負荷の増大を抑制しつつ、使用者に違和感のない仮想空間を提供するためには、水平角度は360度であることが好ましく、一方で、鉛直角度は好ましくは45度〜90度、さらに好ましくは90度である。
リセット時間には、後述のUI表示処理において移動された背景画像をホームポジションへ戻すまでの時間が記憶されている。表示領域の大きさには、対象画像TPから「背景画像」として抽出する領域の縦方向の大きさWPと、横方向の大きさWHとが記憶されている。以降、この領域を「背景画像領域WA」とも呼ぶ。図6では背景画像領域WAを太枠で示している。背景画像領域WAの大きさは、対象画像TPの大きさよりも小さい。ホームポジション座標には、対象画像TPの所定の点(例えば、左上端部)を原点(0,0)と定めたうえで、背景画像領域WAの初期配置位置の座標WOが原点からの移動量(x,y)として定義され、記憶されている。
図7は、アイコン情報128の一例を示す説明図である。アイコン情報128は、後述のUI表示処理において、背景画像にアイコン画像を重畳させる際に使用される。アイコン情報128には、アイコン画像60と、アイコン画像の座標70と、アイコン画像のリンク先80と、が予め記憶されている。
アイコン画像60は、HMD100のOS150の、いわゆる「待ち受け画面」に通常表示される画像の集合である。アイコン画像には、HMD100にインストールされているアプリケーションの起動用の画像、HMD100にインストールされているウィジェットやガジェットによって描画されている画像、HMD100に記憶されているデーターの起動用の画像(例えば、フォルダ画像やショートカット画像、サムネイル画像)等が含まれる。図の例では、アイコン画像60には、カメラのアプリケーションの起動用のアイコン画像60aと、SNSサービスのアプリケーションの起動用のアイコン画像60bと、スピーカーのアプリケーションの起動用のアイコン画像60cと、メールサービスのアプリケーションの起動用のアイコン画像60dとが含まれている。個々のアイコン画像60a〜dは、HMD100を操作するための操作部を構成する画像といえる。
アイコン画像の座標70は、HMD100のOS150の待ち受け画面において、各アイコン60a〜60dが配置されている位置を識別するための座標の集合である。アイコン画像の座標70は、HMD100の待ち受け画面の所定の点(例えば、左上端部)を原点(0,0)と定めたうえで、原点に対する各アイコン画像の中心位置の移動量(x,y)として定義され、記憶されている。アイコン画像のリンク先80は、各アイコン60a〜60dが紐付けされているアプリケーションの実行ファイルのリンク先(換言すれば、実行ファイルのファイルパス)の集合である。なお、アイコン画像が、HMD100に記憶されているデーターの起動用の画像である場合、アイコン画像のリンク先は、データーのリンク先(換言すれば、データのファイルパス)となる。
図2において、電源130は、HMD100の各部に電力を供給する。電源130としては、例えば二次電池を用いることができる。無線通信部132は、無線LANやブルートゥースといった所定の無線通信規格に則って他の機器との間で無線通信を行う。
CPU140は、記憶部120に格納されているコンピュータープログラムを読み出して実行することにより、OS150、画像処理部160、音声処理部170、表示制御部190、UI表示処理部142として機能する。UI表示処理部142は、UI表示処理を実行することで、ユーザーインターフェースを提供するための「表示処理部」として機能する。
画像処理部160は、インターフェイス180や無線通信部132を介して入力されるコンテンツ(映像)に基づいて信号を生成する。そして、画像処理部160は、生成した信号を、接続部40を介して画像表示部20に供給する。画像表示部20に供給するための信号は、アナログ形式とディジタル形式の場合で異なる。アナログ形式の場合、画像処理部160は、コンテンツに含まれる画像信号を取得し、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離し、それらの周期に応じて、PLL回路等によりクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等を用いてディジタル画像信号に変換する。画像処理部160は、変換後のディジタル画像信号を、RGBデーターの画像データーDataとして、1フレームごとに記憶部120内のDRAMに格納する。一方、ディジタル形式の場合、画像処理部160は、クロック信号PCLKと、画像データーDataとを生成・送信する。具体的には、コンテンツがディジタル形式の場合、クロック信号PCLKが画像信号に同期して出力されるため、垂直同期信号VSyncおよび水平同期信号HSyncの生成と、アナログ画像信号のA/D変換とが不要となる。なお、画像処理部160は、記憶部120に格納された画像データーDataに対して、解像度変換処理や、輝度・彩度の調整といった種々の色調補正処理や、キーストーン補正処理等の画像処理を実行してもよい。
画像処理部160は、生成されたクロック信号PCLK、垂直同期信号VSync、水平同期信号HSyncと、記憶部120内のDRAMに格納された画像データーDataとを、送信部51、52を介してそれぞれ送信する。なお、送信部51を介して送信される画像データーDataを「右眼用画像データーData1」とも呼び、送信部52を介して送信される画像データーDataを「左眼用画像データーData2」とも呼ぶ。送信部51、52は、制御部10と画像表示部20との間におけるシリアル伝送のためのトランシーバーとして機能する。
表示制御部190は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部190は、制御信号により、左右のLCD制御部211、212による左右のLCD241、242の駆動ON/OFFや、左右のバックライト制御部201、202による左右のバックライト221、222の駆動ON/OFFを個別に制御することにより、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。表示制御部190は、右LCD制御部211と左LCD制御部212とに対する制御信号を、送信部51および52を介してそれぞれ送信する。また、表示制御部190は、右バックライト制御部201と左バックライト制御部202とに対する制御信号を、それぞれ送信する。
音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、連結部材46に接続された右イヤホン32内の図示しないスピーカーおよび左イヤホン34内の図示しないスピーカーに対して供給する。なお、例えば、Dolby(登録商標)システムを採用した場合、音声信号に対する処理がなされ、右イヤホン32および左イヤホン34からは、それぞれ、例えば周波数等が変えられた異なる音が出力される。
インターフェイス180は、制御部10に対して、コンテンツの供給元となる種々の外部機器OAを接続するためのインターフェイスである。外部機器ОAとしては、例えば、パーソナルコンピューターPCや携帯電話端末、ゲーム端末等がある。インターフェイス180としては、例えば、USBインターフェイスや、マイクロUSBインターフェイス、メモリーカード用インターフェイス等を用いることができる。
画像表示部20は、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、9軸センサー66とを備えている。
右表示駆動部22は、受信部(Rx)53と、光源として機能する右バックライト(BL)制御部201および右バックライト(BL)221と、表示素子として機能する右LCD制御部211および右LCD241と、右投写光学系251とを含んでいる。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して「画像光生成部」とも呼ぶ。
受信部53は、制御部10と画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右バックライト221は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データーData1とに基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。
右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。右光学像表示部26としての右導光板261は、右投写光学系251から出力された画像光を、所定の光路に沿って反射させつつ使用者の右眼REに導く。光学像表示部は、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。
左表示駆動部24は、右表示駆動部22と同様の構成を有している。すなわち、左表示駆動部24は、受信部(Rx)54と、光源として機能する左バックライト(BL)制御部202および左バックライト(BL)222と、表示素子として機能する左LCD制御部212および左LCD242と、左投写光学系252とを含んでいる。詳細な説明は省略する。
図8は、使用者に視認される虚像の一例を示す説明図である。上述のようにして、HMD100の使用者の両眼に導かれた画像光が使用者の網膜に結像することにより、使用者は虚像VIを視認する。図の例では、虚像VIは、HMD100のOS150の待ち受け画面である。また、使用者は、右光学像表示部26および左光学像表示部28を透過して外景SCを視認する。このように、本実施形態のHMD100の使用者は、視野VRのうち虚像VIが表示された部分については、虚像VIと、虚像VIの背後に外景SCとを見ることができる。また、視野VRのうち虚像VIが表示されていない部分については、光学像表示部を透過して、外景SCを直接見ることができる。
A−2.UI表示処理:
図9は、UI表示処理の手順を示すフローチャートである。UI表示処理は、HMD100を操作するために用いられる複数の画像(例えばアイコン画像)を、背景画像に対して重畳させた画像を表す虚像を使用者に視認させると共に、背景画像を使用者の頭部の動きに応じて変化させる処理である。UI表示処理は、OS150や任意のアプリケーションからの処理開始要求をトリガーとして開始される。
ステップS102においてUI表示処理部142は、記憶部120に記憶されている元画像ファイル124を取得する。ステップS104においてUI表示処理部142は、元画像ファイル124が設定にマッチするか否かを判定する。具体的には、UI表示処理部142は、記憶部120に記憶されている画像設定122を参照する。UI表示処理部142は、元画像ファイル124を解析し、元画像ファイル124が画像設定122のうちの「対象画像の特性に関する特性条件」を満たすか否かを判定する。元画像ファイル124が全ての特性条件を満たす場合(ステップS104:YES)、UI表示処理部142は、処理をステップS108へ遷移させる。なお、この場合、以降の処理においてUI表示処理部142は、元画像ファイル124が表す画像をそのまま「対象画像」とする。
元画像ファイル124が特性条件を満たさない場合(ステップS104:NO)、ステップS106においてUI表示処理部142は、元画像ファイル124を変換する。具体的には、UI表示処理部142は、画像設定122のうちの「対象画像の特性に関する特性条件」を満たすように、元画像ファイル124を変換(拡大・縮小処理、切り出し処理等)する。この変換の際、UI表示処理部142は、画像設定122の「対象画像の生成に関する生成条件」に従って、元画像ファイル124の変換処理を実施してもよい。この場合、UI表示処理部142は、変換後の元画像ファイル124が表す画像を「対象画像」とする。
ステップS108においてUI表示処理部142は、対象画像から、ホームポジションの表示領域に相当する部分の画像を取得する。具体的には、UI表示処理部142は、記憶部120に記憶されている連動動作設定126を参照する。そして、UI表示処理部142は、対象画像上において、ホームポジション座標(図6)に背景画像領域WA(図6)を仮想的に配置する。UI表示処理部142は、配置した背景画像領域WAと重なる部分の対象画像を抜き出し、抜き出した画像を「背景画像」とする。
ステップS110においてUI表示処理部142は、ステップS108の背景画像にアイコン画像を配置した画像(以降、「UI画像」とも呼ぶ。)を生成し、送信する。具体的には、UI表示処理部142は、記憶部120に記憶されているアイコン情報128を参照する。そして、UI表示処理部142は、ステップS108の背景画像に対して、複数のアイコン画像60a〜d(図7)をそれぞれ、アイコン画像の座標70(図7)に従った位置に重畳させる。このように、UI表示処理部142は、背景画像に対して複数のアイコン画像を重畳させることで「UI画像」を生成する。その後、UI表示処理部142は、生成したUI画像を画像処理部160へ送信する。UI画像を受信した画像処理部160では、上述の表示処理が行われる。この結果、HMD100の使用者の両眼に導かれた画像光が使用者の網膜に結像することにより、HMD100の使用者は、視野にUI画像の虚像を視認することができる。換言すれば、HMD100は、UI画像を表示することができる。
ステップS112においてUI表示処理部142は、9軸センサー66によって使用者の頭部の動きが検出されたか否かを判定する。
図10は、使用者の頭部の動きの検出について説明するための説明図である。9軸センサー66には3軸ジャイロ(角速度)センサーが内蔵されている。この3軸ジャイロセンサーは、X,Y,Z軸の3軸方向における角速度をそれぞれ検出することができる。本実施形態では、X軸の角速度V1が頭部の鉛直方向(垂直方向)の動きに対応し、Y軸の角速度V2が頭部の水平方向の動きに対応し、Z軸の角速度V3が頭部の斜め方向の動きに対応している。なお、頭部の斜め方向の動きには、回転、チルト等も含む。このため、例えば、使用者が頭部を上下に動かした場合は角速度V1に変化が検出され、頭部を左右に動かした場合は角速度V2に変化が検出され、頭部を斜めに動かして首をかしげる動作をした場合は角速度V3に変化が検出される。UI表示処理部142は、角速度V1〜V3の変化の有無によって頭部の動きの有無を知ることができ、角速度V1〜V3の値によって頭部の動き量を知ることができる。
図9のステップS112において使用者の頭部の動きが検出された場合(ステップS112:YES)、ステップS114においてUI表示処理部142は、対象画像から、移動後の表示領域に相当する画像を取得する。具体的には、UI表示処理部142は、記憶部120に記憶されている連動動作設定126を参照する。
図11は、UI表示処理のステップS114について説明するための説明図である。図11に示すように、UI表示処理部142は、対象画像TP上において、ホームポジション座標(図6)を基準として、検出された頭部の水平方向の動き(角速度V2)に応じて、背景画像として抜き出す部分(すなわち背景画像領域WA)を水平方向に移動させる。この際、UI表示処理部142は、連動動作設定126に規定されている水平角度に基づいて、背景画像領域WAを移動させる量(移動量)を決定する。このようにすれば、連動動作設定126の水平角度の内容を変更することで簡便に、UI表示処理部142の処理を変更することができる。
図12は、UI表示処理のステップS114について説明するための説明図である。図12に示すように、UI表示処理部142は、対象画像TP上において、ホームポジション座標を基準として、検出された頭部の鉛直方向(垂直方向)の動き(角速度V1)に応じて、背景画像領域WAを鉛直方向に移動させる。この際、UI表示処理部142は、連動動作設定126に規定されている鉛直角度に基づいて、背景画像領域WAを移動させる量(移動量)を決定する。このようにすれば、連動動作設定126の鉛直角度の内容を変更することで簡便に、UI表示処理部142の処理を変更することができる。
図13は、UI表示処理のステップS114について説明するための説明図である。図13に示すように、UI表示処理部142は、対象画像TP上において、ホームポジション座標を基準として、検出された頭部の斜め方向の動き(角速度V3)に応じて、背景画像領域WAを傾ける。なお、図13で説明した頭部の斜め方向の動きに応じて背景画像領域WAを傾ける処理は、省略してもよい。
図11〜図13の処理が終了後、UI表示処理部142は、移動後の背景画像領域WAと重なる部分の対象画像TPを抜き出し、抜き出した画像を「背景画像」とする。
図9のステップS116においてUI表示処理部142は、ステップS114の背景画像にアイコン画像を配置した新たなUI画像を生成し、送信する。具体的には、UI表示処理部142は、ステップS114の背景画像に対して、複数のアイコン画像60a〜d(図7)をそれぞれ、アイコン画像の座標70(図7)に従った位置に重畳させる。このように、UI表示処理部142は、新たな背景画像に対して複数のアイコン画像を重畳させることで新たな「UI画像」を生成する。
図14は、UI表示処理を経て使用者に視認されるUI画像を表す虚像の一例を示す説明図である。図9のステップS116においてUI表示処理部142は、生成した新たなUI画像を画像処理部160へ送信する。UI画像を受信した画像処理部160において上述の表示処理が行われた結果、HMD100は、図14に示すような新たなUI画像を表す虚像VIを使用者に視認させることができる。なお、図示の都合上、図14では背景の図示を省略している。その後、UI表示処理部142は処理をステップS118へ遷移させる。
図9のステップS112において使用者の頭部の動きが検出されない場合(ステップS112:NO)、UI表示処理部142は、処理をステップS118へ遷移させる。
ステップS118においてUI表示処理部142は、頭部の動きが検出されない静止時間が、連動動作設定126のリセット時間を越えたか否かを判定する(ステップS118)。静止時間がリセット時間以下である場合(ステップS118:NO)、UI表示処理部142は、処理をステップS112へ遷移させて、頭部の動きの監視を継続する。一方、静止時間がリセット時間を超えた場合(ステップS118:YES)、UI表示処理部142は、処理をステップS108へ遷移させて、背景画像をホームポジションに戻す。このようにすれば、使用者の意図しない動きに応じて背景画像が変化してしまった場合でも、使用者の静止を契機として背景画像を最初の場所(ホームポジション)へ戻すことができる。なお、使用者の意図しない動きとは、例えば、第三者に声を掛けられて使用者が振り向いた場合や、移動中に使用者が躓いた場合等、使用者の意に反して行われた使用者の動き全般を意味する。
以上のように、上記実施形態の頭部装着型表示装置(HMD100)によれば、表示処理部(UI表示処理部142)は、頭部装着型表示装置を操作するための複数の画像(アイコン画像60a〜d)が、背景画像に対して重畳された画像(UI画像)を表す虚像VIを画像表示部20に形成させることで、使用者に視認させる。このため、表示処理部は、使用者に頭部装着型表示装置を操作するための操作部を提供することができる。また、表示処理部は、使用者の頭部の動きに応じて背景画像を変更するため、使用者は、自身の頭部の動きに応じて変化する背景画像によって、仮想空間への没入感を感じることができる。この結果、使用者に頭部装着型表示装置を操作するための操作部を提供しつつ、仮想空間への没入感を感じさせることのできる頭部装着型表示装置を提供することができる。
さらに、上記実施形態のUI表示処理のステップS108、S114によれば、表示処理部(UI表示処理部142)は、背景画像の領域(背景画像領域WA)よりも大きな領域を有する対象画像TPから、対象画像TPの一部を抜き出して背景画像とする。また、表示処理部は、使用者の頭部の動きに応じて対象画像TPから背景画像として抜き出す部分(背景画像領域WA)を変更する。このため、表示処理部は、背景画像の変化に連続性を持たせることができ、使用者により深い没入感を感じさせることができる。
さらに、上記実施形態のUI表示処理のステップS114によれば、表示処理部(UI表示処理部142)は、使用者の頭部の水平方向の動き(角速度V2)に応じて、対象画像TPから背景画像として抜き出す部分(背景画像領域WA)を水平方向に移動させ、使用者の頭部の鉛直方向の動き(角速度V1)に応じて、対象画像TPから背景画像として抜き出す部分を鉛直方向に移動させる。同様に、表示処理部は、使用者の頭部の斜め方向の動き(角速度V3)に応じて、対象画像TPから背景画像として抜き出す部分を傾ける。このように、表示処理部は、使用者の頭部の動きに追従して背景画像を変化させるため、使用者により深い没入感を感じさせることができる。
さらに、上記実施形態のUI表示処理のステップS104、S106によれば、表示処理部(UI表示処理部142)は、対象画像TPの元となる元画像(元画像ファイル124)が対象画像の特性に関する特性条件(画像設定122の画像ファイルのサイズと、画像ファイルのフォーマットと、画像の大きさ)を満たさない場合は、元画像を変換することで特性条件を満たすような対象画像TPを生成する。このため、背景画像を生成するために用いられる対象画像TPの特性を画一化することができる。同様に、上記実施形態のUI表示処理のステップS106によれば、表示処理部は、対象画像TPの元となる元画像を、対象画像の生成に関する生成条件(画像設定122の加工後のファイル命名規則と、変換方式と、付加的画像処理)に従って変換することで対象画像TPを生成する。このため、背景画像を生成するために用いられる対象画像TPの特性を画一化することができる。
B.第2実施形態:
第2実施形態の頭部装着型表示装置では、使用者の頭部の動きに代えて、または、使用者の頭部の動きと共に、使用者の視線と、目の動きと、使用者の姿勢と、のうちの少なくともいずれか一方に応じて背景画像を変化させる構成について説明する。以下では、第1実施形態と異なる構成および動作を有する部分についてのみ説明する。なお、図中において第1実施形態と同様の構成部分については先に説明した第1実施形態と同様の符号を付し、その詳細な説明を省略する。
B−1.頭部装着型表示装置の構成:
図15は、第2実施家形態におけるHMD100aの構成を機能的に示すブロック図である。図2に示した第1実施形態との違いは、制御部10に代えて制御部10aを備える点と、画像表示部20に代えて画像表示部20aを備える点である。制御部10aは、UI表示処理部142に代えてUI表示処理部142aを備える。UI表示処理部142aは、実行するUI表示処理の内容が、第1実施形態とは異なる。詳細は後述する。
画像表示部20aは、9軸センサー66に代えて9軸センサー66aを備え、さらに視線検出部62を備える。9軸センサー66aは、第1実施形態と同様に、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサーである。第2実施形態の9軸センサー66aは、使用者の姿勢を検出する「姿勢検出部」としても機能する。ここで、姿勢とは、使用者の体の速度・加速度・角速度・向き・向きの変化を含む。
視線検出部62は、使用者が画像表示部20aを装着した際の右側の目じりに対応する位置に配置されている。視線検出部62は、可視光カメラを備えている。視線検出部62は、可視光カメラを用いてHMD100aを装着した状態における使用者の左右の眼を撮像し、得られた眼の画像を解析することによって使用者の視線の方向を検出する。すなわち、第2実施形態の視線検出部62は、使用者の視線を検出する「視線検出部」として機能する。視線検出部62は、可視光カメラに代えて赤外線センサーを用いて、使用者の視線の方向を検出してもよい。
B−2.UI表示処理:
第2実施形態のUI表示処理の手順は、図9に示した第1実施形態と同様である。ただし、使用者の視線に応じて背景画像を変化させる場合、図9のステップS112においてUI表示処理部142aは、視線検出部62によって使用者の視線の動きが検出されたか否かを判定する。また、使用者の視線に応じて背景画像を変化させる場合、図9の説明における「使用者の頭部」との記載を「使用者の視線」と読み替える。一方、使用者の姿勢に応じて背景画像を変化させる場合、図9のステップS112においてUI表示処理部142aは、9軸センサー66aによって使用者の姿勢の動きが検出されたか否かを判定する。また、使用者の姿勢に応じて背景画像を変化させる場合、図9の説明における「使用者の頭部」との記載を「使用者の姿勢」と読み替える。
このようにしても、上記第1実施形態と同様の効果を得ることができる。さらに、使用者は、自身の頭部の動きに加えて、自身の視線の変化や自身の姿勢の変化に応じて変化する背景画像によって、仮想空間へのより没入感を感じることができる。
C.変形例:
上記実施形態において、ハードウェアによって実現されるとした構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されるとした構成の一部をハードウェアに置き換えるようにしてもよい。その他、以下のような変形も可能である。
・変形例1:
上記実施形態では、HMDの構成について例示した。しかし、HMDの構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、各構成部の追加・削除・変換等を行うことができる。
上記実施形態における、制御部と、画像表示部とに対する構成要素の割り振りは、あくまで一例であり、種々の態様を採用可能である。例えば、以下のような態様としてもよい。(i)制御部にCPUやメモリー等の処理機能を搭載、画像表示部には表示機能のみを搭載する態様、(ii)制御部と画像表示部との両方にCPUやメモリー等の処理機能を搭載する態様、(iii)制御部と画像表示部とを一体化した態様(例えば、画像表示部に制御部が含まれ眼鏡型のウェアラブルコンピューターとして機能する態様)、(iv)制御部の代わりにスマートフォンや携帯型ゲーム機を使用する態様、(v)制御部と画像表示部とを無線LANや赤外線通信やBluetooth(登録商標)等の無線の信号伝送路を介した接続により接続し、接続部(コード)を廃した態様。なお、この場合において、制御部または画像表示部に対する給電をワイヤレスにより実施してもよい。
例えば、上記実施形態で例示した制御部、画像表示部の構成は任意に変更することができる。具体的には、例えば、上記実施形態では、制御部が送信部を備え、画像表示部が受信部を備えるものとしたが、送信部および受信部はいずれも、双方向通信が可能な機能を備えており、送受信部として機能してもよい。また、例えば、制御部が備えるとした操作用インターフェイス(各種キーやトラックパッド等)の一部を省略してもよい。また、制御部に操作用スティック等の他の操作用インターフェイスを備えても良い。また、制御部にはキーボードやマウス等のデバイスを接続可能な構成として、キーボードやマウスから入力を受け付けるものとしてもよい。例えば、電源として二次電池を用いることしたが、電源としては二次電池に限らず、種々の電池を使用することができる。例えば、一次電池や、燃料電池、太陽電池、熱電池等を使用してもよい。
図16は、変形例におけるHMDの外観の構成を示す説明図である。図16(A)の例の場合、画像表示部20xは、右光学像表示部26に代えて右光学像表示部26xを備え、左光学像表示部28に代えて左光学像表示部28xを備えている。右光学像表示部26xと左光学像表示部28xとは、上記実施形態の光学部材よりも小さく形成され、HMDの装着時における使用者の右眼および左眼の斜め上にそれぞれ配置されている。図16(B)の例の場合、画像表示部20yは、右光学像表示部26に代えて右光学像表示部26yを備え、左光学像表示部28に代えて左光学像表示部28yを備えている。右光学像表示部26yと左光学像表示部28yとは、上記実施形態の光学部材よりも小さく形成され、HMDの装着時における使用者の右眼および左眼の斜め下にそれぞれ配置されている。このように、光学像表示部は使用者の眼の近傍に配置されていれば足りる。また、光学像表示部を形成する光学部材の大きさも任意であり、光学像表示部が使用者の眼の一部分のみを覆う態様、換言すれば、光学像表示部が使用者の眼を完全に覆わない態様のHMDとして実現することもできる。
例えば、制御部が備えるとした各処理部(例えば画像処理部、表示制御部等)は、CPUがROMやハードディスクに格納されているコンピュータープログラムをRAMに展開して実行することにより実現されるものとして記載した。しかし、これら機能部は、当該機能を実現するために設計されたASIC(Application Specific Integrated Circuit:特定用途向け集積回路)を用いて構成されてもよい。
例えば、HMDは、両眼タイプの透過型HMDであるものとしたが、単眼タイプのHMDとしてもよい。また、使用者がHMDを装着した状態において外景の透過が遮断される非透過型HMDとして構成してもよいし、非透過型HMDにカメラを搭載したビデオシースルーとして構成してもよい。また、例えば、画像表示部として、眼鏡のように装着する画像表示部に代えて、通常の平面型ディスプレイ装置(液晶ディスプレイ装置、プラズマディスプレイ装置、有機ELディスプレイ装置等)を採用してもよい。この場合にも、制御部と画像表示部との間の接続は、有線の信号伝送路を介した接続であってもよいし、無線の信号伝送路を介した接続であってもよい。このようにすれば、制御部を、通常の平面型ディスプレイ装置のリモコンとして利用することもできる。また、例えば、画像表示部として、眼鏡のように装着する画像表示部に代えて、例えば帽子のように装着する画像表示部といった他の形状の画像表示部を採用してもよい。また、イヤホンは耳掛け型やヘッドバンド型を採用してもよく、省略しても良い。また、例えば、自動車や飛行機等の車両、またはその他の交通手段に搭載されるヘッドアップディスプレイ(HUD、Head-Up Display)として構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたHMDとして構成されてもよい。
例えば、上記実施形態では、画像光生成部は、バックライトと、バックライト制御部と、LCDと、LCD制御部とを用いて構成されるものとした。しかし、上記の態様はあくまで例示である。画像光生成部は、これらの構成部と共に、またはこれらの構成部に代えて、他の方式を実現するための構成部を備えていても良い。例えば、画像光生成部は、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としても良い。また、例えば、画像生成部は、LCDに代えてデジタル・マイクロミラー・デバイス等を用いることもできる。また、例えば、レーザー網膜投影型の頭部装着型表示装置に対して本発明を適用することも可能である。
・変形例2:
上記実施形態では、UI表示処理の一例を示した。しかし、上記実施形態においてに示した処理の手順はあくまで一例であり、種々の変形が可能である。例えば、一部のステップを省略してもよいし、更なる他のステップを追加してもよい。また、実行されるステップの順序を変更してもよい。
例えば、ステップS102においてUI表示処理部は、複数の元画像ファイルの中から、所定の選択基準に基づいて、一の元画像ファイルを選択してもよい。所定の選択基準とは、例えば、元画像ファイルを指定する操作に基づく選択、OSにログインしたユーザIDに基づく選択、現在時刻に基づく選択等がある。ユーザIDに基づく選択を実現すれば、ユーザごとに異なる元画像ファイルの選択と、対象画像の生成とが実施されるため、UI画像における背景画像を、ユーザごとに異なる画像とすることができる。また、現在時刻に基づく選択を実現すれば、時刻によって異なる元画像ファイルの選択と、対象画像の生成とが実施されるため、UI画像における背景画像を時刻にあった画像とすることができる。これらの結果、使用者により深い没入感を感じさせることができる。
例えば、ステップS102〜S106においてUI表示処理部は、元画像ファイルの解析と変換を実施するとした。しかし、UI表示処理部は、元画像の解析と変換とのいずれか一方を省略してもよい。例えばUI表示処理部は、元画像の解析を行わず、一律に元画像を変換することで対象画像を生成してもよい。
例えば、ステップS102〜106においてUI表示処理部は、予め記憶されている対象画像の特性に関する特性条件と、対象画像の生成に関する生成条件とを利用して元画像ファイルの解析と変換を実施するとした。しかし、UI表示処理部は、特性条件と生成条件とを用いずに、または、特性条件と生成条件とのいずれか一方を用いずに、元画像ファイルの解析と変換を実施してもよい。
例えば、ステップS112、S114において、UI表示処理部は、使用者の頭部の動き、視線の動き、姿勢の動きの全てを用いて、背景画像を変化させてもよい。また、ステップS112、S114において、UI表示処理部は、使用者の頭部の動き、視線の動き、姿勢の動き以外の他の条件を用いて、背景画像を変化させてもよい。使用者に深い没入感を与えるとの観点からは、他の条件は、使用者の体の一部の動きであることが好ましい。
例えば、ステップS112、S114において、UI表示処理部は、多軸(具体的には、X,Y,Zの3軸)センサーを用いて、使用者の頭部の水平、鉛直、斜め方向の動きを検出して、これに基づいて背景画像を変化させた。しかし、UI表示処理部は、1軸や2軸のセンサーを用いて使用者の頭部の動きを検出してもよい。
例えば、ステップS118において、UI表示処理部は、リセット時間経過以外の条件を用いて、背景画像をホームポジションに戻してもよい。リセット時間以外の条件とは、例えば、使用者による指示や、特定のアプリケーションの起動等がある。
・変形例3:
上記実施形態では、画像設定と、元画像と、連動動作設定と、アイコン情報と、の構成をそれぞれ例示した。しかし、上記実施形態における具体例はあくまで一例であり、それぞれの設定および情報に含まれる項目は、任意に追加、削除、変更が可能である。また、画像設定と、連動動作設定と、アイコン情報とは、HMDに内蔵された記憶装置以外の手段、例えば、可搬型の記憶装置等によって提供されてもよい。
例えば、元画像は、複数の画像ファイルであってもよい。この場合、UI表示処理部は、当該複数の画像ファイルを結合させて、結合させた画像から「対象画像」を生成してもよい。さらに、アイコン情報に含まれるアイコン画像の代わりに、文字、記号、絵文字等を使用してもよい。
・変形例4:
本発明は、上述の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
10…制御部
11…決定キー
12…点灯部
13…表示切替キー
14…トラックパッド
15…輝度切替キー
16…方向キー
17…メニューキー
18…電源スイッチ
20…画像表示部
21…右保持部
22…右表示駆動部
23…左保持部
24…左表示駆動部
26…右光学像表示部
28…左光学像表示部
30…イヤホンプラグ
32…右イヤホン
34…左イヤホン
40…接続部
42…右コード
44…左コード
46…連結部材
48…本体コード
51…送信部
52…送信部
53…受信部
54…受信部
62…視線検出部
66…9軸センサー(動き検出部)
66a…9軸センサー(姿勢検出部)
110…入力情報取得部
100…HMD(頭部装着型表示装置)
120…記憶部
122…画像設定
124…元画像ファイル
126…連動動作設定
128…アイコン情報
130…電源
140…CPU
142…UI表示処理部(表示処理部)
160…画像処理部
170…音声処理部
180…インターフェイス
190…表示制御部
201…右バックライト制御部
202…左バックライト制御部
211…右LCD制御部
212…左LCD制御部
221…右バックライト
222…左バックライト
241…右LCD
242…左LCD
251…右投写光学系
252…左投写光学系
261…右導光板
262…左導光板
PCLK…クロック信号
VSync…垂直同期信号
HSync…水平同期信号
Data…画像データー
Data1…右眼用画像データー
Data2…左眼用画像データー
OA…外部機器
PC…パーソナルコンピューター
SC…外景
VI…虚像
VR…視野
RE…右眼
LE…左眼
ER…端部
EL…端部
AP…先端部
V1〜V3…角速度
WA…背景画像領域
TP…対象画像

Claims (12)

  1. 使用者が虚像を視認可能な頭部装着型表示装置であって、
    前記使用者に前記虚像を視認させるための画像表示部と、
    前記頭部装着型表示装置を操作するために用いられる複数の画像と、背景画像とを表す前記虚像を、前記画像表示部に形成させる表示処理部と、
    前記使用者の頭部の動きを検出する動き検出部と、
    を備え、
    前記表示処理部は、前記使用者の頭部の動きに応じて前記背景画像を変更する、頭部装着型表示装置。
  2. 請求項1に記載の頭部装着型表示装置であって、
    前記表示処理部は、
    前記背景画像の領域よりも大きな領域を有する対象画像から、前記対象画像の一部を抜き出して前記背景画像とし、
    前記使用者の頭部の動きに応じて前記対象画像から抜き出す部分を変更することで、前記背景画像を変更する、頭部装着型表示装置。
  3. 請求項2に記載の頭部装着型表示装置であって、
    前記表示処理部は、
    検出された前記使用者の頭部の水平方向の動きに応じて、前記対象画像から前記背景画像として抜き出す部分を水平方向に移動させ、
    検出された前記使用者の頭部の鉛直方向の動きに応じて、前記対象画像から前記背景画像として抜き出す部分を鉛直方向に移動させる、頭部装着型表示装置。
  4. 請求項3に記載の頭部装着型表示装置であって、さらに、
    前記対象画像の水平方向の大きさに対する前記使用者の頭部の水平方向の移動量と、前記対象画像の鉛直方向の大きさに対する前記使用者の頭部の鉛直方向の移動量と、を予め記憶する記憶部を備え、
    前記表示処理部は、検出された前記使用者の頭部の水平方向の動きおよび前記水平方向の移動量と、検出された前記使用者の頭部の鉛直方向の動きおよび前記鉛直方向の移動量と、に基づいて、前記対象画像から前記背景画像として抜き出す部分を決定する、頭部装着型表示装置。
  5. 請求項3または請求項4に記載の頭部装着型表示装置であって、
    前記表示処理部は、さらに、
    前記使用者の頭部の斜め方向の動きに応じて、前記対象画像から前記背景画像として抜き出す部分を傾ける、頭部装着型表示装置。
  6. 請求項2から請求項5のいずれか一項に記載の頭部装着型表示装置であって、
    前記表示処理部は、さらに、
    現在時刻に応じて前記対象画像を変更する、頭部装着型表示装置。
  7. 請求項2から請求項6のいずれか一項に記載の頭部装着型表示装置であって、さらに、
    前記対象画像の特性に関する特性条件を予め記憶する記憶部を備え、
    前記表示処理部は、
    前記対象画像の元となる元画像を取得し、
    取得した前記元画像が前記特性条件を満たさない場合は、前記元画像を変換することで前記特性条件を満たすような前記対象画像を生成し、
    取得した前記元画像が前記特性条件を満たす場合は、前記元画像をそのまま前記対象画像とする、頭部装着型表示装置。
  8. 請求項2から請求項7のいずれか一項に記載の頭部装着型表示装置であって、さらに、
    前記対象画像の生成に関する生成条件を予め記憶する記憶部を備え、
    前記表示処理部は、
    前記対象画像の元となる元画像を取得し、
    取得した前記元画像を、前記生成条件に従って変換することで前記対象画像を生成する、頭部装着型表示装置。
  9. 請求項1から請求項8のいずれか一項に記載の頭部装着型表示装置であって、さらに、
    前記使用者の視線を検出する視線検出部を備え、
    前記表示処理部は、さらに、前記使用者の視線に応じて前記背景画像を変更する、頭部装着型表示装置。
  10. 請求項1から請求項9のいずれか一項に記載の頭部装着型表示装置であって、さらに、
    前記使用者の姿勢を検出する姿勢検出部を備え、
    前記表示処理部は、さらに、前記使用者の姿勢に応じて前記背景画像を変更する、頭部装着型表示装置。
  11. 請求項1から請求項10のいずれか一項に記載の頭部装着型表示装置であって、
    前記複数の画像には、少なくとも、前記頭部装着型表示装置内のアイコン画像が含まれる、頭部装着型表示装置。
  12. 頭部装着型表示装置の制御方法であって、
    (a)前記頭部装着型表示装置の使用者に虚像を視認させる工程と、
    (b)前記頭部装着型表示装置を操作するために用いられる複数の画像と、背景画像とを表す前記虚像を形成させる工程と、
    (c)前記使用者の頭部の動きを検出する工程と、
    を備え、
    前記工程(b)は、前記使用者の頭部の動きに応じて前記背景画像を変更する、頭部装着型表示装置の制御方法。
JP2014065100A 2014-03-27 2014-03-27 頭部装着型表示装置および頭部装着型表示装置の制御方法 Active JP6379572B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014065100A JP6379572B2 (ja) 2014-03-27 2014-03-27 頭部装着型表示装置および頭部装着型表示装置の制御方法
US14/607,556 US9799144B2 (en) 2014-03-27 2015-01-28 Head mounted display, and control method for head mounted display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014065100A JP6379572B2 (ja) 2014-03-27 2014-03-27 頭部装着型表示装置および頭部装着型表示装置の制御方法

Publications (2)

Publication Number Publication Date
JP2015188175A true JP2015188175A (ja) 2015-10-29
JP6379572B2 JP6379572B2 (ja) 2018-08-29

Family

ID=54191147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014065100A Active JP6379572B2 (ja) 2014-03-27 2014-03-27 頭部装着型表示装置および頭部装着型表示装置の制御方法

Country Status (2)

Country Link
US (1) US9799144B2 (ja)
JP (1) JP6379572B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10732918B2 (en) 2017-12-22 2020-08-04 Seiko Epson Corporation Display system, method of controlling display system, and display device
US10971113B2 (en) 2017-12-22 2021-04-06 Seiko Epson Corporation Display system, electronic device, and display method
US11481029B2 (en) 2018-02-09 2022-10-25 Samsung Electronics Co., Ltd. Method for tracking hand pose and electronic device thereof
KR20230027851A (ko) * 2021-08-20 2023-02-28 (주)이지위드 전시 공간 연출 시스템 및 방법

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102471422B1 (ko) 2017-02-17 2022-11-30 엔제트 테크놀러지스 인크. 외과수술 환경에서의 비접촉 제어를 위한 방법 및 시스템
JP2018137505A (ja) * 2017-02-20 2018-08-30 セイコーエプソン株式会社 表示装置およびその制御方法
CN107291359A (zh) * 2017-06-06 2017-10-24 歌尔股份有限公司 一种输入方法、装置和系统
JP7087481B2 (ja) * 2018-03-13 2022-06-21 セイコーエプソン株式会社 頭部装着型表示装置、表示制御方法、およびコンピュータープログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08294070A (ja) * 1995-04-21 1996-11-05 Ken Hirokawa 仮想環境表示装置
JPH08336166A (ja) * 1995-06-07 1996-12-17 Matsushita Electric Ind Co Ltd 映像視聴装置
US5684498A (en) * 1995-06-26 1997-11-04 Cae Electronics Ltd. Field sequential color head mounted display with suppressed color break-up
JP2003529817A (ja) * 1999-08-27 2003-10-07 マウイ イノベイティブ ペリフェラルズ インコーポレイテッド 静止赤外線ビームユニットと相補のヘッド装着ユニットを用いる三次元操縦システム
JP2013055606A (ja) * 2011-09-06 2013-03-21 Nikon Corp 画像表示システム、画像表示装置、及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69434851T2 (de) 1993-08-12 2007-04-19 Seiko Epson Corp. Am Kopf montierte Bildanzeigevorrichtung und diese enthaltendes Datenverarbeitungsgerät
US9111498B2 (en) * 2010-08-25 2015-08-18 Eastman Kodak Company Head-mounted display with environmental state detection
US8606645B1 (en) * 2012-02-02 2013-12-10 SeeMore Interactive, Inc. Method, medium, and system for an augmented reality retail application
KR102138511B1 (ko) * 2013-08-28 2020-07-28 엘지전자 주식회사 헤드 마운티드 디스플레이의 화상통화를 지원하는 포터블 디바이스 및 그 제어 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08294070A (ja) * 1995-04-21 1996-11-05 Ken Hirokawa 仮想環境表示装置
JPH08336166A (ja) * 1995-06-07 1996-12-17 Matsushita Electric Ind Co Ltd 映像視聴装置
US5684498A (en) * 1995-06-26 1997-11-04 Cae Electronics Ltd. Field sequential color head mounted display with suppressed color break-up
JP2003529817A (ja) * 1999-08-27 2003-10-07 マウイ イノベイティブ ペリフェラルズ インコーポレイテッド 静止赤外線ビームユニットと相補のヘッド装着ユニットを用いる三次元操縦システム
JP2013055606A (ja) * 2011-09-06 2013-03-21 Nikon Corp 画像表示システム、画像表示装置、及びプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10732918B2 (en) 2017-12-22 2020-08-04 Seiko Epson Corporation Display system, method of controlling display system, and display device
US10971113B2 (en) 2017-12-22 2021-04-06 Seiko Epson Corporation Display system, electronic device, and display method
US11380287B2 (en) 2017-12-22 2022-07-05 Seiko Epson Corporation Display system, electronic device, and display method
US11481029B2 (en) 2018-02-09 2022-10-25 Samsung Electronics Co., Ltd. Method for tracking hand pose and electronic device thereof
KR20230027851A (ko) * 2021-08-20 2023-02-28 (주)이지위드 전시 공간 연출 시스템 및 방법
KR102655959B1 (ko) * 2021-08-20 2024-04-09 (주)이지위드 전시 공간 연출 시스템 및 방법

Also Published As

Publication number Publication date
US20150279110A1 (en) 2015-10-01
JP6379572B2 (ja) 2018-08-29
US9799144B2 (en) 2017-10-24

Similar Documents

Publication Publication Date Title
JP6379572B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP6209906B2 (ja) 頭部装着型表示装置、頭部装着型表示装置を制御する方法、画像表示システム
US9824496B2 (en) Information display system using head mounted display device, information display method using head mounted display device, and head mounted display device
JP6459421B2 (ja) 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
JP6337418B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP5970872B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP6264014B2 (ja) 頭部装着型表示装置
JP6217244B2 (ja) 画像処理装置、これを有する頭部装着型表示装置、画像処理方法およびコンピュータープログラム
JP6380091B2 (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP2014186089A (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP6492419B2 (ja) 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム、画像表示システム、および、情報処理装置
CN107077363B (zh) 信息处理装置、控制信息处理装置的方法、记录介质
JP2016142887A (ja) 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
JP6488629B2 (ja) 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
JP6303274B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP6331374B2 (ja) 頭部装着型表示装置
JP6252002B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP6229381B2 (ja) 頭部装着型表示装置、頭部装着型表示装置を制御する方法、画像表示システム、情報処理装置
JP6451222B2 (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP6451238B2 (ja) 映像を送信または受信する装置、装置を制御する方法、コンピュータープログラム
JP6287399B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2016142966A (ja) 頭部装着型表示装置、情報処理装置、画像表示装置、画像表示システム、頭部装着型表示装置の表示を共有する方法、コンピュータープログラム
JP6394174B2 (ja) 頭部装着型表示装置、画像表示システム、頭部装着型表示装置を制御する方法、および、コンピュータープログラム
JP6308249B2 (ja) 頭部装着型表示装置および方法
JP2018107823A (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160530

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180716

R150 Certificate of patent or registration of utility model

Ref document number: 6379572

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150