JP2017134630A - 表示装置、表示装置の制御方法、及び、プログラム - Google Patents
表示装置、表示装置の制御方法、及び、プログラム Download PDFInfo
- Publication number
- JP2017134630A JP2017134630A JP2016013943A JP2016013943A JP2017134630A JP 2017134630 A JP2017134630 A JP 2017134630A JP 2016013943 A JP2016013943 A JP 2016013943A JP 2016013943 A JP2016013943 A JP 2016013943A JP 2017134630 A JP2017134630 A JP 2017134630A
- Authority
- JP
- Japan
- Prior art keywords
- display
- image
- unit
- display unit
- relative position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は上記事情に鑑みてなされたものであり、移動可能な表示装置によって、動きによる入力に対応して表示を行うことを目的とする。
本発明によれば、使用者の頭部に装着される表示部により、第1デバイス及び/または第2デバイスの動きや位置に応じた表示を行うことが可能となる。また、表示を行う第1デバイスの動きに対応できるので、例えば、使用者が意図しない表示の動きを抑えることで、違和感や、いわゆる映像酔いを抑制できる。
本発明によれば、第1デバイスまたは第2デバイスの動きに対応して、使用者の頭部に装着される表示部に画像を表示する表示位置を制御できる。
本発明によれば、使用者の注目を促すポインターの表示を、第1デバイスと第2デバイスとの相対位置に基づき制御できる。
本発明によれば、第1デバイスまたは第2デバイスの動きを利用したジェスチャー操作に対応して、表示を制御できる。
本発明によれば、第1デバイスと第2デバイスとの相対位置に基づき所定画像の表示を制御する処理とは別に、使用者がアクションを行うことで、他の処理を実行させることができる。
本発明によれば、表示部を透過して視認できる実物体に対応する表示を行うことができる。
本発明によれば、実物体により高度に対応した表示を行うことができる。
本発明によれば、第1デバイスと第2デバイスとの相対位置を、的確に検出できる。
本発明によれば、初期状態を基準として、第1デバイスと第2デバイスとの相対位置を、より速やかに、かつ正確に検出できる。
本発明によれば、撮像画像を利用して、初期状態における第1デバイスと第2デバイスとの相対位置を特定できる。
本発明によれば、初期状態における第1デバイスと第2デバイスとの相対位置を特定できる。
本発明によれば、第1デバイスと第2デバイスとの相対位置を、地磁気センサーを利用して検出できる。
本発明の表示装置の制御方法を実行することにより、使用者の頭部に装着される表示部によって、第1デバイス及び/または第2デバイスの動きや位置に応じた表示を行うことが可能となる。また、表示を行う第1デバイスの動きに対応できるので、例えば、使用者が意図しない表示の動きを抑えることで、違和感や、いわゆる映像酔いを抑制できる。
本発明のプログラムをコンピューターが実行することにより、使用者の頭部に装着される表示部によって、第1デバイス及び/または第2デバイスの動きや位置に応じた表示を行うことが可能となる。また、表示を行う第1デバイスの動きに対応できるので、例えば、使用者が意図しない表示の動きを抑えることで、違和感や、いわゆる映像酔いを抑制できる。
図1は、本発明を適用した第1実施形態に係るHMD(Head Mounted Display:頭部装着型表示装置)100の外観構成を示す説明図である。
HMD100は、使用者の頭部に装着された状態で使用者に虚像を視認させる画像表示部20(第1デバイス)と、画像表示部20を制御する制御装置10(第2デバイス)と、を備える表示装置である。制御装置10は、使用者の操作を受け付ける各種のボタン、スイッチ、及び、トラックパッド14を備え、使用者がHMD100を操作するコントローラーとして機能する。
右保持部21及び左保持部23は、それぞれ、前部フレーム27の両端部から後方に延び、眼鏡のテンプル(つる)のように、使用者の頭部に画像表示部20を保持する。ここで、前部フレーム27の両端部のうち、画像表示部20の装着状態において使用者の右側に位置する端部を端部ERとし、使用者の左側に位置する端部を端部ELとする。右保持部21は、前部フレーム27の端部ERから、画像表示部20装着状態において使用者の右側頭部に対応する位置まで延伸して設けられる。左保持部23は、端部ELから、画像表示部20の装着状態において使用者の左側頭部に対応する位置まで延伸して設けられる。
また、右導光板26及び左導光板28の表面に、調光板(図示略)を設けてもよい。調光板は、光の波長域により透過率が異なる薄板上の光学素子であり、いわゆる波長フィルターとして機能する。調光板は、例えば、使用者の眼の側とは反対の側である前部フレーム27の表側を覆うように配置される。この調光板の光学特性を適宜選択することにより、可視光、赤外光及び紫外光等の任意の波長域の光の透過率を調整することができ、外部から右導光板26及び左導光板28に入射し、右導光板26及び左導光板28を透過する外光の光量を調整できる。
カメラ61は、制御部150(図5)が備える撮像制御部149の制御に従って撮像を実行し、撮像画像データを撮像制御部149に出力する。
図2に示すように、右表示ユニット22と左表示ユニット24とは、左右対称に構成される。使用者の右眼REに画像を視認させる構成として、右表示ユニット22は、画像光を発するOLED(Organic Light Emitting Diode)ユニット221と、OLEDユニット221が発する画像光Lを導くレンズ群等を備えた右光学系251とを備える。画像光Lは、右光学系251により右導光板26に導かれる。
なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成であってもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加え、W(白)の光を発する発光素子を備えるWRGB構成のOLEDパネル223を用いてもよい。
ハーフミラー261、281は、右表示ユニット22及び左表示ユニット24がそれぞれ出力する画像光を反射して画像を取り出す画像取り出し部であり、表示部ということができる。
ボタン11は、制御装置10が実行するオペレーティングシステム143(図5)の操作等を行うためのメニューキー、ホームキー、戻るキー等を含み、特に、これらのキーやスイッチのうち押圧操作により変位するものを含む。LEDインジケーター12は、HMD100の動作状態に対応して点灯し、或いは点滅する。上下キー15は、右イヤホン32及び左イヤホン34から出力する音量の増減の指示入力や、画像表示部20の表示の明るさの増減の指示入力に利用される。切替スイッチ16は、上下キー15の操作に対応する入力を切り替えるスイッチである。電源スイッチ18は、HMD100の電源のオン/オフを切り替えるスイッチであり、例えばスライドスイッチで構成される。
また、制御装置10は、図示はしないが、タッチ操作を検出するタッチ操作部を備える。タッチ操作部は操作により変位するスイッチ等を持たず、例えば操作位置と操作内容を示すアイコン等が画面による表示や印刷で配置される。このタッチ操作部への接触(タッチ操作)は、後述するタッチセンサー13(図4)により検出される。
図3(A)では、使用者の右眼REに画像光を照射するハーフミラー261、及び、左眼LEに画像光を照射するハーフミラー281が、略四角形の領域として見える。また、ハーフミラー261、281を含む右導光板26及び左導光板28の全体が、上述したように外光を透過する。このため、使用者には、右導光板26及び左導光板28の全体を透過して外景が視認され、ハーフミラー261、281の位置に矩形の表示画像が視認される。
制御装置10は、プログラムを実行してHMD100を制御するメインプロセッサー140を備える。メインプロセッサー140には、メモリー118及び不揮発性記憶部121が接続される。また、メインプロセッサー140には、入力装置としてトラックパッド14及び操作部110が接続される。また、メインプロセッサー140には、センサー類として、6軸センサー111(第2センサー)、磁気センサー113(第2地磁気センサー)、及び、GPS115が接続される。また、メインプロセッサー140には、通信部117、音声コーデック180、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192、及び、FPGA194が接続される。これらは外部とのインターフェイスとして機能する。
操作部110は、ボタン11、タッチセンサー13、およびLED表示部17を含む。タッチセンサー13は、制御装置10が有するタッチ操作部へのタッチ操作を検出する。ボタン11の操作が行われた場合、及び、タッチセンサー13がタッチ操作を検出した場合、操作部110からメインプロセッサー140に対し、操作信号が出力される。
LED表示部17は、LEDインジケーター12(図1)が備えるLED、及び、このLEDを点灯させる駆動回路を含む。LED表示部17は、メインプロセッサー140の制御に従って、LEDを点灯、点滅、消灯させる。また、LED表示部17は、LEDが発光する輝度を制御してもよい。また、LED表示部17は、赤、青、緑の3色のLEDを備える構成であってもよく、この場合、各色のLEDの輝度を調整することによって任意の色でLEDインジケーター12を発光させてもよい。
磁気センサー113は、例えば、3軸の地磁気センサーである。磁気センサー113の地磁気の検出結果を利用すれば、地面を基準とする制御装置10の3次元的な向きを特定できる。
GPS(Global Positioning System)115は、図示しないGPSアンテナを備え、GPS衛星から送信される無線信号を受信して、制御装置10の現在位置の座標を検出する。
音声インターフェイス182は、音声信号を入出力するインターフェイスである。本実施形態では、音声インターフェイス182は、接続ケーブル40に設けられたコネクター46(図1)を含む。音声コーデック180は、音声インターフェイス182に接続され、音声インターフェイス182を介して入出力される音声信号のエンコード/デコードを行う。また、音声コーデック180はアナログ音声信号からデジタル音声データへの変換を行うA/Dコンバーター、及び、その逆の変換を行うD/Aコンバーターを備えてもよい。例えば、本実施形態のHMD100は、音声を右イヤホン32及び左イヤホン34により出力し、マイク63で集音する。音声コーデック180は、メインプロセッサー140が出力するデジタル音声データをアナログ音声信号に変換して、音声インターフェイス182を介して出力する。また、音声コーデック180は、音声インターフェイス182に入力されるアナログ音声信号をデジタル音声データに変換してメインプロセッサー140に出力する。
外部メモリーインターフェイス186は、可搬型のメモリーデバイスを接続可能なインターフェイスであり、例えば、カード型記録媒体を装着してデータの読取が可能なメモリーカードスロットとインターフェイス回路とを含む。この場合のカード型記録媒体のサイズ、形状、規格は制限されず、適宜に変更可能である。
USB(Universal Serial Bus)コネクター188は、USB規格に準拠したコネクターとインターフェイス回路とを備え、USBメモリーデバイス、スマートフォン、コンピューター等を接続できる。USBコネクター188のサイズや形状、適合するUSB規格のバージョンは適宜に選択、変更可能である。
インターフェイス211は、受信部213、EEPROM215、温度センサー217、カメラ61、照度センサー65、及びLEDインジケーター67を、制御装置10に接続する。
照度センサー65は、図1に示すように、前部フレーム27の端部ERに設けられ、画像表示部20を装着する使用者の前方からの外光を受光するよう配置される。照度センサー65は、受光量(受光強度)に対応する検出値を出力する。
LEDインジケーター67は、図1に示すように、前部フレーム27の端部ERにおいてカメラ61の近傍に配置される。LEDインジケーター67は、カメラ61による撮像を実行中に点灯して、撮像中であることを報知する。
インターフェイス231は、受信部233、6軸センサー235、磁気センサー237、及び温度センサー239を、制御装置10に接続する。
磁気センサー237は、例えば、3軸の地磁気センサーである。磁気センサー237の地磁気の検出結果を利用すれば、地面を基準とする画像表示部20の3次元的な向きを特定できる。
また、温度センサー239が、OLEDパネル243或いはOLED駆動回路245に内蔵されてもよい。また、上記基板は半導体基板であってもよい。具体的には、OLEDパネル243が、Si−OLEDとして、OLED駆動回路245等とともに統合半導体チップ上の集積回路として実装される場合、この半導体チップに温度センサー239を実装してもよい。
また、センサーハブ192は、メインプロセッサー140の制御に従ってLEDインジケーター67への通電を開始及び停止させ、カメラ61が撮像を開始及び終了するタイミングに合わせて、LEDインジケーター67を点灯または点滅させる。
記憶部122は、制御部150が処理する各種のデータを記憶する。記憶部122は、設定データ123、コンテンツデータ124、及び操作設定データ127を記憶する。設定データ123は、HMD100の動作に係る各種の設定値を含む。また、制御部150がHMD100を制御する際にパラメーター、行列式、演算式、LUT(LookUp Table)等を用いる場合、これらを設定データ123に含めてもよい。
コンテンツデータ124は、制御部150の制御によって画像表示部20が表示する画像や映像を含むコンテンツのデータであり、画像データ、或いは映像データを含む。また、コンテンツデータ124は、音声データを含んでもよい。また、コンテンツデータ124は複数の画像の画像データを含んでもよく、この場合、これら複数の画像は同時に画像表示部20に表示される画像に限定されない。
また、コンテンツデータ124は、コンテンツを画像表示部20により表示する際に、制御装置10によって使用者の操作を受け付けて、受け付けた操作に応じた処理を制御部150が実行する、双方向型のコンテンツであってもよい。この場合、コンテンツデータ124は、操作を受け付ける場合に表示するメニュー画面の画像データ、メニュー画面に含まれる項目に対応する処理等を定めるデータ等を含んでもよい。
また、表示設定データ128は、操作検出制御部152が検出する制御装置10と画像表示部20との相対位置に対応して、画像表示部20の表示を変更するためのプログラム、演算式、関数、パラメーター、行列等の設定データを含む。
また、表示設定データ128は、操作検出制御部152が制御装置10を用いるジェスチャー操作を検出した場合に、このジェスチャー操作に対応して画像表示部20に表示する画像の画像データを含んでも良い。また、ジェスチャー操作に対応して画像表示部20の表示を変更するためのプログラム、演算式、関数、パラメーター、行列等の設定データを含んでもよい。
また、位置検出データ129は、制御装置10を用いるジェスチャー操作に関する設定データを含む。この場合、位置検出データ129は、予め登録されるジェスチャー操作の番号や名称、及び、ジェスチャー操作時の制御装置10の動き、或いは制御装置10と画像表示部20の相対位置の変化に関するデータを含む。
ジェスチャーの具体例としては、画像表示部20に対して制御装置10を上下または左右に小さく(設定された角度以下の角度で)複数回繰り返して回動させる動作が挙げられる。また、制御装置10が複数回揺れる動作が挙げられ、例えば使用者が制御装置10を複数回叩く場合の動きに相当する。また、画像表示部20に対して制御装置10を振り回す操作が挙げられる。この場合、画像表示部20に対し、制御装置10が円または楕円の軌道を描くように移動するので、操作検出制御部152が検出する動きが円または楕円の軌道に該当する場合にジェスチャーが検出される。
また、画像処理部145は、必要に応じて、画像データの解像度を右表示ユニット22及び左表示ユニット24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部145は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。画像処理部145は、これらの画像処理を実行した場合、処理後の画像データに基づき画像を表示するための信号を生成して、接続ケーブル40を介して画像表示部20に送信する。
また、操作検出制御部152は、制御装置10と画像表示部20との相対位置を検出する。操作検出制御部152は、制御装置10と画像表示部20との相対位置を検出することにより、制御装置10を用いたモーションの入力を受け付ける。操作検出制御部152は、制御装置10と画像表示部20との相対位置の変化、すなわち画像表示部20に対する相対的な制御装置10によるモーション(動き)の入力内容を示す操作データを生成して出力する。この操作データは、例えば、画像表示部20に対する相対的な制御装置10の移動を示す移動データである。
操作検出制御部152は、相対位置の検出、及び、ジェスチャーの検出を行う際に、記憶部122が記憶する位置検出データ129を参照する。
ここで、基点とは、操作検出制御部152が生成する仮想の操作位置であり、基点がトラックパッド14における操作位置と一致することもある。基点の位置は、表示制御用の位置、及び、処理位置に相当する。また、操作検出制御部152が、操作位置に基づき、操作位置とは異なる位置の基点の座標を算出する処理を行うこともある。移動データは、基点位置の座標の変化を示すデータとして、基点位置のX座標とY座標の変化量のデータを含むことができる。
移動データが含むベクトル量または座標は、操作検出制御部152が検出するトラックパッド14の検出領域における座標を基準とする。
表示制御部147は、操作検出制御部152が出力する移動データに基づき、ポインターの表示位置を移動させる。移動データはトラックパッド14の検出領域における座標を基準とするデータであるから、表示制御部147は、移動データが含む座標または量を、画像表示部20の表示領域における座標または量に変換する。表示制御部147が変換を行う場合のパラメーターや演算式等は、例えば操作設定データ127に含まれる。
また、制御装置10と画像表示部20の相対位置の変化がジェスチャー操作に該当しない場合(ステップS17;No)、操作検出制御部152は、制御装置10と画像表示部20の相対位置の変化を示す操作データを出力する。この場合、表示制御部147は、相対位置の変化に対応して画像表示部20の表示を更新し(ステップS19)、ステップS20に移行する。
図7には、画像表示部20が搭載するカメラ61を利用する例を示す。
表示制御部147は、キャリブレーションの実行を案内する案内画面を画像表示部20により表示させる(ステップS51)。ステップS51で表示される案内画面には、制御装置10の位置を、カメラ61の画角(撮像範囲)に収まる位置とするように案内する画像やテキストを含む。カメラ61の画角が、使用者が右導光板26及び左導光板28を透過して視認する視野を含む場合、案内画面により、制御装置10が視野に収まるように、制御装置10を手に持つ等を指示すればよい。
操作検出制御部152は、ステップS54で求めた相対位置を、初期状態における相対位置として位置検出データ129に設定する(ステップS55)。
表示制御部147は、キャリブレーションの実行を案内する案内画面を画像表示部20により表示させる(ステップS61)。ステップS61で表示される案内画面は、例えば、キャリブレーションを開始することを報知する画像やテキストを含む。
また、図7に示す動作において磁気センサー113、237の検出値を取得して地磁気に対する制御装置10、画像表示部20の方向を特定してもよい。また、図8に示す動作においてカメラ61の撮像画像に基づき、制御装置10からカメラ61の撮像面までの距離や、制御装置10の向き等を特定してもよい。
使用者が制御装置10を動かすと、制御装置10の動きに対応して、ポインターPVの位置が変化するように、表示が更新される。
従って、ポインターPVの位置は、制御装置10の動きだけでなく、画像表示部20の動きを考慮して求める必要がある。例えば、制御装置10と画像表示部20とが同じ方向に同じ量だけ移動した場合、ポインターPVの表示位置が変わらないことがある。この場合、6軸センサー111は動きがあったことを示す値であるが、ポインターPVの表示位置を更新しないことが望ましい。
このように、制御装置10の動きのみを用いてポインターPVの表示位置を適切に制御することは容易ではない。そこで、本実施形態のHMD100は、制御装置10と画像表示部20との相対位置に基づいて表示の制御を行う。
図10はHMD100の動作を示すフローチャートであり、制御装置10の相対位置に対応して画像を表示する動作を示す。
図11(A)は、コンテンツの一種として、木の画像WVを表示する例を示す。画像WVはCG等の画像であって、実空間にある物体(実物体)ではない。ポインターPVは、制御装置10の向きに対応して表示される。
図11(B)の例では、ジェスチャー操作に応じて、ポインターPVを工具ポインターCVに変更する例を示す。この例では、制御装置10により、木の画像WVに対し工具ポインターCVを動かす操作が可能になり、制御部150は、制御装置10の動きに追従して木の画像WVに対する彫刻を行うように表示を変化させる。このように、ジェスチャー操作により、ポインターPVの表示を工具ポインターCVに変化させ、さらに、工具ポインターCVの位置に対応する処理を切り替えさせることができる。
図12(A)に示すように、HMD100は、使用者Uの視野にAR表示の対象物OBが視認される状態で、制御装置10の操作に対応するポインター等をAR表示することができる。
この場合、制御部150は、図12(A)に示すように、画像表示部20から実空間の対象物OBまでの距離D2を設定する。距離D2は、カメラ61の撮像画像を利用して検出してもよい。また、HMD100が、予め設定された測定方向に位置する測定対象物までの距離を検出する、上述した距離センサー(図示略)を備える構成であれば、この距離センサーにより距離D2を測定してもよい。また、使用者の入力操作により、距離D2が入力されてもよいし、予め距離D2のデフォルト値が設定されてもよい。この場合、使用者に対し、対象物OBから距離D2となる位置に移動するように、使用者を誘導する画像やテキストを表示してもよい。
図13は、第2実施形態に係るHMD100Aの構成を示す図である。
HMD100Aは、画像表示部20(図1)に代えて、NFCタグ69を有する画像表示部20Aを備えた構成である。すなわち、画像表示部20の右保持部21に、図13に示すようにNFCタグ69を埋設した構成を、第2実施形態として示す。
表示制御部147は、キャリブレーションの実行を案内する案内画面を画像表示部20により表示させる(ステップS81)。ステップS81で表示される案内画面には、制御装置10の裏面を、右保持部21に当てるように案内する画像やテキストを含む。
NFCタグ69の読み取りに成功した場合(ステップS82;Yes)、操作検出制御部152は、初期状態の相対位置を位置検出データ129に設定する(ステップS83)。ステップS83では、NFCタグ69を読み取る姿勢として、予め登録された制御装置10と画像表示部20との相対位置を、位置検出データ129に設定する。NFCタグ69の読み取りに成功したことにより、制御装置10が右保持部21に接触したことは明らかであるから、制御装置10と画像表示部20の相対位置が特定できる。なお、制御装置10の向きについて厳密に初期状態を定義することも可能である。この場合、ステップS81で表示する案内画面によって、制御装置10を右保持部21に当接させるときの向き、角度等について詳細に案内すればよい。
例えば、制御装置10の位置や方向の変化に基づきジェスチャーを検出した場合に、HMD100の動作に関する設定を行うメニューを表示し、制御装置10の動きにより、メニューに対する操作を行うことが可能な構成であってもよい。また、ジェスチャーを検出した場合に、画像表示部20における表示輝度を変更する処理や、表示と音声出力とを停止するミュート処理を行ってもよく、その他、制御装置10の動きに応じてHMD100が実行する処理の内容は任意である。
さらに、本発明の光学素子は、ハーフミラー261、281を有する右導光板26、左導光板28に限定されず、画像光を使用者の眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
Claims (14)
- 使用者の頭部に装着され、画像を表示する表示部を有する第1デバイスと、
前記表示部とは別体で構成される第2デバイスと、
前記第1デバイスと前記第2デバイスとの相対位置を検出する検出部と、
前記検出部の検出結果に基づき前記表示部の表示画像を制御する表示制御部と、
を備えることを特徴とする表示装置。 - 前記表示制御部は、前記検出部の検出結果に基づき前記表示部により表示される所定画像の表示位置を制御すること、
を特徴とする請求項1記載の表示装置。 - 前記表示制御部が前記表示部により表示させる前記所定画像は、前記使用者の注目を促すポインターであること、
を特徴とする請求項2記載の表示装置。 - 前記検出部は、前記第1デバイスと前記第2デバイスとの相対位置に基づき、前記第2デバイスにより所定のアクションが行われたことを検出し、
前記表示制御部は、前記アクションに応じて前記表示部の表示画像を制御すること、
を特徴とする請求億1から3のいずれかに記載の表示装置。 - 前記表示制御部は、前記検出部により検出される前記第1デバイスと前記第2デバイスとの相対位置に基づき、前記表示部に表示される表示画像の表示位置を制御し、前記検出部により前記アクションが検出された場合には、前記表示部に表示される表示画像について予め設定された変更を行うこと、
を特徴とする請求項4記載の表示装置。 - 前記表示部は、外光を透過することにより実物体を視認可能に構成され、前記実物体に重ねて画像を表示し、
前記表示制御部は、前記表示部により前記実物体に重ねて表示される画像の表示状態を、前記検出部の検出結果に基づき制御すること、
を特徴とする請求項1から5のいずれかに記載の表示装置。 - 前記表示制御部は、前記表示部と前記実物体との距離に対応して画像の表示状態を制御すること、
を特徴とする請求項6記載の表示装置。 - 前記第1デバイスは動きを検出する第1センサーを備え、
前記第2デバイスは動きを検出する第2センサーを備え、
前記検出部は、前記第1センサー及び前記第2センサーの検出値に基づき、前記第1デバイスと前記第2デバイスとの相対位置を検出すること、
を特徴とする請求項1から7のいずれかに記載の表示装置。 - 前記検出部は、初期状態における前記第1デバイスと前記第2デバイスとの相対位置と、前記初期状態に対する前記第1デバイス及び前記第2デバイスの動きに基づき、前記第1デバイスと前記第2デバイスとの相対位置を検出すること、
を特徴とする請求項1から8のいずれかに記載の表示装置。 - 前記第1デバイスは撮像部を備え、
前記検出部は、前記第1デバイスが備える前記撮像部の撮像画像から前記第2デバイスの画像を検出することにより、初期状態における前記第1デバイスと前記第2デバイスとの相対位置を特定すること、
を特徴とする請求項9記載の表示装置。 - 前記検出部は、前記第1デバイスと前記第2デバイスとの相対位置が特定の位置となったことを検出し、前記特定の位置を、初期状態における前記第1デバイスと前記第2デバイスとの相対位置とすること、
を特徴とする請求項9記載の表示装置。 - 前記第1デバイスは第1地磁気センサーを備え、
前記第2デバイスは第2地磁気センサーを備え、
前記検出部は、前記第1地磁気センサー及び前記第2地磁気センサーの検出値に基づき、前記第1デバイスと前記第2デバイスとの相対位置を検出すること、
を特徴とする請求項1から8のいずれかに記載の表示装置。 - 使用者の頭部に装着され、画像を表示する表示部を有する第1デバイスと、前記表示部とは別体で構成される第2デバイスと、を備える表示装置を制御して、
前記第1デバイスと前記第2デバイスとの相対位置を検出し、
前記相対位置の検出結果に基づき前記表示部の表示画像を制御すること、
を備えることを特徴とする表示装置の制御方法。 - 使用者の頭部に装着され、画像を表示する表示部を有する第1デバイスと、前記表示部とは別体で構成される第2デバイスと、を備える表示装置を制御するコンピューターが実行可能なプログラムであって、
前記第1デバイスと前記第2デバイスとの相対位置を検出し、前記相対位置の検出結果に基づき前記表示部の表示画像を制御するためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016013943A JP2017134630A (ja) | 2016-01-28 | 2016-01-28 | 表示装置、表示装置の制御方法、及び、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016013943A JP2017134630A (ja) | 2016-01-28 | 2016-01-28 | 表示装置、表示装置の制御方法、及び、プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017134630A true JP2017134630A (ja) | 2017-08-03 |
Family
ID=59503603
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016013943A Pending JP2017134630A (ja) | 2016-01-28 | 2016-01-28 | 表示装置、表示装置の制御方法、及び、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017134630A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112558300A (zh) * | 2019-09-10 | 2021-03-26 | 精工爱普生株式会社 | 显示系统、记录介质、信息处理装置的控制方法和显示装置 |
CN113050278A (zh) * | 2019-12-26 | 2021-06-29 | 精工爱普生株式会社 | 显示系统、显示方法以及记录介质 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07110735A (ja) * | 1993-10-14 | 1995-04-25 | Nippon Telegr & Teleph Corp <Ntt> | 装着型ペン入力装置 |
JPH07281818A (ja) * | 1994-04-08 | 1995-10-27 | Canon Inc | 3次元仮想指示入力システム |
JP2001159951A (ja) * | 1999-12-02 | 2001-06-12 | Nec Corp | 情報処理装置および情報処理方法 |
JP2005321479A (ja) * | 2004-05-06 | 2005-11-17 | Olympus Corp | 頭部装着型表示装置 |
JP2011186856A (ja) * | 2010-03-09 | 2011-09-22 | Nec Corp | ヘッドマウントディスプレイを外部表示装置として使用する携帯端末 |
US20120249531A1 (en) * | 2011-03-29 | 2012-10-04 | Sony Mobile Communications Ab | Virtual pointer |
JP2015026286A (ja) * | 2013-07-26 | 2015-02-05 | セイコーエプソン株式会社 | 表示装置、表示システムおよび表示装置の制御方法 |
JP2015090635A (ja) * | 2013-11-07 | 2015-05-11 | コニカミノルタ株式会社 | 透過型hmdを有する情報表示システム及び表示制御プログラム |
JP2015118442A (ja) * | 2013-12-17 | 2015-06-25 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP2015158706A (ja) * | 2014-02-21 | 2015-09-03 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法 |
JP2015170257A (ja) * | 2014-03-10 | 2015-09-28 | 富士通株式会社 | 入力方法,プログラム及び入力装置 |
JP2015213212A (ja) * | 2014-05-01 | 2015-11-26 | セイコーエプソン株式会社 | 頭部装着型表示装置、制御システム、および、頭部装着型表示装置の制御方法 |
-
2016
- 2016-01-28 JP JP2016013943A patent/JP2017134630A/ja active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07110735A (ja) * | 1993-10-14 | 1995-04-25 | Nippon Telegr & Teleph Corp <Ntt> | 装着型ペン入力装置 |
JPH07281818A (ja) * | 1994-04-08 | 1995-10-27 | Canon Inc | 3次元仮想指示入力システム |
JP2001159951A (ja) * | 1999-12-02 | 2001-06-12 | Nec Corp | 情報処理装置および情報処理方法 |
JP2005321479A (ja) * | 2004-05-06 | 2005-11-17 | Olympus Corp | 頭部装着型表示装置 |
JP2011186856A (ja) * | 2010-03-09 | 2011-09-22 | Nec Corp | ヘッドマウントディスプレイを外部表示装置として使用する携帯端末 |
US20120249531A1 (en) * | 2011-03-29 | 2012-10-04 | Sony Mobile Communications Ab | Virtual pointer |
JP2015026286A (ja) * | 2013-07-26 | 2015-02-05 | セイコーエプソン株式会社 | 表示装置、表示システムおよび表示装置の制御方法 |
JP2015090635A (ja) * | 2013-11-07 | 2015-05-11 | コニカミノルタ株式会社 | 透過型hmdを有する情報表示システム及び表示制御プログラム |
JP2015118442A (ja) * | 2013-12-17 | 2015-06-25 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP2015158706A (ja) * | 2014-02-21 | 2015-09-03 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法 |
JP2015170257A (ja) * | 2014-03-10 | 2015-09-28 | 富士通株式会社 | 入力方法,プログラム及び入力装置 |
JP2015213212A (ja) * | 2014-05-01 | 2015-11-26 | セイコーエプソン株式会社 | 頭部装着型表示装置、制御システム、および、頭部装着型表示装置の制御方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112558300A (zh) * | 2019-09-10 | 2021-03-26 | 精工爱普生株式会社 | 显示系统、记录介质、信息处理装置的控制方法和显示装置 |
CN113050278A (zh) * | 2019-12-26 | 2021-06-29 | 精工爱普生株式会社 | 显示系统、显示方法以及记录介质 |
CN113050278B (zh) * | 2019-12-26 | 2023-06-06 | 精工爱普生株式会社 | 显示系统、显示方法以及记录介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11310483B2 (en) | Display apparatus and method for controlling display apparatus | |
US10643390B2 (en) | Head mounted display, method for controlling head mounted display, and computer program | |
US10635182B2 (en) | Head mounted display device and control method for head mounted display device | |
US11536964B2 (en) | Head-mounted display apparatus, display control method, and computer program | |
US10976836B2 (en) | Head-mounted display apparatus and method of controlling head-mounted display apparatus | |
US20180259775A1 (en) | Transmission-type display device, display control method, and computer program | |
US20170289533A1 (en) | Head mounted display, control method thereof, and computer program | |
US20230251490A1 (en) | Head-mounted type display device and method of controlling head-mounted type display device | |
JP2018160735A (ja) | 透過型表示装置、表示制御方法、およびコンピュータープログラム | |
JP2018142857A (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
US20190285896A1 (en) | Transmission-type head mounted display apparatus, method of controlling transmission-type head mounted display apparatus, and computer program for controlling transmission-type head mounted display apparatus | |
JP2018142168A (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
JP2018124721A (ja) | 頭部装着型表示装置、及び頭部装着型表示装置の制御方法 | |
JP2018084886A (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム | |
JP2017182228A (ja) | 入力装置、入力方法、コンピュータープログラム | |
JP2020071587A (ja) | 表示装置、及び、表示装置の制御方法 | |
JP2017146726A (ja) | 移動支援装置、及び、移動支援方法 | |
US20190086677A1 (en) | Head mounted display device and control method for head mounted display device | |
JP2018042004A (ja) | 表示装置、頭部装着型表示装置、及び、表示装置の制御方法 | |
JP2017134630A (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
JP6996115B2 (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
JP6932917B2 (ja) | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 | |
JP2017182460A (ja) | 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム | |
JP2017182413A (ja) | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム | |
JP2018067160A (ja) | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190717 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190820 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191007 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191112 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191224 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200519 |