JP2016161611A - Display system and display control method - Google Patents
Display system and display control method Download PDFInfo
- Publication number
- JP2016161611A JP2016161611A JP2015037763A JP2015037763A JP2016161611A JP 2016161611 A JP2016161611 A JP 2016161611A JP 2015037763 A JP2015037763 A JP 2015037763A JP 2015037763 A JP2015037763 A JP 2015037763A JP 2016161611 A JP2016161611 A JP 2016161611A
- Authority
- JP
- Japan
- Prior art keywords
- display
- unit
- image
- movement
- amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Liquid Crystal Display Device Control (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、表示システム、及び表示制御方法に関する。 The present invention relates to a display system and a display control method.
近年、使用者が、身体や身の回り品に装着して使用する、いわゆるウェアラブルデバイスが知られている。ウェアラブルデバイスの例としては、頭部に装着して使用する、ヘッドマウントディスプレイ(Head Mounted Display:HMD)と呼ばれる表示装置が挙げられる(例えば、特許文献1参照)。特許文献1記載のHMDは、使用者が頭部に装着して使用する透過型のディスプレイであり、使用者の目線を検出する機能を有し、使用者の目線方向の状態に合わせて情報を表示する。
2. Description of the Related Art In recent years, so-called wearable devices that are used by users on their bodies and personal items are known. As an example of the wearable device, there is a display device called a head mounted display (HMD) that is used by being worn on the head (see, for example, Patent Document 1). The HMD described in
特許文献1に記載されたように透過型のHMDを装着した状態では、キーボードやマウス等の従来の入力デバイスを使いにくい。また、透過型のHMDに限らず、非透過型のHMDや、その他のウェアラブルデバイスを使用する場合、入力操作の種類や態様が制限され、利便性の向上が求められていた。
本発明は上記事情に鑑みてなされたものであり、使用者が装着する装置により位置を指示する等の操作を簡単に行うことが可能な表示システム、及び表示制御方法を提供することを目的とする。
As described in
The present invention has been made in view of the above circumstances, and it is an object of the present invention to provide a display system and a display control method capable of easily performing an operation such as instructing a position by a device worn by a user. To do.
上記目的を達成するために、本発明の表示システムは、使用者が装着し、外景を透過可能に構成された表示部、及び前記表示部の動きを検出する動き検出部を有する端末装置と、表示面に表示を行う表示装置と、を備え、前記表示装置が前記表示面に表示面マーカーを表示し、前記表示面マーカーの表示位置に応じて前記使用者が前記表示部を動かした際の前記動き検出部の検出結果に基づいて、前記表示部の動き量と前記表示面における移動量とを対応付ける処理部を備えること、を特徴とする。
本発明によれば、使用者が装着する端末装置の動きから、表示面における移動量を得ることができるので、端末装置を動かすことで、表示面上の量に関する入力を行うことが可能となる。このため、端末装置を使用する場合の入力操作を容易にし、利便性の向上を図ることができる。
In order to achieve the above object, a display system of the present invention includes a display unit that is worn by a user and configured to transmit an outside scene, and a terminal device that includes a motion detection unit that detects the movement of the display unit, A display device that performs display on a display surface, wherein the display device displays a display surface marker on the display surface, and the user moves the display unit according to a display position of the display surface marker. A processing unit is provided that associates the amount of movement of the display unit with the amount of movement on the display surface based on the detection result of the motion detection unit.
According to the present invention, since the movement amount on the display surface can be obtained from the movement of the terminal device worn by the user, it becomes possible to input the amount on the display surface by moving the terminal device. . For this reason, the input operation when using the terminal device can be facilitated, and the convenience can be improved.
また、本発明は、上記表示システムにおいて、前記表示装置は前記表示面における複数の異なる位置に前記表示面マーカーを表示し、前記処理部は、前記表示面における移動量を、前記表示面マーカーの複数の表示位置から求めること、を特徴とする。
本発明によれば、使用者が装着する端末装置の動きと表示面における移動量との対応付けを速やかに行うことができる。
In the display system according to the present invention, the display device displays the display surface marker at a plurality of different positions on the display surface, and the processing unit indicates the movement amount on the display surface. It is obtained from a plurality of display positions.
According to the present invention, it is possible to quickly associate the movement of the terminal device worn by the user with the amount of movement on the display surface.
また、本発明は、上記表示システムにおいて、前記端末装置は、前記表示面の前記表示面マーカーと重ねて視認するための使用者側マーカーを前記表示部に表示すること、を特徴とする。
本発明によれば、使用者が端末装置を使用して使用者側マーカーを視認するので、端末装置の動きと表示面における移動量との対応付けを、より正確に行うことができる。また、使用者の操作の負担を軽減できる。
Moreover, the present invention is characterized in that, in the display system, the terminal device displays a user-side marker on the display unit so as to be superimposed on the display surface marker on the display surface.
According to the present invention, since the user visually recognizes the user side marker using the terminal device, the movement of the terminal device and the amount of movement on the display surface can be more accurately associated. In addition, the operation burden on the user can be reduced.
また、本発明は、上記表示システムにおいて、前記端末装置は、前記表示装置が前記表示面マーカーを表示する表示位置を取得する取得部と、前記処理部と、を備え、前記処理部は、前記動き検出部の検出結果から前記表示部の動き量を求め、求めた動き量と前記取得部により取得した前記表示面マーカーの表示位置とをもとに、前記表示部の動き量と前記表示面における移動量とを対応付ける処理を行うこと、を特徴とする。
本発明によれば、端末装置の機能により、端末装置の動き量と表示面における移動量とを対応付けることができる。
Further, the present invention is the display system, wherein the terminal device includes an acquisition unit that acquires a display position at which the display device displays the display surface marker, and the processing unit. The amount of movement of the display unit is obtained from the detection result of the movement detection unit, and the amount of movement of the display unit and the display surface are determined based on the obtained amount of movement and the display position of the display surface marker acquired by the acquisition unit. And performing a process of associating the amount of movement with.
ADVANTAGE OF THE INVENTION According to this invention, the movement amount of a terminal device and the movement amount on a display surface can be matched by the function of a terminal device.
また、本発明は、上記表示システムにおいて、前記表示装置は、前記端末装置の前記動き検出部の検出結果、又は、前記動き検出部の検出結果から求められる前記表示部の動き量を取得する動き量取得部と、前記処理部と、を備え、前記処理部は、前記動き量取得部で取得した動き量と前記表示面マーカーを表示した表示位置とをもとに、動き量と前記表示面における移動量とを対応付ける処理を行うこと、を特徴とする。
本発明によれば、表示装置の機能により、端末装置の動き量と表示面における移動量とを対応付けることができる。
In the display system according to the aspect of the invention, the display device may acquire a motion amount of the display unit obtained from the detection result of the motion detection unit of the terminal device or the detection result of the motion detection unit. An amount acquisition unit, and the processing unit, the processing unit based on the movement amount acquired by the movement amount acquisition unit and the display position where the display surface marker is displayed, the movement amount and the display surface And performing a process of associating the amount of movement with.
According to the present invention, the amount of movement of the terminal device and the amount of movement on the display surface can be associated by the function of the display device.
また、本発明は、上記表示システムにおいて、前記表示装置は、前記表示面に表示する画像の幾何補正を行う補正処理部を備え、前記補正処理部は、前記表示部の動き量に基づいて、前記画像の補正量及び補正方向の少なくともいずれかを求めること、を特徴とする。
本発明によれば、端末装置の動きと表示面における移動量との対応付けを利用して、端末装置を用いた操作により、画像の補正を行うことができる。
In the display system according to the present invention, the display device includes a correction processing unit that performs geometric correction of an image displayed on the display surface, and the correction processing unit is based on the amount of movement of the display unit. It is characterized in that at least one of the correction amount and the correction direction of the image is obtained.
According to the present invention, it is possible to correct an image by an operation using the terminal device by using the association between the movement of the terminal device and the movement amount on the display surface.
また、本発明は、上記表示システムにおいて、前記表示装置が備える前記処理部は、前記動き量取得部が取得する前記端末装置の前記動き検出部の検出結果、又は、前記動き検出部の検出結果から求められる動き量をもとに、前記表示面における位置または距離を求めること、を特徴とする。
本発明によれば、端末装置の動きと表示面における移動量との対応付けを利用して、端末装置で入力操作を行うことができる。
In the display system according to the aspect of the invention, the processing unit included in the display device may include the detection result of the motion detection unit of the terminal device acquired by the motion amount acquisition unit or the detection result of the motion detection unit. The position or distance on the display surface is obtained based on the amount of movement obtained from the above.
ADVANTAGE OF THE INVENTION According to this invention, input operation can be performed with a terminal device using matching with the movement of a terminal device, and the movement amount on a display surface.
また、本発明は、上記表示システムにおいて、前記端末装置は、前記使用者の頭部に装着される前記表示部を備え、前記表示装置は、前記端末装置とは別体として構成される前記表示面に前記表示面マーカーを表示すること、を特徴とする。
本発明によれば、使用者が頭部に装着する端末装置の動きと表示面における移動量とを対応付けることができ、直感的な操作を実現できる。
In the display system according to the present invention, the terminal device includes the display unit that is worn on a head of the user, and the display device is configured separately from the terminal device. The display surface marker is displayed on a surface.
ADVANTAGE OF THE INVENTION According to this invention, the movement of the terminal device with which a user wears to a head can be matched with the movement amount in a display surface, and intuitive operation is realizable.
また、上記目的を達成するために、本発明の表示制御方法は、外景を透過可能に構成された表示部、及び前記表示部の動きを検出する動き検出部を有し、使用者が装着する端末装置と、表示面に表示を行う表示装置とを用い、前記表示装置が前記表示面に表示面マーカーを表示し、前記表示面マーカーの表示位置に応じて前記使用者が前記表示部を動かした際の前記動き検出部の検出結果に基づいて、前記表示部の動き量と前記表示面における移動量とを対応付けること、を特徴とする。
本発明によれば、使用者が装着する端末装置の動きから、表示面における移動量を得ることができるので、端末装置を動かすことで、表示面上の量に関する入力を行うことが可能となる。このため、端末装置を使用する場合の入力操作を容易にし、利便性の向上を図ることができる。
また、本発明は、上記の表示制御方法を実現するプログラム、或いは、プログラムを記憶した記録媒体として構成してもよい。
In order to achieve the above object, the display control method of the present invention includes a display unit configured to transmit an outside scene, and a motion detection unit that detects the movement of the display unit, and is worn by a user. Using a terminal device and a display device for displaying on a display surface, the display device displays a display surface marker on the display surface, and the user moves the display unit according to a display position of the display surface marker. The movement amount of the display unit and the movement amount on the display surface are associated with each other based on the detection result of the motion detection unit at the time.
According to the present invention, since the movement amount on the display surface can be obtained from the movement of the terminal device worn by the user, it becomes possible to input the amount on the display surface by moving the terminal device. . For this reason, the input operation when using the terminal device can be facilitated, and the convenience can be improved.
In addition, the present invention may be configured as a program that realizes the above display control method or a recording medium that stores the program.
図1は、本発明を適用した実施形態に係る表示システム1の概略構成を示す図である。
表示システム1は、使用者が頭部に装着する頭部装着型表示装置(以下、HMDとする)100と、HMD100を装着した使用者が視認可能な位置でスクリーンSC(投射面)に画像(投射画像P)を投写するプロジェクター300とを備える。HMD100は端末装置に相当し、プロジェクター300は表示装置に対応する。
FIG. 1 is a diagram showing a schematic configuration of a
The
HMD100は、使用者の頭部に装着された状態で使用者に虚像を視認させる画像表示部20(表示部)と、画像表示部20を制御する制御装置10と、を備えている。制御装置10は、使用者がHMD100を操作するコントローラーとしても機能する。
The HMD 100 includes an image display unit 20 (display unit) that allows a user to visually recognize a virtual image while being mounted on the user's head, and a
画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状のフレームを有する。フレームは、右保持部21及び左保持部23を有する。右保持部21及び左保持部23は、使用者が画像表示部20を装着した際に使用者の側頭部に位置し、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。
The
右保持部21には右表示駆動部22が設けられ、左保持部23には左表示駆動部24が設けられる。また、画像表示部20のフレームには、使用者の眼前に位置する右光学像表示部26及び左光学像表示部28が設けられる。
右光学像表示部26は、使用者が画像表示部20を装着した際に、使用者の右眼の前に位置し、左光学像表示部28は使用者が画像表示部20を装着した際に使用者の左眼の前に位置する。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに連結されている。この連結部にはカメラ61が配置される。
The
The right optical
右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。なお、右表示駆動部22及び左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26及び左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。
The right
右表示駆動部22は、後述するように画像データに基づく画像を形成し、この画像が右光学像表示部26に表示される。また、左表示駆動部24は画像データに基づく画像を形成し、左表示駆動部24が形成する画像は左光学像表示部28に表示される。これにより、使用者の左右の目に対して、それぞれ画像が表示される。
The right
右光学像表示部26及び左光学像表示部28は、外景を透過するシースルー型の表示装置として構成される。このため、使用者は、右光学像表示部26及び左光学像表示部28が表示する画像を視認し、かつ、右光学像表示部26及び左光学像表示部28を透過して外景を視認する。また、右光学像表示部26と左光学像表示部28に、視差を有する画像を表示することで、立体的に視認される3D(立体)画像を表示することができる。
本実施形態では、使用者が画像表示部20を装着した状態で、画像表示部20が表示する画像を視認し、かつ、スクリーンSCに投写された投射画像Pを視認できる。
The right optical
In the present embodiment, the user can visually recognize the image displayed on the
カメラ61は、右光学像表示部26と左光学像表示部28との境目部分に配置される。使用者が画像表示部20を装着した状態で、カメラ61の位置は、水平方向においては使用者の両眼のほぼ中間であり、鉛直方向においては使用者の両眼より上である。カメラ61は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、単眼カメラであってもステレオカメラであってもよい。
カメラ61は、HMD100の表側方向、換言すれば、HMD100を装着した状態における使用者の視界方向の少なくとも一部の外景を撮像する。カメラ61の画角の広さは適宜設定可能であるが、カメラ61の撮像範囲が、使用者が右光学像表示部26、左光学像表示部28を通して視認する外界を含む範囲であることが好ましい。カメラ61は、制御装置10の制御部140(図2)の制御に従って撮像を実行し、撮像画像データを制御部140に出力する。
The
The
画像表示部20は、制御装置10に接続コード48を介して接続する。接続コード48は、左右に分岐して、画像表示部20の右保持部21及び左保持部23に接続し、右表示駆動部22と左表示駆動部24のそれぞれに画像データを伝送する。
The
また、接続コード48には、右イヤホン32及び左イヤホン34が接続し、接続コード48にはマイク63が設けられる。マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置され、音声を集音して、音声信号を制御装置10の音声処理部187(図2)に出力する。
The
HMD100を制御する制御装置10は、HMD100の動作状態を示すインジケーターとして機能する点灯部12、入力操作を行うためのトラックパッド14及びキー操作部15、及び、電源スイッチ18を備える。点灯部12は、LED(Light Emitting Diode)等の光源を備え、光源の点灯状態により、HMD100の動作状態(例えば、電源のON/OFF)を通知する。キー操作部15は、決定キー、方向キー、メニューキー等、入力用の各種の操作子を備える。
トラックパッド14は、接触操作を検出する操作面を有し、操作面に対する操作に応じて操作信号を出力する。操作面における検出方式は限定されず、静電式、圧力検出式、光学式等を採用できる。電源スイッチ18は、HMD100の電源オン/オフを切り替えるスイッチである。
The
The
図2は、HMD100の構成を示す機能ブロック図である。図2には説明のため使用者の左眼LE及び右眼REを図示する。
右表示駆動部22及び左表示駆動部24は、それぞれ、画像を形成する液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」と呼ぶ)と、LCD241,242が形成する画像を投写する投写光学系251,252とを含む。右投写光学系251は、右光学像表示部26が有する右導光板261に画像光を投写し、左投写光学系252は左光学像表示部28が有する左導光板262に画像光を投写する。
FIG. 2 is a functional block diagram showing the configuration of the
The right
導光板261,262は、光透過性の樹脂等によって形成され、表示駆動部22,24が出力する画像光を、使用者の眼に導く。
また、右表示駆動部22は、右バックライト制御部201、右LCD制御部211、及び右バックライト221を備え、左表示駆動部24は左バックライト制御部202、左LCD制御部212及び左バックライト222を備える。
The
The right
左バックライト222はLED等の光源と拡散板とを有する。左LCD242は、左バックライト222の拡散板から発せられる光の光路上に配置され、複数の画素をマトリクス状に配置した透過型液晶パネルである。左投写光学系252は、左LCD242を透過した画像光を導くレンズ群等を備える。
The
左投写光学系252は、左LCD242から射出された画像光を平行状態の光束にするコリメートレンズを有する。コリメートレンズにより平行状態の光束にされた画像光は、左導光板262に入射される。左導光板262は、画像光を反射する複数の反射面が形成されたプリズムであり、画像光は、左導光板262の内部において複数回の反射を経て左眼LE側に導かれる。左導光板262には、左眼LEの眼前に位置するハーフミラーが形成される。このハーフミラーで反射した画像光は左眼LEに向けて左光学像表示部28から射出され、この画像光が左眼LEの網膜に像を結び、使用者に画像を視認させる。
The left projection
右表示駆動部22は、左表示駆動部24と左右対称に構成される。右バックライト221はLED等の光源と拡散板とを有する。右LCD241は、右バックライト221の拡散板から発せられる光の光路上に配置され、複数の画素をマトリクス状に配置した透過型液晶パネルである。右投写光学系251は、右LCD241を透過した画像光を導くレンズ群等を備える。
The right
右投写光学系251は、右LCD241から射出された画像光を平行状態の光束にするコリメートレンズを有する。コリメートレンズにより平行状態の光束にされた画像光は、右導光板261に入射される。右導光板261は、画像光を反射する複数の反射面が形成されたプリズムであり、画像光は、右導光板261の内部において複数回の反射を経て右眼RE側に導かれる。右導光板261には、右眼REの眼前に位置するハーフミラーが形成され、このハーフミラーで反射した画像光は右眼REに向けて右光学像表示部26から射出され、この画像光が右眼REの網膜に像を結び、使用者に画像を視認させる。
The right projection
使用者の右眼RE及び左眼LEには、ハーフミラーで反射した画像光と、右光学像表示部26、左光学像表示部28を透過した外光とが入射する。HMD100は、内部で処理した画像の画像光と外光とを重ねて使用者の眼に入射させ、使用者にとっては、右光学像表示部26及び左光学像表示部28を透かして外景が見え、この外景に重ねて、画像光による画像が視認される。このように、HMD100は、シースルー型の表示装置として機能する。
Image light reflected by the half mirror and external light transmitted through the right optical
画像表示部20のフレームには、9軸センサー66(動き検出部)が内蔵される。9軸センサー66は、加速度センサー、磁気センサー、及び角速度センサー(ジャイロセンサー)を内蔵したユニットである。9軸センサー66は、例えば、図1に示す右保持部21、或いは左保持部23に内蔵される。9軸センサー66は画像表示部20のフレームに固定され、フレームが変位した場合に、この動き及びフレームの姿勢が9軸センサー66で検出される。9軸センサー66の位置は任意であり、フレームに対して変位しないよう配置されていればよい。
A 9-axis sensor 66 (motion detection unit) is built in the frame of the
9軸センサー66の角速度センサーは、内蔵する検出機構の測定基準点において、図1に示すX軸まわりの回転(ピッチ)、Y軸回りの回転(ヨー)、及びZ軸まわりの回転(ロール)を検出する。9軸センサー66が角速度を検出する軸は、図1に示すように、画像表示部20を装着する使用者の頭部に対し左右方向をX軸、前後方向をY軸、上下方向をZ軸とする。より詳細には、X軸は、HMD100のフレームにおいて、右光学像表示部26及び左光学像表示部28を含む前部の水平方向に相当する。また、Y軸は、フレームの前後方向に相当し、Z軸はフレームの高さ方向に相当する。
9軸センサー66の加速度センサーは、上述したX軸方向、Y軸方向、及びZ軸方向の加速度を検出する3軸の加速度センサーである。また、9軸センサー66の磁気センサーは、上述したX軸方向、Y軸方向、及びZ軸方向における磁界を検出する3軸の磁気センサーである。
The angular velocity sensor of the nine-
The acceleration sensor of the nine-
HMD100の制御装置10は、コンテンツの供給元となる種々の外部機器OAを接続するインターフェイス114を備える。インターフェイス114としては、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスを用いることができる。外部機器OAは、HMD100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。
The
制御装置10は、制御部140、入力情報取得部110、記憶部120、送信部(Tx)51及び送信部(Tx)52をさらに有する。
入力情報取得部110(入力部)は、操作部135に接続される。操作部135は、上記のトラックパッド14、キー操作部15等を含み、入力情報取得部110は、操作部135から入力される信号に基づき、入力内容を取得する。また、制御装置10は、電源部130を備え、制御装置10及び画像表示部20の各部に電源を供給する。
The
The input information acquisition unit 110 (input unit) is connected to the
記憶部120は、不揮発性の記憶装置であって、種々のコンピュータープログラム、および、これらのプログラムに係るデータを記憶する。また、記憶部120は、画像表示部20に表示する静止画像や動画像のデータを記憶しても良い。
記憶部120は、設定データ121を記憶する。設定データ121は、制御部140が実行する各種処理に関して予め設定される設定値を含む。
また、記憶部120は、コンテンツデータ122を記憶する。コンテンツデータ122は、画像表示部20において表示するコンテンツの画像(静止画像、或いは動画像)データ、及び/又は音声データを含む。
The
The
In addition, the
制御部140には、3軸センサー113、GPS115、及び通信部117が接続される。3軸センサー113は3軸の加速度センサーであり、制御部140は3軸センサー113の検出値を取得する。GPS115は、アンテナ(図示略)を備え、GPS(Global Positioning System)信号を受信し、制御装置10の現在位置を算出する。GPS115は、GPS信号に基づいて求めた現在位置を制御部140に出力する。また、GPS115はGPS信号に含まれる情報に基づいて現在時刻を取得し、制御部140が計時する時刻を修正させる機能を備えていてもよい。
A three-
通信部117は、無線LAN(WiFi(登録商標))、Miracast(登録商標)、Bluetooth(登録商標)等の規格に準じた無線データ通信を実行する。
通信部117は、外部機器OAと通信してコンテンツデータを受信する場合に利用可能である。外部機器OAが、通信部117に無線接続された場合、制御部140は、コンテンツデータを通信部117より取得して、画像表示部20に画像を表示させる。一方、外部機器OAが、インターフェイス114に有線接続された場合、制御部140は、コンテンツデータをインターフェイス114より取得して、画像表示部20に画像を表示させる。通信部117及びインターフェイス114は、外部機器OAからコンテンツデータを取得するデータ取得部DAとして機能し、取得されたコンテンツデータは記憶部120にコンテンツデータ122として記憶される。
The
The
また、本実施形態では、通信部117は、プロジェクター300との間でデータ通信を実行する。通信部117はプロジェクター300と直接通信を行ってもよいし、無線LANアクセスポイント(図示略)を用いて構成されるネットワークを経由して、プロジェクター300と通信を行ってもよい。
In the present embodiment, the
制御部140は、プログラムを実行するCPU(図示略)、CPUが実行するプログラムやデータを一時的に格納するRAM(図示略)、及び、CPUが実行する基本制御プログラムやデータを不揮発的に記憶するROM(図示略)を有する。制御部140は、CPUにより制御プログラムを実行することで、HMD100の各部を制御する。また、制御部140は、記憶部120が記憶するコンピュータープログラムを読み出して実行し、制御部140の各種機能を実現する。すなわち、オペレーティングシステム(OS)150、画像処理部160、表示制御部170、通信制御部181、操作検出部182、コンテンツ出力制御部183、キャリブレーション制御部184、及び、音声処理部187として機能する。
The
画像処理部160は、コンテンツに含まれる画像信号を取得する。画像処理部160は、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離する。また、画像処理部160は、分離した垂直同期信号VSyncや水平同期信号HSyncの周期に応じて、PLL(Phase Locked Loop)回路等(図示略)を利用してクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等(図示略)を用いてディジタル画像信号に変換する。画像処理部160は、変換後のディジタル画像信号を、対象画像の画像データ(図中、Data)として、1フレームごとに、制御部140のRAMに格納する。この画像データは、例えばRGBデータである。
なお、画像処理部160は、必要に応じて、画像データの解像度を右表示駆動部22及び左表示駆動部24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部160は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。
The
Note that the
画像処理部160は、クロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、RAMに格納された画像データDataのそれぞれを送信部51、52を介して画像表示部20に送信する。送信部51、52は、トランシーバーとして機能し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。なお、送信部51を介して送信される画像データDataを「右眼用画像データ」と呼び、送信部52を介して送信される画像データDataを「左眼用画像データ」と呼ぶ。
The
表示制御部170は、右表示駆動部22及び左表示駆動部24を制御する制御信号を生成し、この制御信号により、右表示駆動部22及び左表示駆動部24のそれぞれによる画像光の生成及び射出を制御する。具体的には、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFFを制御する。また、表示制御部170は、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFを制御する。
The
通信制御部181は、通信部117による通信を制御し、外部機器OAとの間の通信の確立、及び、外部機器OAからコンテンツデータの受信を実行する。また、通信制御部181は、通信部117を制御して、プロジェクター300との間の通信の確立、及び、プロジェクター300との間の制御データの通信を実行する。
操作検出部182は、入力情報取得部110を制御して、操作部135が検出する操作の操作データを取得し、操作内容を判定する。
The
The
コンテンツ出力制御部183は、記憶部120が記憶するコンテンツデータ122を読み出し、画像処理部160及び表示制御部170を制御して、コンテンツデータ122に含まれる画像データに基づく画像を画像表示部20により表示させる。また、コンテンツ出力制御部183は、コンテンツデータ122が音声データを含む場合、音声処理部187を制御して、右イヤホン32、左イヤホン34からコンテンツの音声を出力させる。
The content
例えば、コンテンツ出力制御部183は、使用者が画像表示部20越しに対象物を見ている状態でARコンテンツを表示する。コンテンツ出力制御部183は、対象物に対応する位置に画像や文字等を表示するAR表示を行うことで、対象物に関する情報を提供し、或いは、画像表示部20越しに見える対象物の姿の見え方を変える。ARコンテンツは、対象物に対応する位置に表示される画像や文字のデータを含む。また、ARコンテンツに、対象物を特定するデータ、及び、画像や文字の表示位置に関するデータ等を含んでもよい。ARコンテンツの表示位置は対象物に重なる位置であっても対象物の周囲であってもよい。対象物は物体であればよく、建物等の不動産であってもよいし、自動車や電車などの移動体であってもよく、人間や動物などの生物であってもよいが、本実施形態では、プロジェクター300が投写する投射画像Pを対象物とする。すなわち、コンテンツ出力制御部183が画像表示部20で表示する画像の表示位置は、使用者が画像表示部20越しに視認する投射画像Pの位置に適合する位置となる。これにより、表示システム1は、プロジェクター300が投写する投射画像Pと連動する画像をHMD100により表示する。
For example, the content
本実施形態では、一例として、画像表示部20を装着する使用者の頭部の位置及び頭部の向きに合わせて、プロジェクター300が投射画像Pの投写位置や投写画像の内容を制御する。
この制御を行うため、HMD100では、HMD100とプロジェクター300とが協働して、キャリブレーションを実行する。HMD100では、キャリブレーション制御部184が、プロジェクター300と協働するキャリブレーションにおけるHMD100の動作を制御する。
In the present embodiment, as an example, the
In order to perform this control, in the
音声処理部187は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、右イヤホン32および左イヤホン34に出力する。また、音声処理部187は、マイク63により集音される音声を取得してディジタル音声データに変換する。音声処理部187は、ディジタル音声データに対して予め設定された処理を行ってもよい。
The
9軸センサー66は、上述したように、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出する慣性センサー(動きセンサー)である。制御部140は、画像表示部20が使用者の頭部に装着されているとき、9軸センサー66の検出値に基づいて使用者の頭部の動きを検出する。また、制御部140は、通信制御部181により、9軸センサー66の検出値を示すデータ、または、9軸センサー66の検出値から生成される、画像表示部20の動きに関するデータを、プロジェクター300に送信する。
As described above, the nine-
画像表示部20は、インターフェイス25を備える。インターフェイス25は、接続コード48が接続されるコネクターを備え、接続コード48を介して制御装置10と接続される。インターフェイス25は、送信部51、52から送信されるクロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、画像データDataを、対応する受信部(Rx)53、54に出力する。また、インターフェイス25は、表示制御部170から送信される制御信号を、対応する受信部53、54、右バックライト制御部201又は左バックライト制御部202に出力する。
また、インターフェイス25は、カメラ61及び9軸センサー66を接続するインターフェイスである。インターフェイス25は、9軸センサー66による加速度(3軸)、角速度(3軸)、地磁気(3軸)の検出値に係るデータ、カメラ61の撮像画像データ、カメラ61及び9軸センサー66を制御する制御データを、制御部140に対し送受信する。
The
The
受信部53は、送信部51に対応するレシーバーとして動作し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データDataと、に基づいて、右LCD241を駆動する。
The
受信部54は、送信部52に対応するレシーバーとして動作し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。左バックライト制御部202は、入力された制御信号に基づいて、左バックライト222を駆動する。左LCD制御部212は、受信部54を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、左眼用画像データDataと、に基づいて、左LCD242を駆動する。
なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して、右の「画像光生成部」とも呼ぶ。同様に、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242とを総称して、左の「画像光生成部」とも呼ぶ。
The
The right
図3は、プロジェクター300の構成を示す機能ブロック図である。
プロジェクター300は、画像データを出力する画像供給装置2を接続するインターフェイス(I/F)部311を備える。I/F部311には複数の画像供給装置2を接続することもできる。
FIG. 3 is a functional block diagram illustrating the configuration of the
The
画像供給装置2は、例えば、DVDプレーヤー等の画像再生装置、デジタルテレビチューナー等の放送受信装置、ビデオゲーム機やパーソナルコンピューター等の画像出力装置が挙げられる。画像供給装置2は、パーソナルコンピューター等と通信して画像データを受信する通信装置等であってもよい。また、画像供給装置2は、ディジタル画像データを出力する装置に限定されず、アナログ画像信号を出力する装置であってもよい。この場合、画像供給装置2の出力側またはプロジェクター300のI/F部311に、アナログ画像信号からディジタル画像データを生成するアナログ/ディジタル変換装置を設ければよい。また、I/F部311が備えるコネクター及びインターフェイス回路の具体的な仕様や数は任意である。
Examples of the
画像供給装置2は、I/F部311が対応可能なデータフォーマットでディジタル画像データを出力する。画像供給装置2からプロジェクター300に入力されるデータは、I/F部311が対応可能なデータフォーマットであれば、データの内容が静止画像であっても動画像(映像)であってもよい。以下の説明では、プロジェクター300に画像供給装置2から入力されるデータを、画像データと呼ぶ。
The
プロジェクター300は、プロジェクター300の各部を制御する制御部320と、I/F部311に入力される画像データに基づく画像をスクリーンSCに表示(投射)する投写部330と、を備える。また、I/F部311には、画像データを処理して表示用の画像信号を投写部330に出力する画像処理部312(画像処理装置)が接続される。
The
投写部330は、光源331、変調部332、及び投写光学系333を備える。また、光源331には光源制御部314が接続され、変調部332には表示駆動部313が接続される。
光源331は、キセノンランプ、超高圧水銀ランプ等のランプ類、或いは、LEDやレーザー光源等の固体光源で構成される。光源331は、光源制御部314から供給される電力により点灯し、変調部332に向けて光を発する。光源制御部314は、制御部320の制御に従って、光源331の発光輝度を調整できる。
The
The
変調部332は、光源331が発する光を変調して画像光を生成し、画像光を投写光学系333に照射する。本実施形態では、変調部332が、赤色(R)、緑色(G)、及び、青色(B)の各色に対応する3つの液晶ライトバルブを備え、光源331が発した光を液晶ライトバルブに透過させる構成を例示する。
変調部332の3つの液晶ライトバルブには表示駆動部313が接続される。表示駆動部313は、画像処理部312が出力する画像信号に基づき、液晶ライトバルブの各画素を駆動して、液晶ライトバルブにフレーム(画面)単位で画像を描画する。
The
A
光源331と変調部332との間の光路または変調部332には、リフレクター、レンズ群(図示略)、偏光板、調光素子等を設けてもよい。また、変調部332は、反射型の液晶パネルを用いた構成とすることができる。この場合、変調部332は、光源331が発する光を液晶パネルに反射させ、反射光を投写光学系333に導く。また、変調部332を、デジタルミラーデバイス(DMD)を用いた構成とすることもでき、1枚のDMDとカラーホイールを備えた構成としてもよい。
The optical path between the
投写光学系333は、変調部332により変調された画像光をスクリーンSCに向けて導き、スクリーンSC上で画像を結像させる。投写光学系333は、例えば、3つの液晶ライトバルブを通った光を合成するプリズム、画像光を導くレンズ群やミラー等の光学素子を有する構成としてもよい。さらに、投写光学系333は、スクリーンSCの画像を拡大・縮小するズームレンズ、焦点調整をするフォーカスレンズ、ズームの度合いを調整するズーム調整用モーター、フォーカスの調整を行うフォーカス調整用モーター等を備えてもよい。
The projection
画像処理部312は、制御部320の制御に従って、I/F部311に入力される画像データに対し、色調補正等の処理を実行する。画像処理部312が処理した画像データは、フレーム毎に画像信号に変換され、表示駆動部313に入力される。また、画像処理部312は、記憶部325に記憶された画像データを表示することもできる。この場合、制御部320から画像処理部312に対し、記憶部325に記憶された画像データが入力され、画像処理部312は画像データに対する処理を行って、画像信号を表示駆動部313に出力する。
The
また、プロジェクター300は通信部318を備える。通信部318は、無線LAN(WiFi)、Bluetooth等の規格に準じた無線データ通信を実行する。通信部318は、制御部320の制御に従って、HMD100との間で制御データを送受信する。
通信部318は、HMD100と直接通信を行ってもよいし、無線LANアクセスポイント(図示略)を用いて構成されるネットワークを経由して、HMD100と通信を行ってもよい。
The
The
制御部320は、プロジェクター300の各部を制御するプロセッサーを備えて構成され、例えば、図示しないCPU、ROM、及びRAMを備え、ROMが記憶するプログラムをCPUが実行することにより、プロジェクター300の各部を制御する。
The
制御部320は、上記プログラムを実行することにより、投写制御部321、及び、キャリブレーション制御部322として機能する。
投写制御部321は、画像処理部312が実行する処理の実行タイミング、実行条件等を制御する。また、投写制御部321は、投写部330の光源制御部314を制御して、光源331の輝度の調整等を行う。
The
The
キャリブレーション制御部322は、HMD100が表示する画像とプロジェクター300が投射する投射画像Pとの位置を整合させるためのキャリブレーション処理を実行する。キャリブレーション制御部322は、キャリブレーション用の画像を投写部330によりスクリーンSCに投射させ、HMD100から送信される画像表示部20の動きに関するデータを、通信部318を介して受信する。キャリブレーション制御部322は、HMD100から受信するデータに基づき、投射画像Pと画像表示部20の動きとを対応づけるデータを生成して、記憶部325に、キャリブレーションデータ327として記憶させる。
The
制御部320は、ユーザーの入力操作を受け付ける入力部315に接続される。入力部315は、スイッチを備えた操作パネル316に接続され、操作パネル316における操作を検出する。また、入力部315は、リモコン317が送信する赤外線信号を受信する赤外線受光部として構成され、リモコン317における操作を検出する。入力部315は、操作パネル316及びリモコン317における操作を示す操作データを制御部320に出力する。
The
制御部320には記憶部325が接続される。記憶部325は、制御部320のCPUが実行するプログラムやデータを不揮発的に記憶する記憶装置である。記憶部325は、制御部320がプロジェクター300を制御するための制御プログラム、制御プログラムで処理される各種設定データ等を記憶する。また、記憶部325は、キャリブレーション処理で投写部330が投射する画像のキャリブレーション用画像データ326、及び、キャリブレーション処理で生成されるキャリブレーションデータ327を記憶する。
A
続いて、表示システム1の動作を説明する。
図4は表示システム1の動作を示すフローチャートであり、特に、キャリブレーション処理を示す。図4(A)はプロジェクター300の動作を示し、図4(B)はHMD100の動作を示す。この図4の動作で、キャリブレーション制御部322は、入力検出部、動き量取得部、および処理部として機能する。
Next, the operation of the
FIG. 4 is a flowchart showing the operation of the
また、図5及び図6はキャリブレーション処理において表示システム1で表示される画像の例を示す。図5(A)及び(E)はプロジェクター300がスクリーンSCに投射する投射画像Pの例を示し、図5(B)及び(C)はHMD100の表示状態を示す。図5(D)はHMD100を装着した使用者の視野Vを示す。図6(A)〜(C)は使用者の視野Vを示し、使用者が画像表示部20を透過して見る投射画像Pを合わせて図示する。
5 and 6 show examples of images displayed on the
表示システム1では、HMD100の入力情報取得部110、または、プロジェクター300の入力部315によりキャリブレーションの開始の指示を検出すると、この指示に関する制御データをHMD100とプロジェクター300が送受信する。プロジェクター300のキャリブレーション制御部322は、キャリブレーション処理を開始する(ステップS11)。キャリブレーション制御部322は、記憶部325からキャリブレーション用画像データ326を読み出して、投写部330によりキャリブレーション用の画像を表示させる(ステップS12)。このキャリブレーション用の画像は、位置合わせを行うための図形や文字で構成される画像であり、ここでは位置合わせガイドと呼ぶ。位置合わせガイドを表示した状態で、キャリブレーション制御部322は、HMD100が送信する入力情報を受信するまで、待機する(ステップS13;NO)。
In the
ステップS12で位置合わせガイドをスクリーンSCに表示した状態を図5(A)に示す。図5(A)では投射画像Pの中央に、十字型の位置合わせガイドMPが位置し、投射画像Pの四隅に位置合わせガイドM1〜M4がそれぞれ位置する。キャリブレーション用画像データ326は、例えば、位置合わせガイドMP、M1〜M4を含む投射画像P全体の画像データであってよい。位置合わせガイドMP、M1〜M4は、表示面マーカーに相当する。
FIG. 5A shows a state where the alignment guide is displayed on the screen SC in step S12. 5A, the cross-shaped alignment guide MP is positioned at the center of the projection image P, and the alignment guides M1 to M4 are positioned at the four corners of the projection image P, respectively. The
また、図5(B)にはキャリブレーション処理の開始時におけるHMD100の状態を示す。図5(B)には、画像表示部20において使用者の目を向く面を示し、右側に右光学像表示部26が、左側に左光学像表示部28が位置する。
HMD100のキャリブレーション制御部184は、キャリブレーション処理を開始し(ステップS31)、記憶部120からキャリブレーション用 画像データ123を読み出し、キャリブレーション用の画像を画像表示部20に表示させる(ステップS32)。このキャリブレーション用の画像は、位置合わせを行うための図形や文字で構成される画像であり、ここではガイドと呼ぶ。
図5(C)には画像表示部20によりガイドMR、MLを表示した例を示す。右眼に対応する右光学像表示部26には右眼用のガイドMRが表示され、左眼に対応する左光学像表示部28には左眼用のガイドMLが表示される。右光学像表示部26におけるガイドMRの表示位置と左光学像表示部28におけるガイドMLの表示位置は、予め対応付けられ、使用者に一つのガイドの像が見えるようになっている。
FIG. 5B shows the state of the
The
FIG. 5C shows an example in which guides MR and ML are displayed by the
図5(D)には、図5(C)に示すガイドMR,MLを使用者が視認する場合の使用者の視野Vを示す。図5(D)に示すように、使用者には、ガイドMR、MLが一つのガイドMの像をなすように見える。すなわち、ガイドMR、MLの表示位置は、画像表示部20及び使用者の特性に合わせて調整される。この特性とは、例えば、輻輳角、右光学像表示部26と左光学像表示部28の表示領域であるハーフミラーのサイズ、使用者の眼とハーフミラーとの距離、使用者の瞳孔間距離等である。ガイドML、MR、及びこれらが視認された形態のガイドMは、使用者側マーカーに相当する。
FIG. 5D shows the user's visual field V when the user visually recognizes the guides MR and ML shown in FIG. As shown in FIG. 5D, it appears to the user that the guides MR and ML form one guide M image. That is, the display positions of the guides MR and ML are adjusted according to the characteristics of the
画像表示部20を装着した使用者は、ガイドMが視認できた場合に、制御装置10において入力操作を行う。この入力操作は、ガイドMを確認したことを意味する操作であり、単純な操作であってよい。例えば、制御装置10が備えるいずれかのキーを押下する操作や、トラックパッド14に接触する操作とすることができる。この操作は、画像表示部20の位置に基づくキャリブレーションの実行開始を指示するトリガーとなる。
A user wearing the
HMD100のキャリブレーション制御部184は、ステップS32でガイドMR,MLを表示した後、入力情報取得部110が入力操作を検出するまで待機する(ステップS33;NO)。そして、上記の使用者の入力操作を検出すると(ステップS33;YES)、キャリブレーション制御部184は、画像表示部20が備える9軸センサー66の検出値を取得する。さらに、キャリブレーション制御部184は、9軸センサー66の検出値に関するデータ(動きデータ)を含む入力情報を生成してプロジェクター300に送信する(ステップS34)。動きデータは9軸センサー66の検出値に関するデータであり、少なくとも加速度センサーの検出値に関するデータを含む。この場合、プロジェクター300は、ステップS34で送信される入力情報に含まれる動きデータに基づき、画像表示部20の姿勢に関する情報を得ることができる。キャリブレーション制御部184は、ステップS34で入力情報を送信した後に、入力操作があるまで待機する(ステップS35;NO)。
The
プロジェクター300のキャリブレーション制御部322は、HMD100が送信する入力情報を受信すると(ステップS13;YES)、入力情報に含まれる動きデータを取得し、記憶部325に一時的に記憶する(ステップS14)。
When the
続いて、キャリブレーション制御部322は、スクリーンSCに表示された位置合わせガイドMP、M1〜M4のうち、位置合わせの対象となる位置合わせガイドの色を変更する。本実施形態では、最初に投射画像Pの中央の位置合わせガイドMPに位置合わせをし、その後、位置合わせガイドM1〜M4のうち少なくとも1以上の位置合わせをするよう設定される。最初にステップS15を実行する場合、キャリブレーション制御部322は、位置合わせガイドMPの表示色を変更する。これにより、使用者には、図5(E)に示すように、中央の位置合わせガイドMPの表示状態が変化して見えるので、位置合わせガイドMPを見るように使用者を誘導できる。
位置合わせガイドの表示状態(ここでは表示色)を変更した後、キャリブレーション制御部322は、HMD100が送信する入力情報を受信するまで待機する(ステップS16;NO)。
Subsequently, the
After changing the display state of the alignment guide (here, the display color), the
使用者は、スクリーンSC上の投射画像Pにおいて位置合わせガイドMPの表示色が変化したことを認識して、画像表示部20が表示するガイドMが位置合わせガイドMPに重なるように、頭部を動かす。そして、図6(A)に示すように、視野VにおけるガイドMが投射画像Pの位置合わせガイドMPに重なって見える状態で、制御装置10の入力操作を行う。この操作は、位置を合わせたことを指示する操作であり、ガイドMが視認されたときの操作と同様、単純な操作であってよい。例えば、制御装置10が備えるいずれかのキーを押下する操作や、トラックパッド14に接触する操作とすることができる。
The user recognizes that the display color of the alignment guide MP has changed in the projected image P on the screen SC, and places his head so that the guide M displayed by the
HMD100のキャリブレーション制御部184は、使用者の入力操作を検出すると(ステップS35;YES)、画像表示部20が備える9軸センサー66の検出値を取得する。さらに、キャリブレーション制御部184は、9軸センサー66の検出値に関する動きデータを含む入力情報を生成してプロジェクター300に送信する(ステップS36)。また、ステップS36でキャリブレーション制御部184が送信する入力情報に含まれる動きデータは、その時点における9軸センサー66の検出値だけでなく、9軸センサー66の検出値の履歴に関するデータを含んでもよい。すなわち、前回のステップS35またはステップS36で9軸センサー66の検出値を取得した後の、9軸センサー66の検出値の変化、或いは検出値の積算値等の統計的なデータを含んでもよい。また、キャリブレーション制御部184は、予め設定された一定時間毎に、9軸センサー66の検出値を周期的に取得して累積的に記憶してもよく、例えば検出時刻と検出値を対応付けて記憶してもよい。この場合、キャリブレーション制御部184は、ステップS36で、複数回の検出における9軸センサー66の検出値と検出時刻とを対応付けて入力情報に含ませてもよい。
When the
入力情報を送信した後、キャリブレーション制御部184は、プロジェクター300からキャリブレーションの完了を通知する制御データを受信したか否かを判定する(ステップS37)。キャリブレーション制御部184は、予め設定された時間内にキャリブレーションの完了を通知する制御データを受信しない場合(ステップS37;NO)、ステップS35に戻り、使用者の入力操作を待機する。
After transmitting the input information, the
プロジェクター300のキャリブレーション制御部322は、HMD100から入力情報を受信すると(ステップS16;YES)、入力情報に含まれる動きデータを取得し、記憶部325に一時的に記憶する(ステップS17)。
ここで、キャリブレーション制御部322は、キャリブレーションが完了したか否かを判定する(ステップS18)。キャリブレーションは、位置合わせガイドMP、M1〜M4のうち設定された全ての位置合わせガイドについて、ステップS15〜S17の動作が行われた場合に、完了する。従って、キャリブレーション制御部322は、位置合わせガイドMP、M1〜M4のうち設定された全ての位置合わせガイドについて、ステップS15〜S17の動作が済んだか否かを判定する。
When receiving the input information from the HMD 100 (step S16; YES), the
Here, the
設定された全ての位置合わせガイドのうちステップS15〜S17の動作が行われていない位置合わせガイドがある場合、キャリブレーション制御部322はキャリブレーションが完了していないと判定する(ステップS18;NO)。この場合、キャリブレーション制御部322はステップS15に戻り、次に位置合わせする位置合わせガイドの表示状態(表示色)を変化させるとともに、位置合わせ済みの位置合わせガイドの表示状態(表示色)を元に戻す。なお、位置合わせ済みの位置合わせガイドについては、表示状態(表示色)を元に戻す代わりに、位置合わせ済みであることを示す表示状態(表示色)に変化させるようにしてもよい。
図6(B)には、位置合わせガイドMPの次に、位置合わせガイドM4の位置合わせを行う例を示す。図6(B)の例では、位置合わせガイドM4の表示状態が変化する。使用者には、左上隅の位置合わせガイドM4の表示状態が変化して見えるので、位置合わせガイドM4を見るように使用者を誘導できる。
When there is an alignment guide for which the operations of steps S15 to S17 are not performed among all the alignment guides that have been set, the
FIG. 6B shows an example in which the alignment guide M4 is aligned next to the alignment guide MP. In the example of FIG. 6B, the display state of the alignment guide M4 changes. Since the display state of the alignment guide M4 in the upper left corner appears to the user to change, the user can be guided to view the alignment guide M4.
ステップS15でキャリブレーション制御部322が位置合わせガイドM4の表示色を変化させた後、使用者は、図6(C)に示すように、位置合わせガイドM4にガイドMを合わせる動作を行い、入力操作を行う。この入力操作はキャリブレーション制御部184がステップS35で検出する。
After the
このように、位置合わせガイドMP、M1〜M4のうち設定された位置合わせガイドについて位置合わせが行われ、動きデータが記憶される。設定された位置合わせガイドの位置合わせが完了した後、キャリブレーション制御部322は、キャリブレーションが完了したと判定する(ステップS18;YES)。キャリブレーション制御部322は、HMD100に対してキャリブレーションの完了を通知する制御データを生成して、HMD100に送信する(ステップS19)。
As described above, the alignment guides set out of the alignment guides MP and M1 to M4 are aligned, and the motion data is stored. After the alignment of the set alignment guide is completed, the
HMD100のキャリブレーション制御部184は、ステップS37で、プロジェクター300からキャリブレーションの完了を通知する制御データを待機している。キャリブレーション制御部184は、キャリブレーションの完了を通知する制御データを受信した場合(ステップS37;YES)、図4の動作を終了する。
In step S37, the
また、プロジェクター300のキャリブレーション制御部322は、HMD100に制御データを送信した後、スクリーンSCにおける表示上の位置とHMD100の動き量との対応付けを行う(ステップS20)。ステップS18でキャリブレーションが完了したと判定した場合、記憶部325には、設定された位置合わせガイドに対応付けて、HMD100から受信した動きデータが記憶されている。この動きデータは、9軸センサー66が検出した加速度、角速度、磁気の検出値に関するデータを含む。
Further, after transmitting the control data to the
キャリブレーション制御部322は、記憶部325に記憶された、複数の位置合わせガイドに対応する動きデータを処理する。具体的には、キャリブレーション制御部322は、キャリブレーションで位置合わせされた位置合わせガイドから、2つの位置合わせガイドを選択する。続いて、選択した位置合わせガイドに対応する動きデータの差分から、画像表示部20の視線方向が2つの位置合わせガイド間を移動した場合の、画像表示部20の動き量を求める。キャリブレーション制御部322は、2つの位置合わせガイドの表示位置の差分を求める。位置合わせガイドの表示位置は、例えばキャリブレーション制御部322が有する液晶ライトバルブやDMDにおける座標、或いは、画像処理部312が生成するフレームのデータにおける座標で表される。図5(E)、図6(A)〜(C)に示した例では、キャリブレーション制御部322は、位置合わせガイドMPと位置合わせガイドM4との座標の差分を求める。また、画像表示部20の動き量は、9軸センサー66の検出値に基づき画像表示部20の姿勢の変化として求めてもよいが、9軸センサー66の検出値の積分値に基づき、画像表示部20の角度及び位置の変化量として求めることが好ましい。例えば、キャリブレーション制御部322は、図6(A)の状態から図6(C)の状態になるまでの9軸センサー66の検出値に基づき、画像表示部20の角度と位置の変化量、すなわち画像表示部20の移動量を算出する。そして、キャリブレーション制御部322は、位置合わせガイドの表示位置の単位量と画像表示部20の動き量とを対応付けるデータを生成する(ステップS21)。このデータは、例えば、パラメーター、パラメーターを含むテーブル、或いは、位置合わせガイドの表示位置の単位量と画像表示部20の動き量とを対応付ける関数や行列とすることができる。このデータをキャリブレーションデータと呼ぶ。キャリブレーション制御部322は、ステップS21で、生成したキャリブレーションデータを、記憶部325に、キャリブレーションデータ327として記憶する。
The
キャリブレーションデータ327が生成された後は、画像表示部20が動いた場合の動き量を、プロジェクター300における表示位置の移動量に換算することができる。従って、使用者が画像表示部20を意図的に動かす動作を、移動量を指定する操作として利用できる。
After the
また、キャリブレーションデータ327は、HMD100の動きに応じて幾何補正を行う場合に利用される以外にも、例えば、スクリーンSC(表示面)上の投射画像におけるカーソルを移動させる操作にも利用できる。また、スクリーンSCに表示されるメニューやアイコン等を選択する操作や、投射画像の変形(拡大、縮小、回転)や移動を指示する動作等にも利用可能である。
The
なお、ステップS15で位置合わせガイドの表示状態を変更する場合に、位置合わせガイドの表示色を変更することは一例であり、例えば、表示サイズや形状を変化させてもよい。また、表示状態を変更する対象の位置合わせガイドの表示状態を維持し、他の位置合わせガイドの表示を消去する、他の位置合わせガイドを点滅させる、等の他の位置合わせガイドの表示状態を変化させる方法で、対象の位置合わせガイドを目立たせてもよい。 Note that when the display state of the alignment guide is changed in step S15, changing the display color of the alignment guide is an example, and for example, the display size or shape may be changed. In addition, the display state of the alignment guide to be changed is maintained, and the display state of other alignment guides such as deleting the display of other alignment guides or blinking other alignment guides is displayed. The target alignment guide may be made conspicuous by the changing method.
図7は、表示システム1の動作を示すフローチャートであり、画像表示部20を動かす操作を利用して幾何補正を行う場合の動作を示す。図7(A)はプロジェクター300の動作を示し、図7(B)はHMD100の動作を示す。この図7の動作で、キャリブレーション制御部322は、補正処理部として機能する。
また、図8はキャリブレーション処理において表示システム1で表示される画像の例を示す。図8(A)、(B)は使用者の視野Vを示し、使用者が画像表示部20を透過して見る投射画像Pを合わせて図示する。
FIG. 7 is a flowchart showing the operation of the
FIG. 8 shows an example of an image displayed on the
HMD100の入力情報取得部110、または、プロジェクター300の入力部315により幾何補正の開始の指示を検出すると、この指示に関する制御データをHMD100とプロジェクター300が送受信する。
When an instruction to start geometric correction is detected by the input
HMD100のキャリブレーション制御部184は、幾何補正処理を開始し(ステップS71)、記憶部120からキャリブレーション用画像データ123を読み出し、幾何補正用の画像を画像表示部20に表示させる(ステップS72)。幾何補正用の画像は、幾何補正を行うための図形や文字で構成される画像であり、本実施形態では一例として、図5(C)、(D)に示したキャリブレーション用の画像と同様のガイドを含む。MD100が用いる幾何補正用の画像は、キャリブレーション用の画像とは別に、予め記憶された画像を用いてもよい。
また、プロジェクター300のキャリブレーション制御部322は、幾何補正処理を開始し(ステップS51)、記憶部325からキャリブレーション用画像データ326を読み出して、投写部330により幾何補正用の画像を表示させる(ステップS52)。なお、本実施形態では幾何補正用の画像として、キャリブレーション用の画像であるキャリブレーション用画像データ326を用いるが、キャリブレーション用画像データ326とは別の幾何補正用の画像のデータを用いてもよい。
The
In addition, the
図8(A)に示すように、スクリーンSC上の投射画像Pには位置合わせガイドMP、M1〜M4が配置される。使用者の視野VにはガイドMが表示され、使用者は画像表示部20を透過して投射画像Pの位置合わせガイドMP、M1〜M4を視認できる。図8(A)の投射画像Pは、幾何補正用の四角形の画像である。正しい投射状態では幾何補正用の投射画像Pは長方形となるが、図8(A)の例では台形歪みを生じたため長方形ではない。この投射画像Pが長方形となるように変形させるためのパラメーターを生成することが、図7に示す動作の目的である。
幾何補正では、投射画像Pの位置合わせガイドM1〜M4のいずれかを、投射画像Pが長方形となる位置に移動させる操作が行われる。移動される位置合わせガイドM1〜M4の数は任意である。使用者が、投射画像Pが長方形になり幾何補正が完了したと判断した場合に、幾何補正の処理が終了する。キャリブレーション制御部322は、使用者の操作に従って、位置合わせガイドの表示位置が移動した移動量に基づき、幾何補正を行うためのデータを生成する。このデータに基づいて投射画像を補正することで、その後に投射する画像の台形歪みを補正できる。
このため、キャリブレーション制御部322が表示する幾何補正用の画像である投射画像Pには、使用者による操作の対象となる操作対象点である四隅の位置合わせガイドM1〜M4が表示される。なお、投射画像Pの中央の位置合わせガイドMPを操作対象とすることも可能である。
As shown in FIG. 8A, alignment guides MP, M1 to M4 are arranged in the projected image P on the screen SC. The guide M is displayed in the visual field V of the user, and the user can visually recognize the alignment guides MP and M1 to M4 of the projection image P through the
In the geometric correction, an operation of moving any one of the alignment guides M1 to M4 of the projection image P to a position where the projection image P becomes a rectangle is performed. The number of the alignment guides M1 to M4 to be moved is arbitrary. When the user determines that the projection image P is rectangular and the geometric correction has been completed, the geometric correction process ends. The
Therefore, the alignment guides M1 to M4 at the four corners that are the operation target points to be operated by the user are displayed on the projection image P that is the geometric correction image displayed by the
図8(A)に示すように、使用者は、投射画像Pの位置合わせガイドのいずれか(この例では位置合わせガイドM4)にガイドMが重なるように、頭部を動かし、制御装置10への操作を行う。この入力操作は、ガイドMを確認したことを意味する操作であり、単純な操作であってよい。
HMD100のキャリブレーション制御部184は、ステップS72でガイドMR,MLを表示した後、入力情報取得部110が入力操作を検出するまで待機する(ステップS73;NO)。従って、使用者が制御装置10への操作を行うと、この操作を検出して(ステップS73;YES)、動作を再開する。キャリブレーション制御部184は、画像表示部20が備える9軸センサー66の検出値を取得する。さらに、キャリブレーション制御部184は、9軸センサー66の検出値に関するデータ(動きデータ)を含む入力情報を生成してプロジェクター300に送信する(ステップS74)。動きデータは、図4の動作で説明したデータと同様である。キャリブレーション制御部184は、ステップS74で入力情報を送信した後に、入力操作があるまで待機する(ステップS75;NO)。
As shown in FIG. 8A, the user moves the head so that the guide M overlaps one of the alignment guides of the projection image P (in this example, the alignment guide M4), and the
The
プロジェクター300のキャリブレーション制御部322は、ステップS52で幾何補正用の画像を表示した後、HMD100から入力情報を受信するまで待機する(ステップS53;NO)。キャリブレーション制御部322は、HMD100が送信する入力情報を受信すると(ステップS53;YES)、入力情報に含まれる動きデータを取得し、記憶部325に一時的に記憶する(ステップS54)。ここで記憶する動きデータは、幾何補正の開始位置に対応する画像表示部20の向きを示すデータである。従って、キャリブレーション制御部322は、ステップS54において、受信した動きデータに基づき、幾何補正を行う対象の点(補正ポイント)の位置を特定する。具体的には、キャリブレーション制御部322は、ステップS52で受信した入力情報に含まれる動きデータを、キャリブレーションデータ327を用いて、表示位置のデータに変換し、変換後の表示位置を、補正ポイントの位置とする。
キャリブレーション制御部322は、スクリーンSCに幾何補正用の画像を表示した状態で、HMD100から新たに入力情報を受信するまで待機する(ステップS55;NO)。
The
The
画像表示部20を装着した使用者は、図8(A)で選択した位置合わせガイド(位置合わせガイドM4)を移動させたい位置に、画像表示部20のガイドMが重なるように、頭部を動かす。図8(A)では投射画像Pに台形歪みがあり、使用者は台形歪みを補正するために位置合わせガイドM4を移動させる操作を行う。この操作は、位置合わせガイドM4を移動させる移動先の位置に、ガイドMを合わせる操作であり、具体的には使用者が頭部を動かす操作である。
使用者は、移動先の位置にガイドMを合わせた後に、制御装置10への入力操作を行う。この操作は上述のように単純な操作でよい。キャリブレーション制御部184は、使用者の入力操作を検出すると(ステップS75;YES)、9軸センサー66の検出値を取得し、動きデータを含む入力情報を生成してプロジェクター300に送信する(ステップS76)。
The user wearing the
The user performs an input operation to the
プロジェクター300のキャリブレーション制御部322は、HMD100から入力情報を受信すると(ステップS55;YES)、入力情報に含まれる動きデータを取得する(ステップS56)。さらに、キャリブレーション制御部322は、動きデータとキャリブレーションデータ327に基づき、ステップS53で特定した補正ポイントを移動させる移動先の表示位置を特定する。そして、キャリブレーション制御部322は、補正ポイントの移動前と移動先の位置に基づき、幾何補正用のデータを生成する。幾何補正用のデータは、投射画像の補正量を示すデータ、及び、補正方向を示すデータの少なくともいずれかを含む。
When receiving the input information from the HMD 100 (step S55; YES), the
そして、キャリブレーション制御部322は、生成したデータに基づき投射画像Pの幾何補正を行う(ステップS57)。ステップS57では、ステップS56で生成した幾何補正用のデータを画像処理部312に設定して幾何補正を実行させる。これにより、スクリーンSCに表示される幾何補正用の投射画像Pは、図8(B)に示すように補正される。図8(B)では、位置合わせガイドM4の位置が移動されるとともに、位置合わせガイドM4の移動に伴い投射画像Pの全体が変形され、台形歪みが補正されている。
Then, the
ここで、使用者は、図8(B)に示すように投射画像Pが変化したことに対し、所望の補正がなされたことを示す入力操作、すなわち補正完了の指示操作を行う。HMD100のキャリブレーション制御部184は、入力情報を送信した後、制御装置10への入力操作を待機し(ステップS77)、所定時間内に補正完了の指示操作がなければ(ステップS77;NO)、ステップS73へ戻る。補正完了の指示操作を検出した場合(ステップS77;YES)、キャリブレーション制御部184は、補正が完了したことを通知する制御データを生成してプロジェクター300に送信し(ステップS78)、本処理を終了する。
Here, the user performs an input operation indicating that a desired correction has been made, that is, an instruction operation for completion of correction, in response to the change in the projected image P as shown in FIG. 8B. After transmitting the input information, the
画像処理部312は、幾何補正を実行した後、補正完了を通知する制御データの受信を待機し(ステップS58)、所定時間内に制御データを受信しなければ(ステップS58;NO)、ステップS53へ戻る。補正完了を通知する制御データを受信した場合(ステップS58;YES)、キャリブレーション制御部322は、幾何補正用のデータをキャリブレーション用画像データ326に含めて記憶部325に記憶させ(ステップS58)、本処理を終了する。
なお、キャリブレーション制御部322が生成する幾何補正用のデータは、例えば、パラメーター、パラメーターを含むテーブル、或いは、幾何補正前の座標を幾何補正後の座標に変換する関数や行列とすることができる。
After executing geometric correction, the
Note that the geometric correction data generated by the
このように、画像表示部20を装着した使用者が、頭部を動かす動作を行い、この動作の開始時と終了時に制御装置10への操作を行うだけで、使用者の頭部の動きが位置を指示する入力操作として検出され、処理が行われる。このため、画像表示部20の動きによる入力操作を実現できる。
In this way, the user wearing the
以上説明したように、本発明を適用した実施形態の表示システム1は、HMD100と、スクリーンSCに表示を行うプロジェクター300とを備える。HMD100は、使用者が装着し、外景を透過可能に構成された画像表示部20と、画像表示部20の動きを検出する9軸センサー66とを有する。プロジェクター300は、スクリーンSCに位置合わせガイドを表示し、位置合わせガイドの表示位置に応じて、使用者が画像表示部20を動かした際の9軸センサー66の検出結果に基づいて、画像表示部20の動き量とスクリーンSCにおける移動量とを対応付ける処理を行う制御部320を備える。これにより、使用者が装着するHMD100の動きから、スクリーンSCにおける移動量を得ることができる。従って、HMD100を動かす、すなわち画像供給装置2を装着した頭部を動かすことで、スクリーンSC上の量に関する入力を行うことが可能となる。このため、HMD100を使用する場合の入力操作を容易にし、利便性の向上を図ることができる。
As described above, the
また、プロジェクター300はスクリーンSCにおける複数の異なる位置に位置合わせガイドを表示し、スクリーンSCにおける移動量を、位置合わせガイドの複数の表示位置から求める。このため、使用者が装着するHMD100の動きとスクリーンSCにおける移動量との対応付けを速やかに行うことができる。
また、HMD100は、スクリーンSCの位置合わせガイドと重ねて視認するためのガイドMを画像表示部20に表示するので、HMD100の動きとスクリーンSCにおける移動量との対応付けを、より正確に行うことができる。これにより、使用者の操作の負担を軽減できる。
また、プロジェクター300のキャリブレーション制御部322は、HMD100の入力情報取得部110により入力を受け付けたことを検出し、HMD100の9軸センサー66の検出値や9軸センサー66の検出結果から求められる動きデータを取得する。そして、キャリブレーション制御部322は、取得した動きデータと位置合わせガイドの表示位置とをもとに、動きデータとスクリーンSCにおける移動量とを対応付ける処理を行う。このため、プロジェクター300の機能により、HMD100の動き量とスクリーンSCにおける移動量とを対応付けることができる。
Further, the
In addition, since the
Further, the
また、キャリブレーション制御部322は、スクリーンSCに表示する画像の幾何補正を行い、HMD100の動き量に基づいて、画像の補正量及び補正方向の少なくともいずれかを含む幾何補正用のデータを求める。このように、HMD100の動きとスクリーンSCにおける移動量との対応付けを利用して、HMD100を用いた操作により、画像の補正を行うことができる。
さらに、キャリブレーション制御部322は、HMD100の9軸センサー66の検出結果に係る動きデータから得られるキャリブレーション用画像データ326をもとに、スクリーンSCにおける位置または距離を求めることができる。このため、HMD100の動きとスクリーンSCにおける移動量との対応付けを利用して、HMD100で入力操作を行うことができる。
In addition, the
Further, the
表示システム1では、使用者の頭部に装着される画像表示部20にガイドMを表示し、HMD100とは別体として構成されるスクリーンSCに位置合わせガイドを表示する。このようにHMD100の動きとスクリーンSCにおける移動量とを対応付けることで、直感的な操作を実現できる。
In the
なお、上記実施形態において、図4の動作ではプロジェクター300のキャリブレーション制御部322が、ステップS20〜S21で画像表示部20の動きデータとスクリーンSCにおける表示位置とを対応付ける処理を行う例を示した。本発明はこれに限定されず、HMD100の制御部140が、ステップS20〜S21に相当する処理を行ってもよい。
同様に、図7の動作ではプロジェクター300のキャリブレーション制御部322が、ステップS256で、幾何補正を行うためのデータを生成する処理を行う例を示した。本発明はこれに限定されず、HMD100の制御部140が、幾何補正を行うためのデータを生成する処理を行ってもよい。この場合、幾何補正を行うためのデータをHMD100からプロジェクター300に送信し、このデータに基づき、制御部320が、画像処理部312の幾何補正のパラメーターを設定すればよい。
In the above embodiment, an example in which the
Similarly, in the operation of FIG. 7, an example is shown in which the
この場合、HMD100のキャリブレーション制御部184は、プロジェクター300が位置合わせガイドを表示する表示位置を取得する取得部として機能する。また、キャリブレーション制御部184は、制御部として機能する。この制御部は、入力情報取得部110で入力を受け付けた場合に、9軸センサー66の検出結果から動き量を求める。また、求めた動き量と取得部により取得した位置合わせガイドの表示位置とをもとに、動き量とスクリーンSCにおける移動量とを対応付ける処理を行う。この場合、HMD100の機能により、HMD100の動き量とスクリーンSCにおける移動量とを対応付けることができる。
In this case, the
なお、この発明は上記実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
例えば、HMD100が有する画像表示部20は、使用者の身体とともに動く状態で、使用者が装着する構成であればよく、眼鏡型に限定されない。例えば、帽子のように装着する形状の画像表示部を採用してもよい。また、例えば、ヘルメット等の身体防護具、衣服、或いは装飾具などの装身具に取り付けられてもよい。また、HMD100のように使用者の両眼に画像光を発して画像を視認させる構成に限らず、例えば使用者の片方の目に画像を視認させる表示装置であってもよい。
In addition, this invention is not restricted to the structure of the said embodiment, In the range which does not deviate from the summary, it can be implemented in a various aspect.
For example, the
さらに、上記実施形態では、画像表示部20と制御装置10とが分離され、接続コード48を介して接続された構成を例に挙げて説明した。本発明はこれに限定されず、制御装置10と画像表示部20とが一体に構成され、使用者の頭部に装着される構成とすることも可能である。また、図4及び図7に示した動作において使用者が行う操作は、制御装置10のトラックパッド14またはキー操作部15に対する操作に限らず、例えば、画像表示部20を所定のパターンで動かす動作であってもよい。
Further, in the above embodiment, the configuration in which the
また、制御装置10として、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。また、制御装置10が画像表示部20と分離して構成され、制御装置10と画像表示部20との間で無線通信により各種信号を送受信する構成としてもよい。
The
また、例えば、画像表示部20において画像光を生成する構成として、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよい。また、画像光を生成する構成として、LCOS(Liquid crystal on silicon, LCoSは登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。
For example, as a configuration for generating image light in the
また、画像光を使用者の眼に導く光学系としては、外部から装置に向けて入射する外光を透過する光学部材を備え、画像光とともに使用者の眼に入射させる構成を採用できる。また、使用者の眼の前方に位置して使用者の視界の一部または全部に重なる光学部材を用いてもよい。さらに、レーザー光等を走査させて画像光とする走査方式の光学系を採用してもよい。また、光学部材の内部で画像光を導光させるものに限らず、使用者の眼に向けて画像光を屈折及び/または反射させて導く機能のみを有するものであってもよい。例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。すなわち、光射出部が、レーザー光源と、レーザー光源を使用者の眼に導く光学系とを備え、レーザー光を使用者の眼に入射させて網膜上を走査し、網膜に結像させることにより、使用者に画像を視認させる構成を採用してもよい。また、本発明を、MEMSミラーを用いた走査光学系を採用し、MEMSディスプレイ技術を利用した表示装置に適用することも可能である。すなわち、信号光形成部と、信号光形成部が射出する光を走査するMEMSミラーを有する走査光学系と、走査光学系により走査される光によって虚像が形成される光学部材とを光射出部として備えてもよい。この構成では、信号光形成部が射出した光がMEMSミラーにより反射され、光学部材に入射し、光学部材の中を導かれて、虚像形成面に達する。MEMSミラーが光を走査することにより、虚像形成面に虚像が形成され、この虚像を使用者が眼で捉えることで、画像が認識される。この場合の光学部品は、例えば上記実施形態の右導光板261及び左導光板262のように、複数回の反射を経て光を導くものであってもよく、ハーフミラー面を利用してもよい。
The optical system that guides the image light to the user's eyes may include an optical member that transmits external light that is incident on the apparatus from the outside and that is incident on the user's eyes together with the image light. Moreover, you may use the optical member which is located ahead of a user's eyes and overlaps a part or all of a user's visual field. Further, a scanning optical system that scans a laser beam or the like to obtain image light may be employed. Further, the optical member is not limited to guiding the image light inside the optical member, and may have only a function of guiding the image light by refracting and / or reflecting it toward the user's eyes. For example, the present invention can also be applied to a laser retinal projection type head mounted display. That is, the light emitting unit includes a laser light source and an optical system that guides the laser light source to the user's eyes, and the laser light is incident on the user's eyes to scan the retina and form an image on the retina. A configuration that allows the user to visually recognize an image may be employed. Further, the present invention can be applied to a display device that employs a scanning optical system using a MEMS mirror and uses MEMS display technology. That is, a light emitting unit includes a signal light forming unit, a scanning optical system having a MEMS mirror that scans light emitted from the signal light forming unit, and an optical member on which a virtual image is formed by light scanned by the scanning optical system. You may prepare. In this configuration, the light emitted from the signal light forming unit is reflected by the MEMS mirror, enters the optical member, is guided through the optical member, and reaches the virtual image forming surface. When the MEMS mirror scans the light, a virtual image is formed on the virtual image forming surface, and the user recognizes the virtual image with the eyes, thereby recognizing the image. The optical component in this case may be one that guides light through a plurality of reflections, such as the right
また、上記実施形態において、キャリブレーション制御部322は、複数の位置合わせガイドを表示する構成としたが、本発明はこれに限定されず、たとえば、一つの位置合わせガイドを表示してもよい。この場合、位置合わせガイドの表示位置を動かすことで、HMD100における動きとの対応を求めることができる。たとえば、一つの位置合わせガイドを移動させて、この位置合わせガイドの移動に追従するように、HMD100を装着する使用者がHMD100を動かしてもよい。
Moreover, in the said embodiment, although the
また、上記実施形態では、HMD100とプロジェクター300とが無線通信により接続される構成を例示したが、有線接続されてもよく、接続形態は任意である。
In the above-described embodiment, the configuration in which the
また、図2及び図3に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよい。つまり、図2及び図3に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部140が実行するプログラムは、記憶部120または制御装置10内の記憶装置に記憶されてもよいし、外部の装置に記憶されたプログラムを通信部117又はインターフェイス114を介して取得して実行する構成としてもよい。同様に、制御部320が実行するプログラムは、記憶部325に記憶されてもよいし、他の記憶部や外部の機器から供給されてもよい。
その他の細部構成についても、任意に変更可能であることは勿論である。
In addition, at least a part of the functional blocks illustrated in FIGS. 2 and 3 may be realized by hardware, or may be configured by cooperation of hardware and software. That is, the present invention is not limited to the configuration in which independent hardware resources are arranged as shown in FIGS. Further, the program executed by the
Of course, other detailed configurations can be arbitrarily changed.
1…表示システム、2…画像供給装置、10…制御装置、14…トラックパッド、15…キー操作部、20…画像表示部、21…右保持部、22…右表示駆動部、23…左保持部、24…左表示駆動部、26…右光学像表示部、28…左光学像表示部、48…接続コード、61…カメラ、66…9軸センサー(動き検出部)、100…HMD(端末装置)、110…入力情報取得部(入力部)、117…通信部、120…記憶部、121…設定データ、122…コンテンツデータ、123…キャリブレーション用画像データ、135…操作部、140…制御部、160…画像処理部、170…表示制御部、181…通信制御部、182…操作検出部、183…コンテンツ出力制御部、184…キャリブレーション制御部、187…音声処理部、261…右導光板、262…左導光板、300…プロジェクター(表示装置)、312…画像処理部、313…表示駆動部、315…入力部、316…操作パネル、317…リモコン、318…通信部、320…制御部、321…投写制御部、322…キャリブレーション制御部(入力検出部、動き量取得部、処理部、補正処理部)、325…記憶部、326…キャリブレーション用画像データ、327…キャリブレーションデータ、330…投写部、M、ML、MR…ガイド(使用者側マーカー)、MR、M1〜M4…位置合わせガイド(表示面マーカー)、SC…スクリーン(表示面)。
DESCRIPTION OF
Claims (9)
表示面に表示を行う表示装置と、
を備え、
前記表示装置が前記表示面に表示面マーカーを表示し、前記表示面マーカーの表示位置に応じて前記使用者が前記表示部を動かした際の前記動き検出部の検出結果に基づいて、前記表示部の動き量と前記表示面における移動量とを対応付ける処理を行う処理部を備えること、
を特徴とする表示システム。 A display unit that is worn by a user and configured to transmit the outside scene, and a terminal device that includes a motion detection unit that detects the movement of the display unit;
A display device for displaying on the display surface;
With
The display device displays a display surface marker on the display surface, and the display based on a detection result of the motion detection unit when the user moves the display unit according to a display position of the display surface marker. A processing unit that performs processing for associating the amount of movement of the unit with the amount of movement on the display surface;
A display system characterized by
前記処理部は、前記表示面における移動量を、前記表示面マーカーの複数の表示位置から求めること、
を特徴とする請求項1記載の表示システム。 The display device displays the display surface marker at a plurality of different positions on the display surface;
The processing unit obtains a movement amount on the display surface from a plurality of display positions of the display surface marker;
The display system according to claim 1.
を特徴とする請求項1または2記載の表示システム。 The terminal device displays on the display unit a user-side marker for visual recognition superimposed on the display surface marker on the display surface;
The display system according to claim 1, wherein:
前記表示装置が前記表示面マーカーを表示する表示位置を取得する取得部と、
前記処理部と、
を備え、
前記処理部は、前記動き検出部の検出結果から前記表示部の動き量を求め、求めた動き量と前記取得部により取得した前記表示面マーカーの表示位置とをもとに、前記表示部の動き量と前記表示面における移動量とを対応付ける処理を行うこと、
を特徴とする請求項1から3のいずれかに記載の表示システム。 The terminal device
An acquisition unit for acquiring a display position at which the display device displays the display surface marker;
The processing unit;
With
The processing unit obtains the amount of movement of the display unit from the detection result of the motion detection unit, and based on the obtained amount of movement and the display position of the display surface marker acquired by the acquisition unit, Performing a process of associating the amount of movement with the amount of movement on the display surface;
The display system according to claim 1, wherein:
前記端末装置の前記動き検出部の検出結果、又は、前記動き検出部の検出結果から求められる前記表示部の動き量を取得する動き量取得部と、
前記処理部と、
を備え、
前記処理部は、前記動き量取得部で取得した動き量と前記表示面マーカーを表示した表示位置とをもとに、前記表示部の動き量と前記表示面における移動量とを対応付ける処理を行うこと、
を特徴とする請求項1から3のいずれかに記載の表示システム。 The display device
A detection result of the motion detection unit of the terminal device, or a motion amount acquisition unit that acquires a motion amount of the display unit obtained from the detection result of the motion detection unit;
The processing unit;
With
The processing unit performs a process of associating the amount of movement of the display unit with the amount of movement on the display surface based on the amount of movement acquired by the amount of movement acquisition unit and the display position where the display surface marker is displayed. about,
The display system according to claim 1, wherein:
前記補正処理部は、前記表示部の動き量に基づいて、前記画像の補正量及び補正方向の少なくともいずれかを求めること、
を特徴とする請求項5記載の表示システム。 The display device includes a correction processing unit that performs geometric correction of an image displayed on the display surface,
The correction processing unit obtains at least one of a correction amount and a correction direction of the image based on a movement amount of the display unit;
The display system according to claim 5.
を特徴とする請求項5または6記載の表示システム。 The processing unit included in the display device is based on a detection result of the motion detection unit of the terminal device acquired by the motion amount acquisition unit or a motion amount obtained from a detection result of the motion detection unit. Determining the position or distance on the display surface,
The display system according to claim 5 or 6.
前記表示装置は、前記端末装置とは別体として構成される前記表示面に前記表示面マーカーを表示すること、
を特徴とする請求項1から7のいずれかに記載の表示システム。 The terminal device includes the display unit mounted on the user's head,
The display device displays the display surface marker on the display surface configured separately from the terminal device;
The display system according to claim 1, wherein:
前記表示装置が前記表示面に表示面マーカーを表示し、
前記表示面マーカーの表示位置に応じて前記使用者が前記表示部を動かした際の前記動き検出部の検出結果に基づいて、前記表示部の動き量と前記表示面における移動量とを対応付けること、
を特徴とする表示制御方法。 A display unit configured to transmit an outside scene, and a motion detection unit that detects the movement of the display unit, using a terminal device worn by a user and a display device that displays on a display surface,
The display device displays a display surface marker on the display surface;
The movement amount of the display unit and the movement amount on the display surface are associated with each other based on the detection result of the movement detection unit when the user moves the display unit according to the display position of the display surface marker. ,
A display control method characterized by the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015037763A JP6631014B2 (en) | 2015-02-27 | 2015-02-27 | Display system and display control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015037763A JP6631014B2 (en) | 2015-02-27 | 2015-02-27 | Display system and display control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016161611A true JP2016161611A (en) | 2016-09-05 |
JP6631014B2 JP6631014B2 (en) | 2020-01-15 |
Family
ID=56846810
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015037763A Active JP6631014B2 (en) | 2015-02-27 | 2015-02-27 | Display system and display control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6631014B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109841182A (en) * | 2017-11-28 | 2019-06-04 | 乐金显示有限公司 | Personal immersion display device and its driving method |
JP2019148682A (en) * | 2018-02-27 | 2019-09-05 | セイコーエプソン株式会社 | Image display system, image display device and method for controlling image display system |
JP2021068145A (en) * | 2019-10-23 | 2021-04-30 | セイコーエプソン株式会社 | Operation method of head-mounted display device and head-mounted display device |
WO2021182124A1 (en) * | 2020-03-10 | 2021-09-16 | ソニーグループ株式会社 | Information processing device and information processing method |
JP7501044B2 (en) | 2020-03-30 | 2024-06-18 | セイコーエプソン株式会社 | DISPLAY SYSTEM, INFORMATION PROCESSING DEVICE, AND DISPLAY CONTROL METHOD FOR DISPLAY SYSTEM |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002324239A (en) * | 2001-04-25 | 2002-11-08 | Olympus Optical Co Ltd | Information presenting system |
JP2004289548A (en) * | 2003-03-24 | 2004-10-14 | Olympus Corp | Image adjuster and head-mounted display device |
JP2012129594A (en) * | 2010-12-13 | 2012-07-05 | Seiko Epson Corp | Projector and method for screen shape correction of projector |
JP2013206322A (en) * | 2012-03-29 | 2013-10-07 | Sony Corp | Information processor, information processing system and information processing method |
WO2013179427A1 (en) * | 2012-05-30 | 2013-12-05 | パイオニア株式会社 | Display device, head-mounted display, calibration method, calibration program, and recording medium |
-
2015
- 2015-02-27 JP JP2015037763A patent/JP6631014B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002324239A (en) * | 2001-04-25 | 2002-11-08 | Olympus Optical Co Ltd | Information presenting system |
JP2004289548A (en) * | 2003-03-24 | 2004-10-14 | Olympus Corp | Image adjuster and head-mounted display device |
JP2012129594A (en) * | 2010-12-13 | 2012-07-05 | Seiko Epson Corp | Projector and method for screen shape correction of projector |
JP2013206322A (en) * | 2012-03-29 | 2013-10-07 | Sony Corp | Information processor, information processing system and information processing method |
WO2013179427A1 (en) * | 2012-05-30 | 2013-12-05 | パイオニア株式会社 | Display device, head-mounted display, calibration method, calibration program, and recording medium |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109841182A (en) * | 2017-11-28 | 2019-06-04 | 乐金显示有限公司 | Personal immersion display device and its driving method |
CN109841182B (en) * | 2017-11-28 | 2022-07-01 | 乐金显示有限公司 | Personal immersive display device and method of driving the same |
JP2019148682A (en) * | 2018-02-27 | 2019-09-05 | セイコーエプソン株式会社 | Image display system, image display device and method for controlling image display system |
JP7022323B2 (en) | 2018-02-27 | 2022-02-18 | セイコーエプソン株式会社 | Image display system, image display device and control method of image display system |
JP2021068145A (en) * | 2019-10-23 | 2021-04-30 | セイコーエプソン株式会社 | Operation method of head-mounted display device and head-mounted display device |
WO2021182124A1 (en) * | 2020-03-10 | 2021-09-16 | ソニーグループ株式会社 | Information processing device and information processing method |
JP7501044B2 (en) | 2020-03-30 | 2024-06-18 | セイコーエプソン株式会社 | DISPLAY SYSTEM, INFORMATION PROCESSING DEVICE, AND DISPLAY CONTROL METHOD FOR DISPLAY SYSTEM |
Also Published As
Publication number | Publication date |
---|---|
JP6631014B2 (en) | 2020-01-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6693060B2 (en) | Display system, display device, display device control method, and program | |
JP5970872B2 (en) | Head-mounted display device and method for controlling head-mounted display device | |
US10162412B2 (en) | Display, control method of display, and program | |
US9411160B2 (en) | Head mounted display, control method for head mounted display, and image display system | |
US10306217B2 (en) | Display device, control method for display device, and computer program | |
US10838215B2 (en) | Head-mounted display apparatus, display control method, and computer program | |
JP6852355B2 (en) | Program, head-mounted display device | |
JP6492638B2 (en) | Display device and control method of display device | |
US9904053B2 (en) | Display device, and method of controlling display device | |
TW201604586A (en) | Display device, control method for display device, and program | |
JP6631014B2 (en) | Display system and display control method | |
CN109960481B (en) | Display system and control method thereof | |
JP2018142857A (en) | Head mounted display device, program, and control method of head mounted display device | |
JP6600945B2 (en) | Head-mounted display device, head-mounted display device control method, and computer program | |
JP2018137505A (en) | Display device and control method thereof | |
JP2016033759A (en) | Display device, method for controlling display device, and program | |
JP2016024208A (en) | Display device, method for controlling display device, and program | |
KR20170030632A (en) | Display device, method of controlling display device, and program | |
JP6575117B2 (en) | Display device, display device control method, and program | |
JP6428024B2 (en) | Display device, display device control method, and program | |
JP6252002B2 (en) | Head-mounted display device and method for controlling head-mounted display device | |
JP2015087523A (en) | Head-mounted display device, method for controlling head-mounted display device, and image display system | |
US20190086677A1 (en) | Head mounted display device and control method for head mounted display device | |
JP2017062650A (en) | Display system, display unit, information display method, and program | |
JP2016033763A (en) | Display device, method for controlling display device, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180719 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180807 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181005 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190312 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190508 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191112 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191125 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6631014 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |