JP2016161611A - Display system and display control method - Google Patents

Display system and display control method Download PDF

Info

Publication number
JP2016161611A
JP2016161611A JP2015037763A JP2015037763A JP2016161611A JP 2016161611 A JP2016161611 A JP 2016161611A JP 2015037763 A JP2015037763 A JP 2015037763A JP 2015037763 A JP2015037763 A JP 2015037763A JP 2016161611 A JP2016161611 A JP 2016161611A
Authority
JP
Japan
Prior art keywords
display
unit
image
movement
amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015037763A
Other languages
Japanese (ja)
Other versions
JP6631014B2 (en
Inventor
健太郎 井手
Kentaro Ide
健太郎 井手
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015037763A priority Critical patent/JP6631014B2/en
Publication of JP2016161611A publication Critical patent/JP2016161611A/en
Application granted granted Critical
Publication of JP6631014B2 publication Critical patent/JP6631014B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Liquid Crystal Display Device Control (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a display system and a display control method which can simply perform operation, such as instructing a position and the like, by a device a user wears.SOLUTION: A display system 1 is provided with an HMD 100 and a projector 300 performing display to a screen SC. The HMD 100 has an image display part 20 which is worn by a user and can transmit an outside scene; and a motion detection part detecting motions of the image display part 20. The projector 300 is provided with a processing part which displays a positioning guide to the screen SC and coordinates a motion amount of the image display part 20 and a moving amount in the screen SC on the basis of a detection result of the motion detection part when the user moves the image display part 20 in accordance with a display position of the positioning guide.SELECTED DRAWING: Figure 1

Description

本発明は、表示システム、及び表示制御方法に関する。   The present invention relates to a display system and a display control method.

近年、使用者が、身体や身の回り品に装着して使用する、いわゆるウェアラブルデバイスが知られている。ウェアラブルデバイスの例としては、頭部に装着して使用する、ヘッドマウントディスプレイ(Head Mounted Display:HMD)と呼ばれる表示装置が挙げられる(例えば、特許文献1参照)。特許文献1記載のHMDは、使用者が頭部に装着して使用する透過型のディスプレイであり、使用者の目線を検出する機能を有し、使用者の目線方向の状態に合わせて情報を表示する。   2. Description of the Related Art In recent years, so-called wearable devices that are used by users on their bodies and personal items are known. As an example of the wearable device, there is a display device called a head mounted display (HMD) that is used by being worn on the head (see, for example, Patent Document 1). The HMD described in Patent Document 1 is a transmissive display that a user wears on the head and has a function of detecting the user's line of sight, and information is matched to the state of the user's line of sight. indicate.

特開2012−108379号公報JP 2012-108379 A

特許文献1に記載されたように透過型のHMDを装着した状態では、キーボードやマウス等の従来の入力デバイスを使いにくい。また、透過型のHMDに限らず、非透過型のHMDや、その他のウェアラブルデバイスを使用する場合、入力操作の種類や態様が制限され、利便性の向上が求められていた。
本発明は上記事情に鑑みてなされたものであり、使用者が装着する装置により位置を指示する等の操作を簡単に行うことが可能な表示システム、及び表示制御方法を提供することを目的とする。
As described in Patent Document 1, it is difficult to use a conventional input device such as a keyboard or a mouse in a state where a transmissive HMD is mounted. Further, when using a non-transparent HMD and other wearable devices, not limited to a transmissive HMD, the types and modes of input operations are limited, and improvement in convenience has been demanded.
The present invention has been made in view of the above circumstances, and it is an object of the present invention to provide a display system and a display control method capable of easily performing an operation such as instructing a position by a device worn by a user. To do.

上記目的を達成するために、本発明の表示システムは、使用者が装着し、外景を透過可能に構成された表示部、及び前記表示部の動きを検出する動き検出部を有する端末装置と、表示面に表示を行う表示装置と、を備え、前記表示装置が前記表示面に表示面マーカーを表示し、前記表示面マーカーの表示位置に応じて前記使用者が前記表示部を動かした際の前記動き検出部の検出結果に基づいて、前記表示部の動き量と前記表示面における移動量とを対応付ける処理部を備えること、を特徴とする。
本発明によれば、使用者が装着する端末装置の動きから、表示面における移動量を得ることができるので、端末装置を動かすことで、表示面上の量に関する入力を行うことが可能となる。このため、端末装置を使用する場合の入力操作を容易にし、利便性の向上を図ることができる。
In order to achieve the above object, a display system of the present invention includes a display unit that is worn by a user and configured to transmit an outside scene, and a terminal device that includes a motion detection unit that detects the movement of the display unit, A display device that performs display on a display surface, wherein the display device displays a display surface marker on the display surface, and the user moves the display unit according to a display position of the display surface marker. A processing unit is provided that associates the amount of movement of the display unit with the amount of movement on the display surface based on the detection result of the motion detection unit.
According to the present invention, since the movement amount on the display surface can be obtained from the movement of the terminal device worn by the user, it becomes possible to input the amount on the display surface by moving the terminal device. . For this reason, the input operation when using the terminal device can be facilitated, and the convenience can be improved.

また、本発明は、上記表示システムにおいて、前記表示装置は前記表示面における複数の異なる位置に前記表示面マーカーを表示し、前記処理部は、前記表示面における移動量を、前記表示面マーカーの複数の表示位置から求めること、を特徴とする。
本発明によれば、使用者が装着する端末装置の動きと表示面における移動量との対応付けを速やかに行うことができる。
In the display system according to the present invention, the display device displays the display surface marker at a plurality of different positions on the display surface, and the processing unit indicates the movement amount on the display surface. It is obtained from a plurality of display positions.
According to the present invention, it is possible to quickly associate the movement of the terminal device worn by the user with the amount of movement on the display surface.

また、本発明は、上記表示システムにおいて、前記端末装置は、前記表示面の前記表示面マーカーと重ねて視認するための使用者側マーカーを前記表示部に表示すること、を特徴とする。
本発明によれば、使用者が端末装置を使用して使用者側マーカーを視認するので、端末装置の動きと表示面における移動量との対応付けを、より正確に行うことができる。また、使用者の操作の負担を軽減できる。
Moreover, the present invention is characterized in that, in the display system, the terminal device displays a user-side marker on the display unit so as to be superimposed on the display surface marker on the display surface.
According to the present invention, since the user visually recognizes the user side marker using the terminal device, the movement of the terminal device and the amount of movement on the display surface can be more accurately associated. In addition, the operation burden on the user can be reduced.

また、本発明は、上記表示システムにおいて、前記端末装置は、前記表示装置が前記表示面マーカーを表示する表示位置を取得する取得部と、前記処理部と、を備え、前記処理部は、前記動き検出部の検出結果から前記表示部の動き量を求め、求めた動き量と前記取得部により取得した前記表示面マーカーの表示位置とをもとに、前記表示部の動き量と前記表示面における移動量とを対応付ける処理を行うこと、を特徴とする。
本発明によれば、端末装置の機能により、端末装置の動き量と表示面における移動量とを対応付けることができる。
Further, the present invention is the display system, wherein the terminal device includes an acquisition unit that acquires a display position at which the display device displays the display surface marker, and the processing unit. The amount of movement of the display unit is obtained from the detection result of the movement detection unit, and the amount of movement of the display unit and the display surface are determined based on the obtained amount of movement and the display position of the display surface marker acquired by the acquisition unit. And performing a process of associating the amount of movement with.
ADVANTAGE OF THE INVENTION According to this invention, the movement amount of a terminal device and the movement amount on a display surface can be matched by the function of a terminal device.

また、本発明は、上記表示システムにおいて、前記表示装置は、前記端末装置の前記動き検出部の検出結果、又は、前記動き検出部の検出結果から求められる前記表示部の動き量を取得する動き量取得部と、前記処理部と、を備え、前記処理部は、前記動き量取得部で取得した動き量と前記表示面マーカーを表示した表示位置とをもとに、動き量と前記表示面における移動量とを対応付ける処理を行うこと、を特徴とする。
本発明によれば、表示装置の機能により、端末装置の動き量と表示面における移動量とを対応付けることができる。
In the display system according to the aspect of the invention, the display device may acquire a motion amount of the display unit obtained from the detection result of the motion detection unit of the terminal device or the detection result of the motion detection unit. An amount acquisition unit, and the processing unit, the processing unit based on the movement amount acquired by the movement amount acquisition unit and the display position where the display surface marker is displayed, the movement amount and the display surface And performing a process of associating the amount of movement with.
According to the present invention, the amount of movement of the terminal device and the amount of movement on the display surface can be associated by the function of the display device.

また、本発明は、上記表示システムにおいて、前記表示装置は、前記表示面に表示する画像の幾何補正を行う補正処理部を備え、前記補正処理部は、前記表示部の動き量に基づいて、前記画像の補正量及び補正方向の少なくともいずれかを求めること、を特徴とする。
本発明によれば、端末装置の動きと表示面における移動量との対応付けを利用して、端末装置を用いた操作により、画像の補正を行うことができる。
In the display system according to the present invention, the display device includes a correction processing unit that performs geometric correction of an image displayed on the display surface, and the correction processing unit is based on the amount of movement of the display unit. It is characterized in that at least one of the correction amount and the correction direction of the image is obtained.
According to the present invention, it is possible to correct an image by an operation using the terminal device by using the association between the movement of the terminal device and the movement amount on the display surface.

また、本発明は、上記表示システムにおいて、前記表示装置が備える前記処理部は、前記動き量取得部が取得する前記端末装置の前記動き検出部の検出結果、又は、前記動き検出部の検出結果から求められる動き量をもとに、前記表示面における位置または距離を求めること、を特徴とする。
本発明によれば、端末装置の動きと表示面における移動量との対応付けを利用して、端末装置で入力操作を行うことができる。
In the display system according to the aspect of the invention, the processing unit included in the display device may include the detection result of the motion detection unit of the terminal device acquired by the motion amount acquisition unit or the detection result of the motion detection unit. The position or distance on the display surface is obtained based on the amount of movement obtained from the above.
ADVANTAGE OF THE INVENTION According to this invention, input operation can be performed with a terminal device using matching with the movement of a terminal device, and the movement amount on a display surface.

また、本発明は、上記表示システムにおいて、前記端末装置は、前記使用者の頭部に装着される前記表示部を備え、前記表示装置は、前記端末装置とは別体として構成される前記表示面に前記表示面マーカーを表示すること、を特徴とする。
本発明によれば、使用者が頭部に装着する端末装置の動きと表示面における移動量とを対応付けることができ、直感的な操作を実現できる。
In the display system according to the present invention, the terminal device includes the display unit that is worn on a head of the user, and the display device is configured separately from the terminal device. The display surface marker is displayed on a surface.
ADVANTAGE OF THE INVENTION According to this invention, the movement of the terminal device with which a user wears to a head can be matched with the movement amount in a display surface, and intuitive operation is realizable.

また、上記目的を達成するために、本発明の表示制御方法は、外景を透過可能に構成された表示部、及び前記表示部の動きを検出する動き検出部を有し、使用者が装着する端末装置と、表示面に表示を行う表示装置とを用い、前記表示装置が前記表示面に表示面マーカーを表示し、前記表示面マーカーの表示位置に応じて前記使用者が前記表示部を動かした際の前記動き検出部の検出結果に基づいて、前記表示部の動き量と前記表示面における移動量とを対応付けること、を特徴とする。
本発明によれば、使用者が装着する端末装置の動きから、表示面における移動量を得ることができるので、端末装置を動かすことで、表示面上の量に関する入力を行うことが可能となる。このため、端末装置を使用する場合の入力操作を容易にし、利便性の向上を図ることができる。
また、本発明は、上記の表示制御方法を実現するプログラム、或いは、プログラムを記憶した記録媒体として構成してもよい。
In order to achieve the above object, the display control method of the present invention includes a display unit configured to transmit an outside scene, and a motion detection unit that detects the movement of the display unit, and is worn by a user. Using a terminal device and a display device for displaying on a display surface, the display device displays a display surface marker on the display surface, and the user moves the display unit according to a display position of the display surface marker. The movement amount of the display unit and the movement amount on the display surface are associated with each other based on the detection result of the motion detection unit at the time.
According to the present invention, since the movement amount on the display surface can be obtained from the movement of the terminal device worn by the user, it becomes possible to input the amount on the display surface by moving the terminal device. . For this reason, the input operation when using the terminal device can be facilitated, and the convenience can be improved.
In addition, the present invention may be configured as a program that realizes the above display control method or a recording medium that stores the program.

実施形態に係る表示システムの概略構成を示す説明図。Explanatory drawing which shows schematic structure of the display system which concerns on embodiment. 頭部装着型表示装置の機能ブロック図。The functional block diagram of a head mounted type display apparatus. プロジェクターの機能ブロック図。The functional block diagram of a projector. 表示システムの動作を示すフローチャート。The flowchart which shows operation | movement of a display system. 表示システムの動作の説明図。Explanatory drawing of operation | movement of a display system. 表示システムの動作の説明図。Explanatory drawing of operation | movement of a display system. 表示システムの動作を示すフローチャート。The flowchart which shows operation | movement of a display system. 表示システムの動作の説明図。Explanatory drawing of operation | movement of a display system.

図1は、本発明を適用した実施形態に係る表示システム1の概略構成を示す図である。
表示システム1は、使用者が頭部に装着する頭部装着型表示装置(以下、HMDとする)100と、HMD100を装着した使用者が視認可能な位置でスクリーンSC(投射面)に画像(投射画像P)を投写するプロジェクター300とを備える。HMD100は端末装置に相当し、プロジェクター300は表示装置に対応する。
FIG. 1 is a diagram showing a schematic configuration of a display system 1 according to an embodiment to which the present invention is applied.
The display system 1 includes a head-mounted display device (hereinafter referred to as an HMD) 100 worn by a user on the head, and an image (screen) on a screen SC (projection surface) at a position where the user wearing the HMD 100 can visually recognize. And a projector 300 that projects the projection image P). The HMD 100 corresponds to a terminal device, and the projector 300 corresponds to a display device.

HMD100は、使用者の頭部に装着された状態で使用者に虚像を視認させる画像表示部20(表示部)と、画像表示部20を制御する制御装置10と、を備えている。制御装置10は、使用者がHMD100を操作するコントローラーとしても機能する。   The HMD 100 includes an image display unit 20 (display unit) that allows a user to visually recognize a virtual image while being mounted on the user's head, and a control device 10 that controls the image display unit 20. The control device 10 also functions as a controller for the user to operate the HMD 100.

画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状のフレームを有する。フレームは、右保持部21及び左保持部23を有する。右保持部21及び左保持部23は、使用者が画像表示部20を装着した際に使用者の側頭部に位置し、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。   The image display unit 20 is a mounting body that is mounted on the user's head, and has a glasses-shaped frame in the present embodiment. The frame has a right holding part 21 and a left holding part 23. The right holding unit 21 and the left holding unit 23 are positioned on the user's side when the user wears the image display unit 20, and are placed on the user's head like a temple of glasses. The image display unit 20 is held.

右保持部21には右表示駆動部22が設けられ、左保持部23には左表示駆動部24が設けられる。また、画像表示部20のフレームには、使用者の眼前に位置する右光学像表示部26及び左光学像表示部28が設けられる。
右光学像表示部26は、使用者が画像表示部20を装着した際に、使用者の右眼の前に位置し、左光学像表示部28は使用者が画像表示部20を装着した際に使用者の左眼の前に位置する。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに連結されている。この連結部にはカメラ61が配置される。
The right holding unit 21 is provided with a right display driving unit 22, and the left holding unit 23 is provided with a left display driving unit 24. The frame of the image display unit 20 is provided with a right optical image display unit 26 and a left optical image display unit 28 located in front of the user's eyes.
The right optical image display unit 26 is positioned in front of the user's right eye when the user wears the image display unit 20, and the left optical image display unit 28 is when the user wears the image display unit 20. It is located in front of the user's left eye. One end of the right optical image display unit 26 and one end of the left optical image display unit 28 are connected to each other at a position corresponding to the eyebrow of the user when the user wears the image display unit 20. A camera 61 is disposed at this connecting portion.

右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。なお、右表示駆動部22及び左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26及び左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。   The right display drive unit 22 and the left display drive unit 24 are disposed on the side facing the user's head when the user wears the image display unit 20. The right display drive unit 22 and the left display drive unit 24 are collectively referred to simply as “display drive unit”, and the right optical image display unit 26 and the left optical image display unit 28 are simply referred to as “optical image display unit”. Also called.

右表示駆動部22は、後述するように画像データに基づく画像を形成し、この画像が右光学像表示部26に表示される。また、左表示駆動部24は画像データに基づく画像を形成し、左表示駆動部24が形成する画像は左光学像表示部28に表示される。これにより、使用者の左右の目に対して、それぞれ画像が表示される。   The right display drive unit 22 forms an image based on the image data as will be described later, and this image is displayed on the right optical image display unit 26. The left display driving unit 24 forms an image based on the image data, and the image formed by the left display driving unit 24 is displayed on the left optical image display unit 28. As a result, images are displayed for the left and right eyes of the user.

右光学像表示部26及び左光学像表示部28は、外景を透過するシースルー型の表示装置として構成される。このため、使用者は、右光学像表示部26及び左光学像表示部28が表示する画像を視認し、かつ、右光学像表示部26及び左光学像表示部28を透過して外景を視認する。また、右光学像表示部26と左光学像表示部28に、視差を有する画像を表示することで、立体的に視認される3D(立体)画像を表示することができる。
本実施形態では、使用者が画像表示部20を装着した状態で、画像表示部20が表示する画像を視認し、かつ、スクリーンSCに投写された投射画像Pを視認できる。
The right optical image display unit 26 and the left optical image display unit 28 are configured as a see-through display device that transmits an outside scene. For this reason, the user visually recognizes the images displayed by the right optical image display unit 26 and the left optical image display unit 28, and also visually recognizes the outside scene through the right optical image display unit 26 and the left optical image display unit 28. To do. In addition, by displaying an image having parallax on the right optical image display unit 26 and the left optical image display unit 28, it is possible to display a 3D (stereoscopic) image that is viewed stereoscopically.
In the present embodiment, the user can visually recognize the image displayed on the image display unit 20 while wearing the image display unit 20 and can visually recognize the projection image P projected on the screen SC.

カメラ61は、右光学像表示部26と左光学像表示部28との境目部分に配置される。使用者が画像表示部20を装着した状態で、カメラ61の位置は、水平方向においては使用者の両眼のほぼ中間であり、鉛直方向においては使用者の両眼より上である。カメラ61は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、単眼カメラであってもステレオカメラであってもよい。
カメラ61は、HMD100の表側方向、換言すれば、HMD100を装着した状態における使用者の視界方向の少なくとも一部の外景を撮像する。カメラ61の画角の広さは適宜設定可能であるが、カメラ61の撮像範囲が、使用者が右光学像表示部26、左光学像表示部28を通して視認する外界を含む範囲であることが好ましい。カメラ61は、制御装置10の制御部140(図2)の制御に従って撮像を実行し、撮像画像データを制御部140に出力する。
The camera 61 is disposed at the boundary between the right optical image display unit 26 and the left optical image display unit 28. In a state where the user wears the image display unit 20, the position of the camera 61 is substantially in the middle of both eyes of the user in the horizontal direction and above the eyes of the user in the vertical direction. The camera 61 is a digital camera that includes an imaging element such as a CCD or CMOS, an imaging lens, and the like, and may be a monocular camera or a stereo camera.
The camera 61 images at least a part of the outside scene in the front side direction of the HMD 100, in other words, the user's view direction when the HMD 100 is worn. The width of the angle of view of the camera 61 can be set as appropriate, but the imaging range of the camera 61 is a range that includes the outside world visually recognized by the user through the right optical image display unit 26 and the left optical image display unit 28. preferable. The camera 61 executes imaging in accordance with control of the control unit 140 (FIG. 2) of the control device 10 and outputs captured image data to the control unit 140.

画像表示部20は、制御装置10に接続コード48を介して接続する。接続コード48は、左右に分岐して、画像表示部20の右保持部21及び左保持部23に接続し、右表示駆動部22と左表示駆動部24のそれぞれに画像データを伝送する。   The image display unit 20 is connected to the control device 10 via a connection cord 48. The connection cord 48 branches left and right, is connected to the right holding unit 21 and the left holding unit 23 of the image display unit 20, and transmits image data to each of the right display driving unit 22 and the left display driving unit 24.

また、接続コード48には、右イヤホン32及び左イヤホン34が接続し、接続コード48にはマイク63が設けられる。マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置され、音声を集音して、音声信号を制御装置10の音声処理部187(図2)に出力する。   The connection cord 48 is connected to the right earphone 32 and the left earphone 34, and the connection cord 48 is provided with a microphone 63. For example, as shown in FIG. 1, the microphone 63 is arranged such that the sound collection unit of the microphone 63 faces the user's line of sight, collects sound, and outputs the sound signal to the sound processing unit 187 ( Output to FIG.

HMD100を制御する制御装置10は、HMD100の動作状態を示すインジケーターとして機能する点灯部12、入力操作を行うためのトラックパッド14及びキー操作部15、及び、電源スイッチ18を備える。点灯部12は、LED(Light Emitting Diode)等の光源を備え、光源の点灯状態により、HMD100の動作状態(例えば、電源のON/OFF)を通知する。キー操作部15は、決定キー、方向キー、メニューキー等、入力用の各種の操作子を備える。
トラックパッド14は、接触操作を検出する操作面を有し、操作面に対する操作に応じて操作信号を出力する。操作面における検出方式は限定されず、静電式、圧力検出式、光学式等を採用できる。電源スイッチ18は、HMD100の電源オン/オフを切り替えるスイッチである。
The control device 10 that controls the HMD 100 includes a lighting unit 12 that functions as an indicator that indicates the operating state of the HMD 100, a track pad 14 and a key operation unit 15 for performing an input operation, and a power switch 18. The lighting unit 12 includes a light source such as an LED (Light Emitting Diode), and notifies the operation state (for example, power ON / OFF) of the HMD 100 according to the lighting state of the light source. The key operation unit 15 includes various input elements such as a determination key, a direction key, and a menu key.
The track pad 14 has an operation surface for detecting a contact operation, and outputs an operation signal according to an operation on the operation surface. The detection method on the operation surface is not limited, and an electrostatic method, a pressure detection method, an optical method, or the like can be adopted. The power switch 18 is a switch for switching on / off the power of the HMD 100.

図2は、HMD100の構成を示す機能ブロック図である。図2には説明のため使用者の左眼LE及び右眼REを図示する。
右表示駆動部22及び左表示駆動部24は、それぞれ、画像を形成する液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」と呼ぶ)と、LCD241,242が形成する画像を投写する投写光学系251,252とを含む。右投写光学系251は、右光学像表示部26が有する右導光板261に画像光を投写し、左投写光学系252は左光学像表示部28が有する左導光板262に画像光を投写する。
FIG. 2 is a functional block diagram showing the configuration of the HMD 100. As shown in FIG. FIG. 2 shows the user's left eye LE and right eye RE for explanation.
The right display driving unit 22 and the left display driving unit 24 project liquid crystal displays 241 and 242 (hereinafter referred to as “LCDs 241 and 242”) and images formed by the LCDs 241 and 242, respectively. Projection optical systems 251 and 252. The right projection optical system 251 projects image light onto the right light guide plate 261 included in the right optical image display unit 26, and the left projection optical system 252 projects image light onto the left light guide plate 262 included in the left optical image display unit 28. .

導光板261,262は、光透過性の樹脂等によって形成され、表示駆動部22,24が出力する画像光を、使用者の眼に導く。
また、右表示駆動部22は、右バックライト制御部201、右LCD制御部211、及び右バックライト221を備え、左表示駆動部24は左バックライト制御部202、左LCD制御部212及び左バックライト222を備える。
The light guide plates 261 and 262 are formed of a light transmissive resin or the like, and guide the image light output from the display driving units 22 and 24 to the user's eyes.
The right display drive unit 22 includes a right backlight control unit 201, a right LCD control unit 211, and a right backlight 221, and the left display drive unit 24 includes a left backlight control unit 202, a left LCD control unit 212, and a left display. A backlight 222 is provided.

左バックライト222はLED等の光源と拡散板とを有する。左LCD242は、左バックライト222の拡散板から発せられる光の光路上に配置され、複数の画素をマトリクス状に配置した透過型液晶パネルである。左投写光学系252は、左LCD242を透過した画像光を導くレンズ群等を備える。   The left backlight 222 has a light source such as an LED and a diffusion plate. The left LCD 242 is a transmissive liquid crystal panel that is arranged on the optical path of light emitted from the diffusion plate of the left backlight 222 and has a plurality of pixels arranged in a matrix. The left projection optical system 252 includes a lens group that guides image light transmitted through the left LCD 242.

左投写光学系252は、左LCD242から射出された画像光を平行状態の光束にするコリメートレンズを有する。コリメートレンズにより平行状態の光束にされた画像光は、左導光板262に入射される。左導光板262は、画像光を反射する複数の反射面が形成されたプリズムであり、画像光は、左導光板262の内部において複数回の反射を経て左眼LE側に導かれる。左導光板262には、左眼LEの眼前に位置するハーフミラーが形成される。このハーフミラーで反射した画像光は左眼LEに向けて左光学像表示部28から射出され、この画像光が左眼LEの網膜に像を結び、使用者に画像を視認させる。   The left projection optical system 252 includes a collimator lens that converts the image light emitted from the left LCD 242 into a parallel light flux. The image light that has been converted into a parallel light beam by the collimator lens is incident on the left light guide plate 262. The left light guide plate 262 is a prism formed with a plurality of reflecting surfaces that reflect image light, and the image light is guided to the left eye LE side through a plurality of reflections inside the left light guide plate 262. A half mirror positioned in front of the left eye LE is formed on the left light guide plate 262. The image light reflected by the half mirror is emitted from the left optical image display unit 28 toward the left eye LE, and this image light forms an image on the retina of the left eye LE so that the user can visually recognize the image.

右表示駆動部22は、左表示駆動部24と左右対称に構成される。右バックライト221はLED等の光源と拡散板とを有する。右LCD241は、右バックライト221の拡散板から発せられる光の光路上に配置され、複数の画素をマトリクス状に配置した透過型液晶パネルである。右投写光学系251は、右LCD241を透過した画像光を導くレンズ群等を備える。   The right display driving unit 22 is configured to be symmetrical with the left display driving unit 24. The right backlight 221 includes a light source such as an LED and a diffusion plate. The right LCD 241 is a transmissive liquid crystal panel that is arranged on the optical path of light emitted from the diffusion plate of the right backlight 221 and has a plurality of pixels arranged in a matrix. The right projection optical system 251 includes a lens group that guides image light transmitted through the right LCD 241.

右投写光学系251は、右LCD241から射出された画像光を平行状態の光束にするコリメートレンズを有する。コリメートレンズにより平行状態の光束にされた画像光は、右導光板261に入射される。右導光板261は、画像光を反射する複数の反射面が形成されたプリズムであり、画像光は、右導光板261の内部において複数回の反射を経て右眼RE側に導かれる。右導光板261には、右眼REの眼前に位置するハーフミラーが形成され、このハーフミラーで反射した画像光は右眼REに向けて右光学像表示部26から射出され、この画像光が右眼REの網膜に像を結び、使用者に画像を視認させる。   The right projection optical system 251 includes a collimator lens that converts the image light emitted from the right LCD 241 into a light beam in a parallel state. The image light converted into a parallel light beam by the collimator lens is incident on the right light guide plate 261. The right light guide plate 261 is a prism formed with a plurality of reflecting surfaces that reflect image light, and the image light is guided to the right eye RE side through a plurality of reflections inside the right light guide plate 261. A half mirror located in front of the right eye RE is formed on the right light guide plate 261, and image light reflected by the half mirror is emitted from the right optical image display unit 26 toward the right eye RE, and the image light is An image is connected to the retina of the right eye RE, and the user is made to visually recognize the image.

使用者の右眼RE及び左眼LEには、ハーフミラーで反射した画像光と、右光学像表示部26、左光学像表示部28を透過した外光とが入射する。HMD100は、内部で処理した画像の画像光と外光とを重ねて使用者の眼に入射させ、使用者にとっては、右光学像表示部26及び左光学像表示部28を透かして外景が見え、この外景に重ねて、画像光による画像が視認される。このように、HMD100は、シースルー型の表示装置として機能する。   Image light reflected by the half mirror and external light transmitted through the right optical image display unit 26 and the left optical image display unit 28 are incident on the user's right eye RE and left eye LE. The HMD 100 superimposes the image light of the internally processed image and the external light on the user's eyes and allows the user to see the outside scene through the right optical image display unit 26 and the left optical image display unit 28. The image by the image light is visually recognized over the outside scene. As described above, the HMD 100 functions as a see-through display device.

画像表示部20のフレームには、9軸センサー66(動き検出部)が内蔵される。9軸センサー66は、加速度センサー、磁気センサー、及び角速度センサー(ジャイロセンサー)を内蔵したユニットである。9軸センサー66は、例えば、図1に示す右保持部21、或いは左保持部23に内蔵される。9軸センサー66は画像表示部20のフレームに固定され、フレームが変位した場合に、この動き及びフレームの姿勢が9軸センサー66で検出される。9軸センサー66の位置は任意であり、フレームに対して変位しないよう配置されていればよい。   A 9-axis sensor 66 (motion detection unit) is built in the frame of the image display unit 20. The 9-axis sensor 66 is a unit incorporating an acceleration sensor, a magnetic sensor, and an angular velocity sensor (gyro sensor). For example, the 9-axis sensor 66 is built in the right holding unit 21 or the left holding unit 23 shown in FIG. The 9-axis sensor 66 is fixed to the frame of the image display unit 20. When the frame is displaced, the movement and the posture of the frame are detected by the 9-axis sensor 66. The position of the 9-axis sensor 66 is arbitrary and it is sufficient that it is arranged so as not to be displaced with respect to the frame.

9軸センサー66の角速度センサーは、内蔵する検出機構の測定基準点において、図1に示すX軸まわりの回転(ピッチ)、Y軸回りの回転(ヨー)、及びZ軸まわりの回転(ロール)を検出する。9軸センサー66が角速度を検出する軸は、図1に示すように、画像表示部20を装着する使用者の頭部に対し左右方向をX軸、前後方向をY軸、上下方向をZ軸とする。より詳細には、X軸は、HMD100のフレームにおいて、右光学像表示部26及び左光学像表示部28を含む前部の水平方向に相当する。また、Y軸は、フレームの前後方向に相当し、Z軸はフレームの高さ方向に相当する。
9軸センサー66の加速度センサーは、上述したX軸方向、Y軸方向、及びZ軸方向の加速度を検出する3軸の加速度センサーである。また、9軸センサー66の磁気センサーは、上述したX軸方向、Y軸方向、及びZ軸方向における磁界を検出する3軸の磁気センサーである。
The angular velocity sensor of the nine-axis sensor 66 is a rotation around the X axis (pitch), a rotation around the Y axis (yaw), and a rotation around the Z axis (roll) at the measurement reference point of the built-in detection mechanism. Is detected. As shown in FIG. 1, the 9-axis sensor 66 detects the angular velocity with respect to the head of the user wearing the image display unit 20 in the left-right direction as the X axis, the front-rear direction as the Y axis, and the vertical direction as the Z axis. And More specifically, the X axis corresponds to the front horizontal direction including the right optical image display unit 26 and the left optical image display unit 28 in the frame of the HMD 100. The Y axis corresponds to the front-rear direction of the frame, and the Z axis corresponds to the height direction of the frame.
The acceleration sensor of the nine-axis sensor 66 is a three-axis acceleration sensor that detects acceleration in the X-axis direction, the Y-axis direction, and the Z-axis direction described above. The nine-axis sensor 66 is a three-axis magnetic sensor that detects magnetic fields in the X-axis direction, the Y-axis direction, and the Z-axis direction described above.

HMD100の制御装置10は、コンテンツの供給元となる種々の外部機器OAを接続するインターフェイス114を備える。インターフェイス114としては、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスを用いることができる。外部機器OAは、HMD100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。   The control device 10 of the HMD 100 includes an interface 114 for connecting various external devices OA that are content supply sources. As the interface 114, for example, an interface corresponding to a wired connection such as a USB interface, a micro USB interface, or a memory card interface can be used. The external device OA is an image supply device that supplies an image to the HMD 100, and a personal computer (PC), a mobile phone terminal, a portable game machine, or the like is used.

制御装置10は、制御部140、入力情報取得部110、記憶部120、送信部(Tx)51及び送信部(Tx)52をさらに有する。
入力情報取得部110(入力部)は、操作部135に接続される。操作部135は、上記のトラックパッド14、キー操作部15等を含み、入力情報取得部110は、操作部135から入力される信号に基づき、入力内容を取得する。また、制御装置10は、電源部130を備え、制御装置10及び画像表示部20の各部に電源を供給する。
The control device 10 further includes a control unit 140, an input information acquisition unit 110, a storage unit 120, a transmission unit (Tx) 51, and a transmission unit (Tx) 52.
The input information acquisition unit 110 (input unit) is connected to the operation unit 135. The operation unit 135 includes the track pad 14, the key operation unit 15, and the like, and the input information acquisition unit 110 acquires input content based on a signal input from the operation unit 135. The control device 10 includes a power supply unit 130 and supplies power to each unit of the control device 10 and the image display unit 20.

記憶部120は、不揮発性の記憶装置であって、種々のコンピュータープログラム、および、これらのプログラムに係るデータを記憶する。また、記憶部120は、画像表示部20に表示する静止画像や動画像のデータを記憶しても良い。
記憶部120は、設定データ121を記憶する。設定データ121は、制御部140が実行する各種処理に関して予め設定される設定値を含む。
また、記憶部120は、コンテンツデータ122を記憶する。コンテンツデータ122は、画像表示部20において表示するコンテンツの画像(静止画像、或いは動画像)データ、及び/又は音声データを含む。
The storage unit 120 is a nonvolatile storage device, and stores various computer programs and data related to these programs. The storage unit 120 may store still image data or moving image data to be displayed on the image display unit 20.
The storage unit 120 stores setting data 121. The setting data 121 includes setting values set in advance for various processes executed by the control unit 140.
In addition, the storage unit 120 stores content data 122. The content data 122 includes image (still image or moving image) data and / or audio data of content displayed on the image display unit 20.

制御部140には、3軸センサー113、GPS115、及び通信部117が接続される。3軸センサー113は3軸の加速度センサーであり、制御部140は3軸センサー113の検出値を取得する。GPS115は、アンテナ(図示略)を備え、GPS(Global Positioning System)信号を受信し、制御装置10の現在位置を算出する。GPS115は、GPS信号に基づいて求めた現在位置を制御部140に出力する。また、GPS115はGPS信号に含まれる情報に基づいて現在時刻を取得し、制御部140が計時する時刻を修正させる機能を備えていてもよい。   A three-axis sensor 113, a GPS 115, and a communication unit 117 are connected to the control unit 140. The triaxial sensor 113 is a triaxial acceleration sensor, and the control unit 140 acquires the detection value of the triaxial sensor 113. The GPS 115 includes an antenna (not shown), receives a GPS (Global Positioning System) signal, and calculates the current position of the control device 10. The GPS 115 outputs the current position obtained based on the GPS signal to the control unit 140. The GPS 115 may have a function of acquiring the current time based on information included in the GPS signal and correcting the time counted by the control unit 140.

通信部117は、無線LAN(WiFi(登録商標))、Miracast(登録商標)、Bluetooth(登録商標)等の規格に準じた無線データ通信を実行する。
通信部117は、外部機器OAと通信してコンテンツデータを受信する場合に利用可能である。外部機器OAが、通信部117に無線接続された場合、制御部140は、コンテンツデータを通信部117より取得して、画像表示部20に画像を表示させる。一方、外部機器OAが、インターフェイス114に有線接続された場合、制御部140は、コンテンツデータをインターフェイス114より取得して、画像表示部20に画像を表示させる。通信部117及びインターフェイス114は、外部機器OAからコンテンツデータを取得するデータ取得部DAとして機能し、取得されたコンテンツデータは記憶部120にコンテンツデータ122として記憶される。
The communication unit 117 executes wireless data communication conforming to a standard such as a wireless LAN (WiFi (registered trademark)), Miracast (registered trademark), or Bluetooth (registered trademark).
The communication unit 117 can be used when receiving content data by communicating with the external device OA. When the external device OA is wirelessly connected to the communication unit 117, the control unit 140 acquires content data from the communication unit 117 and causes the image display unit 20 to display an image. On the other hand, when the external device OA is wired to the interface 114, the control unit 140 acquires content data from the interface 114 and causes the image display unit 20 to display an image. The communication unit 117 and the interface 114 function as a data acquisition unit DA that acquires content data from the external device OA, and the acquired content data is stored as content data 122 in the storage unit 120.

また、本実施形態では、通信部117は、プロジェクター300との間でデータ通信を実行する。通信部117はプロジェクター300と直接通信を行ってもよいし、無線LANアクセスポイント(図示略)を用いて構成されるネットワークを経由して、プロジェクター300と通信を行ってもよい。   In the present embodiment, the communication unit 117 performs data communication with the projector 300. The communication unit 117 may directly communicate with the projector 300, or may communicate with the projector 300 via a network configured using a wireless LAN access point (not shown).

制御部140は、プログラムを実行するCPU(図示略)、CPUが実行するプログラムやデータを一時的に格納するRAM(図示略)、及び、CPUが実行する基本制御プログラムやデータを不揮発的に記憶するROM(図示略)を有する。制御部140は、CPUにより制御プログラムを実行することで、HMD100の各部を制御する。また、制御部140は、記憶部120が記憶するコンピュータープログラムを読み出して実行し、制御部140の各種機能を実現する。すなわち、オペレーティングシステム(OS)150、画像処理部160、表示制御部170、通信制御部181、操作検出部182、コンテンツ出力制御部183、キャリブレーション制御部184、及び、音声処理部187として機能する。   The control unit 140 stores a CPU (not shown) for executing a program, a RAM (not shown) for temporarily storing a program and data executed by the CPU, and a basic control program and data executed by the CPU in a nonvolatile manner. ROM (not shown). The control unit 140 controls each unit of the HMD 100 by executing a control program by the CPU. In addition, the control unit 140 reads out and executes the computer program stored in the storage unit 120 and realizes various functions of the control unit 140. That is, it functions as an operating system (OS) 150, an image processing unit 160, a display control unit 170, a communication control unit 181, an operation detection unit 182, a content output control unit 183, a calibration control unit 184, and an audio processing unit 187. .

画像処理部160は、コンテンツに含まれる画像信号を取得する。画像処理部160は、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離する。また、画像処理部160は、分離した垂直同期信号VSyncや水平同期信号HSyncの周期に応じて、PLL(Phase Locked Loop)回路等(図示略)を利用してクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等(図示略)を用いてディジタル画像信号に変換する。画像処理部160は、変換後のディジタル画像信号を、対象画像の画像データ(図中、Data)として、1フレームごとに、制御部140のRAMに格納する。この画像データは、例えばRGBデータである。
なお、画像処理部160は、必要に応じて、画像データの解像度を右表示駆動部22及び左表示駆動部24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部160は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。
The image processing unit 160 acquires an image signal included in the content. The image processing unit 160 separates synchronization signals such as the vertical synchronization signal VSync and the horizontal synchronization signal HSync from the acquired image signal. Further, the image processing unit 160 generates a clock signal PCLK using a PLL (Phase Locked Loop) circuit or the like (not shown) according to the period of the separated vertical synchronization signal VSync and horizontal synchronization signal HSync. The image processing unit 160 converts the analog image signal from which the synchronization signal is separated into a digital image signal using an A / D conversion circuit or the like (not shown). The image processing unit 160 stores the converted digital image signal in the RAM of the control unit 140 for each frame as image data of the target image (Data in the figure). This image data is, for example, RGB data.
Note that the image processing unit 160 may perform a resolution conversion process for converting the resolution of the image data into a resolution suitable for the right display driving unit 22 and the left display driving unit 24 as necessary. The image processing unit 160 also performs image adjustment processing for adjusting the brightness and saturation of image data, 2D image data is created from 3D image data, or 2D / 3D conversion processing is performed to generate 3D image data from 2D image data. May be executed.

画像処理部160は、クロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、RAMに格納された画像データDataのそれぞれを送信部51、52を介して画像表示部20に送信する。送信部51、52は、トランシーバーとして機能し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。なお、送信部51を介して送信される画像データDataを「右眼用画像データ」と呼び、送信部52を介して送信される画像データDataを「左眼用画像データ」と呼ぶ。   The image processing unit 160 transmits the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the image data Data stored in the RAM to the image display unit 20 via the transmission units 51 and 52, respectively. The transmission units 51 and 52 function as a transceiver and execute serial transmission between the control device 10 and the image display unit 20. The image data Data transmitted via the transmission unit 51 is referred to as “right eye image data”, and the image data Data transmitted via the transmission unit 52 is referred to as “left eye image data”.

表示制御部170は、右表示駆動部22及び左表示駆動部24を制御する制御信号を生成し、この制御信号により、右表示駆動部22及び左表示駆動部24のそれぞれによる画像光の生成及び射出を制御する。具体的には、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFFを制御する。また、表示制御部170は、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFを制御する。   The display control unit 170 generates a control signal for controlling the right display drive unit 22 and the left display drive unit 24, and generates and generates image light by each of the right display drive unit 22 and the left display drive unit 24 based on the control signal. Control injection. Specifically, the right LCD 241 is controlled to be turned on / off by the right LCD control unit 211, and the right backlight 221 is turned on / off by the right backlight control unit 201. In addition, the display control unit 170 controls the driving of the left LCD 242 by the left LCD control unit 212 and the driving of the left backlight 222 by the left backlight control unit 202.

通信制御部181は、通信部117による通信を制御し、外部機器OAとの間の通信の確立、及び、外部機器OAからコンテンツデータの受信を実行する。また、通信制御部181は、通信部117を制御して、プロジェクター300との間の通信の確立、及び、プロジェクター300との間の制御データの通信を実行する。
操作検出部182は、入力情報取得部110を制御して、操作部135が検出する操作の操作データを取得し、操作内容を判定する。
The communication control unit 181 controls communication by the communication unit 117, and establishes communication with the external device OA and receives content data from the external device OA. In addition, the communication control unit 181 controls the communication unit 117 to establish communication with the projector 300 and communicate control data with the projector 300.
The operation detection unit 182 controls the input information acquisition unit 110 to acquire operation data of the operation detected by the operation unit 135 and determine the operation content.

コンテンツ出力制御部183は、記憶部120が記憶するコンテンツデータ122を読み出し、画像処理部160及び表示制御部170を制御して、コンテンツデータ122に含まれる画像データに基づく画像を画像表示部20により表示させる。また、コンテンツ出力制御部183は、コンテンツデータ122が音声データを含む場合、音声処理部187を制御して、右イヤホン32、左イヤホン34からコンテンツの音声を出力させる。   The content output control unit 183 reads the content data 122 stored in the storage unit 120, controls the image processing unit 160 and the display control unit 170, and causes the image display unit 20 to display an image based on the image data included in the content data 122. Display. Further, when the content data 122 includes audio data, the content output control unit 183 controls the audio processing unit 187 to output the audio of the content from the right earphone 32 and the left earphone 34.

例えば、コンテンツ出力制御部183は、使用者が画像表示部20越しに対象物を見ている状態でARコンテンツを表示する。コンテンツ出力制御部183は、対象物に対応する位置に画像や文字等を表示するAR表示を行うことで、対象物に関する情報を提供し、或いは、画像表示部20越しに見える対象物の姿の見え方を変える。ARコンテンツは、対象物に対応する位置に表示される画像や文字のデータを含む。また、ARコンテンツに、対象物を特定するデータ、及び、画像や文字の表示位置に関するデータ等を含んでもよい。ARコンテンツの表示位置は対象物に重なる位置であっても対象物の周囲であってもよい。対象物は物体であればよく、建物等の不動産であってもよいし、自動車や電車などの移動体であってもよく、人間や動物などの生物であってもよいが、本実施形態では、プロジェクター300が投写する投射画像Pを対象物とする。すなわち、コンテンツ出力制御部183が画像表示部20で表示する画像の表示位置は、使用者が画像表示部20越しに視認する投射画像Pの位置に適合する位置となる。これにより、表示システム1は、プロジェクター300が投写する投射画像Pと連動する画像をHMD100により表示する。   For example, the content output control unit 183 displays the AR content while the user is looking at the object through the image display unit 20. The content output control unit 183 provides information about the object by performing AR display that displays an image, a character, or the like at a position corresponding to the object, or the shape of the object seen through the image display unit 20 Change how it looks. The AR content includes image and character data displayed at a position corresponding to the object. In addition, the AR content may include data for specifying an object and data regarding the display position of an image or a character. The display position of the AR content may be a position overlapping the target object or may be around the target object. The target object may be an object, may be a real estate such as a building, may be a moving body such as an automobile or a train, and may be a living body such as a human being or an animal. The projection image P projected by the projector 300 is the target. That is, the display position of the image displayed on the image display unit 20 by the content output control unit 183 is a position that matches the position of the projection image P that the user visually recognizes through the image display unit 20. As a result, the display system 1 displays an image linked with the projection image P projected by the projector 300 on the HMD 100.

本実施形態では、一例として、画像表示部20を装着する使用者の頭部の位置及び頭部の向きに合わせて、プロジェクター300が投射画像Pの投写位置や投写画像の内容を制御する。
この制御を行うため、HMD100では、HMD100とプロジェクター300とが協働して、キャリブレーションを実行する。HMD100では、キャリブレーション制御部184が、プロジェクター300と協働するキャリブレーションにおけるHMD100の動作を制御する。
In the present embodiment, as an example, the projector 300 controls the projection position of the projection image P and the content of the projection image in accordance with the position and orientation of the head of the user wearing the image display unit 20.
In order to perform this control, in the HMD 100, the HMD 100 and the projector 300 cooperate to execute calibration. In the HMD 100, the calibration control unit 184 controls the operation of the HMD 100 in calibration that cooperates with the projector 300.

音声処理部187は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、右イヤホン32および左イヤホン34に出力する。また、音声処理部187は、マイク63により集音される音声を取得してディジタル音声データに変換する。音声処理部187は、ディジタル音声データに対して予め設定された処理を行ってもよい。   The audio processing unit 187 acquires an audio signal included in the content, amplifies the acquired audio signal, and outputs the amplified audio signal to the right earphone 32 and the left earphone 34. In addition, the sound processing unit 187 acquires sound collected by the microphone 63 and converts it into digital sound data. The voice processing unit 187 may perform a preset process on the digital voice data.

9軸センサー66は、上述したように、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出する慣性センサー(動きセンサー)である。制御部140は、画像表示部20が使用者の頭部に装着されているとき、9軸センサー66の検出値に基づいて使用者の頭部の動きを検出する。また、制御部140は、通信制御部181により、9軸センサー66の検出値を示すデータ、または、9軸センサー66の検出値から生成される、画像表示部20の動きに関するデータを、プロジェクター300に送信する。   As described above, the nine-axis sensor 66 is an inertial sensor (motion sensor) that detects acceleration (three axes), angular velocity (three axes), and geomagnetism (three axes). When the image display unit 20 is mounted on the user's head, the control unit 140 detects the movement of the user's head based on the detection value of the 9-axis sensor 66. In addition, the control unit 140 uses the communication control unit 181 to generate data indicating the detection value of the 9-axis sensor 66 or data regarding the movement of the image display unit 20 generated from the detection value of the 9-axis sensor 66. Send to.

画像表示部20は、インターフェイス25を備える。インターフェイス25は、接続コード48が接続されるコネクターを備え、接続コード48を介して制御装置10と接続される。インターフェイス25は、送信部51、52から送信されるクロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、画像データDataを、対応する受信部(Rx)53、54に出力する。また、インターフェイス25は、表示制御部170から送信される制御信号を、対応する受信部53、54、右バックライト制御部201又は左バックライト制御部202に出力する。
また、インターフェイス25は、カメラ61及び9軸センサー66を接続するインターフェイスである。インターフェイス25は、9軸センサー66による加速度(3軸)、角速度(3軸)、地磁気(3軸)の検出値に係るデータ、カメラ61の撮像画像データ、カメラ61及び9軸センサー66を制御する制御データを、制御部140に対し送受信する。
The image display unit 20 includes an interface 25. The interface 25 includes a connector to which the connection cord 48 is connected, and is connected to the control device 10 via the connection cord 48. The interface 25 outputs the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the image data Data transmitted from the transmission units 51 and 52 to the corresponding reception units (Rx) 53 and 54. Further, the interface 25 outputs a control signal transmitted from the display control unit 170 to the corresponding reception units 53 and 54, the right backlight control unit 201, or the left backlight control unit 202.
The interface 25 is an interface for connecting the camera 61 and the 9-axis sensor 66. The interface 25 controls data relating to detection values of acceleration (three axes), angular velocity (three axes), and geomagnetism (three axes) by the nine-axis sensor 66, captured image data of the camera 61, the camera 61, and the nine-axis sensor 66. Control data is transmitted to and received from the control unit 140.

受信部53は、送信部51に対応するレシーバーとして動作し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データDataと、に基づいて、右LCD241を駆動する。   The reception unit 53 operates as a receiver corresponding to the transmission unit 51 and executes serial transmission between the control device 10 and the image display unit 20. The right backlight control unit 201 drives the right backlight 221 based on the input control signal. The right LCD control unit 211 drives the right LCD 241 based on the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the right eye image data Data input via the reception unit 53. .

受信部54は、送信部52に対応するレシーバーとして動作し、制御装置10と画像表示部20との間におけるシリアル伝送を実行する。左バックライト制御部202は、入力された制御信号に基づいて、左バックライト222を駆動する。左LCD制御部212は、受信部54を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、左眼用画像データDataと、に基づいて、左LCD242を駆動する。
なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して、右の「画像光生成部」とも呼ぶ。同様に、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242とを総称して、左の「画像光生成部」とも呼ぶ。
The reception unit 54 operates as a receiver corresponding to the transmission unit 52 and executes serial transmission between the control device 10 and the image display unit 20. The left backlight control unit 202 drives the left backlight 222 based on the input control signal. The left LCD control unit 212 drives the left LCD 242 based on the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the left-eye image data Data input via the reception unit 54. .
The right backlight control unit 201, the right LCD control unit 211, the right backlight 221 and the right LCD 241 are collectively referred to as a right “image light generation unit”. Similarly, the left backlight control unit 202, the left LCD control unit 212, the left backlight 222, and the left LCD 242 are collectively referred to as a left “image light generation unit”.

図3は、プロジェクター300の構成を示す機能ブロック図である。
プロジェクター300は、画像データを出力する画像供給装置2を接続するインターフェイス(I/F)部311を備える。I/F部311には複数の画像供給装置2を接続することもできる。
FIG. 3 is a functional block diagram illustrating the configuration of the projector 300.
The projector 300 includes an interface (I / F) unit 311 that connects the image supply device 2 that outputs image data. A plurality of image supply apparatuses 2 can also be connected to the I / F unit 311.

画像供給装置2は、例えば、DVDプレーヤー等の画像再生装置、デジタルテレビチューナー等の放送受信装置、ビデオゲーム機やパーソナルコンピューター等の画像出力装置が挙げられる。画像供給装置2は、パーソナルコンピューター等と通信して画像データを受信する通信装置等であってもよい。また、画像供給装置2は、ディジタル画像データを出力する装置に限定されず、アナログ画像信号を出力する装置であってもよい。この場合、画像供給装置2の出力側またはプロジェクター300のI/F部311に、アナログ画像信号からディジタル画像データを生成するアナログ/ディジタル変換装置を設ければよい。また、I/F部311が備えるコネクター及びインターフェイス回路の具体的な仕様や数は任意である。   Examples of the image supply device 2 include an image reproducing device such as a DVD player, a broadcast receiving device such as a digital TV tuner, and an image output device such as a video game machine and a personal computer. The image supply device 2 may be a communication device that communicates with a personal computer or the like and receives image data. The image supply device 2 is not limited to a device that outputs digital image data, and may be a device that outputs an analog image signal. In this case, an analog / digital conversion device that generates digital image data from an analog image signal may be provided on the output side of the image supply device 2 or the I / F unit 311 of the projector 300. The specific specifications and number of connectors and interface circuits included in the I / F unit 311 are arbitrary.

画像供給装置2は、I/F部311が対応可能なデータフォーマットでディジタル画像データを出力する。画像供給装置2からプロジェクター300に入力されるデータは、I/F部311が対応可能なデータフォーマットであれば、データの内容が静止画像であっても動画像(映像)であってもよい。以下の説明では、プロジェクター300に画像供給装置2から入力されるデータを、画像データと呼ぶ。   The image supply device 2 outputs digital image data in a data format that can be supported by the I / F unit 311. The data input from the image supply device 2 to the projector 300 may be a still image or a moving image (video) as long as the data format is compatible with the I / F unit 311. In the following description, data input from the image supply device 2 to the projector 300 is referred to as image data.

プロジェクター300は、プロジェクター300の各部を制御する制御部320と、I/F部311に入力される画像データに基づく画像をスクリーンSCに表示(投射)する投写部330と、を備える。また、I/F部311には、画像データを処理して表示用の画像信号を投写部330に出力する画像処理部312(画像処理装置)が接続される。   The projector 300 includes a control unit 320 that controls each unit of the projector 300 and a projection unit 330 that displays (projects) an image based on image data input to the I / F unit 311 on the screen SC. The I / F unit 311 is connected to an image processing unit 312 (image processing apparatus) that processes image data and outputs a display image signal to the projection unit 330.

投写部330は、光源331、変調部332、及び投写光学系333を備える。また、光源331には光源制御部314が接続され、変調部332には表示駆動部313が接続される。
光源331は、キセノンランプ、超高圧水銀ランプ等のランプ類、或いは、LEDやレーザー光源等の固体光源で構成される。光源331は、光源制御部314から供給される電力により点灯し、変調部332に向けて光を発する。光源制御部314は、制御部320の制御に従って、光源331の発光輝度を調整できる。
The projection unit 330 includes a light source 331, a modulation unit 332, and a projection optical system 333. In addition, a light source control unit 314 is connected to the light source 331, and a display driving unit 313 is connected to the modulation unit 332.
The light source 331 includes lamps such as a xenon lamp and an ultrahigh pressure mercury lamp, or a solid light source such as an LED and a laser light source. The light source 331 is turned on by the electric power supplied from the light source control unit 314 and emits light toward the modulation unit 332. The light source control unit 314 can adjust the light emission luminance of the light source 331 under the control of the control unit 320.

変調部332は、光源331が発する光を変調して画像光を生成し、画像光を投写光学系333に照射する。本実施形態では、変調部332が、赤色(R)、緑色(G)、及び、青色(B)の各色に対応する3つの液晶ライトバルブを備え、光源331が発した光を液晶ライトバルブに透過させる構成を例示する。
変調部332の3つの液晶ライトバルブには表示駆動部313が接続される。表示駆動部313は、画像処理部312が出力する画像信号に基づき、液晶ライトバルブの各画素を駆動して、液晶ライトバルブにフレーム(画面)単位で画像を描画する。
The modulation unit 332 modulates the light emitted from the light source 331 to generate image light, and irradiates the projection optical system 333 with the image light. In the present embodiment, the modulation unit 332 includes three liquid crystal light valves corresponding to red (R), green (G), and blue (B) colors, and the light emitted from the light source 331 is used as the liquid crystal light valve. The structure which permeate | transmits is illustrated.
A display driving unit 313 is connected to the three liquid crystal light valves of the modulation unit 332. The display driving unit 313 drives each pixel of the liquid crystal light valve based on the image signal output from the image processing unit 312 and draws an image on the liquid crystal light valve in units of frames (screens).

光源331と変調部332との間の光路または変調部332には、リフレクター、レンズ群(図示略)、偏光板、調光素子等を設けてもよい。また、変調部332は、反射型の液晶パネルを用いた構成とすることができる。この場合、変調部332は、光源331が発する光を液晶パネルに反射させ、反射光を投写光学系333に導く。また、変調部332を、デジタルミラーデバイス(DMD)を用いた構成とすることもでき、1枚のDMDとカラーホイールを備えた構成としてもよい。   The optical path between the light source 331 and the modulation unit 332 or the modulation unit 332 may be provided with a reflector, a lens group (not shown), a polarizing plate, a light control element, and the like. In addition, the modulation unit 332 can have a configuration using a reflective liquid crystal panel. In this case, the modulation unit 332 reflects the light emitted from the light source 331 to the liquid crystal panel and guides the reflected light to the projection optical system 333. Further, the modulation unit 332 may be configured to use a digital mirror device (DMD), and may be configured to include one DMD and a color wheel.

投写光学系333は、変調部332により変調された画像光をスクリーンSCに向けて導き、スクリーンSC上で画像を結像させる。投写光学系333は、例えば、3つの液晶ライトバルブを通った光を合成するプリズム、画像光を導くレンズ群やミラー等の光学素子を有する構成としてもよい。さらに、投写光学系333は、スクリーンSCの画像を拡大・縮小するズームレンズ、焦点調整をするフォーカスレンズ、ズームの度合いを調整するズーム調整用モーター、フォーカスの調整を行うフォーカス調整用モーター等を備えてもよい。   The projection optical system 333 guides the image light modulated by the modulation unit 332 toward the screen SC, and forms an image on the screen SC. The projection optical system 333 may be configured to include, for example, optical elements such as a prism that synthesizes light that has passed through three liquid crystal light valves, a lens group that guides image light, and a mirror. Further, the projection optical system 333 includes a zoom lens for enlarging / reducing the image on the screen SC, a focus lens for adjusting the focus, a zoom adjusting motor for adjusting the degree of zoom, a focus adjusting motor for adjusting the focus, and the like. May be.

画像処理部312は、制御部320の制御に従って、I/F部311に入力される画像データに対し、色調補正等の処理を実行する。画像処理部312が処理した画像データは、フレーム毎に画像信号に変換され、表示駆動部313に入力される。また、画像処理部312は、記憶部325に記憶された画像データを表示することもできる。この場合、制御部320から画像処理部312に対し、記憶部325に記憶された画像データが入力され、画像処理部312は画像データに対する処理を行って、画像信号を表示駆動部313に出力する。   The image processing unit 312 performs processing such as color tone correction on the image data input to the I / F unit 311 under the control of the control unit 320. The image data processed by the image processing unit 312 is converted into an image signal for each frame and input to the display driving unit 313. The image processing unit 312 can also display the image data stored in the storage unit 325. In this case, the image data stored in the storage unit 325 is input from the control unit 320 to the image processing unit 312, and the image processing unit 312 performs processing on the image data and outputs an image signal to the display driving unit 313. .

また、プロジェクター300は通信部318を備える。通信部318は、無線LAN(WiFi)、Bluetooth等の規格に準じた無線データ通信を実行する。通信部318は、制御部320の制御に従って、HMD100との間で制御データを送受信する。
通信部318は、HMD100と直接通信を行ってもよいし、無線LANアクセスポイント(図示略)を用いて構成されるネットワークを経由して、HMD100と通信を行ってもよい。
The projector 300 includes a communication unit 318. The communication unit 318 performs wireless data communication conforming to standards such as wireless LAN (WiFi) and Bluetooth. The communication unit 318 transmits / receives control data to / from the HMD 100 according to the control of the control unit 320.
The communication unit 318 may directly communicate with the HMD 100 or may communicate with the HMD 100 via a network configured using a wireless LAN access point (not shown).

制御部320は、プロジェクター300の各部を制御するプロセッサーを備えて構成され、例えば、図示しないCPU、ROM、及びRAMを備え、ROMが記憶するプログラムをCPUが実行することにより、プロジェクター300の各部を制御する。   The control unit 320 includes a processor that controls each unit of the projector 300. For example, the control unit 320 includes a CPU, a ROM, and a RAM (not shown), and the CPU executes a program stored in the ROM, thereby allowing each unit of the projector 300 to be executed. Control.

制御部320は、上記プログラムを実行することにより、投写制御部321、及び、キャリブレーション制御部322として機能する。
投写制御部321は、画像処理部312が実行する処理の実行タイミング、実行条件等を制御する。また、投写制御部321は、投写部330の光源制御部314を制御して、光源331の輝度の調整等を行う。
The control unit 320 functions as a projection control unit 321 and a calibration control unit 322 by executing the program.
The projection control unit 321 controls execution timing, execution conditions, and the like of processing executed by the image processing unit 312. Further, the projection control unit 321 controls the light source control unit 314 of the projection unit 330 to adjust the luminance of the light source 331 and the like.

キャリブレーション制御部322は、HMD100が表示する画像とプロジェクター300が投射する投射画像Pとの位置を整合させるためのキャリブレーション処理を実行する。キャリブレーション制御部322は、キャリブレーション用の画像を投写部330によりスクリーンSCに投射させ、HMD100から送信される画像表示部20の動きに関するデータを、通信部318を介して受信する。キャリブレーション制御部322は、HMD100から受信するデータに基づき、投射画像Pと画像表示部20の動きとを対応づけるデータを生成して、記憶部325に、キャリブレーションデータ327として記憶させる。   The calibration control unit 322 executes a calibration process for aligning the position of the image displayed by the HMD 100 and the projection image P projected by the projector 300. The calibration control unit 322 causes the projection unit 330 to project a calibration image onto the screen SC, and receives data related to the movement of the image display unit 20 transmitted from the HMD 100 via the communication unit 318. The calibration control unit 322 generates data that associates the projection image P with the movement of the image display unit 20 based on the data received from the HMD 100 and stores the data in the storage unit 325 as calibration data 327.

制御部320は、ユーザーの入力操作を受け付ける入力部315に接続される。入力部315は、スイッチを備えた操作パネル316に接続され、操作パネル316における操作を検出する。また、入力部315は、リモコン317が送信する赤外線信号を受信する赤外線受光部として構成され、リモコン317における操作を検出する。入力部315は、操作パネル316及びリモコン317における操作を示す操作データを制御部320に出力する。   The control unit 320 is connected to an input unit 315 that receives user input operations. The input unit 315 is connected to an operation panel 316 provided with a switch, and detects an operation on the operation panel 316. The input unit 315 is configured as an infrared light receiving unit that receives an infrared signal transmitted from the remote controller 317 and detects an operation on the remote controller 317. Input unit 315 outputs operation data indicating operations on operation panel 316 and remote controller 317 to control unit 320.

制御部320には記憶部325が接続される。記憶部325は、制御部320のCPUが実行するプログラムやデータを不揮発的に記憶する記憶装置である。記憶部325は、制御部320がプロジェクター300を制御するための制御プログラム、制御プログラムで処理される各種設定データ等を記憶する。また、記憶部325は、キャリブレーション処理で投写部330が投射する画像のキャリブレーション用画像データ326、及び、キャリブレーション処理で生成されるキャリブレーションデータ327を記憶する。   A storage unit 325 is connected to the control unit 320. The storage unit 325 is a storage device that stores programs and data executed by the CPU of the control unit 320 in a nonvolatile manner. The storage unit 325 stores a control program for the control unit 320 to control the projector 300, various setting data processed by the control program, and the like. Further, the storage unit 325 stores calibration image data 326 of an image projected by the projection unit 330 in the calibration process, and calibration data 327 generated in the calibration process.

続いて、表示システム1の動作を説明する。
図4は表示システム1の動作を示すフローチャートであり、特に、キャリブレーション処理を示す。図4(A)はプロジェクター300の動作を示し、図4(B)はHMD100の動作を示す。この図4の動作で、キャリブレーション制御部322は、入力検出部、動き量取得部、および処理部として機能する。
Next, the operation of the display system 1 will be described.
FIG. 4 is a flowchart showing the operation of the display system 1, and particularly shows the calibration process. 4A shows the operation of the projector 300, and FIG. 4B shows the operation of the HMD 100. In the operation of FIG. 4, the calibration control unit 322 functions as an input detection unit, a motion amount acquisition unit, and a processing unit.

また、図5及び図6はキャリブレーション処理において表示システム1で表示される画像の例を示す。図5(A)及び(E)はプロジェクター300がスクリーンSCに投射する投射画像Pの例を示し、図5(B)及び(C)はHMD100の表示状態を示す。図5(D)はHMD100を装着した使用者の視野Vを示す。図6(A)〜(C)は使用者の視野Vを示し、使用者が画像表示部20を透過して見る投射画像Pを合わせて図示する。   5 and 6 show examples of images displayed on the display system 1 in the calibration process. 5A and 5E show examples of the projection image P projected by the projector 300 onto the screen SC, and FIGS. 5B and 5C show the display state of the HMD 100. FIG. FIG. 5D shows the visual field V of the user wearing the HMD 100. 6A to 6C show the visual field V of the user, and the projection image P that the user sees through the image display unit 20 is shown together.

表示システム1では、HMD100の入力情報取得部110、または、プロジェクター300の入力部315によりキャリブレーションの開始の指示を検出すると、この指示に関する制御データをHMD100とプロジェクター300が送受信する。プロジェクター300のキャリブレーション制御部322は、キャリブレーション処理を開始する(ステップS11)。キャリブレーション制御部322は、記憶部325からキャリブレーション用画像データ326を読み出して、投写部330によりキャリブレーション用の画像を表示させる(ステップS12)。このキャリブレーション用の画像は、位置合わせを行うための図形や文字で構成される画像であり、ここでは位置合わせガイドと呼ぶ。位置合わせガイドを表示した状態で、キャリブレーション制御部322は、HMD100が送信する入力情報を受信するまで、待機する(ステップS13;NO)。   In the display system 1, when an instruction to start calibration is detected by the input information acquisition unit 110 of the HMD 100 or the input unit 315 of the projector 300, the HMD 100 and the projector 300 transmit and receive control data related to this instruction. The calibration control unit 322 of the projector 300 starts calibration processing (step S11). The calibration control unit 322 reads out the calibration image data 326 from the storage unit 325, and causes the projection unit 330 to display a calibration image (step S12). This calibration image is an image composed of figures and characters for alignment, and is called an alignment guide here. In a state where the alignment guide is displayed, the calibration control unit 322 waits until input information transmitted by the HMD 100 is received (step S13; NO).

ステップS12で位置合わせガイドをスクリーンSCに表示した状態を図5(A)に示す。図5(A)では投射画像Pの中央に、十字型の位置合わせガイドMPが位置し、投射画像Pの四隅に位置合わせガイドM1〜M4がそれぞれ位置する。キャリブレーション用画像データ326は、例えば、位置合わせガイドMP、M1〜M4を含む投射画像P全体の画像データであってよい。位置合わせガイドMP、M1〜M4は、表示面マーカーに相当する。   FIG. 5A shows a state where the alignment guide is displayed on the screen SC in step S12. 5A, the cross-shaped alignment guide MP is positioned at the center of the projection image P, and the alignment guides M1 to M4 are positioned at the four corners of the projection image P, respectively. The calibration image data 326 may be image data of the entire projection image P including the alignment guides MP and M1 to M4, for example. The alignment guides MP and M1 to M4 correspond to display surface markers.

また、図5(B)にはキャリブレーション処理の開始時におけるHMD100の状態を示す。図5(B)には、画像表示部20において使用者の目を向く面を示し、右側に右光学像表示部26が、左側に左光学像表示部28が位置する。
HMD100のキャリブレーション制御部184は、キャリブレーション処理を開始し(ステップS31)、記憶部120からキャリブレーション用 画像データ123を読み出し、キャリブレーション用の画像を画像表示部20に表示させる(ステップS32)。このキャリブレーション用の画像は、位置合わせを行うための図形や文字で構成される画像であり、ここではガイドと呼ぶ。
図5(C)には画像表示部20によりガイドMR、MLを表示した例を示す。右眼に対応する右光学像表示部26には右眼用のガイドMRが表示され、左眼に対応する左光学像表示部28には左眼用のガイドMLが表示される。右光学像表示部26におけるガイドMRの表示位置と左光学像表示部28におけるガイドMLの表示位置は、予め対応付けられ、使用者に一つのガイドの像が見えるようになっている。
FIG. 5B shows the state of the HMD 100 at the start of the calibration process. FIG. 5B shows a surface of the image display unit 20 facing the user's eyes. The right optical image display unit 26 is positioned on the right side, and the left optical image display unit 28 is positioned on the left side.
The calibration control unit 184 of the HMD 100 starts the calibration process (step S31), reads the calibration image data 123 from the storage unit 120, and causes the image display unit 20 to display the calibration image (step S32). . This calibration image is an image composed of figures and characters for alignment, and is called a guide here.
FIG. 5C shows an example in which guides MR and ML are displayed by the image display unit 20. The right optical image display unit 26 corresponding to the right eye displays a right eye guide MR, and the left optical image display unit 28 corresponding to the left eye displays a left eye guide ML. The display position of the guide MR in the right optical image display unit 26 and the display position of the guide ML in the left optical image display unit 28 are associated with each other in advance, so that an image of one guide can be seen by the user.

図5(D)には、図5(C)に示すガイドMR,MLを使用者が視認する場合の使用者の視野Vを示す。図5(D)に示すように、使用者には、ガイドMR、MLが一つのガイドMの像をなすように見える。すなわち、ガイドMR、MLの表示位置は、画像表示部20及び使用者の特性に合わせて調整される。この特性とは、例えば、輻輳角、右光学像表示部26と左光学像表示部28の表示領域であるハーフミラーのサイズ、使用者の眼とハーフミラーとの距離、使用者の瞳孔間距離等である。ガイドML、MR、及びこれらが視認された形態のガイドMは、使用者側マーカーに相当する。   FIG. 5D shows the user's visual field V when the user visually recognizes the guides MR and ML shown in FIG. As shown in FIG. 5D, it appears to the user that the guides MR and ML form one guide M image. That is, the display positions of the guides MR and ML are adjusted according to the characteristics of the image display unit 20 and the user. The characteristics include, for example, the convergence angle, the size of the half mirror that is the display area of the right optical image display unit 26 and the left optical image display unit 28, the distance between the user's eyes and the half mirror, and the distance between the pupils of the user. Etc. The guides ML and MR, and the guide M in the form in which these are visually recognized, correspond to the user side marker.

画像表示部20を装着した使用者は、ガイドMが視認できた場合に、制御装置10において入力操作を行う。この入力操作は、ガイドMを確認したことを意味する操作であり、単純な操作であってよい。例えば、制御装置10が備えるいずれかのキーを押下する操作や、トラックパッド14に接触する操作とすることができる。この操作は、画像表示部20の位置に基づくキャリブレーションの実行開始を指示するトリガーとなる。   A user wearing the image display unit 20 performs an input operation on the control device 10 when the guide M is visible. This input operation is an operation meaning that the guide M has been confirmed, and may be a simple operation. For example, an operation of pressing any key provided in the control device 10 or an operation of touching the track pad 14 can be performed. This operation serves as a trigger for instructing the start of calibration based on the position of the image display unit 20.

HMD100のキャリブレーション制御部184は、ステップS32でガイドMR,MLを表示した後、入力情報取得部110が入力操作を検出するまで待機する(ステップS33;NO)。そして、上記の使用者の入力操作を検出すると(ステップS33;YES)、キャリブレーション制御部184は、画像表示部20が備える9軸センサー66の検出値を取得する。さらに、キャリブレーション制御部184は、9軸センサー66の検出値に関するデータ(動きデータ)を含む入力情報を生成してプロジェクター300に送信する(ステップS34)。動きデータは9軸センサー66の検出値に関するデータであり、少なくとも加速度センサーの検出値に関するデータを含む。この場合、プロジェクター300は、ステップS34で送信される入力情報に含まれる動きデータに基づき、画像表示部20の姿勢に関する情報を得ることができる。キャリブレーション制御部184は、ステップS34で入力情報を送信した後に、入力操作があるまで待機する(ステップS35;NO)。   The calibration control unit 184 of the HMD 100 waits until the input information acquisition unit 110 detects an input operation after displaying the guide MR and ML in step S32 (step S33; NO). When the input operation of the user is detected (step S33; YES), the calibration control unit 184 acquires the detection value of the 9-axis sensor 66 included in the image display unit 20. Furthermore, the calibration control unit 184 generates input information including data (motion data) related to the detection value of the 9-axis sensor 66 and transmits it to the projector 300 (step S34). The motion data is data relating to the detection value of the 9-axis sensor 66, and includes at least data relating to the detection value of the acceleration sensor. In this case, the projector 300 can obtain information regarding the attitude of the image display unit 20 based on the motion data included in the input information transmitted in step S34. After transmitting the input information in step S34, the calibration control unit 184 waits until an input operation is performed (step S35; NO).

プロジェクター300のキャリブレーション制御部322は、HMD100が送信する入力情報を受信すると(ステップS13;YES)、入力情報に含まれる動きデータを取得し、記憶部325に一時的に記憶する(ステップS14)。   When the calibration control unit 322 of the projector 300 receives the input information transmitted by the HMD 100 (step S13; YES), the calibration control unit 322 acquires motion data included in the input information and temporarily stores it in the storage unit 325 (step S14). .

続いて、キャリブレーション制御部322は、スクリーンSCに表示された位置合わせガイドMP、M1〜M4のうち、位置合わせの対象となる位置合わせガイドの色を変更する。本実施形態では、最初に投射画像Pの中央の位置合わせガイドMPに位置合わせをし、その後、位置合わせガイドM1〜M4のうち少なくとも1以上の位置合わせをするよう設定される。最初にステップS15を実行する場合、キャリブレーション制御部322は、位置合わせガイドMPの表示色を変更する。これにより、使用者には、図5(E)に示すように、中央の位置合わせガイドMPの表示状態が変化して見えるので、位置合わせガイドMPを見るように使用者を誘導できる。
位置合わせガイドの表示状態(ここでは表示色)を変更した後、キャリブレーション制御部322は、HMD100が送信する入力情報を受信するまで待機する(ステップS16;NO)。
Subsequently, the calibration control unit 322 changes the color of the alignment guide to be aligned among the alignment guides MP and M1 to M4 displayed on the screen SC. In the present embodiment, it is set so that the alignment is first performed on the alignment guide MP at the center of the projection image P, and then at least one of the alignment guides M1 to M4 is aligned. When step S15 is executed first, the calibration control unit 322 changes the display color of the alignment guide MP. As a result, as shown in FIG. 5E, the display state of the center alignment guide MP appears to the user to change, so that the user can be guided to view the alignment guide MP.
After changing the display state of the alignment guide (here, the display color), the calibration control unit 322 waits until receiving input information transmitted by the HMD 100 (step S16; NO).

使用者は、スクリーンSC上の投射画像Pにおいて位置合わせガイドMPの表示色が変化したことを認識して、画像表示部20が表示するガイドMが位置合わせガイドMPに重なるように、頭部を動かす。そして、図6(A)に示すように、視野VにおけるガイドMが投射画像Pの位置合わせガイドMPに重なって見える状態で、制御装置10の入力操作を行う。この操作は、位置を合わせたことを指示する操作であり、ガイドMが視認されたときの操作と同様、単純な操作であってよい。例えば、制御装置10が備えるいずれかのキーを押下する操作や、トラックパッド14に接触する操作とすることができる。   The user recognizes that the display color of the alignment guide MP has changed in the projected image P on the screen SC, and places his head so that the guide M displayed by the image display unit 20 overlaps the alignment guide MP. move. Then, as illustrated in FIG. 6A, the input operation of the control device 10 is performed in a state where the guide M in the visual field V appears to overlap the alignment guide MP of the projection image P. This operation is an operation for instructing that the position has been adjusted, and may be a simple operation similar to the operation when the guide M is visually recognized. For example, an operation of pressing any key provided in the control device 10 or an operation of touching the track pad 14 can be performed.

HMD100のキャリブレーション制御部184は、使用者の入力操作を検出すると(ステップS35;YES)、画像表示部20が備える9軸センサー66の検出値を取得する。さらに、キャリブレーション制御部184は、9軸センサー66の検出値に関する動きデータを含む入力情報を生成してプロジェクター300に送信する(ステップS36)。また、ステップS36でキャリブレーション制御部184が送信する入力情報に含まれる動きデータは、その時点における9軸センサー66の検出値だけでなく、9軸センサー66の検出値の履歴に関するデータを含んでもよい。すなわち、前回のステップS35またはステップS36で9軸センサー66の検出値を取得した後の、9軸センサー66の検出値の変化、或いは検出値の積算値等の統計的なデータを含んでもよい。また、キャリブレーション制御部184は、予め設定された一定時間毎に、9軸センサー66の検出値を周期的に取得して累積的に記憶してもよく、例えば検出時刻と検出値を対応付けて記憶してもよい。この場合、キャリブレーション制御部184は、ステップS36で、複数回の検出における9軸センサー66の検出値と検出時刻とを対応付けて入力情報に含ませてもよい。   When the calibration control unit 184 of the HMD 100 detects a user's input operation (step S35; YES), the calibration control unit 184 acquires a detection value of the 9-axis sensor 66 included in the image display unit 20. Further, the calibration control unit 184 generates input information including motion data related to the detection value of the 9-axis sensor 66 and transmits it to the projector 300 (step S36). Further, the motion data included in the input information transmitted by the calibration control unit 184 in step S36 may include not only the detection value of the 9-axis sensor 66 at that time but also data related to the history of the detection value of the 9-axis sensor 66. Good. That is, statistical data such as a change in the detection value of the 9-axis sensor 66 after the acquisition of the detection value of the 9-axis sensor 66 in the previous step S35 or step S36, or an integrated value of the detection values may be included. Further, the calibration control unit 184 may periodically acquire and accumulate the detection values of the 9-axis sensor 66 at predetermined time intervals, for example, by associating the detection time with the detection value. May be stored. In this case, the calibration control unit 184 may include the detection value and the detection time of the 9-axis sensor 66 in the plurality of detections in association with each other in step S36.

入力情報を送信した後、キャリブレーション制御部184は、プロジェクター300からキャリブレーションの完了を通知する制御データを受信したか否かを判定する(ステップS37)。キャリブレーション制御部184は、予め設定された時間内にキャリブレーションの完了を通知する制御データを受信しない場合(ステップS37;NO)、ステップS35に戻り、使用者の入力操作を待機する。   After transmitting the input information, the calibration control unit 184 determines whether control data for notifying completion of calibration has been received from the projector 300 (step S37). If the calibration control unit 184 does not receive control data for notifying completion of calibration within a preset time (step S37; NO), the calibration control unit 184 returns to step S35 and waits for the user's input operation.

プロジェクター300のキャリブレーション制御部322は、HMD100から入力情報を受信すると(ステップS16;YES)、入力情報に含まれる動きデータを取得し、記憶部325に一時的に記憶する(ステップS17)。
ここで、キャリブレーション制御部322は、キャリブレーションが完了したか否かを判定する(ステップS18)。キャリブレーションは、位置合わせガイドMP、M1〜M4のうち設定された全ての位置合わせガイドについて、ステップS15〜S17の動作が行われた場合に、完了する。従って、キャリブレーション制御部322は、位置合わせガイドMP、M1〜M4のうち設定された全ての位置合わせガイドについて、ステップS15〜S17の動作が済んだか否かを判定する。
When receiving the input information from the HMD 100 (step S16; YES), the calibration control unit 322 of the projector 300 acquires the motion data included in the input information and temporarily stores it in the storage unit 325 (step S17).
Here, the calibration control unit 322 determines whether the calibration is completed (step S18). The calibration is completed when the operations of steps S15 to S17 are performed for all the alignment guides set out of the alignment guides MP and M1 to M4. Therefore, the calibration control unit 322 determines whether or not the operations in steps S15 to S17 have been completed for all the alignment guides set out of the alignment guides MP and M1 to M4.

設定された全ての位置合わせガイドのうちステップS15〜S17の動作が行われていない位置合わせガイドがある場合、キャリブレーション制御部322はキャリブレーションが完了していないと判定する(ステップS18;NO)。この場合、キャリブレーション制御部322はステップS15に戻り、次に位置合わせする位置合わせガイドの表示状態(表示色)を変化させるとともに、位置合わせ済みの位置合わせガイドの表示状態(表示色)を元に戻す。なお、位置合わせ済みの位置合わせガイドについては、表示状態(表示色)を元に戻す代わりに、位置合わせ済みであることを示す表示状態(表示色)に変化させるようにしてもよい。
図6(B)には、位置合わせガイドMPの次に、位置合わせガイドM4の位置合わせを行う例を示す。図6(B)の例では、位置合わせガイドM4の表示状態が変化する。使用者には、左上隅の位置合わせガイドM4の表示状態が変化して見えるので、位置合わせガイドM4を見るように使用者を誘導できる。
When there is an alignment guide for which the operations of steps S15 to S17 are not performed among all the alignment guides that have been set, the calibration control unit 322 determines that the calibration has not been completed (step S18; NO). . In this case, the calibration control unit 322 returns to step S15 to change the display state (display color) of the alignment guide to be aligned next, and to change the display state (display color) of the aligned alignment guide to the original. Return to. Note that the alignment guide that has been aligned may be changed to a display state (display color) indicating that the alignment has been completed, instead of returning the display state (display color) to the original.
FIG. 6B shows an example in which the alignment guide M4 is aligned next to the alignment guide MP. In the example of FIG. 6B, the display state of the alignment guide M4 changes. Since the display state of the alignment guide M4 in the upper left corner appears to the user to change, the user can be guided to view the alignment guide M4.

ステップS15でキャリブレーション制御部322が位置合わせガイドM4の表示色を変化させた後、使用者は、図6(C)に示すように、位置合わせガイドM4にガイドMを合わせる動作を行い、入力操作を行う。この入力操作はキャリブレーション制御部184がステップS35で検出する。   After the calibration control unit 322 changes the display color of the alignment guide M4 in step S15, the user performs an operation of aligning the guide M with the alignment guide M4 as shown in FIG. Perform the operation. This input operation is detected by the calibration control unit 184 in step S35.

このように、位置合わせガイドMP、M1〜M4のうち設定された位置合わせガイドについて位置合わせが行われ、動きデータが記憶される。設定された位置合わせガイドの位置合わせが完了した後、キャリブレーション制御部322は、キャリブレーションが完了したと判定する(ステップS18;YES)。キャリブレーション制御部322は、HMD100に対してキャリブレーションの完了を通知する制御データを生成して、HMD100に送信する(ステップS19)。   As described above, the alignment guides set out of the alignment guides MP and M1 to M4 are aligned, and the motion data is stored. After the alignment of the set alignment guide is completed, the calibration control unit 322 determines that the calibration is completed (step S18; YES). The calibration control unit 322 generates control data that notifies the HMD 100 of the completion of calibration, and transmits the control data to the HMD 100 (step S19).

HMD100のキャリブレーション制御部184は、ステップS37で、プロジェクター300からキャリブレーションの完了を通知する制御データを待機している。キャリブレーション制御部184は、キャリブレーションの完了を通知する制御データを受信した場合(ステップS37;YES)、図4の動作を終了する。   In step S37, the calibration control unit 184 of the HMD 100 waits for control data for notifying completion of calibration from the projector 300. When the calibration control unit 184 receives control data for notifying completion of calibration (step S37; YES), the calibration control unit 184 ends the operation of FIG.

また、プロジェクター300のキャリブレーション制御部322は、HMD100に制御データを送信した後、スクリーンSCにおける表示上の位置とHMD100の動き量との対応付けを行う(ステップS20)。ステップS18でキャリブレーションが完了したと判定した場合、記憶部325には、設定された位置合わせガイドに対応付けて、HMD100から受信した動きデータが記憶されている。この動きデータは、9軸センサー66が検出した加速度、角速度、磁気の検出値に関するデータを含む。   Further, after transmitting the control data to the HMD 100, the calibration control unit 322 of the projector 300 associates the display position on the screen SC with the amount of movement of the HMD 100 (step S20). When it is determined in step S18 that the calibration is completed, the storage unit 325 stores the motion data received from the HMD 100 in association with the set alignment guide. This motion data includes data relating to acceleration, angular velocity, and magnetism detection values detected by the 9-axis sensor 66.

キャリブレーション制御部322は、記憶部325に記憶された、複数の位置合わせガイドに対応する動きデータを処理する。具体的には、キャリブレーション制御部322は、キャリブレーションで位置合わせされた位置合わせガイドから、2つの位置合わせガイドを選択する。続いて、選択した位置合わせガイドに対応する動きデータの差分から、画像表示部20の視線方向が2つの位置合わせガイド間を移動した場合の、画像表示部20の動き量を求める。キャリブレーション制御部322は、2つの位置合わせガイドの表示位置の差分を求める。位置合わせガイドの表示位置は、例えばキャリブレーション制御部322が有する液晶ライトバルブやDMDにおける座標、或いは、画像処理部312が生成するフレームのデータにおける座標で表される。図5(E)、図6(A)〜(C)に示した例では、キャリブレーション制御部322は、位置合わせガイドMPと位置合わせガイドM4との座標の差分を求める。また、画像表示部20の動き量は、9軸センサー66の検出値に基づき画像表示部20の姿勢の変化として求めてもよいが、9軸センサー66の検出値の積分値に基づき、画像表示部20の角度及び位置の変化量として求めることが好ましい。例えば、キャリブレーション制御部322は、図6(A)の状態から図6(C)の状態になるまでの9軸センサー66の検出値に基づき、画像表示部20の角度と位置の変化量、すなわち画像表示部20の移動量を算出する。そして、キャリブレーション制御部322は、位置合わせガイドの表示位置の単位量と画像表示部20の動き量とを対応付けるデータを生成する(ステップS21)。このデータは、例えば、パラメーター、パラメーターを含むテーブル、或いは、位置合わせガイドの表示位置の単位量と画像表示部20の動き量とを対応付ける関数や行列とすることができる。このデータをキャリブレーションデータと呼ぶ。キャリブレーション制御部322は、ステップS21で、生成したキャリブレーションデータを、記憶部325に、キャリブレーションデータ327として記憶する。   The calibration control unit 322 processes motion data corresponding to a plurality of alignment guides stored in the storage unit 325. Specifically, the calibration control unit 322 selects two alignment guides from the alignment guides aligned by calibration. Subsequently, the amount of motion of the image display unit 20 when the line-of-sight direction of the image display unit 20 moves between the two alignment guides is obtained from the difference in motion data corresponding to the selected alignment guide. The calibration control unit 322 calculates the difference between the display positions of the two alignment guides. The display position of the alignment guide is represented by, for example, coordinates in a liquid crystal light valve or DMD included in the calibration control unit 322 or coordinates in frame data generated by the image processing unit 312. In the example shown in FIGS. 5E and 6A to 6C, the calibration control unit 322 obtains a coordinate difference between the alignment guide MP and the alignment guide M4. Further, the amount of movement of the image display unit 20 may be obtained as a change in the attitude of the image display unit 20 based on the detection value of the 9-axis sensor 66, but based on the integral value of the detection value of the 9-axis sensor 66, the image display It is preferable to obtain the amount of change in the angle and position of the portion 20. For example, the calibration control unit 322 changes the angle and position of the image display unit 20 based on the detection values of the 9-axis sensor 66 from the state of FIG. 6A to the state of FIG. That is, the movement amount of the image display unit 20 is calculated. Then, the calibration control unit 322 generates data that associates the unit amount of the display position of the alignment guide with the amount of movement of the image display unit 20 (step S21). This data can be, for example, a parameter, a table including parameters, or a function or matrix that associates the unit amount of the display position of the alignment guide with the amount of movement of the image display unit 20. This data is called calibration data. In step S <b> 21, the calibration control unit 322 stores the generated calibration data in the storage unit 325 as calibration data 327.

キャリブレーションデータ327が生成された後は、画像表示部20が動いた場合の動き量を、プロジェクター300における表示位置の移動量に換算することができる。従って、使用者が画像表示部20を意図的に動かす動作を、移動量を指定する操作として利用できる。   After the calibration data 327 is generated, the amount of movement when the image display unit 20 moves can be converted into the amount of movement of the display position in the projector 300. Therefore, an operation in which the user intentionally moves the image display unit 20 can be used as an operation for specifying the movement amount.

また、キャリブレーションデータ327は、HMD100の動きに応じて幾何補正を行う場合に利用される以外にも、例えば、スクリーンSC(表示面)上の投射画像におけるカーソルを移動させる操作にも利用できる。また、スクリーンSCに表示されるメニューやアイコン等を選択する操作や、投射画像の変形(拡大、縮小、回転)や移動を指示する動作等にも利用可能である。   The calibration data 327 can be used not only when geometric correction is performed according to the movement of the HMD 100, but also for an operation of moving a cursor in a projected image on the screen SC (display surface), for example. It can also be used for operations such as selecting menus and icons displayed on the screen SC, and operations for instructing deformation (enlargement, reduction, rotation) and movement of the projected image.

なお、ステップS15で位置合わせガイドの表示状態を変更する場合に、位置合わせガイドの表示色を変更することは一例であり、例えば、表示サイズや形状を変化させてもよい。また、表示状態を変更する対象の位置合わせガイドの表示状態を維持し、他の位置合わせガイドの表示を消去する、他の位置合わせガイドを点滅させる、等の他の位置合わせガイドの表示状態を変化させる方法で、対象の位置合わせガイドを目立たせてもよい。   Note that when the display state of the alignment guide is changed in step S15, changing the display color of the alignment guide is an example, and for example, the display size or shape may be changed. In addition, the display state of the alignment guide to be changed is maintained, and the display state of other alignment guides such as deleting the display of other alignment guides or blinking other alignment guides is displayed. The target alignment guide may be made conspicuous by the changing method.

図7は、表示システム1の動作を示すフローチャートであり、画像表示部20を動かす操作を利用して幾何補正を行う場合の動作を示す。図7(A)はプロジェクター300の動作を示し、図7(B)はHMD100の動作を示す。この図7の動作で、キャリブレーション制御部322は、補正処理部として機能する。
また、図8はキャリブレーション処理において表示システム1で表示される画像の例を示す。図8(A)、(B)は使用者の視野Vを示し、使用者が画像表示部20を透過して見る投射画像Pを合わせて図示する。
FIG. 7 is a flowchart showing the operation of the display system 1 and shows the operation when geometric correction is performed using an operation of moving the image display unit 20. FIG. 7A shows the operation of the projector 300, and FIG. 7B shows the operation of the HMD 100. In the operation of FIG. 7, the calibration control unit 322 functions as a correction processing unit.
FIG. 8 shows an example of an image displayed on the display system 1 in the calibration process. 8A and 8B show the visual field V of the user, and the projection image P that the user sees through the image display unit 20 is shown together.

HMD100の入力情報取得部110、または、プロジェクター300の入力部315により幾何補正の開始の指示を検出すると、この指示に関する制御データをHMD100とプロジェクター300が送受信する。   When an instruction to start geometric correction is detected by the input information acquisition unit 110 of the HMD 100 or the input unit 315 of the projector 300, the HMD 100 and the projector 300 transmit and receive control data relating to this instruction.

HMD100のキャリブレーション制御部184は、幾何補正処理を開始し(ステップS71)、記憶部120からキャリブレーション用画像データ123を読み出し、幾何補正用の画像を画像表示部20に表示させる(ステップS72)。幾何補正用の画像は、幾何補正を行うための図形や文字で構成される画像であり、本実施形態では一例として、図5(C)、(D)に示したキャリブレーション用の画像と同様のガイドを含む。MD100が用いる幾何補正用の画像は、キャリブレーション用の画像とは別に、予め記憶された画像を用いてもよい。
また、プロジェクター300のキャリブレーション制御部322は、幾何補正処理を開始し(ステップS51)、記憶部325からキャリブレーション用画像データ326を読み出して、投写部330により幾何補正用の画像を表示させる(ステップS52)。なお、本実施形態では幾何補正用の画像として、キャリブレーション用の画像であるキャリブレーション用画像データ326を用いるが、キャリブレーション用画像データ326とは別の幾何補正用の画像のデータを用いてもよい。
The calibration control unit 184 of the HMD 100 starts the geometric correction process (step S71), reads the calibration image data 123 from the storage unit 120, and causes the image display unit 20 to display an image for geometric correction (step S72). . The image for geometric correction is an image composed of figures and characters for performing geometric correction. In the present embodiment, as an example, the image is similar to the calibration image shown in FIGS. Including a guide. As the geometric correction image used by the MD 100, a previously stored image may be used separately from the calibration image.
In addition, the calibration control unit 322 of the projector 300 starts the geometric correction process (step S51), reads the calibration image data 326 from the storage unit 325, and causes the projection unit 330 to display the geometric correction image ( Step S52). In this embodiment, the calibration image data 326 that is a calibration image is used as the geometric correction image. However, the geometric correction image data different from the calibration image data 326 is used. Also good.

図8(A)に示すように、スクリーンSC上の投射画像Pには位置合わせガイドMP、M1〜M4が配置される。使用者の視野VにはガイドMが表示され、使用者は画像表示部20を透過して投射画像Pの位置合わせガイドMP、M1〜M4を視認できる。図8(A)の投射画像Pは、幾何補正用の四角形の画像である。正しい投射状態では幾何補正用の投射画像Pは長方形となるが、図8(A)の例では台形歪みを生じたため長方形ではない。この投射画像Pが長方形となるように変形させるためのパラメーターを生成することが、図7に示す動作の目的である。
幾何補正では、投射画像Pの位置合わせガイドM1〜M4のいずれかを、投射画像Pが長方形となる位置に移動させる操作が行われる。移動される位置合わせガイドM1〜M4の数は任意である。使用者が、投射画像Pが長方形になり幾何補正が完了したと判断した場合に、幾何補正の処理が終了する。キャリブレーション制御部322は、使用者の操作に従って、位置合わせガイドの表示位置が移動した移動量に基づき、幾何補正を行うためのデータを生成する。このデータに基づいて投射画像を補正することで、その後に投射する画像の台形歪みを補正できる。
このため、キャリブレーション制御部322が表示する幾何補正用の画像である投射画像Pには、使用者による操作の対象となる操作対象点である四隅の位置合わせガイドM1〜M4が表示される。なお、投射画像Pの中央の位置合わせガイドMPを操作対象とすることも可能である。
As shown in FIG. 8A, alignment guides MP, M1 to M4 are arranged in the projected image P on the screen SC. The guide M is displayed in the visual field V of the user, and the user can visually recognize the alignment guides MP and M1 to M4 of the projection image P through the image display unit 20. The projected image P in FIG. 8A is a square image for geometric correction. In the correct projection state, the geometric correction projection image P is rectangular, but in the example of FIG. 8A, trapezoidal distortion has occurred and is not rectangular. The purpose of the operation shown in FIG. 7 is to generate parameters for deforming the projection image P so as to be rectangular.
In the geometric correction, an operation of moving any one of the alignment guides M1 to M4 of the projection image P to a position where the projection image P becomes a rectangle is performed. The number of the alignment guides M1 to M4 to be moved is arbitrary. When the user determines that the projection image P is rectangular and the geometric correction has been completed, the geometric correction process ends. The calibration control unit 322 generates data for performing geometric correction based on the amount of movement of the display position of the alignment guide according to the user's operation. By correcting the projection image based on this data, the trapezoidal distortion of the image projected thereafter can be corrected.
Therefore, the alignment guides M1 to M4 at the four corners that are the operation target points to be operated by the user are displayed on the projection image P that is the geometric correction image displayed by the calibration control unit 322. Note that the center alignment guide MP of the projection image P can be set as an operation target.

図8(A)に示すように、使用者は、投射画像Pの位置合わせガイドのいずれか(この例では位置合わせガイドM4)にガイドMが重なるように、頭部を動かし、制御装置10への操作を行う。この入力操作は、ガイドMを確認したことを意味する操作であり、単純な操作であってよい。
HMD100のキャリブレーション制御部184は、ステップS72でガイドMR,MLを表示した後、入力情報取得部110が入力操作を検出するまで待機する(ステップS73;NO)。従って、使用者が制御装置10への操作を行うと、この操作を検出して(ステップS73;YES)、動作を再開する。キャリブレーション制御部184は、画像表示部20が備える9軸センサー66の検出値を取得する。さらに、キャリブレーション制御部184は、9軸センサー66の検出値に関するデータ(動きデータ)を含む入力情報を生成してプロジェクター300に送信する(ステップS74)。動きデータは、図4の動作で説明したデータと同様である。キャリブレーション制御部184は、ステップS74で入力情報を送信した後に、入力操作があるまで待機する(ステップS75;NO)。
As shown in FIG. 8A, the user moves the head so that the guide M overlaps one of the alignment guides of the projection image P (in this example, the alignment guide M4), and the control device 10 moves to the control device 10. Perform the operation. This input operation is an operation meaning that the guide M has been confirmed, and may be a simple operation.
The calibration control unit 184 of the HMD 100 waits until the input information acquisition unit 110 detects an input operation after displaying the guide MR and ML in step S72 (step S73; NO). Therefore, when the user performs an operation on the control device 10, this operation is detected (step S73; YES), and the operation is resumed. The calibration control unit 184 acquires the detection value of the 9-axis sensor 66 included in the image display unit 20. Further, the calibration control unit 184 generates input information including data (motion data) related to the detection value of the 9-axis sensor 66 and transmits it to the projector 300 (step S74). The motion data is the same as the data described in the operation of FIG. After transmitting the input information in step S74, the calibration control unit 184 waits until an input operation is performed (step S75; NO).

プロジェクター300のキャリブレーション制御部322は、ステップS52で幾何補正用の画像を表示した後、HMD100から入力情報を受信するまで待機する(ステップS53;NO)。キャリブレーション制御部322は、HMD100が送信する入力情報を受信すると(ステップS53;YES)、入力情報に含まれる動きデータを取得し、記憶部325に一時的に記憶する(ステップS54)。ここで記憶する動きデータは、幾何補正の開始位置に対応する画像表示部20の向きを示すデータである。従って、キャリブレーション制御部322は、ステップS54において、受信した動きデータに基づき、幾何補正を行う対象の点(補正ポイント)の位置を特定する。具体的には、キャリブレーション制御部322は、ステップS52で受信した入力情報に含まれる動きデータを、キャリブレーションデータ327を用いて、表示位置のデータに変換し、変換後の表示位置を、補正ポイントの位置とする。
キャリブレーション制御部322は、スクリーンSCに幾何補正用の画像を表示した状態で、HMD100から新たに入力情報を受信するまで待機する(ステップS55;NO)。
The calibration control unit 322 of the projector 300 waits until input information is received from the HMD 100 after displaying the geometric correction image in step S52 (step S53; NO). When receiving the input information transmitted by the HMD 100 (step S53; YES), the calibration control unit 322 acquires motion data included in the input information and temporarily stores it in the storage unit 325 (step S54). The motion data stored here is data indicating the orientation of the image display unit 20 corresponding to the geometric correction start position. Therefore, in step S54, the calibration control unit 322 specifies the position of a target point (correction point) on which geometric correction is performed based on the received motion data. Specifically, the calibration control unit 322 converts the motion data included in the input information received in step S52 into display position data using the calibration data 327, and corrects the converted display position. The position of the point.
The calibration control unit 322 waits until new input information is received from the HMD 100 in a state where the geometric correction image is displayed on the screen SC (step S55; NO).

画像表示部20を装着した使用者は、図8(A)で選択した位置合わせガイド(位置合わせガイドM4)を移動させたい位置に、画像表示部20のガイドMが重なるように、頭部を動かす。図8(A)では投射画像Pに台形歪みがあり、使用者は台形歪みを補正するために位置合わせガイドM4を移動させる操作を行う。この操作は、位置合わせガイドM4を移動させる移動先の位置に、ガイドMを合わせる操作であり、具体的には使用者が頭部を動かす操作である。
使用者は、移動先の位置にガイドMを合わせた後に、制御装置10への入力操作を行う。この操作は上述のように単純な操作でよい。キャリブレーション制御部184は、使用者の入力操作を検出すると(ステップS75;YES)、9軸センサー66の検出値を取得し、動きデータを含む入力情報を生成してプロジェクター300に送信する(ステップS76)。
The user wearing the image display unit 20 places his head so that the guide M of the image display unit 20 overlaps the position where the alignment guide (alignment guide M4) selected in FIG. move. In FIG. 8A, the projection image P has a trapezoidal distortion, and the user performs an operation of moving the alignment guide M4 to correct the trapezoidal distortion. This operation is an operation of aligning the guide M with the position of the movement destination for moving the alignment guide M4, and specifically, an operation in which the user moves the head.
The user performs an input operation to the control device 10 after aligning the guide M with the position of the movement destination. This operation may be a simple operation as described above. When the calibration control unit 184 detects an input operation by the user (step S75; YES), the calibration control unit 184 acquires a detection value of the 9-axis sensor 66, generates input information including motion data, and transmits the input information to the projector 300 (step S75). S76).

プロジェクター300のキャリブレーション制御部322は、HMD100から入力情報を受信すると(ステップS55;YES)、入力情報に含まれる動きデータを取得する(ステップS56)。さらに、キャリブレーション制御部322は、動きデータとキャリブレーションデータ327に基づき、ステップS53で特定した補正ポイントを移動させる移動先の表示位置を特定する。そして、キャリブレーション制御部322は、補正ポイントの移動前と移動先の位置に基づき、幾何補正用のデータを生成する。幾何補正用のデータは、投射画像の補正量を示すデータ、及び、補正方向を示すデータの少なくともいずれかを含む。   When receiving the input information from the HMD 100 (step S55; YES), the calibration control unit 322 of the projector 300 acquires the motion data included in the input information (step S56). Further, the calibration control unit 322 specifies the display position of the movement destination to which the correction point specified in step S53 is moved based on the motion data and the calibration data 327. Then, the calibration control unit 322 generates geometric correction data based on the positions before and after the correction point is moved. The geometric correction data includes at least one of data indicating the correction amount of the projection image and data indicating the correction direction.

そして、キャリブレーション制御部322は、生成したデータに基づき投射画像Pの幾何補正を行う(ステップS57)。ステップS57では、ステップS56で生成した幾何補正用のデータを画像処理部312に設定して幾何補正を実行させる。これにより、スクリーンSCに表示される幾何補正用の投射画像Pは、図8(B)に示すように補正される。図8(B)では、位置合わせガイドM4の位置が移動されるとともに、位置合わせガイドM4の移動に伴い投射画像Pの全体が変形され、台形歪みが補正されている。   Then, the calibration control unit 322 performs geometric correction of the projection image P based on the generated data (step S57). In step S57, the geometric correction data generated in step S56 is set in the image processing unit 312 to execute geometric correction. Thereby, the projected image P for geometric correction displayed on the screen SC is corrected as shown in FIG. In FIG. 8B, the position of the alignment guide M4 is moved, and the entire projection image P is deformed along with the movement of the alignment guide M4, and the trapezoidal distortion is corrected.

ここで、使用者は、図8(B)に示すように投射画像Pが変化したことに対し、所望の補正がなされたことを示す入力操作、すなわち補正完了の指示操作を行う。HMD100のキャリブレーション制御部184は、入力情報を送信した後、制御装置10への入力操作を待機し(ステップS77)、所定時間内に補正完了の指示操作がなければ(ステップS77;NO)、ステップS73へ戻る。補正完了の指示操作を検出した場合(ステップS77;YES)、キャリブレーション制御部184は、補正が完了したことを通知する制御データを生成してプロジェクター300に送信し(ステップS78)、本処理を終了する。   Here, the user performs an input operation indicating that a desired correction has been made, that is, an instruction operation for completion of correction, in response to the change in the projected image P as shown in FIG. 8B. After transmitting the input information, the calibration control unit 184 of the HMD 100 waits for an input operation to the control device 10 (step S77), and if there is no correction completion instruction operation within a predetermined time (step S77; NO), The process returns to step S73. When the correction completion instruction operation is detected (step S77; YES), the calibration control unit 184 generates control data notifying that the correction is completed, and transmits the control data to the projector 300 (step S78). finish.

画像処理部312は、幾何補正を実行した後、補正完了を通知する制御データの受信を待機し(ステップS58)、所定時間内に制御データを受信しなければ(ステップS58;NO)、ステップS53へ戻る。補正完了を通知する制御データを受信した場合(ステップS58;YES)、キャリブレーション制御部322は、幾何補正用のデータをキャリブレーション用画像データ326に含めて記憶部325に記憶させ(ステップS58)、本処理を終了する。
なお、キャリブレーション制御部322が生成する幾何補正用のデータは、例えば、パラメーター、パラメーターを含むテーブル、或いは、幾何補正前の座標を幾何補正後の座標に変換する関数や行列とすることができる。
After executing geometric correction, the image processing unit 312 waits for reception of control data notifying completion of correction (step S58), and if control data is not received within a predetermined time (step S58; NO), step S53. Return to. When control data notifying completion of correction has been received (step S58; YES), the calibration control unit 322 includes geometric correction data in the calibration image data 326 and causes the storage unit 325 to store the data (step S58). This process is terminated.
Note that the geometric correction data generated by the calibration control unit 322 can be, for example, a parameter, a table including parameters, or a function or matrix that converts coordinates before geometric correction into coordinates after geometric correction. .

このように、画像表示部20を装着した使用者が、頭部を動かす動作を行い、この動作の開始時と終了時に制御装置10への操作を行うだけで、使用者の頭部の動きが位置を指示する入力操作として検出され、処理が行われる。このため、画像表示部20の動きによる入力操作を実現できる。   In this way, the user wearing the image display unit 20 performs an operation of moving the head, and only by performing an operation on the control device 10 at the start and end of the operation, the user's head movement can be achieved. It is detected as an input operation for indicating a position, and processing is performed. For this reason, the input operation by the movement of the image display unit 20 can be realized.

以上説明したように、本発明を適用した実施形態の表示システム1は、HMD100と、スクリーンSCに表示を行うプロジェクター300とを備える。HMD100は、使用者が装着し、外景を透過可能に構成された画像表示部20と、画像表示部20の動きを検出する9軸センサー66とを有する。プロジェクター300は、スクリーンSCに位置合わせガイドを表示し、位置合わせガイドの表示位置に応じて、使用者が画像表示部20を動かした際の9軸センサー66の検出結果に基づいて、画像表示部20の動き量とスクリーンSCにおける移動量とを対応付ける処理を行う制御部320を備える。これにより、使用者が装着するHMD100の動きから、スクリーンSCにおける移動量を得ることができる。従って、HMD100を動かす、すなわち画像供給装置2を装着した頭部を動かすことで、スクリーンSC上の量に関する入力を行うことが可能となる。このため、HMD100を使用する場合の入力操作を容易にし、利便性の向上を図ることができる。   As described above, the display system 1 according to the embodiment to which the present invention is applied includes the HMD 100 and the projector 300 that performs display on the screen SC. The HMD 100 includes an image display unit 20 that is worn by a user and configured to transmit an outside scene, and a 9-axis sensor 66 that detects the movement of the image display unit 20. The projector 300 displays an alignment guide on the screen SC, and the image display unit based on the detection result of the 9-axis sensor 66 when the user moves the image display unit 20 according to the display position of the alignment guide. A control unit 320 that performs processing for associating 20 movement amounts with the movement amount on the screen SC is provided. Thereby, the movement amount in the screen SC can be obtained from the movement of the HMD 100 worn by the user. Therefore, by moving the HMD 100, that is, by moving the head on which the image supply device 2 is mounted, it is possible to perform input regarding the amount on the screen SC. For this reason, input operation when using the HMD 100 can be facilitated, and convenience can be improved.

また、プロジェクター300はスクリーンSCにおける複数の異なる位置に位置合わせガイドを表示し、スクリーンSCにおける移動量を、位置合わせガイドの複数の表示位置から求める。このため、使用者が装着するHMD100の動きとスクリーンSCにおける移動量との対応付けを速やかに行うことができる。
また、HMD100は、スクリーンSCの位置合わせガイドと重ねて視認するためのガイドMを画像表示部20に表示するので、HMD100の動きとスクリーンSCにおける移動量との対応付けを、より正確に行うことができる。これにより、使用者の操作の負担を軽減できる。
また、プロジェクター300のキャリブレーション制御部322は、HMD100の入力情報取得部110により入力を受け付けたことを検出し、HMD100の9軸センサー66の検出値や9軸センサー66の検出結果から求められる動きデータを取得する。そして、キャリブレーション制御部322は、取得した動きデータと位置合わせガイドの表示位置とをもとに、動きデータとスクリーンSCにおける移動量とを対応付ける処理を行う。このため、プロジェクター300の機能により、HMD100の動き量とスクリーンSCにおける移動量とを対応付けることができる。
Further, the projector 300 displays the alignment guide at a plurality of different positions on the screen SC, and obtains the movement amount on the screen SC from the plurality of display positions of the alignment guide. For this reason, it is possible to quickly associate the movement of the HMD 100 worn by the user with the amount of movement on the screen SC.
In addition, since the HMD 100 displays the guide M for visual recognition on the alignment guide of the screen SC on the image display unit 20, the movement of the HMD 100 and the amount of movement on the screen SC are more accurately associated. Can do. Thereby, the burden of a user's operation can be reduced.
Further, the calibration control unit 322 of the projector 300 detects that the input is acquired by the input information acquisition unit 110 of the HMD 100, and the movement obtained from the detection value of the 9-axis sensor 66 of the HMD 100 and the detection result of the 9-axis sensor 66. Get the data. Then, the calibration control unit 322 performs processing for associating the motion data with the movement amount on the screen SC based on the acquired motion data and the display position of the alignment guide. For this reason, the amount of movement of the HMD 100 and the amount of movement on the screen SC can be associated by the function of the projector 300.

また、キャリブレーション制御部322は、スクリーンSCに表示する画像の幾何補正を行い、HMD100の動き量に基づいて、画像の補正量及び補正方向の少なくともいずれかを含む幾何補正用のデータを求める。このように、HMD100の動きとスクリーンSCにおける移動量との対応付けを利用して、HMD100を用いた操作により、画像の補正を行うことができる。
さらに、キャリブレーション制御部322は、HMD100の9軸センサー66の検出結果に係る動きデータから得られるキャリブレーション用画像データ326をもとに、スクリーンSCにおける位置または距離を求めることができる。このため、HMD100の動きとスクリーンSCにおける移動量との対応付けを利用して、HMD100で入力操作を行うことができる。
In addition, the calibration control unit 322 performs geometric correction of the image displayed on the screen SC, and obtains data for geometric correction including at least one of the correction amount and the correction direction of the image based on the motion amount of the HMD 100. In this way, the image can be corrected by an operation using the HMD 100 by using the association between the movement of the HMD 100 and the movement amount on the screen SC.
Further, the calibration control unit 322 can obtain the position or distance on the screen SC based on the calibration image data 326 obtained from the motion data related to the detection result of the 9-axis sensor 66 of the HMD 100. For this reason, it is possible to perform an input operation on the HMD 100 using the association between the movement of the HMD 100 and the movement amount on the screen SC.

表示システム1では、使用者の頭部に装着される画像表示部20にガイドMを表示し、HMD100とは別体として構成されるスクリーンSCに位置合わせガイドを表示する。このようにHMD100の動きとスクリーンSCにおける移動量とを対応付けることで、直感的な操作を実現できる。   In the display system 1, the guide M is displayed on the image display unit 20 worn on the user's head, and the alignment guide is displayed on a screen SC configured separately from the HMD 100. In this way, an intuitive operation can be realized by associating the movement of the HMD 100 with the amount of movement on the screen SC.

なお、上記実施形態において、図4の動作ではプロジェクター300のキャリブレーション制御部322が、ステップS20〜S21で画像表示部20の動きデータとスクリーンSCにおける表示位置とを対応付ける処理を行う例を示した。本発明はこれに限定されず、HMD100の制御部140が、ステップS20〜S21に相当する処理を行ってもよい。
同様に、図7の動作ではプロジェクター300のキャリブレーション制御部322が、ステップS256で、幾何補正を行うためのデータを生成する処理を行う例を示した。本発明はこれに限定されず、HMD100の制御部140が、幾何補正を行うためのデータを生成する処理を行ってもよい。この場合、幾何補正を行うためのデータをHMD100からプロジェクター300に送信し、このデータに基づき、制御部320が、画像処理部312の幾何補正のパラメーターを設定すればよい。
In the above embodiment, an example in which the calibration control unit 322 of the projector 300 performs a process of associating the motion data of the image display unit 20 with the display position on the screen SC in steps S20 to S21 in the operation of FIG. . The present invention is not limited to this, and the control unit 140 of the HMD 100 may perform processing corresponding to steps S20 to S21.
Similarly, in the operation of FIG. 7, an example is shown in which the calibration control unit 322 of the projector 300 performs a process of generating data for performing geometric correction in step S <b> 256. The present invention is not limited to this, and the control unit 140 of the HMD 100 may perform processing for generating data for performing geometric correction. In this case, data for performing geometric correction is transmitted from the HMD 100 to the projector 300, and the control unit 320 may set the geometric correction parameters of the image processing unit 312 based on this data.

この場合、HMD100のキャリブレーション制御部184は、プロジェクター300が位置合わせガイドを表示する表示位置を取得する取得部として機能する。また、キャリブレーション制御部184は、制御部として機能する。この制御部は、入力情報取得部110で入力を受け付けた場合に、9軸センサー66の検出結果から動き量を求める。また、求めた動き量と取得部により取得した位置合わせガイドの表示位置とをもとに、動き量とスクリーンSCにおける移動量とを対応付ける処理を行う。この場合、HMD100の機能により、HMD100の動き量とスクリーンSCにおける移動量とを対応付けることができる。   In this case, the calibration control unit 184 of the HMD 100 functions as an acquisition unit that acquires a display position where the projector 300 displays the alignment guide. Further, the calibration control unit 184 functions as a control unit. When the input information acquisition unit 110 receives an input, the control unit obtains a motion amount from the detection result of the 9-axis sensor 66. Further, based on the obtained amount of movement and the display position of the alignment guide acquired by the acquisition unit, processing for associating the amount of movement with the amount of movement on the screen SC is performed. In this case, the amount of movement of the HMD 100 and the amount of movement on the screen SC can be associated by the function of the HMD 100.

なお、この発明は上記実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
例えば、HMD100が有する画像表示部20は、使用者の身体とともに動く状態で、使用者が装着する構成であればよく、眼鏡型に限定されない。例えば、帽子のように装着する形状の画像表示部を採用してもよい。また、例えば、ヘルメット等の身体防護具、衣服、或いは装飾具などの装身具に取り付けられてもよい。また、HMD100のように使用者の両眼に画像光を発して画像を視認させる構成に限らず、例えば使用者の片方の目に画像を視認させる表示装置であってもよい。
In addition, this invention is not restricted to the structure of the said embodiment, In the range which does not deviate from the summary, it can be implemented in a various aspect.
For example, the image display unit 20 included in the HMD 100 may be configured to be worn by the user while moving with the user's body, and is not limited to the eyeglass type. For example, you may employ | adopt the image display part of the shape worn like a hat. For example, you may attach to body accessories, such as a helmet, clothing, or accessories, such as a decoration. Further, the display device is not limited to the configuration in which image light is emitted to both eyes of the user as in the HMD 100 so that the image is visually recognized.

さらに、上記実施形態では、画像表示部20と制御装置10とが分離され、接続コード48を介して接続された構成を例に挙げて説明した。本発明はこれに限定されず、制御装置10と画像表示部20とが一体に構成され、使用者の頭部に装着される構成とすることも可能である。また、図4及び図7に示した動作において使用者が行う操作は、制御装置10のトラックパッド14またはキー操作部15に対する操作に限らず、例えば、画像表示部20を所定のパターンで動かす動作であってもよい。   Further, in the above embodiment, the configuration in which the image display unit 20 and the control device 10 are separated and connected via the connection cord 48 has been described as an example. The present invention is not limited to this, and the control device 10 and the image display unit 20 may be configured integrally and mounted on the user's head. 4 and 7 is not limited to the operation performed on the track pad 14 or the key operation unit 15 of the control device 10, but for example, an operation of moving the image display unit 20 in a predetermined pattern. It may be.

また、制御装置10として、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。また、制御装置10が画像表示部20と分離して構成され、制御装置10と画像表示部20との間で無線通信により各種信号を送受信する構成としてもよい。   The control device 10 may be a game machine, a portable phone, a portable electronic device including a smartphone or a portable media player, other dedicated devices, or the like. Further, the control device 10 may be configured separately from the image display unit 20, and various signals may be transmitted and received between the control device 10 and the image display unit 20 by wireless communication.

また、例えば、画像表示部20において画像光を生成する構成として、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよい。また、画像光を生成する構成として、LCOS(Liquid crystal on silicon, LCoSは登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。   For example, as a configuration for generating image light in the image display unit 20, a configuration including an organic EL (Organic Electro-Luminescence) display and an organic EL control unit may be used. Further, as a configuration for generating image light, LCOS (Liquid crystal on silicon, LCoS is a registered trademark), a digital micromirror device, or the like can be used.

また、画像光を使用者の眼に導く光学系としては、外部から装置に向けて入射する外光を透過する光学部材を備え、画像光とともに使用者の眼に入射させる構成を採用できる。また、使用者の眼の前方に位置して使用者の視界の一部または全部に重なる光学部材を用いてもよい。さらに、レーザー光等を走査させて画像光とする走査方式の光学系を採用してもよい。また、光学部材の内部で画像光を導光させるものに限らず、使用者の眼に向けて画像光を屈折及び/または反射させて導く機能のみを有するものであってもよい。例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。すなわち、光射出部が、レーザー光源と、レーザー光源を使用者の眼に導く光学系とを備え、レーザー光を使用者の眼に入射させて網膜上を走査し、網膜に結像させることにより、使用者に画像を視認させる構成を採用してもよい。また、本発明を、MEMSミラーを用いた走査光学系を採用し、MEMSディスプレイ技術を利用した表示装置に適用することも可能である。すなわち、信号光形成部と、信号光形成部が射出する光を走査するMEMSミラーを有する走査光学系と、走査光学系により走査される光によって虚像が形成される光学部材とを光射出部として備えてもよい。この構成では、信号光形成部が射出した光がMEMSミラーにより反射され、光学部材に入射し、光学部材の中を導かれて、虚像形成面に達する。MEMSミラーが光を走査することにより、虚像形成面に虚像が形成され、この虚像を使用者が眼で捉えることで、画像が認識される。この場合の光学部品は、例えば上記実施形態の右導光板261及び左導光板262のように、複数回の反射を経て光を導くものであってもよく、ハーフミラー面を利用してもよい。   The optical system that guides the image light to the user's eyes may include an optical member that transmits external light that is incident on the apparatus from the outside and that is incident on the user's eyes together with the image light. Moreover, you may use the optical member which is located ahead of a user's eyes and overlaps a part or all of a user's visual field. Further, a scanning optical system that scans a laser beam or the like to obtain image light may be employed. Further, the optical member is not limited to guiding the image light inside the optical member, and may have only a function of guiding the image light by refracting and / or reflecting it toward the user's eyes. For example, the present invention can also be applied to a laser retinal projection type head mounted display. That is, the light emitting unit includes a laser light source and an optical system that guides the laser light source to the user's eyes, and the laser light is incident on the user's eyes to scan the retina and form an image on the retina. A configuration that allows the user to visually recognize an image may be employed. Further, the present invention can be applied to a display device that employs a scanning optical system using a MEMS mirror and uses MEMS display technology. That is, a light emitting unit includes a signal light forming unit, a scanning optical system having a MEMS mirror that scans light emitted from the signal light forming unit, and an optical member on which a virtual image is formed by light scanned by the scanning optical system. You may prepare. In this configuration, the light emitted from the signal light forming unit is reflected by the MEMS mirror, enters the optical member, is guided through the optical member, and reaches the virtual image forming surface. When the MEMS mirror scans the light, a virtual image is formed on the virtual image forming surface, and the user recognizes the virtual image with the eyes, thereby recognizing the image. The optical component in this case may be one that guides light through a plurality of reflections, such as the right light guide plate 261 and the left light guide plate 262 of the above embodiment, and may use a half mirror surface. .

また、上記実施形態において、キャリブレーション制御部322は、複数の位置合わせガイドを表示する構成としたが、本発明はこれに限定されず、たとえば、一つの位置合わせガイドを表示してもよい。この場合、位置合わせガイドの表示位置を動かすことで、HMD100における動きとの対応を求めることができる。たとえば、一つの位置合わせガイドを移動させて、この位置合わせガイドの移動に追従するように、HMD100を装着する使用者がHMD100を動かしてもよい。   Moreover, in the said embodiment, although the calibration control part 322 was set as the structure which displays a some alignment guide, this invention is not limited to this, For example, you may display one alignment guide. In this case, the correspondence with the movement in the HMD 100 can be obtained by moving the display position of the alignment guide. For example, a user who wears the HMD 100 may move the HMD 100 so as to move one alignment guide and follow the movement of the alignment guide.

また、上記実施形態では、HMD100とプロジェクター300とが無線通信により接続される構成を例示したが、有線接続されてもよく、接続形態は任意である。   In the above-described embodiment, the configuration in which the HMD 100 and the projector 300 are connected by wireless communication is illustrated, but a wired connection may be used, and the connection form is arbitrary.

また、図2及び図3に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよい。つまり、図2及び図3に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部140が実行するプログラムは、記憶部120または制御装置10内の記憶装置に記憶されてもよいし、外部の装置に記憶されたプログラムを通信部117又はインターフェイス114を介して取得して実行する構成としてもよい。同様に、制御部320が実行するプログラムは、記憶部325に記憶されてもよいし、他の記憶部や外部の機器から供給されてもよい。
その他の細部構成についても、任意に変更可能であることは勿論である。
In addition, at least a part of the functional blocks illustrated in FIGS. 2 and 3 may be realized by hardware, or may be configured by cooperation of hardware and software. That is, the present invention is not limited to the configuration in which independent hardware resources are arranged as shown in FIGS. Further, the program executed by the control unit 140 may be stored in the storage unit 120 or a storage device in the control device 10, or the program stored in an external device is acquired via the communication unit 117 or the interface 114. It is good also as a structure to execute. Similarly, the program executed by the control unit 320 may be stored in the storage unit 325, or may be supplied from another storage unit or an external device.
Of course, other detailed configurations can be arbitrarily changed.

1…表示システム、2…画像供給装置、10…制御装置、14…トラックパッド、15…キー操作部、20…画像表示部、21…右保持部、22…右表示駆動部、23…左保持部、24…左表示駆動部、26…右光学像表示部、28…左光学像表示部、48…接続コード、61…カメラ、66…9軸センサー(動き検出部)、100…HMD(端末装置)、110…入力情報取得部(入力部)、117…通信部、120…記憶部、121…設定データ、122…コンテンツデータ、123…キャリブレーション用画像データ、135…操作部、140…制御部、160…画像処理部、170…表示制御部、181…通信制御部、182…操作検出部、183…コンテンツ出力制御部、184…キャリブレーション制御部、187…音声処理部、261…右導光板、262…左導光板、300…プロジェクター(表示装置)、312…画像処理部、313…表示駆動部、315…入力部、316…操作パネル、317…リモコン、318…通信部、320…制御部、321…投写制御部、322…キャリブレーション制御部(入力検出部、動き量取得部、処理部、補正処理部)、325…記憶部、326…キャリブレーション用画像データ、327…キャリブレーションデータ、330…投写部、M、ML、MR…ガイド(使用者側マーカー)、MR、M1〜M4…位置合わせガイド(表示面マーカー)、SC…スクリーン(表示面)。   DESCRIPTION OF SYMBOLS 1 ... Display system, 2 ... Image supply apparatus, 10 ... Control apparatus, 14 ... Trackpad, 15 ... Key operation part, 20 ... Image display part, 21 ... Right holding part, 22 ... Right display drive part, 23 ... Left holding , 24 ... Left display drive unit, 26 ... Right optical image display unit, 28 ... Left optical image display unit, 48 ... Connection code, 61 ... Camera, 66 ... 9-axis sensor (motion detection unit), 100 ... HMD (terminal) Device), 110 ... input information acquisition unit (input unit), 117 ... communication unit, 120 ... storage unit, 121 ... setting data, 122 ... content data, 123 ... calibration image data, 135 ... operation unit, 140 ... control 160, image processing unit, 170 ... display control unit, 181 ... communication control unit, 182 ... operation detection unit, 183 ... content output control unit, 184 ... calibration control unit, 187 ... audio processing unit 261 ... Right light guide plate, 262 ... Left light guide plate, 300 ... Projector (display device), 312 ... Image processing unit, 313 ... Display drive unit, 315 ... Input unit, 316 ... Operation panel, 317 ... Remote control unit, 318 ... Communication unit 320, control unit, 321 ... projection control unit, 322 ... calibration control unit (input detection unit, motion amount acquisition unit, processing unit, correction processing unit), 325 ... storage unit, 326 ... calibration image data, 327 ... calibration data, 330 ... projection unit, M, ML, MR ... guide (user side marker), MR, M1 to M4 ... position alignment guide (display surface marker), SC ... screen (display surface).

Claims (9)

使用者が装着し、外景を透過可能に構成された表示部、及び前記表示部の動きを検出する動き検出部を有する端末装置と、
表示面に表示を行う表示装置と、
を備え、
前記表示装置が前記表示面に表示面マーカーを表示し、前記表示面マーカーの表示位置に応じて前記使用者が前記表示部を動かした際の前記動き検出部の検出結果に基づいて、前記表示部の動き量と前記表示面における移動量とを対応付ける処理を行う処理部を備えること、
を特徴とする表示システム。
A display unit that is worn by a user and configured to transmit the outside scene, and a terminal device that includes a motion detection unit that detects the movement of the display unit;
A display device for displaying on the display surface;
With
The display device displays a display surface marker on the display surface, and the display based on a detection result of the motion detection unit when the user moves the display unit according to a display position of the display surface marker. A processing unit that performs processing for associating the amount of movement of the unit with the amount of movement on the display surface;
A display system characterized by
前記表示装置は前記表示面における複数の異なる位置に前記表示面マーカーを表示し、
前記処理部は、前記表示面における移動量を、前記表示面マーカーの複数の表示位置から求めること、
を特徴とする請求項1記載の表示システム。
The display device displays the display surface marker at a plurality of different positions on the display surface;
The processing unit obtains a movement amount on the display surface from a plurality of display positions of the display surface marker;
The display system according to claim 1.
前記端末装置は、前記表示面の前記表示面マーカーと重ねて視認するための使用者側マーカーを前記表示部に表示すること、
を特徴とする請求項1または2記載の表示システム。
The terminal device displays on the display unit a user-side marker for visual recognition superimposed on the display surface marker on the display surface;
The display system according to claim 1, wherein:
前記端末装置は、
前記表示装置が前記表示面マーカーを表示する表示位置を取得する取得部と、
前記処理部と、
を備え、
前記処理部は、前記動き検出部の検出結果から前記表示部の動き量を求め、求めた動き量と前記取得部により取得した前記表示面マーカーの表示位置とをもとに、前記表示部の動き量と前記表示面における移動量とを対応付ける処理を行うこと、
を特徴とする請求項1から3のいずれかに記載の表示システム。
The terminal device
An acquisition unit for acquiring a display position at which the display device displays the display surface marker;
The processing unit;
With
The processing unit obtains the amount of movement of the display unit from the detection result of the motion detection unit, and based on the obtained amount of movement and the display position of the display surface marker acquired by the acquisition unit, Performing a process of associating the amount of movement with the amount of movement on the display surface;
The display system according to claim 1, wherein:
前記表示装置は、
前記端末装置の前記動き検出部の検出結果、又は、前記動き検出部の検出結果から求められる前記表示部の動き量を取得する動き量取得部と、
前記処理部と、
を備え、
前記処理部は、前記動き量取得部で取得した動き量と前記表示面マーカーを表示した表示位置とをもとに、前記表示部の動き量と前記表示面における移動量とを対応付ける処理を行うこと、
を特徴とする請求項1から3のいずれかに記載の表示システム。
The display device
A detection result of the motion detection unit of the terminal device, or a motion amount acquisition unit that acquires a motion amount of the display unit obtained from the detection result of the motion detection unit;
The processing unit;
With
The processing unit performs a process of associating the amount of movement of the display unit with the amount of movement on the display surface based on the amount of movement acquired by the amount of movement acquisition unit and the display position where the display surface marker is displayed. about,
The display system according to claim 1, wherein:
前記表示装置は、前記表示面に表示する画像の幾何補正を行う補正処理部を備え、
前記補正処理部は、前記表示部の動き量に基づいて、前記画像の補正量及び補正方向の少なくともいずれかを求めること、
を特徴とする請求項5記載の表示システム。
The display device includes a correction processing unit that performs geometric correction of an image displayed on the display surface,
The correction processing unit obtains at least one of a correction amount and a correction direction of the image based on a movement amount of the display unit;
The display system according to claim 5.
前記表示装置が備える前記処理部は、前記動き量取得部が取得する前記端末装置の前記動き検出部の検出結果、又は、前記動き検出部の検出結果から求められる動き量をもとに、前記表示面における位置または距離を求めること、
を特徴とする請求項5または6記載の表示システム。
The processing unit included in the display device is based on a detection result of the motion detection unit of the terminal device acquired by the motion amount acquisition unit or a motion amount obtained from a detection result of the motion detection unit. Determining the position or distance on the display surface,
The display system according to claim 5 or 6.
前記端末装置は、前記使用者の頭部に装着される前記表示部を備え、
前記表示装置は、前記端末装置とは別体として構成される前記表示面に前記表示面マーカーを表示すること、
を特徴とする請求項1から7のいずれかに記載の表示システム。
The terminal device includes the display unit mounted on the user's head,
The display device displays the display surface marker on the display surface configured separately from the terminal device;
The display system according to claim 1, wherein:
外景を透過可能に構成された表示部、及び前記表示部の動きを検出する動き検出部を有し、使用者が装着する端末装置と、表示面に表示を行う表示装置とを用い、
前記表示装置が前記表示面に表示面マーカーを表示し、
前記表示面マーカーの表示位置に応じて前記使用者が前記表示部を動かした際の前記動き検出部の検出結果に基づいて、前記表示部の動き量と前記表示面における移動量とを対応付けること、
を特徴とする表示制御方法。
A display unit configured to transmit an outside scene, and a motion detection unit that detects the movement of the display unit, using a terminal device worn by a user and a display device that displays on a display surface,
The display device displays a display surface marker on the display surface;
The movement amount of the display unit and the movement amount on the display surface are associated with each other based on the detection result of the movement detection unit when the user moves the display unit according to the display position of the display surface marker. ,
A display control method characterized by the above.
JP2015037763A 2015-02-27 2015-02-27 Display system and display control method Active JP6631014B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015037763A JP6631014B2 (en) 2015-02-27 2015-02-27 Display system and display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015037763A JP6631014B2 (en) 2015-02-27 2015-02-27 Display system and display control method

Publications (2)

Publication Number Publication Date
JP2016161611A true JP2016161611A (en) 2016-09-05
JP6631014B2 JP6631014B2 (en) 2020-01-15

Family

ID=56846810

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015037763A Active JP6631014B2 (en) 2015-02-27 2015-02-27 Display system and display control method

Country Status (1)

Country Link
JP (1) JP6631014B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109841182A (en) * 2017-11-28 2019-06-04 乐金显示有限公司 Personal immersion display device and its driving method
JP2019148682A (en) * 2018-02-27 2019-09-05 セイコーエプソン株式会社 Image display system, image display device and method for controlling image display system
JP2021068145A (en) * 2019-10-23 2021-04-30 セイコーエプソン株式会社 Operation method of head-mounted display device and head-mounted display device
WO2021182124A1 (en) * 2020-03-10 2021-09-16 ソニーグループ株式会社 Information processing device and information processing method
JP7501044B2 (en) 2020-03-30 2024-06-18 セイコーエプソン株式会社 DISPLAY SYSTEM, INFORMATION PROCESSING DEVICE, AND DISPLAY CONTROL METHOD FOR DISPLAY SYSTEM

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002324239A (en) * 2001-04-25 2002-11-08 Olympus Optical Co Ltd Information presenting system
JP2004289548A (en) * 2003-03-24 2004-10-14 Olympus Corp Image adjuster and head-mounted display device
JP2012129594A (en) * 2010-12-13 2012-07-05 Seiko Epson Corp Projector and method for screen shape correction of projector
JP2013206322A (en) * 2012-03-29 2013-10-07 Sony Corp Information processor, information processing system and information processing method
WO2013179427A1 (en) * 2012-05-30 2013-12-05 パイオニア株式会社 Display device, head-mounted display, calibration method, calibration program, and recording medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002324239A (en) * 2001-04-25 2002-11-08 Olympus Optical Co Ltd Information presenting system
JP2004289548A (en) * 2003-03-24 2004-10-14 Olympus Corp Image adjuster and head-mounted display device
JP2012129594A (en) * 2010-12-13 2012-07-05 Seiko Epson Corp Projector and method for screen shape correction of projector
JP2013206322A (en) * 2012-03-29 2013-10-07 Sony Corp Information processor, information processing system and information processing method
WO2013179427A1 (en) * 2012-05-30 2013-12-05 パイオニア株式会社 Display device, head-mounted display, calibration method, calibration program, and recording medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109841182A (en) * 2017-11-28 2019-06-04 乐金显示有限公司 Personal immersion display device and its driving method
CN109841182B (en) * 2017-11-28 2022-07-01 乐金显示有限公司 Personal immersive display device and method of driving the same
JP2019148682A (en) * 2018-02-27 2019-09-05 セイコーエプソン株式会社 Image display system, image display device and method for controlling image display system
JP7022323B2 (en) 2018-02-27 2022-02-18 セイコーエプソン株式会社 Image display system, image display device and control method of image display system
JP2021068145A (en) * 2019-10-23 2021-04-30 セイコーエプソン株式会社 Operation method of head-mounted display device and head-mounted display device
WO2021182124A1 (en) * 2020-03-10 2021-09-16 ソニーグループ株式会社 Information processing device and information processing method
JP7501044B2 (en) 2020-03-30 2024-06-18 セイコーエプソン株式会社 DISPLAY SYSTEM, INFORMATION PROCESSING DEVICE, AND DISPLAY CONTROL METHOD FOR DISPLAY SYSTEM

Also Published As

Publication number Publication date
JP6631014B2 (en) 2020-01-15

Similar Documents

Publication Publication Date Title
JP6693060B2 (en) Display system, display device, display device control method, and program
JP5970872B2 (en) Head-mounted display device and method for controlling head-mounted display device
US10162412B2 (en) Display, control method of display, and program
US9411160B2 (en) Head mounted display, control method for head mounted display, and image display system
US10306217B2 (en) Display device, control method for display device, and computer program
US10838215B2 (en) Head-mounted display apparatus, display control method, and computer program
JP6852355B2 (en) Program, head-mounted display device
JP6492638B2 (en) Display device and control method of display device
US9904053B2 (en) Display device, and method of controlling display device
TW201604586A (en) Display device, control method for display device, and program
JP6631014B2 (en) Display system and display control method
CN109960481B (en) Display system and control method thereof
JP2018142857A (en) Head mounted display device, program, and control method of head mounted display device
JP6600945B2 (en) Head-mounted display device, head-mounted display device control method, and computer program
JP2018137505A (en) Display device and control method thereof
JP2016033759A (en) Display device, method for controlling display device, and program
JP2016024208A (en) Display device, method for controlling display device, and program
KR20170030632A (en) Display device, method of controlling display device, and program
JP6575117B2 (en) Display device, display device control method, and program
JP6428024B2 (en) Display device, display device control method, and program
JP6252002B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP2015087523A (en) Head-mounted display device, method for controlling head-mounted display device, and image display system
US20190086677A1 (en) Head mounted display device and control method for head mounted display device
JP2017062650A (en) Display system, display unit, information display method, and program
JP2016033763A (en) Display device, method for controlling display device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190508

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191125

R150 Certificate of patent or registration of utility model

Ref document number: 6631014

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150