JP2019114236A - Display system, electronic apparatus, and display method - Google Patents

Display system, electronic apparatus, and display method Download PDF

Info

Publication number
JP2019114236A
JP2019114236A JP2018172773A JP2018172773A JP2019114236A JP 2019114236 A JP2019114236 A JP 2019114236A JP 2018172773 A JP2018172773 A JP 2018172773A JP 2018172773 A JP2018172773 A JP 2018172773A JP 2019114236 A JP2019114236 A JP 2019114236A
Authority
JP
Japan
Prior art keywords
display
image
display unit
unit
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018172773A
Other languages
Japanese (ja)
Inventor
佑一 國友
Yuichi Kunitomo
佑一 國友
一馬 北谷
Kazuma Kitatani
一馬 北谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to CN201811561977.5A priority Critical patent/CN109960039B/en
Priority to US16/228,847 priority patent/US10971113B2/en
Publication of JP2019114236A publication Critical patent/JP2019114236A/en
Priority to US17/184,036 priority patent/US11380287B2/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To control display performed by a display in accordance with an external device.SOLUTION: A display system 1 comprises: a PC 300; and an HMD 100. The PC includes an I/F unit 341 that outputs video data. The HMD includes an I/F unit 110 that acquires the video data output from the PC, an image display unit 20 that displays an image superimposed on an outdoor scene visually recognized while the HMD is attached, and a display control unit 122 that controls the image display unit to display the video data acquired by the I/F unit. The display control unit displays the video data on the image display unit in accordance with the position of the PC visually recognized as the outdoor scene.SELECTED DRAWING: Figure 5

Description

本発明は、表示システム、電子機器、及び、表示方法に関する。   The present invention relates to a display system, an electronic device, and a display method.

従来、表示装置において、外部装置の表示画像を受信して表示するものが知られている(例えば、特許文献1参照)。特許文献1には、頭部装着型表示装置(Head Mounted Display:HMD)が、複数の装置の表示画面を統合するため、外部装置が送信する表示画像を受信して、表示部に表示する例が記載されている。   2. Description of the Related Art Conventionally, in a display device, one that receives and displays a display image of an external device is known (for example, see Patent Document 1). In Patent Document 1, an example in which a head mounted display (HMD) receives a display image transmitted by an external device and displays it on a display unit in order to integrate display screens of a plurality of devices. Is described.

特開2015−227919公報JP, 2015-227919, A

特許文献1に開示された構成は、HMDにより全てを表示することを前提として、外部装置の表示画像をHMDの表示において統合することを可能としている。これに対し、表示装置の表示を、表示装置とは異なる外部装置に合わせて制御する手法について、従来、提案された例はない。
本発明は上記事情に鑑みてなされたものであり、表示装置による表示を外部装置に合わせて制御することを目的とする。
The configuration disclosed in Patent Document 1 makes it possible to integrate the display images of the external device in the display of the HMD, on the premise that the entire display is performed by the HMD. On the other hand, there has been no conventionally proposed example of a method of controlling the display of the display device according to an external device different from the display device.
The present invention has been made in view of the above circumstances, and it is an object of the present invention to control display on a display device in accordance with an external device.

上記課題を解決するため、本発明の表示システムは、第1表示部を有する電子機器と、前記電子機器に接続される頭部装着型の表示装置と、を備え、前記電子機器は、画像を出力する出力部を備え、前記表示装置は、前記電子機器が出力する前記画像を取得する取得部と、前記表示装置が装着された状態で視認される外景に重ねて画像を表示する第2表示部と、前記取得部により取得された前記画像を前記第2表示部により表示させる表示制御部と、を備え、前記表示制御部は、外景として視認される前記電子機器の位置に対応させて前記画像を前記第2表示部に表示する。
本発明によれば、電子機器が出力する画像を頭部装着型の表示装置により表示する場合に、外景としての電子機器の位置に対応するように表示する。例えば、外景として見える第1表示部の位置に合わせて、表示装置により、画像を表示できる。このように、外景に重ねて画像を表示する表示装置により、外景として視認される電子機器の位置に合わせた表示を行うことができる。
In order to solve the above-mentioned subject, a display system of the present invention is provided with electronic equipment which has the 1st indicator, and a head mount type display connected to the electronic equipment, and the electronic equipment carries out the picture The display device includes an output unit for outputting, and a second display for displaying an image superimposed on an acquisition unit for acquiring the image output from the electronic device, and an outside scene viewed in a state where the display device is mounted. And a display control unit for causing the second display unit to display the image acquired by the acquisition unit, the display control unit corresponding to the position of the electronic device visually recognized as an outside view An image is displayed on the second display unit.
According to the present invention, when an image output by the electronic device is displayed by the head-mounted display device, the image is displayed to correspond to the position of the electronic device as the outside view. For example, the image can be displayed by the display device in accordance with the position of the first display unit that can be seen as an outside scene. As described above, the display device which displays an image superimposed on the outside scene can perform display in accordance with the position of the electronic device visually recognized as the outside scene.

また、本発明は、前記電子機器は、前記第1表示部よりも広い仮想表示領域に対応する画像を生成し、生成した前記画像の一部を前記第1表示部に表示させ、生成した前記画像の少なくとも一部を前記出力部により出力させる電子機器制御部を備え、前記表示装置が備える前記表示制御部は、前記電子機器により出力された画像の少なくとも一部を、前記電子機器の位置に合わせて前記第2表示部に表示する。
この構成によれば、表示装置の第2表示部に、電子機器の第1表示部よりも広い仮想表示領域に対応する表示を行うことができる。このため、第1表示部より大きい表示領域を、電子機器の位置に合わせて表示でき、表示装置によって、第1表示部を仮想的に拡大できる。
Further, according to the present invention, the electronic device generates an image corresponding to a virtual display area wider than the first display unit, displays a part of the generated image on the first display unit, and generates the image. The display control unit includes an electronic device control unit that causes at least a portion of the image to be output by the output unit, and the display control unit included in the display device sets at least a portion of the image output by the electronic device At the same time, it is displayed on the second display unit.
According to this configuration, it is possible to perform display corresponding to a virtual display area wider than the first display unit of the electronic device on the second display unit of the display device. Therefore, a display area larger than the first display unit can be displayed in alignment with the position of the electronic device, and the display unit can virtually enlarge the first display unit.

また、本発明は、前記電子機器制御部は、前記仮想表示領域に対応させて生成した前記画像のうち、前記第1表示部に表示させた部分を除く前記画像を、前記出力部により出力させ、前記表示装置が備える前記表示制御部は、前記電子機器により出力された画像を前記第2表示部に表示する。
この構成によれば、表示装置が、電子機器の第1表示部よりも広い仮想表示領域に対応する表示を行う場合に、第1表示部に画像の一部が表示され、第2表示部には、第1表示部に表示される部分を除いた部分が表示される。このため、電子機器の表示と、表示装置の表示とを組み合わせた表示を実現できる。例えば、表示装置により、電子機器の周囲に、第2表示部によって画像を表示し、第1表示部を仮想的に拡張する表示態様を実現できる。
Further, according to the present invention, the electronic device control unit causes the output unit to output the image excluding the portion displayed on the first display unit among the images generated corresponding to the virtual display area. The display control unit included in the display device displays an image output by the electronic device on the second display unit.
According to this configuration, when the display device performs display corresponding to a virtual display area wider than the first display unit of the electronic device, a part of the image is displayed on the first display unit, and the second display unit Is a portion excluding the portion displayed on the first display unit. Therefore, it is possible to realize display combining the display of the electronic device and the display of the display device. For example, an image can be displayed by the second display unit around the electronic device by the display device, and a display mode in which the first display unit is virtually expanded can be realized.

また、本発明は、前記表示装置が備える前記表示制御部は、前記電子機器により出力された前記画像を、外景として視認される前記第1表示部の周囲に表示する。
この構成によれば、表示装置の第2表示部により、電子機器の第1表示部の周囲に画像を表示することにより、第1表示部を仮想的に拡張した表示態様を実現できる。
Further, in the present invention, the display control unit included in the display device displays the image output by the electronic device around the first display unit visually recognized as an outside scene.
According to this configuration, by displaying an image around the first display unit of the electronic device by the second display unit of the display device, it is possible to realize a display mode in which the first display unit is virtually expanded.

また、本発明は、前記電子機器制御部は、前記第2表示部に対する前記第1表示部の相対位置に基づいて、前記仮想表示領域に対応させて生成した前記画像の一部を前記第1表示部に表示し、前記第1表示部に表示させた部分を除く前記画像を前記出力部により出力させる。
この構成によれば、電子機器が、第2表示部に対する第1表示部の相対位置に対応するように、表示装置が表示する画像を出力する。このため、表示装置によって電子機器の第1表示部の位置に対応した表示を行う動作を、容易に実現できる。
Further, according to the present invention, the electronic device control unit may control the first part of the image generated in correspondence with the virtual display area based on a relative position of the first display unit to the second display unit. The image displayed on the display unit is output by the output unit except the portion displayed on the first display unit.
According to this configuration, the electronic device outputs the image displayed by the display device so as to correspond to the relative position of the first display unit with respect to the second display unit. Therefore, the operation of performing display corresponding to the position of the first display portion of the electronic device by the display device can be easily realized.

また、本発明は、前記電子機器制御部は、前記第2表示部に対する前記第1表示部の相対位置に基づいて、前記仮想表示領域に対応させて生成した前記画像のうち前記第1表示部に表示させた部分をマスクした画像を前記出力部により出力させる。
この構成によれば、第2表示部に、電子機器の第1表示部に表示される部分が表示されないため、電子機器が表示する画像と、表示装置が表示する画像とを協調させることができる。
Further, according to the present invention, the electronic device control unit controls the first display unit among the images generated corresponding to the virtual display area based on the relative position of the first display unit with respect to the second display unit. The image output unit is configured to output an image obtained by masking the displayed portion.
According to this configuration, since the portion displayed on the first display unit of the electronic device is not displayed on the second display unit, the image displayed by the electronic device can be coordinated with the image displayed by the display device. .

また、本発明は、前記電子機器制御部は、前記仮想表示領域に対応させて生成した前記画像を前記出力部により出力させ、前記表示装置が備える前記表示制御部は、前記電子機器により出力された画像の一部を切り出した画像を前記第2表示部に表示する。
この構成によれば、表示装置の処理により、電子機器が表示する画像の一部を第2表示部に拡大して表示できる。
Further, in the present invention, the electronic device control unit causes the output unit to output the image generated in association with the virtual display area, and the display control unit included in the display device is output by the electronic device. An image obtained by cutting out a part of the image is displayed on the second display unit.
According to this configuration, by the processing of the display device, a part of the image displayed by the electronic device can be enlarged and displayed on the second display unit.

また、本発明は、前記表示制御部は、前記第2表示部に対する前記第1表示部の相対位置に基づいて、前記取得部により取得された前記画像の一部を抽出して前記第2表示部に表示させる。
この構成によれば、表示装置が、表示部に対する第1表示部の相対位置を求めて、この相対位置に対応するように表示用の画像を生成するので、電子機器の負荷を増大させることなく、第1表示部の位置に対応した表示を実現できる。
Further, according to the present invention, the display control unit extracts a part of the image acquired by the acquiring unit based on a relative position of the first display unit with respect to the second display unit and performs the second display. Display on the department.
According to this configuration, the display device determines the relative position of the first display unit with respect to the display unit, and generates an image for display corresponding to the relative position, so that the load on the electronic device is not increased. The display corresponding to the position of the first display unit can be realized.

また、本発明は、前記表示制御部は、前記第2表示部に対する前記第1表示部の相対位置に基づいて、前記取得部により取得された前記画像のうち前記第1表示部に重なる部分をマスクした画像を前記第2表示部に表示させる。
この構成によれば、表示装置の処理により、第2表示部に表示される画像において、第1表示部に表示される部分がマスクされるため、電子機器の負荷を増大させることなく、電子機器が表示する画像と表示装置が表示する画像とを協調させることができる。
Further, according to the present invention, the display control unit determines a portion overlapping the first display unit in the image acquired by the acquisition unit based on the relative position of the first display unit with respect to the second display unit. The masked image is displayed on the second display unit.
According to this configuration, in the image displayed on the second display unit by the processing of the display device, the portion displayed on the first display unit is masked, so the electronic device can be operated without increasing the load on the electronic device. It is possible to coordinate the image displayed by the image with the image displayed by the display device.

また、本発明は、前記電子機器制御部は、実空間における前記電子機器の位置に基づき前記仮想表示領域の位置を決定し、前記仮想表示領域と前記第2表示部との相対位置に基づいて、前記第2表示部の表示態様を調整する。
この構成によれば、表示装置によって、実空間における電子機器の位置に合わせて画像を表示できる。この画像により、電子機器の第1表示部が表示する画像を補完したり、拡張したりする効果を得ることができる。
Further, according to the present invention, the electronic device control unit determines the position of the virtual display area based on the position of the electronic device in the real space, and based on the relative position between the virtual display area and the second display unit. Adjusting a display mode of the second display unit.
According to this configuration, the display device can display the image in accordance with the position of the electronic device in the real space. With this image, it is possible to obtain an effect of complementing or expanding the image displayed by the first display unit of the electronic device.

また、本発明は、前記電子機器制御部は、前記第1表示部が前記第2表示部を透過して視認される範囲に含まれることを検出した場合に、前記第1表示部の位置を基準として、前記画像の表示態様を初期化する。
この構成によれば、表示装置において電子機器の第1表示部が外景として視認できるか否かに対応して、表示態様を調整できる。
Further, in the present invention, when the electronic device control unit detects that the first display unit is included in a range viewed through the second display unit, the position of the first display unit is determined. As a reference, the display mode of the image is initialized.
According to this configuration, it is possible to adjust the display mode in accordance with whether or not the first display unit of the electronic device can be viewed as an outside scene in the display device.

また、本発明は、前記第2表示部は、前記表示装置を装着した使用者の左眼に向けて画像光を発する左眼用表示部、及び、前記使用者の右眼に向けて画像光を発する右眼用表示部を備え、前記第2表示部により外景として視認される前記第1表示部の位置に対応して、前記左眼用表示部による表示位置、及び前記右眼用表示部による表示位置が制御され、前記第2表示部に表示される画像の輻輳角が調整される。
この構成によれば、表示装置が表示する画像の輻輳角を調整することによって、表示装置の表示画像が視認される距離を、電子機器の第1表示部の位置に対応させることができる。これにより、表示装置による表示と電子機器の表示とを、より適切に協調させることができる。
Further, according to the present invention, the second display unit is a display unit for the left eye that emits image light toward the left eye of the user wearing the display device, and an image light directed to the right eye of the user And a display position by the left-eye display unit and a display position for the right-eye display, corresponding to the position of the first display unit viewed as an outside scene by the second display unit. The display position is controlled, and the convergence angle of the image displayed on the second display unit is adjusted.
According to this configuration, by adjusting the convergence angle of the image displayed by the display device, the distance in which the display image of the display device is viewed can be made to correspond to the position of the first display portion of the electronic device. Thus, the display by the display device and the display of the electronic device can be coordinated more appropriately.

また、本発明は、前記第2表示部は、前記第2表示部により表示される画像を前記使用者が知覚する視認距離を調整可能な光学系を有し、前記第2表示部に表示される画像の輻輳角に対応して前記光学系が制御される。
この構成によれば、表示装置の表示画像が視認される距離を、電子機器の第1表示部の位置に対応させるので、表示装置による表示と電子機器の表示とを、より適切に協調させることができる。
Further, according to the present invention, the second display unit includes an optical system capable of adjusting a visible distance at which the user perceives an image displayed by the second display unit, and the second display unit is displayed on the second display unit. The optical system is controlled according to the convergence angle of the image.
According to this configuration, since the distance in which the display image of the display device is viewed corresponds to the position of the first display unit of the electronic device, the display by the display device and the display of the electronic device can be coordinated more appropriately. Can.

また、上記課題を解決するため、本発明の電子機器は、外景に重ねて画像を表示する頭部装着型の表示装置に接続される電子機器であって、第1表示部と、前記表示装置に画像を出力する出力部と、前記表示装置が有する第2表示部に対する前記第1表示部の相対位置に基づいて、前記表示装置によって外景として視認される前記第1表示部の位置に対応する画像を前記第2表示部に表示するための画像を、前記出力部により出力させる制御部と、を備える。
この構成によれば、表示装置に接続される電子機器が、表示装置に画像を出力することによって、表示装置が、外景としての電子機器の第1表示部の位置に対応するように表示を行うことができる。
Further, in order to solve the above problems, an electronic device according to the present invention is an electronic device connected to a head-mounted display device that displays an image superimposed on an outside scene, comprising: a first display unit; Corresponding to the position of the first display portion that is viewed as an outside scene by the display device based on the relative position of the first display portion to the second display portion of the display device and an output unit that outputs an image to the display device. And a control unit that causes the output unit to output an image for displaying the image on the second display unit.
According to this configuration, when the electronic device connected to the display device outputs an image to the display device, the display device performs display such that it corresponds to the position of the first display portion of the electronic device as the outside scene. be able to.

また、上記課題を解決するため、本発明の表示方法は、第1表示部を有する電子機器と、外景に重ねて画像を表示する第2表示部を有する頭部装着型の表示装置と、による表示方法であって、前記電子機器により画像を出力し、前記表示装置により、前記電子機器が出力する前記画像を取得し、取得した画像を前記第2表示部により表示させ、前記第2表示部において外景として視認される前記電子機器の位置に対応させて、前記第2表示部に前記画像を表示する。
本発明によれば、電子機器が出力する画像を表示装置により表示する場合に、外景としての電子機器の位置に対応するように表示する。例えば、外景として見える電子機器の位置に合わせて、表示装置により画像を表示できるので、表示装置によって、電子機器の表示に合わせた表示を行うことができる。
Further, in order to solve the above problems, the display method of the present invention includes an electronic device having a first display portion and a head-mounted display device having a second display portion that displays an image superimposed on an outside scene. A display method, comprising: outputting an image by the electronic device; acquiring the image output by the electronic device by the display device; displaying the acquired image by the second display unit; The image is displayed on the second display unit in correspondence with the position of the electronic device that is visually recognized as the outside scene in the image.
According to the present invention, when the image output by the electronic device is displayed by the display device, the image is displayed to correspond to the position of the electronic device as the outside scene. For example, since the image can be displayed by the display device in accordance with the position of the electronic device viewed as the outside scene, the display device can perform display in accordance with the display of the electronic device.

本発明は、上述した表示システム、電子機器、及び、表示方法以外の種々の形態で実現することも可能である。例えば、上記の表示方法をコンピューターにより実行するためのプログラム、上記プログラムを記録した記録媒体、上記プログラムを配信するサーバー装置、上記プログラムを伝送する伝送媒体、上記プログラムを搬送波内に具現化したデータ信号等の形態で実現できる。   The present invention can also be realized in various forms other than the above-described display system, electronic device, and display method. For example, a program for executing the above display method by a computer, a recording medium recording the above program, a server device for distributing the above program, a transmission medium for transmitting the above program, a data signal embodying the above program in a carrier wave It can be realized in the form of

表示システムを構成するHMD及びPCの外観図。FIG. 2 is an external view of an HMD and a PC that constitute a display system. HMDの光学系の構成を示す図。The figure which shows the structure of the optical system of HMD. 画像表示部を使用者の頭部側から見た要部斜視図。The principal part perspective view which looked at the image display part from the user's head side. HMDの表示部と撮像範囲との対応を示す説明図。Explanatory drawing which shows a response | compatibility with the display part and imaging range of HMD. 表示システムを構成する各部のブロック図。FIG. 2 is a block diagram of each part of the display system. 画像表示部に対するPCの相対位置を求める処理を示す説明図。Explanatory drawing which shows the process which calculates | requires the relative position of PC with respect to an image display part. 表示システムの動作を示すフローチャート。6 is a flowchart showing the operation of the display system. 表示システムの表示態様の例を示す図。The figure which shows the example of the display mode of a display system. 表示システムの表示態様の例を示す図。The figure which shows the example of the display mode of a display system. 表示システムの表示態様の例を示す図。The figure which shows the example of the display mode of a display system. 表示システムの動作を示すフローチャート。6 is a flowchart showing the operation of the display system. 第2実施形態における表示システムの表示態様の例を示す図。The figure which shows the example of the display mode of the display system in 2nd Embodiment. 第3実施形態における表示システムの動作を示すフローチャート。The flowchart which shows operation of the display system in a 3rd embodiment. 第3実施形態における表示システムの動作を示すフローチャート。The flowchart which shows operation of the display system in a 3rd embodiment. 第4実施形態における表示システムを構成する各部のブロック図。The block diagram of each part which comprises the display system in 4th Embodiment.

[1.第1実施形態]
[1−1.表示システムの構成]
図1は、本発明を適用した第1実施形態に係る表示システム1の構成を示す図である。
表示システム1は、HMD(Head Mounted Display:頭部装着型表示装置)100と、HMD100の外部装置としてのPC(Personal Computer)300と、を備える。
[1. First embodiment]
[1-1. Display system configuration]
FIG. 1 is a view showing a configuration of a display system 1 according to a first embodiment to which the present invention is applied.
The display system 1 includes an HMD (Head Mounted Display: head mounted display) 100 and a PC (Personal Computer) 300 as an external device of the HMD 100.

HMD100は、使用者(ユーザー)の頭部に装着された状態で使用者に虚像を視認させる画像表示部20(第2表示部)と、画像表示部20を制御する接続装置10と、を備える表示装置である。接続装置10は、箱形のケース(筐体、あるいは本体ともいえる)に、複数のコネクター11を備える。画像表示部20と接続装置10とは、接続ケーブル40により接続される。   The HMD 100 includes an image display unit 20 (second display unit) that allows the user to visually recognize a virtual image in a state of being attached to the head of a user (user), and the connection device 10 that controls the image display unit 20. It is a display device. The connection device 10 includes a plurality of connectors 11 in a box-shaped case (also referred to as a housing or a main body). The image display unit 20 and the connection device 10 are connected by a connection cable 40.

図1の例で、接続装置10は3つのコネクター11A、11B、11Cを備える。以下の説明において、コネクター11A、11B、11Cを区別しない場合はコネクター11と総称する。コネクター11は、通信ケーブルを接続する有線インターフェイスであり、この通信ケーブルにより、接続装置10は外部の装置と接続される。コネクター11A、11B、11Cは、例えば、公知の通信インターフェイス規格に準拠するコネクターであり、同一形状のコネクターであってもよく、異なる種類のコネクターであってもよい。本実施形態では、一例として、コネクター11Aを、HDMI(登録商標)(High Definition Multimedia Interface)規格に準拠したコネクターとする。また、コネクター11Bを、USB(Universal Serial Bus)−TypeCコネクターとする。また、コネクター11Cを、MicroUSBコネクターとする。   In the example of FIG. 1, the connection device 10 comprises three connectors 11A, 11B, 11C. In the following description, when the connectors 11A, 11B, and 11C are not distinguished, they are collectively referred to as the connector 11. The connector 11 is a wired interface for connecting a communication cable, and the connection device 10 is connected to an external device by the communication cable. The connectors 11A, 11B, 11C are, for example, connectors conforming to known communication interface standards, and may be connectors of the same shape or may be different types of connectors. In the present embodiment, as an example, the connector 11A is a connector conforming to the HDMI (High Definition Multimedia Interface) standard. Further, the connector 11B is a USB (Universal Serial Bus) -Type C connector. Further, the connector 11C is a Micro USB connector.

図1の例では、接続装置10とPC300とがケーブル2により接続される。ケーブル2は、PC300とコネクター11Aとを接続するHDMIケーブル2A、及び、PC300とコネクター11Bとを接続するUSBケーブル2Bで構成される。この例では、PC300は、映像伝送用のHDMIインターフェイス、及び、データ通信用のUSBインターフェイスにより、接続装置10に接続される。   In the example of FIG. 1, the connection device 10 and the PC 300 are connected by the cable 2. The cable 2 includes an HDMI cable 2A connecting the PC 300 and the connector 11A, and a USB cable 2B connecting the PC 300 and the connector 11B. In this example, the PC 300 is connected to the connection device 10 by an HDMI interface for video transmission and a USB interface for data communication.

PC300は、画像を表示する表示部330を備えるコンピューターであり、本発明の電子機器に相当する。PC300は、好ましくは可搬型のコンピューターであり、タブレット型コンピューター、ノート型コンピューター、スマートフォン等が挙げられる。図1のPC300は、平板状の本体の表面に、第1表示部としての表示部330を備える。表示部330は、液晶表示パネル、有機EL(Electro Luminescent)表示パネル等の表示パネル331(図5)を備え、表示パネル331の表面に、ユーザーの接触操作を検出するタッチセンサー332(図5)が設けられる。
PC300は、HMD100に対しては外部機器として機能する。外部機器は、表示画面を備え、表示画面に画像を表示する機能を有する電子デバイスであればよく、本実施形態ではあくまで一例としてPC300を示す。
The PC 300 is a computer including a display unit 330 that displays an image, and corresponds to the electronic device of the present invention. The PC 300 is preferably a portable computer, and includes a tablet computer, a notebook computer, a smartphone, and the like. The PC 300 of FIG. 1 includes a display unit 330 as a first display unit on the surface of a flat plate-like main body. The display unit 330 includes a display panel 331 (FIG. 5) such as a liquid crystal display panel or an organic EL (Electro Luminescent) display panel, and detects the touch operation of the user on the surface of the display panel 331 (FIG. 5) Is provided.
The PC 300 functions as an external device for the HMD 100. The external device may be an electronic device having a display screen and having a function of displaying an image on the display screen, and in the present embodiment, the PC 300 is shown as an example only.

画像表示部20は、使用者の頭部に装着される装着体であり、いわゆる頭部装着型ディスプレイ(HMD)である。つまり、HMD100は、HMD本体としての画像表示部20に、PC300等の外部装置を接続するための接続装置10を繋げた構成である。画像表示部20は、本実施形態では眼鏡形状を有する。画像表示部20は、右保持部21と、左保持部23と、前部フレーム27とを有する本体に、右表示ユニット22(右眼用表示部)、左表示ユニット24(左眼用表示部)、右導光板26、及び左導光板28を備える。   The image display unit 20 is a mounted body mounted on the head of the user, and is a so-called head mounted display (HMD). That is, the HMD 100 has a configuration in which the connection device 10 for connecting an external device such as the PC 300 is connected to the image display unit 20 as the HMD main body. The image display unit 20 has an eyeglass shape in the present embodiment. The image display unit 20 includes a right display unit 22 (right-eye display unit), a left display unit 24 (left-eye display unit), and a main body including a right holding unit 21, a left holding unit 23, and a front frame 27. , The right light guide plate 26 and the left light guide plate 28.

右保持部21及び左保持部23は、それぞれ、前部フレーム27の両端部から後方に延び、眼鏡のテンプル(つる)のように、使用者の頭部に画像表示部20を保持する。ここで、前部フレーム27の両端部のうち、画像表示部20の装着状態において使用者の右側に位置する端部を端部ERとし、使用者の左側に位置する端部を端部ELとする。右保持部21は、前部フレーム27の端部ERから、画像表示部20装着状態において使用者の右側頭部に対応する位置まで延伸して設けられる。左保持部23は、端部ELから、画像表示部20の装着状態において使用者の左側頭部に対応する位置まで延伸して設けられる。   The right holding unit 21 and the left holding unit 23 respectively extend rearward from the both ends of the front frame 27 and hold the image display unit 20 on the head of the user like temples of glasses. Here, among the both ends of the front frame 27, the end located on the right side of the user in the mounted state of the image display unit 20 is the end ER, and the end located on the left of the user is the end EL Do. The right holding portion 21 extends from the end portion ER of the front frame 27 to a position corresponding to the user's right head in the mounted state of the image display portion 20. The left holding portion 23 is extended from the end portion EL to a position corresponding to the left head of the user in the mounted state of the image display portion 20.

右導光板26及び左導光板28は、前部フレーム27に設けられる。右導光板26は、画像表示部20の装着状態において使用者の右眼の眼前に位置し、右眼に画像を視認させる。左導光板28は、画像表示部20の装着状態において使用者の左眼の眼前に位置し、左眼に画像を視認させる。   The right light guide plate 26 and the left light guide plate 28 are provided on the front frame 27. The right light guide plate 26 is located in front of the user's right eye in the mounted state of the image display unit 20 and makes the right eye visually recognize the image. The left light guide plate 28 is positioned in front of the user's left eye in the mounted state of the image display unit 20, and makes the left eye visually recognize the image.

前部フレーム27は、右導光板26の一端と左導光板28の一端とを互いに連結した形状を有し、この連結位置は、使用者が画像表示部20を装着する装着状態で、使用者の眉間に対応する。前部フレーム27は、右導光板26と左導光板28との連結位置において、画像表示部20の装着状態で使用者の鼻に当接する鼻当て部を設けてもよい。この場合、鼻当て部と右保持部21及び左保持部23とにより画像表示部20を使用者の頭部に保持できる。また、右保持部21及び左保持部23に、画像表示部20の装着状態において使用者の後頭部に接するベルト(図示略)を連結してもよく、この場合、ベルトによって画像表示部20を使用者の頭部に保持できる。   The front frame 27 has a shape in which one end of the right light guide plate 26 and one end of the left light guide plate 28 are connected to each other, and this connection position is used by the user while the user wears the image display unit 20. Corresponds to the gap between The front frame 27 may be provided with a nose pad portion that contacts the nose of the user in a mounted state of the image display unit 20 at the connection position of the right light guide plate 26 and the left light guide plate 28. In this case, the image display unit 20 can be held on the head of the user by the nose pad, the right holding unit 21 and the left holding unit 23. Further, a belt (not shown) in contact with the back of the user in the mounted state of the image display unit 20 may be connected to the right holding unit 21 and the left holding unit 23. In this case, the image display unit 20 is used by the belt. Can be held on the head of the person.

右表示ユニット22及び左表示ユニット24は、それぞれ、光学ユニット及び周辺回路をユニット化したモジュールである。
右表示ユニット22は、右導光板26による画像の表示に係るユニットであり、右保持部21に設けられ、装着状態において使用者の右側頭部の近傍に位置する。左表示ユニット24は、左導光板28による画像の表示に係るユニットであり、左保持部23に設けられ、装着状態において使用者の左側頭部の近傍に位置する。なお、右表示ユニット22及び左表示ユニット24を総称して単に「表示駆動部」とも呼ぶ。
The right display unit 22 and the left display unit 24 are modules obtained by unitizing the optical unit and the peripheral circuit, respectively.
The right display unit 22 is a unit related to the display of an image by the right light guide plate 26. The right display unit 22 is provided in the right holding unit 21 and is positioned near the user's right head in the mounted state. The left display unit 24 is a unit related to the display of an image by the left light guide plate 28, is provided in the left holding unit 23, and is located near the left head of the user in the mounted state. The right display unit 22 and the left display unit 24 are collectively referred to simply as "display drive unit".

右導光板26及び左導光板28は、光透過性の樹脂等によって形成される光学部であり、右表示ユニット22及び左表示ユニット24が出力する画像光を、使用者の眼に導く。右導光板26及び左導光板28は、例えばプリズムである。   The right light guide plate 26 and the left light guide plate 28 are optical parts formed of a light transmissive resin or the like, and guide the image light output from the right display unit 22 and the left display unit 24 to the eyes of the user. The right light guide plate 26 and the left light guide plate 28 are, for example, prisms.

右導光板26及び左導光板28の表面に、調光板(図示略)を設けてもよい。調光板は、光の波長域により透過率が異なる薄板上の光学素子であり、いわゆる波長フィルターとして機能する。調光板は、例えば、使用者の眼の側とは反対の側である前部フレーム27の表側を覆うように配置される。この調光板の光学特性を適宜選択することによって、可視光、赤外光及び紫外光等の任意の波長域の光の透過率を調整することができ、外部から右導光板26及び左導光板28に入射し、右導光板26及び左導光板28を透過する外光の光量を調整できる。   A light control plate (not shown) may be provided on the surfaces of the right light guide plate 26 and the left light guide plate 28. The light control plate is an optical element on a thin plate whose transmittance is different depending on the wavelength range of light, and functions as a so-called wavelength filter. The light control plate is disposed, for example, to cover the front side of the front frame 27 which is the side opposite to the side of the user's eye. By appropriately selecting the optical characteristics of this light control plate, it is possible to adjust the transmittance of light of any wavelength range such as visible light, infrared light and ultraviolet light, and the right light guide plate 26 and the left It is possible to adjust the amount of external light that is incident on the light plate 28 and transmitted through the right light guide plate 26 and the left light guide plate 28.

画像表示部20は、右表示ユニット22及び左表示ユニット24がそれぞれ生成する画像光を、右導光板26及び左導光板28に導き、この画像光によって虚像を使用者に視認させることによって、画像を表示する。使用者の前方から、右導光板26及び左導光板28を透過して外光が使用者の眼に入射する場合、使用者の眼には、虚像を構成する画像光および外光が入射することとなり、虚像の視認性が外光の強さに影響される。このため、例えば前部フレーム27に調光板を装着し、調光板の光学特性を適宜選択あるいは調整することによって、虚像の視認のしやすさを調整できる。典型的な例では、HMD100を装着した使用者が少なくとも外の景色を視認できる程度の光透過性を有する調光板を用いることができる。また、調光板を用いると、右導光板26及び左導光板28を保護し、右導光板26及び左導光板28の損傷や汚れの付着等を抑制する効果が期待できる。調光板は、前部フレーム27、或いは、右導光板26及び左導光板28のそれぞれに対し着脱可能としてもよく、複数種類の調光板を交換して装着可能としてもよく、調光板を省略してもよい。   The image display unit 20 guides the image light generated by the right display unit 22 and the left display unit 24 to the right light guide plate 26 and the left light guide plate 28, and causes the user to visually recognize the virtual image by the image light. Display When external light is incident on the user's eyes through the right light guide plate 26 and the left light guide plate 28 from the front of the user, the image light and the external light constituting the virtual image are incident on the user's eyes Therefore, the visibility of the virtual image is affected by the intensity of the external light. Therefore, for example, by mounting a light control plate on the front frame 27 and appropriately selecting or adjusting the optical characteristics of the light control plate, the visibility of the virtual image can be adjusted. In a typical example, it is possible to use a light control plate having a light transmittance that allows a user wearing the HMD 100 to at least visually recognize the outside scenery. Further, when the light control plate is used, the effect of protecting the right light guide plate 26 and the left light guide plate 28 and suppressing the damage of the right light guide plate 26 and the left light guide plate 28 or the adhesion of dirt can be expected. The light control plate may be detachably attached to each of the front frame 27 or the right light guide plate 26 and the left light guide plate 28. Alternatively, a plurality of types of light control plates may be replaced and mounted. May be omitted.

画像表示部20の右表示ユニット22及び左表示ユニット24は、それぞれ、接続装置10に接続される。HMD100では、左保持部23に接続ケーブル40が接続され、この接続ケーブル40に繋がる配線が画像表示部20内部に敷設され、右表示ユニット22と左表示ユニット24のそれぞれが接続装置10に接続される。   The right display unit 22 and the left display unit 24 of the image display unit 20 are connected to the connection device 10, respectively. In the HMD 100, the connection cable 40 is connected to the left holding unit 23, the wiring connected to the connection cable 40 is laid inside the image display unit 20, and the right display unit 22 and the left display unit 24 are connected to the connection device 10. Ru.

カメラ61は、画像表示部20の前部フレーム27に配設される。カメラ61は、使用者が画像表示部20を装着した状態で視認する外景方向を撮像することが望ましく、前部フレーム27の前面において、右導光板26及び左導光板28を透過する外光を遮らない位置に設けられる。図1の例では、カメラ61が前部フレーム27の端部ER側に配置される。カメラ61は、端部EL側に配置されてもよく、右導光板26と左導光板28との連結部に配置されてもよい。   The camera 61 is disposed on the front frame 27 of the image display unit 20. It is desirable that the camera 61 picks up an image of the outside view direction viewed by the user while wearing the image display unit 20, and in the front of the front frame 27, outside light passing through the right light guide plate 26 and the left light guide plate 28 is It is provided at an unobstructed position. In the example of FIG. 1, the camera 61 is disposed on the end ER side of the front frame 27. The camera 61 may be disposed on the end EL side, or may be disposed at a connecting portion between the right light guide plate 26 and the left light guide plate 28.

カメラ61は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、本実施形態のカメラ61は単眼カメラであるが、ステレオカメラで構成してもよい。カメラ61は、HMD100の表側方向、換言すれば、HMD100を装着した状態における使用者の視界方向の少なくとも一部の外景を撮像する。外景は、実空間と言い換えることができる。   The camera 61 is a digital camera provided with an imaging element such as a CCD or CMOS, an imaging lens, etc. The camera 61 in this embodiment is a monocular camera, but may be a stereo camera. The camera 61 captures an outside view of at least a part of the direction of the front side of the HMD 100, in other words, the direction of the user's view in the state where the HMD 100 is mounted. The outside view can be reworded as real space.

別の表現では、カメラ61は、使用者の視界と重なる範囲または方向を撮像し、使用者が注視する方向を撮像する。カメラ61の画角の広さは適宜設定可能であるが、本実施形態では、後述するように、使用者が右導光板26及び左導光板28を通して視認する外界を含む。より好ましくは、右導光板26及び左導光板28を透過して視認可能な使用者の視界の全体を撮像できるように、カメラ61の撮像範囲が設定される。   In another expression, the camera 61 images an area or direction overlapping the user's field of view, and images the direction in which the user gazes. Although the width of the angle of view of the camera 61 can be set as appropriate, in the present embodiment, as described later, the user includes the external world visually recognized through the right light guide plate 26 and the left light guide plate 28. More preferably, the imaging range of the camera 61 is set so as to be able to image the entire view of the user visible through the right light guide plate 26 and the left light guide plate 28.

HMD100は、距離センサー64を備える。距離センサー64は、右光学像表示部26と左光学像表示部28との境目部分に配置される。使用者が画像表示部20を装着した状態で、距離センサー64の位置は、水平方向においては使用者の両眼のほぼ中間であり、鉛直方向においては使用者の両眼より上である。
距離センサー64は、予め設定された測定方向に位置する測定対象物までの距離を検出する。本実施形態の距離センサー64の測定方向は、HMD100の表側方向であり、カメラ61の撮像方向と重複する。
The HMD 100 includes a distance sensor 64. The distance sensor 64 is disposed at the boundary between the right optical image display unit 26 and the left optical image display unit 28. When the user wears the image display unit 20, the position of the distance sensor 64 is approximately halfway between the user's eyes in the horizontal direction and above the user's eyes in the vertical direction.
The distance sensor 64 detects the distance to the measurement object located in the preset measurement direction. The measurement direction of the distance sensor 64 of the present embodiment is the front side direction of the HMD 100, and overlaps the imaging direction of the camera 61.

図2は、HMD100の光学系の構成を示す要部平面図である。図2には説明のため使用者の左眼LE及び右眼REを図示する。
図2に示すように、右表示ユニット22と左表示ユニット24とは、左右対称に構成される。使用者の右眼REに画像を視認させる構成として、右表示ユニット22は、画像光を発するOLED(Organic Light Emitting Diode)ユニット221を備える。また、OLEDユニット221が発する画像光Lを導くレンズ群等を備えた右光学系251を備える。画像光Lは、右光学系251により右導光板26に導かれる。
FIG. 2 is a plan view of relevant parts showing the configuration of the optical system of the HMD 100. FIG. The left eye LE and the right eye RE of the user are illustrated in FIG. 2 for the sake of explanation.
As shown in FIG. 2, the right display unit 22 and the left display unit 24 are configured to be laterally symmetrical. The right display unit 22 includes an OLED (Organic Light Emitting Diode) unit 221 that emits image light, as a configuration for causing the user's right eye RE to visually recognize the image. The right optical system 251 is provided with a lens group or the like for guiding the image light L emitted by the OLED unit 221. The image light L is guided to the right light guide plate 26 by the right optical system 251.

OLEDユニット221は、OLEDパネル223と、OLEDパネル223を駆動するOLED駆動回路225とを有する。OLEDパネル223は、有機エレクトロルミネッセンスにより発光してR(赤)、G(緑)、B(青)の色光をそれぞれ発する発光素子を、マトリクス状に配置して構成される、自発光型の表示パネルである。OLEDパネル223は、R、G、Bの素子を1個ずつ含む単位を1画素として、複数の画素を備え、マトリクス状に配置される画素により画像を形成する。   The OLED unit 221 includes an OLED panel 223 and an OLED driving circuit 225 that drives the OLED panel 223. The OLED panel 223 is a self-emission type display configured by arranging light emitting elements emitting light by organic electroluminescence to emit R (red), G (green) and B (blue) color light in a matrix, respectively. It is a panel. The OLED panel 223 includes a plurality of pixels with a unit including one each of R, G, and B elements as one pixel, and forms an image by pixels arranged in a matrix.

OLED駆動回路225は、接続装置10から入力される画像データに基づき、OLEDパネル223が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル223の発光素子を発光させる。OLED駆動回路225は、OLEDパネル223の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路225は、例えばOLEDパネル223を駆動する半導体デバイスで構成され、OLEDパネル223の裏面に固定される基板(図示略)に実装されてもよい。この基板には温度センサー217が実装される。
なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成であってもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加え、W(白)の光を発する発光素子を備えるWRGB構成のOLEDパネル223を用いてもよい。
The OLED drive circuit 225 executes selection of the light emitting element included in the OLED panel 223 and energization of the light emitting element based on the image data input from the connection device 10 to cause the light emitting element of the OLED panel 223 to emit light. The OLED driving circuit 225 is fixed to the back surface of the OLED panel 223, that is, the back side of the light emitting surface by bonding or the like. The OLED drive circuit 225 is configured of, for example, a semiconductor device that drives the OLED panel 223, and may be mounted on a substrate (not shown) fixed to the back surface of the OLED panel 223. A temperature sensor 217 is mounted on this substrate.
The OLED panel 223 may have a configuration in which light emitting elements emitting white light are arranged in a matrix, and color filters corresponding to R, G, and B colors are overlapped and arranged. In addition to light emitting elements that respectively emit R, G, and B color light, an OLED panel 223 having a WRGB configuration may be used that includes light emitting elements that emit W (white) light.

右光学系251は、OLEDパネル223から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板26に入射する。右導光板26の内部において光を導く光路には、画像光Lを反射する複数の反射面が形成される。画像光Lは、右導光板26の内部で複数回の反射を経て右眼RE側に導かれる。右導光板26には、右眼REの眼前に位置するハーフミラー261(反射面)が形成される。画像光Lは、ハーフミラー261で反射して右眼REに向けて右導光板26から射出され、この画像光Lが右眼REの網膜に像を結び、使用者に画像を視認させる。   The right optical system 251 has a collimating lens that converts the image light L emitted from the OLED panel 223 into parallel light beams. The image light L converted into parallel light beams by the collimator lens is incident on the right light guide plate 26. A plurality of reflecting surfaces for reflecting the image light L are formed in the light path for guiding the light inside the right light guide plate 26. The image light L is guided to the right eye RE side through multiple reflections inside the right light guide plate 26. The right light guide plate 26 is formed with a half mirror 261 (reflection surface) located in front of the right eye RE. The image light L is reflected by the half mirror 261 and emitted from the right light guide plate 26 toward the right eye RE, and this image light L forms an image on the retina of the right eye RE and causes the user to view the image.

また、使用者の左眼LEに画像を視認させる構成として、左表示ユニット24は、画像光を発するOLEDユニット241と、OLEDユニット241が発する画像光Lを導くレンズ群等を備えた左光学系252とを備える。画像光Lは、左光学系252により左導光板28に導かれる。   In addition, as a configuration for causing the left eye LE of the user to visually recognize an image, the left display unit 24 includes an OLED unit 241 that emits image light and a lens group that guides the image light L emitted by the OLED unit 241. And 252. The image light L is guided to the left light guide plate 28 by the left optical system 252.

OLEDユニット241は、OLEDパネル243と、OLEDパネル243を駆動するOLED駆動回路245とを有する。OLEDパネル243は、OLEDパネル223と同様に構成される自発光型の表示パネルである。OLED駆動回路245は、接続装置10から入力される画像データに基づき、OLEDパネル243が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル243の発光素子を発光させる。OLED駆動回路245は、OLEDパネル243の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路245は、例えばOLEDパネル243を駆動する半導体デバイスで構成され、OLEDパネル243の裏面に固定される基板(図示略)に実装されてもよい。この基板には、温度センサー239が実装される。   The OLED unit 241 includes an OLED panel 243 and an OLED driving circuit 245 that drives the OLED panel 243. The OLED panel 243 is a self-emission display panel configured similarly to the OLED panel 223. The OLED drive circuit 245 executes selection of the light emitting element included in the OLED panel 243 and energization of the light emitting element based on the image data input from the connection device 10 to cause the light emitting element of the OLED panel 243 to emit light. The OLED driving circuit 245 is fixed to the back surface of the OLED panel 243, that is, the back side of the light emitting surface by bonding or the like. The OLED drive circuit 245 is configured of, for example, a semiconductor device that drives the OLED panel 243, and may be mounted on a substrate (not shown) fixed to the back surface of the OLED panel 243. A temperature sensor 239 is mounted on this substrate.

左光学系252は、OLEDパネル243から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、左導光板28に入射する。左導光板28は、画像光Lを反射する複数の反射面が形成された光学素子であり、例えばプリズムである。画像光Lは、左導光板28の内部で複数回の反射を経て左眼LE側に導かれる。左導光板28には、左眼LEの眼前に位置するハーフミラー281(反射面)が形成される。画像光Lは、ハーフミラー281で反射して左眼LEに向けて左導光板28から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者に画像を視認させる。   The left optical system 252 has a collimating lens that converts the image light L emitted from the OLED panel 243 into parallel light beams. The image light L converted into parallel light beams by the collimator lens is incident on the left light guide plate 28. The left light guide plate 28 is an optical element in which a plurality of reflecting surfaces for reflecting the image light L are formed, and is, for example, a prism. The image light L is guided to the left eye LE side through multiple reflections inside the left light guide plate 28. The left light guide plate 28 is formed with a half mirror 281 (reflection surface) positioned in front of the left eye LE. The image light L is reflected by the half mirror 281 and emitted from the left light guide plate 28 toward the left eye LE, and this image light L forms an image on the retina of the left eye LE to make the user visually recognize the image.

HMD100は、シースルー型の表示装置として機能する。すなわち、使用者の右眼REには、ハーフミラー261で反射した画像光Lと、右導光板26を透過した外光OLとが入射する。また、左眼LEには、ハーフミラー281で反射した画像光Lと、ハーフミラー281を透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させ、使用者にとっては、右導光板26及び左導光板28を透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。ハーフミラー261、281は、右表示ユニット22及び左表示ユニット24がそれぞれ出力する画像光を反射して画像を取り出す画像取り出し部であり、表示部と呼ぶこともできる。   The HMD 100 functions as a see-through display device. That is, the image light L reflected by the half mirror 261 and the external light OL transmitted through the right light guide plate 26 enter the right eye RE of the user. Further, the image light L reflected by the half mirror 281 and the external light OL transmitted through the half mirror 281 enter the left eye LE. As described above, the HMD 100 superimposes the image light L of the image processed internally and the external light OL and makes the light incident on the user's eyes, and for the user, the right light guide plate 26 and the left light guide plate 28 Is superimposed on this outside scene, and an image by the image light L is viewed. The half mirrors 261 and 281 are image extracting units that reflect the image light output from the right display unit 22 and the left display unit 24 to extract an image, and can also be called a display unit.

なお、左光学系252と左導光板28とを総称して「左導光部」とも呼び、右光学系251と右導光板26とを総称して「右導光部」と呼ぶ。右導光部及び左導光部の構成は上記の例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。   The left optical system 252 and the left light guide plate 28 are collectively referred to as "left light guide portion", and the right optical system 251 and the right light guide plate 26 are collectively referred to as "right light guide portion". The configuration of the right light guide and the left light guide is not limited to the above example, and any method can be used as long as a virtual image is formed in front of the user's eye using image light, for example, a diffraction grating It may be used or a semi-transmissive reflective film may be used.

図3は、画像表示部20を使用者の頭部側から見た要部斜視図であり、画像表示部20の使用者の頭部に接する側、言い換えれば使用者の右眼RE及び左眼LEに見える側である。別の言い方をすれば、右導光板26及び左導光板28の裏側が見えている。
図3では、使用者の右眼REに画像光を照射するハーフミラー261、及び、左眼LEに画像光を照射するハーフミラー281が、略四角形の領域として見える。また、ハーフミラー261、281を含む右導光板26及び左導光板28の全体が、上述したように外光を透過する。このため、使用者には、右導光板26及び左導光板28の全体を透過して外景が視認され、ハーフミラー261、281の位置に矩形の表示画像が視認される。
FIG. 3 is a perspective view of the main part when the image display unit 20 is viewed from the head side of the user, the side of the image display unit 20 in contact with the user's head, in other words, the right eye RE and left eye of the user It is the side seen by LE. In other words, the back side of the right light guide plate 26 and the left light guide plate 28 can be seen.
In FIG. 3, the half mirror 261 that irradiates the image light to the right eye RE of the user and the half mirror 281 that irradiates the image light to the left eye LE can be seen as a substantially rectangular area. Further, the entire right light guide plate 26 and the left light guide plate 28 including the half mirrors 261 and 281 transmit external light as described above. Therefore, the user can visually recognize the outside scene through the entire right light guide plate 26 and the left light guide plate 28, and a rectangular display image is visually recognized at the positions of the half mirrors 261 and 281.

図4は、HMD100の画像表示部20と撮像範囲との対応を示す説明図である。
カメラ61は、上記のように画像表示部20において右側の端部に配置され、使用者の両眼が向く方向、すなわち使用者にとって前方を撮像する。
FIG. 4 is an explanatory view showing the correspondence between the image display unit 20 of the HMD 100 and the imaging range.
The camera 61 is disposed at the right end of the image display unit 20 as described above, and images the direction in which the user's eyes are directed, that is, the front of the user.

図4には、カメラ61の位置を、使用者の右眼RE及び左眼LEとともに平面視で模式的に示す図である。カメラ61の画角(撮像範囲)をCで示す。なお、図4には水平方向の画角Cを示すが、カメラ61の実際の画角は一般的なデジタルカメラと同様に上下方向にも拡がる。   FIG. 4 is a view schematically showing the position of the camera 61 together with the right eye RE and the left eye LE of the user in a plan view. The angle of view (imaging range) of the camera 61 is indicated by C. Although the angle of view C in the horizontal direction is shown in FIG. 4, the actual angle of view of the camera 61 extends in the vertical direction as in a general digital camera.

カメラ61の光軸は、右眼REの視線方向RD及び左眼LEの視線方向LDを含む方向とされる。使用者がHMD100を装着した状態で視認できる外景は、無限遠とは限らない。例えば図4に示すように、使用者が両眼で対象物OBを注視すると、使用者の視線RD、LDは対象物OBに向けられる。この場合、使用者から対象物OBまでの距離は、30cm〜10m程度であることが多く、1m〜4m程度であることが、より多い。そこで、HMD100について、通常使用時における使用者から対象物OBまでの距離の上限、及び下限の目安を定めてもよい。この目安は調査や実験により求めてもよいし使用者が設定してもよい。カメラ61の光軸、及び画角は、通常使用時における対象物OBまでの距離が、設定された上限の目安に相当する場合、及び、下限の目安に相当する場合に、この対象物OBが画角に含まれるように、設定されることが好ましい。   The optical axis of the camera 61 is a direction including the viewing direction RD of the right eye RE and the viewing direction LD of the left eye LE. The view that can be viewed by the user while wearing the HMD 100 is not limited to infinity. For example, as shown in FIG. 4, when the user gazes at the object OB with both eyes, the user's gaze RD, LD is directed to the object OB. In this case, the distance from the user to the object OB is often about 30 cm to 10 m, and more often about 1 m to 4 m. Therefore, for the HMD 100, an indication of the upper limit and the lower limit of the distance from the user to the object OB during normal use may be determined. This standard may be obtained by survey or experiment, or may be set by the user. The optical axis of the camera 61, and the angle of view, when the distance to the object OB in normal use corresponds to a standard of the set upper limit, and when it corresponds to a standard of the lower limit, It is preferably set to be included in the angle of view.

また、一般に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされ、そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。さらに、人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45度〜70度程度とされている。この場合、注視点が、図4の対象物OBであるとき、視線RD、LDを中心として水平方向に30度、垂直方向に20度程度が有効視野である。また、水平方向に60〜90度、垂直方向に45度〜70度程度が安定注視野であり、水平方向に約200度、垂直方向に約125度が視野角となる。さらに、使用者が画像表示部20を透過して右導光板26及び左導光板28を透過して視認する実際の視野を、実視野(FOV:Field Of View)と呼ぶことができる。図1及び図2に示す本実施形態の構成で、実視野は、右導光板26及び左導光板28を透過して使用者が視認する実際の視野に相当する。実視野は、視野角及び安定注視野より狭いが、有効視野より広い。   Generally, the viewing angle of human beings is approximately 200 degrees in the horizontal direction and approximately 125 degrees in the vertical direction, and of these, the effective field of view excellent in information acceptance ability is approximately 30 degrees in the horizontal direction and approximately 20 degrees in the vertical direction. Furthermore, a stable fixation field in which a fixation point at which a person gazes is seen quickly and stably appears to be 60 to 90 degrees in the horizontal direction and 45 degrees to 70 degrees in the vertical direction. In this case, when the fixation point is the object OB of FIG. 4, the effective visual field is approximately 30 degrees in the horizontal direction and approximately 20 degrees in the vertical direction around the sight lines RD and LD. Further, a stable fixation field of about 60 to 90 degrees in the horizontal direction and 45 to 70 degrees in the vertical direction is a stable fixation field, and a viewing angle is about 200 degrees in the horizontal direction and about 125 degrees in the vertical direction. Furthermore, an actual visual field that a user passes through the image display unit 20 and passes through the right light guide plate 26 and the left light guide plate 28 for visual recognition can be called a field of view (FOV). In the configuration of the present embodiment shown in FIG. 1 and FIG. 2, the actual field of view corresponds to the actual field of view seen by the user through the right light guide plate 26 and the left light guide plate 28. The real view is narrower than the view angle and the stable fixation, but wider than the effective view.

カメラ61の画角Cは、使用者の視野よりも広い範囲を撮像可能であることが好ましく、具体的には、画角Cが、少なくとも使用者の有効視野よりも広いことが好ましい。また、画角Cが、使用者の実視野よりも広いことが、より好ましい。さらに好ましくは、画角Cが、使用者の安定注視野よりも広く、最も好ましくは、画角Cが使用者の両眼の視野角よりも広い。   The angle of view C of the camera 61 is preferably capable of imaging a wider range than the field of view of the user. Specifically, the angle of view C is preferably at least wider than the effective field of view of the user. Furthermore, it is more preferable that the angle of view C be wider than the user's actual field of view. More preferably, the angle of view C is wider than the user's stable fixation field, and most preferably, the angle of view C is wider than the viewing angle of both eyes of the user.

カメラ61が、撮像レンズとして、いわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよいし、単焦点レンズであってもズームレンズであってもよく、複数のレンズからなるレンズ群をカメラ61が備える構成であってもよい。   The camera 61 may have a so-called wide-angle lens as an imaging lens, and may be configured to be capable of imaging a wide angle of view. The wide-angle lens may include a lens called an ultra-wide-angle lens or a quasi-wide-angle lens, or may be a single-focus lens or a zoom lens, and the camera 61 includes a lens group including a plurality of lenses. It may be.

また、上述のように、本実施形態のカメラ61は、画像表示部20の前部フレーム27において端部ER側に配置されるが、端部EL側に配置されてもよく、右導光板26と左導光板28との連結部に配置されてもよい。この場合、カメラ61の左右方向における位置は図4の位置とは異なり、画角Cは、カメラ61の位置に応じて適宜に設定される。具体的には、カメラ61が端部EL側にある場合、画角Cは図4中の右斜め前を向く。まや、例えばカメラ61が右導光板26と左導光板28との連結部に配置される場合、画角Cは画像表示部20の正面を向く。   Further, as described above, the camera 61 of the present embodiment is disposed on the end ER side in the front frame 27 of the image display unit 20, but may be disposed on the end EL side. And the left light guide plate 28 may be disposed. In this case, the position of the camera 61 in the left-right direction is different from the position in FIG. 4, and the angle of view C is appropriately set according to the position of the camera 61. Specifically, when the camera 61 is on the end EL side, the angle of view C faces the front right in FIG. If, for example, the camera 61 is disposed at the connection portion between the right light guide plate 26 and the left light guide plate 28, the angle of view C faces the front of the image display unit 20.

使用者が右眼RE及び左眼LEで物体を見る場合、右眼REの視線方向と左眼LEの視線方向とがなす角度により、物体までの距離を知覚し、認識する。この角度は輻輳角と呼ばれ、例えば図4に示す対象物OBを見る場合の輻輳角はPAである。
使用者がハーフミラー261、281に表示される画像を見る場合の輻輳角は、右眼REでハーフミラー261の画像を見る場合の視線方向と、左眼LEでハーフミラー281の画像を見る場合の視線方向との角度である。この場合の輻輳角の大きさは、ハーフミラー261、281における画像の表示位置により決まる。従って、右表示ユニット22及び左表示ユニット24が画像を表示する表示位置を調整することによって、輻輳角を制御して、使用者が視覚により認識する距離感を制御できる。例えば、右表示ユニット22及び左表示ユニット24により表示される画像について、使用者が認識する距離感(視認距離)を調整できる。
When the user looks at an object with the right eye RE and the left eye LE, the distance to the object is perceived and recognized by the angle formed by the direction of the right eye RE and the direction of the left eye LE. This angle is called the convergence angle, and the convergence angle is PA, for example, when looking at the object OB shown in FIG.
The convergence angle when the user looks at the image displayed on the half mirror 261, 281 is the viewing direction when the image of the half mirror 261 is viewed with the right eye RE and the image when the half mirror 281 is viewed with the left eye LE. Is the angle with the direction of the eyes of the The size of the convergence angle in this case is determined by the display position of the image on the half mirrors 261 and 281. Therefore, by adjusting the display position at which the right display unit 22 and the left display unit 24 display the image, the convergence angle can be controlled to control the sense of distance that the user visually recognizes. For example, with regard to the images displayed by the right display unit 22 and the left display unit 24, it is possible to adjust the sense of distance (visible distance) recognized by the user.

また、距離センサー64は、右光学像表示部26と左光学像表示部28との中央において、前方を向いて配置される。   Further, the distance sensor 64 is disposed to face forward at the center of the right optical image display unit 26 and the left optical image display unit 28.

[1−2.表示システムの制御系]
図5は、表示システム1を構成するHMD100及びPC300の構成を示すブロック図である。
上述のように、HMD100は、接続装置10と、画像表示部20とを接続ケーブル40により接続して構成される。
[1-2. Control system of display system]
FIG. 5 is a block diagram showing the configurations of the HMD 100 and the PC 300 that constitute the display system 1.
As described above, the HMD 100 is configured by connecting the connection device 10 and the image display unit 20 by the connection cable 40.

画像表示部20は、上述したように右表示ユニット22及び左表示ユニット24を備える。右表示ユニット22は、表示ユニット基板210を有する。表示ユニット基板210には、接続ケーブル40に接続される接続部211、接続部211を介して接続装置10から入力されるデータを受信する受信部(Rx)213、及び、EEPROM215(記憶部)が実装される。
接続部211は、受信部213、EEPROM215、温度センサー217、カメラ61、距離センサー64、照度センサー65、及びLEDインジケーター67を、接続装置10に接続する。
The image display unit 20 includes the right display unit 22 and the left display unit 24 as described above. The right display unit 22 has a display unit substrate 210. The display unit substrate 210 includes a connection unit 211 connected to the connection cable 40, a reception unit (Rx) 213 that receives data input from the connection device 10 via the connection unit 211, and an EEPROM 215 (storage unit). Implemented.
The connection unit 211 connects the reception unit 213, the EEPROM 215, the temperature sensor 217, the camera 61, the distance sensor 64, the illuminance sensor 65, and the LED indicator 67 to the connection device 10.

EEPROM(Electrically Erasable Programmable Read−Only Memory)215は、各種のデータを不揮発的に記憶する。EEPROM215は、例えば、画像表示部20が備えるOLEDユニット221、241の発光特性や表示特性に関するデータ、右表示ユニット22または左表示ユニット24が備えるセンサーの特性に関するデータなどを記憶する。具体的には、OLEDユニット221、241のガンマ補正に係るパラメーター、温度センサー217、239の検出値を補償するデータ等を記憶する。これらのデータは、HMD100の工場出荷時の検査によって生成され、EEPROM215に書き込まれる。EEPROM215が記憶するデータは、制御部120により読取り可能である。   An EEPROM (Electrically Erasable Programmable Read-Only Memory) 215 stores various data in a nonvolatile manner. The EEPROM 215 stores, for example, data related to light emission characteristics and display characteristics of the OLED units 221 and 241 included in the image display unit 20, data related to characteristics of sensors included in the right display unit 22 or the left display unit 24, and the like. Specifically, parameters relating to the gamma correction of the OLED units 221 and 241, data for compensating the detection values of the temperature sensors 217 and 239, and the like are stored. These data are generated by factory inspection of the HMD 100 and written to the EEPROM 215. The data stored in the EEPROM 215 can be read by the control unit 120.

カメラ61は、接続部211を介して入力される信号に従って撮像を実行し、撮像画像データを、接続部211に出力する。
照度センサー65は、図1に示すように、前部フレーム27の端部ERに設けられ、画像表示部20を装着する使用者の前方からの外光を受光するよう配置される。照度センサー65は、受光量(受光強度)に対応する検出値を出力する。
LEDインジケーター67は、図1に示すように、前部フレーム27の端部ERにおいてカメラ61の近傍に配置される。LEDインジケーター67は、カメラ61による撮像を実行中に点灯して、撮像中であることを報知する。
The camera 61 performs imaging in accordance with a signal input via the connection unit 211, and outputs captured image data to the connection unit 211.
As shown in FIG. 1, the illuminance sensor 65 is provided at the end ER of the front frame 27 and is arranged to receive external light from the front of the user wearing the image display unit 20. The illuminance sensor 65 outputs a detection value corresponding to the light receiving amount (light receiving intensity).
The LED indicator 67 is disposed near the camera 61 at the end ER of the front frame 27, as shown in FIG. The LED indicator 67 lights up while imaging by the camera 61 is performed to notify that imaging is in progress.

温度センサー217は、温度を検出し、検出温度に対応する電圧値あるいは抵抗値を、検出値として出力する。温度センサー217は、OLEDパネル223(図3)の裏面側に実装される。温度センサー217は、例えばOLED駆動回路225と同一の基板に実装されてもよい。この構成により、温度センサー217は、主としてOLEDパネル223の温度を検出する。   The temperature sensor 217 detects a temperature, and outputs a voltage value or a resistance value corresponding to the detected temperature as a detected value. The temperature sensor 217 is mounted on the back side of the OLED panel 223 (FIG. 3). The temperature sensor 217 may be mounted on the same substrate as the OLED drive circuit 225, for example. With this configuration, the temperature sensor 217 mainly detects the temperature of the OLED panel 223.

距離センサー64は、距離検出を実行し、検出結果を示す信号を、接続部211を介して接続装置10に出力する。距離センサー64は、例えば、赤外線式深度(Depth)センサー、超音波式距離センサー、TOF(Time Of Flight)式距離センサー、画像検出と音声検出とを組み合わせた距離検出ユニット等を用いることができる。また、ステレオカメラや単眼カメラによるステレオ撮影で得られる画像を処理して距離を検出する構成であってもよい。
図5には1つの距離センサー64を図示するが、図4に示す一対の距離センサー64、64が同時に動作してもよい。また、一対の距離センサー64、64のそれぞれが、接続部211に接続され、独立して動作する構成であってもよい。
The distance sensor 64 performs distance detection, and outputs a signal indicating the detection result to the connection device 10 via the connection unit 211. The distance sensor 64 may be, for example, an infrared depth sensor, an ultrasonic distance sensor, a TOF (Time Of Flight) distance sensor, or a distance detection unit in which image detection and voice detection are combined. Alternatively, the distance may be detected by processing an image obtained by stereo imaging with a stereo camera or a single-eye camera.
Although one distance sensor 64 is illustrated in FIG. 5, a pair of distance sensors 64, 64 shown in FIG. 4 may operate simultaneously. In addition, each of the pair of distance sensors 64 may be connected to the connection unit 211 and operate independently.

受信部213は、接続部211を介して接続装置10から伝送される表示用の画像データを受信し、OLEDユニット221に出力する。   The receiving unit 213 receives the image data for display transmitted from the connection apparatus 10 via the connection unit 211 and outputs the image data to the OLED unit 221.

左表示ユニット24は、表示ユニット基板210を有する。表示ユニット基板210には、接続ケーブル40に接続される接続部231、接続部231を介して接続装置10から入力されるデータを受信する受信部(Rx)233が実装される。また、表示ユニット基板210には、6軸センサー235、及び、磁気センサー237が実装される。
接続部231は、受信部233、6軸センサー235、磁気センサー237、及び温度センサー239を、接続装置10に接続する。
The left display unit 24 has a display unit substrate 210. On the display unit substrate 210, a connection unit 231 connected to the connection cable 40 and a reception unit (Rx) 233 for receiving data input from the connection device 10 through the connection unit 231 are mounted. Further, on the display unit substrate 210, a six-axis sensor 235 and a magnetic sensor 237 are mounted.
The connection unit 231 connects the reception unit 233, the six-axis sensor 235, the magnetic sensor 237, and the temperature sensor 239 to the connection device 10.

6軸センサー235は、3軸加速度センサー、及び、3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー235は、上記のセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。磁気センサー237は、例えば、3軸の地磁気センサーである。   The six-axis sensor 235 is a motion sensor (inertial sensor) including a three-axis acceleration sensor and a three-axis gyro (angular velocity) sensor. The six-axis sensor 235 may employ an IMU (Inertial Measurement Unit) in which the above-described sensor is modularized. The magnetic sensor 237 is, for example, a triaxial geomagnetic sensor.

温度センサー239は、温度を検出し、検出温度に対応する電圧値あるいは抵抗値を、検出値として出力する。温度センサー239は、OLEDパネル243(図3)の裏面側に実装される。温度センサー239は、例えばOLED駆動回路245と同一の基板に実装されてもよい。この構成により、温度センサー239は、主としてOLEDパネル243の温度を検出する。
また、温度センサー239が、OLEDパネル243或いはOLED駆動回路245に内蔵されてもよい。また、上記基板は半導体基板であってもよい。具体的には、OLEDパネル243が、Si−OLEDとして、OLED駆動回路245等とともに統合半導体チップ上の集積回路として実装される場合、この半導体チップに温度センサー239を実装してもよい。
The temperature sensor 239 detects a temperature, and outputs a voltage value or a resistance value corresponding to the detected temperature as a detected value. The temperature sensor 239 is mounted on the back side of the OLED panel 243 (FIG. 3). The temperature sensor 239 may be mounted on the same substrate as the OLED drive circuit 245, for example. With this configuration, the temperature sensor 239 mainly detects the temperature of the OLED panel 243.
Also, the temperature sensor 239 may be incorporated in the OLED panel 243 or the OLED drive circuit 245. The substrate may be a semiconductor substrate. Specifically, when the OLED panel 243 is implemented as an Si-OLED, as an integrated circuit on an integrated semiconductor chip together with the OLED drive circuit 245 etc, the temperature sensor 239 may be implemented on this semiconductor chip.

画像表示部20の各部は、接続ケーブル40により接続装置10から供給される電力により動作する。画像表示部20は、接続ケーブル40により供給される電力の電圧変換や分配をするための電源回路(図示略)を備えてもよい。   Each part of the image display unit 20 operates with the power supplied from the connection device 10 by the connection cable 40. The image display unit 20 may include a power supply circuit (not shown) for performing voltage conversion and distribution of the power supplied by the connection cable 40.

接続装置10は、I/F(インターフェイス)部110、制御部120、表示制御部122、センサー制御部124、電源制御部126、不揮発性記憶部130、操作部140、及び、接続部145を備える。取得部としてのI/F部110は、コネクター11A、11B、11Cを備える。また、I/F部110は、コネクター11A、11B、11Cに接続されて、各種通信規格に準拠した通信プロトコルを実行するインターフェイス回路(図示略)を備えてもよい。また、I/F部110は、コネクター11A、11B、11Cを介して給電を受ける構成であってもよい。   The connection device 10 includes an I / F (interface) unit 110, a control unit 120, a display control unit 122, a sensor control unit 124, a power control unit 126, a non-volatile storage unit 130, an operation unit 140, and a connection unit 145. . The I / F unit 110 as an acquisition unit includes connectors 11A, 11B, and 11C. The I / F unit 110 may also include an interface circuit (not shown) connected to the connectors 11A, 11B, and 11C to execute communication protocols conforming to various communication standards. The I / F unit 110 may be configured to receive power supply via the connectors 11A, 11B, and 11C.

I/F部110は、例えば、外部の記憶装置や記憶媒体を接続可能なメモリーカード用インターフェイス等を備えてもよいし、I/F部110を無線通信インターフェイスで構成してもよい。I/F部110は、例えば、コネクター11A、11B、11C及びインターフェイス回路を実装したインターフェイス基板であってもよい。また、接続装置10の制御部120や表示制御部122、センサー制御部124、電源制御部126が接続装置メイン基板(図示略)に実装される構成としてもよい。この場合、接続装置メイン基板にI/F部110のコネクター11A、11B、11C及びインターフェイス回路を実装してもよい。   The I / F unit 110 may include, for example, a memory card interface or the like to which an external storage device or storage medium can be connected, or the I / F unit 110 may be configured by a wireless communication interface. The I / F unit 110 may be, for example, an interface board on which the connectors 11A, 11B, 11C and the interface circuit are mounted. Further, the control unit 120, the display control unit 122, the sensor control unit 124, and the power control unit 126 of the connection device 10 may be mounted on the connection device main board (not shown). In this case, the connectors 11A, 11B, 11C and the interface circuit of the I / F unit 110 may be mounted on the connection device main board.

制御部120は、接続装置10の各部を制御する。制御部120は、CPU(Central Processing Unit)やマイコン等のプロセッサー(図示略)を備える。制御部120は、プロセッサーによりプログラムを実行することによって、ソフトウェアとハードウェアとの協働によりHMD100の各部を制御する。また、制御部120は、プログラムされたハードウェアにより構成されてもよい。制御部120は、プロセッサーとともに、ワークエリアを形成するRAM(Random Access Memory)、制御プログラムを記憶するROM(Read Only Memory)を備えてもよい。また、プロセッサー、RAM、及びROMを統合した半導体デバイスであってもよい。
制御部120には、不揮発性記憶部130、操作部140、及び、接続部145が接続される。
The control unit 120 controls each unit of the connection device 10. The control unit 120 includes a processor (not shown) such as a CPU (Central Processing Unit) or a microcomputer. The control unit 120 controls each unit of the HMD 100 by cooperation of software and hardware by executing a program by the processor. Also, the control unit 120 may be configured by programmed hardware. The control unit 120 may include, in addition to the processor, a random access memory (RAM) forming a work area, and a read only memory (ROM) storing a control program. In addition, the semiconductor device may be an integrated processor, RAM, and ROM.
The non-volatile storage unit 130, the operation unit 140, and the connection unit 145 are connected to the control unit 120.

表示制御部122は、I/F部110に入力される画像データや映像データに基づく画像を画像表示部20により表示するための各種処理を実行する。例えば、表示制御部122は、フレームの切り出し、解像度変換(スケーリング)、中間フレーム生成、フレームレート変換等の各種処理を実行する。表示制御部122は、右表示ユニット22のOLEDユニット221、及び、左表示ユニット24のOLEDユニット241の各々に対応する画像データを接続部145に出力する。接続部145に入力された画像データは、接続ケーブル40を介して接続部211、231に伝送される。
フレームの「切り出し」の具体的な例で、表示制御部122は、画像表示部20が画像を表示する表示領域のサイズよりも大きな画像全体をワークエリアに展開する。表示領域は、例えば、OLEDユニット221、241において画像が形成される領域である。また、画像のサイズは、画素数または解像度で示される。表示制御部122は、展開した画像のうち、切り出す領域のデータだけを右表示ユニット22及び左表示ユニット24に転送する。
The display control unit 122 executes various processes for displaying an image based on image data and video data input to the I / F unit 110 by the image display unit 20. For example, the display control unit 122 executes various processes such as frame extraction, resolution conversion (scaling), intermediate frame generation, and frame rate conversion. The display control unit 122 outputs the image data corresponding to each of the OLED unit 221 of the right display unit 22 and the OLED unit 241 of the left display unit 24 to the connection unit 145. The image data input to the connection unit 145 is transmitted to the connection units 211 and 231 via the connection cable 40.
In a specific example of “cutout” of a frame, the display control unit 122 develops in the work area the entire image larger than the size of the display area where the image display unit 20 displays the image. The display area is, for example, an area where an image is formed in the OLED units 221 and 241. Also, the size of the image is indicated by the number of pixels or resolution. The display control unit 122 transfers, to the right display unit 22 and the left display unit 24, only the data of the region to be cut out of the developed image.

また、表示制御部122は、画像表示部20の表示領域よりも大きな画像データを取得し、取得した画像データから、画像表示部20により表示するサイズの画像データだけを抜き出した画像データを生成して、右表示ユニット22及び左表示ユニット24に転送してもよい。   In addition, the display control unit 122 acquires image data larger than the display area of the image display unit 20, and generates image data in which only image data of a size to be displayed by the image display unit 20 is extracted from the acquired image data. It may be transferred to the right display unit 22 and the left display unit 24.

表示制御部122は、例えば、I/F部110に入力された映像データが3D(立体)映像データである場合に、3D映像デコードを実行する。3D映像デコードの処理において、表示制御部122は、3D映像データから右眼用のフレームと左眼用のフレームとを生成する。I/F部110に入力される3D映像データの形式は、例えば、サイドバイサイド形式、トップアンドボトム形式、フレームパッキング形式等が挙げられるが、3Dモデルデータであってもよい。   The display control unit 122 executes 3D video decoding, for example, when the video data input to the I / F unit 110 is 3D (stereoscopic) video data. In the 3D video decoding process, the display control unit 122 generates a frame for the right eye and a frame for the left eye from the 3D video data. Examples of the format of 3D video data input to the I / F unit 110 include a side-by-side format, a top-and-bottom format, and a frame packing format, but may be 3D model data.

表示制御部122は、I/F部110が備えるコネクター11A、及び、コネクター11Bに接続される。表示制御部122は、コネクター11Aに入力される映像データ、及び、コネクター11Bに入力される映像データを対象として、処理を実行する。また、表示制御部122は、コネクター11A、またはコネクター11Bに接続された装置との間で、映像データの伝送に関する各種制御データを送受信する機能を有していてもよい。   The display control unit 122 is connected to the connector 11A included in the I / F unit 110 and the connector 11B. The display control unit 122 executes processing on video data input to the connector 11A and video data input to the connector 11B. In addition, the display control unit 122 may have a function of transmitting and receiving various control data related to transmission of video data with the device connected to the connector 11A or the connector 11B.

センサー制御部124は、カメラ61、距離センサー64、照度センサー65、温度センサー217、6軸センサー235、磁気センサー237、及び、温度センサー239を制御する。具体的には、センサー制御部124は、制御部120の制御に従って各センサーのサンプリング周期の設定及び初期化を行い、各センサーのサンプリング周期に合わせて、各センサーへの通電、制御データの送信、検出値の取得等を実行する。   The sensor control unit 124 controls the camera 61, the distance sensor 64, the illuminance sensor 65, the temperature sensor 217, the six-axis sensor 235, the magnetic sensor 237, and the temperature sensor 239. Specifically, the sensor control unit 124 performs setting and initialization of the sampling cycle of each sensor according to the control of the control unit 120, powers on each sensor, and transmits control data according to the sampling cycle of each sensor, Execute acquisition of detected value etc.

また、センサー制御部124は、I/F部110のコネクター11Bに接続され、予め設定されたタイミングで、各センサーから取得した検出値に関するデータをコネクター11Bに出力する。これにより、コネクター11Bに接続された装置は、HMD100の各センサーの検出値や、カメラ61の撮像画像データを取得できる。センサー制御部124が出力するデータは、検出値を含むデジタルデータであってもよい。また、センサー制御部124は、各センサーの検出値をもとに演算処理した結果のデータを出力してもよい。例えば、センサー制御部124は、複数のセンサーの検出値を統合的に処理し、いわゆるセンサーフュージョン処理部として機能する。センサーフュージョンを実行することにより、センサー制御部124は、センサーの検出値から求めたデータ、例えば、画像表示部20の動きの軌跡データや、画像表示部20の相対座標データ等を出力する。センサー制御部124は、コネクター11Bに接続された装置との間で、データの伝送に関する各種制御データを送受信する機能を有していてもよい。   Further, the sensor control unit 124 is connected to the connector 11B of the I / F unit 110, and outputs, to the connector 11B, data on detection values acquired from each sensor at a preset timing. As a result, the device connected to the connector 11B can acquire the detection value of each sensor of the HMD 100 and the captured image data of the camera 61. The data output by the sensor control unit 124 may be digital data including a detection value. Further, the sensor control unit 124 may output data as a result of arithmetic processing based on the detection value of each sensor. For example, the sensor control unit 124 integrally processes detection values of a plurality of sensors and functions as a so-called sensor fusion processing unit. By executing the sensor fusion, the sensor control unit 124 outputs data obtained from the detection value of the sensor, for example, movement trajectory data of the image display unit 20, relative coordinate data of the image display unit 20, and the like. The sensor control unit 124 may have a function of transmitting and receiving various control data related to data transmission with a device connected to the connector 11B.

表示制御部122、及び/またはセンサー制御部124は、CPU等のプロセッサーがプログラムを実行することにより、ソフトウェアとハードウェアとの協働により実現されてもよい。すなわち、表示制御部122及びセンサー制御部124は、プロセッサーにより構成され、プログラムを実行することで上記の動作を実行する。この例で、表示制御部122及びセンサー制御部124は、制御部120を構成するプロセッサーがプログラムを実行することで実現されてもよい。言い換えれば、プロセッサーがプログラムを実行することで、制御部120、表示制御部122、及びセンサー制御部124として機能してもよい。ここで、プロセッサーは、コンピューターと言い換えることができる。   The display control unit 122 and / or the sensor control unit 124 may be realized by cooperation of software and hardware when a processor such as a CPU executes a program. That is, the display control unit 122 and the sensor control unit 124 are configured by a processor, and execute the above-described operation by executing a program. In this example, the display control unit 122 and the sensor control unit 124 may be realized as a processor configuring the control unit 120 executes a program. In other words, the processor may function as the control unit 120, the display control unit 122, and the sensor control unit 124 by executing a program. Here, the processor can be reworded as a computer.

また、表示制御部122、及び、センサー制御部124は、DSP(Digital Signal Processor)やFPGA(Field Programmable Gate Array)等、プログラムされたハードウェアにより構成されてもよい。また、表示制御部122及びセンサー制御部124を統合して、SoC(System−on−a−Chip)−FPGAとして構成してもよい。   In addition, the display control unit 122 and the sensor control unit 124 may be configured by programmed hardware such as a digital signal processor (DSP) or a field programmable gate array (FPGA). Further, the display control unit 122 and the sensor control unit 124 may be integrated to be configured as a SoC (System-on-a-Chip) -FPGA.

電源制御部126は、I/F部110が備えるコネクター11B及びコネクター11Cに接続される。電源制御部126は、コネクター11B、11Cから供給される電力に基づき、接続装置10の各部および画像表示部20に対する電源供給を行う。また、電源制御部126は、電圧変換回路(図示略)を内蔵し、異なる電圧を接続装置10及び画像表示部20の各部に供給可能な構成であってもよい。電源制御部126は、ロジック回路や、FPGA等のプログラムされた半導体デバイスで構成されてもよい。また、電源制御部126を表示制御部122、及び/またはセンサー制御部124と共通のハードウェア(プロセッサーを含む)で構成してもよい。
表示制御部122、センサー制御部124及び電源制御部126は、データ処理を行うためのワークメモリーを具備してもよく、制御部120が備えるRAM(図示略)のワークエリアを利用して処理を行ってもよい。
The power control unit 126 is connected to the connector 11B and the connector 11C included in the I / F unit 110. The power control unit 126 supplies power to each unit of the connection device 10 and the image display unit 20 based on the power supplied from the connectors 11B and 11C. The power supply control unit 126 may be configured to include a voltage conversion circuit (not shown) and supply different voltages to the connection device 10 and each unit of the image display unit 20. The power control unit 126 may be configured by a logic circuit or a programmed semiconductor device such as an FPGA. Further, the power control unit 126 may be configured by hardware (including a processor) common to the display control unit 122 and / or the sensor control unit 124.
The display control unit 122, the sensor control unit 124, and the power supply control unit 126 may have a work memory for performing data processing, and processing is performed using a work area of a RAM (not shown) provided in the control unit 120. You may go.

制御部120は、右表示ユニット22が備えるEEPROM215からデータを読み出し、読み出したデータに基づいて、表示制御部122及びセンサー制御部124の動作を設定する。また、制御部120は、操作部140における操作に従って、表示制御部122、センサー制御部124、及び、電源制御部126を含む各部を動作させる。また、制御部120は、表示制御部122、センサー制御部124及び電源制御部126がI/F部110を介して接続された装置を識別し、各装置に適した動作を実行するように、表示制御部122、センサー制御部124及び電源制御部126を制御する。   The control unit 120 reads data from the EEPROM 215 of the right display unit 22 and sets the operations of the display control unit 122 and the sensor control unit 124 based on the read data. Further, the control unit 120 operates the respective units including the display control unit 122, the sensor control unit 124, and the power control unit 126 according to the operation in the operation unit 140. In addition, the control unit 120 causes the display control unit 122, the sensor control unit 124, and the power supply control unit 126 to identify devices connected via the I / F unit 110, and to execute an operation suitable for each device. The display control unit 122, the sensor control unit 124, and the power control unit 126 are controlled.

また、制御部120は、LEDインジケーター67への通電開始及び停止を制御する。例えば、カメラ61が撮像を開始及び終了するタイミングに合わせて、LEDインジケーター67を点灯または点滅させる。   Further, the control unit 120 controls the start and stop of energization of the LED indicator 67. For example, the LED indicator 67 is lighted or blinked at the timing when the camera 61 starts and ends imaging.

不揮発性記憶部130は、制御部120が処理するデータ等を不揮発的に記憶する記憶装置である。不揮発性記憶部130は、例えば、HDD(Hard Disk Drive)等の磁気的記録装置、或いは、フラッシュメモリー等の半導体記憶素子を用いた記憶装置である。   The non-volatile storage unit 130 is a storage device that stores data and the like processed by the control unit 120 in a non-volatile manner. The nonvolatile storage unit 130 is, for example, a magnetic storage device such as a hard disk drive (HDD) or a storage device using a semiconductor storage element such as a flash memory.

また、接続装置10は充電可能なバッテリー(図示略)を備え、このバッテリーから接続装置10及び画像表示部20の各部に電力を供給する構成であってもよい。   Further, the connection device 10 may be provided with a rechargeable battery (not shown), and power may be supplied from the battery to the connection device 10 and each part of the image display unit 20.

PC300は、制御部310、不揮発性記憶部320、表示部330、I/F(インターフェイス)部341、及び、通信部345を備える。制御部310(電子機器制御部)は、CPUやマイコン等のプロセッサー(図示略)を備え、このプロセッサーによりプログラムを実行することにより、PC300の各部を制御する。制御部310は、プロセッサー(いわゆるコンピューター)が実行する制御プログラムを不揮発的に記憶するROM、及び、プロセッサーのワークエリアを構成するRAMを備えてもよい。   The PC 300 includes a control unit 310, a non-volatile storage unit 320, a display unit 330, an I / F (interface) unit 341, and a communication unit 345. The control unit 310 (electronic device control unit) includes a processor (not shown) such as a CPU or a microcomputer, and controls each unit of the PC 300 by executing a program using this processor. The control unit 310 may include a ROM which non-volatilely stores a control program executed by a processor (so-called computer), and a RAM which constitutes a work area of the processor.

不揮発性記憶部320は、制御部310により実行されるプログラムや、制御部310が処理するデータを不揮発的に記憶する。不揮発性記憶部130は、例えば、HDD等の磁気的記録装置、或いは、フラッシュメモリー等の半導体記憶素子を用いた記憶装置である。   The non-volatile storage unit 320 stores the program executed by the control unit 310 and the data processed by the control unit 310 in a non-volatile manner. The non-volatile storage unit 130 is, for example, a storage device using a magnetic recording device such as an HDD or a semiconductor storage element such as a flash memory.

不揮発性記憶部320は、例えば、映像を含むコンテンツのコンテンツデータ321を記憶する。コンテンツデータ321は、制御部310により処理可能なフォーマットのファイルであり、映像データを含み、音声データを含んでもよい。
また、不揮発性記憶部320は、制御部310が実行する基本制御プログラムとしてのオペレーティングシステム(OS)、OSをプラットフォームとして動作するアプリケーションプログラム等を記憶する。また、不揮発性記憶部320は、アプリケーションプログラムの実行時に処理されるデータや処理結果のデータを記憶する。
The non-volatile storage unit 320 stores, for example, content data 321 of content including video. The content data 321 is a file of a format that can be processed by the control unit 310, includes video data, and may include audio data.
Further, the non-volatile storage unit 320 stores an operating system (OS) as a basic control program executed by the control unit 310, an application program operating with the OS as a platform, and the like. In addition, the non-volatile storage unit 320 stores data processed at the time of execution of the application program and data of the processing result.

表示部330が備える表示パネル331、及び、タッチセンサー332は、制御部310に接続される。表示パネル331は、制御部310の制御に基づき各種画像を表示する。タッチセンサー332は、タッチ操作を検出し、検出した操作を示すデータを制御部310に出力する。タッチセンサー332が出力するデータは、タッチセンサー332における操作位置を示す座標データ等である。   The display panel 331 included in the display unit 330 and the touch sensor 332 are connected to the control unit 310. The display panel 331 displays various images based on the control of the control unit 310. The touch sensor 332 detects a touch operation, and outputs data indicating the detected operation to the control unit 310. Data output from the touch sensor 332 is coordinate data or the like indicating an operation position on the touch sensor 332.

I/F部341は、外部の装置に接続されるインターフェイスであり、本発明の出力部に相当する。I/F部341は、例えば、HDMIインターフェイス、USBインターフェイス等の規格に準拠した通信を実行する。I/F部341は、ケーブル(例えば、ケーブル2)を接続するコネクター(図示略)、及び、コネクターを伝送される信号を処理するインターフェイス回路(図示略)を備える。I/F部341は、コネクター及びインターフェイス回路を有するインターフェイス基板であり、制御部310のプロセッサー等が実装されるメイン基板に接続される。或いは、I/F部341を構成するコネクター及びインターフェイス回路が、PC300のメイン基板に実装される。本実施形態で、I/F部341は、HDMIインターフェイス、及び、USBインターフェイスを備え、HDMIケーブル2A及びUSBケーブル2Bにより、コネクター11A、11Bに接続される。制御部310は、例えば、HDMIケーブル2Aにより映像データを出力し、USBケーブル2Bにより接続装置10からセンサーの出力値に関するデータ等を受信する。I/F部341は、HDMIケーブル2Aによる通信とUSBケーブル2Bによる通信とを独立して実行できる。また、I/F部341は、無線通信インターフェイスであってもよい。この場合、I/F部341は、RF部を含む通信回路を実装したインターフェイス基板、或いは、メイン基板に実装される回路とすることができる。   The I / F unit 341 is an interface connected to an external device, and corresponds to the output unit of the present invention. The I / F unit 341 executes, for example, communication conforming to a standard such as an HDMI interface or a USB interface. The I / F unit 341 includes a connector (not shown) that connects a cable (for example, the cable 2), and an interface circuit (not shown) that processes signals transmitted through the connector. The I / F unit 341 is an interface board having a connector and an interface circuit, and is connected to a main board on which the processor or the like of the control unit 310 is mounted. Alternatively, the connector and interface circuit constituting the I / F unit 341 are mounted on the main substrate of the PC 300. In the present embodiment, the I / F unit 341 includes an HDMI interface and a USB interface, and is connected to the connectors 11A and 11B by the HDMI cable 2A and the USB cable 2B. For example, the control unit 310 outputs video data by the HDMI cable 2A, and receives data and the like regarding the output value of the sensor from the connection device 10 by the USB cable 2B. The I / F unit 341 can independently execute communication by the HDMI cable 2A and communication by the USB cable 2B. The I / F unit 341 may also be a wireless communication interface. In this case, the I / F unit 341 can be an interface substrate on which a communication circuit including an RF unit is mounted, or a circuit mounted on a main substrate.

通信部345は、外部の装置とデータ通信を実行する通信インターフェイスである。通信部345は、ケーブルを接続可能な有線通信インターフェイスであってもよいし、無線通信インターフェイスであってもよい。例えば、Ethernet(登録商標)に対応する有線LANインターフェイスや、IEEE802.11規格に対応する無線LANインターフェイスであってもよい。   The communication unit 345 is a communication interface that performs data communication with an external device. The communication unit 345 may be a wired communication interface capable of connecting a cable or may be a wireless communication interface. For example, a wired LAN interface compatible with Ethernet (registered trademark) or a wireless LAN interface compliant with the IEEE 802.11 standard may be used.

制御部310は、上記のようにプログラムを実行することにより、入出力制御部311、検出値取得部312、位置検出部313、及び、画像調整部315として機能する。
入出力制御部311は、タッチセンサー332から入力されるデータに基づき、ユーザーによる入力を検出する。また、入出力制御部311は、I/F部341及び通信部345によるデータの入出力を制御する。
The control unit 310 functions as the input / output control unit 311, the detection value acquisition unit 312, the position detection unit 313, and the image adjustment unit 315 by executing the program as described above.
The input / output control unit 311 detects an input by the user based on data input from the touch sensor 332. Further, the input / output control unit 311 controls input / output of data by the I / F unit 341 and the communication unit 345.

検出値取得部312は、I/F部341により接続された接続装置10から、HMD100が備える各センサーの検出値に関するデータを取得する。検出値取得部312は、カメラ61の撮像画像データや、距離センサー64、照度センサー65、EEPROM215、6軸センサー235、磁気センサー237、温度センサー239等の検出値に関するデータを、接続装置10から取得する。検出値取得部312が取得するデータは、センサー制御部124により処理されたデータであり、各センサーの検出値を含むデータや、センサー制御部124により統計的に処理されたデータであってもよい。   The detection value acquisition unit 312 acquires, from the connection device 10 connected by the I / F unit 341, data on detection values of the respective sensors included in the HMD 100. The detection value acquisition unit 312 acquires, from the connection device 10, data regarding detection values of the captured image data of the camera 61, the distance sensor 64, the illuminance sensor 65, the EEPROM 215, the six-axis sensor 235, the magnetic sensor 237, the temperature sensor 239, and the like. Do. The data acquired by the detection value acquisition unit 312 is data processed by the sensor control unit 124, and may be data including detection values of each sensor or data statistically processed by the sensor control unit 124. .

位置検出部313は、検出値取得部312により取得されたデータに基づき、HMD100の位置を検出する。より詳細には、位置検出部313は、PC300と画像表示部20との相対位置を検出する。ここで、位置検出部313が検出する相対位置は、画像表示部20とPC300が存在する空間における位置であってもよいし、画像表示部20と表示部330の相対的な向きを含んでもよい。例えば、画像表示部20を基準とした場合の表示部330の位置および/または方向を示す情報であってもよい。また、例えば、PC300を基準とした場合の画像表示部20の位置および/または方向を示す情報であってもよい。また、例えば、画像表示部20及びPC300が存在する空間に設定された三次元座標系における座標を含んでいてもよい。
位置検出部313による位置検出については後述する。
The position detection unit 313 detects the position of the HMD 100 based on the data acquired by the detection value acquisition unit 312. More specifically, the position detection unit 313 detects the relative position between the PC 300 and the image display unit 20. Here, the relative position detected by the position detection unit 313 may be a position in the space in which the image display unit 20 and the PC 300 exist, or may include the relative orientation of the image display unit 20 and the display unit 330. . For example, it may be information indicating the position and / or the direction of the display unit 330 based on the image display unit 20. Further, for example, information indicating the position and / or the direction of the image display unit 20 with reference to the PC 300 may be used. Also, for example, coordinates in a three-dimensional coordinate system set in the space in which the image display unit 20 and the PC 300 exist may be included.
The position detection by the position detection unit 313 will be described later.

PC300が接続装置10に出力する映像データは、コンテンツデータ321を再生した映像データのほか、PC300が表示部330により表示している画面の映像データとすることができる。この場合、接続装置10は、表示部330と同じ画面を表示し、いわゆるミラーリング表示を行う。   The video data output from the PC 300 to the connection device 10 can be video data of a screen displayed by the display unit 330 as well as video data obtained by reproducing the content data 321. In this case, the connection adapter 10 displays the same screen as the display unit 330 and performs so-called mirroring display.

また、画像調整部315は、表示部330に、接続装置10が表示している画像およびPC300に表示されていない画像を含む、より大きな画像を表示する構成であってもよい。また、例えば、接続装置10が、PC300が表示する画像の一部を拡大して表示する構成であってもよい。PC300における表示態様については後述する。   Further, the image adjustment unit 315 may be configured to display a larger image including the image displayed on the connection device 10 and the image not displayed on the PC 300 on the display unit 330. Also, for example, the connection device 10 may be configured to enlarge and display a part of the image displayed by the PC 300. The display mode of the PC 300 will be described later.

[1−3.表示システムの動作]
図6は、画像表示部20に対するPC300の相対位置を求める処理を示す説明図であり、特に、キャリブレーション処理を示す。図7は、表示システム1の動作を示すフローチャートであり、特に、キャリブレーション処理におけるPC300の動作を示す。
[1-3. Display System Behavior]
FIG. 6 is an explanatory view showing a process of obtaining the relative position of the PC 300 with respect to the image display unit 20, and particularly shows a calibration process. FIG. 7 is a flowchart showing the operation of the display system 1, and particularly shows the operation of the PC 300 in the calibration process.

図6において、画像表示部20を透過して使用者が視認する視野を符号VRで示し、カメラ61の撮像範囲を符号VCで示す。この例では、撮像範囲VCは視野VRと重複するが、一致していない。撮像範囲VCと視野VRとは、一致してもよいし、撮像範囲VCが視野VRに含まれてもよい。   In FIG. 6, a visual field which the user visually recognizes by passing through the image display unit 20 is indicated by a symbol VR, and an imaging range of the camera 61 is indicated by a symbol VC. In this example, the imaging range VC overlaps with the visual field VR but does not match. The imaging range VC and the visual field VR may coincide with each other, or the imaging range VC may be included in the visual field VR.

表示システム1を使用して、図6に示すように、カメラ61の撮像範囲VCにPC300が存在する状態で、キャリブレーションが実行される。
本実施形態では、表示部330に基準点P1が設定され、画像表示部20に基準位置P2が設定される。基準点P1は、使用者が視覚的にまたは認識可能な表示であり、いわゆるマーカーである。PC300は、カメラ61の撮像画像データから基準点P1を画像処理により検出できる。基準位置P2は、画像表示部20において位置の基準として設定され、仮想的な位置であってもよく、基準位置P2を示す表示や物体がなくてもよい。
基準点P1は、明示的に視認される物体や位置であればよく、基準点P1となる表示や物を新たに設ける必要はない。例えば、表示部330の4隅のうちの1点を基準点P1とするなど、表示部330の模様や形状の特定位置を基準点P1としてもよい。
Using the display system 1, as shown in FIG. 6, calibration is performed in a state where the PC 300 exists in the imaging range VC of the camera 61.
In the present embodiment, the reference point P1 is set in the display unit 330, and the reference position P2 is set in the image display unit 20. The reference point P1 is a display that can be visually or recognized by the user, and is a so-called marker. The PC 300 can detect the reference point P1 from the captured image data of the camera 61 by image processing. The reference position P2 is set as a position reference in the image display unit 20, may be a virtual position, and may not have a display or an object indicating the reference position P2.
The reference point P1 may be an object or a position explicitly recognized, and there is no need to newly provide a display or an object to be the reference point P1. For example, the specific position of the pattern or shape of the display unit 330 may be set as the reference point P1, such as setting one of four corners of the display unit 330 as the reference point P1.

図7は、表示システム1の動作を示すフローチャートであり、キャリブレーションを行うPC300の動作を示す。
キャリブレーションでは、使用者の視野VRにおいて予め設定された位置に基準点P1が位置するように、使用者が、頭部または画像表示部20を動かす(ステップS11)。視野VRにおける設定された位置と基準点P1とが重なったときに、使用者は、位置を確定させるための操作を、画像表示部20またはPC300に対して行う(ステップS12)。例えば、使用者は、画像表示部20の前部フレーム27を叩く操作を行う。この操作は、6軸センサー235により加速度として検出できる。また、画像表示部20がノックセンサー(図示略)を搭載している場合、当該操作をノックセンサーの検出値に基づき検出できる。ステップS12の操作は、タッチセンサー332で検出される操作であってもよい。また、ステップS12では、音声による操作をPC300が検出してもよい。すなわち、PC300がマイクを搭載し、マイクにより集音された音声を制御部310が処理可能な構成において、制御部310は、音声をテキストに変換する音声認識処理、或いは、予め登録されたパターンの音声を検出する音声コマンド検出処理を実行できる。この構成で、制御部310は、ステップS12で、使用者が発する音声を入力操作として検出してもよい。
FIG. 7 is a flowchart showing the operation of the display system 1 and shows the operation of the PC 300 that performs calibration.
In the calibration, the user moves the head or the image display unit 20 so that the reference point P1 is positioned at a position preset in the user's visual field VR (step S11). When the set position in the visual field VR and the reference point P1 overlap, the user performs an operation for determining the position on the image display unit 20 or the PC 300 (step S12). For example, the user performs an operation of hitting the front frame 27 of the image display unit 20. This operation can be detected as acceleration by the six-axis sensor 235. When the image display unit 20 is equipped with a knock sensor (not shown), the operation can be detected based on the detection value of the knock sensor. The operation of step S12 may be an operation detected by the touch sensor 332. In step S12, the PC 300 may detect an operation by voice. That is, in a configuration in which the PC 300 has a microphone and the control unit 310 can process voice collected by the microphone, the control unit 310 performs voice recognition processing for converting voice into text, or a pattern registered in advance. Voice command detection processing for detecting voice can be executed. In this configuration, the control unit 310 may detect the voice emitted by the user as an input operation in step S12.

制御部310は、ステップS12の操作を検出したときのカメラ61の撮像画像データを取得して、カメラ61の撮像画像データにおける基準点P1の位置を求める(ステップS13)。これにより、カメラ61の撮像画像データにおける位置と、画像表示部20を装着した使用者の視野VRにおける位置とが、対応付けられる。従って、カメラ61の撮像画像データにPC300が写っている場合に、この撮像画像データから、視野VRに対するPC300の相対位置を特定できる。   The control unit 310 obtains captured image data of the camera 61 when the operation in step S12 is detected, and obtains the position of the reference point P1 in the captured image data of the camera 61 (step S13). Thereby, the position in the captured image data of the camera 61 and the position in the field of view VR of the user wearing the image display unit 20 are associated with each other. Therefore, when the PC 300 appears in the captured image data of the camera 61, the relative position of the PC 300 with respect to the visual field VR can be specified from the captured image data.

制御部310は、6軸センサー235および磁気センサー237の出力値に関するデータを取得する(ステップS14)。ステップS14で取得されるセンサーの出力値は、基準点P1が視野VRの設定位置に重なる状態における画像表示部20の基準の位置を示す。例えば、6軸センサー235の出力値を積算することにより、画像表示部20が、基準の位置から移動した方向および移動量を求めることができる。また、磁気センサー237の出力値に基づき、画像表示部20の基準の位置に対する画像表示部20の相対的な方向を求めることができる。従って、画像表示部20とPC300との相対位置を求めることができる。   The control unit 310 acquires data on output values of the six-axis sensor 235 and the magnetic sensor 237 (step S14). The output value of the sensor acquired in step S14 indicates the reference position of the image display unit 20 in a state in which the reference point P1 overlaps the set position of the visual field VR. For example, by integrating the output values of the six-axis sensor 235, the direction and the amount of movement of the image display unit 20 from the reference position can be obtained. Further, based on the output value of the magnetic sensor 237, the relative direction of the image display unit 20 with respect to the reference position of the image display unit 20 can be obtained. Therefore, the relative position between the image display unit 20 and the PC 300 can be obtained.

制御部310は、ステップS14で取得した出力値を含むキャリブレーションデータを生成し、不揮発性記憶部320に記憶し(ステップS15)、本処理を終了する。
例えば、ステップS13及びS15は位置検出部313が実行し、ステップS14は検出値取得部312が実行する。
The control unit 310 generates calibration data including the output value acquired in step S14, stores the calibration data in the non-volatile storage unit 320 (step S15), and ends the present process.
For example, the position detection unit 313 executes steps S13 and S15, and the detection value acquisition unit 312 executes step S14.

図7に示すキャリブレーションの処理では、PC300の基準点P1と視野VRにおける設定された位置とを合わせて、画像表示部の基準の位置に対する画像表示部の相対的な位置関係を対応づける。この処理で生成されるキャリブレーションデータは、例えば、基準点P1と視野VRとの相対的な位置の基準を示すデータである。このキャリブレーションで、視野VRにおける所定位置と基準点P1とを重ねるだけでなく、ステップS11で、PC300を、画像表示部20から予め設定された距離に配置する手法を採用してもよい。例えば、ステップS11で、PC300を画像表示部20から所定距離だけ離れた位置に置くことをガイドする画像を、画像表示部20により表示してもよい。この画像は、所定距離だけ離れた位置のPC300が視認されるサイズを示す直線、矩形、点などのマーカーとすることができる。使用者は、画像表示部20のマーカーにPC300が重なって見えるようにPC300を自分との相対位置を調整し、その後、基準点P1を所定位置に合わせて、ステップS12の操作を行えばよい。   In the calibration process shown in FIG. 7, the reference point P1 of the PC 300 and the set position in the visual field VR are matched to associate the relative positional relationship of the image display unit with the reference position of the image display unit. The calibration data generated in this process is, for example, data indicating the reference of the relative position between the reference point P1 and the visual field VR. In this calibration, in addition to overlapping the predetermined position in the visual field VR with the reference point P1, a method may be employed in which the PC 300 is arranged at a predetermined distance from the image display unit 20 in step S11. For example, in step S11, the image display unit 20 may display an image for guiding the PC 300 to be away from the image display unit 20 by a predetermined distance. This image can be a marker such as a straight line, a rectangle, or a point indicating the size at which the PC 300 at a position separated by a predetermined distance is viewed. The user may adjust the relative position of the PC 300 to the marker of the image display unit 20 so that the PC 300 appears to overlap with the marker of the image display unit 20, and then adjust the reference point P1 to a predetermined position to perform the operation of step S12.

図8、図9、及び図10は、それぞれ、本実施形態における表示システム1の表示態様の例を示す図である。図8、図9及び図10には、画像表示部20を装着する使用者が画像表示部20を透過して視認できる視野を視野VRで示す。また、これらの図に示す例では、画像表示部20が、使用者が視認可能なように画像を表示する表示領域は、視野VRと同じ大きさ及び位置であり、重複する。本発明は、画像表示部20の表示領域が視野VRより小さい構成にも適用可能である。   FIG. 8, FIG. 9, and FIG. 10 are diagrams showing examples of display modes of the display system 1 in the present embodiment. In FIG. 8, FIG. 9 and FIG. 10, a visual field VR shows a visual field in which the user wearing the image display unit 20 can visually recognize the light through the image display unit 20. Moreover, in the example shown to these figures, the display area which the image display part 20 displays an image so that a user may visually recognize is the same magnitude | size and position as the visual field VR, and overlaps. The present invention is also applicable to a configuration in which the display area of the image display unit 20 is smaller than the visual field VR.

図8には、PC300が生成する仮想画像VDを示す。仮想画像VDは、PC300が表示部330に表示する画像と同じ画像を含む領域VD1と、領域VD1に隣接する領域VD2、VD3、VD4とを含む。つまり、仮想画像VDは、表示部330に表示される画像よりサイズが大きい画像である。
PC300は、表示パネル331の表示領域よりも大きい仮想の表示領域を設定し、この表示領域に表示される画像として仮想画像VDを生成する。仮想の表示領域と仮想画像VDとは、解像度やサイズが異なっていてもよいが、本実施形態では一致するものとして説明する。
FIG. 8 shows a virtual image VD generated by the PC 300. The virtual image VD includes an area VD1 including the same image as the image displayed on the display unit 330 by the PC 300, and areas VD2, VD3, and VD4 adjacent to the area VD1. That is, the virtual image VD is an image larger in size than the image displayed on the display unit 330.
The PC 300 sets a virtual display area larger than the display area of the display panel 331, and generates a virtual image VD as an image displayed in the display area. The virtual display area and the virtual image VD may be different in resolution and size, but in the present embodiment, they will be described as being coincident.

以下の説明では、表示部330が表示する画像、仮想画像VD、及び、領域VD1、VD2、VD3、VD4のサイズを、表示解像度で示す。例えば、表示部330の表示解像度を横1920ドット×縦1080ドット、仮想画像VDおよび仮想の表示領域の解像度を、3840ドット×2160ドットとすれば、仮想画像VDのサイズは表示部330の表示画像の4倍となる。   In the following description, the sizes of the image displayed by the display unit 330, the virtual image VD, and the areas VD1, VD2, VD3, and VD4 are indicated by display resolution. For example, assuming that the display resolution of the display unit 330 is 1920 dots wide × 1080 dots high and the resolution of the virtual image VD and the virtual display area is 3840 dots × 2160 dots, the size of the virtual image VD is the display image of the display unit 330 Four times

表示部330が表示する画像と仮想画像VDのアスペクト比は、異なっていてもよいが、アスペクト比が一致している場合、表示部330の表示画像を含む仮想画像VDを生成する際の処理が速やかに実行できるという利点がある。また、使用者が、表示部330の表示画像と仮想画像VDとの両方を視認した場合に、違和感がないという利点があるため、好ましい。同様の理由から、仮想画像VDを構成する領域VD1〜VD4のそれぞれのアスペクト比や解像度は、表示部330と一致していなくてもよいが、一致していることが好ましい。また、仮想画像VDの解像度が、表示部330の表示解像度の整数倍でなくてもよいが、整数倍であることが好ましい。   The aspect ratio of the image displayed by the display unit 330 and the virtual image VD may be different, but if the aspect ratios match, the process for generating the virtual image VD including the display image of the display unit 330 is It has the advantage of being able to be implemented quickly. In addition, when the user visually recognizes both the display image of the display unit 330 and the virtual image VD, there is an advantage that there is no sense of incongruity, which is preferable. For the same reason, the aspect ratios and the resolutions of the regions VD1 to VD4 constituting the virtual image VD may not be identical to those of the display unit 330, but are preferably identical to each other. The resolution of the virtual image VD may not be an integral multiple of the display resolution of the display unit 330, but is preferably an integral multiple.

仮想画像VDのサイズは、画像表示部20が表示可能な画像と同じか、それより大きいことが好ましい。すなわち、仮想画像VDの解像度は、画像表示部20の表示領域の表示解像度以上であることが好ましい。一例として、表示部330の表示解像度が横1920ドット×縦1080ドットであり、画像表示部20の表示解像度が3840ドット×1080ドットであり、仮想画像VDの解像度を3840ドット×2160ドットとする構成が挙げられる。また、仮想画像VDと画像表示部20の表示領域のアスペクト比が異なっていてもよいし、領域VD1〜VD4のそれぞれのアスペクト比や解像度が、画像表示部20の表示領域と一致していなくてもよい。また、仮想画像VDの解像度が、画像表示部20の表示領域の解像度の整数倍でなくてもよい。   The size of the virtual image VD is preferably the same as or larger than the image that can be displayed by the image display unit 20. That is, the resolution of the virtual image VD is preferably equal to or higher than the display resolution of the display area of the image display unit 20. As an example, the display resolution of the display unit 330 is 1920 dots wide × 1080 dots high, the display resolution of the image display unit 20 is 3840 dots × 1080 dots, and the resolution of the virtual image VD is 3840 dots × 2160 dots Can be mentioned. Also, the aspect ratio of the display area of the virtual image VD and the display area of the image display unit 20 may be different, and the aspect ratio and resolution of each of the areas VD1 to VD4 do not match the display area of the image display unit 20. It is also good. In addition, the resolution of the virtual image VD may not be an integral multiple of the resolution of the display area of the image display unit 20.

仮想画像VDは、PC300が、表示部330に表示する画像を拡張した拡張表示領域ということができる。例えば、PC300が実行するオペレーティングシステムやアプリケーションプログラムのユーザーインターフェイスとして、表示部330に操作用の画面を表示する場合、制御部310は、表示部330の表示解像度に合わせて操作用の画面を構成する。仮想画像VDを利用する場合、制御部310は、仮想画像VDの解像度に合わせてユーザーインターフェイスとしての画面を構成し、その一部を表示部330に表示させる。PC300がコンテンツデータ321を再生する場合や、その他の画像等を表示する場合も同様である。このように、仮想画像VDは、表示部330に表示される画像を含み、換言すれば、表示部330は仮想画像VDの一部を表示する。   The virtual image VD can be referred to as an expanded display area in which the image displayed on the display unit 330 by the PC 300 is expanded. For example, when a screen for operation is displayed on the display unit 330 as a user interface of an operating system or application program executed by the PC 300, the control unit 310 configures the screen for operation in accordance with the display resolution of the display unit 330. . When using the virtual image VD, the control unit 310 configures a screen as a user interface in accordance with the resolution of the virtual image VD, and causes the display unit 330 to display a part of the screen. The same applies to the case where the PC 300 reproduces the content data 321 or the case where another image or the like is displayed. As described above, the virtual image VD includes the image displayed on the display unit 330. In other words, the display unit 330 displays a part of the virtual image VD.

また、仮想画像VD、表示部330の表示画像、及び、画像表示部20が表示する画像のサイズを、画像表示部20を装着する使用者が視認する大きさとして定義してもよい。
画像の大きさは、画素の大きさと、解像度とによって決まる。表示部330の画素の大きさは、使用者が表示部330を画像表示部20越しに視認する場合の画素として考えることが適切である。また、仮想画像VDは、画像表示部20が表示しない限り視認されないので、仮想画像VDの画素の大きさは、画像表示部20が表示する画像の画素を使用者が視認する場合の大きさとして考えることが適切である。そして、画像表示部20を装着した使用者が視認するサイズを基準として、仮想画像VDは、表示部330より大きければよい。この場合、仮想画像VDの解像度は、表示部330の表示解像度以下であってもよい。さらに、仮想画像VDから切り出されて画像表示部20に出力される映像データの解像度が、表示部330の表示解像度以下の解像度であってもよい。制御部310は、表示部330の表示画像を含む仮想画像VDを生成する処理で、表示部330の表示画像を、より低解像度の画像に変換する解像度変換を行い、変換後の画像の周囲に別の画像を付加して仮想画像VDを生成する。
The size of the virtual image VD, the display image of the display unit 330, and the image displayed by the image display unit 20 may be defined as a size visually recognized by the user wearing the image display unit 20.
The size of the image is determined by the size of the pixel and the resolution. It is appropriate to consider the size of the pixel of the display unit 330 as a pixel when the user visually recognizes the display unit 330 through the image display unit 20. Further, since the virtual image VD is not viewed unless the image display unit 20 displays it, the size of the pixel of the virtual image VD is the size when the user visually recognizes the pixel of the image displayed by the image display unit 20. It is appropriate to think. Then, the virtual image VD may be larger than the display unit 330 based on the size visually recognized by the user wearing the image display unit 20. In this case, the resolution of the virtual image VD may be equal to or less than the display resolution of the display unit 330. Furthermore, the resolution of the video data cut out from the virtual image VD and output to the image display unit 20 may be a resolution equal to or less than the display resolution of the display unit 330. The control unit 310 is a process of generating a virtual image VD including the display image of the display unit 330, performs resolution conversion of converting the display image of the display unit 330 into a lower resolution image, and around the converted image. Another image is added to generate a virtual image VD.

図11は、表示システム1の表示に係る動作を示すフローチャートであり、特に、PC300の動作を示す。本実施形態で、HMD100は、PC300がHDMIケーブル2Aを経由して出力する映像データに基づき画像を表示し、画像表示部20とPC300との相対位置に基づく表示制御をPC300が行う。
以下、図8〜図10とともに図11を参照して、表示システム1の動作を説明する。
FIG. 11 is a flowchart showing an operation related to the display of the display system 1, and particularly shows the operation of the PC 300. In the present embodiment, the HMD 100 displays an image based on video data output by the PC 300 via the HDMI cable 2A, and the PC 300 performs display control based on the relative position between the image display unit 20 and the PC 300.
Hereinafter, the operation of the display system 1 will be described with reference to FIGS. 8 to 10 and FIG.

図11に示す動作は、制御部310が仮想画像VDを利用した表示を行う動作である。制御部310は、タッチセンサー332で検出した操作によって、HMD100への映像出力の開始が指示され、仮想画像VDを使用する表示モードが指定された場合に、図11の動作を実行する。   The operation illustrated in FIG. 11 is an operation in which the control unit 310 performs display using the virtual image VD. The control unit 310 executes the operation illustrated in FIG. 11 when the start of the video output to the HMD 100 is instructed by the operation detected by the touch sensor 332 and the display mode using the virtual image VD is designated.

以下の説明で、画像表示部20の視界に表示部330が含まれる場合とは、HMD100を装着する使用者が、画像表示部20を透過して、外景としてPC300の表示部330を視認可能である場合を指す。画像表示部20を透過する右眼RE及び左眼LEの視野、すなわち使用者に見える外景の範囲は、画像表示部20の方向から求めることができる。また、図4に示したように、カメラ61の画角と、画像表示部20を透過して外景を見る場合の右眼RE及び左眼LEの視野との関係が既知である場合、制御部310は、カメラ61の撮像画像データから、表示部330が視野に入っているか否かを判定できる。   In the following description, when the display unit 330 is included in the field of view of the image display unit 20, the user wearing the HMD 100 can see the display unit 330 of the PC 300 as an outside scene through the image display unit 20 Point to a case. The field of view of the right eye RE and the left eye LE passing through the image display unit 20, that is, the range of the outside view seen by the user can be determined from the direction of the image display unit 20. In addition, as illustrated in FIG. 4, when the relationship between the angle of view of the camera 61 and the field of view of the right eye RE and the left eye LE when viewing the outside through the image display unit 20 is known, the control unit In 310, it can be determined from the captured image data of the camera 61 whether or not the display unit 330 is in the field of view.

制御部310は、USBケーブル2Bを介して接続装置10からカメラ61の撮像画像データおよび各センサーの出力値を取得する(ステップS21)。ステップS21で、制御部310は、少なくとも、撮像画像データと、距離センサー64の出力値を取得する。ステップS21は、例えば検出値取得部312が実行する。
制御部310は、カメラ61の撮像画像データに表示部330が含まれるか否かを判定する(ステップS22)。ステップS22で、制御部310は、例えば、撮像画像データからパターンマッチングにより表示部330の画像を検出する。
表示部330が撮像画像データに含まれないと判定した場合(ステップS22;NO)、制御部310はステップS21に戻る。
The control unit 310 acquires the captured image data of the camera 61 and the output value of each sensor from the connection device 10 via the USB cable 2B (step S21). In step S21, the control unit 310 acquires at least captured image data and an output value of the distance sensor 64. The detection value acquisition unit 312, for example, executes step S21.
The control unit 310 determines whether the display unit 330 is included in the captured image data of the camera 61 (step S22). In step S22, the control unit 310 detects an image of the display unit 330 from the captured image data by pattern matching, for example.
When it is determined that the display unit 330 is not included in the captured image data (step S22; NO), the control unit 310 returns to step S21.

表示部330が撮像画像データに含まれると判定した場合(ステップS22;YES)、制御部310は、ステップS21で取得したセンサーの出力値に基づいて、表示部330の位置および姿勢を検出する(ステップS23)。ステップS23で、制御部310は、例えば、SLAM(Simultaneous Localization and Mapping)の実行や、距離センサー64の検出値に基づき、画像表示部20と表示部330との相対的な位置を求める。また、制御部310は、撮像画像データで表示部330の基準点P1を検出し、検出した基準点P1の位置から、画像表示部20に対する表示部330の相対位置を求めてもよい。   When it is determined that the display unit 330 is included in the captured image data (step S22; YES), the control unit 310 detects the position and orientation of the display unit 330 based on the output value of the sensor acquired in step S21 ( Step S23). In step S23, the control unit 310 obtains a relative position between the image display unit 20 and the display unit 330 based on, for example, execution of SLAM (Simultaneous Localization and Mapping) or a detection value of the distance sensor 64. Further, the control unit 310 may detect the reference point P1 of the display unit 330 in the captured image data, and obtain the relative position of the display unit 330 with respect to the image display unit 20 from the position of the detected reference point P1.

制御部310は、ステップS23で求めた位置および姿勢に従って、3次元空間における表示部330の位置と姿勢をマッピングする(ステップS24)。表示部330の位置および姿勢は、基準位置P2を原点または基準点とする3次元座標で表される。   The control unit 310 maps the position and orientation of the display unit 330 in the three-dimensional space according to the position and orientation determined in step S23 (step S24). The position and orientation of the display unit 330 are represented by three-dimensional coordinates with the reference position P2 as the origin or reference point.

制御部310は、表示部330の位置および方向に合わせて仮想画像VDを3次元空間に配置する(ステップS25)。仮想画像VDのサイズは、予め設定されている。例えば、不揮発性記憶部320に、設定データ(図示略)として、仮想画像VDの解像度や表示部330に対して設定すべき仮想画像VDの位置を規定するデータが記憶される。   The control unit 310 arranges the virtual image VD in the three-dimensional space in accordance with the position and the direction of the display unit 330 (step S25). The size of the virtual image VD is preset. For example, in the non-volatile storage unit 320, data defining the resolution of the virtual image VD and the position of the virtual image VD to be set in the display unit 330 is stored as setting data (not shown).

制御部310は、仮想画像VDを、表示部330と平行で、表示部330と重なる面となるように、配置する。換言すれば、仮想画像VDは表示部330を含み、表示部330よりも大きい仮想の平面である。制御部310は、仮想画像VDの四隅の位置や中心の位置など、仮想画像VDの位置を特定可能な基準位置について、基準位置P2を原点または基準点とする3次元座標を求める。   The control unit 310 arranges the virtual image VD in parallel with the display unit 330 and in a plane overlapping the display unit 330. In other words, the virtual image VD is a virtual plane that includes the display unit 330 and is larger than the display unit 330. The control unit 310 obtains three-dimensional coordinates with the reference position P2 as an origin or a reference point, with respect to a reference position that can specify the position of the virtual image VD, such as positions of four corners and centers of the virtual image VD.

制御部310は、仮想画像VDの画像データを生成する(ステップS26)。仮想画像VDは、上述したように表示部330を仮想的に拡大した画面であり、例えば、オペレーティングシステムのユーザーインターフェイスを構成する画面である。   Control unit 310 generates image data of virtual image VD (step S26). The virtual image VD is a screen obtained by virtually enlarging the display unit 330 as described above, and is, for example, a screen forming a user interface of the operating system.

制御部310は、仮想画像VDにおいて、画像表示部20によって表示する範囲を決定する(ステップS27)。図8に示すように、画像表示部20は仮想画像VDの一部を表示する。制御部310は、仮想画像VDにおいて画像表示部20が表示する範囲を、画像表示部20の向きと、仮想画像VDとの相対的な位置により求める。   Control unit 310 determines the range to be displayed by image display unit 20 in virtual image VD (step S27). As shown in FIG. 8, the image display unit 20 displays a part of the virtual image VD. The control unit 310 obtains the range displayed by the image display unit 20 in the virtual image VD by the relative position between the direction of the image display unit 20 and the virtual image VD.

制御部310は、画像表示部20が画像を表示する範囲における表示部330の位置を特定する(ステップS28)。画像表示部20は、ハーフミラー261、281に画像を表示し、画像が視認される範囲は、図8〜図10の例では視野VRと重なる。制御部310は、画像表示部20を装着する使用者の視野VRにおいて、画像表示部20を透過して表示部330が視認される場合に、視野VRにおいて表示部330が見える位置を特定する。この位置は、ステップS23で特定されたPC300の位置および姿勢から求めることができる。   Control unit 310 specifies the position of display unit 330 in the range in which image display unit 20 displays an image (step S28). The image display unit 20 displays an image on the half mirrors 261 and 281, and the range in which the image is visually recognized overlaps with the visual field VR in the example of FIGS. The control unit 310 specifies the position where the display unit 330 can be seen in the visual field VR when the display unit 330 is viewed through the image display unit 20 in the visual field VR of the user wearing the image display unit 20. This position can be obtained from the position and posture of the PC 300 identified in step S23.

制御部310は、仮想画像VDから、画像表示部20に表示する範囲の画像を切り出し、あるいは抽出する処理を行い(ステップS29)、切り出した画像にマスク処理を施す(ステップS30)。ステップS30でマスク処理を施す範囲は、画像表示部20が表示する画像に表示部330が重なる範囲、または、表示部330に重なる部分を含む範囲である。   The control unit 310 cuts out or extracts an image in a range to be displayed on the image display unit 20 from the virtual image VD (step S29), and performs mask processing on the cut out image (step S30). The range in which the mask process is performed in step S30 is a range in which the display unit 330 overlaps the image displayed by the image display unit 20 or a range including a portion overlapping the display unit 330.

図8に示す例では、仮想画像VDのうち領域VD1、VD2が、画像表示部20が表示する範囲として切り出される。表示部330は、領域VD1が表示される位置において視認される。この場合、制御部310は、領域VD1全体をマスクしてもよいし、領域VD1のうち表示部330に重なる範囲のみにマスク処理を施してもよい。   In the example illustrated in FIG. 8, the regions VD1 and VD2 of the virtual image VD are cut out as the range displayed by the image display unit 20. The display unit 330 is viewed at the position where the area VD1 is displayed. In this case, the control unit 310 may mask the entire area VD1 or may perform mask processing only on the area overlapping the display section 330 in the area VD1.

使用者は、仮想画像VDを画像表示部20が表示している状態で、画像表示部20を透過する外景を視認可能である。ここで、画像表示部20が外景として視認する視野VRに表示部330が含まれる場合、使用者には、表示部330が表示する画像と、画像表示部20が表示する画像とが重なって見える。このような状態で、使用者により良い視体験を提供するため、本実施形態では、画像表示部20の表示態様を調整することで、表示部330の視認性を高める処理を行う。この処理を、マスク処理と呼ぶ。   The user can visually recognize the outside scene passing through the image display unit 20 while the image display unit 20 is displaying the virtual image VD. Here, when the display unit 330 is included in the visual field VR in which the image display unit 20 is visually recognized as an outside view, the user sees the image displayed by the display unit 330 and the image displayed by the image display unit 20 overlapping. . In such a state, in order to provide the user with a better visual experience, in the present embodiment, the display mode of the image display unit 20 is adjusted to improve the visibility of the display unit 330. This process is called mask process.

図9は、制御部310がマスク処理を施した状態を示す。図9の例では、表示部330に重なる範囲である領域VD1の全体にマスク処理が施されている。マスク処理は、例えば、画素の色データ(いわゆる画素データ、画素値)を黒色または暗色にする処理である。画像表示部20は、OLEDユニット221、241が発する光を右眼RE及び左眼LEに入射することで画像を表示するので、画素値を黒または暗色にすると、右眼RE及び左眼LEに入射する光量が減る。画像表示部20が発する光量が減ると、画像表示部20を透過する外光OLの光量が相対的に増えるため、外景の視認性が高まる。従って、使用者は、マスク処理が施された範囲で外景を良好に視認でき、外景としての表示部330の視認性がマスク処理により高められる。
このように、制御部310が行うマスク処理は、画像表示部20に表示させるために接続装置10に出力する映像データの画素値を、光量が減るように、黒色(R,G,B=0,0,0)または予め設定された暗色に設定する処理である。
FIG. 9 shows a state in which the control unit 310 has performed mask processing. In the example of FIG. 9, the mask processing is performed on the entire region VD1 which is a range overlapping the display unit 330. The mask process is, for example, a process of making color data (so-called pixel data, pixel value) of a pixel black or dark. The image display unit 20 displays an image by causing light emitted from the OLED units 221 and 241 to be incident on the right eye RE and the left eye LE. Therefore, when the pixel value is black or dark, the image display unit 20 The amount of incident light is reduced. When the light amount emitted from the image display unit 20 decreases, the light amount of the external light OL transmitted through the image display unit 20 relatively increases, and the visibility of the outside scene is enhanced. Therefore, the user can view the outside scene well in the range in which the mask processing is performed, and the visibility of the display unit 330 as the outside scene is enhanced by the mask processing.
As described above, in the mask processing performed by the control unit 310, the pixel value of the video data to be output to the connection device 10 to be displayed on the image display unit 20 is black (R, G, B = 0) so that the light amount is reduced. , 0, 0) or a preset dark color.

マスク処理により、PC300が接続装置10に出力する映像データにおいて、表示部330が表示する画像を含む範囲の画素値が黒または暗色に変更されるので、実質的に、表示部330が表示する画像が除かれる。このように、制御部310は、画像表示部20が画像を表示する範囲が表示部330と重なる場合に、表示部330が表示する画像を除いた映像データを接続装置10に出力する。
マスク処理された映像データにおいては、表示部330に重なる領域である領域VD1の画像がマスクにより除かれ、その周囲に位置する領域(図10では領域VD2)の画像が画像表示部20により表示される。
Since the pixel value of the range including the image displayed by the display unit 330 is changed to black or dark in the video data output to the connection device 10 by the mask process, the image displayed by the display unit 330 is substantially displayed. Is removed. As described above, when the range in which the image display unit 20 displays an image overlaps the display unit 330, the control unit 310 outputs video data excluding the image displayed by the display unit 330 to the connection device 10.
In the mask-processed video data, the image of region VD1 which is the region overlapping display unit 330 is removed by the mask, and the image of the region (region VD2 in FIG. 10) located around it is displayed by image display unit 20. Ru.

制御部310は、マスク処理を施した画像の輻輳角を設定する(ステップS31)。ステップS31で、制御部310は、画像表示部20が表示する仮想画像VDの一部が、表示部330を含む平面として視認されるように、画像の輻輳角を設定する。PC300は、画像表示部20の右表示ユニット22により表示される画像の画像データと、左表示ユニット24により表示される画像の画像データとを含む映像データを出力する。制御部310は、右表示ユニット22用の画像における仮想画像VDの位置と、左表示ユニット24用の画像における仮想画像VDの位置とを調整することで、使用者の左眼LEと右眼REの輻輳角を調整する。   The control unit 310 sets the convergence angle of the image subjected to the mask processing (step S31). In step S31, the control unit 310 sets the convergence angle of the image so that a part of the virtual image VD displayed by the image display unit 20 is visually recognized as a plane including the display unit 330. The PC 300 outputs video data including image data of an image displayed by the right display unit 22 of the image display unit 20 and image data of an image displayed by the left display unit 24. The control unit 310 adjusts the position of the virtual image VD in the image for the right display unit 22 and the position of the virtual image VD in the image for the left display unit 24 to allow the left eye LE and the right eye RE of the user. Adjust the convergence angle of

制御部310は、接続装置10への映像データの出力を開始する(ステップS32)。接続装置10は、I/F部110に入力される映像データを、表示制御部122によりデコードし、右表示ユニット22及び左表示ユニット24によって表示する処理を開始する。
ステップS24〜S32は、例えば、画像調整部315が実行する。
The control unit 310 starts output of the video data to the connection device 10 (step S32). The connection device 10 decodes the video data input to the I / F unit 110 by the display control unit 122, and starts the process of displaying the video data by the right display unit 22 and the left display unit 24.
For example, the image adjusting unit 315 executes steps S24 to S32.

表示開始後、制御部310は、視野VRが移動したか否かを判定する(ステップS33)。ここで、視野VRの移動とは、仮想画像VDに対する視野VRの相対的な位置の移動を意味する。ステップS33では、画像調整部315が、位置検出部313の検出値に基づき判定を行う。また、以下のステップS34〜S39は画像調整部315が実行する。   After the display start, the control unit 310 determines whether the visual field VR has moved (step S33). Here, the movement of the field of view VR means the movement of the relative position of the field of view VR with respect to the virtual image VD. In step S33, the image adjustment unit 315 makes a determination based on the detection value of the position detection unit 313. In addition, the image adjusting unit 315 executes the following steps S34 to S39.

図10は、視野VRが移動した例を示す。図10の例では、視野VRが、図9の状態に比べて上方に移動している。この移動により、視野VRは、領域VD1、VD2、VD3、VD4に跨がるように重なっている。   FIG. 10 shows an example in which the visual field VR has moved. In the example of FIG. 10, the visual field VR is moved upward as compared with the state of FIG. By this movement, the visual fields VR overlap so as to straddle the regions VD1, VD2, VD3, and VD4.

制御部310は、視野VRが移動したと判定した場合(ステップS33;YES)、PC300の位置、より具体的には表示部330の位置が、画像表示部20が画像を表示する範囲外であるか否かを判定する(ステップS34)。ステップS34で、制御部310は、画像表示部20と表示部330との相対的な位置および方向に基づく判定を行う。   If the control unit 310 determines that the visual field VR has moved (step S33; YES), the position of the PC 300, more specifically, the position of the display unit 330 is out of the range where the image display unit 20 displays an image. It is determined whether or not (step S34). In step S34, the control unit 310 makes a determination based on the relative positions and directions of the image display unit 20 and the display unit 330.

表示部330の位置が画像表示部20の表示範囲外であると判定した場合(ステップS34;YES)、制御部310は、ステップS30で施したマスク処理を解除する(ステップS35)。制御部310は、移動後の視野VRに合わせて、仮想画像VDから切り出す範囲を変更し(ステップS36)、ステップS33に戻る。
図10に示す例で、制御部310は、仮想画像VDから領域VD1、VD2、VD3、VD4に跨がる範囲を切り出し、切り出した画像に対応する映像データを生成して接続装置10に出力する。これにより、画像表示部20は、視野VRが重なる範囲の仮想画像VDを表示する。
When it is determined that the position of the display unit 330 is out of the display range of the image display unit 20 (step S34; YES), the control unit 310 cancels the mask processing performed in step S30 (step S35). The control unit 310 changes the range cut out from the virtual image VD according to the moved visual field VR (step S36), and returns to step S33.
In the example illustrated in FIG. 10, the control unit 310 cuts out a range spanning the areas VD1, VD2, VD3, and VD4 from the virtual image VD, generates video data corresponding to the cut image, and outputs the video data to the connection device 10. . Thereby, the image display unit 20 displays the virtual image VD in the range in which the visual fields VR overlap.

また、制御部310が、表示部330の位置が画像表示部20の表示範囲外でないと判定した場合(ステップS34;NO)、表示部330は、画像表示部20の表示範囲内にある。この場合、制御部310は、表示部330が画像表示部20の表示範囲の外から範囲内に移動したのか否かを判定する(ステップS37)。
視野VRの移動により、表示部330が画像表示部20の表示範囲外にある状態から、表示範囲内に入った場合(ステップS37;YES)、制御部310は、接続装置10に出力する映像データの状態を初期化する(ステップS38)。初期化において、制御部310は、接続装置10に出力していた映像データにおけるマスク処理の有無、仮想画像VDから切り出す範囲等を、初期状態に戻す。制御部310は、ステップS23に戻り、映像データの出力を開始するための処理を再度実行する。
When control unit 310 determines that the position of display unit 330 is not outside the display range of image display unit 20 (step S 34; NO), display unit 330 is within the display range of image display unit 20. In this case, control unit 310 determines whether display unit 330 has moved from the outside of the display range of image display unit 20 into the range (step S37).
When the display unit 330 enters the display range from the state where the display unit 330 is out of the display range of the image display unit 20 due to the movement of the visual field VR (step S37; YES), the control unit 310 Is initialized (step S38). In the initialization, the control unit 310 returns the presence / absence of the mask processing in the video data output to the connection device 10, the range cut out from the virtual image VD, and the like to an initial state. The control unit 310 returns to step S23, and executes again the process for starting the output of the video data.

ステップS38における初期化の処理は、具体的には、以下の例が挙げられる。第1の例として、ステップS37において表示部330の全体が視野VRに入ったと判定した場合に、以前に実行したステップS25で配置及び処理された仮想画像VDを利用して表示画像を生成する処理が挙げられる。また、第2の処理として、表示部330の位置に合わせて、ステップS23以後の処理を実行し、新たに仮想画像VDの位置(奥行きを含む)を再設定する処理が挙げられる。これらの他、制御部310が行う処理の具体例は任意である。   Specifically, the initialization process in step S38 includes the following example. As a first example, when it is determined in step S37 that the entire display unit 330 has entered the field of view VR, a process of generating a display image using the virtual image VD arranged and processed in step S25 executed previously Can be mentioned. Further, as the second process, there is a process of executing the processes after step S23 according to the position of the display unit 330 and newly setting the position (including the depth) of the virtual image VD. Other than these, the specific example of the process which the control part 310 performs is arbitrary.

また、表示部330が画像表示部20の表示範囲の外から範囲内に移動していない場合(ステップS37;NO)、すなわち、表示部330が画像表示部20の表示範囲内にある状態が継続している場合、制御部310は、ステップS36に移動する。   Further, when display unit 330 has not moved from the outside of the display range of image display unit 20 (step S37; NO), that is, the state where display unit 330 is within the display range of image display unit 20 continues. If yes, the controller 310 moves to step S36.

また、制御部310は、視野VRが移動していないと判定した場合(ステップS33;NO)、表示を終了するか否かを判定する(ステップS39)。例えば、表示部330に対する操作等により表示終了が指示された場合(ステップS39;YES)、制御部310は接続装置10への映像データの出力を停止して本処理を終了する。一方、表示を継続する場合(ステップS39;NO)、制御部310はステップS33に戻る。   Further, when it is determined that the visual field VR has not moved (step S33; NO), the control unit 310 determines whether to end the display (step S39). For example, when display end is instructed by an operation or the like on the display unit 330 (step S39; YES), the control unit 310 stops the output of the video data to the connection device 10, and the present process ends. On the other hand, when the display is continued (step S39; NO), the control unit 310 returns to step S33.

ステップS33では、画像表示部20が移動した場合、例えば画像表示部20を装着した使用者が頭部を動かした場合に、制御部310が、視野VRが移動したと判定する。また、画像表示部20が動かない状態で、PC300が移動したことにより、画像表示部20とPC300との相対位置が変化した場合も、同様に、視野VRが移動したと判定してもよい。つまり、ステップS33で検出される視野VRの移動は、画像表示部20とPC300との相対位置の変化であり、画像表示部20が移動する場合、PC300が移動する場合、および、画像表示部20とPC300の両方が移動する場合を含む。   In step S33, when the image display unit 20 moves, for example, when the user wearing the image display unit 20 moves the head, the control unit 310 determines that the visual field VR has moved. Also, even when the relative position between the image display unit 20 and the PC 300 changes due to the movement of the PC 300 with the image display unit 20 not moving, it may similarly be determined that the visual field VR has moved. That is, the movement of the visual field VR detected in step S33 is a change in the relative position between the image display unit 20 and the PC 300, and when the image display unit 20 moves, the PC 300 moves, and And the case where both PC 300 move.

従って、使用者が頭部を移動した場合、及び、使用者や他の人物がPC300を移動させた場合のいずれも、PC300の位置が画像表示部20の表示範囲内か否かに応じて、ステップS34以後の処理が実行される。   Therefore, depending on whether the position of the PC 300 is within the display range of the image display unit 20, when the user moves the head or when the user or another person moves the PC 300. The processes after step S34 are performed.

図7及び図11に示す処理において、表示システム1は、距離センサー64の代わりに、カメラ61の撮像画像データを用いて、距離を検出してもよい。例えば、表示システム1は、不揮発性記憶部130または不揮発性記憶部320に、予め、画像表示部20から被写体までの距離と、カメラ61の撮像画像データに写る被写体の画像の大きさとを対応付けるデータを、参照用データとして記憶する。この場合、制御部310は、カメラ61の撮像画像データにおけるPC300または表示部330の画像の大きさと、参照用データとをもとに、画像表示部20からPC300または表示部330までの距離を算出することができる。   In the processing illustrated in FIGS. 7 and 11, the display system 1 may detect the distance using captured image data of the camera 61 instead of the distance sensor 64. For example, the display system 1 is data in which the distance from the image display unit 20 to the subject is associated in advance with the size of the subject image captured in the captured image data of the camera 61 in the non-volatile storage unit 130 or the non-volatile storage unit 320. Are stored as reference data. In this case, the control unit 310 calculates the distance from the image display unit 20 to the PC 300 or the display unit 330 based on the size of the image of the PC 300 or the display unit 330 in the captured image data of the camera 61 and the reference data. can do.

以上説明したように、第1実施形態の表示システム1は、表示部330を有するPC300と、PC300に接続されるHMD100と、を備える。PC300は、画像を出力するI/F部341を備える。HMD100は、PC300が出力する映像データを取得する取得部I/F部110を備える。また、HMD100は、外景を視認可能に構成され、HMD100が装着された状態で視認される外景に重ねて画像を表示する画像表示部20と、取得部により取得された画像を画像表示部20により表示させる表示制御部122と、を備える。表示制御部122は、外景として視認されるPC300の位置に対応させて画像を画像表示部20に表示する。   As described above, the display system 1 according to the first embodiment includes the PC 300 having the display unit 330, and the HMD 100 connected to the PC 300. The PC 300 includes an I / F unit 341 that outputs an image. The HMD 100 includes an acquisition unit I / F unit 110 that acquires video data output from the PC 300. Further, the HMD 100 is configured to be able to visually recognize the outside scene, and the image display unit 20 that displays an image superimposed on the outside scene to be viewed in the mounted state of the HMD 100 and the image acquired by the acquiring unit And a display control unit 122 for displaying. The display control unit 122 displays an image on the image display unit 20 in correspondence with the position of the PC 300 visually recognized as the outside scene.

また、PC300は、HMD100に接続される本発明の電子機器に相当する。PC300は、表示部330と、HMD100に映像データを出力するI/F部341と、を備える。また、PC300は、HMD100の画像表示部20に対する表示部330の相対位置を求める制御部310を備える。制御部310は、画像表示部20に対する表示部330の相対位置に基づき、画像表示部20に、外景として視認される表示部330の位置に対応する画像を表示するための映像データを生成してI/F部341から出力する。   The PC 300 corresponds to the electronic device of the present invention connected to the HMD 100. The PC 300 includes a display unit 330 and an I / F unit 341 that outputs video data to the HMD 100. The PC 300 further includes a control unit 310 that obtains the relative position of the display unit 330 with respect to the image display unit 20 of the HMD 100. Based on the relative position of the display unit 330 to the image display unit 20, the control unit 310 generates, on the image display unit 20, video data for displaying an image corresponding to the position of the display unit 330 viewed as an outside scene. Output from the I / F unit 341.

本発明を適用した表示システム1、及び、PC300によれば、PC300が出力する画像を、HMD100によって、外景としてのPC300の表示部330の位置に対応するように表示できる。例えば、外景として見えるPC300の表示部330の位置に合わせて、HMD100により画像を表示できる。このように、外景に重ねて画像を表示するHMD100により、外景として視認されるPC300の表示部330に合わせた表示を行うことができる。   According to the display system 1 to which the present invention is applied and the PC 300, the image output from the PC 300 can be displayed by the HMD 100 so as to correspond to the position of the display unit 330 of the PC 300 as an outside scene. For example, the image can be displayed by the HMD 100 in accordance with the position of the display unit 330 of the PC 300 viewed as an outside scene. As described above, the HMD 100 displaying an image superimposed on the outside scene can perform display in accordance with the display unit 330 of the PC 300 visually recognized as the outside scene.

また、制御部310は、表示部330よりも広い仮想表示領域に対応する仮想画像VDを生成する。制御部310は、仮想表示領域に対応させて生成した仮想画像VDの一部を表示部330に表示させ、仮想画像VDの少なくとも一部を含む表示用の画像をI/F部341により出力させる。例えば、制御部310は、仮想画像VDの一部を表示部330に表示させ、仮想画像VDのうち表示部330が表示した部分を除く画像をI/F部341により出力させる。また、表示システム1は、HMD100が備える画像表示部20において、制御部310の制御により出力された映像データに基づく画像を、外景として視認される表示部330の位置に合わせて表示する。具体的には、画像表示部20において表示部330と重なる位置に対応する領域をマスクした映像データを、PC300から接続装置10に出力する。このため、HMD100の画像表示部20に、PC300の表示部330よりも広い仮想画像VDに対応する表示を行うことができる。このため、HMD100によって、PC300の表示部330を仮想的に拡大できる。   Further, control unit 310 generates virtual image VD corresponding to a virtual display area wider than display unit 330. Control unit 310 causes display unit 330 to display a portion of virtual image VD generated corresponding to the virtual display area, and causes I / F unit 341 to output a display image including at least a portion of virtual image VD. . For example, the control unit 310 causes the display unit 330 to display a part of the virtual image VD, and causes the I / F unit 341 to output an image excluding the portion displayed by the display unit 330 in the virtual image VD. Further, the display system 1 causes the image display unit 20 included in the HMD 100 to display an image based on the video data output by the control of the control unit 310 in alignment with the position of the display unit 330 visually recognized as an outside scene. Specifically, video data obtained by masking an area corresponding to a position overlapping the display unit 330 in the image display unit 20 is output from the PC 300 to the connection device 10. Therefore, display corresponding to the virtual image VD wider than the display unit 330 of the PC 300 can be performed on the image display unit 20 of the HMD 100. Therefore, the display unit 330 of the PC 300 can be virtually enlarged by the HMD 100.

また、制御部310は、仮想画像VDから表示部330に表示させた領域を除く映像データを生成してI/F部341により出力させる。制御部310は、HMD100が備える画像表示部20において、制御部310の制御により出力された表示用の画像を、外景として視認される表示部330の周囲に表示する。つまり、HMD100により、PC300の表示部330よりも広い仮想表示領域に対応する仮想画像VDを表示する場合に、表示部330に表示される領域を除いて表示する。このため、表示部330の表示と、HMD100による表示とを、重複しないように組み合わせることができる。例えば、HMD100により、PC300の表示部330の周囲に画像を表示することで、表示部330を仮想的に拡張する表示態様を実現できる。   Further, the control unit 310 generates video data excluding the area displayed on the display unit 330 from the virtual image VD and causes the I / F unit 341 to output the generated video data. The control unit 310 causes the image display unit 20 included in the HMD 100 to display the display image output by the control of the control unit 310 around the display unit 330 visually recognized as an outside scene. That is, when the virtual image VD corresponding to the virtual display area wider than the display unit 330 of the PC 300 is displayed by the HMD 100, the display is performed excluding the area displayed on the display unit 330. Therefore, the display of the display unit 330 and the display by the HMD 100 can be combined without overlapping. For example, by displaying an image around the display unit 330 of the PC 300 by the HMD 100, it is possible to realize a display mode in which the display unit 330 is virtually expanded.

また、制御部310は、HMD100の画像表示部20に対する表示部330の相対位置を求め、求めた相対位置に基づき、マスク処理を行い、映像データを生成してI/F部341により出力させる。このように、画像表示部20に対する表示部330の相対位置に対応するように映像データを生成するので、HMD100によって、PC300の表示部330の位置に対応した表示を、容易に実現できる。   Further, the control unit 310 obtains the relative position of the display unit 330 with respect to the image display unit 20 of the HMD 100, performs mask processing based on the obtained relative position, generates video data, and causes the I / F unit 341 to output. As described above, since the video data is generated to correspond to the relative position of the display unit 330 with respect to the image display unit 20, the display corresponding to the position of the display unit 330 of the PC 300 can be easily realized by the HMD 100.

また、制御部310は、仮想画像VDを生成し、実空間におけるPC300の位置に基づき仮想画像VDの位置を決定する。制御部310は、仮想画像VDと画像表示部20との相対位置に対応するように、画像表示部20により表示される仮想画像VDの表示態様を調整する。これにより、HMD100によって、PC300の表示部330の実空間における位置に合わせて仮想画像VDを表示できる。この仮想画像VDにより、表示部330を補完したり、拡張したりする効果を得ることができる。   Further, the control unit 310 generates a virtual image VD, and determines the position of the virtual image VD based on the position of the PC 300 in the real space. Control unit 310 adjusts the display mode of virtual image VD displayed by image display unit 20 so as to correspond to the relative position between virtual image VD and image display unit 20. Thus, the HMD 100 can display the virtual image VD in accordance with the position in the real space of the display unit 330 of the PC 300. By this virtual image VD, an effect of complementing or expanding the display unit 330 can be obtained.

また、制御部310は、画像表示部20において外景として視認される範囲に表示部330が含まれることを検出した場合に、検出した表示部330の位置を基準として、仮想画像VDの表示態様を初期化する。これにより、HMD100においてPC300の表示部330が外景として視認できるか否かに対応して、表示態様を調整できる。また、HMD100が画像を表示中に、PC300の表示部330の視認状態が変化しても、適切に対応できる。   In addition, when the control unit 310 detects that the display unit 330 is included in the range viewed as an outside scene in the image display unit 20, the display mode of the virtual image VD is set based on the detected position of the display unit 330. initialize. Thus, the display mode can be adjusted according to whether or not the display unit 330 of the PC 300 can be viewed as an outside scene in the HMD 100. In addition, while the HMD 100 is displaying an image, even if the viewing state of the display unit 330 of the PC 300 changes, it is possible to appropriately cope with it.

また、画像表示部20は、使用者の頭部に装着され、使用者の左眼LEに向けて画像光を発する左表示ユニット24、及び、使用者の右眼REに向けて画像光を発する右表示ユニット22を備える。そして、制御部310は、画像表示部20の外景として視認される表示部330の位置に対応して、左表示ユニット24による表示位置、及び右表示ユニット22による表示位置が制御され、画像表示部20に表示される画像の輻輳角を調整する。この場合、HMD100が表示する画像の輻輳角を調整することにより、HMD100の表示画像が視認される距離を、PC300の表示部330の位置に対応させることができる。これにより、HMD100による表示とPC300の表示部330の表示とを、より適切に協調させることができる。   Further, the image display unit 20 is mounted on the head of the user and emits image light toward the left eye LE of the user and emits image light toward the user's right eye RE. A right display unit 22 is provided. The control unit 310 controls the display position by the left display unit 24 and the display position by the right display unit 22 corresponding to the position of the display unit 330 visually recognized as the outside view of the image display unit 20. Adjust the convergence angle of the image displayed on 20. In this case, by adjusting the convergence angle of the image displayed by the HMD 100, the distance at which the display image of the HMD 100 is visually recognized can be made to correspond to the position of the display unit 330 of the PC 300. Thereby, the display by HMD100 and the display of the display part 330 of PC300 can be coordinated more appropriately.

なお、図11の処理において、表示部330が、画像表示部20を透過する視界を遮るほどに画像表示部20に極端に近接することがある。例えば、ステップS23で検出された表示部330の位置が、予め設定された範囲よりも画像表示部20に近い場合が挙げられる。この場合、制御部310は、接続装置10に対する映像出力を停止して、ステップS21に戻ってもよい。   Note that, in the process of FIG. 11, the display unit 330 may approach the image display unit 20 extremely enough to block the view passing through the image display unit 20. For example, the case where the position of the display unit 330 detected in step S23 is closer to the image display unit 20 than the range set in advance may be mentioned. In this case, the control unit 310 may stop the video output to the connection device 10, and may return to step S21.

上記実施形態では、制御部310が、右眼RE用の画像と左眼LE用の画像とにおける画像の表示位置を調整することで、輻輳角を制御して、画像表示部20の表示画像に対し使用者が知覚する視認距離を制御する構成とした。
画像表示部20が、右表示ユニット22及び左表示ユニット24が備える光学系により、使用者が画像表示部20の表示画像について知覚する視認距離を調整可能である場合、この光学系の制御による調整を、輻輳角の制御に代えて行ってもよい。つまり、使用者が、仮想画像VDの一部である画像表示部20の表示画像を、表示部330と同じ位置の画像として知覚するように、光学系を制御してもよい。この場合、画像表示部20の表示画像が視認される距離を、PC300の表示部330の位置に対応させることができ、HMD100による表示とPC300の表示とを、より適切に協調させることができる。
In the above embodiment, the control unit 310 adjusts the display position of the image in the image for the right eye RE and the image for the left eye LE to control the convergence angle, and the display image of the image display unit 20 is displayed. On the other hand, the configuration is such that the viewing distance perceived by the user is controlled.
When the image display unit 20 can adjust the visual distance perceived by the user about the display image of the image display unit 20 by the optical system included in the right display unit 22 and the left display unit 24, the adjustment by control of the optical system May be performed instead of control of the convergence angle. That is, the optical system may be controlled such that the user perceives the display image of the image display unit 20 which is a part of the virtual image VD as an image at the same position as the display unit 330. In this case, the distance in which the display image of the image display unit 20 is viewed can be made to correspond to the position of the display unit 330 of the PC 300, and the display by the HMD 100 and the display of the PC 300 can be coordinated more appropriately.

上記の光学系としては、右眼RE及び左眼LEを結ぶ左右方向に移動可能なレンズを備える構成が挙げられる。この構成では、右表示ユニット22及び左表示ユニット24の各々に、左右方向に移動可能なレンズが配置される。レンズは、例えば、右光学系251とハーフミラー261との間、及び、左光学系252とハーフミラー281との間に配置してもよい。また、右光学系251、左光学系252の内部にレンズを配置してもよい。レンズの位置に対応して、右眼RE及び左眼LEの各々に入射する画像光の位置が左右方向に移動することで、輻輳角を変化させることが可能である。この例では、レンズの移動を制御部120が制御する構成とし、制御部310が、映像データと、レンズ位置を指定する制御データとを接続装置10に出力することで、制御部310が算出した輻輳角を実現できる。   An example of the above optical system is a configuration provided with a lens movable in the left-right direction connecting the right eye RE and the left eye LE. In this configuration, a lens movable in the left-right direction is disposed in each of the right display unit 22 and the left display unit 24. The lens may be disposed, for example, between the right optical system 251 and the half mirror 261 and between the left optical system 252 and the half mirror 281. In addition, lenses may be disposed inside the right optical system 251 and the left optical system 252. The convergence angle can be changed by moving the position of the image light incident on each of the right eye RE and the left eye LE in the left-right direction in accordance with the position of the lens. In this example, the control unit 120 controls the movement of the lens, and the control unit 310 calculates the control unit 310 by outputting the video data and the control data for specifying the lens position to the connection device 10. A convergence angle can be realized.

また、画像表示部20が画像光を出力する光学系として、ホログラフィー表示装置を備えてもよい。この場合、画像表示部20は、例えば、光源と、光源からの光を変調する空間光変調器(SLM:Spatial Light Modulator)と、を備える。SLMは、例えば、液晶を利用した反射型空間光位相変調器(LCOS(Liquid Crystal On Silicon)−SLM)を用いることができる。この構成では、接続装置10がSLMに表示データを出力することにより、光源から発せられる参照光がSLMにより変調され、立体像を結像する。この場合、PC300から接続装置10に出力される映像データ、または、PC300が出力する映像データから表示制御部122が生成する表示データを調整することで、画像表示部20が結像する立体像の焦点距離を調整可能である。このため、本実施形態で輻輳角を調整する制御に代えて、ホログラフィー表示装置として構成される画像表示部20において立体像の焦点距離を制御することで、画像表示部20が表示する像を使用者が視認する距離を、調整することができる。   In addition, a holographic display device may be provided as an optical system in which the image display unit 20 outputs image light. In this case, the image display unit 20 includes, for example, a light source and a spatial light modulator (SLM: Spatial Light Modulator) that modulates light from the light source. For example, a reflective spatial light phase modulator (LCOS (Liquid Crystal On Silicon) -SLM) using liquid crystal can be used as the SLM. In this configuration, the connection device 10 outputs display data to the SLM, whereby the reference light emitted from the light source is modulated by the SLM to form a stereoscopic image. In this case, by adjusting the display data generated by the display control unit 122 from the video data output from the PC 300 to the connection device 10 or the video data output from the PC 300, the three-dimensional image formed by the image display unit 20 The focal length can be adjusted. Therefore, instead of the control of adjusting the convergence angle in the present embodiment, the image display unit 20 configured as a holographic display device uses the image displayed by the image display unit 20 by controlling the focal length of the stereoscopic image. It is possible to adjust the distance viewed by the person.

また、画像表示部20の外側に調光シェードを設けた構成であってもよい。調光シェードは、液晶パネル等を備え、制御部310の制御により光の透過率が変化する板状の電子デバイスである。画像表示部20に調光シェードを設けた場合、画像表示部20を装着する使用者の右眼RE及び左眼LEには、調光シェードを透過し、さらに右導光板26、左導光板28を透過した外光OLが入射する。使用者は、調光シェードと画像表示部20とを透過した外光により外景を視認する。従って、調光シェードの透過率(透光率)により、使用者が外景を視認する視認性が変化する。
制御部310は、マスク処理を実行する際に、マスク処理する領域の視認性を高めるため、調光シェードにおける当該領域の透過率を高める制御を行ってもよい。
Further, the light control shade may be provided outside the image display unit 20. The light control shade is a plate-like electronic device that includes a liquid crystal panel or the like and whose light transmittance is changed by the control of the control unit 310. When the light control shade is provided in the image display unit 20, the light control shade is transmitted to the right eye RE and the left eye LE of the user wearing the image display unit 20, and the right light guide plate 26 and the left light guide plate 28 are further provided. Outside light OL that has passed through is incident. The user visually recognizes the outside scene by the external light transmitted through the light control shade and the image display unit 20. Therefore, the visibility with which a user visually recognizes an outside scene changes with the transmittance | permeability (light transmittance) of a light control shade.
When performing the mask process, the control unit 310 may perform control to increase the transmittance of the area in the light control shade in order to enhance the visibility of the area to be subjected to the mask process.

上記第1実施形態では、画像表示部20の表示範囲における表示部330の位置を特定し、表示部330の位置に合わせて画像表示部20に画像を表示する構成を説明した。つまり、画像表示部20と表示部330との相対位置に合わせて画像を表示していた。本発明はこれに限定されず、例えば、画像表示部20の表示範囲におけるPC300の位置を、PC300の外観の一部または全部を基準として検出、あるいは特定してもよい。   In the first embodiment, the configuration in which the position of the display unit 330 in the display range of the image display unit 20 is specified and the image is displayed on the image display unit 20 in accordance with the position of the display unit 330 has been described. That is, the image is displayed in accordance with the relative position between the image display unit 20 and the display unit 330. The present invention is not limited to this. For example, the position of the PC 300 in the display range of the image display unit 20 may be detected or specified based on part or all of the appearance of the PC 300.

すなわち、制御部310は、ステップS22で、カメラ61の撮像画像データにPC300の外観の少なくとも一部が含まれるか否かを判定する。ステップS22で、制御部310は、例えば、撮像画像データからパターンマッチングにより、PC300の画像を検出する。ここで、制御部310は、PC300の筐体の隅の形状、PC300における表示部330と筐体との境界部分の形状、PC300の背面側の形状、PC300の背面の塗装色等を、パターンマッチングにより、カメラ61の撮像画像から検出してもよい。また、制御部310は、PC300の筐体に貼付または固定されたマーカーを、カメラ61の撮像画像から検出してもよい。マーカーは、例えば、バーコードや二次元コード等の画像コード、文字、その他の画像を用いることができる。また、PC300の外装の模様や形状がマーカーとして機能する模様や形状となっていてもよい。例えば、PC300は、図1に示す平板形状に限らず、突起や凹部を有する形状であってもよく、これらの突起や凹部を制御部310が検出する構成であってもよい。この場合、制御部310は、撮像画像データからPC300の位置や姿勢を特定し、画像表示部20に対するPC300の相対位置を求めてもよい。また、制御部310は、画像表示部20に対するPC300の相対位置を求め、求めた相対位置に基づいて、画像表示部20と表示部330との相対位置を求める処理を行ってもよい。   That is, in step S22, the control unit 310 determines whether at least part of the appearance of the PC 300 is included in the captured image data of the camera 61. In step S22, for example, the control unit 310 detects an image of the PC 300 from the captured image data by pattern matching. Here, the control unit 310 performs pattern matching on the shape of the corner of the case of the PC 300, the shape of the boundary portion between the display unit 330 and the case in the PC 300, the shape on the back side of the PC 300, the paint color on the back side of the PC 300, etc. It may be detected from the image captured by the camera 61. Further, the control unit 310 may detect a marker attached or fixed to the housing of the PC 300 from the captured image of the camera 61. As the marker, for example, an image code such as a barcode and a two-dimensional code, characters, and other images can be used. Moreover, the pattern or shape of the exterior of the PC 300 may be a pattern or shape that functions as a marker. For example, the PC 300 is not limited to the flat plate shape illustrated in FIG. 1, and may have a shape having a protrusion or a recess, and the control unit 310 may detect the protrusion or the recess. In this case, the control unit 310 may specify the position and orientation of the PC 300 from the captured image data, and obtain the relative position of the PC 300 with respect to the image display unit 20. Further, the control unit 310 may perform processing for obtaining the relative position of the PC 300 with respect to the image display unit 20 and obtaining the relative position between the image display unit 20 and the display unit 330 based on the obtained relative position.

[2.第2実施形態]
図12は、本発明を適用した第2実施形態における表示態様の例を示す図である。
第2実施形態は、第1実施形態と共通の構成を有する表示システム1により、第1実施形態とは異なる仮想画像VDを形成する例である。
[2. Second embodiment]
FIG. 12 is a view showing an example of a display mode in the second embodiment to which the present invention is applied.
The second embodiment is an example in which a virtual image VD different from the first embodiment is formed by the display system 1 having the same configuration as the first embodiment.

図12に示す仮想画像VDは、図8に示した仮想画像VDと同様に、表示部330に表示される画像よりサイズが大きい画像である。第2実施形態で、制御部310は、表示部330に表示される画像の全体を、仮想の表示領域に配置して、仮想画像VDを生成する。   Similar to the virtual image VD illustrated in FIG. 8, the virtual image VD illustrated in FIG. 12 is an image that is larger in size than the image displayed on the display unit 330. In the second embodiment, the control unit 310 arranges the entire image displayed on the display unit 330 in a virtual display area to generate a virtual image VD.

図12に示すように、仮想画像VDの全体に表示される画像は、表示部330が表示する画像の全体と同じ内容である。制御部310は、仮想表示領域の解像度と、表示部330が表示する画像の解像度または表示部330の表示解像度とが一致しない場合、解像度変換を行って、仮想画像VDを生成する。   As shown in FIG. 12, the image displayed on the entire virtual image VD has the same content as the entire image displayed on the display unit 330. If the resolution of the virtual display area does not match the resolution of the image displayed by the display unit 330 or the display resolution of the display unit 330, the control unit 310 performs resolution conversion to generate a virtual image VD.

仮想画像VDは、領域VD1、VD2、VD3、VD4に分割される。領域VD1〜VD4のそれぞれには、表示部330の表示画像を分割した一部が割り当てられる。図12の仮想画像VDは、表示部330の表示画像を4分割し、分割された領域が、領域VD1、VD2、VD3、VD4に表示される。   The virtual image VD is divided into areas VD1, VD2, VD3, and VD4. A part obtained by dividing the display image of the display unit 330 is allocated to each of the areas VD1 to VD4. The virtual image VD of FIG. 12 divides the display image of the display unit 330 into four, and the divided regions are displayed in the regions VD1, VD2, VD3, and VD4.

制御部310は、仮想画像VDから、画像表示部20により表示する範囲を切り出す(抽出する)処理(図11のステップS29、及び、ステップS36)において、領域VD1〜VD4のいずれかを単位として切り出す。つまり、接続装置10には、領域VD1〜VD4のいずれかの領域の映像データが出力される。   Control unit 310 cuts out a region to be displayed by image display unit 20 from virtual image VD (step S29 in FIG. 11 and step S36 in FIG. 11), and cuts out any of regions VD1 to VD4 as a unit. . That is, video data of one of the regions VD1 to VD4 is output to the connection device 10.

そして、視野VRが移動したか否かを判定する処理(ステップS33)で、制御部310は、視野VRが、領域VD1〜VD4の境界を越えた場合に、視野VRが移動したと判定する。この判定で、制御部310は、視野VRの中心が領域VD1〜VD4の境界を越えて移動した場合、すなわち領域VD1〜VD4のいずれかの領域から、隣接する領域に移動した場合に、肯定判定する。   Then, in the process of determining whether the field of view VR has moved (step S33), the control unit 310 determines that the field of view VR has moved when the field of view VR has exceeded the boundary of the areas VD1 to VD4. In this determination, the control unit 310 makes an affirmative determination if the center of the visual field VR moves beyond the boundaries of the regions VD1 to VD4, ie, if it moves from one of the regions VD1 to VD4 to an adjacent region. Do.

第2実施形態で、PC300は、表示部330に対応する画像を表示部330に表示させ、表示部330の表示画像に対応する仮想画像VDを生成し、仮想画像VDの少なくとも一部を含む画像の映像データを出力させる。表示システム1は、HMD100が備える画像表示部20において、制御部310の制御により出力された映像データに基づく画像を、外景として視認される表示部330の位置に合わせて表示させる。これにより、PC300の表示部330に表示される画像の少なくとも一部を、画像表示部20において外景として視認される表示部330の位置に合わせて、画像表示部20に表示できる。このため、表示部330の表示画像と、HMD100が表示する画像とを協調させることができる。   In the second embodiment, the PC 300 causes the display unit 330 to display an image corresponding to the display unit 330, generates a virtual image VD corresponding to the display image on the display unit 330, and includes at least a portion of the virtual image VD. Output the video data of The display system 1 causes the image display unit 20 included in the HMD 100 to display an image based on the video data output by the control of the control unit 310 in alignment with the position of the display unit 330 visually recognized as the outside scene. Thereby, at least a part of the image displayed on the display unit 330 of the PC 300 can be displayed on the image display unit 20 in alignment with the position of the display unit 330 visually recognized as the outside scene in the image display unit 20. Therefore, the display image of the display unit 330 and the image displayed by the HMD 100 can be coordinated.

また、制御部310は、仮想画像VDの一部を切り出した画像をI/F部341により出力させるので、表示部330の表示画像の一部を画像表示部20に拡大して表示できる。   Further, since the control unit 310 causes the I / F unit 341 to output an image obtained by cutting out part of the virtual image VD, a part of the display image of the display unit 330 can be enlarged and displayed on the image display unit 20.

また、制御部310は、HMD100の画像表示部20に対する表示部330の相対位置を求め、求めた相対位置に基づき、映像データを生成する。これにより、画像表示部20を備えるHMD100によって、PC300の表示部330の位置に対応した表示を、容易に実現できる。   Further, the control unit 310 obtains the relative position of the display unit 330 with respect to the image display unit 20 of the HMD 100, and generates video data based on the obtained relative position. Thereby, the display corresponding to the position of the display unit 330 of the PC 300 can be easily realized by the HMD 100 including the image display unit 20.

[3.第3実施形態]
図13及び図14は、本発明を適用した第3実施形態における表示システム1の動作を示すフローチャートである。図13はPC300の動作を示し、図14はHMD100の動作を示す。
第3実施形態は、第1実施形態と共通の構成を有する表示システム1により、第1実施形態とは異なる動作を実行する例である。
[3. Third embodiment]
FIG. 13 and FIG. 14 are flowcharts showing the operation of the display system 1 in the third embodiment to which the present invention is applied. FIG. 13 shows the operation of the PC 300, and FIG. 14 shows the operation of the HMD 100.
The third embodiment is an example in which an operation different from that of the first embodiment is performed by the display system 1 having the same configuration as the first embodiment.

第3実施形態では、画像表示部20に対するPC300の相対位置を検出する処理をPC300が実行する一方、PC300が生成する仮想画像VDの一部を切り出す処理を、HMD100が実行する。   In the third embodiment, while the PC 300 executes the process of detecting the relative position of the PC 300 with respect to the image display unit 20, the HMD 100 executes the process of cutting out part of the virtual image VD generated by the PC 300.

図13に示すフローチャートにおいて、図11と共通の処理は、同じステップ番号を付して説明を省略する。
制御部310は、ステップS21〜S28の処理を実行する。制御部310は、ステップS28で、画像表示部20が画像を表示する範囲における表示部330の位置を特定する(ステップS28)。ここで、制御部310は、ステップS28で特定した表示部330の位置を示す位置データを、仮想画像VDの映像データとともにHMD100に出力する処理を開始する(ステップS51)。ステップS51で制御部310が出力する位置データは、仮想画像VDから、画像表示部20に表示する範囲の画像を切り出すためのデータである。
In the flowchart shown in FIG. 13, the same processing as that in FIG.
Control unit 310 executes the processing of steps S21 to S28. At step S28, control unit 310 specifies the position of display unit 330 in the range in which image display unit 20 displays an image (step S28). Here, the control unit 310 starts processing of outputting the position data indicating the position of the display unit 330 identified in step S28 to the HMD 100 together with the video data of the virtual image VD (step S51). The position data output by the control unit 310 in step S51 is data for cutting out an image in a range to be displayed on the image display unit 20 from the virtual image VD.

制御部310は、ステップS32(図11)と同様に、視野VRが移動したか否かを判定する(ステップS52)。ステップS52では、画像調整部315が、位置検出部313の検出値に基づき判定を行う。また、以下で説明するステップS53〜S57は画像調整部315が実行する。   The control unit 310 determines whether the visual field VR has moved, as in step S32 (FIG. 11) (step S52). In step S52, the image adjustment unit 315 makes a determination based on the detection value of the position detection unit 313. Further, the image adjusting unit 315 executes steps S53 to S57 described below.

制御部310は、視野VRが移動したと判定した場合(ステップS52;YES)、PC300の位置が、画像表示部20が画像を表示する範囲外であるか否かを判定する(ステップS53)。ステップS53で、制御部310は、表示部330の位置が、画像表示部20が画像を表示する範囲外であるか否かを判定してもよい。ステップS53で、制御部310は、画像表示部20と表示部330との相対的な位置および方向に基づく判定を行う。   If the control unit 310 determines that the visual field VR has moved (step S52; YES), the control unit 310 determines whether the position of the PC 300 is out of the range where the image display unit 20 displays an image (step S53). In step S53, the control unit 310 may determine whether the position of the display unit 330 is out of the range in which the image display unit 20 displays an image. In step S53, the control unit 310 performs determination based on the relative position and direction of the image display unit 20 and the display unit 330.

PC300の位置が画像表示部20の表示範囲外であると判定した場合(ステップS53;YES)、移動後の視野VRに合わせて、HMD100に出力する位置データを変更し(ステップS54)、ステップS52に戻る。   If it is determined that the position of the PC 300 is out of the display range of the image display unit 20 (step S53; YES), the position data to be output to the HMD 100 is changed according to the moved visual field VR (step S54). Return to

制御部310がPC300の位置が画像表示部20の表示範囲外でないと判定した場合(ステップS53;NO)、制御部310は、PC300が画像表示部20の表示範囲の外から範囲内に移動したのか否かを判定する(ステップS55)。
視野VRの移動により、表示部330が画像表示部20の表示範囲外にある状態から、表示範囲内に入った場合(ステップS55;YES)、制御部310は、HMD100の表示を初期化する必要があると判定する(ステップS56)。制御部310は、ステップS23に戻り、映像データの出力を開始するための処理を再度実行する。この初期化の処理は、ステップS38で説明した処理と同様であり、図13及び図14に示す動作例では画像表示部20により初期化が行われる。
When control unit 310 determines that the position of PC 300 is not outside the display range of image display unit 20 (step S53; NO), control unit 310 moves PC 300 from the outside of the display range of image display unit 20 into the range. It is determined whether or not (step S55).
When the display unit 330 enters the display range from the state where the display unit 330 is out of the display range of the image display unit 20 due to the movement of the visual field VR (step S55; YES), the control unit 310 needs to initialize the display of the HMD 100. It is determined that there is (step S56). The control unit 310 returns to step S23, and executes again the process for starting the output of the video data. The process of this initialization is the same as the process described in step S38, and in the operation example shown in FIG. 13 and FIG. 14, the initialization is performed by the image display unit 20.

PC300が画像表示部20の表示範囲の外から範囲内に移動したのではないと判定した場合(ステップS55;NO)、制御部310は、ステップS54に移行して位置データを変更する。   If it is determined that the PC 300 has not moved from the outside of the display range of the image display unit 20 (step S55; NO), the control unit 310 proceeds to step S54 and changes the position data.

ステップS52では、ステップS33と同様に、画像表示部20が移動した場合、及び、PC300が移動した場合のどちらであっても、画像表示部20とPC300との相対位置が変化していれば、視野VRが移動したと判定される。   In step S52, as in step S33, whether the relative position between the image display unit 20 and the PC 300 has changed, whether the image display unit 20 has moved or the PC 300 has moved, It is determined that the visual field VR has moved.

制御部310は、視野VRが移動していないと判定した場合(ステップS52;NO)、表示を終了するか否かを判定する(ステップS57)。例えば、表示部330に対する操作等により表示終了が指示された場合(ステップS57;YES)、制御部310は接続装置10への映像データの出力を停止して本処理を終了する。一方、表示を継続する場合(ステップS57;NO)、制御部310はステップS52に戻る。   If the control unit 310 determines that the visual field VR has not moved (step S52; NO), the control unit 310 determines whether to end the display (step S57). For example, when display end is instructed by an operation on the display unit 330 or the like (step S57; YES), the control unit 310 stops the output of the video data to the connection device 10, and the present process ends. On the other hand, when the display is continued (step S57; NO), control unit 310 returns to step S52.

図14に示す動作において、HMD100の制御部120は、PC300が出力する仮想画像VDのデータと、位置データとを取得する処理を開始する(ステップS61)。制御部120は、取得した位置データに基づいて、画像表示部20が画像を表示する範囲における表示部330の位置を特定する(ステップS62)。   In the operation illustrated in FIG. 14, the control unit 120 of the HMD 100 starts the process of acquiring the data of the virtual image VD output by the PC 300 and the position data (step S61). The control unit 120 specifies the position of the display unit 330 in the range in which the image display unit 20 displays an image based on the acquired position data (step S62).

制御部120は、仮想画像VDから、画像表示部20に表示する範囲の画像を切り出す処理を実行する(ステップS63)。制御部120は、切り出した画像にマスク処理を施す(ステップS64)。ステップS64でマスク処理を施す範囲は、ステップS30(図11)と同様であり、画像表示部20が表示する画像に表示部330が重なる範囲、または、表示部330に重なる部分を含む範囲である。   The control unit 120 executes a process of cutting out an image of a range to be displayed on the image display unit 20 from the virtual image VD (step S63). The control unit 120 performs mask processing on the clipped image (step S64). The range to which the mask process is performed in step S64 is the same as step S30 (FIG. 11), and is a range in which the display unit 330 overlaps the image displayed by the image display unit 20 or a range including a portion overlapping the display unit 330. .

制御部120は、マスク処理を施した画像の輻輳角を設定する(ステップS65)。ステップS65で、制御部120は、ステップS31(図11)で制御部310が実行する処理と同様に、画像表示部20が表示する仮想画像VDの一部が、表示部330を含む平面として視認されるように、画像の輻輳角を設定する。制御部120は、画像表示部20の右表示ユニット22により表示される画像の画像データと、左表示ユニット24により表示される画像の画像データとを含む映像データを生成して、表示を開始する(ステップS66)。ここで、制御部120は、右表示ユニット22用の画像における仮想画像VDの位置と、左表示ユニット24用の画像における仮想画像VDの位置とを調整することで、使用者の左眼LEと右眼REの輻輳角を調整することができる。   The control unit 120 sets the convergence angle of the image subjected to the mask processing (step S65). In step S65, the control unit 120 visually recognizes, as a plane including the display unit 330, a part of the virtual image VD displayed by the image display unit 20, similarly to the process performed by the control unit 310 in step S31 (FIG. 11). Set the convergence angle of the image as Control unit 120 generates video data including image data of an image displayed by right display unit 22 of image display unit 20 and image data of an image displayed by left display unit 24 and starts display (Step S66). Here, the control unit 120 adjusts the position of the virtual image VD in the image for the right display unit 22 and the position of the virtual image VD in the image for the left display unit 24 to obtain the left eye LE of the user. The convergence angle of the right eye RE can be adjusted.

制御部120は、PC300が出力する位置データが変更されたか否かを判定する(ステップS67)。制御部120は、位置データが変更されたと判定した場合(ステップS67;YES)、PC300の位置が、画像表示部20が画像を表示する範囲外であるか否かを判定する(ステップS68)。ステップS68の処理は、例えば、ステップS34(図11)で制御部310が実行する処理と同様である。   The control unit 120 determines whether the position data output from the PC 300 has been changed (step S67). If the control unit 120 determines that the position data has been changed (step S67; YES), the control unit 120 determines whether the position of the PC 300 is out of the range where the image display unit 20 displays an image (step S68). The process of step S68 is, for example, the same as the process performed by the control unit 310 in step S34 (FIG. 11).

PC300の位置が画像表示部20の表示範囲外であると判定した場合(ステップS68;YES)、制御部120は、ステップS64で施したマスク処理を解除する(ステップS69)。制御部120は、変更後の位置データに合わせて、仮想画像VDから切り出す範囲を変更し(ステップS70)、ステップS67に戻る。   If it is determined that the position of the PC 300 is out of the display range of the image display unit 20 (step S68; YES), the control unit 120 cancels the mask processing performed in step S64 (step S69). The control unit 120 changes the range to be cut out from the virtual image VD in accordance with the changed position data (step S70), and returns to step S67.

制御部120は、PC300の位置が画像表示部20の表示範囲外でないと判定した場合(ステップS68;NO)、PC300が画像表示部20の表示範囲の外から範囲内に移動したのか否かを判定する(ステップS71)。PC300が画像表示部20の表示範囲外にある状態から、表示範囲内に入った場合(ステップS71;YES)、制御部120は、画像表示部20の表示を初期化する(ステップS72)。ステップS72の初期化は、例えば、ステップS38(図11)と同様であり、制御部120は、マスク処理の有無、仮想画像VDから切り出す範囲等を、初期状態に戻す。制御部120は、ステップS61に戻り、表示を開始するための処理を再度実行する。   If control unit 120 determines that the position of PC 300 is not outside the display range of image display unit 20 (step S 68; NO), whether or not PC 300 has moved from outside the display range of image display unit 20 into the range It determines (step S71). When the PC 300 enters the display range from the state where it is out of the display range of the image display unit 20 (step S71; YES), the control unit 120 initializes the display of the image display unit 20 (step S72). The initialization in step S72 is similar to, for example, step S38 (FIG. 11), and the control unit 120 returns the presence / absence of mask processing, the range to be cut out from the virtual image VD, and the like to the initial state. The control unit 120 returns to step S61, and executes again the process for starting the display.

PC300が画像表示部20の表示範囲の外から範囲内に移動していない場合(ステップS71;NO)、制御部120はステップS70に移動する。   If the PC 300 has not moved from the outside of the display range of the image display unit 20 into the range (step S71; NO), the control unit 120 moves to step S70.

また、位置データが変更されていないと判定した場合(ステップS67;NO)、制御部120は、表示を終了するか否かを判定する(ステップS73)。例えば、PC300から入力されるコマンドや、操作部140に対する操作等により表示終了が指示された場合(ステップS73;YES)、制御部120は画像表示部20による表示を停止して本処理を終了する。一方、表示を継続する場合(ステップS73;NO)、制御部120はステップS67に戻る。   When it is determined that the position data is not changed (step S67; NO), the control unit 120 determines whether to end the display (step S73). For example, when display end is instructed by a command input from the PC 300, an operation on the operation unit 140, or the like (step S73; YES), the control unit 120 stops the display by the image display unit 20 and ends this processing. . On the other hand, when the display is continued (step S73; NO), the control unit 120 returns to step S67.

この第3実施形態によれば、PC300が、画像表示部20に対するPC300の相対位置を特定し、画像表示部20の表示範囲におけるPC300の位置を求める処理を行い、HMD100が仮想画像VDから画像を切り出して画像表示部20に表示する。このように、PC300とHMD100とが相互に処理を分担して実行する構成とすることで、HMD100の構成を単純化することでHMD100の軽量化および小型化を実行することができる。また、画像表示部20が仮想画像VDから画像を切り出す処理を実行することで、例えば輻輳角の設定等の処理を、画像表示部20において高速に実行できる。   According to the third embodiment, the PC 300 specifies the relative position of the PC 300 with respect to the image display unit 20, performs processing for obtaining the position of the PC 300 in the display range of the image display unit 20, and the HMD 100 generates an image from the virtual image VD. It is cut out and displayed on the image display unit 20. As described above, by configuring the PC 300 and the HMD 100 to share processing with each other to execute the processing, the weight and size of the HMD 100 can be reduced by simplifying the configuration of the HMD 100. In addition, the image display unit 20 can execute processing such as setting of a convergence angle at high speed by executing processing of cutting out an image from the virtual image VD.

第3実施形態で説明した動作において、ステップS33〜S38(図11)と同様の処理を実行してもよい。この場合、ステップS33、S34、S37の処理は制御部310が実行することが好ましい。また、制御部120は、制御部310が実行したステップS33、S34、S37の処理結果を取得して、ステップS35、S36、S38の処理を実行することが好ましい。   In the operation described in the third embodiment, the same processing as steps S33 to S38 (FIG. 11) may be performed. In this case, it is preferable that the control unit 310 execute the processes of steps S33, S34, and S37. Moreover, it is preferable that the control part 120 acquires the process result of step S33, S34, S37 which the control part 310 performed, and performs the process of step S35, S36, S38.

[4.第4実施形態]
図15は、第4実施形態に係る表示システム1Aを構成する各部のブロック図である。
表示システム1Aは、第1実施形態で説明した表示システム1において、HMD100が、接続装置10に代えて、制御装置10Aを備える構成となっている。制御装置10Aは、制御部121を備え、制御部121が、PC300から入力される映像データを処理する。制御部121及び関連する各部の構成を除き、表示システム1Aは、表示システム1と同様の構成部を備える。表示システム1と共通する構成部には同符号を付して説明を省略する。
[4. Fourth embodiment]
FIG. 15 is a block diagram of each part of the display system 1A according to the fourth embodiment.
In the display system 1A described in the first embodiment, the display system 1A is configured such that the HMD 100 includes a control device 10A instead of the connection device 10. The control device 10A includes a control unit 121, and the control unit 121 processes video data input from the PC 300. The display system 1A includes components similar to those of the display system 1 except for the configuration of the control unit 121 and the related units. The same components as those of the display system 1 are denoted by the same reference numerals, and the description thereof is omitted.

制御部121は、制御部120(図5)と同様に、CPUやマイコン等のプロセッサー(図示略)を備え、このプロセッサーによりプログラムを実行することによって、ソフトウェアとハードウェアとの協働によりHMD100の各部を制御する。また、制御部121は、プログラムされたハードウェアにより構成されてもよい。   Similar to the control unit 120 (FIG. 5), the control unit 121 includes a processor (not shown) such as a CPU or a microcomputer, and by executing a program using this processor, the HMD 100 can be implemented by cooperation of software and hardware. Control each part. In addition, the control unit 121 may be configured by programmed hardware.

制御部121には、不揮発性記憶部130、操作部140、及び、接続部145が接続される。また、制御部121は、位置検出部123、及び、画像調整部125を備える。位置検出部123は、位置検出部313と同様に、HMD100の位置を検出する。より詳細には、位置検出部123は、画像表示部20が備えるセンサーの出力値に基づき、PC300と画像表示部20との相対位置を検出する。また、例えば、第1実施形態で説明したように、制御部310がカメラ61の撮像画像データから被写体までの距離を求める処理を、制御部121が実行することもできる。   The non-volatile storage unit 130, the operation unit 140, and the connection unit 145 are connected to the control unit 121. The control unit 121 also includes a position detection unit 123 and an image adjustment unit 125. The position detection unit 123 detects the position of the HMD 100 in the same manner as the position detection unit 313. More specifically, the position detection unit 123 detects the relative position between the PC 300 and the image display unit 20 based on the output value of the sensor included in the image display unit 20. Also, for example, as described in the first embodiment, the control unit 121 can execute the processing of obtaining the distance from the captured image data of the camera 61 to the subject.

位置検出部123が検出する相対位置は、画像表示部20とPC300が存在する空間における位置であってもよい。また、画像表示部20と表示部330の相対的な向きを含んでもよい。例えば、画像表示部20を基準とした場合の表示部330の位置および/または方向を示す情報であってもよい。また、例えば、PC300を基準とした場合の画像表示部20の位置および/または方向を示す情報であってもよい。また、例えば、画像表示部20及びPC300が存在する空間に設定された三次元座標系における座標を含んでいてもよい。   The relative position detected by the position detection unit 123 may be a position in the space where the image display unit 20 and the PC 300 exist. Also, the relative orientation between the image display unit 20 and the display unit 330 may be included. For example, it may be information indicating the position and / or the direction of the display unit 330 based on the image display unit 20. Further, for example, information indicating the position and / or the direction of the image display unit 20 with reference to the PC 300 may be used. Also, for example, coordinates in a three-dimensional coordinate system set in the space in which the image display unit 20 and the PC 300 exist may be included.

画像調整部125は、I/F部110に入力され映像データの画像処理を行う。画像調整部125が実行する画像処理は、第1実施形態および第2実施形態で説明した画像調整部315の処理と同様である。
例えば、画像調整部125は、I/F部110に入力される映像データを、HMD100の仕様に合わせて解像度変換(スケーリング)、フレームレート変換、色調補正、データフォーマットの変更等を行う処理である。
The image adjustment unit 125 performs image processing of video data input to the I / F unit 110. The image processing performed by the image adjustment unit 125 is the same as the processing of the image adjustment unit 315 described in the first embodiment and the second embodiment.
For example, the image adjustment unit 125 is processing for performing resolution conversion (scaling), frame rate conversion, color tone correction, data format change, etc. according to the specification of the HMD 100, for the image data input to the I / F unit 110. .

表示システム1Aは、表示システム1と同様に、図7に示したキャリブレーション処理、及び、図11に示した動作を実行する。
表示システム1Aが図7の動作を実行する場合、ステップS13〜S15は位置検出部123が実行する。また、表示システム1Aが図11の動作を実行する場合、位置検出部123は、ステップS21、S23を実行し、画像調整部125は、ステップS22、S24〜S39を実行する。
Similar to the display system 1, the display system 1A executes the calibration process shown in FIG. 7 and the operation shown in FIG.
When the display system 1A performs the operation of FIG. 7, the position detection unit 123 executes steps S13 to S15. When the display system 1A executes the operation of FIG. 11, the position detection unit 123 executes steps S21 and S23, and the image adjustment unit 125 executes steps S22 and S24 to S39.

第4実施形態では、画像調整部125が仮想画像VDに相当する仮想の表示領域を設定し、PC300が出力する映像データを仮想の表示領域に配置して仮想画像VDを生成する。画像調整部125は、仮想画像VDから、画像表示部20によって表示する範囲を切り出して、必要に応じてマスク処理を施し、画像表示部20によって画像を表示させる。   In the fourth embodiment, the image adjustment unit 125 sets a virtual display area corresponding to the virtual image VD, arranges video data output from the PC 300 in the virtual display area, and generates the virtual image VD. The image adjustment unit 125 cuts out a range to be displayed by the image display unit 20 from the virtual image VD, performs mask processing as necessary, and causes the image display unit 20 to display an image.

すなわち、HMD100Aが、画像表示部20に対する表示部330の相対位置を求め、求めた相対位置に基づき映像データを処理して、外景の表示部330の位置に対応する画像を画像表示部20に表示させる制御部121を備える。   That is, the HMD 100A determines the relative position of the display unit 330 with respect to the image display unit 20, processes the video data based on the determined relative position, and displays an image corresponding to the position of the display unit 330 of the outside on the image display unit 20. The control unit 121 is provided.

これにより、HMD100Aが、画像表示部20に対する表示部330の相対位置を求めて、この相対位置に対応するように表示用の画像を生成するので、PC300の負荷を増大させることなく、表示部330の位置に対応した表示を実現できる。   Thus, the HMD 100A determines the relative position of the display unit 330 with respect to the image display unit 20, and generates a display image to correspond to the relative position, so that the display unit 330 is not increased. The display corresponding to the position of can be realized.

また、PC300が、表示部330が表示する画像と同じ画像を、HDMIケーブル2Aによりミラーリングして出力する構成において、HMD100Aが、画像表示部20の表示画像を調整する。すなわち、HMD100Aが、画像表示部20の方向や画像表示部20とPC300との相対位置に対応して、画像表示部20が表示する画像の表示態様を変化させる。   Further, in a configuration in which the PC 300 mirrors and outputs the same image as the image displayed by the display unit 330 with the HDMI cable 2A, the HMD 100A adjusts the display image of the image display unit 20. That is, the HMD 100A changes the display mode of the image displayed by the image display unit 20 in accordance with the direction of the image display unit 20 and the relative position between the image display unit 20 and the PC 300.

従って、表示システム1Aは、第1実施形態で説明した表示システム1の効果を実現できる。さらに、HMD100Aにおいて映像データを処理可能であることから、PC300に代えて、映像データを出力する汎用機器を接続した場合に、画像表示部20の位置や方向に対応して表示態様を変更できるという利点がある。   Therefore, the display system 1A can realize the effects of the display system 1 described in the first embodiment. Furthermore, since video data can be processed in the HMD 100A, when a general-purpose device that outputs video data is connected instead of the PC 300, the display mode can be changed according to the position and direction of the image display unit 20. There is an advantage.

なお、本発明は上記各実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
例えば、上記実施形態において、使用者が表示部を透過して外景を視認する構成は、右導光板261及び左導光板281が外光を透過する構成に限定されない。例えば外景を視認できない状態で画像を表示する表示装置にも適用可能である。具体的には、外景撮影用カメラ61の撮影画像、この撮影画像に基づき生成される画像やCG、予め記憶された映像データや外部から入力される映像データに基づく映像等を表示する表示装置に、本発明を適用できる。この種の表示装置としては、外景を視認できない、いわゆるクローズ型の表示装置を含むことができる。また、上記実施形態で説明したように実空間に重ねて画像を表示するAR表示や、撮影した実空間の画像と仮想画像とを組み合わせるMR(Mixed Reality)表示を用いてもよい。或いは、仮想画像を表示するVR(Virtual Reality)表示といった処理を行わない表示装置にも適用できる。例えば、外部から入力される映像データまたはアナログ映像信号を表示する表示装置も、本発明の適用対象として勿論含まれる。
The present invention is not limited to the configurations of the above-described embodiments, and can be implemented in various modes without departing from the scope of the invention.
For example, in the above embodiment, the configuration in which the user passes the display unit to visually recognize the outside view is not limited to the configuration in which the right light guide plate 261 and the left light guide plate 281 transmit outside light. For example, the present invention is also applicable to a display device that displays an image in a state where the outside scene can not be viewed. Specifically, on a display device for displaying a photographed image of the outside scene photographing camera 61, an image or CG generated based on the photographed image, video data stored in advance, video based on video data input from the outside, or video data input from the outside. The present invention can be applied. The display device of this type can include a so-called close display device in which the outside scene can not be viewed. Further, as described in the above embodiment, AR display may be used to display an image superimposed on real space, or MR (Mixed Reality) display may be used in which a photographed real space image and a virtual image are combined. Alternatively, the present invention can be applied to a display device that does not perform processing such as VR (Virtual Reality) display for displaying a virtual image. For example, a display device that displays video data or an analog video signal input from the outside is, of course, included as an application target of the present invention.

また、例えば、画像表示部20に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼に対応して画像を表示する表示部と、使用者の右眼に対応して画像を表示する表示部とを備えていればよい。また、本発明の表示装置は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。この場合、使用者の身体に対する位置を位置決めする部分、及び、当該部分に対し位置決めされる部分を装着部とすることができる。   For example, instead of the image display unit 20, an image display unit of another type such as an image display unit worn like a hat may be adopted, for example, and an image is displayed corresponding to the user's left eye And a display unit for displaying an image corresponding to the user's right eye. Further, the display device of the present invention may be configured as, for example, a head mounted display mounted on a vehicle such as an automobile or an airplane. Also, for example, it may be configured as a head mounted display incorporated in a body protector such as a helmet. In this case, the mounting portion may be a portion for positioning the position of the user relative to the body, and a portion positioned relative to the portion.

さらに、第4実施形態のHMD100Aは、制御装置10Aと画像表示部20とが一体に構成され、使用者の頭部に装着される構成であってもよい。また、制御装置10Aとして、ノート型コンピューター、タブレット型コンピューター、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。また、上記実施形態では、接続装置10と画像表示部20とが無線通信回線によって接続される構成であってもよい。   Furthermore, in the HMD 100A of the fourth embodiment, the control device 10A and the image display unit 20 may be integrally configured, and may be mounted on the head of the user. Further, as the control device 10A, a notebook computer, a tablet computer, a game machine, a portable telephone, a portable electronic device including a smartphone, a portable media player, or other dedicated device may be used. In the above embodiment, the connection device 10 and the image display unit 20 may be connected by a wireless communication line.

また、表示システム1においてHMD100、100Aに接続される機器は、PC300に限定されない。例えば、据え置き型のテレビ受像器、据え置き型のパーソナルコンピューターのモニターであってもよい。また、PC300に代えて、表示面に画像を投射するプロジェクターを用いてもよく、この場合、プロジェクターが画像を投射する投射面が第1表示部に相当する。また、これらの機器以外に、PC300に代えて、可搬型または据え置き型の電子機器を用いることができる。PC300またはPC300に代えて利用される各種の電子機器は、HMD100、100Aに無線接続されてもよい。例えば、コネクター11Aに代えて、Miracast(登録商標)やWirelessHD(登録商標)などの無線映像通信インターフェイスを利用してもよい。また、コネクター11Bに代えて、無線LAN(WiFi(登録商標)を含む)を用いてもよいし、Bluetooth(登録商標)を利用してもよい。   Moreover, the apparatus connected to HMD100, 100A in the display system 1 is not limited to PC300. For example, a stationary television receiver or a monitor of a stationary personal computer may be used. Moreover, it may replace with PC300 and the projector which projects an image on a display surface may be used, and in this case, the projection surface which a projector projects an image corresponds to a 1st display part. In addition to these devices, portable or stationary electronic devices can be used instead of the PC 300. Various electronic devices used in place of the PC 300 or PC 300 may be wirelessly connected to the HMD 100, 100A. For example, instead of the connector 11A, a wireless video communication interface such as Miracast (registered trademark) or WirelessHD (registered trademark) may be used. Also, instead of the connector 11B, a wireless LAN (including WiFi (registered trademark)) may be used, or Bluetooth (registered trademark) may be used.

また、ブロック図に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図に示した通りに独立したハードウェア資源を配置する構成に限定されない。   Further, at least a part of each functional block shown in the block diagram may be realized by hardware, or may be realized as a combination of hardware and software, and as shown in the figure, it is independent. The configuration is not limited to the configuration of allocating the hardware resources.

2…ケーブル、2A…HDMIケーブル、2B…USBケーブル、10…接続装置、10A…制御装置、11、11A、11B、11C…コネクター、20…画像表示部(第2表示部)、22…右表示ユニット(右眼用表示部)、24…左表示ユニット(左眼用表示部)、61…カメラ、64…距離センサー、65…照度センサー、67…LEDインジケーター、100、100A…HMD(表示装置)、110…I/F部(取得部)、120…制御部、121…制御部、123…位置検出部、124…センサー制御部、125…画像調整部、126…電源制御部、130…不揮発性記憶部、140…操作部、145…接続部、217…温度センサー、235…6軸センサー、237…磁気センサー、239…温度センサー、261…ハーフミラー、281…ハーフミラー、300…PC(電子機器)、310…制御部(電子機器制御部)、311…入出力制御部、312…検出値取得部、313…位置検出部、315…画像調整部、320…不揮発性記憶部、321…コンテンツデータ、330…表示部(第1表示部)、331…表示パネル、332…タッチセンサー、341…I/F部(出力部)、345…通信部、VD…仮想画像、VD1〜VD4…領域、VR…視野。   Reference Signs List 2 cable 2A HDMI cable 2B USB cable 10 connection device 10A control device 11 11A 11B 11C connector 20 image display unit (second display unit) 22 right display Unit (display unit for right eye), 24: left display unit (display unit for left eye), 61: camera, 64: distance sensor, 65: illuminance sensor, 67: LED indicator, 100, 100A: HMD (display device) 110: I / F unit (acquisition unit) 120: control unit 121: control unit 123: position detection unit 124: sensor control unit 125: image adjustment unit 126: power supply control unit 130: non-volatile Storage unit, 140: operation unit, 145: connection unit, 217: temperature sensor, 235: 6-axis sensor, 237: magnetic sensor, 239: temperature sensor, 261: half Reference numeral 281: half mirror 300: PC (electronic device) 310: control unit (electronic device control unit) 311: input / output control unit 312: detection value acquisition unit 313: position detection unit 315: image adjustment Unit 320 Nonvolatile storage unit 321 Content data 330 Display unit (first display unit) 331 Display panel 332 Touch sensor 341 I / F unit (output unit) 345 Communication unit , VD: virtual image, VD1 to VD4: area, VR: field of view.

Claims (15)

第1表示部を有する電子機器と、前記電子機器に接続される頭部装着型の表示装置と、を備え、
前記電子機器は、
画像を出力する出力部を備え、
前記表示装置は、
前記電子機器が出力する前記画像を取得する取得部と、
前記表示装置が装着された状態で視認される外景に重ねて画像を表示する第2表示部と、
前記取得部により取得された前記画像を前記第2表示部により表示させる表示制御部と、を備え、
前記表示制御部は、外景として視認される前記電子機器の位置に対応させて前記画像を前記第2表示部に表示する、表示システム。
An electronic device having a first display unit, and a head-mounted display device connected to the electronic device;
The electronic device is
It has an output unit that outputs an image,
The display device is
An acquisition unit configured to acquire the image output from the electronic device;
A second display unit configured to display an image superimposed on an outside scene viewed in a state in which the display device is mounted;
A display control unit that causes the second display unit to display the image acquired by the acquisition unit;
The display control unit displays the image on the second display unit in association with the position of the electronic device viewed as an outside scene.
前記電子機器は、前記第1表示部よりも広い仮想表示領域に対応する画像を生成し、生成した前記画像の一部を前記第1表示部に表示させ、生成した前記画像の少なくとも一部を前記出力部により出力させる電子機器制御部を備え、
前記表示装置が備える前記表示制御部は、前記電子機器により出力された画像の少なくとも一部を、前記電子機器の位置に合わせて前記第2表示部に表示する、請求項1記載の表示システム。
The electronic device generates an image corresponding to a virtual display area wider than the first display unit, displays a part of the generated image on the first display unit, and generates at least a part of the generated image And an electronic device control unit that causes the output unit to output the information.
The display system according to claim 1, wherein the display control unit included in the display device displays at least a part of the image output by the electronic device on the second display unit in alignment with the position of the electronic device.
前記電子機器制御部は、前記仮想表示領域に対応させて生成した前記画像のうち、前記第1表示部に表示させた部分を除く前記画像を、前記出力部により出力させ、
前記表示装置が備える前記表示制御部は、前記電子機器により出力された画像を前記第2表示部に表示する、請求項2記載の表示システム。
The electronic device control unit causes the output unit to output the image excluding the portion displayed on the first display unit among the images generated corresponding to the virtual display area.
The display system according to claim 2, wherein the display control unit included in the display device displays an image output by the electronic device on the second display unit.
前記表示装置が備える前記表示制御部は、前記電子機器により出力された前記画像を、外景として視認される前記第1表示部の周囲に表示する、請求項3記載の表示システム。   The display system according to claim 3, wherein the display control unit included in the display device displays the image output by the electronic device around the first display unit visually recognized as an outside scene. 前記電子機器制御部は、前記第2表示部に対する前記第1表示部の相対位置に基づいて、前記仮想表示領域に対応させて生成した前記画像の一部を前記第1表示部に表示し、前記第1表示部に表示させた部分を除く前記画像を前記出力部により出力させる、請求項3または4に記載の表示システム。   The electronic device control unit displays, on the first display unit, a part of the image generated corresponding to the virtual display area based on the relative position of the first display unit to the second display unit; The display system according to claim 3, wherein the output unit outputs the image excluding a portion displayed on the first display unit. 前記電子機器制御部は、前記第2表示部に対する前記第1表示部の相対位置に基づいて、前記仮想表示領域に対応させて生成した前記画像のうち前記第1表示部に表示させた部分をマスクした画像を前記出力部により出力させる、請求項5記載の表示システム。   The electronic device control unit is configured to display a portion of the image generated corresponding to the virtual display area based on the relative position of the first display unit to the second display unit. The display system according to claim 5, wherein the output unit outputs the masked image. 前記電子機器制御部は、前記仮想表示領域に対応させて生成した前記画像を前記出力部により出力させ、
前記表示装置が備える前記表示制御部は、前記電子機器により出力された画像の一部を切り出した画像を前記第2表示部に表示する、請求項2記載の表示システム。
The electronic device control unit causes the output unit to output the image generated in association with the virtual display area.
The display system according to claim 2, wherein the display control unit included in the display device displays an image obtained by cutting out a part of the image output by the electronic device on the second display unit.
前記表示制御部は、前記第2表示部に対する前記第1表示部の相対位置に基づいて、前記取得部により取得された前記画像の一部を抽出して前記第2表示部に表示させる、請求項7記載の表示システム。   The display control unit extracts a part of the image acquired by the acquisition unit based on the relative position of the first display unit to the second display unit, and causes the second display unit to display the image. Item 7. A display system according to Item 7. 前記表示制御部は、前記第2表示部に対する前記第1表示部の相対位置に基づいて、前記取得部により取得された前記画像のうち前記第1表示部に重なる部分をマスクした画像を前記第2表示部に表示させる、請求項7または8に記載の表示システム。   The display control unit is configured to, based on a relative position of the first display unit with respect to the second display unit, set an image obtained by masking a portion overlapping the first display unit in the image acquired by the acquisition unit. The display system according to claim 7 or 8, wherein the second display unit displays the second display unit. 前記電子機器制御部は、実空間における前記電子機器の位置に基づき前記仮想表示領域の位置を決定し、前記仮想表示領域と前記第2表示部との相対位置に基づいて、前記第2表示部の表示態様を調整する、請求項2から6のいずれか1項に記載の表示システム。   The electronic device control unit determines the position of the virtual display area based on the position of the electronic device in the real space, and the second display unit based on the relative position of the virtual display area and the second display unit. The display system according to any one of claims 2 to 6, wherein the display mode of is adjusted. 前記電子機器制御部は、前記第1表示部が前記第2表示部を透過して視認される範囲に含まれることを検出した場合に、前記第1表示部の位置を基準として、前記画像の表示態様を初期化する、請求項2から10のいずれか1項に記載の表示システム。   When the electronic device control unit detects that the first display unit is included in a range viewed through the second display unit, the electronic device control unit is configured to use the position of the first display unit as a reference. The display system according to any one of claims 2 to 10, wherein the display mode is initialized. 前記第2表示部は、前記表示装置を装着した使用者の左眼に向けて画像光を発する左眼用表示部、及び、前記使用者の右眼に向けて画像光を発する右眼用表示部を備え、
前記第2表示部により外景として視認される前記第1表示部の位置に対応して、前記左眼用表示部による表示位置、及び前記右眼用表示部による表示位置が制御され、前記第2表示部に表示される画像の輻輳角が調整される、請求項1から11のいずれか1項に記載の表示システム。
The second display unit is a display unit for the left eye that emits image light toward the left eye of the user wearing the display device, and a display for the right eye that emits image light toward the right eye of the user Equipped with
The display position by the left-eye display unit and the display position by the right-eye display unit are controlled according to the position of the first display unit visually recognized as an outside scene by the second display unit, and the second The display system according to any one of claims 1 to 11, wherein the convergence angle of the image displayed on the display unit is adjusted.
前記第2表示部は、前記第2表示部により表示される画像を前記使用者が知覚する視認距離を調整可能な光学系を有し、
前記第2表示部に表示される画像の輻輳角に対応して前記光学系が制御される、請求項12記載の表示システム。
The second display unit includes an optical system capable of adjusting a visual distance at which the user perceives an image displayed by the second display unit.
The display system according to claim 12, wherein the optical system is controlled according to a convergence angle of an image displayed on the second display unit.
外景に重ねて画像を表示する頭部装着型の表示装置に接続される電子機器であって、
第1表示部と、
前記表示装置に画像を出力する出力部と、
前記表示装置が有する第2表示部に対する前記第1表示部の相対位置に基づいて、前記表示装置によって外景として視認される前記第1表示部の位置に対応する画像を前記第2表示部に表示するための画像を、前記出力部により出力させる制御部と、を備える、電子機器。
An electronic device connected to a head-mounted display device for displaying an image superimposed on an outside scene,
A first display unit,
An output unit that outputs an image to the display device;
Based on the relative position of the first display unit to the second display unit included in the display device, an image corresponding to the position of the first display unit viewed by the display device as the outside view is displayed on the second display unit An electronic apparatus comprising: a control unit that causes the output unit to output an image to be output.
第1表示部を有する電子機器と、外景に重ねて画像を表示する第2表示部を有する頭部装着型の表示装置と、による表示方法であって、
前記電子機器により画像を出力し、
前記表示装置により、
前記電子機器が出力する前記画像を取得し、
取得した画像を前記第2表示部により表示させ、
前記第2表示部において外景として視認される前記電子機器の位置に対応させて、前記第2表示部に前記画像を表示する、表示方法。
A display method comprising: an electronic device having a first display portion; and a head-mounted display device having a second display portion for displaying an image superimposed on an outside scene,
Output an image by the electronic device;
The display device
Acquiring the image output by the electronic device;
Displaying the acquired image by the second display unit;
A display method, wherein the image is displayed on the second display unit in correspondence with the position of the electronic device viewed as an outside scene in the second display unit.
JP2018172773A 2017-12-22 2018-09-14 Display system, electronic apparatus, and display method Pending JP2019114236A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201811561977.5A CN109960039B (en) 2017-12-22 2018-12-20 Display system, electronic device, and display method
US16/228,847 US10971113B2 (en) 2017-12-22 2018-12-21 Display system, electronic device, and display method
US17/184,036 US11380287B2 (en) 2017-12-22 2021-02-24 Display system, electronic device, and display method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017246853 2017-12-22
JP2017246853 2017-12-22

Publications (1)

Publication Number Publication Date
JP2019114236A true JP2019114236A (en) 2019-07-11

Family

ID=67223733

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018172773A Pending JP2019114236A (en) 2017-12-22 2018-09-14 Display system, electronic apparatus, and display method

Country Status (1)

Country Link
JP (1) JP2019114236A (en)

Similar Documents

Publication Publication Date Title
CN109960481B (en) Display system and control method thereof
US11054650B2 (en) Head-mounted display device, control method of head-mounted display device, and display system
CN109960039B (en) Display system, electronic device, and display method
JP7087481B2 (en) Head-mounted display device, display control method, and computer program
CN108535868B (en) Head-mounted display device and control method thereof
CN110060614B (en) Head-mounted display device, control method thereof, and display system
US11575877B2 (en) Utilizing dual cameras for continuous camera capture
US10567730B2 (en) Display device and control method therefor
JP2018160735A (en) Transmission type display apparatus, display control method, and computer program
JP2017116562A (en) Display device, control method for the same and program
US12114103B2 (en) Projector with field lens
US12002392B2 (en) Eyewear projector brightness control
JP2019114236A (en) Display system, electronic apparatus, and display method
JP2017134630A (en) Display device, control method of display device, and program
US20220342222A1 (en) Eyewear having a projector with heat sink shields