JP2015064476A - Image display device, and method of controlling image display device - Google Patents

Image display device, and method of controlling image display device Download PDF

Info

Publication number
JP2015064476A
JP2015064476A JP2013198132A JP2013198132A JP2015064476A JP 2015064476 A JP2015064476 A JP 2015064476A JP 2013198132 A JP2013198132 A JP 2013198132A JP 2013198132 A JP2013198132 A JP 2013198132A JP 2015064476 A JP2015064476 A JP 2015064476A
Authority
JP
Japan
Prior art keywords
image
display
unit
user
image display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013198132A
Other languages
Japanese (ja)
Inventor
総志 木村
Fusayuki Kimura
総志 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2013198132A priority Critical patent/JP2015064476A/en
Priority to US14/471,333 priority patent/US10451874B2/en
Priority to CN201410498313.4A priority patent/CN104469464B/en
Publication of JP2015064476A publication Critical patent/JP2015064476A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image display device that can integrate the types of the display of peripheral external devices.SOLUTION: An image display device includes: a creation unit that creates an integrated image including a first display area that displays, as a list, a plurality of identification images for mutually identifying a plurality of external devices connected with the image display device, and a second display area that displays a display image, which is an image displayed by one external device selected from the plurality of external devices; and an image display unit that allows a user of the image display device to visually recognize the integrated image.

Description

本発明は、画像表示装置に関する。   The present invention relates to an image display device.

頭部に装着する表示装置である頭部装着型表示装置(ヘッドマウントディスプレイ(Head Mounted Display、HMD))が知られている。頭部装着型表示装置は、例えば、液晶ディスプレイと光源とを利用して画像を表す画像光を生成し、生成された画像光を投写光学系や導光板等を利用して使用者の眼に導くことにより、使用者に虚像を認識させる。このような頭部装着型表示装置は、例えばMicroUSB(Universal Serial Bus)等の有線インターフェイスによってスマートフォン等の外部装置と接続されて、MHL(Mobile High definition Link)等の規格に準拠して、外部装置からの映像信号を受信することができる。同様に、頭部装着型表示装置は、例えば無線LAN等の無線インターフェイスによって外部装置と接続されて、Miracast等の規格に準拠して、外部装置からの映像信号を受信することができる。頭部装着型表示装置は、このようにして受信した映像信号に基づいて、外部装置の表示画面に表示される画面と同じ虚像を頭部装着型表示装置の使用者に視認させることができる。   A head-mounted display device (Head Mounted Display (HMD)), which is a display device mounted on the head, is known. The head-mounted display device, for example, generates image light representing an image using a liquid crystal display and a light source, and uses the generated image light to a user's eye using a projection optical system, a light guide plate, or the like. By guiding, the user is made to recognize the virtual image. Such a head-mounted display device is connected to an external device such as a smartphone by a wired interface such as MicroUSB (Universal Serial Bus), for example, and conforms to a standard such as MHL (Mobile High Definition Link). The video signal from can be received. Similarly, the head-mounted display device is connected to an external device through a wireless interface such as a wireless LAN, and can receive a video signal from the external device in accordance with a standard such as Miracast. The head-mounted display device can allow the user of the head-mounted display device to visually recognize the same virtual image as the screen displayed on the display screen of the external device, based on the video signal received in this way.

特許文献1には、現在の番組映像と、現在の番組映像に関する情報と、他のチャンネルの番組情報と、を1つの画面に統合して表示させることのできるAV(Audio Visual)システムが記載されている。特許文献2には、複数のコンピューター装置の表示画面に仮想画面を隣接して設け、各コンピューター装置のユーザーが仮想画面上のウィンドウを操作することができる画像表示装置が記載されている。   Patent Document 1 describes an AV (Audio Visual) system capable of integrating and displaying a current program video, information about the current program video, and program information of other channels on one screen. ing. Patent Document 2 describes an image display device in which a virtual screen is provided adjacent to a display screen of a plurality of computer devices, and a user of each computer device can operate a window on the virtual screen.

特許第3968467号公報Japanese Patent No. 3968467 特許第5082722号公報Japanese Patent No. 5082722

特許文献1に記載された技術では、AVシステムに接続されるAV機器として、アナログ放送受信ユニットとディジタル放送受信ユニットとが例示されている。すなわち、特許文献1に記載された技術では、特定の機器間における映像を対象としており汎用性が低いという課題があった。また、特許文献2に記載された技術では、コンピューター装置の表示画面とは別の表示手段、すなわち仮想画面を提供しているにすぎず、複数のコンピューター装置の表示画面を統合することはできないという課題があった。   In the technique described in Patent Document 1, an analog broadcast receiving unit and a digital broadcast receiving unit are illustrated as AV devices connected to the AV system. That is, in the technique described in Patent Document 1, there is a problem that versatility is low since the video is between specific devices. In addition, the technology described in Patent Document 2 only provides a display means different from the display screen of the computer device, that is, a virtual screen, and cannot display the display screens of a plurality of computer devices. There was a problem.

このため、周辺の外部装置(周辺機器)における表示を統合することのできる画像表示装置が望まれていた。そのほか、画像表示装置には、汎用性の向上、ユーザビリティ―の向上、利便性の向上、信頼性の向上、製造コストの低減といった、種々の要望があった。   For this reason, there has been a demand for an image display device that can integrate display in peripheral external devices (peripheral devices). In addition, there have been various demands for image display devices such as improved versatility, improved usability, improved convenience, improved reliability, and reduced manufacturing costs.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms.

(1)本発明の一形態によれば、画像表示装置が提供される。この画像表示装置は;前記画像表示装置に接続されている複数の外部装置を相互に識別するための複数の識別画像を一覧表示する第1の表示領域と、前記複数の外部装置の中から選択された一の外部装置が表示する画像である表示画像を表示する第2の表示領域と、を含む統合画像を生成する生成部と;前記統合画像を前記画像表示装置の使用者に視認させる画像表示部と、を備える。この形態の画像表示装置によれば、画像表示部は、画像表示装置に接続されている複数の外部装置の複数の識別画像と、複数の外部装置の中から選択された一の外部装置が表示する画像である表示画像と、を含む統合画像を使用者に視認させることができる。このため、画像接続装置周辺の、換言すれば、画像表示装置に接続されている外部装置における表示を統合することのできる画像表示装置を提供することができる。 (1) According to an aspect of the present invention, an image display device is provided. The image display device includes: a first display area for displaying a list of a plurality of identification images for mutually identifying a plurality of external devices connected to the image display device; and a selection from the plurality of external devices A generating unit that generates an integrated image including a second display region that displays a display image that is an image displayed by the one external device; an image that allows a user of the image display device to visually recognize the integrated image A display unit. According to the image display device of this aspect, the image display unit displays a plurality of identification images of a plurality of external devices connected to the image display device and one external device selected from the plurality of external devices. The user can visually recognize an integrated image including a display image that is an image to be displayed. Therefore, it is possible to provide an image display device that can integrate display on an external device around the image connection device, in other words, an external device connected to the image display device.

(2)上記形態の画像表示装置では、さらに;前記一の外部装置から前記表示画像を取得する取得部と;前記取得された表示画像を用いて、前記統合画像の前記第2の表示領域を更新する更新部と、を備えていてもよい。この形態の画像表示装置によれば、画像表示部は、複数の外部装置の中から選択された一の外部装置について、その表示画面が更新された統合画像を使用者に視認させることができる。 (2) In the image display device according to the aspect described above, the acquisition unit that acquires the display image from the one external device; and the second display area of the integrated image using the acquired display image And an update unit for updating. According to the image display device of this aspect, the image display unit can make the user visually recognize the integrated image in which the display screen is updated for one external device selected from among the plurality of external devices.

(3)上記形態の画像表示装置において;前記識別画像には、前記外部装置の一の時点での表示画像と、前記外部装置を識別するための情報を表す画像と、前記外部装置に割り当てられたシンボルを表す画像と、のうちの少なくともいずれかが含まれていてもよい。この形態の画像表示装置によれば、統合画像の第1の表示領域には、外部装置の一の時点での表示画像と、外部装置を識別するための情報を表す画像と、外部装置に割り当てられたシンボルを表す画像と、のうちの少なくともいずれかを含むことができる。 (3) In the image display device of the above aspect; the identification image is assigned to a display image at one point in time of the external device, an image representing information for identifying the external device, and the external device And at least one of the images representing the symbols may be included. According to the image display device of this aspect, the first display area of the integrated image is assigned to the external device, a display image at one point in time of the external device, an image representing information for identifying the external device, and the external device. And / or an image representing a given symbol.

(4)上記形態の画像表示装置では、さらに;前記複数の外部装置の中から前記使用者が注意を向けたと推定される外部装置を特定し、前記特定された外部装置を前記一の外部装置とする外部装置特定部を備えていてもよい。この形態の画像表示装置によれば、外部装置特定部は、使用者が注意を向けたと推定される外部装置を特定し、特定された外部装置を一の外部装置とする。このため、使用者は、例えば、視線や頭部の動き等を用いて外部装置へ注意を向けるだけで、複数の外部装置の中から一の外部装置を選択することができる。この結果、利用者における利便性を向上させることができる。 (4) In the image display device according to the aspect described above, further: an external device that is estimated to be the user's attention is identified from the plurality of external devices, and the identified external device is identified as the one external device. An external device specifying unit may be provided. According to this form of the image display device, the external device specifying unit specifies an external device that is estimated to have been noticed by the user, and sets the specified external device as one external device. For this reason, the user can select one external device from among a plurality of external devices only by paying attention to the external device using, for example, the line of sight or the movement of the head. As a result, convenience for the user can be improved.

(5)上記形態の画像表示装置では、さらに;前記画像表示装置と前記複数の外部装置との間の距離をそれぞれ取得する距離取得部を備え;前記生成部は、前記取得されたそれぞれの距離に応じて、前記第1の表示領域における前記複数の識別画像の表示順序と、前記第1の表示領域における前記識別画像の大きさと、のうちの少なくとも一方を決定してもよい。この形態の画像表示装置によれば、画像表示部は、画像表示装置と複数の外部装置との間の距離に応じて、第1の表示領域における複数の識別画像の表示順序と、大きさと、のうちの少なくとも一方が変化された統合画像を使用者に視認させることができる。この結果、使用者は、第1の表示領域における表示順序または大きさによって、画像表示装置と複数の外部装置との間の距離を知ることができる。 (5) In the image display device according to the above aspect, the image display device further includes: a distance acquisition unit that acquires distances between the image display device and the plurality of external devices; and the generation unit includes the acquired distances. In response, at least one of the display order of the plurality of identification images in the first display area and the size of the identification images in the first display area may be determined. According to the image display device of this aspect, the image display unit includes the display order and size of the plurality of identification images in the first display area according to the distance between the image display device and the plurality of external devices. The user can visually recognize the integrated image in which at least one of them is changed. As a result, the user can know the distance between the image display device and the plurality of external devices according to the display order or size in the first display area.

(6)上記形態の画像表示装置において;前記生成部は、前記第1の表示領域を更新してもよい。この形態の画像表示装置によれば、生成部は、前記第1の表示領域を更新することもできる。 (6) In the image display device according to the above aspect, the generation unit may update the first display area. According to the image display device of this aspect, the generation unit can also update the first display area.

(7)上記形態の画像表示装置において;前記画像表示部は、さらに、前記統合画像を表す画像光を生成する表示駆動部を備え、前記生成された画像光を前記使用者の眼に射出することで前記統合画像を前記使用者に視認させてもよい。この形態の画像表示装置によれば、画像表示装置を、頭部装着型表示装置として構成することができる。 (7) In the image display device according to the above aspect, the image display unit further includes a display drive unit that generates image light representing the integrated image, and emits the generated image light to the eyes of the user. The integrated image may be visually recognized by the user. According to this form of the image display device, the image display device can be configured as a head-mounted display device.

(8)上記形態の画像表示装置において;前記生成部は、前記第2の表示領域の縦横比を前記表示駆動部による前記画像光の生成可能領域の縦横比とし、前記第2の表示領域の外側に前記第1の表示領域を配置した前記統合画像を生成し;前記画像表示部は;前記使用者による操作がない場合は、前記表示駆動部に対して、前記統合画像の前記第2の表示領域に相当する部分の前記画像光を生成させ;前記使用者による操作がある場合は、前記表示駆動部に対して、少なくとも前記統合画像の前記第1の表示領域に相当する部分の前記画像光を生成させてもよい。この形態の画像表示装置によれば、画像表示部は、使用者による操作がない場合は、統合画像の第2の表示領域に相当する部分を使用者に視認させ、使用者による操作がある場合は、統合画像の第1の表示領域に相当する部分を使用者に視認させる。この結果、この形態の画像表示装置によれば、通常画面(第2の表示領域)の外側に仮想画面(第1の表示領域)を設け、使用者による操作で、通常画面と仮想画面との表示を切り替えることができる。この結果、使用者における利便性を向上させることができる。 (8) In the image display device according to the aspect described above, the generation unit sets an aspect ratio of the second display region as an aspect ratio of the region where the image light can be generated by the display driving unit. Generating the integrated image in which the first display area is arranged outside; the image display unit; when there is no operation by the user, the second unit of the integrated image with respect to the display driving unit; The image light of a portion corresponding to a display area is generated; and when there is an operation by the user, the image of at least a portion corresponding to the first display area of the integrated image with respect to the display driving unit Light may be generated. According to the image display device of this aspect, when there is no operation by the user, the image display unit causes the user to visually recognize a portion corresponding to the second display area of the integrated image, and there is an operation by the user Causes the user to visually recognize the portion corresponding to the first display area of the integrated image. As a result, according to the image display device of this aspect, the virtual screen (first display area) is provided outside the normal screen (second display area), and the normal screen and the virtual screen are operated by the user. The display can be switched. As a result, convenience for the user can be improved.

(9)上記形態の画像表示装置では、さらに;前記使用者が前記一の外部装置に対して注意を向けたと推定される場合に、前記使用者へ拡張現実感を提供するための付加提示用の情報を生成する付加提示用情報生成部を備え;前記画像表示部は、前記表示駆動部に前記生成された付加提示用の情報を表す画像光を生成させ、前記生成された画像光を前記使用者の眼に射出することで前記付加提示用の情報を前記使用者に視認させてもよい。この形態の画像表示装置によれば、画像表示部は、使用者が一の外部装置に対して注意を向けた場合に、使用者へ拡張現実感を提供するための付加提示用の情報を視認させることができる。この結果、使用者における利便性を向上させることができる。 (9) In the image display device of the above aspect, further; for additional presentation for providing augmented reality to the user when it is presumed that the user has paid attention to the one external device An additional presentation information generating unit for generating the information; and the image display unit causes the display driving unit to generate image light representing the generated additional presentation information, and the generated image light is transmitted to the display driving unit. You may make the said user visually recognize the information for the additional presentation by injecting into a user's eyes. According to this form of the image display device, the image display unit visually recognizes additional presentation information for providing augmented reality to the user when the user pays attention to one external device. Can be made. As a result, convenience for the user can be improved.

上述した本発明の各形態の有する複数の構成要素は全てが必須のものではなく、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、適宜、前記複数の構成要素の一部の構成要素について、その変更、削除、新たな構成要素との差し替え、限定内容の一部削除を行うことが可能である。また、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、上述した本発明の一形態に含まれる技術的特徴の一部または全部を上述した本発明の他の形態に含まれる技術的特徴の一部または全部と組み合わせて、本発明の独立した一形態とすることも可能である。   A plurality of constituent elements of each embodiment of the present invention described above are not essential, and some or all of the effects described in the present specification are to be solved to solve part or all of the above-described problems. In order to achieve the above, it is possible to appropriately change, delete, replace with a new component, and partially delete the limited contents of some of the plurality of components. In order to solve some or all of the above-described problems or achieve some or all of the effects described in this specification, technical features included in one embodiment of the present invention described above. A part or all of the technical features included in the other aspects of the present invention described above may be combined to form an independent form of the present invention.

例えば、本発明の一形態は、生成部と、画像表示部と、の2つの要素のうちの一部または全部の要素を備えた装置として実現可能である。すなわち、この装置は、生成部を有していてもよく、有していなくてもよい。また、この装置は、画像表示部を有していてもよく、有していなくてもよい。こうした装置は、例えば画像表示装置として実現できるが、画像表示装置以外の他の装置としても実現可能である。前述した画像表示装置の各形態の技術的特徴の一部または全部は、いずれもこの装置に適用することが可能である。   For example, one embodiment of the present invention can be realized as an apparatus including a part or all of the two elements of the generation unit and the image display unit. That is, this apparatus may or may not have the generation unit. Moreover, this apparatus may or may not have an image display unit. Such an apparatus can be realized as an image display apparatus, for example, but can also be realized as an apparatus other than the image display apparatus. Any or all of the technical features of each form of the image display device described above can be applied to this device.

なお、本発明は、種々の態様で実現することが可能であり、例えば、画像表示装置、画像表示装置の制御方法、画像表示装置を用いた画像表示システム、頭部装着型表示装置、頭部装着型表示装置の制御方法、頭部装着型表示装置を用いた画像表示システム、これらの方法、装置またはシステムの機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体等の形態で実現することができる。   Note that the present invention can be realized in various modes, for example, an image display device, a control method for the image display device, an image display system using the image display device, a head-mounted display device, a head In the form of a control method for a wearable display device, an image display system using a head-mounted display device, a computer program for realizing the functions of these methods, devices or systems, a recording medium on which the computer program is recorded, etc. Can be realized.

本発明の一実施形態における画像表示システム1000の概略構成を示す説明図である。It is explanatory drawing which shows schematic structure of the image display system 1000 in one Embodiment of this invention. ヘッドマウントディスプレイ100の構成を機能的に示すブロック図である。2 is a block diagram functionally showing a configuration of a head mounted display 100. FIG. 領域情報122の一例を示す説明図である。It is explanatory drawing which shows an example of the area | region information. 使用者に視認される虚像の一例を示す説明図である。It is explanatory drawing which shows an example of the virtual image visually recognized by the user. 統合画像表示処理の手順を示すシーケンス図である。It is a sequence diagram which shows the procedure of an integrated image display process. ステップS126で生成された統合画像の一例を示す説明図である。It is explanatory drawing which shows an example of the integrated image produced | generated by step S126. 統合画像更新処理の手順を示すシーケンス図である。It is a sequence diagram which shows the procedure of an integrated image update process. ヘッドマウントディスプレイ100において第2の表示領域が更新された統合画像が表示されている様子を示す説明図である。It is explanatory drawing which shows a mode that the integrated image in which the 2nd display area was updated is displayed on the head mounted display. 第2実施形態のヘッドマウントディスプレイ100aの構成を機能的に示すブロック図である。It is a block diagram which shows functionally the composition of the head mounted display 100a of a 2nd embodiment. 第2実施形態の統合画像表示処理の手順を示すシーケンス図である。It is a sequence diagram which shows the procedure of the integrated image display process of 2nd Embodiment. 第2実施形態の統合画像表示処理のステップS126で生成された統合画像の一例を示す説明図である。It is explanatory drawing which shows an example of the integrated image produced | generated by step S126 of the integrated image display process of 2nd Embodiment. 第2実施形態における統合画像更新処理の手順を示すシーケンス図である。It is a sequence diagram which shows the procedure of the integrated image update process in 2nd Embodiment. ヘッドマウントディスプレイ100aにおいて第1の表示領域と第2の表示領域とが更新された統合画像が表示されている様子を示す説明図である。It is explanatory drawing which shows a mode that the integrated image in which the 1st display area and the 2nd display area were updated is displayed in the head mounted display 100a. 第3実施形態のヘッドマウントディスプレイ100bの構成を機能的に示すブロック図である。It is a block diagram which shows functionally the structure of the head mounted display 100b of 3rd Embodiment. 第3実施形態における領域情報122bの一例を示す説明図である。It is explanatory drawing which shows an example of the area | region information 122b in 3rd Embodiment. 画像処理部160bの動作の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of operation | movement of the image process part 160b. 変形例におけるヘッドマウントディスプレイの外観の構成を示す説明図である。It is explanatory drawing which shows the structure of the external appearance of the head mounted display in a modification.

A.第1実施形態:
A−1.画像表示システムの構成:
図1は、本発明の一実施形態における画像表示システム1000の概略構成を示す説明図である。画像表示システム1000は、頭部装着型表示装置100と、コンピューター300(PC300)と、家電400と、AV(Audio Visual)機器500と、携帯端末600と、ゲーム機器700とを備えている。以降では、頭部装着型表示装置100を「画像表示装置」とも呼ぶ。同様に、PC300と、家電400と、AV機器500と、携帯端末600と、ゲーム機器700とを総称して「外部装置」とも呼ぶ。画像表示システム1000は、頭部装着型表示装置100に接続されている外部装置における表示を統合した「統合画像」を頭部装着型表示装置100に表示させるシステムである。
A. First embodiment:
A-1. Image display system configuration:
FIG. 1 is an explanatory diagram showing a schematic configuration of an image display system 1000 according to an embodiment of the present invention. The image display system 1000 includes a head-mounted display device 100, a computer 300 (PC 300), a home appliance 400, an AV (Audio Visual) device 500, a portable terminal 600, and a game device 700. Hereinafter, the head-mounted display device 100 is also referred to as an “image display device”. Similarly, the PC 300, the home appliance 400, the AV device 500, the mobile terminal 600, and the game device 700 are collectively referred to as “external device”. The image display system 1000 is a system for causing the head-mounted display device 100 to display an “integrated image” obtained by integrating displays on an external device connected to the head-mounted display device 100.

頭部装着型表示装置100は、頭部に装着する画像表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。本実施形態のヘッドマウントディスプレイ100は、使用者が、虚像を視認すると同時に外景も直接視認可能な光学透過型の頭部装着型表示装置である。PC300は、情報通信端末である。本実施形態では、PC300としてノートパソコンを例示するが、PC300は、デスクトップパソコン等の他の情報通信端末により構成されてもよい。家電400は、家庭用の電気製品である。本実施形態では、家電400として冷蔵庫を例示するが、家電400は、エアコン、電子レンジ、洗濯機、電話、ファックス、プリンター、デジタルカメラ等の他の電気製品により構成されてもよい。   The head-mounted display device 100 is an image display device mounted on the head, and is also called a head mounted display (HMD). The head mounted display 100 according to the present embodiment is an optically transmissive head-mounted display device that allows a user to visually recognize a virtual image and at the same time directly view an outside scene. PC 300 is an information communication terminal. In the present embodiment, a notebook personal computer is illustrated as the PC 300, but the PC 300 may be configured by another information communication terminal such as a desktop personal computer. The home appliance 400 is a household electric product. In the present embodiment, a refrigerator is illustrated as the home appliance 400, but the home appliance 400 may be configured by other electric products such as an air conditioner, a microwave oven, a washing machine, a telephone, a fax machine, a printer, and a digital camera.

AV機器500は、映像を記録、再生、変換等する映像機器と、音声を記録、再生、変換等する音響機器の総称である。本実施形態では、AV機器500としてハードディスクプレイヤーを例示するが、AV機器500は、テレビ、DVD(Digital Versatile Disk)プレイヤー、コンポーネントオーディオ、ディジタルオーディオプレイヤー等の他の映像機器や音響機器により構成されてもよい。携帯端末600は、携帯可能な情報通信端末である。本実施形態では、携帯端末600としてスマートフォン(smartphone)を例示するが、携帯端末600は、携帯電話、PDA(Personal Digital Assistant)、タブレット端末等の他の携帯情報通信端末により構成されてもよい。ゲーム機器700は、コンピューターゲームを動作させるための機器である。   The AV device 500 is a generic name for video devices that record, reproduce, and convert video, and audio devices that record, reproduce, and convert audio. In the present embodiment, a hard disk player is exemplified as the AV device 500, but the AV device 500 is configured by other video devices and audio devices such as a television, a DVD (Digital Versatile Disk) player, component audio, and a digital audio player. Also good. The portable terminal 600 is a portable information communication terminal. In the present embodiment, a smartphone is exemplified as the mobile terminal 600, but the mobile terminal 600 may be configured by other mobile information communication terminals such as a mobile phone, a PDA (Personal Digital Assistant), and a tablet terminal. The game device 700 is a device for operating a computer game.

上述したPC300、家電400、AV機器500、携帯端末600、ゲーム機器700の外部装置は、それぞれ、ヘッドマウントディスプレイ100と無線通信または有線通信可能に接続されている。   The external devices of the PC 300, the home appliance 400, the AV device 500, the portable terminal 600, and the game device 700 described above are connected to the head mounted display 100 so as to be capable of wireless communication or wired communication.

A−2.頭部装着型表示装置の構成:
図2は、ヘッドマウントディスプレイ100の構成を機能的に示すブロック図である。図1、2に示すように、ヘッドマウントディスプレイ100は、使用者の頭部に装着された状態において使用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御部(コントローラー)10とを備えている。画像表示部20と制御部10とは、接続部40によって接続され、接続部40を介して各種信号の伝送を行う。接続部40には、金属ケーブルや光ファイバーを採用することができる。
A-2. Configuration of head mounted display device:
FIG. 2 is a block diagram functionally showing the configuration of the head mounted display 100. As shown in FIGS. 1 and 2, the head mounted display 100 includes an image display unit 20 that allows the user to visually recognize a virtual image while being mounted on the user's head, and a control unit (controller) that controls the image display unit 20. ) 10. The image display unit 20 and the control unit 10 are connected by a connection unit 40 and transmit various signals through the connection unit 40. A metal cable or an optical fiber can be used for the connection part 40.

A−2−1.制御部の構成:
制御部10は、ヘッドマウントディスプレイ100を制御するための装置である。制御部10は、入力情報取得部110と、記憶部120と、電源130と、無線通信部132と、GPSモジュール134と、CPU140と、インターフェイス180と、送信部(Tx)51および52とを備え、各部は図示しないバスにより相互に接続されている(図2)。
A-2-1. Configuration of control unit:
The control unit 10 is a device for controlling the head mounted display 100. The control unit 10 includes an input information acquisition unit 110, a storage unit 120, a power supply 130, a wireless communication unit 132, a GPS module 134, a CPU 140, an interface 180, and transmission units (Tx) 51 and 52. These parts are connected to each other by a bus (not shown) (FIG. 2).

入力情報取得部110は、例えば、タッチパッド、十字キー、フットスイッチ、ジェスチャー検出、視線検出、タッチ検出、マイクロホン等の入力デバイスに対する操作入力に応じた信号を取得する。具体的には、フットスイッチは、使用者の足により操作するスイッチである。ジェスチャー検出では、カメラ等を用いて使用者のジェスチャーを検出する。この場合、ジェスチャーとコマンドとが予め対応付けられている。なお、ジェスチャー検出の際は、使用者の指先や、使用者の手に付けられた指輪や、使用者が手に持つ道具等を動き検出のための目印にしてもよい。視線検出では、赤外線センサー等を用いて使用者の視線を検出する。この場合、視線の動きとコマンドとが予め対応付けられている。タッチ検出では、ヘッドマウントディスプレイ100の筐体の任意の場所(例えば、画像表示部20の右保持部21および左保持部23(図1)の外側)に設けられた接触センサーに対する使用者のタッチ操作を検出する。   The input information acquisition unit 110 acquires a signal corresponding to an operation input to an input device such as a touch pad, a cross key, a foot switch, gesture detection, line-of-sight detection, touch detection, or a microphone. Specifically, the foot switch is a switch operated by a user's foot. In gesture detection, a user's gesture is detected using a camera or the like. In this case, the gesture and the command are associated in advance. At the time of gesture detection, a user's fingertip, a ring attached to the user's hand, a tool held by the user, or the like may be used as a mark for motion detection. In the gaze detection, the user's gaze is detected using an infrared sensor or the like. In this case, the movement of the line of sight and the command are associated in advance. In the touch detection, the user touches the contact sensor provided at any location of the housing of the head mounted display 100 (for example, outside the right holding unit 21 and the left holding unit 23 (FIG. 1) of the image display unit 20). Detect operations.

このように、入力情報取得部110は、種々の入力デバイスに対する操作入力に応じた信号を取得する。特に、フットスイッチ、視線検出、マイクロホンによる操作入力を取得することとすれば、使用者が手を用いて操作することが困難な場面(例えば、家事などの作業場面、医療現場における作業場面、建設業や製造業などの手元作業を必要とする作業場面)において、ヘッドマウントディスプレイ100が使用される場合における使用者の利便性を大きく向上させることができる。   As described above, the input information acquisition unit 110 acquires signals corresponding to operation inputs to various input devices. In particular, if it is assumed that the operation input by the foot switch, line-of-sight detection, and microphone is acquired, it is difficult for the user to operate using the hand (for example, work scenes such as housework, work scenes in the medical field, construction) The user's convenience when the head mounted display 100 is used can be greatly improved in work scenes that require manual work such as industry and manufacturing.

記憶部120は、ROM、RAM、DRAM、ハードディスク等によって構成されている。記憶部120は、領域情報122と、識別画像記憶部124とを含んでいる。領域情報122は、統合画像表示処理(図5)において生成される統合画像に含まれる「領域」を規定する情報である。識別画像記憶部124は、統合画像表示処理において収集された外部装置の識別画像を記憶しておくための記憶部である。ここで、統合画像表示処理とは、統合画像を生成し、ヘッドマウントディスプレイ100に表示させる処理である。統合画像とは、ヘッドマウントディスプレイ100に接続されている複数の外部装置の識別画像と、複数の外部装置の中から使用者によって選択された一の外部装置が表示する画像である表示画像(以降、単に「表示画像」とも呼ぶ。)と、の両方を含む画像である。統合画像更新処理とは、統合画像のうち、使用者によって選択された一の外部装置の表示画像を動的に更新し、ヘッドマウントディスプレイ100に表示させる処理である。   The storage unit 120 includes a ROM, a RAM, a DRAM, a hard disk, and the like. The storage unit 120 includes area information 122 and an identification image storage unit 124. The area information 122 is information that defines an “area” included in the integrated image generated in the integrated image display process (FIG. 5). The identification image storage unit 124 is a storage unit for storing identification images of external devices collected in the integrated image display process. Here, the integrated image display process is a process of generating an integrated image and displaying it on the head mounted display 100. The integrated image is an identification image of a plurality of external devices connected to the head mounted display 100, and a display image (hereinafter referred to as an image displayed by one external device selected by the user from the plurality of external devices). , Simply referred to as “display image”). The integrated image update process is a process of dynamically updating the display image of one external device selected by the user among the integrated images and displaying the updated image on the head mounted display 100.

「外部装置の識別画像」とは、ヘッドマウントディスプレイ100に接続されている外部装置を相互に識別するための画像である。本実施形態における外部装置の識別画像としては、例えば、以下のa1〜a3に例示する情報を表す画像を使用することができる。
(a1)外部装置の一の時点での表示画像。
(a2)外部装置の操作画面や設定画面の表示画像。
(a3)外部装置の一の期間の表示画像の短縮動画像。
The “external device identification image” is an image for mutually identifying external devices connected to the head mounted display 100. As an identification image of the external device in the present embodiment, for example, an image representing information exemplified in the following a1 to a3 can be used.
(A1) A display image at one time of the external device.
(A2) Display image of the operation screen or setting screen of the external device.
(A3) A shortened moving image of a display image in one period of the external device.

図3は、領域情報122の一例を示す説明図である。領域情報122は、長方形状の領域(以降、「領域122」とも呼ぶ。)を有している。領域122は、ヘッドマウントディスプレイ100の表示素子(図2:右LCD241、左LCD242)の縦横比と同じ縦横比を有することが好ましい。領域122は、6つのサムネイル表示領域B1〜B6と、アクティブ表示領域BGと、を含んでいる。サムネイル表示領域B1〜B6は、統合画像表示処理(図5)において、複数の外部装置の識別画像が配置されることによって、複数の外部装置の識別画像を一覧表示させるための領域である。サムネイル表示領域B1〜B6を「第1の表示領域」とも呼ぶ。アクティブ表示領域BGは、統合画像表示処理において、複数の外部装置の中から使用者によって選択された一の外部装置の表示画像が配置されるための領域である。アクティブ表示領域BGを「第2の表示領域」とも呼ぶ。   FIG. 3 is an explanatory diagram illustrating an example of the region information 122. The area information 122 has a rectangular area (hereinafter also referred to as “area 122”). The region 122 preferably has the same aspect ratio as the aspect ratio of the display element of the head mounted display 100 (FIG. 2: right LCD 241 and left LCD 242). The area 122 includes six thumbnail display areas B1 to B6 and an active display area BG. The thumbnail display areas B1 to B6 are areas for displaying a list of identification images of the plurality of external devices by arranging the identification images of the plurality of external devices in the integrated image display process (FIG. 5). The thumbnail display areas B1 to B6 are also referred to as “first display areas”. The active display area BG is an area in which a display image of one external device selected by the user from among a plurality of external devices is arranged in the integrated image display process. The active display area BG is also referred to as a “second display area”.

図3の例では、サムネイル表示領域B1〜B3は、領域122の左端部に、それぞれが鉛直方向に隣接して配置されている。サムネイル表示領域B4〜B6は、領域122の右端部に、それぞれが鉛直方向に隣接して配置されている。また、サムネイル表示領域B1〜B6は、それぞれ同じ大きさの領域である。また、図3の例では、アクティブ表示領域BGは、領域122からサムネイル表示領域B1〜B6を除外した部分を占める領域である。図3において、サムネイル表示領域B1〜B6にはドットのハッチングを付し、アクティブ表示領域BGには斜線ハッチングを付す。   In the example of FIG. 3, the thumbnail display areas B <b> 1 to B <b> 3 are arranged adjacent to each other at the left end of the area 122 in the vertical direction. The thumbnail display areas B4 to B6 are arranged at the right end of the area 122 so as to be adjacent to each other in the vertical direction. The thumbnail display areas B1 to B6 are areas having the same size. In the example of FIG. 3, the active display area BG is an area that occupies a portion excluding the thumbnail display areas B <b> 1 to B <b> 6 from the area 122. In FIG. 3, the thumbnail display areas B1 to B6 are hatched with dots, and the active display area BG is hatched.

なお、図3に示したサムネイル表示領域B1〜B6の配置および大きさは一例であり、任意に定めることができる。例えば、サムネイル表示領域B1〜B6は、領域122の上端部や下端部に配置されてもよい。また、サムネイル表示領域B1〜B6は、領域122の四辺を取り囲むように配置されてもよい。また、サムネイル表示領域B1〜B6は、それぞれの領域が異なる大きさであってもよい。さらに、サムネイル表示領域B1〜B6は、それぞれ、領域の少なくとも一部が重なっていてもよい。ただし、アクティブ表示領域BGの視認性を向上させるために、サムネイル表示領域B1〜B6は、使用者の視界を妨げない領域122の端部に配置されることが好ましい。   Note that the arrangement and size of the thumbnail display areas B1 to B6 shown in FIG. 3 are merely examples, and can be arbitrarily determined. For example, the thumbnail display areas B <b> 1 to B <b> 6 may be arranged at the upper end or the lower end of the area 122. The thumbnail display areas B1 to B6 may be arranged so as to surround the four sides of the area 122. The thumbnail display areas B1 to B6 may have different sizes. Furthermore, the thumbnail display areas B1 to B6 may each overlap at least part of the area. However, in order to improve the visibility of the active display area BG, it is preferable that the thumbnail display areas B1 to B6 are arranged at the end of the area 122 that does not hinder the user's view.

電源130は、ヘッドマウントディスプレイ100の各部に電力を供給する。電源130としては、例えば二次電池を用いることができる。無線通信部132は、所定の無線通信規格(例えば、赤外線、Bluetooth(登録商標)に例示される近距離無線通信、IEEE802.11に例示される無線LAN等)に則って、外部装置との間で無線通信を行う。GPSモジュール134は、GPS衛星からの信号を受信することにより、ヘッドマウントディスプレイ100の使用者の現在位置を検出し、使用者の現在位置情報を表す現在位置情報を生成する。なお、現在位置情報は、例えば緯度経度を表す座標によって実現することができる。   The power supply 130 supplies power to each part of the head mounted display 100. As the power supply 130, for example, a secondary battery can be used. The wireless communication unit 132 communicates with an external device in accordance with a predetermined wireless communication standard (for example, infrared, short-range wireless communication exemplified by Bluetooth (registered trademark), wireless LAN exemplified by IEEE 802.11, etc.). Wireless communication with The GPS module 134 detects the current position of the user of the head mounted display 100 by receiving a signal from a GPS satellite, and generates current position information representing the current position information of the user. The current position information can be realized by coordinates representing latitude and longitude, for example.

CPU140は、記憶部120に格納されているコンピュータープログラムを読み出して実行することにより、生成部142、更新部144、オペレーティングシステム(ОS)150、画像処理部160、音声処理部170、表示制御部190として機能する。   The CPU 140 reads out and executes a computer program stored in the storage unit 120, thereby generating a generation unit 142, an update unit 144, an operating system (OS) 150, an image processing unit 160, an audio processing unit 170, and a display control unit 190. Function as.

生成部142は、統合画像表示処理(図5)を実行し、統合画像を生成する。生成部142は、複数の外部装置について、複数の外部装置を相互に識別するための複数の識別画像を一覧表示する第1の表示領域と、複数の外部装置の中から使用者によって選択された一の外部装置の表示画像を表示する第2の表示領域と、を含む統合画像を生成する「生成部」としての機能を実現する。更新部144は、統合画像更新処理(図7)を実行し、統合画像を更新する。更新部144は、複数の外部装置の中から使用者によって選択された一の外部装置の表示画像を取得する「取得部」としての機能と、取得された表示画像を用いて、統合画像の第2の表示領域を更新する「更新部」としての機能を実現する。   The generation unit 142 executes integrated image display processing (FIG. 5) to generate an integrated image. The generation unit 142 selects a first display area that displays a list of a plurality of identification images for mutually identifying the plurality of external devices and a plurality of external devices selected from the plurality of external devices by the user. A function as a “generating unit” for generating an integrated image including a second display area for displaying a display image of one external device is realized. The update unit 144 executes integrated image update processing (FIG. 7) to update the integrated image. The update unit 144 uses a function as an “acquisition unit” that acquires a display image of one external device selected by the user from among a plurality of external devices, and uses the acquired display image to obtain the first image of the integrated image. A function as an “update unit” for updating the display area 2 is realized.

画像処理部160は、生成部142や、インターフェイス180や、無線通信部132等からOS150を介して入力される映像信号に基づいて信号を生成する。画像処理部160は、生成した信号を、接続部40を介して画像表示部20に供給することで、画像表示部20における表示を制御する。画像表示部20に供給するための信号は、アナログ形式とディジタル形式の場合で異なる。   The image processing unit 160 generates a signal based on a video signal input via the OS 150 from the generation unit 142, the interface 180, the wireless communication unit 132, or the like. The image processing unit 160 controls the display on the image display unit 20 by supplying the generated signal to the image display unit 20 via the connection unit 40. The signal supplied to the image display unit 20 differs between the analog format and the digital format.

例えば、ディジタル形式の場合、ディジタルR信号と、ディジタルG信号と、ディジタルB信号と、クロック信号PCLKとが同期した状態の映像信号が入力される。画像処理部160は、ディジタルR信号、ディジタルG信号、ディジタルB信号からなる画像データーDataに対して、必要に応じて周知の解像度変換処理、輝度彩度の調整などの種々の色調補正処理、キーストーン補正処理等の画像処理を実行する。その後、画像処理部160は、クロック信号PCLKと、画像データーDataとを、送信部51、52を介して送信する。   For example, in the case of a digital format, a video signal in a state where a digital R signal, a digital G signal, a digital B signal, and a clock signal PCLK are synchronized is input. The image processing unit 160 performs various color tone correction processes such as a known resolution conversion process and brightness saturation adjustment on image data Data composed of a digital R signal, a digital G signal, and a digital B signal. Image processing such as stone correction processing is executed. Thereafter, the image processing unit 160 transmits the clock signal PCLK and the image data Data via the transmission units 51 and 52.

アナログ形式の場合、アナログR信号と、アナログG信号と、アナログB信号と、垂直同期信号VSyncと、水平同期信号HSyncとからなる映像信号が入力される。画像処理部160は、入力された信号から垂直同期信号VSyncと水平同期信号HSyncを分離し、それらの周期に応じて、図示しないPLL回路等を用いてクロック信号PCLKを生成する。また、画像処理部160は、アナログR信号と、アナログG信号と、アナログB信号とを、A/D変換回路等を用いてディジタル信号に変換する。画像処理部160は、変換後のディジタルR信号、ディジタルG信号、ディジタルB信号からなる画像データーDataに対して、必要に応じて周知の画像処理を実行した後、クロック信号PCLKと、画像データーDataと、垂直同期信号VSyncと、水平同期信号HSyncとを、送信部51、52を介して送信する。なお、以降では、送信部51を介して送信される画像データーDataを「右眼用画像データーData1」とも呼び、送信部52を介して送信される画像データーDataを「左眼用画像データーData2」とも呼ぶ。   In the case of an analog format, a video signal including an analog R signal, an analog G signal, an analog B signal, a vertical synchronization signal VSync, and a horizontal synchronization signal HSync is input. The image processing unit 160 separates the vertical synchronization signal VSync and the horizontal synchronization signal HSync from the input signal, and generates a clock signal PCLK using a PLL circuit (not shown) or the like according to their periods. The image processing unit 160 converts the analog R signal, the analog G signal, and the analog B signal into digital signals using an A / D conversion circuit or the like. The image processing unit 160 performs well-known image processing on the image data Data composed of the converted digital R signal, digital G signal, and digital B signal as necessary, and then outputs the clock signal PCLK and the image data Data. The vertical synchronization signal VSync and the horizontal synchronization signal HSync are transmitted via the transmission units 51 and 52. Hereinafter, the image data Data transmitted through the transmission unit 51 is also referred to as “right eye image data Data1”, and the image data Data transmitted through the transmission unit 52 is referred to as “left eye image data Data2”. Also called.

表示制御部190は、画像表示部20が有する右表示駆動部22と左表示駆動部24とを制御する制御信号を生成する。制御信号とは、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFF、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFを個別に切り替えるための信号である。表示制御部190は、これらの制御信号によって、右表示駆動部22と左表示駆動部24とにおける画像光の生成および射出を制御する。表示制御部190は、生成した制御信号を、送信部51、52を介して送信する。   The display control unit 190 generates a control signal for controlling the right display drive unit 22 and the left display drive unit 24 included in the image display unit 20. The control signals include driving ON / OFF of the right LCD 241 by the right LCD control unit 211, driving ON / OFF of the right backlight 221 by the right backlight control unit 201, driving ON / OFF of the left LCD 242 by the left LCD control unit 212, This is a signal for individually switching driving ON / OFF of the left backlight 222 by the left backlight control unit 202. The display control unit 190 controls the generation and emission of image light in the right display drive unit 22 and the left display drive unit 24 based on these control signals. The display control unit 190 transmits the generated control signal via the transmission units 51 and 52.

音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、右イヤホン32の図示しないスピーカーと、左イヤホン34の図示しないスピーカーとに対して供給する。   The audio processing unit 170 acquires an audio signal included in the content, amplifies the acquired audio signal, and supplies the acquired audio signal to a speaker (not shown) of the right earphone 32 and a speaker (not shown) of the left earphone 34.

インターフェイス180は、所定の有線通信規格(例えば、MicroUSB(Universal Serial Bus)、USB、HDMI(High Definition Multimedia Interface、登録商標)、DVI(Digital Visual Interface)、VGA(Video Graphics Array)、コンポジット、RS−232C(Recommended Standard 232)、IEEE802.3に例示される有線LAN等)に則って、外部装置との間で無線通信を行う。   The interface 180 is a predetermined wired communication standard (for example, MicroUSB (Universal Serial Bus), USB, HDMI (High Definition Multimedia Interface, registered trademark), DVI (Digital Visual Interface), VGA (Video Graphics Array), composite, RS- In accordance with 232C (Recommended Standard 232), a wired LAN exemplified by IEEE 802.3), wireless communication is performed with an external device.

A−2−2.画像表示部の構成:
画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有している。画像表示部20は、右表示駆動部22と、左表示駆動部24と、右光学像表示部26(図1)と、左光学像表示部28(図1)と、9軸センサー66とを含んでいる。
A-2-2. Configuration of image display:
The image display unit 20 is a mounting body that is mounted on the user's head, and has a glasses shape in the present embodiment. The image display unit 20 includes a right display drive unit 22, a left display drive unit 24, a right optical image display unit 26 (FIG. 1), a left optical image display unit 28 (FIG. 1), and a 9-axis sensor 66. Contains.

右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者のこめかみに対向する位置に配置されている。本実施形態における右表示駆動部22と左表示駆動部24とは、液晶ディスプレイ(Liquid Crystal Display、以下「LCD」と呼ぶ)や投写光学系を用いて、画像を表す画像光を生成し射出する。右表示駆動部22は、受信部(Rx)53と、光源として機能する右バックライト(BL)制御部201および右バックライト(BL)221と、表示素子として機能する右LCD制御部211および右LCD241と、右投写光学系251とを含んでいる。   The right display drive unit 22 and the left display drive unit 24 are arranged at positions facing the user's temple when the user wears the image display unit 20. The right display driving unit 22 and the left display driving unit 24 in the present embodiment generate and emit image light representing an image using a liquid crystal display (hereinafter referred to as “LCD”) or a projection optical system. . The right display driving unit 22 includes a receiving unit (Rx) 53, a right backlight (BL) control unit 201 and a right backlight (BL) 221 that function as a light source, a right LCD control unit 211 that functions as a display element, and a right An LCD 241 and a right projection optical system 251 are included.

受信部53は、送信部51から送信されるデーターを受信する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右バックライト221は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、入力されたクロック信号PCLKと右眼用画像データーData1と、垂直同期信号VSyncと、水平同期信号HSyncとに基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。右LCD241は、マトリクス状に配置された各画素位置の液晶を駆動することによって、右LCD241を透過する光の透過率を変化させることにより、右バックライト221から照射される照明光を、画像を表す有効な画像光へと変調する。右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。   The receiving unit 53 receives data transmitted from the transmitting unit 51. The right backlight control unit 201 drives the right backlight 221 based on the input control signal. The right backlight 221 is a light emitter such as an LED or electroluminescence (EL). The right LCD control unit 211 drives the right LCD 241 based on the input clock signal PCLK, right-eye image data Data1, the vertical synchronization signal VSync, and the horizontal synchronization signal HSync. The right LCD 241 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix. The right LCD 241 changes the transmittance of the light transmitted through the right LCD 241 by driving the liquid crystal at each pixel position arranged in a matrix, thereby converting the illumination light emitted from the right backlight 221 into an image. Modulate into effective image light to represent. The right projection optical system 251 is configured by a collimator lens that converts the image light emitted from the right LCD 241 to light beams in a parallel state.

左表示駆動部24は、右表示駆動部22とほぼ同様の構成を有し、右表示駆動部22と同様に動作する。すなわち、左表示駆動部24は、受信部(Rx)54と、光源として機能する左バックライト(BL)制御部202および左バックライト(BL)222と、表示素子として機能する左LCD制御部212および左LCD242と、左投写光学系252とを含んでいる。詳細な説明は省略する。なお、本実施形態ではバックライト方式を採用することとしたが、フロントライト方式や、反射方式を用いて画像光を射出してもよい。   The left display drive unit 24 has substantially the same configuration as the right display drive unit 22 and operates in the same manner as the right display drive unit 22. That is, the left display driving unit 24 includes a receiving unit (Rx) 54, a left backlight (BL) control unit 202 and a left backlight (BL) 222 that function as a light source, and a left LCD control unit 212 that functions as a display element. And a left LCD 242 and a left projection optical system 252. Detailed description is omitted. In this embodiment, the backlight method is adopted, but image light may be emitted using a front light method or a reflection method.

右光学像表示部26と左光学像表示部28とは、使用者が画像表示部20を装着した際に使用者の左右の眼前にそれぞれ位置するように配置されている(図1参照)。右光学像表示部26は、右導光板261と、図示しない調光板を含んでいる。右導光板261は、光透過性の樹脂材料等によって形成されている。右導光板261は、右表示駆動部22から出力された画像光を、所定の光路に沿って反射させつつ使用者の右眼REへ導く。右導光板261には、回折格子を用いても良いし半透過反射膜を用いても良い。調光板は、薄板状の光学素子であり、画像表示部20の表側を覆うように配置されている。調光板は、右導光板261を保護し、右導光板261の損傷や汚れの付着等を抑制する。また、調光板の光透過率を調整することによって、使用者の眼に入る外光量を調整して虚像の視認のしやすさを調整することができる。なお、調光板は省略可能である。   The right optical image display unit 26 and the left optical image display unit 28 are disposed so as to be positioned in front of the left and right eyes of the user when the user wears the image display unit 20 (see FIG. 1). The right optical image display unit 26 includes a right light guide plate 261 and a light control plate (not shown). The right light guide plate 261 is formed of a light transmissive resin material or the like. The right light guide plate 261 guides the image light output from the right display driving unit 22 to the right eye RE of the user while reflecting the image light along a predetermined optical path. For the right light guide plate 261, a diffraction grating or a transflective film may be used. The light control plate is a thin plate-like optical element, and is arranged so as to cover the front side of the image display unit 20. The light control plate protects the right light guide plate 261 and suppresses damage to the right light guide plate 261 and adhesion of dirt. Further, by adjusting the light transmittance of the light control plate, it is possible to adjust the amount of external light entering the user's eyes and adjust the ease of visual recognition of the virtual image. The light control plate can be omitted.

左光学像表示部28は、右光学像表示部26とほぼ同様の構成を有し、右光学像表示部26と同様に動作する。すなわち、左光学像表示部28は、左導光板262と、図示しない調光板を含み、左表示駆動部24から出力された画像光を、使用者の左眼LEへ導く。詳細な説明は省略する。   The left optical image display unit 28 has substantially the same configuration as the right optical image display unit 26 and operates in the same manner as the right optical image display unit 26. That is, the left optical image display unit 28 includes a left light guide plate 262 and a light control plate (not shown), and guides the image light output from the left display drive unit 24 to the left eye LE of the user. Detailed description is omitted.

9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサーである。9軸センサー66は、画像表示部20に設けられているため、画像表示部20が使用者の頭部に装着されているときには、ヘッドマウントディスプレイ100の使用者の頭部の動きを検出する動き検出部として機能する。ここで、頭部の動きとは、頭部の速度・加速度・角速度・向き・向きの変化を含む。   The 9-axis sensor 66 is a motion sensor that detects acceleration (3 axes), angular velocity (3 axes), and geomagnetism (3 axes). Since the 9-axis sensor 66 is provided in the image display unit 20, when the image display unit 20 is mounted on the user's head, the movement of detecting the movement of the user's head of the head mounted display 100 is detected. Functions as a detection unit. Here, the movement of the head includes changes in the speed, acceleration, angular velocity, direction, and direction of the head.

図4は、使用者に視認される虚像の一例を示す説明図である。図4では、使用者の視野VRを例示している。上述のようにして、ヘッドマウントディスプレイ100の使用者の両眼に導かれた画像光が使用者の網膜に結像することにより、使用者は虚像VIを視認することができる。図4の例では、虚像VIは、ヘッドマウントディスプレイ100のOSの待ち受け画面である。また、使用者は、右光学像表示部26および左光学像表示部28を透過して外景SCを視認する。このように、本実施形態のヘッドマウントディスプレイ100の使用者は、視野VRのうち虚像VIが表示された部分については、虚像VIと、虚像VIの背後の外景SCとを見ることができる。また、使用者は、視野VRのうち虚像VIが表示されていない部分については、右光学像表示部26および左光学像表示部28を透過して外景SCを直接見ることができる。なお、本明細書において、「ヘッドマウントディスプレイ100が画像を表示する」ことには、ヘッドマウントディスプレイ100の使用者に対して虚像を視認させることも含む。   FIG. 4 is an explanatory diagram illustrating an example of a virtual image visually recognized by the user. FIG. 4 illustrates the visual field VR of the user. As described above, the image light guided to both eyes of the user of the head mounted display 100 forms an image on the retina of the user, so that the user can visually recognize the virtual image VI. In the example of FIG. 4, the virtual image VI is an OS standby screen of the head mounted display 100. Further, the user views the outside scene SC through the right optical image display unit 26 and the left optical image display unit 28. As described above, the user of the head mounted display 100 of the present embodiment can see the virtual image VI and the outside scene SC behind the virtual image VI for the portion of the visual field VR where the virtual image VI is displayed. Further, the user can directly see the outside scene SC through the right optical image display unit 26 and the left optical image display unit 28 for the portion of the visual field VR where the virtual image VI is not displayed. In the present specification, “the head mounted display 100 displays an image” includes allowing the user of the head mounted display 100 to visually recognize a virtual image.

A−3.統合画像表示処理:
図5は、統合画像表示処理の手順を示すシーケンス図である。本実施形態の統合画像表示処理とは、統合画像を生成し、ヘッドマウントディスプレイ100に表示させる処理である。統合画像とは、ヘッドマウントディスプレイ100に接続されている複数の外部装置の識別画像と、複数の外部装置の中から使用者によって選択された一の外部装置の表示画像と、の両方を含む画像である。統合画像表示処理は、主として生成部142により実行される。
A-3. Integrated image display processing:
FIG. 5 is a sequence diagram showing the procedure of the integrated image display process. The integrated image display process of the present embodiment is a process of generating an integrated image and displaying it on the head mounted display 100. The integrated image is an image including both identification images of a plurality of external devices connected to the head mounted display 100 and a display image of one external device selected by the user from the plurality of external devices. It is. The integrated image display process is mainly executed by the generation unit 142.

ステップS100において、統合画像表示処理を実行するためのアプリケーションが起動される。ステップS100のアプリケーションの起動は、入力情報取得部110が使用者による起動操作を検出したことをトリガーとしてもよく、他のアプリケーションからの起動命令の検出をトリガーとしてもよい。ステップS100のアプリケーションの起動によって、CPU140に対して、生成部142および更新部144の機能が実現される。   In step S100, an application for executing the integrated image display process is activated. The activation of the application in step S100 may be triggered by the input information acquisition unit 110 detecting the activation operation by the user, or may be triggered by detection of an activation command from another application. By the activation of the application in step S100, the functions of the generation unit 142 and the update unit 144 are realized for the CPU 140.

ステップS102において無線通信部132またはインターフェイス180は、外部装置としてのPC300が接続されたことを検出する。なお、以降では、ヘッドマウントディスプレイ100とPC300とがIEEE802.11に準拠した無線LANを用いて通信する場合を例示する。その後、生成部142は、PC300との間でコネクションを確立する。   In step S102, the wireless communication unit 132 or the interface 180 detects that the PC 300 as an external device is connected. Hereinafter, a case where the head mounted display 100 and the PC 300 communicate using a wireless LAN compliant with IEEE 802.11 will be exemplified. Thereafter, the generation unit 142 establishes a connection with the PC 300.

ステップS104においてPC300は、PC300の表示画面の画像を取得する。具体的には、PC300は、以下のb1〜b3に示すいずれかのフレーム画像を取得する。なお、下記b1は上記a1に、下記b2は上記a2に、下記b3は上記a3に、それぞれ対応している。
(b1)PC300において再生中のコンテンツや、アプリケーションGUI(Graphical User Interface)等、一の時点でPC300において表示されている画面をレンダリングしたフレーム画像。
(b2)PC300の操作画面(すなわち待ち受け画面)や設定画面(すなわちOSやBIOSの設定画面)をレンダリングしたフレーム画像。
(b3)PC300において再生中のコンテンツや、アプリケーションGUI等の、一の期間の間にPC300に表示されている画面をレンダリングした複数のフレーム画像。
In step S104, the PC 300 acquires an image of the display screen of the PC 300. Specifically, the PC 300 acquires any one of the frame images shown in the following b1 to b3. The following b1 corresponds to the above a1, the following b2 corresponds to the above a2, and the following b3 corresponds to the above a3.
(B1) A frame image obtained by rendering a screen displayed on the PC 300 at one point of time, such as content being played back on the PC 300 or an application GUI (Graphical User Interface).
(B2) A frame image obtained by rendering an operation screen (that is, a standby screen) or a setting screen (that is, an OS or BIOS setting screen) of the PC 300.
(B3) A plurality of frame images obtained by rendering a screen displayed on the PC 300 during one period, such as content being played back on the PC 300 and application GUI.

ステップS106においてPC300は、取得したフレーム画像をヘッドマウントディスプレイ100へ送信する。ヘッドマウントディスプレイ100の生成部142は、無線通信部132を介して、このフレーム画像を取得する。このとき、生成部142と無線通信部132とは「取得部」として機能する。   In step S <b> 106, the PC 300 transmits the acquired frame image to the head mounted display 100. The generation unit 142 of the head mounted display 100 acquires this frame image via the wireless communication unit 132. At this time, the generation unit 142 and the wireless communication unit 132 function as an “acquisition unit”.

ステップS108において生成部142は、取得したフレーム画像を「外部装置の識別画像」として、識別画像記憶部124に記憶させる。なお、生成部142は、フレーム画像を縮小処理した後で識別画像記憶部124に記憶させてもよい。そうすれば、識別画像記憶部124が消費する記憶容量を低減することができる。また、ステップS108において生成部142は、PC300との間のコネクションを切断してもよい。   In step S108, the generation unit 142 causes the identification image storage unit 124 to store the acquired frame image as an “identification image of the external device”. Note that the generation unit 142 may store the frame image in the identification image storage unit 124 after reducing the frame image. Then, the storage capacity consumed by the identification image storage unit 124 can be reduced. In step S108, the generation unit 142 may disconnect the connection with the PC 300.

ステップS110において生成部142は、家電400との間で、ステップS102〜S108と同様の処理を実施する。同様に、生成部142は、ステップS112においてAV機器500との間で、ステップS114において携帯端末600との間で、ステップS116においてゲーム機器700との間で、それぞれ同様の処理を実施する。ステップS110〜S116の結果、識別画像記憶部124には、ヘッドマウントディスプレイ100に接続されている全ての外部装置の識別画像が格納される。   In step S <b> 110, the generation unit 142 performs the same processing as steps S <b> 102 to S <b> 108 with the home appliance 400. Similarly, the generation unit 142 performs similar processing with the AV device 500 in step S112, with the mobile terminal 600 in step S114, and with the game device 700 in step S116. As a result of steps S <b> 110 to S <b> 116, identification images of all external devices connected to the head mounted display 100 are stored in the identification image storage unit 124.

ステップS118において生成部142は、ヘッドマウントディスプレイ100の表示画面の画像を取得する。具体的には、ヘッドマウントディスプレイ100についての、上記b1〜b3に示すいずれかのフレーム画像を取得する。   In step S118, the generation unit 142 acquires an image of the display screen of the head mounted display 100. Specifically, any one of the frame images shown in b1 to b3 for the head mounted display 100 is acquired.

ステップS120において生成部142は、取得したフレーム画像を「画像表示装置の識別画像」として、識別画像記憶部124に記憶させる。なお、生成部142は、フレーム画像を縮小処理した後で識別画像記憶部124に記憶させてもよい。ステップS118、S120の結果、識別画像記憶部124には、ヘッドマウントディスプレイ100自身の識別画像が格納される。   In step S120, the generation unit 142 causes the identification image storage unit 124 to store the acquired frame image as an “identification image of the image display device”. Note that the generation unit 142 may store the frame image in the identification image storage unit 124 after reducing the frame image. As a result of steps S118 and S120, the identification image storage unit 124 stores an identification image of the head mounted display 100 itself.

ステップS124において生成部142は、識別画像記憶部124に格納されている複数の識別画像を取得し、取得した識別画像を所定の条件に従ってソートする。ソートの条件は、例えば、識別画像の取得元である外部装置のID(例えば製品番号やシリアル番号)、識別画像の取得元である外部装置の名前(例えば製品の名称)、識別画像記憶部124における識別画像の取得順、識別画像の取得元である外部装置とヘッドマウントディスプレイ100との間の距離、等を使用することができる。なお、外部装置とヘッドマウントディスプレイ100との間の距離は、例えば、OS150が、GPSモジュール134によって検出されたヘッドマウントディスプレイ100の現在位置情報と、外部装置から取得した外部装置の現在位置情報と、を比較することによって求めることができる。この場合、OS150は「距離取得部」として機能する。なお、本実施形態における「外部装置とヘッドマウントディスプレイ100との間の距離」には、大まかな距離も含む。   In step S124, the generation unit 142 acquires a plurality of identification images stored in the identification image storage unit 124, and sorts the acquired identification images according to a predetermined condition. The sorting conditions are, for example, the ID (for example, product number or serial number) of the external device from which the identification image is acquired, the name of the external device (for example, the name of the product) from which the identification image is acquired, and the identification image storage unit 124. The order in which the identification images are acquired, the distance between the external device that is the acquisition source of the identification images and the head mounted display 100, and the like can be used. The distance between the external device and the head mounted display 100 is, for example, the current position information of the head mounted display 100 detected by the GPS module 134 by the OS 150 and the current position information of the external device acquired from the external device. , Can be obtained by comparing. In this case, the OS 150 functions as a “distance acquisition unit”. Note that the “distance between the external device and the head mounted display 100” in the present embodiment includes a rough distance.

ステップS126において生成部142は、ソート後の識別画像を用いて統合画像を生成する。具体的には、生成部142は、ステップS124でソートされた複数の識別画像を、それぞれ、領域情報122のサムネイル表示領域B1〜B6(第1の表示領域)に配置する。また、生成部142は、黒画像を、領域情報122のアクティブ表示領域BG(第2の表示領域)に配置する。このアクティブ表示領域BGには、後述の統合画像変更処理において、使用者によって選択された一の外部装置の表示画像が挿入される。   In step S126, the generation unit 142 generates an integrated image using the sorted identification image. Specifically, the generation unit 142 arranges the plurality of identification images sorted in step S124 in the thumbnail display areas B1 to B6 (first display areas) of the area information 122, respectively. The generation unit 142 also arranges the black image in the active display area BG (second display area) of the area information 122. In this active display area BG, a display image of one external device selected by the user in an integrated image change process described later is inserted.

なお、ステップS126において生成部142は、各識別画像に対して、識別画像の形状の変更、識別画像の透過率の変更、識別画像への色変換処理、識別画像の大きさの変更、識別画像への装飾(文字、図形、記号等)の付与、等を実施してもよい。例えば、生成部142は、識別画像の大きさを変更する際に、外部装置とヘッドマウントディスプレイ100との間の距離に応じて、識別画像の大きさを決定してもよい。例えば、ヘッドマウントディスプレイ100との間の距離が近い外部装置の識別画像ほど、大きくすることとすれば、統合画像を見た使用者に対して、ヘッドマウントディスプレイ100と各外部装置との間の距離を視覚的に把握させることが可能となる。同様に、形状や、透過率、色変換処理の処理内容、装飾の内容についても、ヘッドマウントディスプレイ100と外部装置との間の距離に応じて決定されてもよい。   In step S126, for each identification image, the generation unit 142 changes the shape of the identification image, changes the transmittance of the identification image, color conversion processing to the identification image, changes the size of the identification image, and the identification image. It may be possible to give decorations (characters, figures, symbols, etc.), etc. For example, the generation unit 142 may determine the size of the identification image according to the distance between the external device and the head mounted display 100 when changing the size of the identification image. For example, if the identification image of the external device that is closer to the head-mounted display 100 is made larger, it is possible for the user who has viewed the integrated image to connect the head-mounted display 100 and each external device. It is possible to visually grasp the distance. Similarly, the shape, the transmittance, the content of the color conversion process, and the content of the decoration may be determined according to the distance between the head mounted display 100 and the external device.

図6は、ステップS126で生成された統合画像の一例を示す説明図である。統合画像GIのサムネイル表示領域B1にはヘッドマウントディスプレイ100の識別画像として、ヘッドマウントディスプレイ100の一の時点での表示画像G1が配置されている。同様に、サムネイル表示領域B2にはPC300の識別画像として、PC300の一の時点での表示画像G2が、サムネイル表示領域B3には家電400の識別画像として、家電400の設定画面の表示画像G3が、サムネイル表示領域B4にはAV機器500の識別画像として、AV機器500の操作画面の表示画像G4が、サムネイル表示領域B5には携帯端末600の識別画像として、携帯端末600の一の時点での表示画像G5が、サムネイル表示領域B6にはゲーム機器700の識別画像として、ゲーム機器700の一の時点での表示画像G6が、それぞれ配置されている。なお、図6の例では、サムネイル表示領域B1〜B6の縦横比と、各外部装置の識別画像G1〜G6の縦横比とが一致していない。図5のステップS126において生成部142は、各外部装置の識別画像G1〜G6の縦横比を、サムネイル表示領域B1〜B6の縦横比にそれぞれ一致させる処理を実施してもよい。   FIG. 6 is an explanatory diagram illustrating an example of the integrated image generated in step S126. In the thumbnail display area B1 of the integrated image GI, a display image G1 at one time of the head mounted display 100 is arranged as an identification image of the head mounted display 100. Similarly, a display image G2 at one point of the PC 300 is displayed in the thumbnail display area B2 as an identification image of the PC 300, and a display image G3 of the setting screen of the household appliance 400 is displayed as an identification image of the household appliance 400 in the thumbnail display area B3. In the thumbnail display area B4, the display image G4 of the operation screen of the AV device 500 is displayed as an identification image of the AV device 500, and the identification image of the mobile terminal 600 is displayed in the thumbnail display region B5 at one point of time of the mobile terminal 600. A display image G5 is displayed in the thumbnail display area B6 as a display image G6 at one point in time of the game device 700 as an identification image of the game device 700. In the example of FIG. 6, the aspect ratio of the thumbnail display areas B1 to B6 does not match the aspect ratio of the identification images G1 to G6 of the external devices. In step S126 of FIG. 5, the generation unit 142 may perform a process of matching the aspect ratios of the identification images G1 to G6 of the external devices with the aspect ratios of the thumbnail display areas B1 to B6.

図5のステップS128において生成部142は、ヘッドマウントディスプレイ100に統合画像を表示させる。具体的には、生成部142は、ステップS126で生成した統合画像を、画像処理部160へ送信する。統合画像を受信した画像処理部160では、上述の表示処理が行われる。この結果、ヘッドマウントディスプレイ100の使用者の両眼に導かれた画像光が使用者の網膜に結像することにより、ヘッドマウントディスプレイ100の使用者は、視野に統合画像の虚像を視認することができる。換言すれば、ヘッドマウントディスプレイ100は、統合画像を表示することができる。   In step S128 of FIG. 5, the generation unit 142 displays an integrated image on the head mounted display 100. Specifically, the generation unit 142 transmits the integrated image generated in step S126 to the image processing unit 160. The image processing unit 160 that has received the integrated image performs the above-described display processing. As a result, the image light guided to both eyes of the user of the head mounted display 100 forms an image on the retina of the user, so that the user of the head mounted display 100 visually recognizes the virtual image of the integrated image in the field of view. Can do. In other words, the head mounted display 100 can display an integrated image.

A−4.統合画像更新処理:
図7は、統合画像更新処理の手順を示すシーケンス図である。本実施形態の統合画像更新処理とは、統合画像のうち、使用者によって選択された一の外部装置の表示画像を動的に更新し、ヘッドマウントディスプレイ100に表示させる処理である。統合画像更新処理は、主として更新部144により実行される。
A-4. Integrated image update processing:
FIG. 7 is a sequence diagram illustrating the procedure of the integrated image update process. The integrated image update process of the present embodiment is a process of dynamically updating the display image of one external device selected by the user among the integrated images and causing the head mounted display 100 to display it. The integrated image update process is mainly executed by the update unit 144.

ステップS200において更新部144は、入力情報取得部110を介して、複数の外部装置の中から一の外部装置を選択する選択操作を取得する。この選択操作は、ヘッドマウントディスプレイ100の使用者によってなされる操作である。使用者は、ヘッドマウントディスプレイ100の備える入力デバイス(例えば、タッチパッド、十字キー、フットスイッチ、ジェスチャー検出、視線検出、タッチ検出、マイクロホン等)を使用して選択操作を実施することができる。   In step S <b> 200, the update unit 144 acquires a selection operation for selecting one external device from a plurality of external devices via the input information acquisition unit 110. This selection operation is an operation performed by the user of the head mounted display 100. The user can perform a selection operation using an input device (for example, a touch pad, a cross key, a foot switch, gesture detection, line-of-sight detection, touch detection, a microphone, or the like) included in the head mounted display 100.

ステップS202において更新部144は、使用者により選択された一の外部装置に対して、表示画像の要求を送信する。図では、使用者によって選択された外部装置はPC300である例を示している。   In step S202, the update unit 144 transmits a request for a display image to the one external device selected by the user. In the figure, an example in which the external device selected by the user is the PC 300 is shown.

ステップS204において表示画像の要求を受信した外部装置(PC300)は、PC300の表示画面の画像、すなわち、PC300において再生中のコンテンツや、アプリケーションGUI等の、現在PC300において表示されている画面をレンダリングしたフレーム画像を取得する。   The external device (PC 300) that has received the request for the display image in step S204 rendered the image of the display screen of the PC 300, that is, the screen currently displayed on the PC 300, such as the content being played back on the PC 300 or the application GUI. Get a frame image.

ステップS206においてPC300は、取得したフレーム画像をヘッドマウントディスプレイ100へ送信する。ヘッドマウントディスプレイ100の更新部144は、無線通信部132を介して第1の画像を取得する。このとき、更新部144と無線通信部132とは「取得部」として機能する。   In step S206, the PC 300 transmits the acquired frame image to the head mounted display 100. The update unit 144 of the head mounted display 100 acquires the first image via the wireless communication unit 132. At this time, the update unit 144 and the wireless communication unit 132 function as an “acquisition unit”.

ステップS208において更新部144は、取得したフレーム画像を用いて、統合画像表示処理(図5)のステップS126で生成された統合画像のうちの、アクティブ表示領域BG(第2の表示領域)を更新する。   In step S208, the update unit 144 updates the active display region BG (second display region) in the integrated image generated in step S126 of the integrated image display process (FIG. 5) using the acquired frame image. To do.

ステップS210において更新部144は、更新後の統合画像を表示させる。詳細は統合画像表示処理(図5)のステップS128と同様である。   In step S210, the update unit 144 displays the updated integrated image. Details are the same as step S128 of the integrated image display process (FIG. 5).

ステップS212において更新部144は、ステップS200で取得した外部装置とは異なる他の外部装置の選択操作を取得するまでの間、選択された外部装置(PC300)に対して、ステップS202〜S210の処理を繰り返す。一方、他の外部装置の選択操作を取得した場合、更新部144は、他の外部装置に対して、ステップS202〜S212の処理を実行する。   In step S212, the update unit 144 performs the processing in steps S202 to S210 for the selected external device (PC 300) until a selection operation of another external device different from the external device acquired in step S200 is acquired. repeat. On the other hand, when the selection operation of another external device is acquired, the updating unit 144 performs the processes of steps S202 to S212 for the other external device.

図8は、ヘッドマウントディスプレイ100において第2の表示領域が更新された統合画像が表示されている様子を示す説明図である。図8に示すように、ヘッドマウントディスプレイ100の使用者は、視野VRにおいて、ヘッドマウントディスプレイ100に接続されている複数の外部装置の複数の識別画像と、複数の外部装置の中から選択された一の外部装置の表示画像と、を含む統合画像GIを、虚像VIとして視認することができる。図8の例において、複数の外部装置の複数の識別画像とは、図6で説明したヘッドマウントディスプレイ100の識別画像G1と、PC300の識別画像G2と、家電400の識別画像G3と、AV機器500の識別画像G4と、携帯端末600の識別画像G5と、ゲーム機器700の識別画像G6である。また、図8の例において、選択された一の外部装置の表示画像とは、すなわち、PC300が表示する画像である表示画像IMである。なお、本実施形態のヘッドマウントディスプレイ100は、透過型の頭部装着型表示装置である。このため、図4で説明した通り、使用者は、虚像VIを透過して背景を視認することができる。この背景については、図示の便宜上、図8における図示を省略している。   FIG. 8 is an explanatory diagram showing a state where an integrated image in which the second display area is updated is displayed on the head mounted display 100. As shown in FIG. 8, the user of the head mounted display 100 is selected from the plurality of identification images of the plurality of external devices connected to the head mounted display 100 and the plurality of external devices in the visual field VR. An integrated image GI including a display image of one external device can be visually recognized as a virtual image VI. In the example of FIG. 8, the plurality of identification images of the plurality of external devices are the identification image G1 of the head mounted display 100 described in FIG. 6, the identification image G2 of the PC 300, the identification image G3 of the home appliance 400, and the AV device. An identification image G4 of 500, an identification image G5 of the portable terminal 600, and an identification image G6 of the game machine 700. In the example of FIG. 8, the display image of the selected one external device is the display image IM that is an image displayed by the PC 300. The head mounted display 100 of the present embodiment is a transmissive head mounted display device. Therefore, as described in FIG. 4, the user can visually recognize the background through the virtual image VI. About this background, illustration in FIG. 8 is abbreviate | omitted for convenience of illustration.

以上のように、第1実施形態の統合画像表示処理(図5)および統合画像更新処理(図7)によれば、画像表示部20は、ヘッドマウントディスプレイ100(画像表示装置)に接続されている複数の外部装置(PC300〜ゲーム機器700)の複数の識別画像G2〜G7と、複数の外部装置の中から選択された一の外部装置(上記例ではPC300)の表示画像IMと、を含む統合画像GIを使用者に視認させることができる。このため、ヘッドマウントディスプレイ100の周辺の、換言すれば、ヘッドマウントディスプレイ100に接続されている外部装置における表示を統合することのできるヘッドマウントディスプレイ100を提供することができる。   As described above, according to the integrated image display process (FIG. 5) and the integrated image update process (FIG. 7) of the first embodiment, the image display unit 20 is connected to the head mounted display 100 (image display apparatus). A plurality of identification images G2 to G7 of a plurality of external devices (PC 300 to game device 700) and a display image IM of one external device (PC 300 in the above example) selected from the plurality of external devices. The integrated image GI can be visually recognized by the user. For this reason, the head mounted display 100 which can integrate the display in the periphery of the head mounted display 100, in other words, the external device connected to the head mounted display 100 can be provided.

また、第1実施形態の統合画像更新処理(図7)によれば、画像表示部20は、複数の外部装置(PC300〜ゲーム機器700)から選択された一の外部装置(上記例ではPC300)について、その表示画面が動的に更新された統合画像GIを使用者に視認させることができる。上記の統合画像更新処理および統合画像表示処理(図5)によれば、ヘッドマウントディスプレイ100は、統合画像のうちのアクティブ表示領域BG(第2の表示領域)のみを動的に更新し、サムネイル表示領域B1〜B6(第1の表示領域)は更新しない。このため、ヘッドマウントディスプレイ100は、各外部装置から識別画像を1回ずつ取得すれば足りることとなり、ヘッドマウントディスプレイ100と各外部装置との間の通信トラフィックを低減することができる。また、使用者によって選択された一の外部装置については、その表示画像を動的に更新することができる。   Further, according to the integrated image update process (FIG. 7) of the first embodiment, the image display unit 20 is one external device (PC300 in the above example) selected from a plurality of external devices (PC300 to game device 700). The user can visually recognize the integrated image GI whose display screen is dynamically updated. According to the integrated image update process and the integrated image display process (FIG. 5) described above, the head mounted display 100 dynamically updates only the active display area BG (second display area) in the integrated image, and thumbnails. The display areas B1 to B6 (first display area) are not updated. Therefore, the head mounted display 100 only needs to acquire the identification image once from each external device, and communication traffic between the head mounted display 100 and each external device can be reduced. In addition, the display image of one external device selected by the user can be dynamically updated.

A−5.統合画像更新処理のバリエーション:
なお、統合画像更新処理(図7)には、以下のような変形を加えてもよい。以下に示すバリエーションは、単独で付加してもよいし、組み合わせて付加してもよい。
A-5. Variations in integrated image update processing:
The integrated image update process (FIG. 7) may be modified as follows. The variations shown below may be added alone or in combination.

A−5−1.第1のバリエーション:
第1のバリエーションでは、使用者が意図する外部装置へ注意を向けるだけで、「外部装置の中から一の装置を選択する操作」を可能とする。このバリエーションにおいて、ヘッドマウントディスプレイ100のCPU140は、さらに、外部装置特定部を備える構成とする。
A-5-1. First variation:
In the first variation, it is possible to perform an “operation for selecting one device from external devices” only by paying attention to the external device intended by the user. In this variation, the CPU 140 of the head mounted display 100 further includes an external device specifying unit.

外部装置特定部は、使用者が注意を向けたと推定される外部装置を特定し、図7のステップS200において、特定された外部装置を更新部144へ通知する。外部装置特定部は、例えば、以下のc1〜c3の方法によって、使用者が注意を向けたと推定される外部装置を特定することができる。
(c1)ヘッドマウントディスプレイ100の筐体外部の使用者の眉間に対応する位置(換言すれば、右光学像表示部26と左光学像表示部28との間)に指向性の無線アンテナを備える構成とする。すると、この無線アンテナからの電波を受信した外部装置は、使用者が見た外部装置であると推定できる。このため、外部装置特定部は、指向性の無線アンテナからの電波を受信した外部装置から、その旨のメッセージを受信することで、使用者が注意を向けたと推定される外部装置を特定することができる。
The external device specifying unit specifies an external device that is estimated to have been noticed by the user, and notifies the update unit 144 of the specified external device in step S200 of FIG. The external device specifying unit can specify, for example, the external device that is estimated to be the user's attention by the following methods c1 to c3.
(C1) A directional wireless antenna is provided at a position corresponding to the eyebrows of the user outside the housing of the head mounted display 100 (in other words, between the right optical image display unit 26 and the left optical image display unit 28). The configuration. Then, it can be estimated that the external device that has received the radio wave from the wireless antenna is an external device viewed by the user. For this reason, the external device identifying unit identifies the external device that is estimated to have received the user's attention by receiving a message to that effect from the external device that has received the radio wave from the directional wireless antenna. Can do.

(c2)ヘッドマウントディスプレイ100の筐体外部の使用者の眉間に対応する位置に赤外線の発光部を備える構成とする。さらに、外部装置に赤外線の受光部を備える構成とする。すると、ヘッドマウントディスプレイ100からの赤外線を受信した外部装置は、使用者が見た外部装置であると推定できる。このため、外部装置特定部は、赤外線を受信した外部装置から、その旨のメッセージを受信することで、使用者が注意を向けたと推定される外部装置を特定することができる。(c3)外部装置特定部は、9軸センサー66(図2)により得られるヘッドマウントディスプレイ100の向き(使用者の頭部の向き)と、GPSモジュール134(図2)により得られる現在位置情報と、各外部装置の位置情報と、を用いて、使用者が注意を向けたと推定される外部装置を特定することができる。 (C2) An infrared light emitting unit is provided at a position corresponding to the eyebrows of the user outside the housing of the head mounted display 100. Further, the external device includes an infrared light receiving unit. Then, it can be estimated that the external device that has received the infrared rays from the head mounted display 100 is an external device viewed by the user. Therefore, the external device specifying unit can specify the external device that is estimated to have received the user's attention by receiving a message to that effect from the external device that has received the infrared rays. (C3) The external device specifying unit obtains the orientation of the head mounted display 100 (the orientation of the user's head) obtained by the 9-axis sensor 66 (FIG. 2) and the current position information obtained by the GPS module 134 (FIG. 2). The position information of each external device can be used to identify the external device that is estimated to have received the user's attention.

このように、第1のバリエーションによれば、外部装置特定部は、複数の外部装置(PC300〜ゲーム機器700)から、使用者が注意を向けたと推定される外部装置を特定し、特定された外部装置を、使用者によって選択された一の外部装置(図7、ステップS200)とする。このため、使用者は、例えば、視線や頭部の動き等を用いて意図する外部装置へ注意を向けるだけで、複数の外部装置の中から一の外部装置を選択することができる。この結果、利用者における利便性を向上させることができる。なお、上記c1〜c3はあくまで一例であり、外部装置特定部は、使用者の頭部の動きや使用者の視線などに応じて、使用者が注意を向けた外部装置を特定することができる。   Thus, according to the first variation, the external device specifying unit specifies and specifies an external device that is presumed that the user has paid attention from a plurality of external devices (PC 300 to game device 700). The external device is one external device selected by the user (FIG. 7, step S200). For this reason, the user can select one external device from among a plurality of external devices only by paying attention to the intended external device using, for example, the line of sight or the movement of the head. As a result, convenience for the user can be improved. In addition, said c1-c3 are an example to the last, and the external apparatus specific | specification part can identify the external apparatus which the user turned attention according to a motion of a user's head, a user's eyes | visual_axis, etc. .

A−5−2.第2のバリエーション:
第2のバリエーションでは、使用者によって選択された一の外部装置(図7、ステップS200で説明した外部装置)に対して、拡張現実感(AR、Augmented Reality)を提供するためのタグを付すことを可能とする。このバリエーションにおいて、ヘッドマウントディスプレイ100のCPU140は、さらに、付加提示用情報生成部を備える構成とする。
A-5-2. Second variation:
In the second variation, a tag for providing augmented reality (AR) is attached to one external device selected by the user (FIG. 7, the external device described in step S200). Is possible. In this variation, the CPU 140 of the head mounted display 100 further includes an additional presentation information generation unit.

付加提示用情報生成部は、使用者が、図7のステップS200において自身が選択した一の外部装置に対して注意を向けたと推定される場合に、使用者へ拡張現実感を提供するための付加提示用の情報を生成する。ここで、「使用者が特定の外部装置に対して注意を向けた」ことを推定する方法は、上記c1〜c3と同様に、指向性アンテナ、赤外線、現在位置情報と頭部の向きを利用することができる。また、例えばWEBカメラ等で撮像された外景の画像を画像認識することで、使用者が特定の外部装置に対して注意を向けたことを推定してもよい。付加提示用の情報とは、外部装置に対して何らかの情報を付加、削除、強調、減衰させることを意味する。具体的には、付加提示用の情報とは、例えば、使用者が選択した外部装置である旨を知らせる文字列が含まれる吹き出しまたはノート形状のタグや、使用者が選択した外部装置である旨を知らせるアイコン(絵、文字、記号等)や、使用者が選択した外部装置である旨を知らせるフレーム(外部装置を装飾するように配置される枠)等である。   The additional presentation information generation unit provides augmented reality to the user when it is estimated that the user has paid attention to the one external device selected by the user in step S200 of FIG. Generate information for additional presentation. Here, the method of estimating that “the user has paid attention to a specific external device” uses a directional antenna, infrared rays, current position information, and head orientation, similar to the above c1 to c3. can do. Further, for example, it may be estimated that the user has paid attention to a specific external device by recognizing an image of an outside scene captured by a WEB camera or the like. The information for additional presentation means adding, deleting, emphasizing, or attenuating some information with respect to the external device. Specifically, the information for additional presentation is, for example, a balloon or a note-shaped tag including a character string informing that the external device is selected by the user, or an external device selected by the user. Such as an icon (a picture, a character, a symbol, etc.) for informing the user, a frame for informing that the user has selected an external device (a frame arranged so as to decorate the external device), or the like.

付加提示用情報生成部は、生成した付加提示用の情報を、画像処理部160へ送信する。統合画像を受信した画像処理部160では、上述の表示処理が行われる。この結果、ヘッドマウントディスプレイ100の使用者は、視野に付加提示用の情報(タグ)の虚像を視認することができる。   The additional presentation information generation unit transmits the generated additional presentation information to the image processing unit 160. The image processing unit 160 that has received the integrated image performs the above-described display processing. As a result, the user of the head mounted display 100 can visually recognize a virtual image of additional presentation information (tag) in the field of view.

このように、第2のバリエーションによれば、画像表示部20は、使用者が、図7のステップS200において自身が選択した一の外部装置に対して注意を向けた場合に、使用者へ拡張現実感を提供するための付加提示用の情報を視認させることができる。この結果、使用者における利便性を向上させることができる。   As described above, according to the second variation, the image display unit 20 is expanded to the user when the user pays attention to the one external device selected by the user in step S200 of FIG. Additional presentation information for providing a sense of reality can be viewed. As a result, convenience for the user can be improved.

B.第2実施形態:
本発明の第2実施形態では、外部装置の識別画像として、第1実施形態に例示した画像とは異なる種類の画像を使用する構成について説明する。以下では、第1実施形態と異なる構成および動作を有する部分についてのみ説明する。なお、図中において第1実施形態と同様の構成部分については先に説明した第1実施形態と同様の符号を付し、その詳細な説明を省略する。
B. Second embodiment:
In the second embodiment of the present invention, a configuration in which an image different from the image exemplified in the first embodiment is used as the identification image of the external device will be described. Below, only the part which has a different structure and operation | movement from 1st Embodiment is demonstrated. In the figure, the same components as those of the first embodiment are denoted by the same reference numerals as those of the first embodiment described above, and detailed description thereof is omitted.

B−1.画像表示システムの構成:
第2実施形態の画像表示システムは、ヘッドマウントディスプレイ100に代えてヘッドマウントディスプレイ100aを備える点を除き、図1に示した第1実施形態と同様である。
B-1. Image display system configuration:
The image display system of the second embodiment is the same as that of the first embodiment shown in FIG. 1 except that a head mounted display 100a is provided instead of the head mounted display 100.

B−2.頭部装着型表示装置の構成:
図9は、第2実施形態のヘッドマウントディスプレイ100aの構成を機能的に示すブロック図である。図2に示した第1実施形態との違いは、制御部10に代えて制御部10aを備える点である。制御部10aは、生成部142に代えて生成部142aを、更新部144に代えて更新部144aをそれぞれ備える。生成部142aは、統合画像表示処理の内容が、図5に示す第1実施形態とは異なる。更新部144aは、統合画像更新処理の内容が、図7に示す第1実施形態とは異なる。
B-2. Configuration of head mounted display device:
FIG. 9 is a block diagram functionally showing the configuration of the head mounted display 100a of the second embodiment. The difference from the first embodiment shown in FIG. 2 is that a control unit 10 a is provided instead of the control unit 10. The control unit 10a includes a generation unit 142a instead of the generation unit 142, and an update unit 144a instead of the update unit 144. The generation unit 142a differs from the first embodiment shown in FIG. 5 in the content of the integrated image display process. The update unit 144a differs from the first embodiment shown in FIG. 7 in the content of the integrated image update process.

第2実施形態の統合画像表示処理および統合画像更新処理においては、第1実施形態のa1〜a3で例示した「外部装置の識別画像」に代えて、以下のa4、a5のいずれかを「外部装置の識別画像」として使用する。
(a4)外部装置を識別するための情報を表す画像。外部装置を識別するための情報とは、例えば、外部装置のID(例えば製品番号やシリアル番号)、外部装置の名前(例えば製品の名称)、外部装置の状態(例えば製品のプロパティー)等がある。
(a5)外部装置に割り当てられたシンボルを表す画像。ここで、「シンボル」とは、例えば、外部装置の存在を表すアイコン、外部装置を抽象化して表す図形または記号等である。
In the integrated image display process and the integrated image update process of the second embodiment, instead of the “identification image of the external device” exemplified in a1 to a3 of the first embodiment, one of the following a4 and a5 is replaced with “external Used as “identification image of device”.
(A4) An image representing information for identifying an external device. The information for identifying the external device includes, for example, an external device ID (for example, product number or serial number), an external device name (for example, product name), an external device status (for example, product property), and the like. .
(A5) An image representing a symbol assigned to an external device. Here, the “symbol” is, for example, an icon representing the presence of an external device, a graphic or symbol representing the external device in an abstract manner, and the like.

B−3.統合画像表示処理:
図10は、第2実施形態の統合画像表示処理の手順を示すシーケンス図である。第2実施形態の統合画像表示処理とは、第1実施形態(図5)と同様に、統合画像を生成し、ヘッドマウントディスプレイ100aに表示させる処理である。第1実施形態と異なる点は、外部装置の識別画像として、上記a4、a5に挙げた画像を使用する点である。統合画像表示処理は、主として生成部142aにより実行される。
B-3. Integrated image display processing:
FIG. 10 is a sequence diagram illustrating a procedure of the integrated image display process according to the second embodiment. The integrated image display process of the second embodiment is a process of generating an integrated image and displaying it on the head mounted display 100a, as in the first embodiment (FIG. 5). The difference from the first embodiment is that the images listed in a4 and a5 are used as the identification image of the external device. The integrated image display process is mainly executed by the generation unit 142a.

まず、図5で説明した第1実施形態と同様に、アプリケーションが起動され(ステップS100)、ヘッドマウントディスプレイ100aとPC300との間のコネクションが確立される(ステップS102)。   First, as in the first embodiment described with reference to FIG. 5, an application is activated (step S100), and a connection between the head mounted display 100a and the PC 300 is established (step S102).

ステップS300においてPC300は、PC300の機器情報を取得する。具体的には、PC300は、以下のb4、b5に示すいずれかの情報(画像でなくともよい)を取得する。なお、下記b4は上記a4に、下記b5は上記a5に、それぞれ対応している。
(b4)PC300を識別するための情報。例えば、PC300の製造番号やシリアル番号等のID、PC300の名称、PC300のプロパティー等の状態を表す情報。
(b5)PC300のシンボルを表す画像。例えば、PC300のアイコン画像。
In step S300, the PC 300 acquires device information of the PC 300. Specifically, the PC 300 acquires any one of the following information b4 and b5 (not necessarily an image). The following b4 corresponds to the above a4, and the following b5 corresponds to the above a5.
(B4) Information for identifying the PC 300. For example, information indicating the status of the PC 300 such as the manufacturing number and serial number, the name of the PC 300, the properties of the PC 300, and the like.
(B5) An image representing the symbol of the PC 300. For example, an icon image of the PC 300.

ステップS302においてPC300は、取得した機器情報をヘッドマウントディスプレイ100aへ送信する。ヘッドマウントディスプレイ100aの生成部142aは、無線通信部132を介して、この機器情報を取得する。このとき、生成部142aと無線通信部132とは「取得部」として機能する。   In step S302, the PC 300 transmits the acquired device information to the head mounted display 100a. The generation unit 142a of the head mounted display 100a acquires this device information via the wireless communication unit 132. At this time, the generation unit 142a and the wireless communication unit 132 function as an “acquisition unit”.

ステップS303において生成部142aは、取得した機器情報を表す画像を生成する。生成部142aは、生成した画像を「外部装置の識別画像」として、識別画像記憶部124に記憶させる。なお、上記b5のように、PC300から受信した機器情報が画像の形式である場合は、機器情報を表す画像の生成は省略可能である。   In step S303, the generation unit 142a generates an image representing the acquired device information. The generation unit 142a stores the generated image in the identification image storage unit 124 as an “identification image of the external device”. Note that when the device information received from the PC 300 is in the form of an image as in b5 above, generation of an image representing the device information can be omitted.

ステップS304において生成部142aは、ヘッドマウントディスプレイ100aとPC300との間のコネクションを切断する。このように、不要なコネクションをすぐに切断することにより、通信トラフィックおよび消費電力を低減させることができる。   In step S304, the generation unit 142a disconnects the connection between the head mounted display 100a and the PC 300. In this way, communication traffic and power consumption can be reduced by immediately disconnecting unnecessary connections.

ステップS306において生成部142は、家電400との間で、ステップS102およびステップS300〜S304と同様の処理を実施する。同様に、生成部142は、ステップS308においてAV機器500との間で、ステップS308において携帯端末600との間で、ステップS310においてゲーム機器700との間で、それぞれ同様の処理を実施する。この結果、識別画像記憶部124には、ヘッドマウントディスプレイ100aに接続されている全ての外部装置の識別画像が格納される。   In step S <b> 306, the generation unit 142 performs the same processing as in steps S <b> 102 and steps S <b> 300 to S <b> 304 with the home appliance 400. Similarly, the generation unit 142 performs similar processing with the AV device 500 in step S308, with the mobile terminal 600 in step S308, and with the game device 700 in step S310. As a result, the identification image storage unit 124 stores identification images of all external devices connected to the head mounted display 100a.

ステップS314において生成部142aは、ヘッドマウントディスプレイ100の機器情報を取得する。具体的には、ヘッドマウントディスプレイ100aについての、上記b4、b5に示すいずれかの情報を取得する。   In step S314, the generation unit 142a acquires device information of the head mounted display 100. Specifically, any information shown in b4 and b5 above for the head mounted display 100a is acquired.

ステップS316において生成部142aは、取得した機器情報を表す画像を生成し、「画像表示装置の識別画像」として、識別画像記憶部124に記憶させる。ステップS314、S316の結果、識別画像記憶部124には、ヘッドマウントディスプレイ100a自身の識別画像が格納される。   In step S316, the generation unit 142a generates an image representing the acquired device information and stores it in the identification image storage unit 124 as an “identification image of the image display device”. As a result of steps S314 and S316, the identification image storage unit 124 stores the identification image of the head mounted display 100a itself.

以降、図5で説明した第1実施形態と同様に、生成部142aは、識別画像記憶部124に格納されている複数の識別画像をソートし(ステップS124)、統合画像を生成し(ステップS126)、統合画像を表示させる(ステップS128)。詳細は図5で説明した通りである。   Thereafter, as in the first embodiment described with reference to FIG. 5, the generation unit 142a sorts a plurality of identification images stored in the identification image storage unit 124 (step S124), and generates an integrated image (step S126). ), An integrated image is displayed (step S128). Details are as described in FIG.

図11は、第2実施形態の統合画像表示処理のステップS126で生成された統合画像の一例を示す説明図である。統合画像GIのサムネイル表示領域B1にはヘッドマウントディスプレイ100の識別画像として、ヘッドマウントディスプレイ100の製品番号を表す画像J1が配置されている。同様に、サムネイル表示領域B2にはPC300の識別画像として、PC300のアイコン画像J2が、サムネイル表示領域B3には家電400の識別画像として、家電400の製品の名称を表す画像J3が、サムネイル表示領域B4にはAV機器500の識別画像として、AV機器500のアイコン画像J4が、サムネイル表示領域B5には携帯端末600の識別画像として、携帯端末600の製品番号を表す画像J5が、サムネイル表示領域B6にはゲーム機器700の識別画像として、ゲーム機器700の製品番号を表す画像J6が、それぞれ配置されている。   FIG. 11 is an explanatory diagram illustrating an example of the integrated image generated in step S126 of the integrated image display process according to the second embodiment. In the thumbnail display area B1 of the integrated image GI, an image J1 representing the product number of the head mounted display 100 is arranged as an identification image of the head mounted display 100. Similarly, an icon image J2 of the PC 300 is displayed in the thumbnail display area B2, and an icon image J2 of the PC 300 is displayed in the thumbnail display area B3. An image J3 representing the name of the product of the home appliance 400 is displayed in the thumbnail display area B3. In B4, as an identification image of the AV device 500, an icon image J4 of the AV device 500 is displayed. In a thumbnail display region B5, as an identification image of the mobile terminal 600, an image J5 representing the product number of the mobile terminal 600 is displayed in the thumbnail display region B6. The image J6 representing the product number of the game machine 700 is arranged as an identification image of the game machine 700, respectively.

B−4.統合画像更新処理:
図12は、第2実施形態における統合画像更新処理の手順を示すシーケンス図である。第2実施形態の統合画像更新処理とは、第1実施形態(図7)と同様に、統合画像の第2の表示領域を動的に表示させる処理である。第1実施形態と異なる点は、外部装置の識別画像として、上記a4、a5に挙げた画像を使用する点と、第2の表示領域を更新するために外部装置から取得した表示画像を利用して、識別画像記憶部124内の外部装置の識別画像を更新する点である。統合画像更新処理は、主として更新部144aにより実行される。
B-4. Integrated image update processing:
FIG. 12 is a sequence diagram illustrating a procedure of the integrated image update process in the second embodiment. The integrated image update process of the second embodiment is a process of dynamically displaying the second display area of the integrated image, as in the first embodiment (FIG. 7). The difference from the first embodiment is that the images listed in a4 and a5 are used as the identification image of the external device, and the display image acquired from the external device is used to update the second display area. Thus, the identification image of the external device in the identification image storage unit 124 is updated. The integrated image update process is mainly executed by the update unit 144a.

まず、図7で説明した第1実施形態と同様に、複数の外部装置の中から一の外部装置を選択する選択操作を取得し(ステップS200)、選択された一の外部装置から表示画面の画像(フレーム画像)を取得する(ステップS202〜S206)。   First, as in the first embodiment described with reference to FIG. 7, a selection operation for selecting one external device from a plurality of external devices is acquired (step S200), and the display screen is displayed from the selected one external device. An image (frame image) is acquired (steps S202 to S206).

ステップS400において更新部144aは、取得したフレーム画像を「外部装置の識別画像」として、識別画像記憶部124に記憶させる。この際、更新部144aは、統合画像表示処理(図10)のステップS303で既に記憶されている同一の外部装置の識別画像を上書きする。なお、ステップS400では、取得したフレーム画像を縮小処理した後で識別画像記憶部124に記憶させてもよい。   In step S400, the update unit 144a stores the acquired frame image in the identification image storage unit 124 as an “identification image of the external device”. At this time, the update unit 144a overwrites the identification image of the same external device already stored in step S303 of the integrated image display process (FIG. 10). In step S400, the acquired frame image may be stored in the identification image storage unit 124 after being reduced.

ステップS402において更新部144aは、識別画像記憶部124に格納されている複数の識別画像を取得し、取得した識別画像を所定の条件に従ってソートする。詳細は統合画像表示処理(図5)のステップS124と同様である。   In step S402, the update unit 144a acquires a plurality of identification images stored in the identification image storage unit 124, and sorts the acquired identification images according to a predetermined condition. Details are the same as step S124 of the integrated image display process (FIG. 5).

ステップS404において更新部144aは、ソート後の識別画像を用いて統合画像のサムネイル表示領域B1〜B6(第1の表示領域)を更新する。詳細は統合画像表示処理(図5)のステップS126と同様である。   In step S404, the update unit 144a updates the thumbnail display areas B1 to B6 (first display areas) of the integrated image using the sorted identification images. Details are the same as in step S126 of the integrated image display process (FIG. 5).

ステップS408において更新部144aは、ステップS206で取得したフレーム画像を用いて、ステップS404で更新された統合画像のうちの、アクティブ表示領域BG(第2の表示領域)を更新する。   In step S408, the update unit 144a updates the active display region BG (second display region) in the integrated image updated in step S404 using the frame image acquired in step S206.

ステップS210において更新部144aは、更新後の統合画像を表示させる。詳細は統合画像表示処理(図5)のステップS128と同様である。   In step S210, the update unit 144a displays the updated integrated image. Details are the same as step S128 of the integrated image display process (FIG. 5).

ステップS410において更新部144aは、ステップS200で取得した外部装置とは異なる他の外部装置の選択操作を取得するまでの間、選択された外部装置(PC300)に対して、ステップS202、S204、S206、S408、S210の処理を繰り返す。一方、他の外部装置の選択操作を取得した場合、更新部144は、他の外部装置に対して、ステップS202〜S410の一連の処理を実行する。   In step S410, the update unit 144a performs steps S202, S204, and S206 on the selected external device (PC 300) until a selection operation of another external device different from the external device acquired in step S200 is acquired. , S408 and S210 are repeated. On the other hand, when the selection operation of another external device is acquired, the updating unit 144 performs a series of processes of steps S202 to S410 on the other external device.

図13は、ヘッドマウントディスプレイ100aにおいて第1の表示領域と第2の表示領域とが更新された統合画像が表示されている様子を示す説明図である。図13に示すように、ヘッドマウントディスプレイ100aの使用者は、視野VRにおいて、ヘッドマウントディスプレイ100aに接続されている複数の外部装置の複数の識別画像と、複数の外部装置の中から選択された一の外部装置の表示画像と、を含む統合画像GIを、虚像VIとして視認することができる。図13の例において、複数の外部装置の複数の識別画像とは、図11で説明したヘッドマウントディスプレイ100aの識別画像J1と、PC300の識別画像J2と、家電400の識別画像J3と、AV機器500の識別画像J4と、携帯端末600の識別画像J5と、ゲーム機器700の識別画像J6である。ここで、PC300の識別画像J2については、統合画像更新処理(図12)のステップS400における更新後の識別画像が表示されている。また、図13の例において、選択された一の外部装置の表示画像とは、すなわち、PC300が表示する画像である表示画像IMである。なお、図8と同様に、図14においても、本来、虚像VIを透過する背景については図示を省略している。   FIG. 13 is an explanatory diagram showing a state in which an integrated image in which the first display area and the second display area are updated is displayed on the head mounted display 100a. As shown in FIG. 13, the user of the head mounted display 100a is selected from the plurality of identification images of the plurality of external devices connected to the head mounted display 100a and the plurality of external devices in the visual field VR. An integrated image GI including a display image of one external device can be visually recognized as a virtual image VI. In the example of FIG. 13, the identification images of a plurality of external devices are the identification image J1 of the head mounted display 100a described in FIG. 11, the identification image J2 of the PC 300, the identification image J3 of the home appliance 400, and the AV device. The identification image J4 of 500, the identification image J5 of the portable terminal 600, and the identification image J6 of the game machine 700. Here, for the identification image J2 of the PC 300, the updated identification image in step S400 of the integrated image update process (FIG. 12) is displayed. In the example of FIG. 13, the display image of the selected one external device is the display image IM that is an image displayed by the PC 300. As in FIG. 8, in FIG. 14, the background that originally transmits the virtual image VI is not shown.

以上のように、第2実施形態の統合画像表示処理(図10)および統合画像更新処理(図12)によれば、第1実施形態と同様の効果を得ることができる。さらに、第2実施形態の統合画像表示処理および統合画像更新処理では、外部装置の識別画像として、第1実施形態に例示した画像とは異なる種類の画像を使用することができる。   As described above, according to the integrated image display process (FIG. 10) and the integrated image update process (FIG. 12) of the second embodiment, the same effects as those of the first embodiment can be obtained. Furthermore, in the integrated image display process and the integrated image update process of the second embodiment, an image of a different type from the image exemplified in the first embodiment can be used as the identification image of the external device.

B−5.統合画像更新処理のバリエーション:
第2実施形態の統合画像更新処理(図12)においても、上述した第1のバリエーションおよび第2のバリエーションを適用可能である。
B-5. Variations in integrated image update processing:
Also in the integrated image update process (FIG. 12) of the second embodiment, the first variation and the second variation described above can be applied.

C.第3実施形態:
本発明の第3実施形態では、結合画像のサムネイル表示領域B1〜B6(第1の表示領域)を、仮想的な表示領域とする構成について説明する。以下では、第1実施形態と異なる構成および動作を有する部分についてのみ説明する。なお、図中において第1実施形態と同様の構成部分については先に説明した第1実施形態と同様の符号を付し、その詳細な説明を省略する。
C. Third embodiment:
In the third embodiment of the present invention, a configuration in which thumbnail display areas B1 to B6 (first display areas) of combined images are assumed to be virtual display areas will be described. Below, only the part which has a different structure and operation | movement from 1st Embodiment is demonstrated. In the figure, the same components as those of the first embodiment are denoted by the same reference numerals as those of the first embodiment described above, and detailed description thereof is omitted.

C−1.画像表示システムの構成:
第3実施形態の画像表示システムは、ヘッドマウントディスプレイ100に代えてヘッドマウントディスプレイ100bを備える点を除き、図1に示した第1実施形態と同様である。
C-1. Image display system configuration:
The image display system of the third embodiment is the same as that of the first embodiment shown in FIG. 1 except that a head mounted display 100b is provided instead of the head mounted display 100.

C−2.頭部装着型表示装置の構成:
図14は、第3実施形態のヘッドマウントディスプレイ100bの構成を機能的に示すブロック図である。図2に示した第1実施形態との違いは、制御部10に代えて制御部10bを備える点である。制御部10bは、領域情報122に代えて領域情報122bを、画像処理部160に代えて画像処理部160bをそれぞれ備える。
C-2. Configuration of head mounted display device:
FIG. 14 is a block diagram functionally showing the configuration of the head mounted display 100b of the third embodiment. The difference from the first embodiment shown in FIG. 2 is that a control unit 10 b is provided instead of the control unit 10. The control unit 10b includes region information 122b instead of the region information 122, and an image processing unit 160b instead of the image processing unit 160.

図15は、第3実施形態における領域情報122bの一例を示す説明図である。第3実施形態の領域情報122bは、図3に示した第1実施形態と同様に、6つのサムネイル表示領域B1〜B6(第1の表示領域)と、アクティブ表示領域BG(第2の表示領域)と、を含んでいる。各領域の用途は図3で説明した通りである。サムネイル表示領域B1〜B3と、サムネイル表示領域B4〜B6とは、アクティブ表示領域BGを挟んで、水平方向の左右の外側に配置されている。アクティブ表示領域BGの縦横比は、表示駆動部による画像光の生成可能領域の縦横比、換言すれば、ヘッドマウントディスプレイ100bの表示素子(図2:右LCD241、左LCD242)の縦横比と同一である。   FIG. 15 is an explanatory diagram illustrating an example of the region information 122b in the third embodiment. Similarly to the first embodiment shown in FIG. 3, the area information 122b of the third embodiment includes six thumbnail display areas B1 to B6 (first display area) and an active display area BG (second display area). ) And. The use of each area is as described in FIG. The thumbnail display areas B1 to B3 and the thumbnail display areas B4 to B6 are disposed outside the left and right in the horizontal direction with the active display area BG interposed therebetween. The aspect ratio of the active display area BG is the same as the aspect ratio of the area where image light can be generated by the display drive unit, in other words, the aspect ratio of the display element (FIG. 2: right LCD 241 and left LCD 242) of the head mounted display 100b. is there.

図15の例では、サムネイル表示領域B1〜B3は、領域122bの左側の外側に、それぞれが鉛直方向に隣接して配置されている。サムネイル表示領域B4〜B6は、領域122の右側の外側に、それぞれが鉛直方向に隣接して配置されている。サムネイル表示領域B1〜B6は、それぞれ同じ大きさの領域である。図15において、サムネイル表示領域B1〜B6にはドットのハッチングを付し、アクティブ表示領域BGには斜線ハッチングを付す。   In the example of FIG. 15, the thumbnail display areas B1 to B3 are respectively arranged adjacent to each other in the vertical direction outside the left side of the area 122b. The thumbnail display areas B4 to B6 are arranged outside the right side of the area 122 and adjacent to each other in the vertical direction. The thumbnail display areas B1 to B6 are areas having the same size. In FIG. 15, the thumbnail display areas B1 to B6 are hatched with dots, and the active display area BG is hatched.

なお、図15に示したサムネイル表示領域B1〜B6の配置および大きさは一例であり、任意に定めることができる。サムネイル表示領域B1〜B6は、アクティブ表示領域BG(第2の表示領域)の外側に配置されていれば足りる。このため、例えば、サムネイル表示領域B1〜B6は、アクティブ表示領域BGの上側の外側や下側の外側に配置されていてもよい。また、サムネイル表示領域B1〜B6は、アクティブ表示領域BGの外側の四方を取り囲むように配置されていてもよい。また、サムネイル表示領域B1〜B6は、それぞれの領域が異なる大きさであってもよい。さらに、サムネイル表示領域B1〜B6は、それぞれ、領域の少なくとも一部が重なっていてもよい。   Note that the arrangement and size of the thumbnail display areas B1 to B6 shown in FIG. 15 are examples, and can be arbitrarily determined. It is sufficient that the thumbnail display areas B1 to B6 are arranged outside the active display area BG (second display area). For this reason, for example, the thumbnail display areas B1 to B6 may be arranged outside the upper side or the lower side of the active display area BG. Further, the thumbnail display areas B1 to B6 may be arranged so as to surround the outer four sides of the active display area BG. The thumbnail display areas B1 to B6 may have different sizes. Furthermore, the thumbnail display areas B1 to B6 may each overlap at least part of the area.

C−3.統合画像表示処理:
第3実施形態における統合画像表示処理の手順は、以下に挙げる手順d1、d2を除き、図5に示した第1実施形態と同様である。
(d1)ステップS126において、生成部142は、図15で説明した領域情報122bを用いて、統合画像を生成する。
(d2)ステップS128において、画像処理部160bは、生成部142から受信した統合画像のうち、アクティブ表示領域BG(第2の表示領域、図15において斜線のハッチングを施した領域)に相当する部分の画像のみを、ヘッドマウントディスプレイ100bに表示させる。そして、画像処理部160bは、使用者から所定の操作を取得したことをトリガーとして、サムネイル表示領域B1〜B6(第1の表示領域、図15においてドットのハッチングを施した領域)に相当する部分の画像を、ヘッドマウントディスプレイ100bに表示させる。所定のトリガーとは、例えば、ヘッドマウントディスプレイ100bの備える入力デバイス(例えば、タッチパッド、十字キー、フットスイッチ、ジェスチャー検出、視線検出、タッチ検出、マイクロホン等)による使用者の操作等を使用することができる。
C-3. Integrated image display processing:
The procedure of the integrated image display process in the third embodiment is the same as that of the first embodiment shown in FIG. 5 except for the following steps d1 and d2.
(D1) In step S126, the generation unit 142 generates an integrated image using the region information 122b described in FIG.
(D2) In step S128, the image processing unit 160b corresponds to the active display area BG (second display area, hatched area in FIG. 15) of the integrated image received from the generation unit 142. Are displayed on the head mounted display 100b. Then, the image processing unit 160b is a portion corresponding to the thumbnail display areas B1 to B6 (first display area, areas in which dots are hatched in FIG. 15) triggered by obtaining a predetermined operation from the user. Is displayed on the head mounted display 100b. The predetermined trigger uses, for example, a user's operation by an input device (for example, touch pad, cross key, foot switch, gesture detection, gaze detection, touch detection, microphone, etc.) provided in the head mounted display 100b. Can do.

図16は、画像処理部160bの動作の一例を説明するための説明図である。例えば、画像処理部160bは、使用者がヘッドマウントディスプレイ100bの左保持部23にタッチしたことをトリガーとして、図示のように、ヘッドマウントディスプレイ100bに表示させる統合画像の範囲を、図16のように左側にスライドさせる。このようにすれば、画像処理部160bは、第1の表示領域(の一部)と、第2の表示領域(の一部)とを使用者に視認させることができる。同様に、画像処理部160bは、使用者がヘッドマウントディスプレイ100bの右保持部21にタッチしたことをトリガーとして、ヘッドマウントディスプレイ100bに表示させる統合画像の範囲を右側にスライドさせる。なお、領域情報122bにおいてサムネイル表示領域B1〜B6(第1の表示領域)がアクティブ表示領域BG(第2の表示領域)の上下に設けられた場合は、使用者がヘッドマウントディスプレイ100bの筐体の上下にタッチしたことをトリガーとして、同様の処理をすることができる。   FIG. 16 is an explanatory diagram for explaining an example of the operation of the image processing unit 160b. For example, the image processing unit 160b uses, as a trigger, that the user has touched the left holding unit 23 of the head mounted display 100b as a trigger to display an integrated image range displayed on the head mounted display 100b as illustrated in FIG. Slide to the left. In this way, the image processing unit 160b allows the user to visually recognize the first display area (a part thereof) and the second display area (a part thereof). Similarly, the image processing unit 160b slides the range of the integrated image to be displayed on the head mounted display 100b to the right, triggered by the user touching the right holding unit 21 of the head mounted display 100b. In the area information 122b, when the thumbnail display areas B1 to B6 (first display areas) are provided above and below the active display area BG (second display area), the user can use the case of the head mounted display 100b. The same processing can be performed with the touching of the top and bottom of as a trigger.

C−4.統合画像更新処理:
第3実施形態における統合画像更新処理の手順は、ステップS210における画像処理部160bの手順(上記d2と同様)を除き、図7に示した第1実施形態と同様である。
C-4. Integrated image update processing:
The procedure of the integrated image update process in the third embodiment is the same as that of the first embodiment shown in FIG. 7 except for the procedure of the image processing unit 160b in step S210 (same as d2 above).

以上のように、第3実施形態の統合画像表示処理(図5)および統合画像更新処理(図7)によれば、第1実施形態と同様の効果を得ることができる。さらに、第3実施形態の統合画像表示処理および統合画像更新処理によれば、画像表示部20は、使用者による操作がない場合は、統合画像のアクティブ表示領域BG(第2の表示領域)に相当する部分を使用者に視認させ、使用者による操作がある場合は、統合画像のサムネイル表示領域B1〜B6(第1の表示領域)に相当する部分を使用者に視認させることができる。この結果、この形態のヘッドマウントディスプレイ100b(画像表示装置)によれば、通常画面(アクティブ表示領域BG、第2の表示領域)の外側に仮想画面(サムネイル表示領域B1〜B6、第1の表示領域)を設けて、使用者による操作で、通常画面と仮想画面との表示を切り替えることができる。この結果、使用者における利便性を向上させることができる。   As described above, according to the integrated image display process (FIG. 5) and the integrated image update process (FIG. 7) of the third embodiment, the same effects as those of the first embodiment can be obtained. Furthermore, according to the integrated image display process and the integrated image update process of the third embodiment, the image display unit 20 displays the active image area BG (second display area) of the integrated image when there is no operation by the user. When the user visually recognizes the corresponding part and there is an operation by the user, the user can visually recognize the part corresponding to the thumbnail display areas B1 to B6 (first display area) of the integrated image. As a result, according to the head mounted display 100b (image display device) of this embodiment, the virtual screen (thumbnail display areas B1 to B6, first display) outside the normal screen (active display area BG, second display area). Area) and switching between the normal screen and the virtual screen can be performed by the user's operation. As a result, convenience for the user can be improved.

C−5.統合画像更新処理のバリエーション:
第3実施形態の統合画像更新処理(図7)においても、上述した第1のバリエーションおよび第2のバリエーションを適用可能である。
C-5. Variations in integrated image update processing:
Also in the integrated image update process (FIG. 7) of the third embodiment, the first variation and the second variation described above can be applied.

D.変形例:
上記実施形態において、ハードウェアによって実現されるとした構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されるとした構成の一部をハードウェアに置き換えるようにしてもよい。その他、以下のような変形も可能である。
D. Variation:
In the above embodiment, a part of the configuration realized by hardware may be replaced by software, and conversely, a part of the configuration realized by software may be replaced by hardware. Good. In addition, the following modifications are possible.

・変形例1:
上記実施形態では、画像表示システムの構成について例示した。しかし、画像表示システムの構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、画像表示システムを構成する各装置の追加・削除・変換等を行うことができる。また、画像表示システムを構成する装置のネットワーク構成の変更を行うことができる。
・ Modification 1:
In the said embodiment, it illustrated about the structure of the image display system. However, the configuration of the image display system can be arbitrarily determined without departing from the gist of the present invention. For example, addition, deletion, conversion, and the like of each device configuring the image display system can be performed. In addition, it is possible to change the network configuration of the devices constituting the image display system.

例えば、画像表示装置として、ヘッドマウントディスプレイに代えて、プロジェクター、モニター、テレビ、等を採用することができる。   For example, as the image display device, a projector, a monitor, a television, or the like can be employed instead of the head mounted display.

例えば、上記実施形態における外部装置の1つとして、インターネットINTを介したクラウドサーバーが使用されてもよい。この場合であっても、生成部および更新部は、上記第1〜3実施形態と同様の処理を行うことにより、上記第1〜3実施形態と同様の効果を得ることができる。   For example, a cloud server via the Internet INT may be used as one of the external devices in the above embodiment. Even in this case, the generation unit and the update unit can obtain the same effect as that of the first to third embodiments by performing the same processing as that of the first to third embodiments.

・変形例2:
上記実施形態では、ヘッドマウントディスプレイの構成について例示した。しかし、ヘッドマウントディスプレイの構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、各構成部の追加・削除・変換等を行うことができる。
Modification 2
In the said embodiment, it illustrated about the structure of the head mounted display. However, the configuration of the head-mounted display can be arbitrarily determined without departing from the gist of the present invention. For example, each component can be added, deleted, converted, and the like.

上記実施形態における制御部と、画像表示部とに対する構成要素の割り振りはあくまで一例であり、種々の態様を採用可能である。例えば、以下のような態様としてもよい。(i)制御部にCPUやメモリー等の処理機能を搭載、画像表示部には表示機能のみを搭載する態様、(ii)制御部と画像表示部との両方にCPUやメモリー等の処理機能を搭載する態様、(iii)制御部と画像表示部とを一体化した態様(例えば、画像表示部に制御部が含まれ眼鏡型のウェアラブルコンピューターとして機能する態様)、(iv)制御部の代わりにスマートフォンや携帯型ゲーム機を使用する態様、(v)制御部と画像表示部とを無線通信かつワイヤレス給電可能な構成とすることにより接続部(コード)を廃した態様。(vi)制御部からタッチパッドを廃し、画像表示部にタッチパッドを設けた態様。   The allocation of components to the control unit and the image display unit in the above embodiment is merely an example, and various aspects can be employed. For example, the following aspects may be adopted. (I) A mode in which processing functions such as a CPU and a memory are mounted on the control unit, and only a display function is mounted on the image display unit. (Ii) Processing functions such as a CPU and a memory are provided in both the control unit and the image display unit. (Iii) a mode in which the control unit and the image display unit are integrated (for example, a mode in which the control unit is included in the image display unit and functions as a glasses-type wearable computer), (iv) instead of the control unit A mode in which a smartphone or a portable game machine is used, and (v) a mode in which the connection unit (code) is eliminated by adopting a configuration in which the control unit and the image display unit can perform wireless communication and wireless power feeding. (Vi) A mode in which the touch pad is eliminated from the control unit and the touch pad is provided in the image display unit.

上記実施形態では、説明の便宜上、制御部が送信部を備え、画像表示部が受信部を備えるものとした。しかし、上記実施形態の送信部および受信部は、いずれも、双方向通信が可能な機能を備えており、送受信部として機能することができる。また、例えば、図5に示した制御部は、有線の信号伝送路を介して画像表示部と接続されているものとした。しかし、制御部と、画像表示部とは、無線LANや赤外線通信やBluetooth等の無線の信号伝送路を介した接続により接続されていてもよい。   In the above embodiment, for convenience of explanation, the control unit includes a transmission unit, and the image display unit includes a reception unit. However, each of the transmission unit and the reception unit of the above-described embodiment has a function capable of bidirectional communication, and can function as a transmission / reception unit. Further, for example, the control unit illustrated in FIG. 5 is connected to the image display unit via a wired signal transmission path. However, the control unit and the image display unit may be connected by connection via a wireless signal transmission path such as a wireless LAN, infrared communication, or Bluetooth.

例えば、図2に示した制御部、画像表示部の構成は任意に変更することができる。具体的には、例えば、制御部は、上述した各種の入力デバイス(タッチパッド、十字キー、フットスイッチ、ジェスチャー検出、視線検出、マイクロホン)のほか、種々の入力デバイス(例えば、操作用スティック、キーボード、マウス等)を備えることができる。また、上記実施形態では、電源として二次電池を用いることしたが、電源としては二次電池に限らず、種々の電池を使用することができる。例えば、一次電池や、燃料電池、太陽電池、熱電池等を使用してもよい。   For example, the configurations of the control unit and the image display unit illustrated in FIG. 2 can be arbitrarily changed. Specifically, for example, the control unit includes various input devices (for example, operation sticks, keyboards) in addition to the above-described various input devices (touch pad, cross key, foot switch, gesture detection, line of sight detection, microphone). A mouse, etc.). Moreover, in the said embodiment, although the secondary battery was used as a power supply, as a power supply, not only a secondary battery but a various battery can be used. For example, a primary battery, a fuel cell, a solar cell, a thermal cell, or the like may be used.

例えば、ヘッドマウントディスプレイは、両眼タイプの透過型ヘッドマウントディスプレイであるものとしたが、単眼タイプのヘッドマウントディスプレイとしてもよい。また、使用者がヘッドマウントディスプレイを装着した状態において外景の透過が遮断される非透過型ヘッドマウントディスプレイとして構成してもよい。上記実施形態では、画像表示部を眼鏡のように装着するヘッドマウントディスプレイであるとしているが、例えば、帽子のように装着するタイプの画像表示部等、他の形状の画像表示部を採用したヘッドマウントディスプレイとしてもよい。また、イヤホンは耳掛け型やヘッドバンド型を採用してもよく、省略してもよい。さらに、例えば、自動車や飛行機等の車両に搭載されるヘッドアップディスプレイ(HUD、Head-Up Display)として構成されてもよい。そのほか、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。   For example, the head mounted display is a binocular transmissive head mounted display, but may be a monocular head mounted display. Further, it may be configured as a non-transmissive head mounted display in which the transmission of the outside scene is blocked when the user wears the head mounted display. In the above embodiment, it is assumed that the image display unit is a head-mounted display that is worn like glasses, but, for example, a head that employs an image display unit of another shape such as an image display unit that is worn like a hat. It is good also as a mount display. The earphone may be an ear-hook type or a headband type, or may be omitted. Furthermore, for example, it may be configured as a head-up display (HUD, Head-Up Display) mounted on a vehicle such as an automobile or an airplane. In addition, it may be configured as a head mounted display built in a body protective device such as a helmet.

図17は、変形例におけるヘッドマウントディスプレイの外観の構成を示す説明図である。図17(A)の例では、画像表示部20cが、右光学像表示部26に代えて右光学像表示部26cを備え、左光学像表示部28に代えて左光学像表示部28cを備えている。右光学像表示部26cおよび左光学像表示部28cは、第1実施形態の光学部材よりも小さく形成され、ヘッドマウントディスプレイの装着時における使用者の右眼および左眼の斜め上に配置されている。図17(B)の例では、画像表示部20dが、右光学像表示部26に代えて右光学像表示部26dを備え、左光学像表示部28に代えて左光学像表示部28dを備えている。右光学像表示部26dおよび左光学像表示部28dは、第1実施形態の光学部材よりも小さく形成され、ヘッドマウントディスプレイの装着時における使用者の右眼および左眼の斜め下に配置されている。このように、光学像表示部は使用者の眼の近傍に配置されていれば足りる。また、光学像表示部を形成する光学部材の大きさも任意であり、光学像表示部が使用者の眼の一部分のみを覆う態様、換言すれば、光学像表示部が使用者の眼を完全に覆わない態様のヘッドマウントディスプレイとして実現することもできる。   FIG. 17 is an explanatory diagram showing an external configuration of a head-mounted display in a modified example. In the example of FIG. 17A, the image display unit 20c includes a right optical image display unit 26c instead of the right optical image display unit 26, and includes a left optical image display unit 28c instead of the left optical image display unit 28. ing. The right optical image display unit 26c and the left optical image display unit 28c are formed smaller than the optical member of the first embodiment, and are disposed obliquely above the right and left eyes of the user when the head mounted display is mounted. Yes. In the example of FIG. 17B, the image display unit 20d includes a right optical image display unit 26d instead of the right optical image display unit 26, and includes a left optical image display unit 28d instead of the left optical image display unit 28. ing. The right optical image display unit 26d and the left optical image display unit 28d are formed smaller than the optical member of the first embodiment, and are disposed obliquely below the right and left eyes of the user when the head mounted display is mounted. Yes. Thus, it is sufficient that the optical image display unit is disposed in the vicinity of the user's eyes. The size of the optical member forming the optical image display unit is also arbitrary, and the optical image display unit covers only a part of the user's eye, in other words, the optical image display unit completely covers the user's eye. It can also be realized as an unmounted head mounted display.

例えば、上記実施形態では、表示駆動部は、バックライトと、バックライト制御部と、LCDと、LCD制御部と、投写光学系を用いて構成されるものとした。しかし、上記の態様はあくまで例示である。表示駆動部は、これらの構成部と共に、またはこれらの構成部に代えて、他の方式を実現するための構成部を備えていても良い。例えば、表示駆動部は、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部と、投写光学系とを備える構成としても良い。また、例えば、表示駆動部は、LCDに代えてデジタル・マイクロミラー・デバイス等を用いることもできる。また、例えば、レーザー網膜投影型の頭部装着型表示装置に対して本発明を適用することも可能である。   For example, in the above embodiment, the display driving unit is configured using a backlight, a backlight control unit, an LCD, an LCD control unit, and a projection optical system. However, the above aspect is merely an example. The display drive unit may include a component for realizing another method together with these components or instead of these components. For example, the display driving unit may include an organic EL (Organic Electro-Luminescence) display, an organic EL control unit, and a projection optical system. Further, for example, the display drive unit can use a digital micromirror device or the like instead of the LCD. Further, for example, the present invention can be applied to a laser retinal projection type head-mounted display device.

例えば、生成部、通知部、画像処理部、表示制御部、音声処理部等の各機能部は、CPUがROMやハードディスクに格納されているコンピュータープログラムをRAMに展開して実行することにより実現されるものとして記載した。しかし、これら機能部は、当該機能を実現するために設計されたASIC(Application Specific Integrated Circuit:特定用途向け集積回路)を用いて構成されてもよい。   For example, each function unit such as a generation unit, a notification unit, an image processing unit, a display control unit, and an audio processing unit is realized by a CPU developing and executing a computer program stored in a ROM or a hard disk on the RAM. It was described as a thing. However, these functional units may be configured using an ASIC (Application Specific Integrated Circuit) designed to realize the function.

・変形例3:
上記実施形態では、統合画像表示処理の一例を示した。しかし、統合画像表示処理の手順はあくまで一例であり、種々の変形が可能である。例えば、一部のステップを省略してもよいし、更なる他のステップを追加してもよい。また、実行されるステップの順序を変更してもよい。
・ Modification 3:
In the said embodiment, an example of the integrated image display process was shown. However, the procedure of the integrated image display process is merely an example, and various modifications can be made. For example, some steps may be omitted, and other steps may be added. Further, the order of the steps to be executed may be changed.

例えば、生成部は、識別画像の取得元である外部装置とヘッドマウントディスプレイとの間の距離に応じて、サムネイル表示領域B1〜B6の大きさを動的に変更してもよい。このようにすれば、統合画像を視認した使用者は、サムネイル表示領域B1〜B6(第1の表示領域)における各画像の大きさによって、ヘッドマウントディスプレイ(画像表示装置)と複数の外部装置との間の距離を知ることができる。   For example, the generation unit may dynamically change the sizes of the thumbnail display areas B1 to B6 according to the distance between the external device from which the identification image is acquired and the head mounted display. In this way, the user who has visually recognized the integrated image has a head-mounted display (image display device) and a plurality of external devices depending on the size of each image in the thumbnail display regions B1 to B6 (first display region). You can know the distance between.

上記実施形態において、生成部は、サムネイル表示領域B1〜B6(第1の表示領域)については更新しないこととした。しかし、生成部は、所定のトリガーの発生で、サムネイル表示領域B1〜B6(第1の表示領域)を更新してもよい。所定のトリガーは任意に定めることができ、例えば、使用者による要求操作の発生や、使用者の所定の動作の発生や、前回の統合画像生成からの所定時間の経過や、ヘッドマウントディスプレイのOSや他のアプリケーションからの内部的な要求の発生等とすることができる。このようにすれば、生成部は、所定のトリガーが発生した場合に限って前記第1の表示領域を更新することができる。このため、ヘッドマウントディスプレイ(画像表示装置)と、外部装置との間の通信トラフィックを低減させることができる。   In the above embodiment, the generation unit does not update the thumbnail display areas B1 to B6 (first display areas). However, the generation unit may update the thumbnail display areas B1 to B6 (first display area) upon occurrence of a predetermined trigger. The predetermined trigger can be arbitrarily determined. For example, the occurrence of a requested operation by the user, the occurrence of a predetermined operation by the user, the elapse of a predetermined time since the previous integrated image generation, the OS of the head mounted display Or an internal request from another application. In this way, the generation unit can update the first display area only when a predetermined trigger occurs. For this reason, it is possible to reduce communication traffic between the head mounted display (image display device) and the external device.

例えば、上記実施形態で説明した識別画像および統合画像は、2次元的に表現された画像を想定した。しかし、画像処理部は、右眼用画像データーと左眼用画像データーとを異なるデーターとすることで、識別画像および統合画像を3次元的に表現してもよい。   For example, the identification image and the integrated image described in the above embodiment are assumed to be two-dimensionally expressed images. However, the image processing unit may express the identification image and the integrated image three-dimensionally by using different data for the right-eye image data and the left-eye image data.

上記実施形態では、第1の表示領域と第2の表示領域とを含む統合画像を制御部において生成し、画像表示部において表示させる構成とした。しかし、統合画像は画像表示部により表示されれば足り、制御部において必ずしも統合画像を「生成」する必要はない。具体的には、例えば、制御部において第1の表示領域を表す画像と、第2の表示領域を表す画像とを別個に生成し、これら別個の画像を画像表示部において併せて表示させることで、統合画像を表示してもよい。   In the embodiment described above, an integrated image including the first display area and the second display area is generated in the control unit and displayed on the image display unit. However, the integrated image only needs to be displayed by the image display unit, and the control unit does not necessarily have to “generate” the integrated image. Specifically, for example, an image representing the first display area and an image representing the second display area are separately generated in the control unit, and these separate images are displayed together on the image display unit. An integrated image may be displayed.

・変形例4:
上記実施形態では、統合画像更新処理の一例を示した。しかし、統合画像更新処理の手順はあくまで一例であり、種々の変形が可能である。例えば、一部のステップを省略してもよいし、更なる他のステップを追加してもよい。また、実行されるステップの順序を変更してもよい。
-Modification 4:
In the said embodiment, an example of the integrated image update process was shown. However, the procedure of the integrated image update process is merely an example, and various modifications can be made. For example, some steps may be omitted, and other steps may be added. Further, the order of the steps to be executed may be changed.

・変形例5:
上記実施形態では、領域情報の一例を示した。上記領域情報はあくまで一例であり、種々の変更が可能である。例えば、構成要素の追加、削除、変更を行うことができる。
-Modification 5:
In the above embodiment, an example of the region information has been shown. The area information is merely an example, and various changes can be made. For example, a component can be added, deleted, or changed.

例えば、記憶部には、複数の異なる領域情報が記憶されていてもよい。この場合、ヘッドマウントディスプレイの使用者の好み(設定)、使用者の視線の動き、使用者の頭部の動き、周囲の明るさ等、任意の条件によって、複数の異なる領域情報から統合画像の生成に使用される一の領域情報が選択されてもよい。   For example, a plurality of different area information may be stored in the storage unit. In this case, the integrated image is obtained from a plurality of different region information depending on arbitrary conditions such as the user's preference (setting) of the head mounted display, the movement of the user's line of sight, the movement of the user's head, the ambient brightness, etc. One area information used for generation may be selected.

・変形例6:
本発明は、上述の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
Modification 6:
The present invention is not limited to the above-described embodiments, examples, and modifications, and can be realized with various configurations without departing from the spirit thereof. For example, the technical features in the embodiments, examples, and modifications corresponding to the technical features in each embodiment described in the summary section of the invention are to solve some or all of the above-described problems, or In order to achieve part or all of the above-described effects, replacement or combination can be performed as appropriate. Further, if the technical feature is not described as essential in the present specification, it can be deleted as appropriate.

10…制御部
20…画像表示部
22…右表示駆動部
24…左表示駆動部
26…右光学像表示部
28…左光学像表示部
32…右イヤホン
34…左イヤホン
40…接続部
51…送信部
52…送信部
53…受信部
100…ヘッドマウントディスプレイ(頭部装着型表示装置)
110…入力情報取得部(操作取得部)
120…記憶部
122…領域情報
124…識別画像記憶部
130…電源
132…無線通信部(取得部)
140…CPU
142…生成部(取得部、生成部)
144…更新部(更新部)
160…画像処理部
170…音声処理部
180…インターフェイス
190…表示制御部
201…右バックライト制御部
202…左バックライト制御部
221…右バックライト
222…左バックライト
251…右投写光学系
252…左投写光学系
261…右導光板
262…左導光板
300…コンピューター(外部装置)
400…家電(外部装置)
500…機器(外部装置)
600…携帯端末(外部装置)
700…ゲーム機器(外部装置)
1000…画像表示システム
Data…画像データー
SC…外景
RE…右眼
LE…左眼
VI…虚像
VR…視野
J1〜J6…識別画像
B1〜B6…サムネイル表示領域(第1の表示領域)
G1〜G6…識別画像
BG…アクティブ表示領域(第2の表示領域)
GI…統合画像
INT…インターネット
DESCRIPTION OF SYMBOLS 10 ... Control part 20 ... Image display part 22 ... Right display drive part 24 ... Left display drive part 26 ... Right optical image display part 28 ... Left optical image display part 32 ... Right earphone 34 ... Left earphone 40 ... Connection part 51 ... Transmission Unit 52 ... Transmitter 53 ... Receiver 100 ... Head mounted display (head-mounted display device)
110: Input information acquisition unit (operation acquisition unit)
DESCRIPTION OF SYMBOLS 120 ... Memory | storage part 122 ... Area | region information 124 ... Identification image memory | storage part 130 ... Power supply 132 ... Wireless communication part (acquisition part)
140 ... CPU
142 ... generating unit (acquiring unit, generating unit)
144 ... Update unit (update unit)
DESCRIPTION OF SYMBOLS 160 ... Image processing part 170 ... Sound processing part 180 ... Interface 190 ... Display control part 201 ... Right backlight control part 202 ... Left backlight control part 221 ... Right backlight 222 ... Left backlight 251 ... Right projection optical system 252 ... Left projection optical system 261 ... Right light guide plate 262 ... Left light guide plate 300 ... Computer (external device)
400: Home appliance (external device)
500 ... Equipment (external device)
600 ... Mobile terminal (external device)
700 ... Game equipment (external device)
1000 ... Image display system Data ... Image data SC ... Outside view RE ... Right eye LE ... Left eye VI ... Virtual image VR ... Visual field J1-J6 ... Identification image B1-B6 ... Thumbnail display area (first display area)
G1 to G6 ... identification image BG ... active display area (second display area)
GI ... Integrated image INT ... Internet

Claims (10)

画像表示装置であって、
前記画像表示装置に接続されている複数の外部装置を相互に識別するための複数の識別画像を一覧表示する第1の表示領域と、前記複数の外部装置の中から選択された一の外部装置が表示する画像である表示画像を表示する第2の表示領域と、を含む統合画像を生成する生成部と、
前記統合画像を前記画像表示装置の使用者に視認させる画像表示部と、
を備える、画像表示装置。
An image display device,
A first display area for displaying a list of a plurality of identification images for mutually identifying a plurality of external devices connected to the image display device; and one external device selected from the plurality of external devices A generating unit that generates an integrated image including a second display area that displays a display image that is an image displayed by
An image display unit for allowing a user of the image display device to visually recognize the integrated image;
An image display device comprising:
請求項1に記載の画像表示装置であって、さらに、
前記一の外部装置から前記表示画像を取得する取得部と、
前記取得された表示画像を用いて、前記統合画像の前記第2の表示領域を更新する更新部と、
を備える、画像表示装置。
The image display device according to claim 1, further comprising:
An acquisition unit for acquiring the display image from the one external device;
An update unit that updates the second display area of the integrated image using the acquired display image;
An image display device comprising:
請求項1または請求項2に記載の画像表示装置であって、
前記識別画像には、前記外部装置の一の時点での表示画像と、前記外部装置を識別するための情報を表す画像と、前記外部装置に割り当てられたシンボルを表す画像と、のうちの少なくともいずれかが含まれる、画像表示装置。
The image display device according to claim 1 or 2,
The identification image includes at least one of a display image at one time of the external device, an image representing information for identifying the external device, and an image representing a symbol assigned to the external device. An image display device including any one of them.
請求項1から請求項3のいずれか一項に記載の画像表示装置であって、さらに、
前記複数の外部装置の中から前記使用者が注意を向けたと推定される外部装置を特定し、前記特定された外部装置を前記一の外部装置とする外部装置特定部を備える、画像表示装置。
The image display device according to any one of claims 1 to 3, further comprising:
An image display device comprising: an external device identifying unit that identifies an external device that is presumed to be noted by the user from among the plurality of external devices, and that uses the identified external device as the one external device.
請求項1から請求項4のいずれか一項に記載の画像表示装置であって、さらに、
前記画像表示装置と前記複数の外部装置との間の距離をそれぞれ取得する距離取得部を備え、
前記生成部は、前記取得されたそれぞれの距離に応じて、前記第1の表示領域における前記複数の識別画像の表示順序と、前記第1の表示領域における前記識別画像の大きさと、のうちの少なくとも一方を決定する、画像表示装置。
The image display device according to any one of claims 1 to 4, further comprising:
A distance acquisition unit that acquires distances between the image display device and the plurality of external devices,
The generation unit includes a display order of the plurality of identification images in the first display area, and a size of the identification image in the first display area according to the acquired distances. An image display device that determines at least one of them.
請求項1から請求項5のいずれか一項に記載の画像表示装置であって、
前記生成部は、前記第1の表示領域を更新する、画像表示装置。
The image display device according to any one of claims 1 to 5,
The generation unit is an image display device that updates the first display area.
請求項1から請求項6のいずれか一項に記載の画像表示装置であって、
前記画像表示部は、さらに、前記統合画像を表す画像光を生成する表示駆動部を備え、前記生成された画像光を前記使用者の眼に射出することで前記統合画像を前記使用者に視認させる、画像表示装置。
The image display device according to any one of claims 1 to 6,
The image display unit further includes a display driving unit that generates image light representing the integrated image, and the integrated image is visually recognized by the user by emitting the generated image light to the user's eyes. An image display device.
請求項7に記載の画像表示装置であって、
前記生成部は、前記第2の表示領域の縦横比を前記表示駆動部による前記画像光の生成可能領域の縦横比とし、前記第2の表示領域の外側に前記第1の表示領域を配置した前記統合画像を生成し、
前記画像表示部は、
前記使用者による操作がない場合は、前記表示駆動部に対して、前記統合画像の前記第2の表示領域に相当する部分の前記画像光を生成させ、
前記使用者による操作がある場合は、前記表示駆動部に対して、少なくとも前記統合画像の前記第1の表示領域に相当する部分の前記画像光を生成させる、画像表示装置。
The image display device according to claim 7,
The generation unit uses an aspect ratio of the second display area as an aspect ratio of the image light generating area by the display driving unit, and the first display area is arranged outside the second display area. Generating the integrated image;
The image display unit
When there is no operation by the user, the display driving unit is caused to generate the image light corresponding to the second display area of the integrated image,
When there is an operation by the user, the image display device causes the display driving unit to generate at least a portion of the image light corresponding to the first display area of the integrated image.
請求項7または請求項8に記載の画像表示装置であって、さらに、
前記使用者が前記一の外部装置に対して注意を向けたと推定される場合に、前記使用者へ拡張現実感を提供するための付加提示用の情報を生成する付加提示用情報生成部を備え、
前記画像表示部は、前記表示駆動部に前記生成された付加提示用の情報を表す画像光を生成させ、前記生成された画像光を前記使用者の眼に射出することで前記付加提示用の情報を前記使用者に視認させる、画像表示装置。
The image display device according to claim 7 or 8, further comprising:
An additional presentation information generating unit configured to generate additional presentation information for providing augmented reality to the user when it is estimated that the user has paid attention to the one external device; ,
The image display unit causes the display driving unit to generate image light representing the generated additional presentation information, and emits the generated image light to the eyes of the user to perform the additional presentation. An image display device that allows the user to visually recognize information.
画像表示装置を制御する方法であって、
(a)前記画像表示装置に接続されている複数の外部装置を相互に識別するための複数の識別画像を一覧表示する第1の表示領域と、前記複数の外部装置の中から選択された一の外部装置が表示する画像である表示画像を表示する第2の表示領域と、を含む統合画像を生成する工程と、
(b)前記統合画像を前記画像表示装置の使用者に視認させる工程と、
を備える、方法。
A method for controlling an image display device, comprising:
(A) a first display area for displaying a list of a plurality of identification images for mutually identifying a plurality of external devices connected to the image display device, and one selected from the plurality of external devices Generating an integrated image including a second display area that displays a display image that is an image displayed by the external device;
(B) allowing the user of the image display device to visually recognize the integrated image;
A method comprising:
JP2013198132A 2013-09-25 2013-09-25 Image display device, and method of controlling image display device Pending JP2015064476A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013198132A JP2015064476A (en) 2013-09-25 2013-09-25 Image display device, and method of controlling image display device
US14/471,333 US10451874B2 (en) 2013-09-25 2014-08-28 Image display device, method of controlling image display device, computer program, and image display system
CN201410498313.4A CN104469464B (en) 2013-09-25 2014-09-25 Image display device, method for controlling image display device, computer program, and image display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013198132A JP2015064476A (en) 2013-09-25 2013-09-25 Image display device, and method of controlling image display device

Publications (1)

Publication Number Publication Date
JP2015064476A true JP2015064476A (en) 2015-04-09

Family

ID=52832400

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013198132A Pending JP2015064476A (en) 2013-09-25 2013-09-25 Image display device, and method of controlling image display device

Country Status (1)

Country Link
JP (1) JP2015064476A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017049918A (en) * 2015-09-04 2017-03-09 株式会社東芝 Electronic apparatus and support method
KR20180040719A (en) * 2015-11-17 2018-04-20 시아오미 아이엔씨. Smart device control method and apparatus
JP2019194870A (en) * 2019-06-05 2019-11-07 株式会社コロプラ Information processing method, information processing program, information processing system, and information processing apparatus

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001203954A (en) * 1999-10-25 2001-07-27 Gateway Inc System, method, signal, user interface, and software for displaying thumbnail banner
JP2004320209A (en) * 2003-04-14 2004-11-11 Sony Corp Communication device, its display method, computer program, and communication method
JP2005172851A (en) * 2003-12-05 2005-06-30 Sony Corp Image display apparatus
JP2007166316A (en) * 2005-12-14 2007-06-28 Sharp Corp Image display apparatus and image display system
JP2010153960A (en) * 2008-12-24 2010-07-08 Brother Ind Ltd Head mount display

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001203954A (en) * 1999-10-25 2001-07-27 Gateway Inc System, method, signal, user interface, and software for displaying thumbnail banner
JP2004320209A (en) * 2003-04-14 2004-11-11 Sony Corp Communication device, its display method, computer program, and communication method
JP2005172851A (en) * 2003-12-05 2005-06-30 Sony Corp Image display apparatus
JP2007166316A (en) * 2005-12-14 2007-06-28 Sharp Corp Image display apparatus and image display system
JP2010153960A (en) * 2008-12-24 2010-07-08 Brother Ind Ltd Head mount display

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017049918A (en) * 2015-09-04 2017-03-09 株式会社東芝 Electronic apparatus and support method
KR20180040719A (en) * 2015-11-17 2018-04-20 시아오미 아이엔씨. Smart device control method and apparatus
KR101942082B1 (en) * 2015-11-17 2019-01-24 시아오미 아이엔씨. Smart device control method and apparatus
JP2019194870A (en) * 2019-06-05 2019-11-07 株式会社コロプラ Information processing method, information processing program, information processing system, and information processing apparatus
JP6994005B2 (en) 2019-06-05 2022-01-14 株式会社コロプラ Information processing methods, information processing programs, information processing systems and information processing equipment

Similar Documents

Publication Publication Date Title
CN104469464B (en) Image display device, method for controlling image display device, computer program, and image display system
JP6209906B2 (en) Head-mounted display device, method for controlling head-mounted display device, and image display system
US9064442B2 (en) Head mounted display apparatus and method of controlling head mounted display apparatus
US9784976B2 (en) Head mounted display, information processing apparatus, image display apparatus, image display system, method for sharing display of head mounted display, and computer program
JP6375591B2 (en) Head-mounted display device, head-mounted display device control method, and image display system
US20150062164A1 (en) Head mounted display, method of controlling head mounted display, computer program, image display system, and information processing apparatus
US10114604B2 (en) Head-mounted display device, control method for head-mounted display device, and computer program
JP6492419B2 (en) Head-mounted display device, method for controlling head-mounted display device, computer program, image display system, and information processing device
US10073262B2 (en) Information distribution system, head mounted display, method for controlling head mounted display, and computer program
US9799144B2 (en) Head mounted display, and control method for head mounted display
CN107077363B (en) Information processing apparatus, method of controlling information processing apparatus, and recording medium
JP2016142887A (en) Head-mounted display device and control method of the same, and computer program
JP6303274B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP2015227919A (en) Image display device, control method of the same, computer program and image display system
JP6229381B2 (en) Head-mounted display device, method for controlling head-mounted display device, image display system, and information processing device
JP2015064476A (en) Image display device, and method of controlling image display device
US10205990B2 (en) Device for sending or receiving video, method for controlling device, and computer program
JP6828235B2 (en) Head-mounted display device, how to share the display of the head-mounted display device, computer program
JP2016142966A (en) Head-mounted display device, information processing device, image display device, image display system, method of sharing displayed images of head-mounted display device, and computer program
JP6394174B2 (en) Head-mounted display device, image display system, method for controlling head-mounted display device, and computer program
JP6217772B2 (en) Head-mounted display device and method for controlling head-mounted display device

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160530

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170712

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180109