JP6428024B2 - Display device, display device control method, and program - Google Patents

Display device, display device control method, and program Download PDF

Info

Publication number
JP6428024B2
JP6428024B2 JP2014155936A JP2014155936A JP6428024B2 JP 6428024 B2 JP6428024 B2 JP 6428024B2 JP 2014155936 A JP2014155936 A JP 2014155936A JP 2014155936 A JP2014155936 A JP 2014155936A JP 6428024 B2 JP6428024 B2 JP 6428024B2
Authority
JP
Japan
Prior art keywords
image
display
unit
divided
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014155936A
Other languages
Japanese (ja)
Other versions
JP2016033551A (en
Inventor
小林 伸一
伸一 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2014155936A priority Critical patent/JP6428024B2/en
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to EP15753499.1A priority patent/EP3175616A1/en
Priority to CN201580037933.0A priority patent/CN106537227B/en
Priority to PCT/JP2015/003766 priority patent/WO2016017144A1/en
Priority to US15/327,158 priority patent/US10725300B2/en
Priority to TW104124435A priority patent/TW201604586A/en
Priority to KR1020177004166A priority patent/KR20170031223A/en
Publication of JP2016033551A publication Critical patent/JP2016033551A/en
Application granted granted Critical
Publication of JP6428024B2 publication Critical patent/JP6428024B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、表示装置、表示装置の制御方法、および、プログラムに関する。   The present invention relates to a display device, a display device control method, and a program.

従来、使用者の右眼と左眼のそれぞれに対応して画像を表示する装置が知られている(例えば、特許文献1、2参照)。特許文献1、2記載の装置は、左右対の液晶ディスプレイに表示する2つの画面を、1つのつながった画面として認識させることで、アスペクト比の異なる画像を表示する。また、特許文献2記載の装置は、2つの画面の重なり幅を調整することで、重なり部分の輝度を調整する。   2. Description of the Related Art Conventionally, an apparatus that displays an image corresponding to each of a user's right eye and left eye is known (for example, see Patent Documents 1 and 2). The devices described in Patent Documents 1 and 2 display images having different aspect ratios by recognizing two screens displayed on a pair of left and right liquid crystal displays as one connected screen. The device described in Patent Document 2 adjusts the luminance of the overlapping portion by adjusting the overlapping width of the two screens.

特開平7−302063号公報JP-A-7-302063 特開平7−302064号公報JP-A-7-302064

上記従来の表示装置のように、使用者の右眼と左眼のそれぞれに対応して2つの画像を表示する場合、入力画像より大きい画像を処理する必要がある。特許文献1には、NTSC仕様(水平解像度600×垂直解像度500)の液晶パネルを2枚利用して、MUSE方式のハイビジョン画像を、水平解像度1200×垂直解像度500のワイド画像として表示する例の記載がある。この例では、入力画像を、より高解像度の画像に変換する処理が必要とされ、変換後の画像を処理する際の負荷は、入力画像を処理する場合より高負荷となる。このように、2つの画面を合わせた表示画像の解像度は、入力画像よりも大きくなることが一般的であり、処理負荷が高いことが懸念される。
本発明は、上述した事情に鑑みてなされたものであり、複数の表示部を備えた表示装置が入力画像を表示する場合の処理負荷を軽減することを目的とする。
When displaying two images corresponding to the right and left eyes of the user as in the conventional display device, it is necessary to process an image larger than the input image. Patent Document 1 describes an example in which two liquid crystal panels of NTSC specifications (horizontal resolution 600 × vertical resolution 500) are used to display a MUSE high-definition image as a wide image of horizontal resolution 1200 × vertical resolution 500. There is. In this example, a process for converting the input image into a higher resolution image is required, and the load when processing the converted image is higher than when the input image is processed. As described above, the resolution of the display image obtained by combining the two screens is generally larger than that of the input image, and there is a concern that the processing load is high.
The present invention has been made in view of the above-described circumstances, and an object thereof is to reduce the processing load when a display device including a plurality of display units displays an input image.

上記目的を達成するために、本発明の表示装置は、使用者の左眼に対応して画像を表示する第1表示部、及び、使用者の右眼に対応して画像を表示する第2表示部と、表示対象の画像を分割し、分割された画像を含む第1画像及び第2画像を、前記第1及び第2表示部に出力する画像処理部と、を備え、前記第1画像及び前記第2画像は、前記画像処理部により分割された画像で構成される画像領域と、疑似画像領域とを含み、前記第1画像及び前記第2画像の一方の前記疑似画像領域の状態は、他方の前記画像領域の状態に対応すること、を特徴とする。
本発明によれば、第1表示部と第2表示部で第1及び第2画像を表示し、第1画像及び第2画像が、表示対象の画像を分割した画像で構成される画像領域に加え、疑似画像領域を含む。このため、表示対象の画像の高解像度化や拡大等の処理を伴わず、若しくは、処理の負荷を抑えられる。さらに、画像を表示部に転送する転送速度を抑えられる。また、疑似画像領域を生成する処理、疑似画像領域を単純化すれば容易に負荷を抑えられる。従って、画像の表示に係る負荷を抑えて、対象の画像を使用者に視認させることができる。
In order to achieve the above object, a display device of the present invention includes a first display unit that displays an image corresponding to the left eye of the user, and a second that displays an image corresponding to the right eye of the user. A display unit; and an image processing unit that divides an image to be displayed and outputs a first image and a second image including the divided images to the first and second display units. And the second image includes an image region composed of images divided by the image processing unit and a pseudo image region, and the state of the one pseudo image region of the first image and the second image is And corresponding to the state of the other image area.
According to the present invention, the first display unit and the second display unit display the first and second images, and the first image and the second image are in an image area configured by an image obtained by dividing the display target image. In addition, a pseudo image area is included. For this reason, it is possible to suppress the processing load without increasing the resolution or enlarging the image to be displayed. Furthermore, the transfer speed for transferring the image to the display unit can be suppressed. Further, if the process of generating the pseudo image area and the pseudo image area are simplified, the load can be easily suppressed. Accordingly, it is possible to make the user visually recognize the target image while suppressing the load related to the display of the image.

また、本発明は、上記表示装置において、前記第1画像及び前記第2画像は、前記第1表示部及び前記第2表示部で表示された場合に、使用者に前記表示対象の画像として視認される画像であること、を特徴とする。
本発明によれば、対象の画像を分割して第1表示部と第2表示部とで表示することにより、処理の負荷を抑えて、2つの表示部を活用して対象の画像を表示できる。
In the display device according to the present invention, when the first image and the second image are displayed on the first display unit and the second display unit, they are visually recognized by the user as the display target image. It is an image to be displayed.
According to the present invention, by dividing the target image and displaying it on the first display unit and the second display unit, it is possible to suppress the processing load and display the target image using the two display units. .

また、本発明は、上記表示装置において、前記画像処理部は、前記第1画像及び前記第2画像における前記画像領域の位置を、前記表示対象の画像における前記分割された画像の位置に対応させること、を特徴とする。
本発明によれば、表示対象の画像を分割し、分割した画像の位置を変えずに第1及び第2表示部で表示するので、2つの表示部を利用して1つの表示対象の画像を使用者に視認させることができる。
In the display device according to the aspect of the invention, the image processing unit may correspond the position of the image area in the first image and the second image to the position of the divided image in the display target image. It is characterized by this.
According to the present invention, the image to be displayed is divided and displayed on the first and second display units without changing the position of the divided image. Therefore, one display target image is obtained using two display units. It can be visually recognized by the user.

また、本発明は、上記表示装置において、前記第1表示部及び前記第2表示部は、外景を透過し、前記外景とともに視認できるように前記画像を表示し、前記画像処理部は、前記第1画像または前記第2画像の少なくともいずれかにおける前記疑似画像領域の表示形態を調整すること、を特徴とする。
本発明によれば、疑似画像領域の表示形態を調整することで、疑似画像領域を透過する外景、或いは、疑似画像領域に対応する画像領域の視認性を制御できる。
In the display device according to the aspect of the invention, the first display unit and the second display unit may display the image so that the first display unit and the second display unit are transmitted through an outside scene and can be visually recognized together with the outside scene. The display form of the pseudo image area in at least one of the one image and the second image is adjusted.
According to the present invention, by adjusting the display form of the pseudo image area, it is possible to control the visibility of the outside scene that passes through the pseudo image area or the image area corresponding to the pseudo image area.

また、本発明は、上記表示装置において、前記画像処理部は、前記表示対象の画像から、互いに重複する部分を有する2つの画像を抽出し、これら2つの画像をそれぞれ前記第1画像及び前記第2画像の前記画像領域とすること、を特徴とする。
本発明によれば、第1表示部が表示する画像と第2表示部が表示する画像とを重複させることができる。これにより、第1及び第2表示部が表示する画像の継ぎ目が違和感を抱かせる場合に、この違和感を解消して高品位の画像を表示できる。
Further, according to the present invention, in the display device, the image processing unit extracts two images having overlapping portions from the image to be displayed, and the two images are respectively the first image and the first image. The image area of two images is used.
According to the present invention, the image displayed by the first display unit and the image displayed by the second display unit can be overlapped. Thereby, when the joint of the images displayed by the first and second display units gives a sense of incongruity, it is possible to eliminate the sense of incongruity and display a high-quality image.

また、本発明は、上記表示装置において、前記画像処理部は、前記第1画像及び前記第2画像において予め設定された領域に前記画像領域および前記疑似画像領域を配置すること、を特徴とする。
本発明によれば、画像処理部が表示対象の画像を分割する処理、及び、疑似画像領域を組み合わせて第1または第2画像を生成する処理の負荷を軽減できる。
Further, the present invention is characterized in that, in the display device, the image processing unit arranges the image area and the pseudo image area in a predetermined area in the first image and the second image. .
ADVANTAGE OF THE INVENTION According to this invention, the load of the process which the image process part divides | segments the image of a display target, and the process which produces | generates a 1st or 2nd image combining a pseudo image area | region can be reduced.

また、本発明は、上記表示装置において、前記画像処理部は、前記第1画像及び前記第2画像の各々に、複数の前記画像領域と複数の前記疑似画像領域とを配置すること、を特徴とする。
本発明によれば、第1画像と第2画像とが、より複雑な形状で組み合わされて、表示対象を視認させる。このため、例えば使用者が視認しやすい形状で表示対象の画像を分割して、画像を表示できる。
In the display device according to the present invention, the image processing unit arranges a plurality of the image areas and a plurality of the pseudo image areas in each of the first image and the second image. And
According to the present invention, the first image and the second image are combined in a more complicated shape to visually recognize the display target. For this reason, for example, the image to be displayed can be divided and displayed in a shape that is easy for the user to visually recognize.

また、本発明は、上記表示装置において、前記第1画像が前記第1表示部で表示される表示サイズと前記第2画像が前記第2表示部で表示される表示サイズとは同一に設定されること、を特徴とする。
本発明によれば、第1及び第2表示部の表示サイズが等しいので、第1表示部が表示する画像と第2表示部が表示する画像との対応が明確になり、2つの表示部の画像から1つの表示対象の画像を認識しやすいという利点がある。
According to the present invention, in the display device, a display size in which the first image is displayed on the first display unit and a display size in which the second image is displayed on the second display unit are set to be the same. It is characterized by.
According to the present invention, since the display sizes of the first and second display units are equal, the correspondence between the image displayed by the first display unit and the image displayed by the second display unit becomes clear, and the two display units There is an advantage that one display target image can be easily recognized from the image.

また、本発明は、上記表示装置において、前記第1画像及び前記第2画像は共通する位置に所定の指標を含むこと、を特徴とする。
本発明によれば、第1及び第2表示部に表示される画像において共通する位置に指標があるので、第1表示部及び第2表示部が表示する画像の対応が明確になる。このため、2つの表示部の画像から1つの表示対象の画像を認識しやすいという利点がある。
In the display device, the first image and the second image include a predetermined index at a common position.
According to the present invention, since there is an index at a common position in the images displayed on the first and second display units, the correspondence between the images displayed on the first display unit and the second display unit becomes clear. For this reason, there is an advantage that one display target image can be easily recognized from the images of the two display units.

また、本発明は、上記表示装置において、前記第1表示部及び前記第2表示部は互いに異なるタイミングで前記第1画像と前記第2画像とを表示すること、を特徴とする。
本発明によれば、画像を表示するタイミングを異ならせることで、画像を転送するタイミングを分散させることができ、単位時間あたりの画像の転送量を抑えられる。
In the display device, the first display unit and the second display unit display the first image and the second image at different timings.
According to the present invention, by changing the timing for displaying an image, the timing for transferring the image can be dispersed, and the transfer amount of the image per unit time can be suppressed.

また、上記目的を達成するために、本発明は、第1及び第2表示部を備える表示装置の制御方法であって、表示対象の画像を分割し、分割された画像に対応する第1画像及び第2画像を、前記第1及び第2表示部で表示し、前記第1画像及び第2画像を、前記分割された画像で構成される画像領域と、疑似画像領域とを含み、かつ前記第1画像及び前記第2画像の一方の前記疑似画像領域の状態が他方の前記画像領域の状態に対応する画像とすること、を特徴とする。
本発明によれば、表示対象の画像の高解像度化や拡大等の処理を伴わず、若しくは、処理の負荷を抑えられる。さらに、画像を表示部に転送する転送速度を抑えられる。また、疑似画像領域を生成する処理、疑似画像領域を単純化すれば容易に負荷を抑えられる。従って、画像の表示に係る負荷を抑えて、対象の画像を使用者に視認させることができる。
In order to achieve the above object, the present invention provides a method for controlling a display device including first and second display units, wherein a display target image is divided and a first image corresponding to the divided image is obtained. And the second image is displayed on the first and second display units, the first image and the second image include an image area constituted by the divided images, and a pseudo image area, and The state of the one pseudo image area of the first image and the second image is an image corresponding to the state of the other image area.
According to the present invention, processing such as high resolution and enlargement of an image to be displayed is not involved, or the processing load can be suppressed. Furthermore, the transfer speed for transferring the image to the display unit can be suppressed. Further, if the process of generating the pseudo image area and the pseudo image area are simplified, the load can be easily suppressed. Accordingly, it is possible to make the user visually recognize the target image while suppressing the load related to the display of the image.

また、上記目的を達成するために、本発明は、第1及び第2表示部を備える表示装置を制御するコンピューターが実行可能なプログラムであって、前記コンピューターを、表示対象の画像を分割し、分割された画像を含む第1画像及び第2画像を、前記第1及び第2表示部に出力する画像処理部として機能させ、前記第1画像及び前記第2画像は、前記画像処理部により分割された画像で構成される画像領域と、疑似画像領域とを含み、前記第1画像及び前記第2画像の一方の前記疑似画像領域の状態を、他方の前記画像領域の状態に対応させること、を特徴とする。
本発明によれば、表示対象の画像の高解像度化や拡大等の処理を伴わず、若しくは、処理の負荷を抑えられる。さらに、画像を表示部に転送する転送速度を抑えられる。また、疑似画像領域を生成する処理、疑似画像領域を単純化すれば容易に負荷を抑えられる。従って、画像の表示に係る負荷を抑えて、対象の画像を使用者に視認させることができる。
In order to achieve the above object, the present invention is a program executable by a computer that controls a display device including first and second display units, and the computer divides an image to be displayed, The first image and the second image including the divided images are caused to function as an image processing unit that outputs to the first and second display units, and the first image and the second image are divided by the image processing unit. Including an image area composed of the processed image and a pseudo image area, wherein the state of one pseudo image area of the first image and the second image corresponds to the state of the other image area, It is characterized by.
According to the present invention, processing such as high resolution and enlargement of an image to be displayed is not involved, or the processing load can be suppressed. Furthermore, the transfer speed for transferring the image to the display unit can be suppressed. Further, if the process of generating the pseudo image area and the pseudo image area are simplified, the load can be easily suppressed. Accordingly, it is possible to make the user visually recognize the target image while suppressing the load related to the display of the image.

頭部装着型表示装置の外観構成を示す説明図である。It is explanatory drawing which shows the external appearance structure of a head mounted type display apparatus. 頭部装着型表示装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of a head mounted display apparatus. 頭部装着型表示装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a head mounting type display apparatus. 頭部装着型表示装置が表示する画像の例を示す説明図である。It is explanatory drawing which shows the example of the image which a head mounted display device displays. 頭部装着型表示装置が表示する画像の例を示す説明図である。It is explanatory drawing which shows the example of the image which a head mounted display device displays. 頭部装着型表示装置が表示する画像の例を示す説明図である。It is explanatory drawing which shows the example of the image which a head mounted display device displays. 頭部装着型表示装置が表示する画像の例を示す説明図である。It is explanatory drawing which shows the example of the image which a head mounted display device displays. 頭部装着型表示装置が表示する画像の例を示す説明図である。It is explanatory drawing which shows the example of the image which a head mounted display device displays. 頭部装着型表示装置が表示する画像の例を示す説明図である。It is explanatory drawing which shows the example of the image which a head mounted display device displays.

以下、図面を参照して本発明の実施形態について説明する。
図1は、頭部装着型表示装置100の外観構成を示す説明図である。頭部装着型表示装置100は、頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。本実施形態の頭部装着型表示装置100は、使用者が、虚像を視認すると同時に外景も直接視認可能な光学透過型の頭部装着型表示装置である。なお、本明細書では、頭部装着型表示装置100によって使用者が視認する虚像を便宜的に「表示画像」とも呼ぶ。また、画像データに基づいて生成される画像光を射出することを「画像を表示する」ともいう。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is an explanatory diagram showing an external configuration of the head-mounted display device 100. The head-mounted display device 100 is a display device mounted on the head, and is also called a head mounted display (HMD). The head-mounted display device 100 of the present embodiment is an optically transmissive head-mounted display device that allows a user to visually recognize a virtual image and at the same time directly view an outside scene. In this specification, a virtual image visually recognized by the user with the head-mounted display device 100 is also referred to as a “display image” for convenience. Moreover, emitting image light generated based on image data is also referred to as “displaying an image”.

頭部装着型表示装置100は、使用者の頭部に装着された状態において使用者に虚像を視認させる画像表示部20(表示部)と、画像表示部20を制御する制御装置(コントローラー)10と、を備えている。   The head-mounted display device 100 includes an image display unit 20 (display unit) that allows the user to visually recognize a virtual image when mounted on the user's head, and a control device (controller) 10 that controls the image display unit 20. And.

画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有している。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、カメラ61と、マイク63と、を備える。右光学像表示部26および左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右および左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに接続されている。   The image display unit 20 is a mounting body that is mounted on the user's head, and has a glasses shape in the present embodiment. The image display unit 20 includes a right holding unit 21, a right display driving unit 22, a left holding unit 23, a left display driving unit 24, a right optical image display unit 26, a left optical image display unit 28, and a camera 61. And a microphone 63. The right optical image display unit 26 and the left optical image display unit 28 are arranged so as to be positioned in front of the right and left eyes of the user when the user wears the image display unit 20, respectively. One end of the right optical image display unit 26 and one end of the left optical image display unit 28 are connected to each other at a position corresponding to the eyebrow of the user when the user wears the image display unit 20.

右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21および左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。   The right holding unit 21 extends from the end ER which is the other end of the right optical image display unit 26 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member. Similarly, the left holding unit 23 extends from the end EL which is the other end of the left optical image display unit 28 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member provided. The right holding unit 21 and the left holding unit 23 hold the image display unit 20 on the user's head like a temple of glasses.

右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。なお、以降では、右保持部21および左保持部23を総称して単に「保持部」とも呼び、右表示駆動部22および左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26および左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。   The right display drive unit 22 and the left display drive unit 24 are disposed on the side facing the user's head when the user wears the image display unit 20. Hereinafter, the right holding unit 21 and the left holding unit 23 are collectively referred to simply as “holding unit”, and the right display driving unit 22 and the left display driving unit 24 are collectively referred to simply as “display driving unit”. The right optical image display unit 26 and the left optical image display unit 28 are collectively referred to simply as “optical image display unit”.

表示駆動部22,24は、液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」とも呼ぶ)や投写光学系251,252等を含む(図2参照)。表示駆動部22,24の構成の詳細は後述する。光学部材としての光学像表示部26,28は、導光板261,262(図2参照)を備える。また、右光学像表示部26、28の前面側に調光板(図示略)を備えてもよい。導光板261,262は、光透過性の樹脂等によって形成され、表示駆動部22,24から出力された画像光を使用者の眼に導く。調光板は、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20の表側を覆うように配置すればよい。この調光板としては、光透過性がほぼゼロのもの、透明に近いもの、光量を減衰させて光を透過するもの、特定の波長の光を減衰または反射するもの等、種々のものを利用できる。調光板の光学特性(光透過率など)を適宜選択することにより、外部から右光学像表示部26および左光学像表示部28に入射する外光量を調整して、虚像の視認のしやすさを調整できる。本実施形態では、少なくとも、画像表示部20を装着した使用者が外の景色を視認できる程度の光透過性を有する調光板を用いる場合について説明する。この調光板は右導光板261、左導光板262を保護し、右導光板261、左導光板262の損傷や汚れの付着等を抑制するために役立つ。
調光板は右光学像表示部26および左光学像表示部28に対し着脱可能としてもよく、複数種類の調光板を交換して装着可能としてもよいし、省略してもよい。
The display driving units 22 and 24 include liquid crystal displays 241 and 242 (hereinafter referred to as “LCDs 241 and 242”), projection optical systems 251 and 252 (see FIG. 2). Details of the configuration of the display driving units 22 and 24 will be described later. The optical image display units 26 and 28 as optical members include light guide plates 261 and 262 (see FIG. 2). Moreover, you may equip the front side of the right optical image display parts 26 and 28 with a light control board (not shown). The light guide plates 261 and 262 are formed of a light transmissive resin or the like, and guide the image light output from the display driving units 22 and 24 to the user's eyes. The light control plate is a thin plate-like optical element, and may be disposed so as to cover the front side of the image display unit 20 which is the side opposite to the user's eye side. Various types of light control plates are used, such as those that have almost no light transmission, those that are nearly transparent, those that attenuate the amount of light and transmit light, and those that attenuate or reflect light of a specific wavelength. it can. By appropriately selecting the optical characteristics (light transmittance, etc.) of the light control plate, the amount of external light incident on the right optical image display unit 26 and the left optical image display unit 28 from the outside is adjusted to facilitate visual recognition of the virtual image. You can adjust the height. In the present embodiment, a case will be described in which at least a light control plate having such a light transmittance that a user wearing the image display unit 20 can visually recognize an outside scene is used. This light control plate protects the right light guide plate 261 and the left light guide plate 262, and is useful for suppressing damage to the right light guide plate 261 and the left light guide plate 262, adhesion of dirt, and the like.
The light control plate may be detachable with respect to the right optical image display unit 26 and the left optical image display unit 28, or a plurality of types of light control plates may be exchanged and may be omitted.

カメラ61は、右光学像表示部26の他端である端部ERに配置される。カメラ61は、使用者の眼の側とは反対側方向の外部の景色である外景を撮像し、外景画像を取得する。   The camera 61 is disposed at the end ER that is the other end of the right optical image display unit 26. The camera 61 captures an outside scene that is an external scenery in a direction opposite to the user's eye side, and acquires an outside scene image.

カメラ61の撮像方向すなわち画角は、画像表示部20の表側方向を撮像する方向である。換言すれば、カメラ61の画角は、画像表示部20を装着した状態における使用者の視界方向の少なくとも一部の外景を撮像する方向である。また、カメラ61の画角の広さは適宜設定可能であるが、カメラ61の撮像範囲が、使用者が右光学像表示部26、左光学像表示部28を通して視認する外界を含む範囲であることが好ましい。さらに、調光板を通した使用者の視界の全体を撮像できるようにカメラ61の撮像範囲が設定されていると、より好ましい。   The imaging direction, that is, the angle of view of the camera 61 is a direction in which the front side direction of the image display unit 20 is imaged. In other words, the angle of view of the camera 61 is a direction in which at least a part of the outside scene in the viewing direction of the user in a state where the image display unit 20 is mounted is imaged. In addition, although the angle of view of the camera 61 can be set as appropriate, the imaging range of the camera 61 is a range including the outside world that the user can visually recognize through the right optical image display unit 26 and the left optical image display unit 28. It is preferable. Furthermore, it is more preferable that the imaging range of the camera 61 is set so that the entire field of view of the user through the light control plate can be imaged.

画像表示部20は、さらに、画像表示部20を制御装置10に接続するための接続部40を有している。接続部40は、制御装置10に接続される本体コード48と、右コード42と、左コード44と、連結部材46と、を備える。右コード42と左コード44とは、本体コード48が2本に分岐したコードである。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続されている。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続されている。   The image display unit 20 further includes a connection unit 40 for connecting the image display unit 20 to the control device 10. The connection unit 40 includes a main body cord 48 connected to the control device 10, a right cord 42, a left cord 44, and a connecting member 46. The right cord 42 and the left cord 44 are codes in which the main body cord 48 is branched into two. The right cord 42 is inserted into the casing of the right holding unit 21 from the distal end AP in the extending direction of the right holding unit 21 and connected to the right display driving unit 22. Similarly, the left cord 44 is inserted into the housing of the left holding unit 23 from the distal end AP in the extending direction of the left holding unit 23 and connected to the left display driving unit 24.

連結部材46は、本体コード48と、右コード42および左コード44と、の分岐点に設けられ、イヤホンプラグ30を接続するためのジャックを有している。イヤホンプラグ30からは、右イヤホン32および左イヤホン34が延伸している。イヤホンプラグ30の近傍にはマイク63が設けられている。イヤホンプラグ30からマイク63までは一本のコードにまとめられ、マイク63からコードが分岐して、右イヤホン32と左イヤホン34のそれぞれに繋がっている。   The connecting member 46 is provided at a branch point between the main body cord 48, the right cord 42 and the left cord 44, and has a jack for connecting the earphone plug 30. A right earphone 32 and a left earphone 34 extend from the earphone plug 30. A microphone 63 is provided in the vicinity of the earphone plug 30. The earphone plug 30 to the microphone 63 are combined into one cord, and the cord branches from the microphone 63 and is connected to each of the right earphone 32 and the left earphone 34.

なお、右コード42と左コード44とを一本のコードにまとめることも可能である。具体的には、右コード42の内部の導線を、画像表示部20の本体内部を通して左保持部23側に引き込み、左コード44内部の導線とともに樹脂で被覆して、一本のコードにまとめてもよい。   It is also possible to combine the right code 42 and the left code 44 into one code. Specifically, the lead wire inside the right cord 42 is drawn into the left holding portion 23 side through the inside of the main body of the image display unit 20, and is covered with a resin together with the lead wire inside the left cord 44 to be combined into one cord. Also good.

画像表示部20と制御装置10とは、接続部40を介して各種信号の伝送を行なう。本体コード48における連結部材46とは反対側の端部と、制御装置10と、のそれぞれには、互いに嵌合するコネクター(図示略)が設けられている。本体コード48のコネクターと制御装置10のコネクターとの嵌合/嵌合解除により、制御装置10と画像表示部20とが接続されたり切り離されたりする。右コード42と、左コード44と、本体コード48とには、例えば、金属ケーブルや光ファイバーを採用できる。   The image display unit 20 and the control device 10 transmit various signals via the connection unit 40. A connector (not shown) that fits each other is provided at each of the end of the main body cord 48 opposite to the connecting member 46 and the control device 10. By fitting / releasing the connector of the main body cord 48 and the connector of the control device 10, the control device 10 and the image display unit 20 are connected or disconnected. For the right cord 42, the left cord 44, and the main body cord 48, for example, a metal cable or an optical fiber can be adopted.

制御装置10は、頭部装着型表示装置100を制御するための装置である。制御装置10は、決定キー11、点灯部12、表示切替キー13、輝度切替キー15、方向キー16、メニューキー17、及び電源スイッチ18を含むスイッチ類を備える。また、制御装置10は、使用者が指によりタッチ操作するトラックパッド14を備える。   The control device 10 is a device for controlling the head-mounted display device 100. The control device 10 includes switches including an enter key 11, a lighting unit 12, a display switching key 13, a luminance switching key 15, a direction key 16, a menu key 17, and a power switch 18. In addition, the control device 10 includes a track pad 14 that is touched by a user with a finger.

決定キー11は、押下操作を検出して、制御装置10で操作された内容を決定する信号を出力する。点灯部12は、頭部装着型表示装置100の動作状態を、その発光状態によって通知する。頭部装着型表示装置100の動作状態としては、例えば、電源のON/OFF等がある。点灯部12としては、例えば、LED(Light Emitting Diode)が用いられる。表示切替キー13は、押下操作を検出して、例えば、コンテンツ動画の表示モードを3Dと2Dとに切り替える信号を出力する。   The determination key 11 detects a pressing operation and outputs a signal for determining the content operated by the control device 10. The lighting unit 12 notifies the operation state of the head-mounted display device 100 by its light emission state. Examples of the operating state of the head-mounted display device 100 include power ON / OFF. For example, an LED (Light Emitting Diode) is used as the lighting unit 12. The display switching key 13 detects a pressing operation and outputs a signal for switching the display mode of the content video between 3D and 2D, for example.

トラックパッド14は、トラックパッド14の操作面上での使用者の指の操作を検出して、検出内容に応じた信号を出力する。トラックパッド14としては、静電式や圧力検出式、光学式といった種々のトラックパッドを採用できる。輝度切替キー15は、押下操作を検出して、画像表示部20の輝度を増減する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、頭部装着型表示装置100の電源投入状態を切り替える。   The track pad 14 detects the operation of the user's finger on the operation surface of the track pad 14 and outputs a signal corresponding to the detected content. As the track pad 14, various track pads such as an electrostatic type, a pressure detection type, and an optical type can be adopted. The luminance switching key 15 detects a pressing operation and outputs a signal for increasing or decreasing the luminance of the image display unit 20. The direction key 16 detects a pressing operation on a key corresponding to the up / down / left / right direction, and outputs a signal corresponding to the detected content. The power switch 18 switches the power-on state of the head-mounted display device 100 by detecting a slide operation of the switch.

図2は、頭部装着型表示装置100の機能ブロック図である。図2には、頭部装着型表示装置100に接続する画像供給装置OAを、合わせて図示する。頭部装着型表示装置100は、画像供給装置OAとともに、表示システムを構成できる。
図2に示すように、制御装置10は、制御部140と、操作部135と、入力情報取得部110と、記憶部120と、電源130と、インターフェイス180と、送信部(Tx)51および送信部(Tx)52と、を有している。
操作部135は、使用者による操作を検出する。操作部135は、図1に示した決定キー11、表示切替キー13、トラックパッド14、輝度切替キー15、方向キー16、メニューキー17、電源スイッチ18の各部を備える。
FIG. 2 is a functional block diagram of the head-mounted display device 100. FIG. 2 also illustrates the image supply device OA connected to the head-mounted display device 100. The head-mounted display device 100 can constitute a display system together with the image supply device OA.
As shown in FIG. 2, the control device 10 includes a control unit 140, an operation unit 135, an input information acquisition unit 110, a storage unit 120, a power supply 130, an interface 180, a transmission unit (Tx) 51 and a transmission. Part (Tx) 52.
The operation unit 135 detects an operation by the user. The operation unit 135 includes the determination key 11, the display switching key 13, the track pad 14, the luminance switching key 15, the direction key 16, the menu key 17, and the power switch 18 shown in FIG.

入力情報取得部110は、使用者による操作入力に応じた信号を取得する。操作入力に応じた信号としては、例えば、トラックパッド14、方向キー16、電源スイッチ18、に対する操作入力がある。
電源130は、頭部装着型表示装置100の各部に電力を供給する。電源130としては、例えば二次電池を利用できる。
The input information acquisition unit 110 acquires a signal corresponding to an operation input by the user. As a signal corresponding to the operation input, for example, there is an operation input to the track pad 14, the direction key 16, and the power switch 18.
The power supply 130 supplies power to each part of the head-mounted display device 100. As the power supply 130, for example, a secondary battery can be used.

記憶部120は、種々のコンピュータープログラムを格納している。記憶部120は、ROMやRAM等によって構成されている。
制御部140は、CPU、ROM、RAM等を備え、ROMまたは記憶部120に記憶されたプログラムを実行することにより、頭部装着型表示装置100の各部を制御する。制御部140は、上記プログラムを実行することにより、頭部装着型表示装置100の基本制御システムであるオペレーティングシステム(ОS)150として機能する。また、制御部140は、上記プログラムを実行して、画像処理部160、分割制御部164、音声処理部170、及び表示制御部190として機能する。これらの機能はオペレーティングシステム150の一部であってもよいし、オペレーティングシステム150上で動作するアプリケーションプログラムの機能であってもよい。
The storage unit 120 stores various computer programs. The storage unit 120 is configured by a ROM, a RAM, or the like.
The control unit 140 includes a CPU, a ROM, a RAM, and the like, and controls each unit of the head-mounted display device 100 by executing a program stored in the ROM or the storage unit 120. The control unit 140 functions as an operating system (OS) 150 that is a basic control system of the head-mounted display device 100 by executing the program. Further, the control unit 140 executes the above-described program and functions as an image processing unit 160, a division control unit 164, an audio processing unit 170, and a display control unit 190. These functions may be part of the operating system 150, or may be functions of application programs that operate on the operating system 150.

画像処理部160は、コンテンツに含まれる画像信号を取得する。画像処理部160は、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離する。また、画像処理部160は、分離した垂直同期信号VSyncや水平同期信号HSyncの周期に応じて、PLL(Phase Locked Loop)回路等(図示略)を利用してクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等(図示略)を用いてディジタル画像信号に変換する。その後、画像処理部160は、変換後のディジタル画像信号を、対象画像の画像データ(図中、Data)として、1フレームごとに記憶部120内のDRAMに格納する。この画像データは、例えばRGBデータである。
なお、画像処理部160は、必要に応じて、画像データに対して、解像度変換処理、輝度、彩度の調整といった種々の色調補正処理、キーストーン補正処理等の画像処理を実行してもよい。
The image processing unit 160 acquires an image signal included in the content. The image processing unit 160 separates synchronization signals such as the vertical synchronization signal VSync and the horizontal synchronization signal HSync from the acquired image signal. Further, the image processing unit 160 generates a clock signal PCLK using a PLL (Phase Locked Loop) circuit or the like (not shown) according to the period of the separated vertical synchronization signal VSync and horizontal synchronization signal HSync. The image processing unit 160 converts the analog image signal from which the synchronization signal is separated into a digital image signal using an A / D conversion circuit or the like (not shown). Thereafter, the image processing unit 160 stores the converted digital image signal in the DRAM in the storage unit 120 frame by frame as image data (Data in the figure) of the target image. This image data is, for example, RGB data.
Note that the image processing unit 160 may execute image processing such as various tone correction processing such as resolution conversion processing, brightness and saturation adjustment, and keystone correction processing on the image data as necessary. .

画像処理部160は、生成されるクロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、記憶部120内のDRAMに格納された画像データData、のそれぞれを、送信部51、52を介して送信する。なお、送信部51を介して送信される画像データDataを「右眼用画像データ」とも呼び、送信部52を介して送信される画像データDataを「左眼用画像データ」とも呼ぶ。送信部51、52は、制御装置10と画像表示部20との間におけるシリアル伝送のためのトランシーバーとして機能する。   The image processing unit 160 transmits the generated clock signal PCLK, vertical synchronization signal VSync, horizontal synchronization signal HSync, and image data Data stored in the DRAM in the storage unit 120 via the transmission units 51 and 52, respectively. To do. The image data Data transmitted via the transmission unit 51 is also referred to as “right eye image data”, and the image data Data transmitted via the transmission unit 52 is also referred to as “left eye image data”. The transmission units 51 and 52 function as a transceiver for serial transmission between the control device 10 and the image display unit 20.

表示制御部190は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部190は、制御信号により、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFF、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFなど、を個別に制御する。これにより、表示制御部190は、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。例えば、表示制御部190は、右表示駆動部22および左表示駆動部24の両方に画像光を生成させたり、一方のみに画像光を生成させたり、両方共に画像光を生成させなかったりする。   The display control unit 190 generates control signals for controlling the right display drive unit 22 and the left display drive unit 24. Specifically, the display control unit 190 controls driving of the right LCD 241 by the right LCD control unit 211, driving ON / OFF of the right backlight 221 by the right backlight control unit 201, and left LCD control unit according to control signals. The left LCD 242 driving ON / OFF by 212, the left backlight 222 driving ON / OFF by the left backlight control unit 202, and the like are individually controlled. Thus, the display control unit 190 controls the generation and emission of image light by the right display driving unit 22 and the left display driving unit 24, respectively. For example, the display control unit 190 may cause both the right display driving unit 22 and the left display driving unit 24 to generate image light, generate only one image light, or neither may generate image light.

表示制御部190は、右LCD制御部211と左LCD制御部212とに対する制御信号のそれぞれを、送信部51および52を介して送信する。また、表示制御部190は、右バックライト制御部201と左バックライト制御部202とに対する制御信号のそれぞれを送信する。   The display control unit 190 transmits control signals for the right LCD control unit 211 and the left LCD control unit 212 via the transmission units 51 and 52, respectively. In addition, the display control unit 190 transmits control signals to the right backlight control unit 201 and the left backlight control unit 202, respectively.

頭部装着型表示装置100は、画像処理部160及び表示制御部190の機能により、後述するインターフェイス180または通信部117を介して入力されるコンテンツの画像を、画像表示部20により表示させる。表示するコンテンツが2D(平面)の静止画像または動画像である場合、右表示駆動部22及び左表示駆動部24は、同じ画像を表示する。画像処理部160は、記憶部120内のDRAMに格納した画像データを、送信部51から右眼用画像データとして送信し、送信部52から、左眼用画像データとして送信する。つまり、画像処理部160は右眼用及び左眼用の2つの画像データを処理する。画像データが高解像度である場合や、フレームレートが高い場合には、画像処理部160の処理負荷が大きくなる。処理負荷が過大であると、制御部140を構成するハードウェアの発熱量の増大、消費電力の増大、不要輻射の原因となる高調波の発生等が懸念される。このため、処理負荷の増大に見合った放熱対策、十分な電源容量の確保、ハードウェア性能の強化などが行われることから、構成の複雑化によるコスト増、装置の大型化を招いてしまう。   The head-mounted display device 100 causes the image display unit 20 to display an image of content input via the interface 180 or the communication unit 117 described later by the functions of the image processing unit 160 and the display control unit 190. When the content to be displayed is a 2D (planar) still image or moving image, the right display driving unit 22 and the left display driving unit 24 display the same image. The image processing unit 160 transmits the image data stored in the DRAM in the storage unit 120 as image data for the right eye from the transmission unit 51 and transmits it as image data for the left eye from the transmission unit 52. That is, the image processing unit 160 processes two image data for the right eye and the left eye. When the image data has a high resolution or a high frame rate, the processing load on the image processing unit 160 increases. If the processing load is excessive, there is a concern about an increase in the amount of heat generated by the hardware constituting the control unit 140, an increase in power consumption, and generation of harmonics that cause unnecessary radiation. For this reason, heat dissipation measures commensurate with an increase in processing load, securing a sufficient power supply capacity, and enhancing hardware performance are performed, resulting in an increase in cost due to a complicated configuration and an increase in size of the apparatus.

本実施形態の頭部装着型表示装置100は、分割制御部164を備え、分割制御部164の機能により分割表示を実行し、これにより画像処理部160の処理負荷を軽減できる。
分割表示は、コンテンツの画像を分割し、右表示駆動部22と左表示駆動部24に、分けて表示する方法である。画像処理部160が、コンテンツの画像から右眼用画像データ及び左眼用画像データを生成する処理で、複製による画像データのデータ量の増加を抑えることができるため、処理負荷を軽減できる。分割表示の詳細については後述する。
The head-mounted display device 100 according to the present embodiment includes a division control unit 164 and performs division display using the function of the division control unit 164, thereby reducing the processing load on the image processing unit 160.
The split display is a method of dividing the content image and displaying it separately on the right display drive unit 22 and the left display drive unit 24. Since the image processing unit 160 generates the right-eye image data and the left-eye image data from the content image, an increase in the amount of image data due to copying can be suppressed, so that the processing load can be reduced. Details of the split display will be described later.

音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、連結部材46に接続された右イヤホン32内のスピーカー(図示略)および左イヤホン34内のスピーカー(図示略)に対して供給する。なお、例えば、Dolby(登録商標)システムを採用した場合、音声信号に対する処理がなされ、右イヤホン32および左イヤホン34のそれぞれからは、例えば周波数等が変えられた異なる音が出力される。また、音声処理部170は、マイク63により集音されて入力される音声を取得してディジタル音声データに変換し、音声に係る処理を行う。例えば、音声処理部170は、取得した音声から特徴を抽出してモデル化することで、複数の人の声を別々に認識して、声ごとに話している人を特定する話者認識を行ってもよい。   The audio processing unit 170 acquires an audio signal included in the content, amplifies the acquired audio signal, and a speaker (not shown) in the right earphone 32 and a speaker in the left earphone 34 (not shown) connected to the connecting member 46. (Not shown). For example, when the Dolby (registered trademark) system is adopted, processing on the audio signal is performed, and different sounds with different frequencies or the like are output from the right earphone 32 and the left earphone 34, for example. In addition, the voice processing unit 170 acquires the voice collected and input by the microphone 63, converts it into digital voice data, and performs processing related to the voice. For example, the speech processing unit 170 performs speaker recognition that identifies a person who speaks for each voice by recognizing voices of a plurality of persons separately by extracting and modeling features from the acquired speech. May be.

制御部140には、3軸センサー113、GPS115、及び通信部117が接続される。3軸センサー113は3軸の加速度センサーであり、制御部140は3軸センサー113の検出値を取得して、制御装置10の動き及び動きの方向を検出可能である。
GPS115は、アンテナ(図示略)を備え、GPS(Global Positioning System)信号を受信し、制御装置10の現在位置を求める。GPS115は、GPS信号に基づいて求めた現在位置や現在時刻を制御部140に出力する。また、GPS115はGPS信号に含まれる情報に基づいて現在時刻を取得し、制御装置10の制御部140が計時する時刻を修正させる機能を備えていてもよい。
通信部117は、無線LAN(WiFi(登録商標))やBluetooth(登録商標)規格に準じた無線データ通信を実行する。
A three-axis sensor 113, a GPS 115, and a communication unit 117 are connected to the control unit 140. The triaxial sensor 113 is a triaxial acceleration sensor, and the control unit 140 can detect the detection value of the triaxial sensor 113 and detect the movement and the direction of movement of the control device 10.
The GPS 115 includes an antenna (not shown), receives a GPS (Global Positioning System) signal, and obtains the current position of the control device 10. The GPS 115 outputs the current position and the current time obtained based on the GPS signal to the control unit 140. Further, the GPS 115 may have a function of acquiring the current time based on information included in the GPS signal and correcting the time counted by the control unit 140 of the control device 10.
The communication unit 117 performs wireless data communication conforming to a wireless LAN (WiFi (registered trademark)) or Bluetooth (registered trademark) standard.

インターフェイス180は、制御装置10に対して、コンテンツの供給元となる種々の画像供給装置OAを接続するためのインターフェイスである。画像供給装置OAが供給するコンテンツは、静止画像または動画像を含み、音声を含んでもよい。画像供給装置OAとしては、例えば、パーソナルコンピューター(PC)や携帯電話端末、ゲーム端末等、がある。インターフェイス180としては、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等、を利用できる。
ここで、画像供給装置OAを無線通信回線により制御装置10に接続することも可能である。この場合、画像供給装置OAは、通信部117と無線通信を実行して、コンテンツのデータをMiracast(登録商標)等の無線通信技術により送信する。
The interface 180 is an interface for connecting various image supply apparatuses OA that are content supply sources to the control apparatus 10. The content supplied by the image supply device OA includes a still image or a moving image, and may include sound. Examples of the image supply device OA include a personal computer (PC), a mobile phone terminal, and a game terminal. As the interface 180, for example, a USB interface, a micro USB interface, a memory card interface, or the like can be used.
Here, it is also possible to connect the image supply device OA to the control device 10 by a wireless communication line. In this case, the image supply device OA performs wireless communication with the communication unit 117 and transmits content data using a wireless communication technique such as Miracast (registered trademark).

画像表示部20は、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、カメラ61と、振動センサー65と、9軸センサー66と、を備えている。   The image display unit 20 includes a right display drive unit 22, a left display drive unit 24, a right light guide plate 261 as a right optical image display unit 26, a left light guide plate 262 as a left optical image display unit 28, and a camera 61. And a vibration sensor 65 and a nine-axis sensor 66.

振動センサー65は、加速度センサーを利用して構成され、図1に示すように画像表示部20の内部に配置される。図1の例では右保持部21において、右光学像表示部26の端部ERの近傍に内蔵される。振動センサー65は、使用者が端部ERを叩く操作(ノック操作)を行った場合に、この操作による振動を検出して、検出結果を制御部140に出力する。振動センサー65の検出結果により、制御部140は、使用者によるノック操作を検出する。   The vibration sensor 65 is configured using an acceleration sensor, and is arranged inside the image display unit 20 as shown in FIG. In the example of FIG. 1, the right holding unit 21 is built in the vicinity of the end ER of the right optical image display unit 26. When the user performs an operation of hitting the end ER (knock operation), the vibration sensor 65 detects vibration caused by this operation and outputs the detection result to the control unit 140. Based on the detection result of the vibration sensor 65, the control unit 140 detects a knocking operation by the user.

9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)、を検出するモーションセンサーである。9軸センサー66は、画像表示部20に設けられているため、画像表示部20が使用者の頭部に装着されているときには、使用者の頭部の動きを検出する。例えば、制御部140は、9軸センサー66で検出された使用者の頭部の動きから画像表示部20の向きを判定し、使用者の視線方向を推定できる。   The 9-axis sensor 66 is a motion sensor that detects acceleration (3 axes), angular velocity (3 axes), and geomagnetism (3 axes). Since the 9-axis sensor 66 is provided in the image display unit 20, when the image display unit 20 is mounted on the user's head, the movement of the user's head is detected. For example, the control unit 140 can determine the orientation of the image display unit 20 from the movement of the user's head detected by the 9-axis sensor 66, and can estimate the user's line-of-sight direction.

右表示駆動部22は、受信部(Rx)53と、光源として機能する右バックライト(BL)制御部201および右バックライト(BL)221と、表示素子として機能する右LCD制御部211および右LCD241と、右投写光学系251と、を備える。右バックライト制御部201と右バックライト221とは、光源として機能する。右LCD制御部211と右LCD241とは、表示素子として機能する。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241と、を総称して「画像光生成部」とも呼ぶ。   The right display driving unit 22 includes a receiving unit (Rx) 53, a right backlight (BL) control unit 201 and a right backlight (BL) 221 that function as a light source, a right LCD control unit 211 that functions as a display element, and a right An LCD 241 and a right projection optical system 251 are provided. The right backlight control unit 201 and the right backlight 221 function as a light source. The right LCD control unit 211 and the right LCD 241 function as display elements. The right backlight control unit 201, the right LCD control unit 211, the right backlight 221 and the right LCD 241 are collectively referred to as “image light generation unit”.

受信部53は、制御装置10と画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右バックライト221は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データData1と、に基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。   The receiving unit 53 functions as a receiver for serial transmission between the control device 10 and the image display unit 20. The right backlight control unit 201 drives the right backlight 221 based on the input control signal. The right backlight 221 is a light emitter such as an LED or electroluminescence (EL). The right LCD control unit 211 drives the right LCD 241 based on the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the right eye image data Data1 input through the reception unit 53. . The right LCD 241 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix.

右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。右光学像表示部26としての右導光板261は、右投写光学系251から出力された画像光を、所定の光路に沿って反射させつつ使用者の右眼REに導く。なお、右投写光学系251と右導光板261とを総称して「導光部」とも呼ぶ。   The right projection optical system 251 is configured by a collimator lens that converts the image light emitted from the right LCD 241 to light beams in a parallel state. The right light guide plate 261 as the right optical image display unit 26 guides the image light output from the right projection optical system 251 to the right eye RE of the user while reflecting the image light along a predetermined optical path. The right projection optical system 251 and the right light guide plate 261 are collectively referred to as “light guide unit”.

左表示駆動部24は、右表示駆動部22と同様の構成を有している。左表示駆動部24は、受信部(Rx)54と、光源として機能する左バックライト(BL)制御部202および左バックライト(BL)222と、表示素子として機能する左LCD制御部212および左LCD242と、左投写光学系252と、を備える。左バックライト制御部202と左バックライト222とは、光源として機能する。左LCD制御部212と左LCD242とは、表示素子として機能する。
なお、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242と、を総称して「画像光生成部」とも呼ぶ。また、左投写光学系252は、左LCD242から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。左光学像表示部28としての左導光板262は、左投写光学系252から出力された画像光を、所定の光路に沿って反射させつつ使用者の左眼LEに導く。なお、左投写光学系252と左導光板262とを総称して「導光部」とも呼ぶ。
The left display drive unit 24 has the same configuration as the right display drive unit 22. The left display driving unit 24 includes a receiving unit (Rx) 54, a left backlight (BL) control unit 202 and a left backlight (BL) 222 that function as a light source, a left LCD control unit 212 and a left that function as a display element. An LCD 242 and a left projection optical system 252 are provided. The left backlight control unit 202 and the left backlight 222 function as a light source. The left LCD control unit 212 and the left LCD 242 function as display elements.
The left backlight control unit 202, the left LCD control unit 212, the left backlight 222, and the left LCD 242 are also collectively referred to as “image light generation unit”. The left projection optical system 252 is configured by a collimating lens that converts the image light emitted from the left LCD 242 into a light beam in a parallel state. The left light guide plate 262 as the left optical image display unit 28 guides the image light output from the left projection optical system 252 to the left eye LE of the user while reflecting the image light along a predetermined optical path. The left projection optical system 252 and the left light guide plate 262 are collectively referred to as “light guide unit”.

そして、左表示駆動部24及び左導光板262は、使用者の左眼に対応して画像を表示する第1表示部を構成する。また、右表示駆動部22及び右導光板261は、使用者の右眼に対応して画像を表示する第2表示部を構成する。   And the left display drive part 24 and the left light-guide plate 262 comprise the 1st display part which displays an image corresponding to a user's left eye. The right display drive unit 22 and the right light guide plate 261 constitute a second display unit that displays an image corresponding to the right eye of the user.

図3は、頭部装着型表示装置100の動作を示すフローチャートであり、特に、分割制御部164の機能を利用した、分割表示に係る動作を示す。
画像処理部160及び表示制御部190は、インターフェイス180または通信部117でコンテンツが入力され、操作部135の操作によりコンテンツの表示が指示されると、分割表示を開始する(ステップS11)。
ここで、通常の画像の表示を実行するか、分割表示を実行するかは、予め設定される。また、画像処理部160及び表示制御部190は、画像供給装置OAから入力されるコンテンツの画像について、アスペクト比、表示サイズまたは表示解像度、表示リフレッシュレート等の属性を判定し、判定した属性に合わせて、分割表示を実行するか否かを判定してもよい。また、判定した属性に対応付けて自動的に判定を行ってもよいし、属性が、使用者が設定した条件に該当する場合に分割表示を実行してもよい。さらに、分割表示を実行するか否かを選択する入力操作を、使用者が実行可能なようにしてもよい。
FIG. 3 is a flowchart showing the operation of the head-mounted display device 100, and particularly shows the operation related to split display using the function of the split control unit 164.
When the content is input through the interface 180 or the communication unit 117 and the display of the content is instructed by the operation of the operation unit 135, the image processing unit 160 and the display control unit 190 start split display (step S11).
Here, whether to perform normal image display or to perform divided display is set in advance. In addition, the image processing unit 160 and the display control unit 190 determine attributes such as an aspect ratio, a display size or a display resolution, and a display refresh rate for the content image input from the image supply device OA, and match the determined attributes. Thus, it may be determined whether or not to perform split display. Further, the determination may be automatically performed in association with the determined attribute, or the divided display may be executed when the attribute corresponds to the condition set by the user. Further, an input operation for selecting whether or not to perform divided display may be performed by the user.

画像処理部160は、コンテンツに含まれる画像信号を取得し、コンテンツの画像を構成するディジタル画像信号を、対象画像の画像データ(図中、Data)として、1フレームごとに記憶部120内のDRAMに格納する(ステップS12)。
続いて、分割制御部164が、例えば記憶部120に記憶された設定データ123を参照して、画像の分割に関する設定を取得する(ステップS13)。設定データ123は、画像処理部160が取得したコンテンツの画像データの分割の態様について設定するデータである。画像データの分割の態様は、縦(垂直方向)半分、横(水平方向)半分、横ライン単位、縦ライン単位、ドット単位など、各種の態様があり、分割した各データの重複部を設けてもよいし、マーカーを付してもよい。分割の態様については図4〜図9に具体例を挙げて後述する。なお、マーカーとは、例えばバーコード等の1次元コード、QRコード(登録商標)等の2次元コード、或いはその他の機械認識可能なマーカー等が挙げられ、情報を含むものであっても含まないものであってもよい。
The image processing unit 160 acquires an image signal included in the content, and converts the digital image signal constituting the image of the content into image data (Data in the figure) of the target image for each frame in the DRAM in the storage unit 120. (Step S12).
Subsequently, the division control unit 164 refers to the setting data 123 stored in the storage unit 120, for example, and acquires settings related to image division (step S13). The setting data 123 is data that is set for a mode of dividing image data of content acquired by the image processing unit 160. There are various modes of image data division, such as vertical (vertical direction) half, horizontal (horizontal direction) half, horizontal line unit, vertical line unit, dot unit, and the like. Alternatively, a marker may be attached. The mode of division will be described later with specific examples shown in FIGS. The marker includes, for example, a one-dimensional code such as a bar code, a two-dimensional code such as a QR code (registered trademark), or other machine-recognizable marker, and does not include information including information. It may be a thing.

分割制御部164は、画像処理部160によって、記憶部120のDRAMに格納された画像データを分割させる(ステップS14)。さらに、分割制御部164は、画像処理部160によって、分割後の画像データを含む左眼用画像データ(第1画像)及び右眼用画像データ(第2画像)を生成させる(ステップS15)。
その後、画像処理部160は、右眼用画像データを送信部51を介して右表示駆動部22に送信し、左眼用画像データを送信部52を介して左表示駆動部24に送信し、右眼用の画像と左眼用の画像とを表示させる(ステップS16)。
The division control unit 164 causes the image processing unit 160 to divide the image data stored in the DRAM of the storage unit 120 (step S14). Furthermore, the division control unit 164 causes the image processing unit 160 to generate image data for the left eye (first image) and image data for the right eye (second image) including the image data after the division (step S15).
Thereafter, the image processing unit 160 transmits the right-eye image data to the right display driving unit 22 via the transmission unit 51, and transmits the left-eye image data to the left display driving unit 24 via the transmission unit 52. The right eye image and the left eye image are displayed (step S16).

制御部140は、表示の終了に関する指示の有無を判別し(ステップS17)、表示を継続する場合(ステップS17;NO)はステップS12に戻る。また、操作部135により表示終了の指示がされた場合は(ステップS17;YES)、本処理を終了する。   The control unit 140 determines whether or not there is an instruction regarding the end of the display (step S17). When the display end instruction is given by the operation unit 135 (step S17; YES), this process ends.

図4〜図9は、分割表示の具体的な例を示す図である。
図4は、縦方向(上下方向、高さ方向、垂直方向)における所定位置で画像を分割する例を示す図である。図4(A)は分割前のコンテンツの画像(分割前画像)350を示し、(B)は分割された一方の画像(分割画像)351を示し、(C)は分割された他方の画像(分割画像)353を示す。図4(D)は分割画像351をもとにした左眼用画像352を示し、図4(E)は分割画像353をもとにした右眼用画像354を示す。
4 to 9 are diagrams illustrating specific examples of divided display.
FIG. 4 is a diagram illustrating an example in which an image is divided at predetermined positions in the vertical direction (vertical direction, height direction, vertical direction). 4A shows an image (content before division) 350 of content before division, (B) shows one divided image (divided image) 351, and (C) shows the other divided image ( A divided image) 353 is shown. 4D shows a left-eye image 352 based on the divided image 351, and FIG. 4E shows a right-eye image 354 based on the divided image 353.

図4の例では、画像処理部160は、分割前画像350(表示対称の画像)を上下方向に2分割する。分割する位置は、分割前画像350の上下方向における中心であり、分割前画像350が均等に分割される。分割された分割画像351と分割画像353の縦方向のサイズは同一である。また、分割画像351、353の横方向のサイズは分割前画像350と同一である。
分割画像351は分割前画像350の上半分に相当する。分割画像351は、縦方向の解像度(画素数)が分割前画像350の半分であるため、画像処理部160は、分割画像351をもとに左眼用画像352(第1画像)を出力する。左眼用画像352は、画像領域352Aと、疑似画像領域352Bとで構成される。画像領域352Aは分割画像351であり、疑似画像領域352Bは縦方向の解像度を調整するために画像処理部160が追加するダミーのデータである。
また、画像処理部160は、分割画像353をもとに右眼用画像354(第2画像)を出力する。右眼用画像354は、画像領域354Aと、疑似画像領域354Bとで構成される。画像領域354Aは分割画像353であり、疑似画像領域354Bは、縦方向の解像度を調整するために画像処理部160が追加するダミーのデータである。
In the example of FIG. 4, the image processing unit 160 divides the pre-division image 350 (display-symmetric image) into two in the vertical direction. The division position is the center of the pre-division image 350 in the vertical direction, and the pre-division image 350 is divided equally. The vertical size of the divided image 351 and the divided image 353 is the same. The horizontal size of the divided images 351 and 353 is the same as that of the pre-division image 350.
The divided image 351 corresponds to the upper half of the pre-division image 350. Since the divided image 351 has half the vertical resolution (number of pixels) of the pre-division image 350, the image processing unit 160 outputs the left-eye image 352 (first image) based on the divided image 351. . The left-eye image 352 includes an image area 352A and a pseudo image area 352B. The image area 352A is a divided image 351, and the pseudo image area 352B is dummy data added by the image processing unit 160 to adjust the vertical resolution.
Further, the image processing unit 160 outputs a right-eye image 354 (second image) based on the divided image 353. The right eye image 354 includes an image region 354A and a pseudo image region 354B. The image area 354A is a divided image 353, and the pseudo image area 354B is dummy data added by the image processing unit 160 in order to adjust the resolution in the vertical direction.

この例では、左眼用画像352が左表示駆動部24に出力され、左光学像表示部28により表示される。また、右眼用画像354が右表示駆動部22に出力され、右光学像表示部26により表示される。使用者には、左眼用画像352の画像光が左眼に入射し、右眼用画像354の画像光が右眼に入射するので、左眼に左眼用画像352が、右眼に右眼用画像354が見える。人間の脳には左眼と右眼に見える画像を合成する働きがあることが経験上、明らかになっており、使用者は、本実施形態で表示される左眼用画像352及び右眼用画像354を合成する。これにより、使用者は合成された分割前画像350を認識する。   In this example, the left-eye image 352 is output to the left display drive unit 24 and displayed by the left optical image display unit 28. The right-eye image 354 is output to the right display drive unit 22 and displayed by the right optical image display unit 26. Since the image light of the left eye image 352 is incident on the left eye and the image light of the right eye image 354 is incident on the right eye, the left eye image 352 is displayed on the left eye and the right eye is displayed on the right eye. An eye image 354 is visible. Experience has shown that the human brain has a function of synthesizing images that are visible to the left and right eyes, and the user can use the left-eye image 352 and the right-eye image displayed in this embodiment. The image 354 is synthesized. As a result, the user recognizes the synthesized pre-division image 350.

特に、左眼用画像352の疑似画像領域352Bは、右眼用画像354の画像領域354Aと同じサイズ、同じ画素数となっており、右眼用画像354の疑似画像領域354Bは、左眼用画像352の画像領域352Aと同じサイズ、同じ画素数となっている。このように、疑似画像領域352Bは画像領域354Aに対応し、疑似画像領域354Bは画像領域352Aに対応する。つまり、使用者の一方の眼に分割前画像350の一部が見える位置では、他方の眼にはダミーデータが見える。このため、使用者の脳の働きにより画像を合成する際に、画像とダミーデータとが重ね合わされるので、自然に画像の重ね合わせがなされ、無理なく、使用者は分割前画像350を認識できる。   In particular, the pseudo image area 352B of the left eye image 352 has the same size and the same number of pixels as the image area 354A of the right eye image 354, and the pseudo image area 354B of the right eye image 354 is the left eye image 354B. It has the same size and the same number of pixels as the image area 352A of the image 352. As described above, the pseudo image area 352B corresponds to the image area 354A, and the pseudo image area 354B corresponds to the image area 352A. That is, at a position where a part of the pre-division image 350 is visible to one eye of the user, dummy data is visible to the other eye. For this reason, when the image is synthesized by the action of the user's brain, the image and the dummy data are superimposed, so that the image is naturally superimposed, and the user can recognize the pre-division image 350 without difficulty. .

分割前画像350の上半分である分割画像351は、左眼用画像352の上半分である画像領域352Aとなっており、分割前画像350の下半分である分割画像353は、右眼用画像354の下半分である画像領域354Aとなっている。つまり、画像領域352A、354Aは、対応する分割画像が分割前画像350で占めていた位置と、同じ位置に配置される。このため、使用者は、より自然に画像を重ね合わせて分割前画像350を認識できる。   The divided image 351 that is the upper half of the pre-division image 350 is an image region 352A that is the upper half of the left-eye image 352, and the divided image 353 that is the lower half of the pre-division image 350 is the right-eye image. An image region 354A which is the lower half of 354 is formed. That is, the image regions 352A and 354A are arranged at the same position as the position occupied by the corresponding divided image in the pre-division image 350. For this reason, the user can recognize the pre-division image 350 by overlapping images more naturally.

また、左光学像表示部28の表示可能領域における左眼用画像352の表示位置と、右光学像表示部26の表示可能領域における右眼用画像354の表示位置とは、同じ位置にすることが望ましい。さらに、左光学像表示部28の表示可能領域における左眼用画像352の表示サイズと、右光学像表示部26の表示可能領域における右眼用画像354の表示サイズが、同じサイズであると、より好ましい。この場合、使用者の左眼に見える左眼用画像352の位置と、右眼に見える右眼用画像354の位置とが一致するので、使用者が左右の眼の視野を合成して分割前画像350を認識しやすいという利点がある。ここで、表示可能領域とは、右光学像表示部26、左光学像表示部28が画像を表示できる領域をいう。   Further, the display position of the left eye image 352 in the displayable area of the left optical image display unit 28 and the display position of the right eye image 354 in the displayable area of the right optical image display unit 26 are set to the same position. Is desirable. Furthermore, when the display size of the left-eye image 352 in the displayable region of the left optical image display unit 28 and the display size of the right-eye image 354 in the displayable region of the right optical image display unit 26 are the same size, More preferred. In this case, since the position of the left-eye image 352 that can be seen by the user's left eye and the position of the right-eye image 354 that can be seen by the right eye coincide, There is an advantage that the image 350 can be easily recognized. Here, the displayable area refers to an area where the right optical image display unit 26 and the left optical image display unit 28 can display an image.

発明者らの検討により、左眼用画像352及び右眼用画像354の表示サイズが使用者の視認性に与える影響として、次のことが明らかになった。
表示サイズが大きい場合、画像領域352A、354Aが見えるほか、疑似画像領域352B、354Bが明瞭に視認される。このため、疑似画像領域352B、354Bが目立つことで、画像領域352A、354Aがぼやけて見える傾向がある。また、表示サイズが大きいほど左眼用画像352及び右眼用画像354が明るく見えることが判明した。これは、左眼用画像352及び右眼用画像354の光量が多いためだと考えられる。
これに対し、表示サイズが小さい場合には、疑似画像領域352B、354Bが目立ちにくく、画像領域352A、354Aが明瞭に見える傾向があった。また、画像領域352A、354Aのずれが小さく、正しく重ね合わされた状態で分割前画像350を視認することができたが、表示サイズが小さいほど認識される画像が暗くなった。
このことから、左眼用画像352及び右眼用画像354の表示サイズは小さい方が好ましく、例えば、右光学像表示部26、左光学像表示部28の表示可能領域に対し、縦方向及び横方向のいずれにも半分以下のサイズであると、好ましい。
As a result of the study by the inventors, the following has been clarified as the influence of the display size of the left-eye image 352 and the right-eye image 354 on the visibility of the user.
When the display size is large, the image areas 352A and 354A are visible, and the pseudo image areas 352B and 354B are clearly visible. For this reason, when the pseudo image areas 352B and 354B are conspicuous, the image areas 352A and 354A tend to appear blurred. It was also found that the left-eye image 352 and the right-eye image 354 appear brighter as the display size is larger. This is considered to be because the amount of light in the left-eye image 352 and the right-eye image 354 is large.
On the other hand, when the display size is small, the pseudo image areas 352B and 354B are not conspicuous and the image areas 352A and 354A tend to be clearly visible. In addition, the image areas 352A and 354A are small in deviation, and the pre-division image 350 can be viewed in a properly superimposed state. However, the smaller the display size, the darker the recognized image.
Therefore, the display size of the left eye image 352 and the right eye image 354 is preferably small. For example, the display size of the right optical image display unit 26 and the left optical image display unit 28 is vertical and horizontal. It is preferable that the size is half or less in any direction.

本実施形態では、画像処理部160が処理する画像データは、分割前画像350と、疑似画像領域352B、354Bを構成するダミーデータである。疑似画像領域352B、354Bは、例えば黒を示す(R,G,B)=(0,0,0)のデータである。また、全白を示すデータ(RGB24ビットデータの場合、(255,255,255))であってもよい。黒または白の画素が連続して構成される画像データは、容易に生成および圧縮可能である。このため、本実施形態では、分割前画像350を送信部51、52のそれぞれに出力する場合に比べて、画像処理部160が処理する実質的なデータ量を削減或いは圧縮することができ、画像処理部160の処理負荷を軽減できる。   In the present embodiment, the image data processed by the image processing unit 160 is dummy data constituting the pre-division image 350 and the pseudo image areas 352B and 354B. The pseudo image areas 352B and 354B are data of (R, G, B) = (0, 0, 0) indicating, for example, black. Further, it may be data indicating all white (in the case of RGB 24-bit data, (255, 255, 255)). Image data composed of continuous black or white pixels can be easily generated and compressed. For this reason, in this embodiment, compared with the case where the pre-division image 350 is output to each of the transmission units 51 and 52, the substantial amount of data processed by the image processing unit 160 can be reduced or compressed. The processing load on the processing unit 160 can be reduced.

上述したように、画像表示部20は透過型の表示装置であり、外光を透過する右光学像表示部26及び左光学像表示部28によって、画像光を使用者の眼に入射する。疑似画像領域352B、354Bが黒で構成される場合、疑似画像領域352B、354Bに相当する部分には画像光が無い。このため、使用者の眼には、分割画像351の画像光と分割画像353の画像光とが入射する一方、ダミーデータの画像光が入射しないので、使用者の眼に入射する画像光の光量は、ほぼ分割前画像350の1画面分と同等である。従って、使用者は容易に分割前画像350を認識できる。   As described above, the image display unit 20 is a transmissive display device, and image light is incident on the user's eyes by the right optical image display unit 26 and the left optical image display unit 28 that transmit external light. When the pseudo image areas 352B and 354B are formed of black, there is no image light in the portions corresponding to the pseudo image areas 352B and 354B. For this reason, since the image light of the divided image 351 and the image light of the divided image 353 are incident on the user's eyes, the image light of the dummy data is not incident on the user's eyes, so the light amount of the image light incident on the user's eyes Is substantially equivalent to one screen of the pre-division image 350. Therefore, the user can easily recognize the pre-division image 350.

なお、上記の例は、右光学像表示部26及び左光学像表示部28の両方で分割前画像350を表示する場合に比べて、画像光の光量がほぼ半分となり、暗く見える。その対策として、分割制御部164及び画像処理部160の制御により、画像処理部160が分割表示を行う場合は、通常表示を行う場合に比べ、右光学像表示部26及び左光学像表示部28が発する画像光の光量を増大させる構成としてもよい。具体的には、右バックライト221及び左バックライト222の光量を増大させる方法、画像処理部160により輝度伸長処理を行って左眼用画像352及び右眼用画像354の輝度を高める方法がある。或いは、右表示駆動部22及び左表示駆動部24が画像光を絞る絞り機構(減光機構)を備える場合には、この絞り機構の機能により画像光を増光してもよい。   In the above example, compared to the case where the pre-division image 350 is displayed on both the right optical image display unit 26 and the left optical image display unit 28, the amount of image light is almost halved and looks dark. As a countermeasure, the right optical image display unit 26 and the left optical image display unit 28 in the case where the image processing unit 160 performs divided display under the control of the division control unit 164 and the image processing unit 160, compared to the case where normal display is performed. It is good also as a structure which increases the light quantity of the image light which emits. Specifically, there are a method of increasing the amount of light of the right backlight 221 and the left backlight 222, and a method of increasing the luminance of the left-eye image 352 and the right-eye image 354 by performing luminance extension processing by the image processing unit 160. . Alternatively, when the right display drive unit 22 and the left display drive unit 24 include an aperture mechanism (a dimming mechanism) that stops image light, the image light may be increased by the function of the aperture mechanism.

一方、疑似画像領域352B、354Bが白で構成される場合、疑似画像領域352B、354Bに相当する部分は最大輝度の画素の画像光が照射される。使用者の眼には、分割画像351の画像光と分割画像353の画像光とが入射し、さらに、ダミーデータに対応する白の画像光が入射する。この場合、使用者の眼に入射する画像光の光量は、ダミーデータの色が無彩色であるため、使用者が分割画像351、353を合成して分割前画像350を認識する妨げとはならない。さらに、疑似画像領域352B、354Bの画像光が使用者の眼に入射する場合、この画像光により外光の影響を受けにくくなるという利点がある。すなわち、画像光が入射することで、疑似画像領域352B、354Bの表示位置で外景が見えにくくなるので、例えば外光が強い場合に、分割前画像350の視認性を高めることが期待できる。   On the other hand, when the pseudo image areas 352B and 354B are configured of white, the image light of the pixel having the maximum luminance is irradiated to the portions corresponding to the pseudo image areas 352B and 354B. The image light of the divided image 351 and the image light of the divided image 353 are incident on the user's eyes, and further, white image light corresponding to the dummy data is incident. In this case, the amount of image light incident on the user's eyes does not prevent the user from recognizing the pre-division image 350 by synthesizing the divided images 351 and 353 because the color of the dummy data is achromatic. . Furthermore, when the image light in the pseudo image areas 352B and 354B is incident on the user's eyes, there is an advantage that the image light is less affected by external light. That is, when image light is incident, it is difficult to see the outside scene at the display positions of the pseudo image areas 352B and 354B. Therefore, for example, when the outside light is strong, the visibility of the pre-division image 350 can be expected to be improved.

分割前画像350を分割する位置、及び、疑似画像領域352B、354Bを構成するダミーデータの画素値等は、頭部装着型表示装置100において予め設定され、設定内容は設定データ123として記憶される。   The position where the pre-division image 350 is divided, the pixel values of dummy data constituting the pseudo image areas 352B and 354B, etc. are set in advance in the head-mounted display device 100, and the setting contents are stored as setting data 123. .

なお、図4(B)〜(E)には、分割前画像350を縦方向における中央で分割して、上半分の画像をもとに左眼に対応する左眼用画像352を出力し、下半分と右眼に対応する右眼用画像354を出力する例を示した。分割前画像350を分割する位置は、分割前画像350の中央に限定されず、任意の位置であってよい。この場合、疑似画像領域352B、354Bが、画像領域352A、354Aの画素数と分割前画像350の画素数との差に対応していればよい。すなわち、疑似画像領域352Bが画像領域354Aに対応し、疑似画像領域354Bが画像領域352Aに対応していれば、図4(B)〜(E)に示した例と同様の効果を得ることができる。   4B to 4E, the pre-division image 350 is divided at the center in the vertical direction, and a left-eye image 352 corresponding to the left eye is output based on the upper half image. The example which outputs the image 354 for right eyes corresponding to a lower half and a right eye was shown. The position where the pre-division image 350 is divided is not limited to the center of the pre-division image 350, and may be any position. In this case, the pseudo image areas 352B and 354B only need to correspond to the difference between the number of pixels in the image areas 352A and 354A and the number of pixels in the pre-division image 350. That is, if the pseudo image area 352B corresponds to the image area 354A and the pseudo image area 354B corresponds to the image area 352A, the same effect as the example shown in FIGS. 4B to 4E can be obtained. it can.

画像処理部160は、分割画像351、353に相当する画像データを実際に生成して、記憶部120に記憶してもよいし、記憶部120から画像データを読み出して送信部51、52に出力するときのデータ処理で画像の分割を実現してもよい。
例えば、画像処理部160は、記憶部120のDRAMから分割前画像350を読み出し、上半分を分割画像351としてDRAM上に書き出し、下半分を分割画像353としてDRAM上に書き出す。続いて、画像処理部160は、DRAM上の分割画像351に、疑似画像領域352Bを構成するダミーデータを付加して、左眼用画像352を生成する。同様に、画像処理部160は、DRAM上の分割画像353にダミーデータを付加して右眼用画像354を生成する。この場合、DRAM上には左眼用画像352及び右眼用画像354の画像データが記憶される。画像処理部160は、DRAMから左眼用画像352及び右眼用画像354を読み出して、送信部51、52により出力する。
The image processing unit 160 may actually generate image data corresponding to the divided images 351 and 353 and store the image data in the storage unit 120. Alternatively, the image processing unit 160 may read the image data from the storage unit 120 and output the image data to the transmission units 51 and 52. The image may be divided by data processing when the image is processed.
For example, the image processing unit 160 reads the pre-division image 350 from the DRAM of the storage unit 120, writes the upper half as the divided image 351 on the DRAM, and writes the lower half as the divided image 353 on the DRAM. Subsequently, the image processing unit 160 adds the dummy data constituting the pseudo image area 352B to the divided image 351 on the DRAM to generate the left-eye image 352. Similarly, the image processing unit 160 generates dummy image 354 by adding dummy data to the divided image 353 on the DRAM. In this case, image data of the left-eye image 352 and the right-eye image 354 are stored on the DRAM. The image processing unit 160 reads the left-eye image 352 and the right-eye image 354 from the DRAM, and outputs them by the transmission units 51 and 52.

また、例えば、画像処理部160は、DRAM上の分割前画像350に基づいて送信部51、52から画像データを出力するときに、画像の分割とダミーデータの付加を行う構成としてもよい。この場合、画像処理部160は、所定バイトまたは所定ライン数を単位として、分割前画像350の上端位置からデータを読み出し、送信部52に出力する。画像処理部160は、分割前画像350の上半分のデータを読み出した後、ダミーデータを送信部52に出力する。画像処理部160は、疑似画像領域352Bのライン数に相当する量のダミーデータを送信部52に出力する。この処理で画像処理部160が送信部51に出力するデータは、図4(D)に示す左眼用画像352のデータと同じものである。
また、画像処理部160は、疑似画像領域354Bに相当する量のダミーデータを送信部51に出力し、このダミーデータの出力の後に、分割前画像350の中央位置から下半分のデータを読み出して、送信部51に出力する。この処理で画像処理部160が送信部51に出力するデータは、図4(E)に示す右眼用画像354のデータと同じものである。
このように、DRAM上に左眼用画像352及び右眼用画像354の画像データを実際に記憶しなくても、分割前画像350を分割し、分割した分割画像351、353をもとに左眼用画像352及び右眼用画像354を出力する動作を実現できる。
さらに、画像処理部160が、送信部51に出力するデータと送信部52に出力するデータとを並列的に処理し、出力するプロセッサーを備えている場合、分割前画像350の上半分に係る処理と下半分に係る処理とを並列して実行できる。このとき、各処理でDRAMから読み出すデータは別のデータであるため、DRAM上の同一アドレスに対する処理が衝突、競合することはなく、競合調整の処理の必要性は低い。このため、分割前画像350の全体を送信部51と送信部52の各々に出力する場合に比べて、制御部140全体の処理の負荷を軽減できる。
For example, the image processing unit 160 may be configured to perform image division and dummy data addition when outputting image data from the transmission units 51 and 52 based on the pre-division image 350 in the DRAM. In this case, the image processing unit 160 reads data from the upper end position of the pre-division image 350 in units of a predetermined byte or the predetermined number of lines, and outputs the data to the transmission unit 52. The image processing unit 160 reads the upper half data of the pre-division image 350 and then outputs dummy data to the transmission unit 52. The image processing unit 160 outputs dummy data of an amount corresponding to the number of lines in the pseudo image region 352B to the transmission unit 52. The data output by the image processing unit 160 to the transmission unit 51 in this process is the same as the data of the left-eye image 352 shown in FIG.
Further, the image processing unit 160 outputs dummy data corresponding to the pseudo image area 354B to the transmission unit 51, and after the output of the dummy data, reads the lower half data from the center position of the pre-division image 350. And output to the transmission unit 51. The data output by the image processing unit 160 to the transmission unit 51 in this process is the same as the data of the right-eye image 354 shown in FIG.
Thus, the image data of the left-eye image 352 and the right-eye image 354 are not actually stored on the DRAM, but the pre-division image 350 is divided, and the left image is divided based on the divided divided images 351 and 353. The operation of outputting the eye image 352 and the right eye image 354 can be realized.
Further, when the image processing unit 160 includes a processor that processes and outputs data output to the transmission unit 51 and data output to the transmission unit 52 in parallel, processing related to the upper half of the pre-division image 350 is performed. And processes related to the lower half can be executed in parallel. At this time, since the data read from the DRAM in each process is different data, the processes for the same address in the DRAM do not collide or compete with each other, and the necessity for the process for adjusting the contention is low. For this reason, compared with the case where the whole image 350 before division | segmentation is output to each of the transmission part 51 and the transmission part 52, the processing load of the control part 140 whole can be reduced.

ここで、画像処理部160は、右表示駆動部22と左表示駆動部24の画像の表示タイミングをずらす処理を行ってもよい。具体的には、送信部51、52から左眼用画像352及び右眼用画像354を出力するタイミング、或いは、垂直同期信号VSync、水平同期信号HSync等を調整する。
この場合、画像処理部160が出力する単位時間あたりの画像データ量を抑えることができ、より一層、処理の負荷を軽減できる。左光学像表示部28と右光学像表示部26が画像を表示するタイミングが異なるが、表示される画像のフレーム周波数が極端に低くない場合(例えば、数フレーム〜数十フレーム/秒)、使用者が知覚する残像が重ね合わされる。このため、使用者が、右光学像表示部26の表示画像と左光学像表示部28の表示画像を重ね合わせて、分割前画像350を認識できる。
Here, the image processing unit 160 may perform processing for shifting the display timing of the images of the right display driving unit 22 and the left display driving unit 24. Specifically, the timing for outputting the left-eye image 352 and the right-eye image 354 from the transmission units 51 and 52, or the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the like are adjusted.
In this case, the amount of image data per unit time output by the image processing unit 160 can be suppressed, and the processing load can be further reduced. Used when the left optical image display unit 28 and the right optical image display unit 26 display images at different timings, but the frame frequency of the displayed image is not extremely low (for example, several frames to several tens of frames / second). The afterimage perceived by the person is superimposed. Therefore, the user can recognize the pre-division image 350 by superimposing the display image of the right optical image display unit 26 and the display image of the left optical image display unit 28.

さらに、図4(A)〜(E)の例では、分割前画像350の上半分を、使用者の左眼に対応する左眼用画像352とし、分割前画像350の下半分を、使用者の右眼に対応する右眼用画像354としたが、これはあくまで一例である。左眼用画像352が分割前画像350の下半分を含む画像であってもよく、この場合、右眼用画像354は、分割前画像350の上半分を含む画像であればよい。つまり、左眼用画像352及び右眼用画像354は、一方の疑似画像領域が他方の画像領域に対応する関係が相互に成立し、かつ、画像領域352A、354Aを合成すると分割前画像350の全体が視認される画像となっていればよい。   4A to 4E, the upper half of the pre-division image 350 is the left eye image 352 corresponding to the left eye of the user, and the lower half of the pre-division image 350 is the user. The right-eye image 354 corresponding to the right eye is merely an example. The left eye image 352 may be an image including the lower half of the pre-division image 350. In this case, the right eye image 354 may be an image including the upper half of the pre-division image 350. That is, the left-eye image 352 and the right-eye image 354 have a relationship in which one pseudo image area corresponds to the other image area, and when the image areas 352A and 354A are combined, It suffices if the entire image is visible.

図4(F)は、画像内部に重ね位置マークMが付された左眼用画像355を示し、図4(G)には対応する右眼用画像356を示す。
左眼用画像355及び右眼用画像356は、いずれも、重ね位置マークM(指標)が含まれている。図4(F)、(G)の例では、重ね位置マークMが画像の中央に配置されているが、左眼用画像355における重ね位置マークMの位置と、右眼用画像356における重ね位置マークMの位置とは同じ位置である。つまり、左眼用画像355及び右眼用画像356は、右光学像表示部26、左光学像表示部28で表示される表示サイズが同一に設定され、共通する位置に重ね位置マークMを含む。この場合、重ね位置マークMは、使用者の右眼と左眼の両方に見える。このため、左眼用画像355と右眼用画像356の画像領域を合成するときの位置合わせの目安、或いは基準として機能するので、使用者は重ね位置マークMを基準として、無理なく左右の眼に見える画像を合成して、分割される前の分割前画像350を認識できる。
FIG. 4F shows a left-eye image 355 in which an overlapping position mark M is added inside the image, and FIG. 4G shows a corresponding right-eye image 356.
Both the left-eye image 355 and the right-eye image 356 include an overlapping position mark M (index). In the example of FIGS. 4F and 4G, the overlap position mark M is arranged at the center of the image. However, the position of the overlap position mark M in the left eye image 355 and the overlap position in the right eye image 356 are shown. The position of the mark M is the same position. That is, the left eye image 355 and the right eye image 356 have the same display size displayed on the right optical image display unit 26 and the left optical image display unit 28, and include the overlapping position mark M at a common position. . In this case, the overlapping position mark M is visible to both the right eye and the left eye of the user. For this reason, since it functions as an alignment guideline or reference when combining the image regions of the left-eye image 355 and the right-eye image 356, the user can use the left and right eyes with the overlapping position mark M as a reference. Can be recognized to recognize the pre-division image 350 before being divided.

図4(F)、(G)には左眼用画像355及び右眼用画像356のそれぞれに1つの重ね位置マークMを配置した例を示したが、指標(ここでは重ね位置マーク)の数や形状等は任意である。例えば、重ね位置マークの形状は他の図形、文字、画像等、様々なものを用いることができ、表示色、輝度等も任意であり、使用者が、左眼用画像355及び右眼用画像356に配置された重ね位置マークMを視覚的に識別できればよい。例えば、頭部装着型表示装置100の操作に関するメニュー画面で使用者に見せるアイコン等を重ね位置マークとして使用してもよく、枠形状の重ね位置マークを用いてもよく、複数の図形や画像を含む重ね位置マークを表示してもよい。また、重ね位置マークの位置は、左眼用画像355及び右眼用画像356で共通する位置にあればよく、左眼用画像355及び右眼用画像356の中央に限定されない。
また、例えば、画像処理部160が、重ね位置マークの表示色と輝度を調整可能とし、左眼用画像355及び右眼用画像356の色に対応して、重ね位置マークの表示色と輝度を決めてもよい。重ね位置マークが複数の図形等で構成される場合、これら複数の図形等の表示形態を異ならせてもよい。
FIGS. 4F and 4G show an example in which one overlapping position mark M is arranged in each of the left-eye image 355 and the right-eye image 356. The number of indices (here, the overlapping position marks) is shown. The shape and the like are arbitrary. For example, various shapes such as other graphics, characters, images, etc. can be used as the shape of the overlapping position mark, and the display color, brightness, etc. are arbitrary, and the user can select the left eye image 355 and the right eye image. It is only necessary that the overlapping position mark M arranged at 356 can be visually identified. For example, an icon or the like to be shown to the user on the menu screen related to the operation of the head-mounted display device 100 may be used as the overlapping position mark, a frame-shaped overlapping position mark may be used, and a plurality of figures and images may be displayed. Including overlapping position marks may be displayed. Further, the position of the overlapping position mark only needs to be in a position common to the left-eye image 355 and the right-eye image 356, and is not limited to the center of the left-eye image 355 and the right-eye image 356.
In addition, for example, the image processing unit 160 can adjust the display color and brightness of the overlap position mark, and the display color and brightness of the overlap position mark can be adjusted corresponding to the colors of the left eye image 355 and the right eye image 356. You may decide. When the overlapping position mark is composed of a plurality of figures and the like, the display forms of these figures and the like may be varied.

図5は、画像を分割する処理の別の例として、横方向(水平方向)における所定位置で画像を分割する例を示す図である。図5(A)は分割前画像350を示し、(B)は分割画像357を示し、(C)は分割画像359を示す。図5(D)は分割画像357をもとにした左眼用画像358を示し、図5(E)は分割画像359をもとにした右眼用画像360を示す。   FIG. 5 is a diagram illustrating an example of dividing an image at a predetermined position in the horizontal direction (horizontal direction) as another example of the process of dividing the image. 5A shows a pre-division image 350, FIG. 5B shows a divided image 357, and FIG. 5C shows a divided image 359. FIG. 5D shows a left-eye image 358 based on the divided image 357, and FIG. 5E shows a right-eye image 360 based on the divided image 359.

分割画像357、359は、分割前画像350が、横方向において予め設定された位置で分割された画像である。分割前画像350は横方向の中央位置で、均等に、2つに分割され、分割画像357と分割画像359の横方向のサイズは同一である。また、分割画像357、359の縦方向のサイズは分割前画像350と同一である。
画像処理部160は、分割画像357、359をもとに、左眼用画像358及び右眼用画像360を生成して、送信部51、52に出力する。
The divided images 357 and 359 are images obtained by dividing the pre-division image 350 at a preset position in the horizontal direction. The pre-division image 350 is equally divided into two at the horizontal center position, and the horizontal size of the divided image 357 and the divided image 359 is the same. The vertical size of the divided images 357 and 359 is the same as that of the pre-division image 350.
The image processing unit 160 generates a left-eye image 358 and a right-eye image 360 based on the divided images 357 and 359, and outputs them to the transmission units 51 and 52.

左眼用画像358の左半分は、分割画像357を含む画像領域358Aであり、右半分が疑似画像領域358Bである。疑似画像領域358Bは、疑似画像領域352B、354Bと同様に、画像処理部160が付加するダミーデータで構成される。左眼用画像358における画像領域358Aの位置、及びサイズは、分割前画像350における分割画像357と同じである。
また、右眼用画像360の右半分は、分割画像359を含む画像領域360Aであり、左半分が疑似画像領域360Bである。疑似画像領域360Bは、疑似画像領域352B、354Bと同様に、画像処理部160が付加するダミーデータで構成される。右眼用画像360における画像領域360Aの位置、及びサイズは、分割前画像350における分割画像359と同じである。
The left half of the left-eye image 358 is an image region 358A including a divided image 357, and the right half is a pseudo image region 358B. Similar to the pseudo image areas 352B and 354B, the pseudo image area 358B includes dummy data added by the image processing unit 160. The position and size of the image region 358A in the left-eye image 358 are the same as those of the divided image 357 in the pre-division image 350.
The right half of the right-eye image 360 is an image area 360A including the divided image 359, and the left half is a pseudo image area 360B. Similar to the pseudo image areas 352B and 354B, the pseudo image area 360B includes dummy data added by the image processing unit 160. The position and size of the image region 360A in the right-eye image 360 are the same as those of the divided image 359 in the pre-division image 350.

この図5の例では、図4を参照して説明した例と同様の効果が得られる。
すなわち、左光学像表示部28及び右光学像表示部26のそれぞれが、左眼用画像358及び右眼用画像360を表示した場合、使用者には分割前画像350が認識される。分割前画像350を分割することにより、画像処理部160が分割前画像350の全体を送信部51と送信部52の各々に出力する場合に比べて、制御部140全体の処理の負荷を軽減できる。
左眼用画像358の疑似画像領域358Bは、右眼用画像360の画像領域360Aと同じサイズ、同じ画素数となっており、疑似画像領域360Bは、画像領域358Aと同じサイズ、同じ画素数となっている。このため、使用者の脳の働きにより画像を合成する際に、画像とダミーデータとが重ね合わされるので、自然に画像の重ね合わせがなされ、無理なく、使用者は分割前画像350を認識できる。
また、分割前画像350の左半分である分割画像357は、左眼用画像358の左半分の画像領域358Aとなっており、分割前画像350の右半分である分割画像359は、右眼用画像360の右半分である画像領域360Aとなっている。このため、使用者は、より自然に画像を重ね合わせて分割前画像350を認識できる。
また、左光学像表示部28の表示可能領域における左眼用画像358の表示位置と、右光学像表示部26の表示可能領域における右眼用画像360の表示位置とは、同じ位置にすることが望ましい。さらに、左光学像表示部28の表示可能領域における左眼用画像358の表示サイズと、右光学像表示部26の表示可能領域における右眼用画像360の表示サイズも、同じサイズであると、より好ましい。この場合、使用者が左右の眼の視野を合成して分割前画像350を認識しやすいという利点がある。
In the example of FIG. 5, the same effect as the example described with reference to FIG. 4 can be obtained.
That is, when each of the left optical image display unit 28 and the right optical image display unit 26 displays the left eye image 358 and the right eye image 360, the user recognizes the pre-division image 350. By dividing the pre-division image 350, the processing load of the entire control unit 140 can be reduced as compared with the case where the image processing unit 160 outputs the whole pre-division image 350 to each of the transmission unit 51 and the transmission unit 52. .
The pseudo-image area 358B of the left-eye image 358 has the same size and the same number of pixels as the image area 360A of the right-eye image 360, and the pseudo-image area 360B has the same size and the same number of pixels as the image area 358A. It has become. For this reason, when the image is synthesized by the action of the user's brain, the image and the dummy data are superimposed, so that the image is naturally superimposed, and the user can recognize the pre-division image 350 without difficulty. .
The divided image 357 that is the left half of the pre-division image 350 is an image region 358A of the left half of the left-eye image 358, and the divided image 359 that is the right half of the pre-division image 350 is the right-eye image. An image region 360 </ b> A that is the right half of the image 360 is formed. For this reason, the user can recognize the pre-division image 350 by overlapping images more naturally.
Further, the display position of the left eye image 358 in the displayable area of the left optical image display unit 28 and the display position of the right eye image 360 in the displayable area of the right optical image display unit 26 are set to the same position. Is desirable. Further, the display size of the left eye image 358 in the displayable area of the left optical image display unit 28 and the display size of the right eye image 360 in the displayable area of the right optical image display unit 26 are the same size. More preferred. In this case, there is an advantage that the user can easily recognize the pre-division image 350 by synthesizing the visual fields of the left and right eyes.

図4及び図5の例では、分割前画像350を、重複することなく分割する例を説明したが、重複する部分があってもよい。この例を図6に示す。
図6は、図5と同様に横方向(水平方向)における所定の位置で画像を分割する例を示す図であり、図6(A)は分割前画像350を示し、(B)は分割画像361を示し、(C)は分割画像363を示す。図6(D)は分割画像361をもとにした左眼用画像362を示し、図6(E)は分割画像363をもとにした右眼用画像364を示す。図6(A)〜(E)中の一点鎖線は、分割前画像350の横方向における中央位置を示す。
In the example of FIGS. 4 and 5, the example in which the pre-division image 350 is divided without overlapping has been described, but there may be overlapping portions. An example of this is shown in FIG.
6A and 6B are diagrams illustrating an example in which an image is divided at a predetermined position in the horizontal direction (horizontal direction) as in FIG. 5. FIG. 6A illustrates an image 350 before division, and FIG. 6B illustrates a divided image. 361 shows a divided image 363. 6D shows a left eye image 362 based on the divided image 361, and FIG. 6E shows a right eye image 364 based on the divided image 363. 6 (A) to 6 (E) indicate the center position in the horizontal direction of the pre-division image 350.

分割画像361は、分割前画像350の左半分と、分割前画像350の幅方向中央よりも右側の部分を取り出した画像である。分割画像363は、分割前画像350の右半分と、分割前画像350の幅方向中央よりも左側の部分を取り出した画像である。左眼用画像362は、分割画像361で構成される画像領域362Aと、画像領域362Aの右側に付加されるダミーデータからなる疑似画像領域362Bとを含む。左眼用画像362及び右眼用画像364のそれぞれは、分割前画像350と同サイズ、同画素数である。
画像処理部160は、分割画像361、363をもとに、左眼用画像362及び右眼用画像364を生成して、送信部51、52に出力する。
The divided image 361 is an image obtained by extracting a left half of the pre-division image 350 and a portion on the right side of the center in the width direction of the pre-division image 350. The divided image 363 is an image obtained by extracting the right half of the pre-division image 350 and the left side portion of the pre-division image 350 in the width direction. The left-eye image 362 includes an image region 362A composed of the divided images 361 and a pseudo image region 362B composed of dummy data added to the right side of the image region 362A. Each of the left-eye image 362 and the right-eye image 364 has the same size and the same number of pixels as the pre-division image 350.
The image processing unit 160 generates a left-eye image 362 and a right-eye image 364 based on the divided images 361 and 363 and outputs them to the transmission units 51 and 52.

左眼用画像358の左半分は、分割画像357を含む画像領域358Aであり、右半分が疑似画像領域358Bである。疑似画像領域358Bは、疑似画像領域352B、354Bと同様に、画像処理部160が付加するダミーデータで構成される。左眼用画像358における画像領域358Aの位置、及びサイズは、分割前画像350における分割画像357と同じである。
また、右眼用画像360の右半分は、分割画像359を含む画像領域360Aであり、左半分が疑似画像領域360Bである。疑似画像領域360Bは、疑似画像領域352B、354Bと同様に、画像処理部160が付加するダミーデータで構成される。右眼用画像360における画像領域360Aの位置、及びサイズは、分割前画像350における分割画像359と同じである。
The left half of the left-eye image 358 is an image region 358A including a divided image 357, and the right half is a pseudo image region 358B. Similar to the pseudo image areas 352B and 354B, the pseudo image area 358B includes dummy data added by the image processing unit 160. The position and size of the image region 358A in the left-eye image 358 are the same as those of the divided image 357 in the pre-division image 350.
The right half of the right-eye image 360 is an image area 360A including the divided image 359, and the left half is a pseudo image area 360B. Similar to the pseudo image areas 352B and 354B, the pseudo image area 360B includes dummy data added by the image processing unit 160. The position and size of the image region 360A in the right-eye image 360 are the same as those of the divided image 359 in the pre-division image 350.

左眼用画像362を左光学像表示部28により表示し、右眼用画像364を右光学像表示部26により表示すると、図5(D)、(E)に示した左眼用画像358及び右眼用画像360と同様の効果が得られる。
ここで、左眼用画像362は左眼用画像358とは異なり、分割前画像350の中央より右側の部分を含んでいる。また、右眼用画像364も同様に、右眼用画像360とは異なり、分割前画像350の中央より左側の部分を含む。つまり、画像領域362Aと画像領域364Aとは重複する部分がある。
When the left eye image 362 is displayed by the left optical image display unit 28 and the right eye image 364 is displayed by the right optical image display unit 26, the left eye image 358 shown in FIGS. The same effect as the right eye image 360 is obtained.
Here, unlike the left-eye image 358, the left-eye image 362 includes a portion on the right side of the center of the pre-division image 350. Similarly, the right-eye image 364 includes a portion on the left side of the center of the pre-division image 350 unlike the right-eye image 360. That is, the image area 362A and the image area 364A have an overlapping portion.

使用者の眼には、左眼用画像362と右眼用画像364が見える。この左眼用画像362及び右眼用画像364は、分割前画像350の中央及びその近傍が共通しているので、この共通部分は使用者の両眼に重複して見える。この場合、使用者は、両眼に重複して見える部分を、画像を重ね合わせる指標として認識するので、左眼用画像362と右眼用画像364から分割前画像350を容易に認識できる。   The left eye image 362 and the right eye image 364 are visible to the user's eyes. Since the image for left eye 362 and the image for right eye 364 have the same center in the vicinity of the pre-division image 350 and the vicinity thereof, this common portion appears to overlap with both eyes of the user. In this case, the user recognizes the portion that appears to overlap both eyes as an index for superimposing the images, so that the pre-division image 350 can be easily recognized from the left-eye image 362 and the right-eye image 364.

疑似画像領域362B、364Bの表示色が画像領域362A、364Aに比べて暗い色である場合、画像領域362A、364Aが重なる重複領域の明るさは、重複領域以外の画像領域362A、364Aに比べ明るくなる。この種の違和感を防止するため、重複領域の輝度を低下させてもよい。具体的には、画像処理部160が左眼用画像362及び右眼用画像364に対し、重複領域の画素値または輝度を低下させる処理を行い、処理後のデータを送信部51、52から出力してもよい。
また、疑似画像領域362B、364Bの表示色が画像領域362A、364Aに比べて明るい色である場合、或いは、画像領域362A、364Aと同等の輝度である場合は、画像領域362A、364Aが重なる重複領域の明るさは、重複領域以外と同等になる可能性がある。この場合には、上記の違和感を生じるおそれは小さい。
従って、画像処理部160は、設定されている疑似画像領域362B、364Bの色を判定し、この色に応じて、重複領域の輝度を調整する必要の有無を判別してもよい。そして、調整が必要と判別した場合に、上記のように重複領域の画像データの輝度を調整する処理を行って、画像データを右表示駆動部22、左表示駆動部24に出力してもよい。
When the display color of the pseudo image areas 362B and 364B is darker than the image areas 362A and 364A, the brightness of the overlapping area where the image areas 362A and 364A overlap is brighter than the image areas 362A and 364A other than the overlapping area. Become. In order to prevent this kind of discomfort, the luminance of the overlapping area may be reduced. Specifically, the image processing unit 160 performs a process of reducing the pixel value or luminance of the overlapping region on the left-eye image 362 and the right-eye image 364, and outputs the processed data from the transmission units 51 and 52. May be.
Further, when the display colors of the pseudo image areas 362B and 364B are brighter than the image areas 362A and 364A, or when the display area has the same luminance as the image areas 362A and 364A, the image areas 362A and 364A overlap. The brightness of the area may be equal to that other than the overlapping area. In this case, there is little possibility that the above-mentioned uncomfortable feeling will be caused.
Therefore, the image processing unit 160 may determine the colors of the set pseudo image areas 362B and 364B and determine whether or not the luminance of the overlapping area needs to be adjusted according to the colors. Then, when it is determined that adjustment is necessary, the process of adjusting the brightness of the image data in the overlapping region as described above may be performed to output the image data to the right display drive unit 22 and the left display drive unit 24. .

左眼用画像362と右眼用画像364の共通部分(重複部分)の大きさは図6に示す例に限定されない。この重複部分が大きいと、使用者にとっては、左右の眼に見える画像を合成するときの指標が明瞭になるため、効果的であるが、重複部分が小さくても指標としての効果は十分である。
また、重複部分が大きくなるほど、画像処理部160は処理する画像は、分割前画像350の2つ分に近づく。つまり、分割前画像350を分割して左眼用画像と右眼用画像を生成することの効果が薄れる。従って、重複部分の大きさは、使用者が画像を重ね合わせる指標としての効果が得られる程度の大きさを有し、かつ、小さい方が好ましい。
The size of the common part (overlapping part) of the image for left eye 362 and the image for right eye 364 is not limited to the example shown in FIG. If this overlapping part is large, it is effective for the user because the index for synthesizing the images that can be seen by the left and right eyes becomes clear. However, even if the overlapping part is small, the effect as an index is sufficient. .
Further, the larger the overlapping portion is, the closer the image to be processed by the image processing unit 160 is to two of the pre-division image 350. That is, the effect of dividing the pre-division image 350 to generate the left-eye image and the right-eye image is reduced. Therefore, it is preferable that the size of the overlapped portion has such a size that an effect as an index for the user to superimpose images is obtained and is small.

また、分割前画像350を多数の領域に分割して、左眼用画像及び右眼用画像とすることも可能である。
図7は、分割前画像350を、縦方向における複数の位置で分割する例を示す図である。図7(A)は複数の分割画像片371Aで構成される分割画像371を示し、(B)は複数の分割画像片373Aで構成される分割画像373を示す。図7(C)は分割画像371をもとにした左眼用画像372を示し、図7(D)は分割画像373をもとにした右眼用画像374を示す。
In addition, the pre-division image 350 can be divided into a number of regions to form a left-eye image and a right-eye image.
FIG. 7 is a diagram illustrating an example in which the pre-division image 350 is divided at a plurality of positions in the vertical direction. FIG. 7A shows a divided image 371 composed of a plurality of divided image pieces 371A, and FIG. 7B shows a divided image 373 composed of a plurality of divided image pieces 373A. FIG. 7C shows a left-eye image 372 based on the divided image 371, and FIG. 7D shows a right-eye image 374 based on the divided image 373.

この例では、上述した分割前画像350を横方向のライン単位で分割し、横方向に細長い複数の分割画像片371A、373Aに分ける。分割画像片371A、373Aは、例えば、1ライン分の画像であってもよいし、複数ライン分の画像であってもよい。画像処理部160は、ライン単位で分割した画像を、左眼用の分割画像片371Aと、右眼用の分割画像片373Aとに分ける。例えば、画像処理部160は、分割前画像350における上から順に、分割画像片371Aと分割画像片373Aに振り分ける。この処理により、画像処理部160は、左眼用の分割画像片371Aの集合である分割画像371、及び、右眼用の分割画像片373Aの集合である分割画像373を得る。   In this example, the aforementioned pre-division image 350 is divided in units of lines in the horizontal direction and divided into a plurality of divided image pieces 371A and 373A elongated in the horizontal direction. The divided image pieces 371A and 373A may be, for example, an image for one line or an image for a plurality of lines. The image processing unit 160 divides the image divided in line units into a divided image piece 371A for the left eye and a divided image piece 373A for the right eye. For example, the image processing unit 160 distributes the divided image piece 371A and the divided image piece 373A in order from the top of the pre-division image 350. By this processing, the image processing unit 160 obtains a divided image 371 that is a set of divided image pieces 371A for the left eye and a divided image 373 that is a set of divided image pieces 373A for the right eye.

画像処理部160は、分割画像371を画像領域372Aとし、画像領域372Aの間の空白部にダミーデータからなる疑似画像領域372Bを付加して、左眼用画像372を得る。同様に、画像処理部160は、分割画像373を画像領域374Aとし、画像領域374Aの間の空白部にダミーデータからなる疑似画像領域374Bを付加して、右眼用画像374を得る。左眼用画像372及び右眼用画像374のサイズは分割前画像350と同一である。
左眼用画像372の疑似画像領域372Bは、右眼用画像374の画像領域374Aと同数の画像片で構成され、各画像片は同サイズ、同画素数となっている。また、疑似画像領域374Bは画像領域372Aと同数の画像片で構成され、各画像片は同サイズ、同画素数である。
The image processing unit 160 sets the divided image 371 as an image region 372A, adds a pseudo image region 372B made of dummy data to a blank portion between the image regions 372A, and obtains a left-eye image 372. Similarly, the image processing unit 160 sets the divided image 373 as an image region 374A, and adds a pseudo image region 374B made of dummy data to a blank portion between the image regions 374A to obtain a right-eye image 374. The size of the left eye image 372 and the right eye image 374 is the same as that of the pre-division image 350.
The pseudo image area 372B of the left-eye image 372 includes the same number of image pieces as the image area 374A of the right-eye image 374, and each image piece has the same size and the same number of pixels. The pseudo image area 374B includes the same number of image pieces as the image area 372A, and each image piece has the same size and the same number of pixels.

画像処理部160は、左眼用画像372を送信部52から出力し、左表示駆動部24及び左光学像表示部28で表示させ、右眼用画像374を送信部51から出力し、右表示駆動部22及び右光学像表示部26で表示させる。これにより、図4〜図6で説明した例と同様の効果が得られる。
すなわち、使用者には左眼用画像372及び右眼用画像374を重ね合わせた分割前画像350が認識される。そして、分割前画像350を分割することにより、画像処理部160が分割前画像350の全体を送信部51と送信部52の各々に出力する場合に比べて、制御部140全体の処理の負荷を軽減できる。
The image processing unit 160 outputs the left-eye image 372 from the transmission unit 52 and causes the left display drive unit 24 and the left optical image display unit 28 to display the right-eye image 374 from the transmission unit 51 and displays the right-side display. The image is displayed on the drive unit 22 and the right optical image display unit 26. Thereby, the same effect as the example demonstrated in FIGS. 4-6 is acquired.
That is, the user recognizes the pre-division image 350 in which the left-eye image 372 and the right-eye image 374 are superimposed. Then, by dividing the pre-division image 350, the processing load of the entire control unit 140 is reduced compared to the case where the image processing unit 160 outputs the whole pre-division image 350 to each of the transmission unit 51 and the transmission unit 52. Can be reduced.

また、疑似画像領域372Bは画像領域374Aに対応し、疑似画像領域372Bは画像領域374Aに対応する。このため、使用者の脳の働きにより画像を合成する際に、画像とダミーデータとが重ね合わされるので、自然に画像の重ね合わせがなされ、無理なく、使用者は分割前画像350を認識できる。
さらに、分割前画像350を横方向のラインを単位として分割するので、分割された分割画像371、373では、分割画像片371A、373Aの数を多くすることができる。この場合、分割画像371、373はいずれも分割前画像350の上部から下部までを含んでいるので、左眼用画像372及び右眼用画像374は、一方だけでも分割前画像350に近い画像を使用者に認識させる。使用者は、両方の眼で分割前画像350に近い画像を視認できるので、使用者の違和感を軽減できる。
The pseudo image area 372B corresponds to the image area 374A, and the pseudo image area 372B corresponds to the image area 374A. For this reason, when the image is synthesized by the action of the user's brain, the image and the dummy data are superimposed, so that the image is naturally superimposed, and the user can recognize the pre-division image 350 without difficulty. .
Furthermore, since the pre-division image 350 is divided in units of horizontal lines, the number of the divided image pieces 371A and 373A can be increased in the divided divided images 371 and 373. In this case, since each of the divided images 371 and 373 includes the upper part to the lower part of the pre-division image 350, the left-eye image 372 and the right-eye image 374 are images that are close to the pre-division image 350. Make users aware. Since the user can visually recognize an image close to the pre-division image 350 with both eyes, the user's discomfort can be reduced.

また、図8に示すように、縦方向のライン単位で画像を分割してもよい。
図8(A)は複数の分割画像片375Aで構成される分割画像375を示し、(B)は複数の分割画像片377Aで構成される分割画像377を示す。図8(C)は分割画像375をもとにした左眼用画像376を示し、図8(D)は分割画像377をもとにした右眼用画像378を示す。
Further, as shown in FIG. 8, the image may be divided in units of vertical lines.
FIG. 8A shows a divided image 375 constituted by a plurality of divided image pieces 375A, and FIG. 8B shows a divided image 377 constituted by a plurality of divided image pieces 377A. 8C shows a left-eye image 376 based on the divided image 375, and FIG. 8D shows a right-eye image 378 based on the divided image 377.

この例では、上述した分割前画像350を縦方向のライン単位で分割し、縦方向に細長い複数の分割画像片375A、375Aに分ける。分割画像片375A、375Aは、例えば、1ライン分の画像であってもよいし、複数ライン分の画像であってもよい。画像処理部160は、ライン単位で分割した画像を、左眼用の分割画像片375Aと、右眼用の分割画像片375Aとに分ける。例えば、画像処理部160は、分割前画像350における左から順に、分割画像片375Aと分割画像片375Aに振り分ける。この処理により、画像処理部160は、左眼用の分割画像片375Aの集合である分割画像375、及び、右眼用の分割画像片377Aの集合である分割画像377を得る。   In this example, the aforementioned pre-division image 350 is divided in units of vertical lines and divided into a plurality of divided image pieces 375A and 375A that are elongated in the vertical direction. The divided image pieces 375A and 375A may be, for example, an image for one line or an image for a plurality of lines. The image processing unit 160 divides the image divided in line units into a divided image piece 375A for the left eye and a divided image piece 375A for the right eye. For example, the image processing unit 160 distributes the divided image piece 375A and the divided image piece 375A in order from the left in the pre-division image 350. By this processing, the image processing unit 160 obtains a divided image 375 that is a set of divided image pieces 375A for the left eye and a divided image 377 that is a set of divided image pieces 377A for the right eye.

画像処理部160は、分割画像375を画像領域376Aとし、画像領域376Aの間の空白部にダミーデータからなる疑似画像領域376Bを付加して、左眼用画像376を得る。同様に、画像処理部160は、分割画像377を画像領域378Aとし、画像領域378Aの間の空白部にダミーデータからなる疑似画像領域378Bを付加して、右眼用画像378を得る。左眼用画像376及び右眼用画像378のサイズは分割前画像350と同一である。左眼用画像376の疑似画像領域376Bは、右眼用画像378の画像領域378Aと同数の画像片で構成され、各画像片は同サイズ、同画素数となっている。また、疑似画像領域378Bは画像領域376Aと同数の画像片で構成され、各画像片は同サイズ、同画素数となっている。   The image processing unit 160 sets the divided image 375 as an image region 376A, and adds a pseudo image region 376B made of dummy data to a blank portion between the image regions 376A to obtain a left-eye image 376. Similarly, the image processing unit 160 sets the divided image 377 as an image region 378A, and adds a pseudo image region 378B made of dummy data to a blank portion between the image regions 378A to obtain a right-eye image 378. The size of the left eye image 376 and the right eye image 378 is the same as that of the pre-division image 350. The pseudo image area 376B of the left-eye image 376 is composed of the same number of image pieces as the image area 378A of the right-eye image 378, and each image piece has the same size and the same number of pixels. The pseudo image area 378B includes the same number of image pieces as the image area 376A, and each image piece has the same size and the same number of pixels.

画像処理部160は、左眼用画像376を送信部52から出力し、左表示駆動部24及び左光学像表示部28で表示させ、右眼用画像378を送信部51から出力し、右表示駆動部22及び右光学像表示部26で表示させる。この場合、分割前画像350を分割する方向が異なるだけで、図7で説明した例と同様の効果が得られる。   The image processing unit 160 outputs the left-eye image 376 from the transmission unit 52 and displays it on the left display drive unit 24 and the left optical image display unit 28, and outputs the right-eye image 378 from the transmission unit 51 for right display. The image is displayed on the drive unit 22 and the right optical image display unit 26. In this case, the same effect as the example described with reference to FIG. 7 is obtained only in the direction in which the pre-division image 350 is divided.

図9は、分割前画像350を矩形の画像片に分割する例を示す。
図9(A)は複数の分割画像片379Aで構成される分割画像379を示し、(B)は複数の分割画像片381Aで構成される分割画像381を示す。図8(C)は分割画像379をもとにした左眼用画像380を示し、図8(D)は分割画像381をもとにした右眼用画像382を示す。
FIG. 9 shows an example in which the pre-division image 350 is divided into rectangular image pieces.
FIG. 9A shows a divided image 379 made up of a plurality of divided image pieces 379A, and FIG. 9B shows a divided image 381 made up of a plurality of divided image pieces 381A. 8C shows a left-eye image 380 based on the divided image 379, and FIG. 8D shows a right-eye image 382 based on the divided image 381.

この例では、上述した分割前画像350を縦方向及び横方向に数ドットの画素を含む矩形の分割画像片に分ける。画像処理部160は、分割画像片を左眼用の分割画像片379Aと、右眼用の分割画像片381Aとに分ける。例えば、画像処理部160は、分割前画像350における左上から順に、1個ずつ、分割画像片379Aと分割画像片381Aに振り分ける。   In this example, the aforementioned pre-division image 350 is divided into rectangular divided image pieces including several dots of pixels in the vertical and horizontal directions. The image processing unit 160 divides the divided image piece into a divided image piece 379A for the left eye and a divided image piece 381A for the right eye. For example, the image processing unit 160 distributes the divided image pieces 379A and the divided image pieces 381A one by one in order from the upper left in the pre-division image 350.

画像処理部160は、分割画像379を画像領域380Aとし、画像領域380Aの間の空白部にダミーデータからなる疑似画像領域380Bを付加して、左眼用画像380を得る。同様に、画像処理部160は、分割画像381を画像領域382Aとし、画像領域382Aの間の空白部にダミーデータからなる疑似画像領域382Bを付加して、右眼用画像382を得る。左眼用画像380及び右眼用画像382のサイズは分割前画像350と同一である。
また、左眼用画像380の疑似画像領域380Bは、右眼用画像382の画像領域382Aと同数の画像片を有し、各画像片は同サイズ、同画素数となっている。疑似画像領域382Bは、画像領域380Aと同数の画像片を有し、各画像片は同サイズ、同画素数となっている。
The image processing unit 160 sets the divided image 379 as an image region 380A, and adds a pseudo image region 380B made of dummy data to a blank portion between the image regions 380A to obtain a left-eye image 380. Similarly, the image processing unit 160 sets the divided image 381 as an image region 382A, and adds a pseudo image region 382B made of dummy data to a blank portion between the image regions 382A to obtain a right-eye image 382. The size of the left eye image 380 and the right eye image 382 is the same as that of the pre-division image 350.
Further, the pseudo image area 380B of the left-eye image 380 has the same number of image pieces as the image area 382A of the right-eye image 382, and each image piece has the same size and the same number of pixels. The pseudo image area 382B has the same number of image pieces as the image area 380A, and each image piece has the same size and the same number of pixels.

画像処理部160は、左眼用画像380を送信部52から出力し、左表示駆動部24及び左光学像表示部28で表示させ、右眼用画像382を送信部51から出力し、右表示駆動部22及び右光学像表示部26で表示させる。この場合、分割前画像350を分割する方向が異なるだけで、図7及び図8で説明した例と同様の効果が得られる。   The image processing unit 160 outputs the left-eye image 380 from the transmission unit 52 and causes the left display drive unit 24 and the left optical image display unit 28 to display the right-eye image 382 from the transmission unit 51 to display the right-eye. The image is displayed on the drive unit 22 and the right optical image display unit 26. In this case, the same effect as the example described with reference to FIGS. 7 and 8 is obtained only in the direction in which the pre-division image 350 is divided.

このように、画像処理部160は、表示対象の画像(分割前画像350)を種々の形態で分割し、分割した画像をもとに、左眼用画像及び右眼用画像を送信部51、52から出力する。画像処理部160は、図4〜図9に示した例の一部のみを実行可能であってもよいし、全ての処理を実行可能であってもよい。また、図4〜図9に例示した以外の形態で表示対象の画像を分割するものであってもよい。   In this manner, the image processing unit 160 divides the display target image (the pre-division image 350) in various forms, and based on the divided images, the left eye image and the right eye image are transmitted to the transmission unit 51, 52. The image processing unit 160 may be able to execute only a part of the examples shown in FIGS. 4 to 9 or may be able to execute all the processes. Moreover, you may divide | segment the image of a display target with forms other than having illustrated in FIGS.

以上説明したように、本発明を適用した実施形態に係る頭部装着型表示装置100は、使用者の左眼に対応して画像を表示する左光学像表示部28、及び、使用者の右眼に対応して画像を表示する右光学像表示部26を備える。また、頭部装着型表示装置100は、表示対象の画像を分割し、分割された画像を含む左眼用画像及び右眼用画像を、左光学像表示部28及び右光学像表示部26に出力する画像処理部160を備える。そして、左眼用画像及び右眼用画像は、画像処理部160により分割された画像で構成される画像領域と、疑似画像領域とを含み、左眼用画像及び右眼用画像の一方の疑似画像領域の状態は、他方の画像領域の状態に対応する。これにより、表示対象の画像の高解像度化や拡大等の処理を伴わず、若しくは、処理の負荷を抑えられる。さらに、画像を表示部に転送する転送速度を抑えられる。また、疑似画像領域を生成する処理、疑似画像領域を単純化すれば容易に負荷を抑えられる。従って、画像の表示に係る負荷を抑えて、対象の画像を使用者に視認させることができる。   As described above, the head-mounted display device 100 according to the embodiment to which the present invention is applied includes the left optical image display unit 28 that displays an image corresponding to the left eye of the user, and the right side of the user. A right optical image display unit 26 that displays an image corresponding to the eye is provided. The head-mounted display device 100 divides the image to be displayed, and the left-eye image and the right-eye image including the divided images are displayed on the left optical image display unit 28 and the right optical image display unit 26. An image processing unit 160 for outputting is provided. The left-eye image and the right-eye image include an image region composed of images divided by the image processing unit 160 and a pseudo-image region, and one of the left-eye image and the right-eye image is simulated. The state of the image area corresponds to the state of the other image area. As a result, processing such as higher resolution and enlargement of the image to be displayed is not involved, or the processing load can be suppressed. Furthermore, the transfer speed for transferring the image to the display unit can be suppressed. Further, if the process of generating the pseudo image area and the pseudo image area are simplified, the load can be easily suppressed. Accordingly, it is possible to make the user visually recognize the target image while suppressing the load related to the display of the image.

また、頭部装着型表示装置100が表示する左眼用画像及び右眼用画像は、左光学像表示部28及び右光学像表示部26で表示された場合に、使用者に表示対象の画像として視認される画像であるから、使用者には分割前の画像と同様の画像を見せることができる。従って、2つの表示部を活用して画像を分割し、処理負荷を軽くして、対象の画像を表示できる。   Further, when the left-eye image and the right-eye image displayed by the head-mounted display device 100 are displayed on the left optical image display unit 28 and the right optical image display unit 26, the image to be displayed to the user. Therefore, the user can be shown an image similar to the image before the division. Therefore, the target image can be displayed by dividing the image using the two display units, reducing the processing load.

また、画像処理部160は、左眼用画像及び右眼用画像における画像領域の位置を、表示対象の画像における分割された画像の位置に対応させるので、分割された画像の位置が変えらずに左光学像表示部28及び右光学像表示部26で表示される。このため、2つの表示部を利用して1つの表示対象の画像を使用者に視認させることができる。
また、画像表示部20は、外景を透過し、前記外景とともに視認できるように画像を表示し、画像処理部160は、左眼用画像及び右眼用画像の少なくともいずれかにおける疑似画像領域の表示形態を調整してもよい。具体的には、疑似画像領域352B、354B(図4)を黒色にする場合、疑似画像領域352B、354Bに相当する部分には画像光が無い。この場合、使用者の眼には、分割画像351の画像光と分割画像353の画像光とが入射する一方、ダミーデータの画像光が入射しないので、使用者の眼に入射する画像光の光量は、ほぼ分割前画像350の1画面分と同等である。従って、使用者は容易に分割前画像350を認識できる。これに対し、疑似画像領域352B、354Bを白色で構成する場合、疑似画像領域352B、354Bに相当する部分は最大輝度の画素の画像光が照射される。この場合、使用者の眼には、分割画像351の画像光と分割画像353の画像光とが入射し、さらに、ダミーデータに対応する白の画像光が入射する。このように、疑似画像領域の表示形態を変化させて、例えば表示色を黒または白にすることで、分割前画像の見え方を調整できる。
疑似画像領域の表示形態は、疑似画像領域を一様の色で構成する場合の表示色に限らず、疑似画像領域の色合い、輝度であってもよい。上記の例ではダミーデータの色が無彩色であるため、使用者が分割画像351、353を合成して分割前画像350を認識する妨げとはならない。しかしながら、疑似画像領域の色を有彩色としてもよい。この場合、使用者が視認する分割前画像350の色合いを、疑似画像領域の色の影響で変化させることができる。
さらに、疑似画像領域352B、354Bの輝度が低い場合は、この疑似画像領域352B、354Bに重なる位置に外景が見えやすいので、使用者には外光が知覚される。これに対し、疑似画像領域352B、354Bの輝度が高いと、外景が透過しにくいので、使用者は外景の影響を受けることなく分割前画像350を視認できる。
なお、疑似画像領域の表示形態は一定でなくてもよく、変化させてもよい。この場合、画像処理部160は、表示する分割前画像350の輝度や色調の変化に合わせて、疑似画像領域の表示形態(色、輝度、色調など)を変化させてもよい。或いは、分割前画像350が変化しない場合に、時間の経過に伴い、疑似画像領域の表示形態を変化させてもよい。
Further, the image processing unit 160 associates the position of the image area in the left eye image and the right eye image with the position of the divided image in the display target image, so that the position of the divided image does not change. Are displayed on the left optical image display unit 28 and the right optical image display unit 26. For this reason, a user can visually recognize one display target image using two display units.
In addition, the image display unit 20 displays an image so that it can be seen through the outside scene and the outside scene, and the image processing unit 160 displays a pseudo image area in at least one of the left-eye image and the right-eye image. The form may be adjusted. Specifically, when the pseudo image areas 352B and 354B (FIG. 4) are black, there is no image light in portions corresponding to the pseudo image areas 352B and 354B. In this case, since the image light of the divided image 351 and the image light of the divided image 353 are incident on the user's eyes, the image light of the dummy data is not incident on the user's eyes, so the amount of image light incident on the user's eyes Is substantially equivalent to one screen of the pre-division image 350. Therefore, the user can easily recognize the pre-division image 350. On the other hand, when the pseudo image areas 352B and 354B are configured in white, portions corresponding to the pseudo image areas 352B and 354B are irradiated with the image light of the pixel having the maximum luminance. In this case, the image light of the divided image 351 and the image light of the divided image 353 are incident on the user's eyes, and further, white image light corresponding to the dummy data is incident. In this way, the appearance of the pre-division image can be adjusted by changing the display form of the pseudo image region, for example, by changing the display color to black or white.
The display form of the pseudo image area is not limited to the display color when the pseudo image area is configured with a uniform color, and may be the hue and brightness of the pseudo image area. In the above example, since the color of the dummy data is an achromatic color, it does not hinder the user from recognizing the pre-division image 350 by combining the divided images 351 and 353. However, the color of the pseudo image area may be a chromatic color. In this case, the hue of the pre-division image 350 visually recognized by the user can be changed by the influence of the color of the pseudo image area.
Furthermore, when the luminance of the pseudo image areas 352B and 354B is low, an outside scene is easily seen at a position overlapping the pseudo image areas 352B and 354B, so that the user perceives external light. On the other hand, when the luminance of the pseudo image areas 352B and 354B is high, the outside scene is difficult to transmit, so that the user can visually recognize the pre-division image 350 without being influenced by the outside scene.
Note that the display form of the pseudo image area may not be constant and may be changed. In this case, the image processing unit 160 may change the display form (color, luminance, color tone, etc.) of the pseudo image area in accordance with the change in luminance and color tone of the pre-division image 350 to be displayed. Alternatively, when the pre-division image 350 does not change, the display form of the pseudo image area may be changed as time passes.

また、画像処理部160は、図6を参照して説明したように、分割前画像350から、互いに重複する部分を有する分割画像361、363を抽出し、これら分割画像361、363をそれぞれ左眼用画像362及び右眼用画像364の画像領域としてもよい。この場合、左光学像表示部28及び右光学像表示部26が表示する画像の継ぎ目が目立ちにくいので、使用者の違和感を軽減し、高品位の画像を表示できる。
また、画像処理部160は、図7〜図9を参照して説明したように、左眼用画像及び右眼用画像の各々に、複数の画像領域と複数の疑似画像領域とを配置してもよい。この場合、左眼用画像と右眼用画像とが、より複雑な形状で組み合わされて、使用者に表示対象の画像を視認させる。このため、例えば使用者が視認しやすい形状で表示対象の画像を分割して、画像を表示できる。
また、上記頭部装着型表示装置100において、画像処理部160は、図4(F)、(G)を参照して説明したように、左眼用画像及び右眼用画像の共通する位置に所定の指標(重ね位置マークM)を含ませてもよい。さらに、左光学像表示部28及び右光学像表示部26の表示サイズを等しくしてもよい。この場合、共通の位置に指標が配置されるため、右光学像表示部26が表示する画像と左光学像表示部28が表示する画像との対応が明確になる。使用者は、2つの表示部の画像から1つの表示対象の画像を認識しやすいという利点がある。
Further, as described with reference to FIG. 6, the image processing unit 160 extracts the divided images 361 and 363 having overlapping portions from the pre-division image 350, and each of the divided images 361 and 363 is left eye. The image regions of the image for use 362 and the image for right eye 364 may be used. In this case, since the joints of the images displayed by the left optical image display unit 28 and the right optical image display unit 26 are hardly noticeable, it is possible to reduce the user's uncomfortable feeling and display a high-quality image.
In addition, as described with reference to FIGS. 7 to 9, the image processing unit 160 arranges a plurality of image areas and a plurality of pseudo image areas in each of the left-eye image and the right-eye image. Also good. In this case, the image for the left eye and the image for the right eye are combined in a more complicated shape to allow the user to visually recognize the display target image. For this reason, for example, the image to be displayed can be divided and displayed in a shape that is easy for the user to visually recognize.
Further, in the head-mounted display device 100, the image processing unit 160 is positioned at a position common to the left-eye image and the right-eye image as described with reference to FIGS. 4 (F) and 4 (G). A predetermined index (overlapping position mark M) may be included. Furthermore, the display sizes of the left optical image display unit 28 and the right optical image display unit 26 may be made equal. In this case, since the index is arranged at a common position, the correspondence between the image displayed by the right optical image display unit 26 and the image displayed by the left optical image display unit 28 becomes clear. There is an advantage that the user can easily recognize one display target image from the images of the two display units.

また、画像処理部160は、左眼用画像及び右眼用画像において予め設定された領域に画像領域および疑似画像領域を配置する。このため、画像処理部160が表示対象の画像を分割する処理、及び、分割した画像に疑似画像領域を組み合わせて左眼用画像及び右眼用画像を生成する処理の負荷を軽減できる。   In addition, the image processing unit 160 arranges an image area and a pseudo image area in a predetermined area in the left eye image and the right eye image. For this reason, it is possible to reduce the load of processing for dividing the image to be displayed by the image processing unit 160 and processing for generating the image for the left eye and the image for the right eye by combining the divided image with the pseudo image area.

また、右光学像表示部26及び左光学像表示部28は、外景を透過し、外景とともに視認できるように画像を表示する画像表示部20を構成する。使用者には、外景に重なって、分割された画像を含む左眼用画像と右眼用画像とが見える。
この構成では、左眼用画像及び右眼用画像の画像領域の表示色、表示輝度または画像全体の光量を調整することで、左眼用画像と右眼用画像の見え方を調整できる。例えば、外光の光量に合わせて輝度または光量を調整し、外景よりも表示対象の画像を見やすくすることも、外景を見やすくすることもできる。
さらに、左眼用画像及び右眼用画像に含まれる疑似画像領域の色及び/又は明るさを調整することで、左眼用画像と右眼用画像の見え方を調整できる。例えば、外光の光量が高い場合に、疑似画像領域の輝度を高くして、表示対象の画像を明るく見せることができる。また、例えば、外光の光量が低い場合に疑似画像領域の輝度を低くして、表示対象の画像を暗くし、外景に合わせて見やすくすることができる。反対に、外光の光量が低い場合に疑似画像領域の輝度を高くして、表示対象の画像を目立たせることもできる。
In addition, the right optical image display unit 26 and the left optical image display unit 28 constitute an image display unit 20 that displays an image so that the outside scene is transmitted and can be visually recognized together with the outside scene. The user can see the left-eye image and the right-eye image including the divided images so as to overlap the outside scene.
In this configuration, it is possible to adjust the appearance of the left-eye image and the right-eye image by adjusting the display color, display brightness, or light amount of the entire image of the left-eye image and right-eye image. For example, it is possible to adjust the luminance or the amount of light according to the amount of external light so that the image to be displayed can be seen more easily than the outside scene, or the outside scene can be seen easily.
Furthermore, by adjusting the color and / or brightness of the pseudo image area included in the left-eye image and the right-eye image, the appearance of the left-eye image and the right-eye image can be adjusted. For example, when the amount of external light is high, the luminance of the pseudo image area can be increased to make the display target image appear brighter. In addition, for example, when the amount of external light is low, the luminance of the pseudo image region can be lowered to darken the image to be displayed and make it easier to see according to the outside scene. Conversely, when the amount of external light is low, the luminance of the pseudo image area can be increased to make the display target image stand out.

なお、この発明は上記実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
例えば、上記実施形態では、矩形の分割前画像350を分割して表示する例について説明したが、表示する画像のサイズ、形状、画素数、カラー画像か白黒画像かの種別、及び、動画像か静止画像かについて限定されない。
また、上記実施形態で、画像処理部160は、コンテンツの画像を構成するディジタル画像信号を1フレームごとにDRAMに格納に格納して、分割し、分割画像を生成する構成として説明した。本発明はこれに限定されず、例えば、画像供給装置OAからアナログ画像信号が入力される場合に、画像処理部160が、アナログ画像信号を分割してもよい。さらに、画像処理部160は、右表示駆動部22及び左表示駆動部24にそれぞれアナログ画像信号を出力する構成において、疑似画像領域のアナログ画像信号を生成して合成してもよい。すなわち、画像処理部160は、疑似画像領域のアナログ画像信号を、右表示駆動部22及び左表示駆動部24に出力するアナログ画像信号に合成することで、第1画像及び第2画像を生成し出力してもよい。
また、制御装置10に設けられた方向キー16やトラックパッド14の一方を省略したり、方向キー16やトラックパッド14に加えてまたは方向キー16やトラックパッド14に代えて操作用スティック等の他の操作用インターフェイスを設けたりしてもよい。また、制御装置10は、キーボードやマウス等の入力デバイスを接続可能な構成であり、キーボードやマウスから入力を受け付けるものとしてもよい。
In addition, this invention is not restricted to the structure of the said embodiment, In the range which does not deviate from the summary, it can be implemented in a various aspect.
For example, in the above-described embodiment, an example in which the rectangular pre-division image 350 is divided and displayed has been described. However, the size, shape, number of pixels, type of color image or black-and-white image, and moving image are displayed. It is not limited as to whether it is a still image.
Further, in the above-described embodiment, the image processing unit 160 has been described as a configuration in which a digital image signal constituting a content image is stored in a DRAM for each frame and divided to generate a divided image. The present invention is not limited to this. For example, when an analog image signal is input from the image supply device OA, the image processing unit 160 may divide the analog image signal. Further, the image processing unit 160 may generate and synthesize an analog image signal in the pseudo image area in a configuration in which analog image signals are output to the right display driving unit 22 and the left display driving unit 24, respectively. That is, the image processing unit 160 generates the first image and the second image by combining the analog image signal of the pseudo image region with the analog image signal output to the right display driving unit 22 and the left display driving unit 24. It may be output.
Further, one of the direction key 16 and the track pad 14 provided in the control device 10 is omitted, or in addition to the direction key 16 or the track pad 14 or in place of the direction key 16 or the track pad 14, an operation stick or the like. An operation interface may be provided. Moreover, the control apparatus 10 is a structure which can connect input devices, such as a keyboard and a mouse | mouth, and is good also as what receives an input from a keyboard or a mouse | mouth.

また、画像表示部として、画像表示部20に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼に対応して画像を表示する表示部と、使用者の右眼に対応して画像を表示する表示部とを備えていればよい。また、本発明の表示装置は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよいし、自動車のフロントガラスに用いられるヘッドアップディスプレイ(Head-up Display;HUD)であってもよい。さらに、例えば、使用者が両手に持って使用する双眼鏡型のハンドヘルドディスプレイ(Hand Held Display)を、本願の画像表示部20として採用してもよい。さらにまた、使用者の両眼の眼球(例えば、角膜上)に装着して使用する、いわゆるコンタクトレンズ型ディスプレイや、眼球内に埋め込まれるインプラント型ディスプレイなど、使用者の眼球において網膜に結像させるディスプレイを、画像表示部20としてもよい。いずれの場合にも、使用者の一方の眼に像を認識させる表示部を第1表示部とし、他方の眼に像を認識させる表示部を第2表示部とすることができる。   Further, as the image display unit, instead of the image display unit 20, another type of image display unit such as an image display unit worn like a hat may be adopted, corresponding to the left eye of the user. What is necessary is just to provide the display part which displays an image, and the display part which displays an image corresponding to a user's right eye. The display device of the present invention may be configured as a head mounted display mounted on a vehicle such as an automobile or an airplane. Moreover, for example, it may be configured as a head-mounted display built in a body protective device such as a helmet, or may be a head-up display (HUD) used for a windshield of an automobile. Furthermore, for example, a binocular-type hand held display (Hand Held Display) that the user uses with both hands may be employed as the image display unit 20 of the present application. Furthermore, the user's eyeball forms an image on the retina such as a so-called contact lens type display that is worn on the user's eyes (for example, on the cornea) and an implant type display that is embedded in the eyeball. The display may be the image display unit 20. In either case, the display unit that causes the user's one eye to recognize the image can be the first display unit, and the display unit that causes the other eye to recognize the image can be the second display unit.

さらに、上記実施形態では、画像表示部20と制御装置10とが分離され、接続部40を介して接続された構成を例に挙げて説明したが、制御装置10と画像表示部20とが一体に構成され、使用者の頭部に装着される構成とすることも可能である。
また、制御装置10と画像表示部20とが、より長いケーブルまたは無線通信回線により接続され、制御装置10として、ノート型コンピューター、タブレット型コンピューターまたはデスクトップ型コンピューター、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。
Furthermore, in the above embodiment, the image display unit 20 and the control device 10 are separated and connected by way of the connection unit 40, but the control device 10 and the image display unit 20 are integrated. It is also possible to be configured to be mounted on the user's head.
In addition, the control device 10 and the image display unit 20 are connected by a longer cable or a wireless communication line. As the control device 10, a notebook computer, a tablet computer or a desktop computer, a game machine, a portable phone, a smartphone, A portable electronic device including a portable media player, other dedicated devices, or the like may be used.

また、例えば、画像表示部20において画像光を生成する構成として、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよいし、LCOS(Liquid crystal on silicon, LCoSは登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。また、例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。すなわち、画像生成部が、レーザー光源と、レーザー光源を使用者の眼に導く光学系とを備え、レーザー光を使用者の眼に入射させて網膜上を走査し、網膜に結像させることにより、使用者に画像を視認させる構成を採用してもよい。レーザー網膜投影型のヘッドマウントディスプレイを採用する場合、「画像光生成部における画像光の射出可能領域」とは、使用者の眼に認識される画像領域として定義することができる。   Further, for example, as a configuration for generating image light in the image display unit 20, a configuration including an organic EL (Organic Electro-Luminescence) display and an organic EL control unit may be used, or an LCOS (Liquid crystal) may be provided. On silicon and LCoS are registered trademarks), and digital micromirror devices can also be used. Further, for example, the present invention can be applied to a laser retinal projection type head mounted display. That is, the image generation unit includes a laser light source and an optical system that guides the laser light source to the user's eye, makes the laser light enter the user's eye, scans the retina, and forms an image on the retina. A configuration that allows the user to visually recognize an image may be employed. When a laser retina projection type head-mounted display is employed, the “image light emitting area in the image light generation unit” can be defined as an image area recognized by the user's eyes.

画像光を使用者の眼に導く光学系としては、外部から装置に向けて入射する外光を透過する光学部材を備え、画像光とともに使用者の眼に入射させる構成を採用できる。また、使用者の眼の前方に位置して使用者の視界の一部または全部に重なる光学部材を用いてもよい。さらに、レーザー光等を走査させて画像光とする走査方式の光学系を採用してもよい。また、光学部材の内部で画像光を導光させるものに限らず、使用者の眼に向けて画像光を屈折及び/または反射させて導く機能のみを有するものであってもよい。   As an optical system that guides image light to the user's eyes, an optical member that transmits external light that is incident from the outside toward the apparatus and that enters the user's eyes together with the image light can be employed. Moreover, you may use the optical member which is located ahead of a user's eyes and overlaps a part or all of a user's visual field. Further, a scanning optical system that scans a laser beam or the like to obtain image light may be employed. Further, the optical member is not limited to guiding the image light inside the optical member, and may have only a function of guiding the image light by refracting and / or reflecting it toward the user's eyes.

また、本発明を、MEMSミラーを用いた走査光学系を採用し、MEMSディスプレイ技術を利用した表示装置に適用することも可能である。すなわち、画像表示素子として、信号光形成部と、信号光形成部が射出する光を走査するMEMSミラーを有する走査光学系と、走査光学系により走査される光によって虚像が形成される光学部材とを備えてもよい。この構成では、信号光形成部が射出した光がMEMSミラーにより反射され、光学部材に入射し、光学部材の中を導かれて、虚像形成面に達する。MEMSミラーが光を走査することにより、虚像形成面に虚像が形成され、この虚像を使用者が眼で捉えることで、画像が認識される。この場合の光学部品は、例えば上記実施形態の右導光板261及び左導光板262のように、複数回の反射を経て光を導くものであってもよく、ハーフミラー面を利用してもよい。   Further, the present invention can be applied to a display device that employs a scanning optical system using a MEMS mirror and uses MEMS display technology. That is, as an image display element, a signal light forming unit, a scanning optical system having a MEMS mirror that scans light emitted from the signal light forming unit, and an optical member on which a virtual image is formed by light scanned by the scanning optical system May be provided. In this configuration, the light emitted from the signal light forming unit is reflected by the MEMS mirror, enters the optical member, is guided through the optical member, and reaches the virtual image forming surface. When the MEMS mirror scans the light, a virtual image is formed on the virtual image forming surface, and the user recognizes the virtual image with the eyes, thereby recognizing the image. The optical component in this case may be one that guides light through a plurality of reflections, such as the right light guide plate 261 and the left light guide plate 262 of the above embodiment, and may use a half mirror surface. .

また、本発明の表示装置は頭部装着型の表示装置に限定されず、フラットパネルディスプレイやプロジェクター等の各種の表示装置に適用できる。本発明の表示装置は、外光とともに画像光により画像を視認させるものであればよく、例えば、外光を透過させる光学部材により画像光による画像を視認させる構成が挙げられる。具体的には、上記のヘッドマウントディスプレイにおいて外光を透過する光学部材を備えた構成の他、使用者から離れた位置に固定的にまたは可動に設置された透光性の平面や曲面(ガラスや透明なプラスチック等)に、画像光を投射する表示装置にも適用可能である。一例としては、車両の窓ガラスに画像光を投射し、乗車している使用者や車両の外にいる使用者に、画像光による画像とともに、車両内外の景色を視認させる表示装置の構成が挙げられる。また、例えば、建物の窓ガラスなど固定的に設置された透明また半透明、或いは有色透明な表示面に画像光を投射し、表示面の周囲にいる使用者に、画像光による画像とともに、表示面を透かして景色を視認させる表示装置の構成が挙げられる。   The display device of the present invention is not limited to a head-mounted display device, and can be applied to various display devices such as a flat panel display and a projector. The display device of the present invention may be any device that allows an image to be visually recognized by external light and image light. For example, a configuration in which an image by image light is visually recognized by an optical member that transmits external light is exemplified. Specifically, the above-described head-mounted display includes an optical member that transmits external light, and a light-transmitting plane or curved surface (glass) that is fixedly or movably installed at a position away from the user. It is also applicable to a display device that projects image light onto a transparent plastic or the like. As an example, a configuration of a display device that projects image light onto a window glass of a vehicle and allows a user who is on board or a user outside the vehicle to visually recognize the scenery inside and outside the vehicle together with an image by the image light. It is done. In addition, for example, image light is projected onto a transparent, semi-transparent, or colored transparent display surface that is fixedly installed such as a window glass of a building, and is displayed together with an image by the image light to a user around the display surface. A configuration of a display device that visually recognizes a scene through the surface can be given.

また、図2に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図2に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部140が実行するプログラムは、記憶部120または制御装置10内の記憶装置に記憶されてもよいし、外部の装置に記憶されたプログラムを通信部117またはインターフェイス180を介して取得して実行する構成としてもよい。また、制御装置10に形成された構成の内、操作部135のみが単独の使用者インターフェース(UI)として形成されてもよいし、上記実施形態における電源130が単独で形成されて、交換可能な構成であってもよい。また、制御装置10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、図2に示す制御部140が制御装置10と画像表示部20との両方に形成されていてもよいし、制御装置10に形成された制御部140と画像表示部20に形成されたCPUとが行なう機能が別々に分けられている構成としてもよい。   In addition, at least a part of each functional block shown in FIG. 2 may be realized by hardware, or may be realized by cooperation of hardware and software, as shown in FIG. It is not limited to a configuration in which independent hardware resources are arranged. The program executed by the control unit 140 may be stored in the storage unit 120 or the storage device in the control device 10, or the program stored in an external device is acquired via the communication unit 117 or the interface 180. It is good also as a structure to execute. Of the configurations formed in the control device 10, only the operation unit 135 may be formed as a single user interface (UI), or the power source 130 in the above embodiment is formed independently and is replaceable. It may be a configuration. Further, the configuration formed in the control device 10 may be formed in the image display unit 20 in an overlapping manner. For example, the control unit 140 illustrated in FIG. 2 may be formed in both the control device 10 and the image display unit 20, or the control unit 140 formed in the control device 10 and the CPU formed in the image display unit 20. It is good also as a structure by which the function to perform is divided | segmented separately.

10…制御装置、20…画像表示部、21…右保持部、22…右表示駆動部(第2表示部)、23…左保持部、24…左表示駆動部(第1表示部)、26…右光学像表示部(第2表示部)、28…左光学像表示部(第1表示部)、100…頭部装着型表示装置(表示装置)、117…通信部、120…記憶部、140…制御部、150…オペレーティングシステム、160…画像処理部、164…分割制御部、170…音声処理部、180…インターフェイス、190…表示制御部、201…右バックライト制御部、202…左バックライト制御部、211…右LCD制御部、212…左LCD制御部、221…右バックライト、222…左バックライト、241…右LCD、242…左LCD、251…右投写光学系、252…左投写光学系、261…右導光板、262…左導光板。   DESCRIPTION OF SYMBOLS 10 ... Control apparatus, 20 ... Image display part, 21 ... Right holding part, 22 ... Right display drive part (2nd display part), 23 ... Left holding part, 24 ... Left display drive part (1st display part), 26 ... right optical image display unit (second display unit), 28 ... left optical image display unit (first display unit), 100 ... head-mounted display device (display device), 117 ... communication unit, 120 ... storage unit, DESCRIPTION OF SYMBOLS 140 ... Control part, 150 ... Operating system, 160 ... Image processing part, 164 ... Division | segmentation control part, 170 ... Audio | voice processing part, 180 ... Interface, 190 ... Display control part, 201 ... Right backlight control part, 202 ... Left back Light control unit 211 ... Right LCD control unit 212 ... Left LCD control unit 221 ... Right backlight 222 ... Left backlight 241 ... Right LCD 242 ... Left LCD 251 ... Right projection optical system 252 ... Left Projection optics , 261 ... Migishirubekoban, 262 ... Hidarishirubekoban.

Claims (12)

使用者の左眼に対応して画像を表示する第1表示部、及び、使用者の右眼に対応して画像を表示する第2表示部と、
表示対象の画像を分割し、分割された画像を含む第1画像及び第2画像を、前記第1及び第2表示部に出力する画像処理部と、を備え、
前記表示対象の画像と同サイズ、同画素数である前記第1画像及び前記第2画像は、前記画像処理部により分割された画像で構成される画像領域と、ダミーデータで構成される疑似画像領域とを含み、
前記第1画像及び前記第2画像の一方の前記疑似画像領域の位置は、他方の前記画像領域の位置含まれること、
を特徴とする表示装置。
A first display unit that displays an image corresponding to the left eye of the user, and a second display unit that displays an image corresponding to the right eye of the user;
An image processing unit that divides an image to be displayed and outputs a first image and a second image including the divided image to the first and second display units,
The first image and the second image having the same size and the same number of pixels as the image to be displayed are an image area composed of images divided by the image processing unit, and a pseudo image composed of dummy data Area and
The one position of the false image region of the first image and the second image is Rukoto included in the position of the other of the image area,
A display device.
前記第1画像及び前記第2画像は、前記第1表示部及び前記第2表示部で表示された場合に、使用者に前記表示対象の画像として視認される画像であること、を特徴とする請求項1記載の表示装置。   The first image and the second image are images that are visually recognized as a display target image by a user when displayed on the first display unit and the second display unit. The display device according to claim 1. 前記画像処理部は、前記第1画像及び前記第2画像における前記画像領域の位置を、前記表示対象の画像における前記分割された画像の位置とすること、を特徴とする請求項1または2記載の表示装置。 Wherein the image processing unit, a position of the image regions in the first image and the second image, and wherein to Rukoto, the position of the divided image in the image to be displayed according to claim 1 or 2 The display device described. 前記第1表示部及び前記第2表示部は、外景を透過し、前記外景とともに視認できるように前記画像を表示し、
前記画像処理部は、前記第1画像または前記第2画像の少なくともいずれかにおける前記疑似画像領域の表示を調整可能であること、を特徴とする請求項1から3のいずれかに記載の表示装置。
The first display unit and the second display unit transmit the outside scene and display the image so as to be visible together with the outside scene.
The display according to claim 1, wherein the image processing unit is capable of adjusting a display color of the pseudo image area in at least one of the first image and the second image. apparatus.
前記第1画像及び前記第2画像の前記画像領域は、互いに重複する部分を有すること、を特徴とする請求項1から4のいずれかに記載の表示装置。 5. The display device according to claim 1, wherein the image regions of the first image and the second image have portions that overlap each other . 前記画像処理部は、前記第1画像及び前記第2画像の各々に、前記画像領域および前記疑似画像領域を1つずつ配置すること、を特徴とする請求項1から5のいずれかに記載の表示装置。 Wherein the image processing unit, each of the first image and the second image, the image area and the placing pseudo image areas one by one, from claim 1, wherein according to any one of the 5 Display device. 前記画像処理部は、前記第1画像及び前記第2画像の各々に、複数の前記画像領域と複数の前記疑似画像領域とを配置すること、を特徴とする請求項1から5のいずれかに記載の表示装置。   6. The image processing unit according to claim 1, wherein the image processing unit arranges a plurality of the image regions and a plurality of the pseudo image regions in each of the first image and the second image. The display device described. 前記第1画像が前記第1表示部で表示される表示サイズと前記第2画像が前記第2表示部で表示される表示サイズとは同一に設定されること、を特徴とする請求項1から7のいずれかに記載の表示装置。   The display size in which the first image is displayed on the first display unit and the display size in which the second image is displayed on the second display unit are set to be the same. 8. The display device according to any one of 7. 前記第1画像及び前記第2画像は共通する位置に所定の指標を含むこと、を特徴とする請求項1から8のいずれかに記載の表示装置。   The display device according to claim 1, wherein the first image and the second image include a predetermined index at a common position. 前記第1表示部及び前記第2表示部は互いに異なるタイミングで前記第1画像と前記第2画像とを表示すること、を特徴とする請求項1から9のいずれかに記載の表示装置。   The display device according to claim 1, wherein the first display unit and the second display unit display the first image and the second image at different timings. 第1及び第2表示部を備える表示装置の制御方法であって、
表示対象の画像を分割し、
分割された画像に対応する第1画像及び第2画像を、前記第1及び第2表示部で表示し、
前記表示対象の画像と同サイズ、同画素数である前記第1画像及び第2画像を、前記分割された画像で構成される画像領域と、ダミーデータで構成される疑似画像領域とを含み、かつ前記第1画像及び前記第2画像の一方の前記疑似画像領域の位置が他方の前記画像領域の位置含まれる画像とすること、
を特徴とする表示装置の制御方法。
A control method of a display device including first and second display units,
Divide the image to be displayed,
Displaying a first image and a second image corresponding to the divided image on the first and second display units;
The first image and the second image having the same size and the same number of pixels as the image to be displayed , including an image area composed of the divided images and a pseudo image area composed of dummy data ; and that the image position of one the false image region of the first image and the second image is Ru contained in the position of the other of the image area,
A control method of a display device characterized by the above.
第1及び第2表示部を備える表示装置を制御するコンピューターが実行可能なプログラムであって、
前記コンピューターを、
表示対象の画像を分割し、分割された画像を含む前記表示対象の画像と同サイズ、同画素数である第1画像及び第2画像を、前記第1及び第2表示部に出力する画像処理部として機能させ、
前記第1画像及び前記第2画像は、前記画像処理部により分割された画像で構成される画像領域と、ダミーデータで構成される疑似画像領域とを含み、前記第1画像及び前記第2画像の一方の前記疑似画像領域の位置を、他方の前記画像領域の位置含ませること、
を特徴とするプログラム。
A program that can be executed by a computer that controls a display device including first and second display units,
The computer,
Image processing for dividing a display target image and outputting the first image and the second image having the same size and the same number of pixels as the display target image including the divided image to the first and second display units Function as a part,
The first image and the second image include an image region composed of images divided by the image processing unit and a pseudo image region composed of dummy data, and the first image and the second image wherein the position of the false image region be included in the position of the other of the image area of one of the,
A program characterized by
JP2014155936A 2014-07-31 2014-07-31 Display device, display device control method, and program Active JP6428024B2 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2014155936A JP6428024B2 (en) 2014-07-31 2014-07-31 Display device, display device control method, and program
CN201580037933.0A CN106537227B (en) 2014-07-31 2015-07-28 Display device, control method and program for display device
PCT/JP2015/003766 WO2016017144A1 (en) 2014-07-31 2015-07-28 Display device, control method for display device, and program
US15/327,158 US10725300B2 (en) 2014-07-31 2015-07-28 Display device, control method for display device, and program
EP15753499.1A EP3175616A1 (en) 2014-07-31 2015-07-28 Display device, control method for display device, and program
TW104124435A TW201604586A (en) 2014-07-31 2015-07-28 Display device, control method for display device, and program
KR1020177004166A KR20170031223A (en) 2014-07-31 2015-07-28 Display device, control method for display device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014155936A JP6428024B2 (en) 2014-07-31 2014-07-31 Display device, display device control method, and program

Publications (2)

Publication Number Publication Date
JP2016033551A JP2016033551A (en) 2016-03-10
JP6428024B2 true JP6428024B2 (en) 2018-11-28

Family

ID=55452488

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014155936A Active JP6428024B2 (en) 2014-07-31 2014-07-31 Display device, display device control method, and program

Country Status (1)

Country Link
JP (1) JP6428024B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7044784B2 (en) 2016-12-21 2022-03-30 ピアッジオ・エ・チ・ソチエタ・ペル・アツィオーニ Front carriage of rolling vehicle with rolling block

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6725999B2 (en) * 2016-03-01 2020-07-22 キヤノン株式会社 Information processing apparatus, information processing apparatus control method, and program
WO2019089811A1 (en) 2017-11-01 2019-05-09 Vrgineers, Inc. Interactive augmented or virtual reality devices
JP7243193B2 (en) * 2019-01-10 2023-03-22 セイコーエプソン株式会社 Display system, display system control method, information processing device, and information processing device control program

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07302063A (en) * 1994-05-02 1995-11-14 Canon Inc Display device
JP2003279882A (en) * 2002-03-22 2003-10-02 Victor Co Of Japan Ltd Head mounted display device
JP2004007315A (en) * 2002-06-03 2004-01-08 Victor Co Of Japan Ltd Head mounted display
JP2010259022A (en) * 2009-04-28 2010-11-11 Nikon Corp Display device, display method, and display program
JP2011085868A (en) * 2009-10-19 2011-04-28 Nikon Corp Image generating device, image generating method and program
JP5387377B2 (en) * 2009-12-14 2014-01-15 ソニー株式会社 Image processing apparatus, image processing method, and program
JP2012049658A (en) * 2010-08-25 2012-03-08 Sony Corp Display control device, display control method, image generation device, and image generation method
JP2012125453A (en) * 2010-12-16 2012-07-05 Fujifilm Corp Display device
JP5803193B2 (en) * 2011-03-24 2015-11-04 セイコーエプソン株式会社 Head-mounted display device and method for controlling head-mounted display device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7044784B2 (en) 2016-12-21 2022-03-30 ピアッジオ・エ・チ・ソチエタ・ペル・アツィオーニ Front carriage of rolling vehicle with rolling block

Also Published As

Publication number Publication date
JP2016033551A (en) 2016-03-10

Similar Documents

Publication Publication Date Title
US10725300B2 (en) Display device, control method for display device, and program
JP5884576B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6060512B2 (en) Head-mounted display device
JP5970872B2 (en) Head-mounted display device and method for controlling head-mounted display device
US9836120B2 (en) Display device, method of controlling the same, and computer program
US20150168729A1 (en) Head mounted display device
US9870048B2 (en) Head-mounted display device, method of controlling the same, and computer program
KR20160048881A (en) Head mounted display device and control method for head mounted display device
JP6459380B2 (en) Head-mounted display device, head-mounted display device control method, and computer program
JP6432197B2 (en) Display device, display device control method, and program
JP2016085350A (en) Display device and control method of display device
JP6575117B2 (en) Display device, display device control method, and program
JP2016024208A (en) Display device, method for controlling display device, and program
JP6428024B2 (en) Display device, display device control method, and program
JP6268778B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP2016033759A (en) Display device, method for controlling display device, and program
JP6252002B2 (en) Head-mounted display device and method for controlling head-mounted display device
US20150168728A1 (en) Head mounted display device
JP2016033763A (en) Display device, method for controlling display device, and program
JP6582374B2 (en) Display device, control method therefor, and computer program
JP6273677B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6136162B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP2016034091A (en) Display device, control method of the same and program
JP6217772B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6308249B2 (en) Head-mounted display device and method

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160617

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160628

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180710

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20180901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181015

R150 Certificate of patent or registration of utility model

Ref document number: 6428024

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150