JP2023098012A - Head-mounted display, information processing device and optical module - Google Patents

Head-mounted display, information processing device and optical module Download PDF

Info

Publication number
JP2023098012A
JP2023098012A JP2021214473A JP2021214473A JP2023098012A JP 2023098012 A JP2023098012 A JP 2023098012A JP 2021214473 A JP2021214473 A JP 2021214473A JP 2021214473 A JP2021214473 A JP 2021214473A JP 2023098012 A JP2023098012 A JP 2023098012A
Authority
JP
Japan
Prior art keywords
user
display panel
processing device
video signal
correction value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021214473A
Other languages
Japanese (ja)
Inventor
和夫 西沢
Kazuo Nishizawa
潤 色部
Jun Irobe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2021214473A priority Critical patent/JP2023098012A/en
Publication of JP2023098012A publication Critical patent/JP2023098012A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

To prevent a user from visually recognizing a virtual image whose display quality is deteriorated by a wearing position.SOLUTION: A head-mounted display 1 includes a video processing device 40 for correcting an inputted video signal Va_Lft, a display panel 10L for emitting light based on a video signal Vb_Lft corrected by the video processing device 40, and optical system for emitting the light emitted from the display panel 10L toward the left eye of a user, and the video processing device 40 corrects the inputted video signal Va_Lft in accordance with the position of the left eye of the user with respect to the display panel 10L or the optical system.SELECTED DRAWING: Figure 2

Description

本開示は、例えばヘッドマウントディスプレイ、情報処理装置および光学モジュールに関する。 The present disclosure relates to, for example, a head mounted display, an information processing device, and an optical module.

バーチャルリアリティーを使用者に体験させるヘッドマウントディスプレイは、例えば表示パネルで作成された画像をレンズ等の光学系で取り込んで、使用者に虚像として視認させる構成になっている。このようなヘッドマウントディスプレイに適用される表示パネルとしては、例えば特許文献1に記載されているように、OLEDのような有機EL素子を用いたものが知られている。なお、OLEDは、Organic Light Emitting Diodeの略である。 A head-mounted display that allows a user to experience virtual reality has a configuration in which an image created on a display panel, for example, is captured by an optical system such as a lens, and the user visually recognizes it as a virtual image. As a display panel applied to such a head-mounted display, a display panel using an organic EL element such as an OLED is known, as described in Patent Document 1, for example. OLED is an abbreviation for Organic Light Emitting Diode.

特開2017-142975号公報JP 2017-142975 A

しかしながら、例えば表示パネルにおいて作成される画像のサイズが1インチ未満のように小さい場合、使用者の個人差による影響、具体的には使用者の眼(瞳)の間隔や、位置などが設計値よりもずれることによる影響が無視できなくなる。例えば、使用者の眼の位置などが設計値よりもずれると、表示パネルから斜め方向に出射した光が使用者の眼に到達する。表示パネルから斜め方向に出射した光においては、正面方向に出射した光と比較して、輝度が低下したり、色バランスが崩れたりするので、使用者は、表示品位が低下した虚像を視認してしまう、という課題がある。 However, if the size of the image created on the display panel is small, for example, less than 1 inch, the influence of individual differences of the user, specifically, the distance and position of the user's eyes (pupils), etc., are the design values. It becomes impossible to ignore the influence of deviation from For example, if the position of the user's eyes deviates from the design value, light emitted obliquely from the display panel reaches the user's eyes. Light emitted obliquely from the display panel has lower luminance and loses color balance compared to light emitted in the front direction. There is a problem that

本開示の一態様に係るヘッドマウントディスプレイは、入力された映像信号を補正する映像処理装置と、前記映像処理装置によって補正された映像信号に基づいた光を出射する表示パネルと、当該表示パネルから出射された光を、使用者の眼に向けて射出する光学系と、を含み、前記映像処理装置は、前記表示パネルまたは光学系に対する使用者の眼の位置に応じて、前記入力された映像信号を補正する。 A head mounted display according to an aspect of the present disclosure includes a video processing device that corrects an input video signal, a display panel that emits light based on the video signal corrected by the video processing device, and from the display panel and an optical system for emitting emitted light toward the eyes of a user, wherein the image processing device outputs the input image according to the position of the user's eyes with respect to the display panel or the optical system. Correct the signal.

実施形態に係るヘッドマウントディスプレイの構成を示す図である。It is a figure which shows the structure of the head mounted display which concerns on embodiment. ヘッドマウントディスプレイにおける表示パネルの構成を示す斜視図である。It is a perspective view which shows the structure of the display panel in a head mounted display. 表示パネルにおいて画像を表示する領域を説明するための平面図である。FIG. 4 is a plan view for explaining an area in which an image is displayed on the display panel; ヘッドマウントディスプレイの電気的な構成を示すブロック図である。3 is a block diagram showing the electrical configuration of the head mounted display; FIG. 補正値データテーブルに記憶される補正値を説明するための図である。FIG. 4 is a diagram for explaining correction values stored in a correction value data table; FIG. ヘッドマウントディスプレイの動作を示すフローチャートである。4 is a flow chart showing the operation of the head mounted display; 実施形態における映像品位の改善を説明するための図である。It is a figure for demonstrating the improvement of the image quality in embodiment. 補正値データテーブルの作成について説明するための図である。FIG. 10 is a diagram for explaining creation of a correction value data table; FIG. 補正値データテーブルの作成について説明するための図である。FIG. 10 is a diagram for explaining creation of a correction value data table; FIG. 補正値データテーブルの作成について説明するための図である。FIG. 10 is a diagram for explaining creation of a correction value data table; FIG. 補正値データテーブルの作成について説明するための図である。FIG. 10 is a diagram for explaining creation of a correction value data table; FIG. ヘッドマウントディスプレイの光学構成について簡易的に示す図である。It is a figure which shows simply about the optical structure of a head mounted display. 補正値の特性の一例を示す図である。FIG. 5 is a diagram showing an example of correction value characteristics; 補正値の特性の一例を示す図である。FIG. 5 is a diagram showing an example of correction value characteristics; 変形例に係るヘッドマウントディスプレイの構成を示す図である。It is a figure which shows the structure of the head mounted display which concerns on a modification.

以下、本発明の実施形態に係るヘッドマウントディスプレイについて図面を参照して説明する。
なお、各図において、各部の寸法および縮尺は、実際のものと適宜に異ならせてある。また、以下に述べる実施の形態は、好適な具体例であるから、技術的に好ましい種々の限定が付されているが、本発明の範囲は、以下の説明において特に本発明を限定する旨の記載がない限り、これらの形態に限られるものではない。
Hereinafter, head mounted displays according to embodiments of the present invention will be described with reference to the drawings.
In each drawing, the dimensions and scale of each part are appropriately different from the actual ones. Further, since the embodiments described below are preferred specific examples, they are subject to various technically preferable limitations. It is not limited to these forms unless otherwise stated.

図1は、実施形態に係るヘッドマウントディスプレイ1の構成を示す図である。
ヘッドマウントディスプレイ1は、左右の眼に対応して映像を表示するための一対の光学ユニット100Lおよび100Rと、光学ユニット100Lおよび100Rを使用者の頭部に装着するための装着部(図示省略)とを有する。
一対の光学ユニット100Lおよび100Rは左右対称であるため、左眼用の光学ユニット100Lを例として説明する。
FIG. 1 is a diagram showing the configuration of a head mounted display 1 according to an embodiment.
The head mounted display 1 includes a pair of optical units 100L and 100R for displaying images corresponding to the left and right eyes, and a mounting portion (not shown) for mounting the optical units 100L and 100R on the user's head. and
Since the pair of optical units 100L and 100R are symmetrical, the optical unit 100L for the left eye will be described as an example.

光学ユニット100Lは、表示パネル10Lと集光光学系102と導光体103とを備える。なお、光学ユニット100Lが光学モジュールの一例である。表示パネル10Lは、半導体基板上やガラス基板上に形成された発光素子を備えた表示装置であり、本実施形態では、発光素子の一例としてOLEDが用いられる。 The optical unit 100L includes a display panel 10L, a condensing optical system 102, and a light guide 103. FIG. Note that the optical unit 100L is an example of an optical module. The display panel 10L is a display device including light-emitting elements formed on a semiconductor substrate or a glass substrate, and in this embodiment, OLEDs are used as an example of the light-emitting elements.

導光体103は、ロッドレンズを組み合わせて、ロッドインテグレーターを形成する。導光体103の光の入射側に、集光光学系102と表示パネル10Lとが配置し、集光光学系102により集光された表示光を、上記ロッドレンズが受光する。
集光光学系102で集光され、ロッドレンズ内で全反射して伝達される光束は、導光体103に設けられたハーフミラー層104で、使用者の左眼に向って反射する。
このように、光学ユニット100Lでは、表示パネル10Lから出射した表示光が、集光光学系102によって導光体103に入射し、ハーフミラー層104で反射して、使用者の左眼(瞳孔)Lepに導かれる。
ハーフミラー層104は、図1において6時の方向に向かう光を透過する。したがって、使用者は、表示パネル10Lによる表示像(虚像)とハーフミラー層104の先にある外界との双方を視認する。
Light guide 103 combines rod lenses to form a rod integrator. A condensing optical system 102 and a display panel 10L are arranged on the light incident side of the light guide 103, and the display light condensed by the condensing optical system 102 is received by the rod lens.
A light flux that is condensed by the condensing optical system 102 and is transmitted through total reflection within the rod lens is reflected toward the user's left eye by the half mirror layer 104 provided on the light guide 103 .
Thus, in the optical unit 100L, the display light emitted from the display panel 10L enters the light guide 103 through the condensing optical system 102, is reflected by the half-mirror layer 104, and enters the user's left eye (pupil). Led by Lep.
The half mirror layer 104 transmits light directed toward the 6 o'clock direction in FIG. Therefore, the user visually recognizes both the image (virtual image) displayed by the display panel 10L and the outside world beyond the half mirror layer 104 .

光学ユニット100Lにおいて導光体103の出射側には、X方向に沿ってセンサーL1、L2およびL3が設けられる。センサーL1、L2およびL3は、光学ユニット100Lおよび100Rが使用者の頭部に装着された場合に、光学ユニット100Lに対する使用者の左眼Lepの位置を特定するために設けられる。 Sensors L1, L2, and L3 are provided along the X direction on the output side of the light guide 103 in the optical unit 100L. Sensors L1, L2 and L3 are provided to identify the position of the user's left eye Lep with respect to optical unit 100L when optical units 100L and 100R are worn on the user's head.

右眼用の光学ユニット100Rについても、左眼用の光学ユニット100Lと同様な構成である。光学ユニット100Rにおいても導光体103の出射側には、X方向に沿ってセンサーR1、R2およびR3が設けられ、光学ユニット100Lおよび100Rが使用者の頭部に装着された場合に、光学ユニット100Rに対する使用者の右眼Repの位置を特定するために設けられる。
なお、センサーL1~L3およびR1~R3は、使用者の眼に到達する光に影響を与えない位置に設けられる。
The optical unit 100R for the right eye also has the same configuration as the optical unit 100L for the left eye. Also in the optical unit 100R, sensors R1, R2, and R3 are provided along the X direction on the output side of the light guide 103, and when the optical units 100L and 100R are worn on the head of the user, the optical unit It is provided to specify the position of the user's right eye Rep with respect to 100R.
The sensors L1-L3 and R1-R3 are provided at positions that do not affect the light reaching the user's eyes.

図2は、表示パネル10Lの構成を示す斜視図であり、図3は、当該表示パネル10Lにおいて画像を表示する領域を説明するための図である。
図2に示されるように、表示パネル10Lは、領域12で開口する枠状のケース192に収納される。表示パネル10Lによって表示される画像は横長の矩形形状である。具体的には、表示パネル10Lは、本実施形態では図3に示されるように、1つの画素110が、領域12において縦1080×横1920でマトリクス状に配列する。
FIG. 2 is a perspective view showing the configuration of the display panel 10L, and FIG. 3 is a diagram for explaining an area for displaying an image on the display panel 10L.
As shown in FIG. 2, the display panel 10L is housed in a frame-shaped case 192 that opens in the region 12. As shown in FIG. The image displayed by the display panel 10L has a horizontally long rectangular shape. Specifically, in the display panel 10L, one pixel 110 is arranged in a matrix of 1080×1920 in the region 12 as shown in FIG. 3 in this embodiment.

1つの画素110は、赤(R)の光を出射するサブ画素112R、緑(G)の光を出射するサブ画素112G、および、青(B)の光を出射するサブ画素112Bに分かれ、赤、緑および青の加法混色によって1つの画素でカラーが表現される。サブ画素112R、112Gおよび112Bから出射する各光の強度は、すなわちRGBの各階調レベルは、本実施形態では、例えば8ビットでそれぞれ指定される。 One pixel 110 is divided into a sub-pixel 112R that emits red (R) light, a sub-pixel 112G that emits green (G) light, and a sub-pixel 112B that emits blue (B) light. , green and blue are additive to represent a color in one pixel. In this embodiment, the intensity of each light emitted from the sub-pixels 112R, 112G and 112B, that is, each RGB gradation level is designated by, for example, 8 bits.

なお、領域12における画素の座標位置を特定するために、便宜的に図3において左上端の座標を(1、1)とし、右方向に向かってx座標が1920まで増加し、下方向に向かってy座標が1080まで増加するものとする。 In order to specify the coordinate position of the pixel in the area 12, the coordinates of the upper left corner in FIG. and the y-coordinate increases to 1080.

本説明において、X方向は、表示パネル10Lにおいて、画像が表示される領域12の横方向であって、表示パネル10Lにおいて画像を表示する際の水平走査方向である。Y方向は、領域12の縦方向であって、表示パネル10Lにおいて画像を表示する際の垂直走査方向である。Z方向は、発光素子による光の出射方向である。 In this description, the X direction is the lateral direction of the area 12 where the image is displayed on the display panel 10L, and is the horizontal scanning direction when displaying the image on the display panel 10L. The Y direction is the vertical direction of the area 12 and is the vertical scanning direction when an image is displayed on the display panel 10L. The Z direction is the direction in which light is emitted from the light emitting element.

説明を図2に戻すと、表示パネル10Lは、FPC基板194の一端に接続される。なお、FPCとは、Flexible Printed Circuitsの略称である。FPC基板194の他端には、複数の端子196が設けられ、当該複数の端子196は、次に説明する映像処理装置に接続される。特に、図示しないが、表示パネル10Rについても、表示パネル10Lと同様な構成である。 Returning to FIG. 2 , the display panel 10L is connected to one end of the FPC board 194 . Note that FPC is an abbreviation for Flexible Printed Circuits. A plurality of terminals 196 are provided at the other end of the FPC board 194, and the plurality of terminals 196 are connected to the video processing device described below. In particular, although not shown, the display panel 10R also has the same configuration as the display panel 10L.

図4は、ヘッドマウントディスプレイ1を含むシステムの電気的な構成を示すブロック図である。ヘッドマウントディスプレイ1は、上述した表示パネル10L、10R、センサーL1~L3およびR1~R3のほか、映像処理装置40および記憶装置50を含む。 FIG. 4 is a block diagram showing the electrical configuration of a system including the head mounted display 1. As shown in FIG. Head-mounted display 1 includes display panels 10L, 10R, sensors L1-L3 and R1-R3, as well as video processing device 40 and storage device 50 described above.

映像処理装置40は、当該映像処理装置40の全体を制御するプロセッサを含み、当該プロセッサは、例えば、周辺装置とのインターフェイス、演算ユニットおよびレジスタ等を含むCPU(Central Processing Unit)で構成される。なお、プロセッサの一部または全部を、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)等のハードウェアで実現しても良い。プロセッサは、各種の処理を並列的または逐次的に実行する。
プロセッサは、プログラム記憶部46に記憶されたプログラムを実行することによって、映像信号Va_LftおよびVa_Rgtを補正するための複数の要素(制御部42、演算部44)として機能する。
The video processing device 40 includes a processor that controls the entire video processing device 40, and the processor is configured by, for example, a CPU (Central Processing Unit) including interfaces with peripheral devices, arithmetic units, registers, and the like. Part or all of the processor may be realized by hardware such as DSP (Digital Signal Processor), ASIC (Application Specific Integrated Circuit), PLD (Programmable Logic Device), FPGA (Field Programmable Gate Array). The processor executes various processes in parallel or serially.
The processor functions as a plurality of elements (control section 42, calculation section 44) for correcting video signals Va_Lft and Va_Rgt by executing programs stored in program storage section 46. FIG.

ヘッドマウントディスプレイ1にはホスト装置5が接続される。ホスト装置5は、映像信号Va_Lft、制御信号Ctr_L、映像信号Va_Rgtおよび制御信号Ctr_Rを出力する。映像信号Va_Lftは、使用者の左眼に視認させる映像を示す信号であり、映像を構成する各コマの各画素の階調レベルをRGB毎に8ビットで指定する。制御信号Ctr_Lは、映像信号Va_Lftの同期信号であり、具体的には、垂直走査開始を指示する垂直同期信号や、水平走査開始を指示する水平同期信号、および、映像信号Va_Lftの1画素分のタイミングを示すドットクロック信号が含まれる。映像信号Va_Rgtは、使用者の右眼に視認させる映像を示す信号であり、映像を構成する各コマの各画素の階調レベルをRGB毎に8ビットで指定する。制御信号Ctr_Rは、映像信号Va_Rgtの同期信号であり、垂直同期信号や、水平同期信号、および、ドットクロック信号が含まれる。
実施形態では、表示パネル10Lおよび10Rに異なる映像、具体的には視差を伴う映像を表示させることで、奥行きや立体感を使用者に知覚させることができる。なお、立体感等を知覚させる必要がない場合には、映像信号Va_LftおよびVa_Rgtを共通化し、制御信号Ctr_LおよびCtr_Rを共通化してもよい。
A host device 5 is connected to the head mounted display 1 . The host device 5 outputs a video signal Va_Lft, a control signal Ctr_L, a video signal Va_Rgt and a control signal Ctr_R. The video signal Va_Lft is a signal indicating an image to be visually recognized by the user's left eye, and designates the gradation level of each pixel of each frame constituting the image by 8 bits for each RGB. The control signal Ctr_L is a synchronizing signal for the video signal Va_Lft. Specifically, the control signal Ctr_L is a vertical synchronizing signal for instructing the start of vertical scanning, a horizontal synchronizing signal for instructing the start of horizontal scanning, and one pixel of the video signal Va_Lft. A dot clock signal is included to indicate timing. The video signal Va_Rgt is a signal indicating a video to be visually recognized by the right eye of the user, and designates the gradation level of each pixel of each frame constituting the video by 8 bits for each RGB. The control signal Ctr_R is a synchronizing signal for the video signal Va_Rgt, and includes a vertical synchronizing signal, a horizontal synchronizing signal, and a dot clock signal.
In the embodiment, by displaying different images, specifically images with parallax, on the display panels 10L and 10R, the user can perceive depth and stereoscopic effect. If there is no need to perceive a stereoscopic effect or the like, the video signals Va_Lft and Va_Rgt may be shared, and the control signals Ctr_L and Ctr_R may be shared.

記憶装置50は、メモリーなどの半導体記憶素子で構成され、複数の補正値データテーブル52Lおよび52Rを不揮発性で記憶する。
複数の補正値データテーブル52Lは、左眼用の表示パネル10Lにおいて画素位置に応じた補正値を角度θ毎に記憶するテーブルである。
The storage device 50 is composed of a semiconductor storage element such as a memory, and non-volatilely stores a plurality of correction value data tables 52L and 52R.
The plurality of correction value data tables 52L are tables that store correction values corresponding to pixel positions for each angle θ in the display panel 10L for the left eye.

図5は、ある角度θに対応付けられた補正値データテーブルの例を説明するための図である。
補正値データテーブルは、縦1080×横1920でマトリクス状に配列する画素110に対応した補正値が格納され、各補正値は、それぞれR成分、G成分およびB成分の補正値の集合体である。例えば、領域12において横座標がiであり、縦座標がjである補正値CL(i,j)は、R成分の補正値(Rc)、G成分の補正値(Gc)およびB成分の補正値(Bc)を含む。
FIG. 5 is a diagram for explaining an example of a correction value data table associated with a certain angle θ.
The correction value data table stores correction values corresponding to the pixels 110 arranged in a matrix of 1080×1920, and each correction value is a set of correction values for the R, G, and B components. . For example, the correction value CL(i,j) whose abscissa is i and whose ordinate is j in the region 12 is the R component correction value (Rc), the G component correction value (Gc), and the B component correction value (Gc). Contains the value (Bc).

角度θとは、ある画素の位置からZ方向に向かう鉛直線と、当該画素位置から使用者の左眼に向かう光の出射方向とのなす角度をいう。角度θとしては、例えば0度を基準に、±15度、±30度、±45度、±60度、±75度が用いられる。
ある画素の補正値には、その画素の位置からZ方向に向かって設計上の瞳位置に到達する当該色の強度を、当該画素位置から当該方向に向かって使用者の瞳位置に到達する当該色の強度で割った商が用いられる。
The angle θ is the angle formed by a vertical line extending in the Z direction from the position of a certain pixel and the direction in which light is emitted from the position of the pixel to the user's left eye. As the angle θ, for example, ±15 degrees, ±30 degrees, ±45 degrees, ±60 degrees, and ±75 degrees are used with 0 degrees as the reference.
The correction value of a certain pixel includes the intensity of the color reaching the design pupil position in the Z direction from the position of the pixel, and the intensity of the color reaching the pupil position of the user in the direction from the pixel position. The quotient divided by the intensity of the color is used.

例えば、表示パネル10Lにおいて、ある画素の位置から正面方向であるZ方向に出射して設計上の瞳位置に到達するR光、G光およびB光の強度がそれぞれ「100」である場合であって、当該画素から+15度の角度θをなして、使用者の左眼に向かって到達する場合に、当該到達光のうち、R光の強度が「80」であり、G光の強度が「75」であり、B光の強度が「90」であったならば、当該画素位置の補正値は、RGBの順で「1.25」、「1.33」および「1.11」になる。
また上記の場合に、使用者の左眼に到達する光のうち、R光の強度が「95」であり、G光の強度が「90」であり、B光の強度が「85」であったならば、当該画素位置の補正値は、当該画素位置の補正値は、RGBの順で「1.05」、「1.11」および「1.18」になる。
For example, in the display panel 10L, the intensity of each of the R light, the G light, and the B light emitted from the position of a certain pixel in the Z direction, which is the front direction, and reaching the designed pupil position is "100". , and reaches the user's left eye at an angle θ of +15 degrees from the pixel. 75” and the intensity of the B light is “90”, the correction values for the pixel position are “1.25”, “1.33” and “1.11” in the order of RGB. .
In the above case, of the light reaching the user's left eye, the intensity of the R light is "95", the intensity of the G light is "90", and the intensity of the B light is "85". Therefore, the correction values for the pixel position are "1.05", "1.11" and "1.18" in the order of RGB.

記憶装置50には一時的な作業をするために領域54Lおよび54Rが設けられる。領域54Lには、複数の補正値データテーブル52Lのうち、左眼の位置の角度θに対応づけられた補正値データテーブルが格納される。 Storage device 50 is provided with areas 54L and 54R for temporary work. The area 54L stores a correction value data table associated with the angle θ of the position of the left eye among the plurality of correction value data tables 52L.

複数の補正値データテーブル52Rについても同様であり、右眼用の表示パネル10Rにおいて画素位置に応じた補正値CR(i,j)を、角度θ毎に記憶するテーブルである。
記憶装置50に設けられる領域54Rには、複数の補正値データテーブル52Rのうち、映像処理装置40によって特定された右眼の位置の角度θに対応づけられた補正値データテーブルが格納される。
The same applies to a plurality of correction value data tables 52R, which are tables that store correction values CR(i,j) corresponding to pixel positions on the right-eye display panel 10R for each angle θ.
A region 54R provided in the storage device 50 stores a correction value data table associated with the angle θ of the right eye position specified by the video processing device 40 among the plurality of correction value data tables 52R.

映像処理装置40(制御部42)によって座標(i,j)が指定された場合に、当該座標(i,j)に対応する補正値CL(i,j)が領域54Lから読み出され、また、補正値CR(i,j)が領域54Rから読み出されて、それぞれ映像処理装置40に返送される。 When the coordinates (i, j) are specified by the video processing device 40 (control unit 42), the correction value CL (i, j) corresponding to the coordinates (i, j) is read from the area 54L, and , correction values CR (i,j) are read out from the area 54R and sent back to the image processing device 40, respectively.

映像処理装置40(演算部44)は、センサーL1~L3による検出信号に基づいて、ヘッドマウントディスプレイ1を装着する使用者の左眼Lepの位置を特定する。
同様に、映像処理装置40(演算部44)は、センサーR1~R3による検出信号に基づいて、使用者の右眼Repの位置を特定する。
The video processing device 40 (calculation unit 44) identifies the position of the left eye Lep of the user wearing the head mounted display 1 based on the detection signals from the sensors L1 to L3.
Similarly, the video processing device 40 (calculation unit 44) identifies the position of the user's right eye Rep based on the detection signals from the sensors R1 to R3.

映像処理装置40(制御部42)は、複数の補正値データテーブル52Lのうち、特定した左眼Lepの位置の角度θに対応した補正値データテーブルを読み出して、領域54Lに格納する。同様に、映像処理装置40(制御部42)は、複数の補正値データテーブル52Rのうち、特定した右眼Repの位置の角度θに対応した補正値データテーブルを読み出して、領域54Rに格納する。 The video processing device 40 (control unit 42) reads out the correction value data table corresponding to the specified angle θ of the position of the left eye Lep among the plurality of correction value data tables 52L, and stores it in the area 54L. Similarly, the video processing device 40 (control unit 42) reads out the correction value data table corresponding to the specified angle θ of the position of the right eye Rep among the plurality of correction value data tables 52R, and stores it in the area 54R. .

映像処理装置40(制御部42)は、制御信号Ctr_Lに含まれるドットクロック信号をカウントして、そのカウント結果を横座標のiとし、制御信号Ctrに含まれる水平走査開始信号をカウントして、そのカウント結果を縦座標のjとして、当該座標(i,j)を記憶装置50に指定する。
なお、ドットクロック信号のカウント結果は、水平走査開始信号によって初期値の「1」にセットされ、水平走査開始信号のカウント結果は、制御信号Ctrに含まれる垂直走査開始信号によって初期値の「1」にセットされる。
The video processing device 40 (control unit 42) counts the dot clock signals included in the control signal Ctr_L, sets the count result as i on the horizontal coordinate, counts the horizontal scanning start signals included in the control signal Ctr, The coordinate (i, j) is specified in the storage device 50 with the count result as j of the ordinate.
The count result of the dot clock signal is set to the initial value "1" by the horizontal scanning start signal, and the count result of the horizontal scanning start signal is set to the initial value "1" by the vertical scanning start signal included in the control signal Ctr. ” is set.

映像処理装置40(演算部44)は、映像信号Va_Lftで指定されるRの階調レベルに、補正値CL(i,j)に含まれるR成分の補正値(Rc)を乗じて、映像信号Vb_LftのRの階調レベルとして出力する。
同様に、映像処理装置40(演算部44)は、映像信号Va_Lftで指定されるG、Bの階調レベルに、補正値CL(i,j)に含まれるG成分の補正値(Gc)、B成分の補正値(Bc)を順に乗じて、映像信号Vb_LftのGの階調レベル、Bの階調レベルとして出力する。
映像処理装置40(演算部44)は、映像信号Va_Rgtで指定されるR、G、Bの階調レベルに、補正値CR(i,j)に含まれるR成分の補正値(Rc)、G成分の補正値(Gc)、B成分の補正値(Bc)を順に乗じて、映像信号Vb_RgtのRの階調レベル、Gの階調レベル、Bの階調レベルとして出力する。
なお、必要に応じて後述する正規化処理が実行される。
The video processing device 40 (calculation unit 44) multiplies the R gradation level specified by the video signal Va_Lft by the correction value (Rc) of the R component included in the correction value CL (i, j) to obtain the video signal It is output as the R gradation level of Vb_Lft.
Similarly, the video processing device 40 (calculation unit 44) adds the G component correction value (Gc), The corrected value (Bc) of the B component is multiplied in order and output as the G gradation level and the B gradation level of the video signal Vb_Lft.
The image processing device 40 (calculation unit 44) applies the R component correction values (Rc), G The correction value (Gc) of the component and the correction value (Bc) of the B component are multiplied in order and output as the R gradation level, the G gradation level, and the B gradation level of the video signal Vb_Rgt.
Note that a normalization process, which will be described later, is executed as necessary.

表示パネル10Lは、映像信号Vb_Lftで示される映像を、同期信号Sync_Lもしたがって領域12に表示させる。同様に、表示パネル10Lは、映像信号Vb_Rgtで示される映像を、同期信号Sync_Rもしたがって領域12に表示させる。
なお、同期信号Sync_Lは、制御信号Ctr_Lに対して、記憶装置50における読み出しや、映像処理装置40における演算の分だけ遅延した信号になる。同様に、同期信号Sync_Rは、制御信号Ctr_Rに対して、読み出しや、演算の分だけ遅延した信号になる。
The display panel 10L displays the video indicated by the video signal Vb_Lft in the area 12 according to the synchronization signal Sync_L. Similarly, the display panel 10L causes the image indicated by the image signal Vb_Rgt to be displayed in the area 12 according to the synchronization signal Sync_R.
Note that the synchronization signal Sync_L is delayed from the control signal Ctr_L by the reading in the storage device 50 and the calculation in the video processing device 40 . Similarly, the synchronization signal Sync_R is delayed from the control signal Ctr_R by the amount of reading and calculation.

図6は、ヘッドマウントディスプレイ1の動作を示すフローチャートである。なお、ヘッドマウントディスプレイ1については、左眼用の動作と右眼用の動作とが並列して実行されるが、両動作はほほ同じであるので、ここでは左眼用の動作を例に挙げて説明する。 FIG. 6 is a flow chart showing the operation of the head mounted display 1. As shown in FIG. Regarding the head-mounted display 1, operations for the left eye and operations for the right eye are executed in parallel. to explain.

まず、ヘッドマウントディスプレイ1において、例えば図示省略した電源スイッチを使用者がオンする操作をしたり、ホスト装置5が映像表示の開始を指示したりするなどして、電源オンが指定されると、制御部42は、所定のオンシーケンスを実行する(ステップS11)。なお、このオンシーケンスには、例えば領域54Lにおける記憶内容をクリアする処理などが含まれる。 First, in the head-mounted display 1, when the user turns on a power switch (not shown), or the host device 5 instructs the start of video display, the power is turned on. The control unit 42 executes a predetermined on-sequence (step S11). This on-sequence includes, for example, a process of clearing the stored contents in the area 54L.

次に、制御部42は、演算部44に対し、センサーL1~L3の検出信号に基づいて、ヘッドマウントディスプレイ1を装着する使用者の左眼Lepの位置を特定するように指示する(ステップS13)。なお、ここでいう左眼Lepの位置とは、後述するように設計上の位置からX方向に沿ってどれだけ離間しているかを示す情報である。
演算部44は、制御部42の指示にしたがって左眼Lepの位置を特定して、制御部42に返送する。
Next, the control unit 42 instructs the calculation unit 44 to specify the position of the left eye Lep of the user wearing the head mounted display 1 based on the detection signals of the sensors L1 to L3 (step S13 ). It should be noted that the position of the left eye Lep here is information indicating how far it is from the design position along the X direction, as will be described later.
The calculation unit 44 specifies the position of the left eye Lep according to the instruction of the control unit 42 and returns it to the control unit 42 .

制御部42は、記憶装置50に記憶された複数の補正値データテーブル52Lのうち、左眼Lepの位置に相当する角度に最も近い角度θに対応付けられた補正値データテーブルを特定する(ステップS14)。
制御部42は、特定した補正値データテーブルを読み出して領域54Lに格納する(ステップS15)。
The control unit 42 identifies, among the plurality of correction value data tables 52L stored in the storage device 50, the correction value data table associated with the angle θ that is closest to the angle corresponding to the position of the left eye Lep (step S14).
The control unit 42 reads out the specified correction value data table and stores it in the area 54L (step S15).

制御部42では、ホスト装置5から映像信号Va_Lftを入力する(ステップS16)。
制御部42は、当該映像信号Va_Lftで指定される画素の位置情報(i,j)に対応する補正値CL(i,j)を領域54Lから読み出す。そして、制御部42は、演算部44に対して、当該映像信号Va_Lftで指定されるRの階調レベルに、当該補正値CL(i,j)に含まれるR成分の補正値(Rc)を乗じて、映像信号Vb_LftのRの階調レベルとして出力させる。
同様に、演算部44は、映像信号Va_LftにおけるGの階調レベルに、当該補正値CL(i,j)に含まれるG成分の補正値(Gc)を乗じて、映像信号Vb_LftのGの階調レベルとして出力し、映像信号Va_LftにおけるBの階調レベルに、当該補正値CL(i,j)に含まれるB成分の補正値(Bc)を乗じて、映像信号Vb_LftのBの階調レベルとして出力する(ステップS17)。
The controller 42 receives the video signal Va_Lft from the host device 5 (step S16).
The control unit 42 reads out the correction value CL (i, j) corresponding to the pixel position information (i, j) specified by the video signal Va_Lft from the area 54L. Then, the control unit 42 instructs the calculation unit 44 to apply the correction value (Rc) of the R component included in the correction value CL(i,j) to the R gradation level specified by the video signal Va_Lft. It is multiplied and output as the R gradation level of the video signal Vb_Lft.
Similarly, the calculation unit 44 multiplies the G gradation level of the video signal Va_Lft by the correction value (Gc) of the G component included in the correction value CL(i,j) to obtain the G gradation of the video signal Vb_Lft. The B gradation level of the video signal Va_Lft is multiplied by the B component correction value (Bc) included in the correction value CL(i,j) to obtain the B gradation level of the video signal Vb_Lft. (step S17).

なお、映像信号Va_Lftで指定される階調レベルに補正値を乗じた階調レベルが8ビットの上限である「255」を越えてしまう場合、その越えた値を「255」とするような正規化処理が実行される。例えば、映像信号Va_Lftで指定されるの階調レベルに補正値を乗じた階調レベルが「255」を越えて「300」になる場合、補正値を乗じた階調値にさらに「0.85」(=255/300)を乗じる処理が実行される。
より詳細には、制御部42は、映像信号Va_Lftで指定される階調レベルに補正値を乗じた階調レベルが「255」を越えているか否かを判定し、越えていれば、その越えた値を「255」とするように、演算部44に対し正規化処理を実行させ、正規化処理後の階調レベルを映像信号Vb_Lftとして出力させる。
制御部42は、越えていないと判定すれば、演算部44に対し正規化処理を実行させない。
If the gradation level obtained by multiplying the gradation level specified by the video signal Va_Lft by the correction value exceeds the 8-bit upper limit of "255", the exceeding value is set to "255". conversion processing is executed. For example, if the gradation level obtained by multiplying the gradation level specified by the video signal Va_Lft by the correction value exceeds "255" and becomes "300", the gradation value multiplied by the correction value is further "0.85". ” (=255/300) is executed.
More specifically, the control unit 42 determines whether or not the gradation level obtained by multiplying the gradation level specified by the video signal Va_Lft by the correction value exceeds "255". The calculation unit 44 is caused to perform normalization processing so that the value obtained is "255", and the gradation level after the normalization processing is output as the video signal Vb_Lft.
If the control unit 42 determines that the threshold is not exceeded, the control unit 42 does not cause the calculation unit 44 to perform the normalization process.

制御部42では、ステップS16およびS17の処理を電源オフ操作がなされるまで繰り返し実行する。すなわち、制御部42は、ヘッドマウントディスプレイ1において、例えば電源スイッチを使用者がオフする操作をしたり、ホスト装置5が映像表示の終了を指示したりするなどして、電源オフが指定されたか否かを判定する(ステップS18)。 The control unit 42 repeatedly executes the processes of steps S16 and S17 until the power is turned off. That is, the control unit 42 determines whether the head mounted display 1 has been instructed to turn off the power by, for example, the user turning off the power switch or the host device 5 instructing to end the image display. It is determined whether or not (step S18).

そして、制御部42は、電源オフが指定されていないと判定すれば(ステップS18の判定結果が「No」であれば)、処理をステップS16に戻す一方、電源オフが指定されたと判定すれば(ステップS18の判定結果が「Yes」であれば)、オフシーケンス動作を実行する(ステップS18)。 If the control unit 42 determines that power off is not specified (if the determination result in step S18 is "No"), the process returns to step S16. (If the determination result of step S18 is "Yes"), the off-sequence operation is executed (step S18).

オフシーケンス動作とは、表示パネル10L、10Rによる表示を終了させる際に実行される一連の動作である。このオフシーケンス動作後に、ヘッドマウントディスプレイ1における電源が実際にオフされて、この処理が終了する。
なお、ここでは、左眼の処理を例にとって説明したが、右眼の処理も左眼の処理に並行して実行される。
The off-sequence operation is a series of operations that are executed when the display on the display panels 10L and 10R is terminated. After this off-sequence operation, the power of the head-mounted display 1 is actually turned off, and this process ends.
Note that although the processing for the left eye has been described here as an example, the processing for the right eye is also executed in parallel with the processing for the left eye.

図7は、本実施形態による効果例を説明するための図である。上欄は、使用者の左眼の位置が設計上の位置からずれているために、使用者からみて、領域12の表示が周辺に向かうほど減光して視認される例を示す。
中欄は、ホスト装置5から供給される映像信号を、使用者における左眼Lepの位置に合わせて補正することによって作成された領域12の表示例であり、周辺に向かうほどの減光を相殺するように、周辺に向かうほどの増光するように補正した例である。
下欄は、設計上の位置からずれた使用者の左眼によって視認される虚像の例を示し、上欄で示されるような周辺減光が、補正による周辺増光によって相殺されて、フラットになって視認される例を示す。
本実施形態では、使用者の眼の位置が設計値よりもずれても、視認される虚像の表示品位の低下を防ぐことができる。
FIG. 7 is a diagram for explaining an example of the effects of this embodiment. The upper column shows an example in which the display in the area 12 is visually perceived as being dimmed toward the periphery as viewed from the user because the position of the user's left eye is shifted from the designed position.
The middle column is a display example of the area 12 created by correcting the video signal supplied from the host device 5 according to the position of the user's left eye Lep, and cancels out the dimming toward the periphery. This is an example in which the correction is made so that the brightness increases toward the periphery.
The lower column shows an example of a virtual image viewed by the user's left eye that is shifted from the design position, and the vignetting as shown in the upper column is canceled by the vignetting due to the correction, resulting in a flattened image. Here is an example of what is visually recognized.
In this embodiment, even if the position of the user's eyes deviates from the design value, it is possible to prevent deterioration of the display quality of the visually recognized virtual image.

次に、本実施形態に適用される補正値データテーブル52L、52Rの作成例について説明する。なお、左眼用の補正値データテーブル52Lの作成と右眼用の補正値データテーブル52Rの作成とは、ほぼ同じであるので、ここでは左眼用の作成例を例に挙げて説明する。 Next, an example of creating the correction value data tables 52L and 52R applied to this embodiment will be described. Since the creation of the correction value data table 52L for the left eye and the creation of the correction value data table 52R for the right eye are substantially the same, an example of creation for the left eye will be described here.

図8は、補正値データテーブル52Lを作成するために、表示パネル10Lにおける輝度の特性を測定する装置の説明図である。
表示パネル10Lは、回転および移動可能なテーブル220に載置される。テーブル220は、X方向およびY方向に移動自在であり、テーブルのY方向に沿った軸Ryを中心に時計回りまたは反時計回りで回転可能になっている。なお、表示パネル10Lは、ヘッドマウントディスプレイ1に組む込まれる前の状態である。
FIG. 8 is an explanatory diagram of a device for measuring luminance characteristics in the display panel 10L in order to create the correction value data table 52L.
The display panel 10L is placed on a rotatable and movable table 220. As shown in FIG. The table 220 is movable in the X and Y directions, and is rotatable clockwise or counterclockwise around an axis Ry along the Y direction of the table. Note that the display panel 10L is in a state before being incorporated into the head mounted display 1. FIG.

輝度センサー210は、領域12における例えば9箇所の輝度を、RGBの成分毎に、角度θを変化させて測定する。具体的には、領域12における9箇所とは、図9に示されるように、左上、上中央、右上、左中央、中央、右中央、左下、下中央および右下であり、いずれも縦が360画素であり、横が640画素である矩形の領域である。
なお、輝度センサー210は、表示パネル10LについてRのサブ画素112R、Gのサブ画素112GおよびBのサブ画素112Bのそれぞれが、例えば階調レベルが基準の「100」に相当する輝度で発光した場合の、輝度を測定するものとする。
The luminance sensor 210 measures the luminance at, for example, nine locations in the region 12 while changing the angle θ for each RGB component. Specifically, the nine locations in the region 12 are, as shown in FIG. It is a rectangular area of 360 pixels and 640 pixels wide.
Note that the luminance sensor 210 detects that when each of the R sub-pixel 112R, the G sub-pixel 112G, and the B sub-pixel 112B of the display panel 10L emits light with a luminance corresponding to the reference gradation level "100", for example. shall measure the luminance of

また、角度θは、図10に示されるように、表示パネル10LのX-Y平面に対して鉛直であって、領域12における測定箇所を通過してZ方向に向かう鉛直線Cenと、当該測定箇所から輝度センサー210に向かう直線Mesとのなす角度をいう。本説明では、鉛直線Cenと直線Mesとが一致する場合の角度θをゼロとする。また、角度θの正負は、直線Mesが鉛直線Cenに対して図において時計回りになる場合をプラス、反時計回りになる場合をマイナスとする。 Also, as shown in FIG. 10, the angle .theta. It refers to an angle formed by a straight line Mes extending from a point to the brightness sensor 210 . In this description, the angle θ when the vertical line Cen and the straight line Mes coincide is assumed to be zero. The sign of the angle θ is positive when the straight line Mes rotates clockwise with respect to the vertical line Cen, and negative when the straight line Mes rotates counterclockwise.

なお、角度θとしては、例えば0度、±15度、±30度、±45度、±60度、±75度の11通リとする。また、図10において左欄は、測定位置が右中央(または、右上、右下)であって角度θが-45度である場合を示し、中欄は、測定位置が中央(または、上中央、下中央)であって角度θが0度である場合を示し、右欄は、測定位置が左中央(または、左上、左下)であって角度θが+45度である場合を示す。 The angle θ is, for example, 11 angles of 0 degree, ±15 degrees, ±30 degrees, ±45 degrees, ±60 degrees, and ±75 degrees. In FIG. 10, the left column shows the case where the measurement position is the center right (or upper right, lower right) and the angle θ is -45 degrees, and the middle column shows the case where the measurement position is the center (or upper center). , lower center) and the angle θ is 0 degree, and the right column shows the case where the measurement position is the left center (or upper left or lower left) and the angle θ is +45 degrees.

このようにして、表示パネル10Lの輝度特性について領域12の9箇所について、角度θを11通りで変化させた場合の輝度をRGB毎に測定する。
そして、基準とした階調レベルの「100」を、測定したRGB輝度を階調レベルに換算した値で除し、当該商を、領域12における測定箇所の補正値とする。
In this manner, the brightness is measured for each of RGB at 9 locations in the region 12 with respect to the brightness characteristics of the display panel 10L when the angle θ is changed in 11 ways.
Then, the reference gradation level “100” is divided by the value obtained by converting the measured RGB luminance into the gradation level, and the quotient is taken as the correction value of the measurement point in the area 12 .

なお、この補正値は、測定した9箇所で代表させたものに過ぎないので、これを画素110の座標位置毎の補正値CL(i,j)として求める必要がある。
X座標については、例えば3箇所の左中央、中央、右中央でRGB輝度を測定して求めた補正値が、図13の上欄に示されるような値である場合に、画素110におけるX座標位置毎の補正値CL(i,j)を3点から直線補間で求めてもよい。
また、Y座標については、例えば3箇所の上中央、中央、下中央でRGB輝度を測定して求めた補正値が、図13の下欄に示されるような値である場合に、画素110におけるY座標位置毎の補正値CL(i,j)を3点から直線近似による補間で求めてもよい。
なお、直線補間に限られず、図14に示されるように曲線近似による補間で求めてもよい。
Since this correction value is only representative of the nine measured points, it is necessary to obtain the correction value CL(i,j) for each coordinate position of the pixel 110 .
Regarding the X-coordinate, for example, when the correction values obtained by measuring the RGB luminance at the left center, center, and right center are the values shown in the upper column of FIG. The correction value CL(i,j) for each position may be obtained by linear interpolation from three points.
Regarding the Y coordinate, for example, when the correction values obtained by measuring the RGB luminance at three points, the upper center, the center, and the lower center, are the values shown in the lower column of FIG. The correction value CL(i,j) for each Y coordinate position may be obtained from three points by linear approximation interpolation.
It should be noted that it is not limited to linear interpolation, and may be obtained by interpolation by curve approximation as shown in FIG.

このように画素110の座標位置毎の補正値CL(i,j)が補間によって求められて、1つの角度θに対応付けられた補正値データテーブルになる。この補正値データテーブルは、11通りの角度θ毎に求められて、記憶装置50において複数の(11の)補正値データテーブル52Lとして記憶される。
なお、右眼用の補正値データテーブルについても、ヘッドマウントディスプレイ1に組み込む前の表示パネル10Rの輝度が測定されて、左眼用の補正値データテーブルと同様に求められて、記憶装置50において複数の補正値データテーブル52Rとして記憶される。
このような補正値データテーブルによれば、画素110毎の輝度を測定しないで済むので、補正値データテーブルの作成・記憶することに要する時間の短縮化を図ることができる。
In this way, the correction value CL(i,j) for each coordinate position of the pixel 110 is obtained by interpolation to form a correction value data table associated with one angle θ. This correction value data table is obtained for each of 11 different angles θ and stored in the storage device 50 as a plurality of (11) correction value data tables 52L.
The correction value data table for the right eye is obtained by measuring the brightness of the display panel 10R before being incorporated into the head mounted display 1, and is obtained in the same manner as the correction value data table for the left eye. It is stored as a plurality of correction value data tables 52R.
According to such a correction value data table, it is not necessary to measure the brightness of each pixel 110, so it is possible to shorten the time required to create and store the correction value data table.

補正値データテーブルに対応付けられた角度θと、左眼Lepの位置との関係について説明する。図11の左欄に示されるように、左眼の設計上の位置Lrefが、表示パネル10Lの領域12における対角中心からZ方向に向かう鉛直線上にあるものとする。この位置LrefのX座標をx0とする。
ここで、使用者の左眼Lepが設計上の位置Lrefから、X方向にずれた地点に位置するものとする。この左眼LepのX座標をxとすると、使用者の左眼Lepは、位置LrefからX方向に距離(x-x0)だけ離間した地点に位置することになる。
The relationship between the angle θ associated with the correction value data table and the position of the left eye Lep will be described. As shown in the left column of FIG. 11, it is assumed that the designed position Lref of the left eye is on a vertical line extending in the Z direction from the diagonal center of the area 12 of the display panel 10L. Let x0 be the X coordinate of this position Lref.
Here, it is assumed that the user's left eye Lep is located at a point shifted in the X direction from the designed position Lref. Assuming that the X coordinate of the left eye Lep is x, the user's left eye Lep is located at a point separated from the position Lref by a distance (x−x0) in the X direction.

表示パネル10Lから、集光光学系102および導光体103を介した左眼Lepまでの光学経路は、簡略化して示すと図12に示される通りとなる。すなわち、使用者の左眼Lepが位置LrefからX方向に距離(x-x0)だけ離間した地点に位置する場合、表示パネル10Lの鉛直線Cenから角度θをなして出射した光を視認することになる。 A simplified optical path from the display panel 10L to the left eye Lep via the condensing optical system 102 and the light guide 103 is as shown in FIG. That is, when the user's left eye Lep is positioned at a point separated from the position Lref by a distance (x−x0) in the X direction, the user can visually recognize light emitted at an angle θ from the vertical line Cen of the display panel 10L. become.

角度θが小さい場合に、距離(x-x0)は、次式(1)で表すことができる。

Figure 2023098012000002
When the angle θ is small, the distance (x−x0) can be expressed by the following equation (1).
Figure 2023098012000002

すなわち、距離(x-x0)は、角度θとほぼ比例する。なお、式(1)において、aは、集光光学系102および導光体103の光学系で定まる係数である。式(1)により、角度θは次式(2)で求めることができる。 That is, the distance (x-x0) is approximately proportional to the angle θ. Note that in equation (1), a is a coefficient determined by the optical system of the condensing optical system 102 and the light guide 103 . From the equation (1), the angle θ can be obtained by the following equation (2).

Figure 2023098012000003
Figure 2023098012000003

したがって、使用者の左眼Lepが設計上の位置LrefからX方向(またはX方向の反対方向)に沿ってどれだけ離間しているかをセンサーL1~L3によって検出することで、適用すべき補正値データテーブルの角度θを特定することができる。 Therefore, the sensors L1 to L3 detect how far the user's left eye Lep is away from the designed position Lref along the X direction (or the direction opposite to the X direction), and the correction value to be applied The angle θ in the data table can be specified.

実施形態では、センサーL1~L3によって左眼Lepの位置、および、センサーR1~R3によって右眼Repの位置を検出したが、左眼Lepの位置および右眼Repの位置を検出しないで、補正することも可能である。
具体的には、図15に示されるように、操作子60を設けて、当該操作子60に含まれる1乃至複数のボリュームの調整によって、図14や図15に示される補正特性を定義付ける複数点について設定し、当該設定した補正特性で補正した表示させる構成としてもよい。
なお、補正特性を定義付ける複数点としては、例えば左右端の係数値、極小(または極大)の座標、および、当該極小(または極大)における係数値などが挙げられる。
このような構成によれば、使用者は、実際の表示を確認しながらの調整によって、表示品位の低下を防ぐことができる。
In the embodiment, the position of the left eye Lep is detected by the sensors L1 to L3 and the position of the right eye Rep is detected by the sensors R1 to R3, but the positions of the left eye Lep and the right eye Rep are not detected and corrected. is also possible.
Specifically, as shown in FIG. 15, an operator 60 is provided, and by adjusting one or more volumes included in the operator 60, a plurality of points defining the correction characteristics shown in FIGS. may be set, and the display may be corrected with the set correction characteristics.
Note that the plurality of points that define the correction characteristic include, for example, coefficient values at the left and right ends, coordinates of minimum (or maximum), coefficient values at the minimum (or maximum), and the like.
According to such a configuration, the user can prevent deterioration of display quality by making adjustments while checking the actual display.

また、映像処理装置40が例えばインターネットを介してサーバーにアクセスし、当該サーバーが補正値データテーブルを出力して、映像処理装置40が領域54L、54Rに格納する構成としてもよい。
この構成において、使用者が左眼Lepおよび右眼Repの位置情報を入力し、サーバーが当該位置情報に基づいて適用する補正値データテーブルを作成して、映像処理装置40に返信してもよい。また、サーバーが、左眼Lepおよび右眼Repの位置を順次移動させ、当該移動させた位置に基づいて、適用する補正値データテーブルを作成して、映像処理装置40に返信してもよい。
Alternatively, the video processing device 40 may access a server via the Internet, the server may output the correction value data table, and the video processing device 40 may store it in the areas 54L and 54R.
In this configuration, the user may input the positional information of the left eye Lep and the right eye Rep, and the server may create a correction value data table to be applied based on the positional information and send it back to the video processing device 40. . Alternatively, the server may sequentially move the positions of the left eye Lep and the right eye Rep, create a correction value data table to be applied based on the moved positions, and send it back to the video processing device 40 .

映像処理装置40またはサーバーにおける機能の一部を、例えばスマートフォンのような情報処理装置で実現する構成としてもよい。
具体的には、情報処理装置に、センサーL1~L3およびR1~R3を持たせ、映像処理装置40および記憶装置50と同様な処理を実行させて、当該情報処理装置が、左眼Lepおよび右眼Repの位置情報に応じて補正値データテーブルを作成し、当該補正値データテーブルを用いて映像信号Va_Lft、Va_Rgtを補正する構成としてもよい。
また、情報処理装置に、センサーL1~L3およびR1~R3の代わりに操作子60を持たせて、当該操作子60によって補正値データテーブルを作成し、作成した補正値データテーブルを用いて映像信号Va_Lft、Va_Rgtを補正する構成としてもよい。
情報処理装置に、通信機能を持たせて、上記サーバーを中継して、または、上記サーバーの代替えとして、適用する補正値データテーブルを受信または作成して、当該補正値データテーブルを用いて映像信号Va_Lft、Va_Rgtを補正する構成としてもよい。
また、本実施形態では、補正値データテーブルは、映像処理装置40が備えていたが、これに限らず、例えば、表示パネル10が補正値データテーブルを備えていてもよい。
A part of the functions of the video processing device 40 or the server may be implemented by an information processing device such as a smart phone, for example.
Specifically, the information processing device is provided with sensors L1 to L3 and R1 to R3, and executes the same processing as the video processing device 40 and the storage device 50, so that the information processing device performs the left eye Lep and the right eye Lep. A correction value data table may be created according to the position information of the eye Rep, and the video signals Va_Lft and Va_Rgt may be corrected using the correction value data table.
Further, the information processing apparatus is provided with an operator 60 instead of the sensors L1 to L3 and R1 to R3, the operator 60 creates a correction value data table, and the created correction value data table is used to generate a video signal. It may be configured to correct Va_Lft and Va_Rgt.
The information processing device is provided with a communication function, relays the server, or as a substitute for the server, receives or creates a correction value data table to be applied, and uses the correction value data table to generate a video signal. It may be configured to correct Va_Lft and Va_Rgt.
Further, in the present embodiment, the correction value data table is provided in the video processing device 40, but the present invention is not limited to this, and the display panel 10 may be provided with the correction value data table, for example.

なお、本発明は、使用者の眼の位置を特定出来ればよく、例えば、表示パネル10に対する使用者の眼の位置の特定でもよければ、光学系に対する使用者の眼の位置の特定でもよい。つまり、ある基準に対する使用者の眼の位置が特定出来ればよい。 The present invention only needs to specify the position of the user's eyes. For example, the position of the user's eyes with respect to the display panel 10 may be specified, or the position of the user's eyes with respect to the optical system may be specified. In other words, it suffices if the position of the user's eyes with respect to a certain reference can be specified.

実施形態等では、表示パネル10L、10RとしてはOLEDを用いたもので説明したが、これに限られず、他の発光素子、例えば発光素子として、無機EL素子や、LED、ミニLED、マイクロLED等を用いてもよいし、発光素子ではなく液晶表示素子を用いてもよい。
また実施形態等では、主光線と光軸が平行となるテレセントリック光学系を例に挙げて説明したが、非テレセントリック光学系であってもよい。
In the embodiments and the like, the display panels 10L and 10R are described as using OLEDs, but the present invention is not limited to this, and other light-emitting elements such as inorganic EL elements, LEDs, mini-LEDs, micro-LEDs, etc. may be used as light-emitting elements. may be used, or a liquid crystal display element may be used instead of the light emitting element.
Further, in the embodiments and the like, a telecentric optical system in which the principal ray and the optical axis are parallel has been described as an example, but a non-telecentric optical system may be used.

1…ヘッドマウントディスプレイ、5…ホスト装置、10L、10R…表示パネル、40…映像処理装置、50…記憶装置、52L、54R…補正値データテーブル、L1~L3、R1~R3…センサー。 Reference Signs List 1 Head mounted display 5 Host device 10L, 10R Display panel 40 Image processing device 50 Storage device 52L, 54R Correction value data table L1 to L3, R1 to R3 Sensors.

Claims (9)

入力された映像信号を補正する映像処理装置と、
前記映像処理装置によって補正された映像信号に基づいた光を出射する表示パネルと、
当該表示パネルから出射された光を使用者の眼に向けて射出する光学系と、
を含み、
前記映像処理装置は、
前記表示パネルまたは前記光学系に対する使用者の眼の位置に応じて、前記入力された映像信号を補正する
ヘッドマウントディスプレイ。
a video processing device that corrects an input video signal;
a display panel that emits light based on the video signal corrected by the video processing device;
an optical system that emits light emitted from the display panel toward the user's eyes;
including
The video processing device is
A head-mounted display that corrects the input video signal according to the position of the user's eyes with respect to the display panel or the optical system.
前記表示パネルに対する使用者の眼の位置を検出するためのセンサーを含み、
前記映像処理装置は、
前記センサーの検出結果に基づいて前記使用者の眼の位置を特定し、
特定した使用者の眼の位置に応じて、前記入力された映像信号を補正する
ことを特徴とする請求項1に記載のヘッドマウントディスプレイ。
a sensor for detecting the position of the user's eyes relative to the display panel;
The video processing device is
Identifying the position of the user's eye based on the detection result of the sensor;
2. The head-mounted display according to claim 1, wherein the input video signal is corrected according to the identified eye position of the user.
前記映像処理装置は、
前記入力された映像信号の輝度を、前記使用者の眼の位置に応じた補正値データテーブルを用いて補正する
ことを特徴とする請求項2に記載のヘッドマウントディスプレイ。
The video processing device is
3. The head-mounted display according to claim 2, wherein the luminance of said input video signal is corrected using a correction value data table according to said user's eye position.
前記補正値データテーブルは、映像における画素位置と補正値とを対応づける
ことを特徴とする請求項3に記載のヘッドマウントディスプレイ。
4. The head mounted display according to claim 3, wherein the correction value data table associates pixel positions and correction values in an image.
前記映像処理装置は、
使用者の眼の位置に対応して予め記憶された複数の補正値データテーブルのうち、
特定した使用者の眼の位置に応じた補正値データテーブルを用いて、前記入力された映像信号の輝度を補正する
ことを特徴とする請求項4に記載のヘッドマウントディスプレイ。
The video processing device is
Among a plurality of correction value data tables stored in advance corresponding to the user's eye position,
5. The head-mounted display according to claim 4, wherein the brightness of the input video signal is corrected using a correction value data table corresponding to the specified eye position of the user.
前記補正値は、前記表示パネルの輝度を測定した結果に基づいた値である
ことを特徴とする請求項4または5に記載のヘッドマウントディスプレイ。
6. The head mounted display according to claim 4, wherein said correction value is a value based on a result of measuring luminance of said display panel.
補正した映像信号に基づいた映像の光を出射する表示パネルと、
当該表示パネルから出射された光を使用者の眼に向けて射出する光学系と、
を含むヘッドマウントディスプレイに
前記補正した映像信号を出力する情報処理装置であって、
前記情報処理装置は、
前記表示パネルまたは前記光学系に対する使用者の眼の位置に応じて、入力された映像信号を補正して出力する
情報処理装置。
a display panel that emits video light based on the corrected video signal;
an optical system that emits light emitted from the display panel toward the user's eyes;
An information processing device that outputs the corrected video signal to a head-mounted display including
The information processing device is
An information processing device that corrects and outputs an input video signal according to a position of a user's eyes with respect to the display panel or the optical system.
前記表示パネルまたは前記光学系に対する使用者の眼の位置を検出するためのセンサーを含み、
前記センサーの検出結果に基づいて前記使用者の眼の位置を特定し、
特定した使用者の眼の位置に応じて、入力された映像信号を補正して出力する
ことを特徴とする請求項7に記載の情報処理装置。
a sensor for detecting the position of the user's eyes with respect to the display panel or the optical system;
Identifying the position of the user's eye based on the detection result of the sensor;
8. The information processing apparatus according to claim 7, wherein the input video signal is corrected and output according to the specified eye position of the user.
映像信号に基づいた映像の光を出射する表示パネルと、
当該表示パネルから出射された光を入射使用者の眼に向けて射出する光学系と、
を含む光学モジュールであって、
前記映像信号は、
前記表示パネルまたは前記光学系に対する使用者の眼の位置に応じて補正されている
ことを特徴とする請求項8に記載の光学モジュール。
a display panel that emits video light based on a video signal;
an optical system that emits light emitted from the display panel toward the eye of the incident user;
An optical module comprising
The video signal is
9. The optical module according to claim 8, wherein the optical module is corrected according to the position of the user's eyes with respect to the display panel or the optical system.
JP2021214473A 2021-12-28 2021-12-28 Head-mounted display, information processing device and optical module Pending JP2023098012A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021214473A JP2023098012A (en) 2021-12-28 2021-12-28 Head-mounted display, information processing device and optical module

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021214473A JP2023098012A (en) 2021-12-28 2021-12-28 Head-mounted display, information processing device and optical module

Publications (1)

Publication Number Publication Date
JP2023098012A true JP2023098012A (en) 2023-07-10

Family

ID=87072056

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021214473A Pending JP2023098012A (en) 2021-12-28 2021-12-28 Head-mounted display, information processing device and optical module

Country Status (1)

Country Link
JP (1) JP2023098012A (en)

Similar Documents

Publication Publication Date Title
US10748467B2 (en) Display panel, display method thereof and display device
US9024872B2 (en) Head-mounted display
KR102142624B1 (en) Display device
EP3330772A1 (en) Display apparatus and method of displaying using projectors
US8442313B2 (en) Image position recognition apparatus, image position recognition method, computer program product, and apparatus for setting correction data for an image display apparatus
CN105374340B (en) A kind of brightness correcting method, device and display device
CN109891484A (en) Display device and display methods
JP5886896B2 (en) Display device
US20150030335A1 (en) Apparatus for receiving and transmitting optical information
TWI411293B (en) Viewing glasses, 3d display system and image beam adjustment method thereof
JP2009116700A (en) Display system and method for detecting pointed position
EP3092731A1 (en) Transmitting data to a rolling shutter sensor array via a light emitter array
US11069140B2 (en) Display panel, display device, and virtual reality/augmented reality device
JP6384996B2 (en) Display device
KR20120052649A (en) A transparent display apparatus and a method for controlling the same
WO2017130603A1 (en) Image display device and image processing device
JP2023098012A (en) Head-mounted display, information processing device and optical module
US20130257702A1 (en) Image projecting apparatus, image projecting method, and computer program product
US20230014991A1 (en) Display device and display system
US9524914B2 (en) Method of manufacturing organic EL display apparatus, and inspection apparatus
US11295683B2 (en) Liquid crystal projector
KR101974483B1 (en) Display apparatus having pattern and method for detecting pixel position in display apparatus
US10310668B2 (en) Touch screen display system and a method for controlling a touch screen display system
US11837183B2 (en) Circuit device and head-up display device
US20240187561A1 (en) Display device