JP6944110B2 - Display device and display method - Google Patents

Display device and display method Download PDF

Info

Publication number
JP6944110B2
JP6944110B2 JP2017189128A JP2017189128A JP6944110B2 JP 6944110 B2 JP6944110 B2 JP 6944110B2 JP 2017189128 A JP2017189128 A JP 2017189128A JP 2017189128 A JP2017189128 A JP 2017189128A JP 6944110 B2 JP6944110 B2 JP 6944110B2
Authority
JP
Japan
Prior art keywords
image
display
images
display device
observer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017189128A
Other languages
Japanese (ja)
Other versions
JP2019066560A (en
Inventor
伊達 宗和
宗和 伊達
藤井 寛
寛 藤井
木全 英明
英明 木全
克 宮尾
克 宮尾
健仁 小嶌
健仁 小嶌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017189128A priority Critical patent/JP6944110B2/en
Publication of JP2019066560A publication Critical patent/JP2019066560A/en
Priority to JP2021023606A priority patent/JP7093043B2/en
Application granted granted Critical
Publication of JP6944110B2 publication Critical patent/JP6944110B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)

Description

本発明は、表示装置及び表示方法に関する。 The present invention relates to a display device and a display method.

カメラのファインダやヘッドマウントディスプレイ等の表示装置に表示された画像を観察者が眼鏡を使用して観察する際に、観察者の眼鏡が表示装置に当たって干渉してしまう場合がある。そこで、表示装置に表示された画像を観察者が眼鏡を使用せずに観察できるように、表示装置に備えられたレンズの焦点距離を観察者の視度に応じて補正する表示装置がある。また、メカニカルな機構を用いない可変焦点レンズを使用する表示装置が開発されている(特許文献1参照)。 When an observer uses glasses to observe an image displayed on a display device such as a camera finder or a head-mounted display, the observer's glasses may hit the display device and interfere with the display device. Therefore, there is a display device that corrects the focal length of the lens provided in the display device according to the diopter of the observer so that the observer can observe the image displayed on the display device without using glasses. Further, a display device using a varifocal lens that does not use a mechanical mechanism has been developed (see Patent Document 1).

特開2000−224614号公報Japanese Unexamined Patent Publication No. 2000-224614

しかしながら、従来の表示装置は、近視や遠視等の正乱視以外の視度を補正することができるが、焦点距離を調節可能な光学系という高価で壊れやすいメカニカルな光学系を付加する必要があった。また、メカニカルではない可変焦点レンズを使用しても、遠視や近視等の正乱視以外の視度を補正することができても正乱視を含む視度を補正することができないという問題があった。 However, although conventional display devices can correct diopters other than normal astigmatism such as myopia and hyperopia, it is necessary to add an expensive and fragile mechanical optical system called an optical system with an adjustable focal length. rice field. Further, even if a non-mechanical variable focus lens is used, there is a problem that even if diopters other than normal astigmatism such as hyperopia and myopia can be corrected, diopters including normal astigmatism cannot be corrected. ..

上記事情に鑑み、本発明は、正乱視を含む視度を補正することが可能である表示装置及び表示方法を提供することを目的としている。 In view of the above circumstances, it is an object of the present invention to provide a display device and a display method capable of correcting diopters including normal astigmatism.

本発明の一態様は、視度の補正値を取得する値取得部と、前記補正値に基づいて複数の画像から表示画像を生成する画像処理部と、観察者の瞳孔における位置に応じて前記複数の画像の混合比が異なるように前記表示画像を表示する表示部とを備える表示装置である。 One aspect of the present invention is a value acquisition unit that acquires a diopter correction value, an image processing unit that generates a display image from a plurality of images based on the correction value, and the above, depending on the position in the pupil of the observer. It is a display device including a display unit that displays the display image so that the mixing ratio of the plurality of images is different.

本発明の一態様は、上記の表示装置であって、前記混合比は、前記瞳孔における位置に応じて線形に変化する。 One aspect of the present invention is the above-mentioned display device, in which the mixing ratio changes linearly depending on the position in the pupil.

本発明の一態様は、上記の表示装置であって、前記表示部は、開口部を有するバリアに前記表示画像の光を出力することにより前記混合比を変化させる。 One aspect of the present invention is the display device, in which the display unit changes the mixing ratio by outputting the light of the display image to a barrier having an opening.

本発明の一態様は、上記の表示装置であって、前記画像処理部は、前記観察者の両眼の瞳孔間を結ぶ直線と前記表示部の画面の水平方向とが成す角度に応じて、混合された前記複数の画像の傾きを補正する。 One aspect of the present invention is the display device, wherein the image processing unit responds to an angle formed by a straight line connecting the pupils of both eyes of the observer and the horizontal direction of the screen of the display unit. The tilt of the plurality of mixed images is corrected.

本発明の一態様は、上記の表示装置であって、前記画像処理部は、前記補正値に応じて一つ以上の前記画像の表示位置をずらし、表示位置がずれた前記画像から生成された前記表示画像を前記表示部に出力する。 One aspect of the present invention is the display device, wherein the image processing unit shifts the display position of one or more of the images according to the correction value, and is generated from the image in which the display position is shifted. The display image is output to the display unit.

本発明の一態様は、上記の表示装置であって、前記画像処理部は、前記補正値に基づいて加重平均された前記複数の画像である複数の加重平均画像を生成し、前記複数の加重平均画像を前記表示画像として前記表示部に出力する。 One aspect of the present invention is the display device, wherein the image processing unit generates a plurality of weighted average images, which are the plurality of images weighted and averaged based on the correction value, and the plurality of weighted images. The average image is output to the display unit as the display image.

本発明の一態様は、表示装置が実行する表示方法であって、視度の補正値を取得するステップと、前記補正値に基づいて複数の画像から表示画像を生成するステップと、観察者の瞳孔における位置に応じて前記複数の画像の混合比が異なるように前記表示画像を表示するステップとを有する表示方法である。 One aspect of the present invention is a display method executed by a display device, which includes a step of acquiring a correction value of diopter, a step of generating a display image from a plurality of images based on the correction value, and an observer's step. This is a display method including a step of displaying the display image so that the mixing ratio of the plurality of images differs depending on the position in the pupil.

本発明により、正乱視を含む視度を補正することが可能である。 According to the present invention, it is possible to correct diopters including normal astigmatism.

表示装置の構成の例を示す図である。It is a figure which shows the example of the structure of the display device. 表示部の構成の例を示す図である。It is a figure which shows the example of the structure of the display part. 面格子の例を示す図である。It is a figure which shows the example of the surface lattice. 画素ブロックと開口部との位置関係を示す図である。It is a figure which shows the positional relationship between a pixel block and an opening. 入射光の混合比の例を示す図である。It is a figure which shows the example of the mixing ratio of incident light. 水平方向における入射光の混合比の例を示す図である。It is a figure which shows the example of the mixing ratio of the incident light in a horizontal direction. 垂直方向における入射光の混合比の例を示す図である。It is a figure which shows the example of the mixing ratio of the incident light in the vertical direction. 斜め方向における入射光の混合比の例を示す図である。It is a figure which shows the example of the mixing ratio of the incident light in an oblique direction. 二つの画像である画像A及び画像Bがリニアブレンディングされた場合に知覚される表示画像の輪郭位置と画像の重み係数との関係の例を示す図である。It is a figure which shows the example of the relationship between the contour position of the display image perceived when image A and image B which are two images are linear blended, and the weighting coefficient of an image. 知覚画像と焦点位置との関係の第1例を示す図である。It is a figure which shows the 1st example of the relationship between a perceptual image and a focal position. 知覚画像と焦点位置との関係の第2例を示す図である。It is a figure which shows the 2nd example of the relationship between a perceptual image and a focal position. 補正値に応じて混合された複数の画像を画素ブロックの各画素に表示する例を示す図である。It is a figure which shows the example which displays a plurality of images mixed according to a correction value in each pixel of a pixel block. 焦点調節の応答の例を示す図である。It is a figure which shows the example of the response of the focus adjustment.

本発明の実施形態について、図面を参照して詳細に説明する。
図1は、表示装置10の構成の例を示す図である。図1では、2次元の画面を有する表示装置10に、観察者(不図示)から見て手前にバリアが設けられている。観察者は、バリア越しに、表示装置10に表示された画像を見る。図1では、観察者は画面を直視しているが、バリアと観察者との間にレンズを入れることにより観察者から表示装置10までの距離を縮め、小型の表示装置を構成できることは、既存のビューファインダーやヘッドマウントディスプレイと同様である。
Embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a diagram showing an example of the configuration of the display device 10. In FIG. 1, a display device 10 having a two-dimensional screen is provided with a barrier in front of the display device 10 when viewed from an observer (not shown). The observer sees the image displayed on the display device 10 through the barrier. In FIG. 1, the observer is looking directly at the screen, but it is existing that the distance from the observer to the display device 10 can be shortened by inserting a lens between the barrier and the observer, and a small display device can be configured. It is similar to the viewfinder and head-mounted display of.

表示装置10は、パーソナルコンピュータ等で構成された画像混合手段を具備する。観察者は、視度の補正値をキーボードで入力し、パーソナルコンピュータ等に補正値を設定する。表示装置10は、複数の画像データをキャプチャーカードにより取得し、所定の比率で画像データを混合して表示する。 The display device 10 includes an image mixing means composed of a personal computer or the like. The observer inputs the correction value of the diopter with the keyboard and sets the correction value in a personal computer or the like. The display device 10 acquires a plurality of image data with a capture card, mixes the image data at a predetermined ratio, and displays the image data.

換言すれば、表示装置10は、画像を表示する装置である。例えば、表示装置10は、カメラのファインダ、ヘッドマウントディスプレイ装置等である。以下では、表示装置10にxyz座標系が便宜的に定められている。図1では、x軸及びz軸によって定まる平面は、水平面である。図1では、観察者(不図示)は、表示装置10に対してz軸の正方向に位置している。観察者は、z軸の負方向に視線を向けて、表示装置10に表示されている画像を観察する。 In other words, the display device 10 is a device that displays an image. For example, the display device 10 is a camera finder, a head-mounted display device, and the like. In the following, the xyz coordinate system is conveniently defined for the display device 10. In FIG. 1, the plane determined by the x-axis and the z-axis is a horizontal plane. In FIG. 1, the observer (not shown) is located in the positive direction of the z-axis with respect to the display device 10. The observer directs his / her line of sight in the negative direction of the z-axis and observes the image displayed on the display device 10.

表示装置10は、画像取得部11と、値取得部12と、画像処理部13と、表示部14と、面格子15とを備える。表示装置10は、検出部16を更に備えてもよい。画像取得部11と値取得部12と画像処理部13とのうち一部又は全部は、例えば、CPU(Central Processing Unit)等のプロセッサが、記憶部に記憶されたプログラムを実行することにより実現される。画像取得部11と値取得部12と画像処理部13とのうち一部又は全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェアを用いて実現されてもよい。記憶部は、例えば、フラッシュメモリ、HDD(Hard Disk Drive)などの不揮発性の記録媒体(非一時的な記録媒体)である。記憶部は、例えば、RAM(Random Access Memory)やレジスタなどの揮発性の記録媒体を有してもよい。記憶部は、画像を記憶してもよい。 The display device 10 includes an image acquisition unit 11, a value acquisition unit 12, an image processing unit 13, a display unit 14, and a surface grid 15. The display device 10 may further include a detection unit 16. A part or all of the image acquisition unit 11, the value acquisition unit 12, and the image processing unit 13 is realized by, for example, a processor such as a CPU (Central Processing Unit) executing a program stored in the storage unit. NS. A part or all of the image acquisition unit 11, the value acquisition unit 12, and the image processing unit 13 may be realized by using hardware such as LSI (Large Scale Integration) or ASIC (Application Specific Integrated Circuit). The storage unit is, for example, a non-volatile recording medium (non-temporary recording medium) such as a flash memory or an HDD (Hard Disk Drive). The storage unit may have, for example, a volatile recording medium such as a RAM (Random Access Memory) or a register. The storage unit may store the image.

表示装置10は、表示装置10の画面と観察者との間にレンズを更に備えてもよい。表示装置10の画面と観察者との間に備えられたレンズは、表示装置10の画面から観察者の眼に入射する光を屈折させる。これによって、表示装置10の画面と観察者との間に備えられたレンズは、表示装置10の画面と観察者との間にレンズが備えられていない場合と比較して、表示装置10の画面と観察者との距離を短くすることができる。 The display device 10 may further include a lens between the screen of the display device 10 and the observer. A lens provided between the screen of the display device 10 and the observer refracts the light incident on the observer's eyes from the screen of the display device 10. As a result, the lens provided between the screen of the display device 10 and the observer is the screen of the display device 10 as compared with the case where the lens is not provided between the screen of the display device 10 and the observer. And the distance between the observer and the observer can be shortened.

表示装置10の画面と観察者の距離が所定距離以下である場合、表示装置10の大きさは、ファインダやヘッドマウントディスプレイ装置として小型である。ヘッドマウントディスプレイ装置としての表示装置10は、例えば、観察者の頭部に装着される。 When the distance between the screen of the display device 10 and the observer is not more than a predetermined distance, the size of the display device 10 is small as a finder or a head-mounted display device. The display device 10 as a head-mounted display device is attached to the observer's head, for example.

画像取得部11は、動画像又は静止画像のキャプチャーカードである。画像取得部11は、複数の画像を取得する。例えば、画像取得部11は、同一時刻及び同一方向から撮像されている被写体画像を含む複数の画像を取得してもよい。画像取得部11は、コンピュータ・グラフィックス(Computer Graphics)による画像を取得してもよい。画像取得部11は、複数の画像を画像処理部13に出力する。 The image acquisition unit 11 is a capture card for a moving image or a still image. The image acquisition unit 11 acquires a plurality of images. For example, the image acquisition unit 11 may acquire a plurality of images including a subject image captured from the same time and the same direction. The image acquisition unit 11 may acquire an image by computer graphics. The image acquisition unit 11 outputs a plurality of images to the image processing unit 13.

値取得部12は、キーボード、タッチパネル、マウス等の操作部を備える。操作部は、観察者による操作を受け付ける。値取得部12は、操作部が受け付けた操作に応じて、正乱視等の視度の補正値δを取得する。値取得部12は、視度の補正値δを画像処理部13に出力する。 The value acquisition unit 12 includes operation units such as a keyboard, a touch panel, and a mouse. The operation unit accepts operations by the observer. The value acquisition unit 12 acquires a correction value δ for diopter such as regular astigmatism according to the operation received by the operation unit. The value acquisition unit 12 outputs the diopter correction value δ to the image processing unit 13.

画像処理部13は、画像取得部11によって取得された複数の画像に画像処理を施す。画像処理部13は、画像処理の一つとして、複数の画像を所定の比率で混合する画像処理を実行することによって、複数の画像ごとに1枚の表示用画像を生成する。画像処理部13は、画像取得部11によって取得された複数の画像ごとに、複数の表示用画像を生成してもよい。画像処理部13は、表示部14の画面における表示位置が所定距離だけ互いにずれている画像を、表示部14の画面に表示する。所定距離(ずれ量)は、例えば、視度の補正値δに比例する距離である。画像処理部13は、生成された表示用画像を表示部14に出力する。 The image processing unit 13 performs image processing on a plurality of images acquired by the image acquisition unit 11. The image processing unit 13 generates one display image for each of the plurality of images by executing an image process of mixing the plurality of images at a predetermined ratio as one of the image processes. The image processing unit 13 may generate a plurality of display images for each of the plurality of images acquired by the image acquisition unit 11. The image processing unit 13 displays on the screen of the display unit 14 an image in which the display positions on the screen of the display unit 14 are deviated from each other by a predetermined distance. The predetermined distance (deviation amount) is, for example, a distance proportional to the diopter correction value δ. The image processing unit 13 outputs the generated display image to the display unit 14.

図2は、表示装置10の画素の例を示す図である。表示装置10の画面は、例えば、フィールド・シーケンシャル・カラー表示方式の液晶ディスプレイである。赤色、緑色、青色の各原色が、1画素に時分割で階調をともなって表示される。 FIG. 2 is a diagram showing an example of pixels of the display device 10. The screen of the display device 10 is, for example, a field sequential color display type liquid crystal display. Each of the primary colors of red, green, and blue is displayed in one pixel with time division and gradation.

図2では、2×2の画素から画素ブロック140が構成されているが、画素ブロック140は、例えば、(3×3)又は(4×4)などの画素から構成されてもよく、観察者の眼の可動範囲に応じて非対称に配置された画素から構成されてもよい。画素ブロック140内の画素数を増やすことにより、補正の範囲を増大させることができる。 In FIG. 2, the pixel block 140 is composed of 2 × 2 pixels, but the pixel block 140 may be composed of pixels such as (3 × 3) or (4 × 4), for example, and the observer. It may be composed of pixels asymmetrically arranged according to the movable range of the eye. The range of correction can be increased by increasing the number of pixels in the pixel block 140.

また、画素配置は正方的である必要はなく、デルタ配列であっても良い。画面のマスク全体を若干縮小することにより、全ての開口部について開口部を通して画素ブロック140の中心が見える条件を満たす観察者から画面までの距離は、無限遠から視距離に近づけられてもよい。 Further, the pixel arrangement does not have to be square, and may be a delta arrangement. By slightly reducing the entire mask of the screen, the distance from the observer to the screen, which satisfies the condition that the center of the pixel block 140 can be seen through the openings for all the openings, may be approached from infinity to the viewing distance.

換言すれば、図2は、表示部14の構成の例を示す図である。表示部14は、画像処理部13によって生成された表示用画像を画面に表示する。表示部14は、複数の画素ブロック140を画面として備える。表示部14は、面格子15を備えてもよい。すなわち、面格子15は、表示部14の一部でもよい。表示部14の画面は、例えば、発光部(バックライト)、液晶パネルを有する。複数の画素ブロック140は、表示部14において行列状(タイル状)に配列される。以下では、画素ブロック140(画素群)は、一例として、2×2個の画素から構成される。画素の形状は、例えば正方形である。 In other words, FIG. 2 is a diagram showing an example of the configuration of the display unit 14. The display unit 14 displays the display image generated by the image processing unit 13 on the screen. The display unit 14 includes a plurality of pixel blocks 140 as a screen. The display unit 14 may include a surface grid 15. That is, the surface grid 15 may be a part of the display unit 14. The screen of the display unit 14 has, for example, a light emitting unit (backlight) and a liquid crystal panel. The plurality of pixel blocks 140 are arranged in a matrix (tile shape) on the display unit 14. In the following, the pixel block 140 (pixel group) is composed of 2 × 2 pixels as an example. The shape of the pixel is, for example, a square.

x軸又はy軸方向に隣接する画素同士は、異なる画像を構成する画素でもよい。すなわち、表示される画像は、同じ番号が割り当てられている各画素から構成されてもよい。例えば、図2において番号「11」が割り当てられている各画素は、画像Aを構成してもよい。例えば、図2において番号「01」が割り当てられている各画素は、画像Bを構成してもよい。 Pixels adjacent to each other in the x-axis or y-axis direction may be pixels that form different images. That is, the displayed image may be composed of each pixel to which the same number is assigned. For example, each pixel assigned the number "11" in FIG. 2 may constitute an image A. For example, each pixel assigned the number "01" in FIG. 2 may constitute an image B.

画素の配列は、デルタ配列でもよい。眼の可動範囲を考慮して、画素は左右で非対称に配列されてもよい。画素ブロック140は、例えば、3×3個の画素や、4×4個の画素から構成されてもよい。画素ブロック140の画素数が増やされることによって、視度の補正の範囲は広がる。 The pixel array may be a delta array. Pixels may be arranged asymmetrically on the left and right in consideration of the range of motion of the eye. The pixel block 140 may be composed of, for example, 3 × 3 pixels or 4 × 4 pixels. By increasing the number of pixels in the pixel block 140, the range of diopter correction is expanded.

表示部14は、例えば、フィールド・シーケンシャル・カラー表示方式の液晶ディスプレイである。フィールド・シーケンシャル・カラー表示方式では、画素は、赤色、緑色、青色の各原色の画像を、時分割で表示する。 The display unit 14 is, for example, a field sequential color display type liquid crystal display. In the field sequential color display method, the pixels display images of the primary colors of red, green, and blue in a time-division manner.

図3は、表示装置10のバリアの一例を示す説明図である。図3では、黒色の領域が遮光部を示し、白色の領域が透過部(開口部)を示す。開口部150の形状は、画素と同一形状の正方形である。 FIG. 3 is an explanatory diagram showing an example of the barrier of the display device 10. In FIG. 3, a black region indicates a light-shielding portion, and a white region indicates a transmission portion (opening). The shape of the opening 150 is a square having the same shape as the pixel.

換言すれば、図3は、面格子15(画像混合部)の例を示す図である。面格子15(遮光フィルタ)は、行列状に配列された複数の開口部150を有するバリアである。開口部150の形状は、画素の形状に応じて定められる。例えば、開口部150の形状は、画素と同様の大きさの正方形である。面格子15において各開口部150は、光が透過可能である部分である。面格子15において各開口部150以外の部分は、光が透過可能でない部分(遮光部)である。なお、面格子15は、x軸及びy軸方向の両方に遮光部を配置した形状のみならず、x軸方向及びy軸方向のいずれか一方に遮光部を配置した形状でもよい。 In other words, FIG. 3 is a diagram showing an example of the surface grid 15 (image mixing unit). The surface grid 15 (light-shielding filter) is a barrier having a plurality of openings 150 arranged in a matrix. The shape of the opening 150 is determined according to the shape of the pixel. For example, the shape of the opening 150 is a square having the same size as a pixel. In the surface grid 15, each opening 150 is a portion through which light can be transmitted. The portion of the surface grid 15 other than each opening 150 is a portion (light-shielding portion) through which light cannot be transmitted. The surface grid 15 may have not only a shape in which light-shielding portions are arranged in both the x-axis direction and the y-axis direction, but also a shape in which light-shielding portions are arranged in either the x-axis direction or the y-axis direction.

図3に示されたバリアでは、開口部150は、2×2個の画素から構成された画素ブロック140の中央の位置に合わせて配置される。図2に示された番号「00」、番号「10」、番号「01」、番号「11」の4個の画素が一組で、画素ブロック140を構成する。観察者は、図4に示されているように2×2個の画素から構成された画素ブロック140を、開口部150を介して観察する。 In the barrier shown in FIG. 3, the opening 150 is aligned with the central position of the pixel block 140 composed of 2 × 2 pixels. The four pixels of the numbers "00", the number "10", the number "01", and the number "11" shown in FIG. 2 form a set of four pixels to form the pixel block 140. The observer observes the pixel block 140 composed of 2 × 2 pixels through the opening 150 as shown in FIG.

換言すれば、図4は、画素ブロック140と開口部150との位置関係を示す図である。面格子15は、観察者と表示部14との間に配置される。これによって、観察者は、開口部150を透過した光によって、画素ブロック140の部分を観察することができる。図4では、観察者は、一例として画素ブロック140の中央を観察することができ、画素ブロック140の中央以外を観察することができない。すなわち、図4では、観察者は、画素141の部分から出力された光と、画素142の部分から出力された光と、画素143の部分から出力された光と、画素144の部分から出力された光とが混合された光を、観察することができる。面格子15によって、観察者の瞳孔における位置に応じて混合比が線形に変化するように、複数の画素ブロック140から構成される画像は混合される。 In other words, FIG. 4 is a diagram showing the positional relationship between the pixel block 140 and the opening 150. The surface grid 15 is arranged between the observer and the display unit 14. Thereby, the observer can observe the portion of the pixel block 140 by the light transmitted through the opening 150. In FIG. 4, the observer can observe the center of the pixel block 140 as an example, and cannot observe other than the center of the pixel block 140. That is, in FIG. 4, the observer outputs the light output from the portion of the pixel 141, the light output from the portion of the pixel 142, the light output from the portion of the pixel 143, and the light output from the portion of the pixel 144. You can observe the light mixed with the light. The surface grid 15 mixes the image composed of the plurality of pixel blocks 140 so that the mixing ratio changes linearly according to the position in the pupil of the observer.

表示装置10は、アイトラッカー等を使用し、観察者の眼の位置の傾きを検出して、それに対応した補正を画像処理部13で行えば、観察者の姿勢が変化しても正しい視度の補正を行うことができる。 If the display device 10 uses an eye tracker or the like to detect the inclination of the position of the observer's eyes and the image processing unit 13 performs correction corresponding to the inclination, the correct diopter even if the posture of the observer changes. Can be corrected.

検出部16(アイ・トラッカー)は、表示装置10に対する観察者の両眼の位置を検出する。検出部16は、観察者の両眼を結ぶ線と所定方向との傾きを検出する。例えば、検出部16は、観察者の両眼を結ぶ線とx軸方向(水平方向)との傾きを検出する。例えば、検出部16は、観察者の両眼を結ぶ線とy軸方向(垂直方向)との傾きを検出する。画像処理部13は、傾きに応じた方向に画像の位置をずらす。これによって、表示装置10は、表示装置10に対する観察者の姿勢が変化しても、観察者の両眼の乱視軸の傾きに応じて視度を補正することができる。 The detection unit 16 (eye tracker) detects the positions of the observer's eyes with respect to the display device 10. The detection unit 16 detects the inclination of the line connecting both eyes of the observer and the predetermined direction. For example, the detection unit 16 detects the inclination of the line connecting both eyes of the observer and the x-axis direction (horizontal direction). For example, the detection unit 16 detects the inclination of the line connecting both eyes of the observer and the y-axis direction (vertical direction). The image processing unit 13 shifts the position of the image in the direction corresponding to the inclination. As a result, the display device 10 can correct the diopter according to the inclination of the astigmatic axis of both eyes of the observer even if the posture of the observer with respect to the display device 10 changes.

図5に示すように、眼の瞳孔100における視点位置が移動すると、開口部150の位置が画面上で見かけ上移動し、開口部150を経由して見える画素の面積比が変化する。混合比(ブレンド具合)は、画素の面積比に応じて変化する。 As shown in FIG. 5, when the viewpoint position in the pupil 100 of the eye moves, the position of the opening 150 apparently moves on the screen, and the area ratio of the pixels seen through the opening 150 changes. The mixing ratio (blending condition) changes according to the area ratio of the pixels.

換言すれば、図5は、入射光の混合比の例を示す図である。以下では、ux軸とuy軸とuz軸とから成る座標系が、観察者の瞳孔100及び虹彩101の表面に便宜的に定められている。ux軸とx軸とは同一方向を向いている。uy軸とy軸とは同一方向を向いている。uz軸とz軸とは同一方向を向いている。 In other words, FIG. 5 is a diagram showing an example of a mixing ratio of incident light. In the following, a coordinate system including a ux axis, a ui axis, and a uz axis is conveniently defined on the surfaces of the observer's pupil 100 and the iris 101. The ux axis and the x axis are oriented in the same direction. The ui axis and the y axis are oriented in the same direction. The uz axis and the z axis are oriented in the same direction.

画素ブロック140から出力された光は、開口部150を透過して、観察者の瞳孔100及び虹彩101に入射する。観察者の瞳孔100及び虹彩101の表面における位置に応じて、画素ブロック140から瞳孔100に入射する光が異なる。すなわち、観察者の瞳孔100及び虹彩101の表面における位置に応じて、開口部150を透過した入射光の混合比は変化する。例えば、観察者の瞳孔100及び虹彩101の表面における位置に応じて、開口部150を介して観察者によって観察される画素の組み合わせと、開口部150を介して観察者によって観察される画素の面積比に応じた混合比とが変化することにより、輝度(入射光量)が変化する。 The light output from the pixel block 140 passes through the opening 150 and enters the observer's pupil 100 and the iris 101. The light incident on the pupil 100 from the pixel block 140 differs depending on the positions of the observer's pupil 100 and the iris 101 on the surface. That is, the mixing ratio of the incident light transmitted through the opening 150 changes depending on the positions of the observer's pupil 100 and the iris 101 on the surface. For example, a combination of pixels observed by the observer through the opening 150 and an area of pixels observed by the observer through the opening 150, depending on the position of the observer's pupil 100 and iris 101 on the surface. The brightness (incident light amount) changes as the mixing ratio changes according to the ratio.

図5では、入射光110と入射光112とが成す角度の範囲が、瞳孔100に入射する光が混合される範囲である。すなわち、入射光110と入射光112とが成す角度の範囲が、瞳孔100に表示画像のブレンディングが生じる範囲である。図5では、入射光110は、画素143−1が出力した光と画素144−1が出力した光とを、「100:0」の混合比で含む。入射光111は、画素143−1が出力した光と画素144−1が出力した光とを、「50:50」の混合比で含む。入射光111は、画素143−1が出力した光と画素144−1が出力した光とを、「0:100」の混合比で含む。 In FIG. 5, the range of the angle formed by the incident light 110 and the incident light 112 is the range in which the light incident on the pupil 100 is mixed. That is, the range of the angle formed by the incident light 110 and the incident light 112 is the range in which the display image is blended in the pupil 100. In FIG. 5, the incident light 110 includes the light output by the pixel 143-1 and the light output by the pixel 144-1 in a mixing ratio of “100: 0”. The incident light 111 includes the light output by the pixel 143-1 and the light output by the pixel 144-1 in a mixing ratio of "50:50". The incident light 111 includes the light output by the pixel 143-1 and the light output by the pixel 144-1 at a mixing ratio of "0: 100".

なお、開口部150の見かけ上の面積(視角)と画素の見かけ上の面積(視角)とが等しくなる距離は、画面のマスクの全体が若干縮小されることによって、無限遠から視距離に近づけられてもよい。 The distance at which the apparent area (viewing angle) of the opening 150 and the apparent area (viewing angle) of the pixels are equal can be brought closer to the viewing distance from infinity by slightly reducing the entire screen mask. You may.

図6は、開口部150の見かけの位置がx軸方向に1画素だけ移動した場合について、画素ブロック140の各画素が寄与する混合比が示された図である。図6には、瞳孔100における視点位置に応じて開口部150の見かけ上の位置が移動した場合に、混合比が線形に変化していることから、リニアブレンディングが実現されていることが表されている。 FIG. 6 is a diagram showing a mixing ratio in which each pixel of the pixel block 140 contributes when the apparent position of the opening 150 is moved by one pixel in the x-axis direction. FIG. 6 shows that linear blending is realized because the mixing ratio changes linearly when the apparent position of the opening 150 moves according to the viewpoint position in the pupil 100. ing.

換言すれば、図6は、水平方向(x軸方向)における入射光の混合比の例を示す図である。横軸は、図4に示されたx軸方向における開口部150の見かけ上の位置を示す。開口部150の見かけ上の位置は、観察者の瞳孔100及び虹彩101の表面における水平方向(ux軸方向)の位置に応じて変化する。縦軸は、画素ブロック140の各画素の見かけ上の面積の混合比を示す。 In other words, FIG. 6 is a diagram showing an example of a mixing ratio of incident light in the horizontal direction (x-axis direction). The horizontal axis indicates the apparent position of the opening 150 in the x-axis direction shown in FIG. The apparent position of the opening 150 changes depending on the position in the horizontal direction (ux axis direction) on the surfaces of the observer's pupil 100 and the iris 101. The vertical axis shows the mixing ratio of the apparent area of each pixel of the pixel block 140.

直線200は、画素141−1の見かけ上の面積の半分と画素143−1の見かけ上の面積の半分との加算結果を表す。直線201は、画素142−1の見かけ上の面積の半分と画素144−1の見かけ上の面積の半分との加算結果を表す。図6では、観察者の瞳孔100及び虹彩101の表面における位置に応じて、混合比が線形に変化する。これによって、観察者の瞳孔では、画像の水平方向のリニアブレンディング(線形配合)が実現される。 The straight line 200 represents the addition result of half of the apparent area of the pixel 141-1 and half of the apparent area of the pixel 143-1. The straight line 201 represents the addition result of half of the apparent area of the pixel 142-1 and half of the apparent area of the pixel 144-1. In FIG. 6, the mixing ratio changes linearly depending on the positions of the observer's pupil 100 and the iris 101 on the surface. As a result, horizontal linear blending (linear blending) of the image is realized in the pupil of the observer.

y軸方向に視点位置が変化する場合について図7に示された混合比は、x軸方向に視点位置が変化する場合について図6に示された混合比と同様である。 The mixing ratio shown in FIG. 7 for the case where the viewpoint position changes in the y-axis direction is the same as the mixing ratio shown in FIG. 6 for the case where the viewpoint position changes in the x-axis direction.

図7は、垂直方向(y軸方向)における入射光の混合比の例を示す図である。横軸は、図4に示されたx軸方向における開口部150の見かけ上の位置を示す。開口部150の見かけ上の位置は、観察者の瞳孔100及び虹彩101の表面における垂直方向(uy軸方向)の位置に応じて変化する。縦軸は、画素ブロック140の各画素の見かけ上の面積の混合比を示す。 FIG. 7 is a diagram showing an example of a mixing ratio of incident light in the vertical direction (y-axis direction). The horizontal axis indicates the apparent position of the opening 150 in the x-axis direction shown in FIG. The apparent position of the opening 150 changes depending on the position in the vertical direction (uy axis direction) on the surfaces of the observer's pupil 100 and the iris 101. The vertical axis shows the mixing ratio of the apparent area of each pixel of the pixel block 140.

直線202は、画素141−1の見かけ上の面積の半分と画素142−1の見かけ上の面積の半分との加算結果を表す。直線203は、画素143−1の見かけ上の面積の半分と画素144−1の見かけ上の面積の半分との加算結果を表す。図7では、観察者の瞳孔100及び虹彩101の表面における位置に応じて、混合比が線形に変化する。 The straight line 202 represents the addition result of half of the apparent area of the pixel 141-1 and half of the apparent area of the pixel 142-1. The straight line 203 represents the addition result of half of the apparent area of the pixel 143-1 and half of the apparent area of the pixel 144-1. In FIG. 7, the mixing ratio changes linearly depending on the positions of the observer's pupil 100 and the iris 101 on the surface.

斜め45度方向に視点位置が変化する場合、図8に示されているように画素ブロック140の全ての画素が混合比に関与するので、混合比は複雑となる。混合比が瞳孔100における視点位置に応じて滑らかな変化となり、表示装置10は、リニアブレンディングと同等な効果を得ることができる。 When the viewpoint position changes in the oblique 45-degree direction, the mixing ratio becomes complicated because all the pixels of the pixel block 140 are involved in the mixing ratio as shown in FIG. The mixing ratio changes smoothly according to the viewpoint position in the pupil 100, and the display device 10 can obtain the same effect as linear blending.

換言すれば、図8は、斜め方向(y=x軸方向)における入射光の混合比の例を示す図である。横軸は、図4に示されたx軸方向における開口部150の見かけ上の位置を示す。開口部150の見かけ上の位置は、観察者の瞳孔100及び虹彩101の表面における斜め方向(ux=uy軸方向)の位置に応じて変化する。縦軸は、画素ブロック140の各画素の見かけ上の面積の混合比を示す。 In other words, FIG. 8 is a diagram showing an example of a mixing ratio of incident light in an oblique direction (y = x-axis direction). The horizontal axis indicates the apparent position of the opening 150 in the x-axis direction shown in FIG. The apparent position of the opening 150 changes depending on the position in the oblique direction (ux = ui axis direction) on the surface of the observer's pupil 100 and the iris 101. The vertical axis shows the mixing ratio of the apparent area of each pixel of the pixel block 140.

直線204は、画素141−1の見かけ上の面積を表す。直線205は、画素144−1の見かけ上の面積を表す。直線206は、画素142−1の見かけ上の面積と画素143−1の見かけ上の面積とに応じた混合比を表す。図8では、観察者の瞳孔100及び虹彩101の表面における位置に応じて、混合比が非線形に変化する。 The straight line 204 represents the apparent area of pixels 141-1. The straight line 205 represents the apparent area of the pixel 144-1. The straight line 206 represents a mixing ratio according to the apparent area of the pixel 142-1 and the apparent area of the pixel 143-1. In FIG. 8, the mixing ratio changes non-linearly depending on the positions of the observer's pupil 100 and the iris 101 on the surface.

図9は、二つの画像の加重平均と輪郭位置との関係を示す図である。以下、着目点に対応する点を「対応点」という。輪郭位置とは、混合された画像A及び画像Bの輪郭における、画像Aの輪郭上での着目点と画像Bの輪郭上での対応点とを結ぶ直線上での知覚位置である。隣接する視点位置の間での画像のずれの幅(視差量)が3〜5arcmin程度の小さい値となるように指向性画像が表示された場合、図9に示すように、加重比0から加重比1までの間では輪郭位置が直線的かつ連続的に変化するので、視点位置に応じた適切な輪郭位置の画像が生成される。すなわち、画像のずれが小さい二つの画像が、線形変化する比率で結ばれているので、観察者は忠実に中間視点の画像を知覚することができる。表示装置10は、正しい画像を視点位置ごとに提示し、視点位置の画像同士をリニアブレンディングで結ぶことにより、リニアブレンディングが実現されている範囲内で運動視差を再現する。 FIG. 9 is a diagram showing the relationship between the weighted average of the two images and the contour position. Hereinafter, the points corresponding to the points of interest are referred to as "corresponding points". The contour position is a perceived position on a straight line connecting a point of interest on the contour of image A and a corresponding point on the contour of image B in the contours of the mixed image A and image B. When the directional image is displayed so that the width of the image shift (parallax amount) between adjacent viewpoint positions is as small as about 3 to 5 arcmin, the weight ratio is 0 to weight as shown in FIG. Since the contour position changes linearly and continuously up to the ratio 1, an image of an appropriate contour position according to the viewpoint position is generated. That is, since the two images with small image deviations are connected at a linearly changing ratio, the observer can faithfully perceive the image from the intermediate viewpoint. The display device 10 presents the correct image for each viewpoint position, and connects the images at the viewpoint position by linear blending to reproduce the motion parallax within the range in which the linear blending is realized.

換言すれば、図9は、二つの画像である画像A及び画像Bがリニアブレンディングされた場合に知覚される表示画像の輪郭位置と画像の重み係数との関係の例を示す図である。横軸は、画像の加重平均の重み係数を示す。縦軸は、知覚される表示画像の輪郭の画面における位置を示す。図9では、縦軸は、一例としてx軸方向の位置を示す。画像A及び画像Bの間のずれが、3〜5arcmin程度の小さい値となる場合、観察者によって知覚される画像(知覚画像)の輪郭位置は、重み係数により連続的に変化することになる。なお、画像の輪郭同士のずれ量は、輪郭を表す画素から瞳孔100に入射される光の角度の差を用いて表される。表示装置10は、観察者が重み係数を変更することにより、画像A及び画像Bの中間として知覚される画像をリニアブレンディングにより生成することができる。 In other words, FIG. 9 is a diagram showing an example of the relationship between the contour position of the display image perceived when the two images, image A and image B, are linearly blended and the weighting coefficient of the image. The horizontal axis shows the weighting coefficient of the weighted average of the image. The vertical axis indicates the position of the perceived outline of the displayed image on the screen. In FIG. 9, the vertical axis shows the position in the x-axis direction as an example. When the deviation between the image A and the image B becomes a small value of about 3 to 5 arcmin, the contour position of the image (perceived image) perceived by the observer changes continuously depending on the weighting coefficient. The amount of deviation between the contours of the image is expressed by using the difference in the angle of the light incident on the pupil 100 from the pixel representing the contour. The display device 10 can generate an image perceived as an intermediate between the image A and the image B by linear blending by changing the weighting coefficient by the observer.

図9では、画素ブロック140の位置と重み係数との関係が線形に変化する範囲で、運動視差が再現される。すなわち、画素ブロック同士の加重平均が線形に変化する範囲で、運動視差が再現される。運動視差が再現されるので、観察者は焦点調節を正しく行うことができる。 In FIG. 9, the motion parallax is reproduced within the range in which the relationship between the position of the pixel block 140 and the weighting coefficient changes linearly. That is, the motion parallax is reproduced within the range in which the weighted average of the pixel blocks changes linearly. Since the motion parallax is reproduced, the observer can adjust the focus correctly.

次に、リニアブレンディングに応じた知覚画像の位置と、観察者の眼の焦点調節との関係を詳細に説明する。 Next, the relationship between the position of the perceptual image according to the linear blending and the focus adjustment of the observer's eye will be described in detail.

図10から図12までの各図は、リニアブレンディングの画像展示条件に応じた調節(ピント)位置のずれを示した説明図である。視点位置は簡単のため一次元の座標とし、水平方向の動きの場合について述べる。一般に、座標uの視点位置で観察者が見る画像Iobs(u,x,y)は、視点Aでの表示画像の輝度をIA(x,y)とし、視点Bでの表示画像の輝度をIB(x,y)とした場合、式(1)で表される。ここで、uAは、視点Aの座標を表す。uBは、視点Bの座標を表す。xは、画面上のx座標を表す。yは、画面上のy座標を表す。 Each figure from FIG. 10 to FIG. 12 is an explanatory view showing a deviation of the adjustment (focus) position according to the image display condition of the linear blending. For the sake of simplicity, the viewpoint position is set to one-dimensional coordinates, and the case of horizontal movement will be described. Generally, in the image Iobs (u, x, y) viewed by the observer at the viewpoint position of the coordinates u, the brightness of the displayed image at the viewpoint A is IA (x, y), and the brightness of the displayed image at the viewpoint B is IB. When (x, y) is set, it is represented by the equation (1). Here, uA represents the coordinates of the viewpoint A. uB represents the coordinates of the viewpoint B. x represents the x coordinate on the screen. y represents the y coordinate on the screen.

換言すれば、図10は、知覚画像300と画像400との関係の第1例を示す図である。観察者の瞳孔100の表面におけるux軸の位置uに入射する光の輝度(入射光量)Iobs(u,x,y)は、式(1)で表される。 In other words, FIG. 10 is a diagram showing a first example of the relationship between the perceived image 300 and the image 400. The brightness (incident light amount) Iobs (u, x, y) of the light incident on the position u of the ux axis on the surface of the observer's pupil 100 is represented by the equation (1).

Figure 0006944110
Figure 0006944110

ここで、IA(x,y)は、観察者の瞳孔100の表面における位置uAから見えるべき画像の輝度を表す。IB(x,y)は、観察者の瞳孔100の表面における位置uBから見えるべき画像の輝度を表す。xは、表示部14の画面のx座標を表す。yは、表示部14の画面のy座標を表す。 Here, IA (x, y) represents the brightness of the image to be seen from the position uA on the surface of the observer's pupil 100. IB (x, y) represents the brightness of the image to be seen from position uB on the surface of the observer's pupil 100. x represents the x-coordinate of the screen of the display unit 14. y represents the y coordinate of the screen of the display unit 14.

図10は、画面上にピントが合った画像の表示の例を示す図である。この場合、視点位置がどのような位置にあったとしても画面の表示画像は同じなので、式(2)が成り立ち、表示される2次元画像の輝度I0(x,y)は、式(3)のように表される。 FIG. 10 is a diagram showing an example of displaying an image in focus on the screen. In this case, since the display image on the screen is the same regardless of the position of the viewpoint, the equation (2) holds, and the brightness I0 (x, y) of the displayed two-dimensional image is the equation (3). It is expressed as.

換言すれば、図10に示されているように焦点(ピント)が合った画像400の位置が表示部14の画面の位置に一致している場合、観察者の瞳孔100の表面におけるどの位置でも、観察される画像の輝度は、式(2)で表されるように同じである。 In other words, if the position of the in-focus image 400 coincides with the position of the screen of the display unit 14 as shown in FIG. 10, at any position on the surface of the observer's pupil 100. , The brightness of the observed image is the same as expressed by the equation (2).

Figure 0006944110
Figure 0006944110

位置uで観察される表示画像の輝度Iobs(u,x,y)は、式(3)で表される。 The luminance Iobs (u, x, y) of the display image observed at the position u is represented by the equation (3).

Figure 0006944110
Figure 0006944110

ここで、I0(x,y)は、表示部14に表示されている画像の輝度を表す。すなわち、I0(x,y)は、表示画像の輝度を表す。観察者は、画像400の位置にある知覚画像300を観察することができる。 Here, I0 (x, y) represents the brightness of the image displayed on the display unit 14. That is, I0 (x, y) represents the brightness of the displayed image. The observer can observe the perceptual image 300 at the position of the image 400.

次に、図11に示されているように画像Aと画像Bとの間に視差2δがある場合を考える。このとき、式(4)から式(6)までに示されているように、δが正の場合、ピント位置は奥になる。すなわち遠視傾向の人に適した補正となる。一般には画素単位のシフトしかできないので補正量が離散的となるが、表示装置10は、視点画像のシフトにより視度を補正できる。また、x軸方向の画像シフト量とy軸方向の画像シフト量とを異なる値にすることにより、表示装置10は正乱視の補償も可能となる。 Next, consider the case where there is a parallax 2δ between the image A and the image B as shown in FIG. At this time, as shown in equations (4) to (6), when δ is positive, the focus position is in the back. That is, the correction is suitable for people with hyperopia. Generally, the correction amount is discrete because only the shift in pixel units is possible, but the display device 10 can correct the diopter by shifting the viewpoint image. Further, by setting the image shift amount in the x-axis direction and the image shift amount in the y-axis direction to different values, the display device 10 can also compensate for regular astigmatism.

換言すれば、図11は、知覚画像300と画像400との関係の第2例を示す図である。図11では、位置uAから見た画像と位置uBから見た画像との視差が、2δである。位置uAから見える画像の輝度IA(x,y)は、式(4)のように表される。また、位置uBから見える画像の輝度IB(x,y)は、式(5)のように表される。 In other words, FIG. 11 is a diagram showing a second example of the relationship between the perceived image 300 and the image 400. In FIG. 11, the parallax between the image seen from the position uA and the image seen from the position uB is 2δ. The brightness IA (x, y) of the image seen from the position uA is expressed by the equation (4). The brightness IB (x, y) of the image seen from the position uB is expressed by the equation (5).

Figure 0006944110
Figure 0006944110

Figure 0006944110
Figure 0006944110

位置uで見える画像Iobs(u,x,y)は、位置uAから見える画像と位置uBから見える画像とのリニアブレンディングに応じた式(6)で表される。 The images Iobs (u, x, y) seen at the position u are represented by the equation (6) according to the linear blending of the image seen from the position uA and the image seen from the position uB.

Figure 0006944110
Figure 0006944110

距離δが正値である場合、画像400は、表示部14よりもz軸の負方向にある。距離δが正値である場合、画像処理部13は、観察者の遠視を補正することができる。また、画像処理部13は、補正値に応じて一つ以上の画像を平行移動する。x軸方向における表示された画像Aと表示された画像Bとの距離δxと、y軸方向における表示された画像Aと表示された画像Bとの距離δyとを異なる値にすることによって、画像処理部13は、観察者の正乱視を補正することができる。 When the distance δ is a positive value, the image 400 is in the negative direction of the z-axis with respect to the display unit 14. When the distance δ is a positive value, the image processing unit 13 can correct the hyperopia of the observer. Further, the image processing unit 13 translates one or more images according to the correction value. By setting the distance δx between the displayed image A and the displayed image B in the x-axis direction and the distance δy between the displayed image A and the displayed image B in the y-axis direction to different values, the image The processing unit 13 can correct the observer's normal vision.

図12において画面に表示されている画像同士は、図11において画面に表示されている画像同士と比較して、瞳孔100において距離dだけ外側の視点A’及び視点B’の間でリニアブレンドされるように、画面において互いに離されて表示されている。図12では、ピント位置が画面に接近している。視点の移動量をdとし、視点A’の座標をuA’とし、視点B’の座標をuB’とすると、Iobs(u,x,y)は、式(7)にように表される。すなわち、図12に示された視点A,Bの画像を所定の比率でブレンドしたものを視点A,Bの画像とすることで、表示装置10は、見かけ上で視点位置をずらした画像を表示でき、眼の焦点の調節位置をずらすことができる。この方法であれば、調整は離散的とならないので、表示装置10は連続的な視度補正ができる。表示装置10は、垂直方向及び水平方向について混合比を変えることによって、正乱視の補正にも対応できる。 The images displayed on the screen in FIG. 12 are linearly blended between the viewpoints A'and B'outside the pupil 100 by a distance d as compared with the images displayed on the screen in FIG. As such, they are displayed apart from each other on the screen. In FIG. 12, the focus position is close to the screen. Assuming that the amount of movement of the viewpoint is d, the coordinates of the viewpoint A'are uA', and the coordinates of the viewpoint B'are uB', Iobs (u, x, y) is expressed by the equation (7). That is, by blending the images of the viewpoints A and B shown in FIG. 12 at a predetermined ratio into the images of the viewpoints A and B, the display device 10 displays an image in which the viewpoint positions are apparently shifted. It is possible to shift the adjustment position of the focal point of the eye. With this method, the adjustment is not discrete, so that the display device 10 can continuously correct the diopter. The display device 10 can also correct normal astigmatism by changing the mixing ratio in the vertical direction and the horizontal direction.

換言すれば、図12は、補正値に応じて混合された複数の画像を画素ブロックの各画素に表示する例を示す図である。図12では、画像の混合比が100%となる瞳孔上の位置同士の間隔が図11と比較して広い場合における、瞳孔上の位置に応じた輝度変化を示すものである。位置uA’は、位置(uA+d)と表される。位置uB’は、位置(uB−d)と表される。位置uA’から位置uB’までの範囲で、リニアブレンディングが生じる。図12では、画像400の位置は、知覚画像300の位置よりも表示部14に接近している。 In other words, FIG. 12 is a diagram showing an example in which a plurality of images mixed according to the correction value are displayed on each pixel of the pixel block. FIG. 12 shows a change in brightness depending on the position on the pupil when the distance between the positions on the pupil where the mixing ratio of the images is 100% is wider than that in FIG. The position uA'is represented as the position (uA + d). The position uB'is represented as the position (uB-d). Linear blending occurs in the range from position uA'to position uB'. In FIG. 12, the position of the image 400 is closer to the display unit 14 than the position of the perceived image 300.

位置uに入射する光の輝度Iobs(u,x,y)は、観察者の瞳孔上のリニアブレンディングを表す式(7)で表される。 The luminance Iobs (u, x, y) of the light incident on the position u is represented by the equation (7) representing the linear blending on the pupil of the observer.

Figure 0006944110
Figure 0006944110

画像処理部13は、図11に示す位置uAの輝度と位置uBの輝度とが混合された結果のうちの位置uAから位置uBまでの範囲と、図12に示す位置uA’の輝度と位置uB’の輝度とが混合された結果のうちの位置uAから位置uBまでの範囲とが等しくなるように、位置uAの画像と位置uBの画像を生成する。これによって、画像処理部13は、位置uAの輝度と位置uBの輝度との間のブレンディングによる効果と同等の効果を得ることができる。式(7)から自明であるが、加重平均された複数の画像である複数の加重平均画像は式(8)で示される。画像処理部13は、複数の加重平均画像を生成する。 The image processing unit 13 includes a range from position uA to position uB in the result of mixing the brightness of position uA and the brightness of position uB shown in FIG. 11, and the brightness and position uB of position uA'shown in FIG. The image of the position uA and the image of the position uB are generated so that the range from the position uA to the position uB in the result of mixing the brightness of'is equal. As a result, the image processing unit 13 can obtain an effect equivalent to the effect of blending between the brightness of the position uA and the brightness of the position uB. As is obvious from the formula (7), a plurality of weighted average images, which are a plurality of weighted average images, are represented by the formula (8). The image processing unit 13 generates a plurality of weighted average images.

Figure 0006944110
Figure 0006944110

図12では、視度の補正値が離散的ではない。画像処理部13は、視度を連続的に補正することができる。また、x軸方向における画素ブロックAと画素ブロックBとの距離δxと、y軸方向における画素ブロックAと画素ブロックBとの距離δyとを異なる値にすることによって、画像処理部13は、観察者の正乱視を補正することができる。 In FIG. 12, the diopter correction values are not discrete. The image processing unit 13 can continuously correct the diopter. Further, by setting the distance δx between the pixel block A and the pixel block B in the x-axis direction and the distance δy between the pixel block A and the pixel block B in the y-axis direction to different values, the image processing unit 13 observes. It is possible to correct a person's normal vision.

正確な運動視差が再現されるということは、瞳孔上の各位置で光線が等価的に再現されていることを示す。光線が等価的に再現されている場合、表示装置10は、眼の焦点の調節(ピント)も正しく提示できる。図13は、異なる奥行の視標を表示装置10が表示した場合における、調節応答を評価した結果を示す。縦軸は眼の焦点の調節(ピント)を示す。横軸は時刻を示す。図13に示された破線は視標の理論的な奥行位置を示す。円盤は実測値を示す。図13によって、実測値がよく追随していることが確認でき、調節も適切に再現されていることが確認できる。 The fact that the accurate motion parallax is reproduced indicates that the light rays are reproduced equivalently at each position on the pupil. When the light rays are reproduced equivalently, the display device 10 can also correctly present the accommodation (focus) of the focus of the eye. FIG. 13 shows the result of evaluating the adjustment response when the display device 10 displays optotypes having different depths. The vertical axis shows the accommodation (focus) of the focus of the eye. The horizontal axis shows the time. The dashed line shown in FIG. 13 indicates the theoretical depth position of the optotype. The disk shows the measured value. From FIG. 13, it can be confirmed that the actually measured values follow well, and it can be confirmed that the adjustment is properly reproduced.

尚、空間周波数の高周波成分が少ない画像の場合、ずれの幅が10arcmin程度でも観察者は中間視点の画像を知覚するので、表示装置10は、画像のコンテンツによっては、画像間のずれを大きくすることができる。 In the case of an image having a small high frequency component of the spatial frequency, the observer perceives the image from the intermediate viewpoint even if the deviation width is about 10 arcmin. Therefore, the display device 10 increases the deviation between the images depending on the content of the image. be able to.

ここまでは、簡単のため、乱視の軸が水平又は垂直であることを想定したが、図11のシフトによる方法の場合、画像のシフトの方向は、乱視の軸と直交方向であればよい。 Up to this point, for the sake of simplicity, it has been assumed that the axis of astigmatism is horizontal or vertical, but in the case of the shift method of FIG. 11, the shift direction of the image may be a direction orthogonal to the axis of astigmatism.

換言すれば、図13は、焦点調節の応答の例を示す図である。横軸は時間を示す。縦軸は、眼の焦点調節の適応を示す。すなわち、縦軸は、眼の焦点位置(奥行)を示す。図13における破線は、知覚画像のz軸方向の位置の理論値を表す。図13における丸印は、知覚画像のz軸方向の位置の実測値を表す。知覚画像のz軸方向の位置の実測値は、知覚画像のz軸方向の位置の理論値によく追随している。観察者の眼の焦点調節は、適切に再現されている。 In other words, FIG. 13 is a diagram showing an example of the accommodation response. The horizontal axis shows time. The vertical axis shows the adaptation of accommodation of the eye. That is, the vertical axis indicates the focal position (depth) of the eye. The broken line in FIG. 13 represents the theoretical value of the position of the perceived image in the z-axis direction. The circles in FIG. 13 represent the measured values of the positions of the perceived image in the z-axis direction. The measured value of the position of the perceived image in the z-axis direction closely follows the theoretical value of the position of the perceived image in the z-axis direction. The accommodation of the observer's eyes is well reproduced.

空間周波数の高周波成分が少ない画像の場合、画面上での画像のずれ幅が10arcmin程度でも、観察者は中間視点の画像を知覚することができる。実施形態の表示装置10は、画像コンテンツの空間周波数に応じて、画素ブロック同士のずれを大きくすることができる。 In the case of an image having a small amount of high-frequency components of the spatial frequency, the observer can perceive the image from the intermediate viewpoint even if the deviation width of the image on the screen is about 10 arcmin. The display device 10 of the embodiment can increase the deviation between the pixel blocks according to the spatial frequency of the image content.

以上のように、実施形態の表示装置10は、画像取得部11と、値取得部12と、画像処理部13と、表示部14と、面格子15とを備える。画像取得部11は、少なくとも第1画像及び第2画像を取得する。値取得部12は、水平方向の補正値と垂直方向の補正値とを取得する。画像処理部13は、水平方向の補正値に応じた距離だけ第1画像の位置を水平方向にずらし、垂直方向の補正値に応じた距離だけ第1画像の位置を垂直方向にずらし、水平方向及び垂直方向に位置がずらされた第1画像と第2画像とに基づいて表示用画像を生成する。表示部14は、複数の画素を含む画素ブロック単位で表示用画像を表示する。面格子15の開口部150は、観察者の眼における位置に応じて異なる混合比で画像同士が混合されるように、画素ブロックの各画素による表示用画像を観察者の眼に出力する。 As described above, the display device 10 of the embodiment includes an image acquisition unit 11, a value acquisition unit 12, an image processing unit 13, a display unit 14, and a surface grid 15. The image acquisition unit 11 acquires at least the first image and the second image. The value acquisition unit 12 acquires the correction value in the horizontal direction and the correction value in the vertical direction. The image processing unit 13 shifts the position of the first image in the horizontal direction by a distance corresponding to the correction value in the horizontal direction, shifts the position of the first image in the vertical direction by a distance corresponding to the correction value in the vertical direction, and shifts the position in the horizontal direction. And a display image is generated based on the first image and the second image shifted in the vertical direction. The display unit 14 displays a display image in pixel block units including a plurality of pixels. The opening 150 of the surface grid 15 outputs a display image by each pixel of the pixel block to the observer's eye so that the images are mixed at different mixing ratios depending on the position in the observer's eye.

実施形態の表示装置10は、値取得部12と、画像処理部13と、表示部14とを備える。値取得部12視度の補正値を取得する。画像処理部13は、補正値に基づいて複数の画像から表示画像を生成する。表示部14、観察者の瞳孔における位置に応じて複数の画像の混合比が異なるように表示画像を表示する。これによって、実施形態の表示装置10は、正乱視を含む視度を補正することが可能である。 The display device 10 of the embodiment includes a value acquisition unit 12, an image processing unit 13, and a display unit 14. Value acquisition unit 12 Acquires the correction value of diopter. The image processing unit 13 generates a display image from a plurality of images based on the correction value. The display image is displayed so that the mixing ratio of the plurality of images differs depending on the position of the display unit 14 in the pupil of the observer. Thereby, the display device 10 of the embodiment can correct the diopter including normal astigmatism.

混合比は、瞳孔における位置に応じて線形に変化する。表示部14は、開口部150を有する面格子15(バリア)に表示画像の光を出力することにより、混合比を変化させる。画像処理部13は、観察者の両眼の瞳孔間を結ぶ直線と表示部14の画面の水平方向とが成す角度に応じて、混合された複数の画像の傾きを補正する。画像処理部13は、補正値に応じて一つ以上の画像の表示位置をずらし、表示位置がずれた画像から生成された表示画像を表示部14に出力する。画像処理部13は、補正値に基づいて加重平均された複数の画像である複数の加重平均画像を生成する。画像処理部13は、複数の加重平均画像を、表示画像として表示部に出力する。 The mixing ratio changes linearly depending on the position in the pupil. The display unit 14 changes the mixing ratio by outputting the light of the display image to the surface grid 15 (barrier) having the opening 150. The image processing unit 13 corrects the inclination of the plurality of mixed images according to the angle formed by the straight line connecting the pupils of both eyes of the observer and the horizontal direction of the screen of the display unit 14. The image processing unit 13 shifts the display position of one or more images according to the correction value, and outputs a display image generated from the image whose display position is shifted to the display unit 14. The image processing unit 13 generates a plurality of weighted average images, which are a plurality of images weighted and averaged based on the correction value. The image processing unit 13 outputs a plurality of weighted average images to the display unit as display images.

実施形態の表示装置10は、複数の画像を瞳孔上の位置によって異なる割合で混合可能である。実施形態の表示装置10は、複数の画像を補正値から決まる所定値により混合した画像を複数生成する。実施形態の表示装置10は、所定の規則に従い生成された複数の画像を各画素に割り当てる。 The display device 10 of the embodiment can mix a plurality of images at different ratios depending on the position on the pupil. The display device 10 of the embodiment generates a plurality of images in which a plurality of images are mixed according to a predetermined value determined from a correction value. The display device 10 of the embodiment assigns a plurality of images generated according to a predetermined rule to each pixel.

換言すれば、実施形態の表示装置10は、観察者の瞳上の位置に応じて複数の画像を混合可能である。実施形態の表示装置10は、補正値に応じてずれ量を定める。実施形態の表示装置10は、ずれ量に基づいて複数の画像を混合することによって、表示用画像を生成する。実施形態の表示装置10は、複数の画像を生成してもよい。実施形態の表示装置10は、所定の規則に従い生成された複数の画像を、2次元の画面に配列された各画素に割り当てる。 In other words, the display device 10 of the embodiment can mix a plurality of images according to the position on the pupil of the observer. The display device 10 of the embodiment determines the amount of deviation according to the correction value. The display device 10 of the embodiment generates a display image by mixing a plurality of images based on the amount of deviation. The display device 10 of the embodiment may generate a plurality of images. The display device 10 of the embodiment allocates a plurality of images generated according to a predetermined rule to each pixel arranged on a two-dimensional screen.

上記の実施形態では、正乱視の視度を有する観察者は、眼鏡を使用することなく画像を観察することが可能である。実施形態の表示装置10は、機械的な機構を用いることなく、正乱視を補正することが可能である。図11のシフトによる方法の場合、シフトの方向は、乱視の軸と直交する方向でもよい。表示装置10は、発光部、液晶パネル、遮光部の順に配置された表示部14のみならず、発光部、遮光部、液晶パネルの順に配置された表示部14を備えてもよい。表示装置10は、投射型の表示装置でもよい。 In the above embodiment, an observer with normal astigmatism diopter can observe the image without using spectacles. The display device 10 of the embodiment can correct normal astigmatism without using a mechanical mechanism. In the case of the shift method of FIG. 11, the shift direction may be a direction orthogonal to the axis of astigmatism. The display device 10 may include not only the display unit 14 arranged in the order of the light emitting unit, the liquid crystal panel, and the light-shielding unit, but also the display unit 14 arranged in the order of the light-emitting unit, the light-shielding unit, and the liquid crystal panel. The display device 10 may be a projection type display device.

上述した実施形態における表示装置の少なくとも一部をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。 At least a part of the display device in the above-described embodiment may be realized by a computer. In that case, the program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read by the computer system and executed. The term "computer system" as used herein includes hardware such as an OS and peripheral devices. Further, the "computer-readable recording medium" refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, or a CD-ROM, or a storage device such as a hard disk built in a computer system. Further, a "computer-readable recording medium" is a communication line for transmitting a program via a network such as the Internet or a communication line such as a telephone line, and dynamically holds the program for a short period of time. It may also include a program that holds a program for a certain period of time, such as a volatile memory inside a computer system that serves as a server or a client in that case. Further, the above program may be for realizing a part of the above-mentioned functions, and may be further realized for realizing the above-mentioned functions in combination with a program already recorded in the computer system. It may be realized by using a programmable logic device such as FPGA (Field Programmable Gate Array).

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 Although the embodiments of the present invention have been described in detail with reference to the drawings, the specific configuration is not limited to this embodiment, and includes designs and the like within a range that does not deviate from the gist of the present invention.

本発明は、カメラのファインダ、ヘッドマウントディスプレイ装置、パーソナルコンピュータ装置、タブレット端末、スマートフォン端末等の表示装置に適用可能である。 The present invention can be applied to display devices such as camera finder, head-mounted display device, personal computer device, tablet terminal, and smartphone terminal.

10…表示装置、11…画像取得部、12…値取得部、13…画像処理部、14…表示部、15…面格子、16…検出部、100…瞳孔、101…虹彩、110…入射光、111…入射光、112…入射光、140…画素ブロック、141…画素、142…画素、143…画素、144…画素、150…開口部、300…知覚画像、400…画像 10 ... Display device, 11 ... Image acquisition unit, 12 ... Value acquisition unit, 13 ... Image processing unit, 14 ... Display unit, 15 ... Surface grid, 16 ... Detection unit, 100 ... Pupil, 101 ... Iridescent, 110 ... Incident light , 111 ... Incident light, 112 ... Incident light, 140 ... Pixel block, 141 ... Pixel, 142 ... Pixel, 143 ... Pixel, 144 ... Pixel, 150 ... Aperture, 300 ... Perceived image, 400 ... Image

Claims (6)

視度の補正値を取得する値取得部と、
前記補正値に基づいて複数の画像から表示画像を生成する画像処理部と、
観察者の瞳孔における位置に応じて前記複数の画像の混合比が異なるように前記表示画像を表示する表示部と
を備え
前記画像処理部は、水平方向の画像シフト量と垂直方向の画像シフト量とが異なる値となるように、前記複数の画像のうちの一つ以上の前記画像を前記補正値に応じて平行移動し、前記観察者の両眼の瞳孔間を結ぶ直線と前記表示部の画面の水平方向とが成す角度に応じて、混合された前記複数の画像の傾きを補正する、
表示装置。
A value acquisition unit that acquires the correction value of diopter,
An image processing unit that generates a display image from a plurality of images based on the correction value, and an image processing unit.
A display unit for displaying the display image is provided so that the mixing ratio of the plurality of images differs depending on the position in the pupil of the observer .
The image processing unit moves one or more of the plurality of images in parallel according to the correction value so that the horizontal image shift amount and the vertical image shift amount have different values. Then, the inclination of the plurality of mixed images is corrected according to the angle formed by the straight line connecting the pupils of both eyes of the observer and the horizontal direction of the screen of the display unit.
Display device.
前記混合比は、前記瞳孔における位置に応じて線形に変化する、請求項1に記載の表示装置。 The display device according to claim 1, wherein the mixing ratio changes linearly according to the position in the pupil. 前記表示部は、開口部を有するバリアに前記表示画像の光を出力することにより前記混合比を変化させる、請求項1又は請求項2に記載の表示装置。 The display device according to claim 1 or 2, wherein the display unit changes the mixing ratio by outputting light of the display image to a barrier having an opening. 前記画像処理部は、前記補正値に応じて一つ以上の前記画像の表示位置をずらし、表示位置がずれた前記画像から生成された前記表示画像を前記表示部に出力する、請求項1から請求項のいずれか一項に記載の表示装置。 The image processing unit shifts the display position of one or more of the images according to the correction value, and outputs the display image generated from the image whose display position is shifted to the display unit, according to claim 1. The display device according to any one of claims 3. 前記画像処理部は、前記補正値に基づいて加重平均された前記複数の画像である複数の加重平均画像を生成し、前記複数の加重平均画像を前記表示画像として前記表示部に出力する、請求項1から請求項のいずれか一項に記載の表示装置。 The image processing unit generates a plurality of weighted average images which are the plurality of images weighted and averaged based on the correction value, and outputs the plurality of weighted average images as the display image to the display unit. The display device according to any one of items 1 to 3. 表示装置が実行する表示方法であって、
視度の補正値を取得するステップと、
前記補正値に基づいて複数の画像から表示画像を生成するステップと、
観察者の瞳孔における位置に応じて前記複数の画像の混合比が異なるように前記表示画像を表示するステップと
を有し、
前記表示画像を生成するステップでは、水平方向の画像シフト量と垂直方向の画像シフト量とが異なる値となるように、前記複数の画像のうちの一つ以上の前記画像を前記補正値に応じて平行移動し、前記観察者の両眼の瞳孔間を結ぶ直線と表示部の画面の水平方向とが成す角度に応じて、混合された前記複数の画像の傾きを補正する、
表示方法。
It is a display method executed by the display device.
Steps to get the diopter correction value and
A step of generating a display image from a plurality of images based on the correction value, and
Depending on the position of the observer's pupil possess the steps of mixing ratios of the plurality of images to display the display image differently,
In the step of generating the display image, one or more of the plurality of images are adjusted according to the correction value so that the horizontal image shift amount and the vertical image shift amount are different values. And corrects the tilt of the plurality of mixed images according to the angle formed by the straight line connecting the pupils of both eyes of the observer and the horizontal direction of the screen of the display unit.
Display method.
JP2017189128A 2017-09-28 2017-09-28 Display device and display method Active JP6944110B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017189128A JP6944110B2 (en) 2017-09-28 2017-09-28 Display device and display method
JP2021023606A JP7093043B2 (en) 2017-09-28 2021-02-17 Display device and display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017189128A JP6944110B2 (en) 2017-09-28 2017-09-28 Display device and display method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021023606A Division JP7093043B2 (en) 2017-09-28 2021-02-17 Display device and display method

Publications (2)

Publication Number Publication Date
JP2019066560A JP2019066560A (en) 2019-04-25
JP6944110B2 true JP6944110B2 (en) 2021-10-06

Family

ID=66337828

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017189128A Active JP6944110B2 (en) 2017-09-28 2017-09-28 Display device and display method
JP2021023606A Active JP7093043B2 (en) 2017-09-28 2021-02-17 Display device and display method

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021023606A Active JP7093043B2 (en) 2017-09-28 2021-02-17 Display device and display method

Country Status (1)

Country Link
JP (2) JP6944110B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7329794B2 (en) * 2019-10-18 2023-08-21 日本電信電話株式会社 Image supply device, image supply method, display system and program
JP7329795B2 (en) * 2019-10-18 2023-08-21 日本電信電話株式会社 Image supply device, image supply method, display system and program
CN113888958B (en) * 2020-07-02 2023-06-30 广州视享科技有限公司 Optical display device, optical display control method and display

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000295637A (en) * 1999-04-12 2000-10-20 Mr System Kenkyusho:Kk Stereoscopic image display device
JP3492251B2 (en) 1999-09-07 2004-02-03 キヤノン株式会社 Image input device and image display device
US9494797B2 (en) * 2012-07-02 2016-11-15 Nvidia Corporation Near-eye parallax barrier displays
US9406253B2 (en) 2013-03-14 2016-08-02 Broadcom Corporation Vision corrective display
JP6178721B2 (en) * 2013-12-25 2017-08-09 日本電信電話株式会社 Display device and display method
JP6200316B2 (en) * 2013-12-25 2017-09-20 日本電信電話株式会社 Image generation method, image generation apparatus, and image generation program
CN103888746B (en) * 2014-01-27 2016-05-11 万象三维视觉科技(北京)有限公司 A kind of three-in-one LED bore hole 3D display unit and method based on sub-pixel
JP2015206816A (en) 2014-04-17 2015-11-19 富士通株式会社 Display program, display device and display method
US10529059B2 (en) 2014-08-11 2020-01-07 The Regents Of The University Of California Vision correcting display with aberration compensation using inverse blurring and a light field display
CA2901477C (en) * 2015-08-25 2023-07-18 Evolution Optiks Limited Vision correction system, method and graphical user interface for implementation on electronic devices having a graphical display

Also Published As

Publication number Publication date
JP2021101238A (en) 2021-07-08
JP2019066560A (en) 2019-04-25
JP7093043B2 (en) 2022-06-29

Similar Documents

Publication Publication Date Title
JP7093043B2 (en) Display device and display method
US10129520B2 (en) Apparatus and method for a dynamic “region of interest” in a display system
JP6423945B2 (en) Display device and display method using projector
JP6658529B2 (en) Display device, display device driving method, and electronic device
US9060693B2 (en) Visual function testing device
US10284839B2 (en) Binocular see-through AR head-mounted display device and information display method therefor
US10191276B2 (en) Imaging adjustment device and imaging adjustment method
US10261345B2 (en) Imaging adjustment device and imaging adjustment method
CN103595986B (en) Stereoscopic image display device, image processing device, and image processing method
US20210044789A1 (en) Electronic visual headset with vision correction
US20180025520A1 (en) Binocular see-through AR head-mounted display device and information displaying method thereof
TW201730627A (en) Light field display metrology
KR102596880B1 (en) Head-mounted display apparatus and method thereof for generating 3d image information
JPWO2018008577A1 (en) Head-mounted display device
WO2021238423A1 (en) Image processing method, near-eye display device, computer device and storage medium
JP2019033484A (en) Near-eye display apparatus and method for calibrating display image thereof
JP6324119B2 (en) Rotation angle calculation method, gazing point detection method, information input method, rotation angle calculation device, gazing point detection device, information input device, rotation angle calculation program, gazing point detection program, and information input program
CN114616511A (en) System and method for improving binocular vision
US10771774B1 (en) Display apparatus and method of producing images having spatially-variable angular resolutions
EP3471411A1 (en) Light field display apparatus and display method of light field image
WO2014119555A1 (en) Image processing device, display device and program
CN107561703A (en) A kind of near-eye display system, virtual reality device and augmented reality equipment
CN111464808B (en) Stereoscopic display device and parameter correction method thereof
US20240176121A1 (en) Image compensation device for image for augmented reality
TW202043847A (en) Head-mounted display and the adjusting method thereof

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20171017

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190829

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201020

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20201218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210823

R150 Certificate of patent or registration of utility model

Ref document number: 6944110

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150