JP2021110784A - Image display device - Google Patents

Image display device Download PDF

Info

Publication number
JP2021110784A
JP2021110784A JP2020001211A JP2020001211A JP2021110784A JP 2021110784 A JP2021110784 A JP 2021110784A JP 2020001211 A JP2020001211 A JP 2020001211A JP 2020001211 A JP2020001211 A JP 2020001211A JP 2021110784 A JP2021110784 A JP 2021110784A
Authority
JP
Japan
Prior art keywords
image
display
lens
control unit
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020001211A
Other languages
Japanese (ja)
Inventor
宏樹 松原
Hiroki Matsubara
宏樹 松原
高志 飯澤
Takashi Iizawa
高志 飯澤
貴久 新井
Takahisa Arai
貴久 新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2020001211A priority Critical patent/JP2021110784A/en
Publication of JP2021110784A publication Critical patent/JP2021110784A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an image display device designed such that a display screen is observable via a lens, with which it is possible to provide a good user experience while maintaining visual effects by the lens.SOLUTION: The image display device comprises an image acquisition unit 29 for acquiring an image, and a display control unit 25 for generating a display image 17 on the basis of an acquired image having been acquired by the image acquisition unit and causing the display image to be displayed on a display screen of a display unit 15 that has the display screen 16. The display control unit generates, on the basis of the lens characteristics of a lens 21 provided at a position facing the display screen, the display image in which a process of reducing an optical aberration due to the lens is applied to the acquired image.SELECTED DRAWING: Figure 1

Description

本発明は、画像表示装置に関する。 The present invention relates to an image display device.

ディスプレイ装置の表示面と、当該表示面に表示された画像を見る人との間にレンズ等の部材を設けて視覚効果を付加する画像表示装置が知られている(特許文献1)。 An image display device is known in which a member such as a lens is provided between a display surface of a display device and a person who views an image displayed on the display surface to add a visual effect (Patent Document 1).

特開2007−304609号公報JP-A-2007-304609

例えば、ディスプレイの表示面と、当該表示面を見る人との間にレンズを設けて、当該レンズを通して表示面に表示された画像を観察させることで、例えば当該画像をより大きく見せて臨場感を高めるなどの視覚効果を得ることが考えられる。 For example, by providing a lens between the display surface of the display and the person who sees the display surface and observing the image displayed on the display surface through the lens, for example, the image can be made larger to give a sense of presence. It is conceivable to obtain a visual effect such as enhancing.

このような場合に、レンズの特性の影響を受けて、レンズを通して見える画像中に現れた物の色が不自然となる場合や形が不鮮明となる場合があり、所望の視覚効果が得られず、ユーザエクスペリエンスが低下することが課題の一つとして挙げられる。 In such a case, due to the influence of the characteristics of the lens, the color of the object appearing in the image seen through the lens may become unnatural or the shape may become unclear, and the desired visual effect cannot be obtained. One of the issues is that the user experience deteriorates.

本発明は上記した点に鑑みてなされたものであり、レンズを介して表示面を観察させるような画像表示装置において、レンズによる視覚効果を維持しつつ、良好なユーザエクスペリエンスを提供することが可能である画像表示装置を提供することを目的の1つとしている。 The present invention has been made in view of the above points, and it is possible to provide a good user experience while maintaining the visual effect of the lens in an image display device in which the display surface is observed through the lens. One of the purposes is to provide an image display device.

請求項1に記載の発明は、画像を取得する画像取得部と、前記画像取得部が取得した取得画像に基づいて表示画像を生成して、表示面を有する表示部の前記表示面に前記表示画像を表示させる表示制御部と、を有し、前記表示制御部は、前記表示面に対向する位置に設けられたレンズのレンズ特性に基づいて、前記取得画像に前記レンズによる光学収差を低減する処理を施した前記表示画像を生成することを特徴とする。 The invention according to claim 1 generates a display image based on an image acquisition unit that acquires an image and an acquired image acquired by the image acquisition unit, and displays the display on the display surface of the display unit having a display surface. It has a display control unit for displaying an image, and the display control unit reduces optical aberration due to the lens in the acquired image based on the lens characteristics of a lens provided at a position facing the display surface. It is characterized in that the processed display image is generated.

請求項8に記載の発明は、画像表示装置が画像を表示する画像表示方法であって、画像取得部が画像を取得する取得ステップと、表示制御部が、前記画像取得部が取得した取得画像に基づいて表示画像を生成して、表示面を有する表示部の前記表示面に前記表示画像を表示させる表示ステップと、を有し、前記表示制御部は、前記表示ステップにおいて、前記表示面に対向する位置に設けられたレンズのレンズ特性に基づいて、前記取得画像に前記レンズによる光学収差を低減する処理を施した前記表示画像を生成することを特徴とする。 The invention according to claim 8 is an image display method in which an image display device displays an image, in which an image acquisition unit acquires an image and a display control unit acquires an acquired image acquired by the image acquisition unit. The display control unit has a display step of generating a display image based on the above and displaying the display image on the display surface of the display unit having the display surface, and the display control unit is on the display surface in the display step. It is characterized in that the display image is generated by subjecting the acquired image to a process of reducing optical aberration caused by the lens based on the lens characteristics of lenses provided at opposite positions.

請求項9に記載の発明は、コンピュータを備える画像表示装置によって実行される画像表示プログラムであって、画像表示装置によって実行される画像表示プログラムであって、画像取得部が画像を取得する取得ステップと、表示制御部が、前記画像取得部が取得した取得画像に基づいて表示画像を生成して、表示面を有する表示部の前記表示面に前記表示画像を表示させる表示ステップと、を実行させ、前記表示制御部は、前記表示ステップにおいて、前記表示面に対向する位置に設けられたレンズのレンズ特性に基づいて、前記取得画像に前記レンズによる光学収差を低減する処理を施した前記表示画像を生成することを特徴とする。 The invention according to claim 9 is an image display program executed by an image display device including a computer, an image display program executed by the image display device, and an acquisition step in which an image acquisition unit acquires an image. The display control unit generates a display image based on the acquired image acquired by the image acquisition unit, and executes a display step of displaying the display image on the display surface of the display unit having a display surface. In the display step, the display control unit performs a process of reducing the optical aberration caused by the lens on the acquired image based on the lens characteristics of the lens provided at a position facing the display surface. Is characterized in that.

本発明の実施例1に係る画像表示装置を人の視座及び虚像と共に模式的に示す図である。It is a figure which shows typically the image display device which concerns on Example 1 of this invention together with a human viewpoint and a virtual image. 図1の画像表示装置をYZ面で縦に切断した断面図である。FIG. 5 is a cross-sectional view of the image display device of FIG. 1 vertically cut along a YZ plane. 実施例1に係る画像表示装置の表示面に表示された表示画像の一例を示す図である。It is a figure which shows an example of the display image displayed on the display surface of the image display device which concerns on Example 1. FIG. 実施例1に係る画像表示装置において、レンズを通して観察される虚像の一例を示す図である。It is a figure which shows an example of the virtual image observed through a lens in the image display apparatus which concerns on Example 1. FIG. 実施例1に係る画像表示装置の表示面に表示された画像の一例を示す図である。It is a figure which shows an example of the image displayed on the display surface of the image display device which concerns on Example 1. FIG. 実施例1に係る画像表示装置に用いられる、レンズ特性及び光学収差の低減条件を示す一覧を示す図である。It is a figure which shows the list which shows the lens characteristic and the reduction condition of an optical aberration used in the image display apparatus which concerns on Example 1. FIG. 実施例1に係る画像表示装置において表示制御部によって実行される表示制御ルーチンの一例を示すフローチャートである。It is a flowchart which shows an example of the display control routine executed by the display control unit in the image display apparatus which concerns on Example 1. FIG. 図7のフローにおいて表示制御部によって実行されるルーチンの一例を示すフローチャートである。It is a flowchart which shows an example of the routine executed by the display control part in the flow of FIG. 実施例1に係る画像表示装置において表示面に表示された画像の一例を示す図である。It is a figure which shows an example of the image displayed on the display surface in the image display apparatus which concerns on Example 1. FIG. 本発明の実施例2に係る画像表示装置を人の視座及び虚像と共に模式的に示す図である。It is a figure which shows typically the image display device which concerns on Example 2 of this invention together with a human viewpoint and a virtual image. 実施例2に係る画像表示装置及び当該画像表示装置の表示部における表示面を観察し得る領域を示す上面図である。It is a top view which shows the region which can observe the display surface in the image display device which concerns on Example 2, and the display part of the image display device. 実施例2に係る画像表示装置において、レンズを通して観察される虚像の一例を示す図である。It is a figure which shows an example of the virtual image observed through a lens in the image display apparatus which concerns on Example 2. FIG. 実施例2に係る画像表示装置において表示面に表示された画像の一例を示す図である。It is a figure which shows an example of the image displayed on the display surface in the image display apparatus which concerns on Example 2. FIG. 実施例2に係る画像表示装置において表示制御部によって実行される表示制御ルーチンの一例を示すフローチャートである。It is a flowchart which shows an example of the display control routine executed by the display control unit in the image display apparatus which concerns on Example 2. FIG.

以下に本発明の実施例について詳細に説明する。なお、以下の説明及び添付図面においては、実質的に同一又は等価な部分には同一の参照符号を付している。 Examples of the present invention will be described in detail below. In the following description and the accompanying drawings, the same reference numerals are given to substantially the same or equivalent parts.

図1は、本発明の実施例に係る画像表示装置10の構成を模式的に示す図である。また、図1には、画像表示装置10によって表示される画像を視認可能なヒト11及びヒト11の視点の位置である視座12が共に示されている。また、図1には、画像表示装置10における仮想の表示面である仮想表示面13及びヒト11が認識し得る虚像14が模式的に示されている。 FIG. 1 is a diagram schematically showing a configuration of an image display device 10 according to an embodiment of the present invention. Further, FIG. 1 shows both the human 11 who can visually recognize the image displayed by the image display device 10 and the viewpoint 12 which is the position of the viewpoint of the human 11. Further, FIG. 1 schematically shows a virtual display surface 13 which is a virtual display surface in the image display device 10 and a virtual image 14 which can be recognized by a human 11.

本明細書において、「視座」の位置は、画像表示装置10を視認あるいは観察する際に、どの位置から観察するかの基準となる位置を示す。視座の位置は、言い換えれば、視点の位置或いは観察点の位置であり、例えばヒト11の眼EYの位置である。また、例えば、ヒト11の頭の位置を視座の位置としてもよい。また、例えば、カメラによって画像表示装置10を観察する際に、カメラの位置を視座の位置としてもよい。本実施例において、ヒト11の視座12の位置をヒト11の眼EYの位置として説明する。 In the present specification, the position of the "viewpoint" indicates a position that serves as a reference from which position to observe when visually observing or observing the image display device 10. The position of the viewpoint is, in other words, the position of the viewpoint or the position of the observation point, for example, the position of the eye EY of the human 11. Further, for example, the position of the head of the human 11 may be the position of the viewpoint. Further, for example, when observing the image display device 10 with a camera, the position of the camera may be set as the position of the viewpoint. In this embodiment, the position of the viewpoint 12 of the human 11 will be described as the position of the eye EY of the human 11.

画像表示装置10は、表示部15を有している。表示部15は、平板状の形状を有しており、表示面としての一方の面16に画像を表示可能な表示領域16Aを有している表示装置である。図1において、表示領域16Aに表示されている画像を表示画像17として示している。表示部15は、例えば液晶ディスプレイである。また、表示部15は、例えば有機ELディスプレイであってもよい。 The image display device 10 has a display unit 15. The display unit 15 is a display device having a flat plate shape and having a display area 16A capable of displaying an image on one surface 16 as a display surface. In FIG. 1, the image displayed in the display area 16A is shown as the display image 17. The display unit 15 is, for example, a liquid crystal display. Further, the display unit 15 may be, for example, an organic EL display.

表示部15は、表示面16内にある液晶表示面等の表示領域16Aに画像を表示可能であればよい。すなわち、表示部15は、表示面16において表示画像17を表示可能に構成されている。本実施例において、表示部15は、RGBカラーモデルに基づいて表示面16内の表示領域16Aに表示画像17を表示可能に構成されている場合について説明する。 The display unit 15 may display an image in a display area 16A such as a liquid crystal display surface in the display surface 16. That is, the display unit 15 is configured to be able to display the display image 17 on the display surface 16. In this embodiment, the case where the display unit 15 is configured to be able to display the display image 17 in the display area 16A in the display surface 16 based on the RGB color model will be described.

具体的には、表示部15の表示領域16Aには、光の三原色である赤(Red)、緑(Green)、青(Blue)に発光する3つの小さい光源からなるピクセルが多数並べられている。表示部15は、当該多数のピクセルの各色の輝度を様々な組み合わせで駆動して様々な色を表現することにより表示画像17を表示可能に構成されている。 Specifically, in the display area 16A of the display unit 15, a large number of pixels consisting of three small light sources that emit light in the three primary colors of light, red (Red), green (Green), and blue (Blue), are arranged. .. The display unit 15 is configured to be able to display the display image 17 by driving the brightness of each color of the large number of pixels in various combinations to express various colors.

以下の説明において、表示面16及び表示領域16Aは長方形であり、表示面16の1の一組の対向する辺に平行な方向をX方向、他の一組の対向する辺に平行な方向をY方向、表示面16に垂直な方向をZ方向とする。また、図1においてX方向は水平方向を示す。 In the following description, the display surface 16 and the display area 16A are rectangular, and the direction parallel to one set of opposite sides of the display surface 16 is the X direction, and the direction parallel to the other set of opposite sides is the X direction. The Y direction and the direction perpendicular to the display surface 16 are defined as the Z direction. Further, in FIG. 1, the X direction indicates a horizontal direction.

開口部材18は、表示部15の表示面16に対向するように設けられた板状の部材である。また、図1に示すように、開口部材18は、視座12と表示面16との間に設けられている。 The opening member 18 is a plate-shaped member provided so as to face the display surface 16 of the display unit 15. Further, as shown in FIG. 1, the opening member 18 is provided between the viewpoint 12 and the display surface 16.

開口部材18は、例えば、光を透過しない材料から構成されている。また、例えば、開口部材18は、可視光をある程度透過させる半透明の材質、例えばすりガラス等によって構成されていてもよい。開口部材18は、視座12から開口部材18を視認した際に、表示領域16Aの画像が鮮明に視認されないように構成されていることが好ましい。 The opening member 18 is made of, for example, a material that does not transmit light. Further, for example, the opening member 18 may be made of a translucent material that transmits visible light to some extent, for example, frosted glass. It is preferable that the opening member 18 is configured so that the image of the display area 16A is not clearly visible when the opening member 18 is visually recognized from the viewpoint 12.

開口部19は、開口部材18の一方の面から他方の面に貫通する貫通孔である。ヒト11は、視座12から、開口部材18の開口部19を介して表示領域16Aを視認することができる。すなわち、開口部19は、ヒト11が視座12から表示領域16Aを視認できる開口部である。 The opening 19 is a through hole that penetrates from one surface of the opening member 18 to the other surface. The human 11 can visually recognize the display area 16A from the viewpoint 12 through the opening 19 of the opening member 18. That is, the opening 19 is an opening in which the human 11 can visually recognize the display area 16A from the viewpoint 12.

レンズ21は、表示部15の表示面16に対向する位置に設けられたレンズである。本実施例において、レンズ21は、開口部19に嵌め込まれている。例えば、レンズ21は、板状の形状を有している。本実施例において、レンズ21は、一方の面が平面であり、他方の面がフレネルレンズ面である。 The lens 21 is a lens provided at a position facing the display surface 16 of the display unit 15. In this embodiment, the lens 21 is fitted in the opening 19. For example, the lens 21 has a plate-like shape. In this embodiment, one surface of the lens 21 is a flat surface and the other surface is a Fresnel lens surface.

本実施例において、表示面16とレンズ21との間の距離は、レンズ21の焦点距離よりも小さくなるように設定されている。これによって、視座12から、表示領域16Aに表示される表示画像17の虚像14が視認され得る。 In this embodiment, the distance between the display surface 16 and the lens 21 is set to be smaller than the focal length of the lens 21. As a result, the virtual image 14 of the display image 17 displayed in the display area 16A can be visually recognized from the viewpoint 12.

また、図1中にレンズ21の光軸Cを示している。本実施例において、レンズ21の光軸C上にヒト11の視座12があるものとして説明する。また、レンズ21の光軸Cは、画像表示装置10の表示面16に垂直な中心軸と一致している。 Further, the optical axis C of the lens 21 is shown in FIG. In this embodiment, it is assumed that the viewpoint 12 of the human 11 is on the optical axis C of the lens 21. Further, the optical axis C of the lens 21 coincides with the central axis perpendicular to the display surface 16 of the image display device 10.

また、レンズ21を通して表示面16を観察させることで、実際の表示面16の位置よりも遠くの位置に虚像14を視認させ、臨場感を与えるような視覚効果を提供することが可能である。例えば、表示領域16Aに景色の画像を表示させることで、実際の景色を見ているかのような感覚を生じさせることができる。また、例えば、表示領域16Aに、人が水族館の中を移動している際に見える場面を映す動画を表示させることで、実際に水族館の中を歩いているような感覚を生じさせることができる。 Further, by observing the display surface 16 through the lens 21, it is possible to visually recognize the virtual image 14 at a position farther than the actual position of the display surface 16 and provide a visual effect that gives a sense of reality. For example, by displaying an image of a landscape in the display area 16A, it is possible to create a feeling as if the actual landscape is being viewed. Further, for example, by displaying a moving image showing a scene of a person moving in the aquarium in the display area 16A, it is possible to create the feeling of actually walking in the aquarium. ..

例えば、レンズ21と表示面16との距離は、所望の見え方で虚像14が視認されるように設定されている。例えば、レンズ21と表示面16との距離を大きくすると、視座12から視認される虚像14は、見かけ上の表示距離は遠くなり、より遠くに見えるように視認される。この場合、幾何学的な虚像サイズは大きくなる。また、例えば、レンズ21と表示面16との距離を小さくすると、視座12から視認される虚像14は、見かけ上の表示距離は近くなり、より近くに見えるように視認される。この場合、幾何学的な虚像サイズは小さくなる。 For example, the distance between the lens 21 and the display surface 16 is set so that the virtual image 14 can be visually recognized in a desired appearance. For example, when the distance between the lens 21 and the display surface 16 is increased, the virtual image 14 visually recognized from the viewpoint 12 becomes farther from the apparent display distance, and is visually recognized so as to appear farther. In this case, the geometric virtual image size becomes large. Further, for example, when the distance between the lens 21 and the display surface 16 is reduced, the virtual image 14 visually recognized from the viewpoint 12 becomes closer to the apparent display distance and is visually recognized so as to appear closer. In this case, the geometric virtual image size becomes smaller.

筐体23は、筒型の部材であり、対向する開口の各々が表示部15及び開口部材18によって覆われている。言い換えれば、筐体23は、表示部15と開口部材18との間で対向する各々の辺に沿って設けられた長方形の板状の部分の組み合わせからなる部材である。筐体23は、表示部15、開口部材18とともに全体として直方体の箱体をなしている。筐体23は、表示部16及び開口部材18を保持しており、表示部16と開口部材18との相対的位置を固定可能である。例えば、筐体23の内側の面は、光を反射しないかまたは反射しにくい材質からなる表面となっていてもよい。 The housing 23 is a tubular member, and each of the facing openings is covered with a display portion 15 and an opening member 18. In other words, the housing 23 is a member composed of a combination of rectangular plate-shaped portions provided along the respective sides facing each other between the display unit 15 and the opening member 18. The housing 23, together with the display unit 15 and the opening member 18, forms a rectangular parallelepiped box as a whole. The housing 23 holds the display unit 16 and the opening member 18, and the relative positions of the display unit 16 and the opening member 18 can be fixed. For example, the inner surface of the housing 23 may be a surface made of a material that does not reflect light or does not easily reflect light.

表示制御部25は、表示部15に接続されている。表示制御部25は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)を含み、表示部15の画像表示に関する制御を実行する。表示制御部25においては、CPUがROM等に記憶された各種プログラムを読み出して実行することにより各種機能が実現される。表示制御部25は、表示部15の表示面16に画像を表示させる。 The display control unit 25 is connected to the display unit 15. The display control unit 25 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory), and executes control related to image display of the display unit 15. In the display control unit 25, various functions are realized by the CPU reading and executing various programs stored in the ROM or the like. The display control unit 25 causes the display surface 16 of the display unit 15 to display an image.

記憶部27は、ハードディスク装置、SSD(solid state drive)、フラッシュメモリ等により構成された記憶装置である。記憶部27は、画像表示装置10における表示制御のための各種プログラム及びデータを記憶する。例えば、記憶部27は、表示部15にコンテンツ画像を表示するために必要なプログラムを予め記憶する。例えば、記憶部27は、レンズ21のレンズ特性に関するデータを予め記憶する。 The storage unit 27 is a storage device composed of a hard disk device, an SSD (solid state drive), a flash memory, and the like. The storage unit 27 stores various programs and data for display control in the image display device 10. For example, the storage unit 27 stores in advance a program necessary for displaying the content image on the display unit 15. For example, the storage unit 27 stores data regarding the lens characteristics of the lens 21 in advance.

画像取得部29は、表示制御部25に含まれている。画像取得部29は、表示制御部25において、表示部15の表示領域16Aに表示させるための画像を取得する機能部である。例えば、画像取得部29は、表示領域16Aに表示させるための画像データを外部から受信して画像を取得する。また、例えば、画像取得部29は、記憶部27に記憶された画像データを読み出して画像を取得してもよい。 The image acquisition unit 29 is included in the display control unit 25. The image acquisition unit 29 is a functional unit in the display control unit 25 that acquires an image to be displayed in the display area 16A of the display unit 15. For example, the image acquisition unit 29 acquires image data by receiving image data to be displayed in the display area 16A from the outside. Further, for example, the image acquisition unit 29 may read the image data stored in the storage unit 27 to acquire an image.

画像生成部31は、表示制御部25に含まれている。画像生成部31は、表示制御部25において、画像取得部29が取得した取得画像に基づいて、表示部15の表示領域16Aに表示させるため表示画像を生成する機能部である。例えば、画像生成部31は、画像取得部29が取得した取得画像に変更を加えて、表示領域16Aへの表示に適した表示画像17を生成する。例えば、画像生成部31が画像を生成するためのプログラムが記憶部27に予め記憶されていてもよい。例えば、画像生成部31は、当該プログラムを読み出して実行することで表示領域16Aに表示するための表示画像17を生成する。 The image generation unit 31 is included in the display control unit 25. The image generation unit 31 is a functional unit that generates a display image in the display control unit 25 for displaying in the display area 16A of the display unit 15 based on the acquired image acquired by the image acquisition unit 29. For example, the image generation unit 31 modifies the acquired image acquired by the image acquisition unit 29 to generate a display image 17 suitable for display in the display area 16A. For example, a program for the image generation unit 31 to generate an image may be stored in the storage unit 27 in advance. For example, the image generation unit 31 generates a display image 17 for display in the display area 16A by reading and executing the program.

図2は、図1の画像表示装置10を開口部材18を通るYZ面で縦に切断した断面図である。上述したように、表示部15の表示面16に対向して開口部材18が設けられている。開口部材18の開口部19に、レンズ21が嵌め込まれて設けられている。表示部15及び開口部材18は、筐体23によって保持されている。 FIG. 2 is a cross-sectional view of the image display device 10 of FIG. 1 vertically cut along a YZ plane passing through the opening member 18. As described above, the opening member 18 is provided so as to face the display surface 16 of the display unit 15. A lens 21 is fitted and provided in the opening 19 of the opening member 18. The display unit 15 and the opening member 18 are held by the housing 23.

図2に示すように、レンズ21の、表示面16に面している面21Aは平面となっている。レンズ21の他方の面21Bは、フレネルレンズ面である。上述したように、本実施例において、表示面16とレンズ21の主面との間の距離Dは、レンズ21の焦点距離よりも小さくなるように設定されている。これによって、視座12から虚像14が視認され得る。 As shown in FIG. 2, the surface 21A of the lens 21 facing the display surface 16 is a flat surface. The other surface 21B of the lens 21 is a Fresnel lens surface. As described above, in this embodiment, the distance D between the display surface 16 and the main surface of the lens 21 is set to be smaller than the focal length of the lens 21. As a result, the virtual image 14 can be visually recognized from the viewpoint 12.

表示面16とレンズ21との間の距離Dは、筐体23によって固定されている。なお、表示面16及びレンズ21は、距離Dの大きさを変更可能な態様で配置されていてもよい。また、レンズ21の表示面16に面している一方の面21Aがフレネルレンズ面であり、レンズ21の他方の面21Bが平面であってもよい。 The distance D between the display surface 16 and the lens 21 is fixed by the housing 23. The display surface 16 and the lens 21 may be arranged in such a manner that the size of the distance D can be changed. Further, one surface 21A facing the display surface 16 of the lens 21 may be a Fresnel lens surface, and the other surface 21B of the lens 21 may be a flat surface.

図3は、画像表示装置10において表示面16の表示領域16Aに表示されている表示画像17の一例を示す図である。図3に示すように、表示画像17は、テストパターンPT1を含む。テストパターンPT1は、X方向、Y方向に伸長し互いに交差して十字型をなす2本の線と、互いに相似形の2つの正方形からなる。 FIG. 3 is a diagram showing an example of a display image 17 displayed in the display area 16A of the display surface 16 in the image display device 10. As shown in FIG. 3, the display image 17 includes the test pattern PT1. The test pattern PT1 consists of two lines extending in the X and Y directions and intersecting each other to form a cross, and two squares having similar figures to each other.

当該二つの正方形は、当該十字型の線の交点を中心とし、辺の各々が当該2本の線のいずれかと平行である。また、当該2つの正方形は、大きい正方形の中に小さい正方形が収まるように配置されている。大きい正方形をなす線をL1、小さい正方形をなす線をL2と称する。本実施例において、当該十字型の線の交点が、レンズ21の光軸C上に表示される場合について説明する。 The two squares are centered at the intersection of the cross-shaped lines, and each side is parallel to one of the two lines. Further, the two squares are arranged so that the small square fits within the large square. The line forming a large square is referred to as L1, and the line forming a small square is referred to as L2. In this embodiment, a case where the intersection of the cross-shaped lines is displayed on the optical axis C of the lens 21 will be described.

本実施例において、テストパターンPT1は、黒地に白い線で描かれた図形として説明する。上述したように、表示部15は、RGBカラーモデルに基づいて画像を表示する。従って、赤(R)、緑(G)、青(B)の光の重なりによって、白い線で描かれたテストパターンPT1が表示領域16Aに表示されている。 In this embodiment, the test pattern PT1 will be described as a figure drawn with a white line on a black background. As described above, the display unit 15 displays an image based on the RGB color model. Therefore, the test pattern PT1 drawn by the white line is displayed in the display area 16A due to the overlap of the red (R), green (G), and blue (B) lights.

図4は、レンズ21を通して表示領域16Aに表示されたテストパターンPT1が観察された際に、仮想表示面13に表示されているように視認される虚像14の一例を示している。図4に示すように、虚像14に現れた図形は、テストパターンPT1を構成する2つの正方形の各々の各辺が外側に膨むように歪曲した形状となっている。また、内側の線L2よりも外側の線L1の方が大きく曲がっている。 FIG. 4 shows an example of a virtual image 14 that is visually recognized as being displayed on the virtual display surface 13 when the test pattern PT1 displayed in the display area 16A is observed through the lens 21. As shown in FIG. 4, the figure appearing in the virtual image 14 has a distorted shape so that each side of each of the two squares constituting the test pattern PT1 bulges outward. Further, the outer line L1 is bent more than the inner line L2.

虚像14のこのような形状は、レンズ21の特性による歪曲収差の影響を受けたものである。なお、図4においては、像が対角方向に縮む(直線がレンズの中心から外側に向かって膨らむ)ように歪曲するいわゆる樽型の歪曲収差が生じた例を示している。なお、レンズ21の特性および視点位置によっては、像が対角方向に延びる(直線がレンズの中心に向かって内側に窪む)ように歪曲するいわゆる糸巻き型の歪曲収差が生じる場合もある。 Such a shape of the virtual image 14 is affected by distortion due to the characteristics of the lens 21. Note that FIG. 4 shows an example in which a so-called barrel-shaped distortion occurs in which the image is distorted so as to shrink diagonally (a straight line bulges outward from the center of the lens). Depending on the characteristics of the lens 21 and the viewpoint position, so-called pincushion-type distortion may occur in which the image is distorted so as to extend diagonally (a straight line is recessed inward toward the center of the lens).

また、図4中、一点鎖線で描かれた線は青色の線(B)、破線で描かれた線は赤色の線(R)を示している。図4において、線L1及び線L2に沿って、外側に青色の線が延在し、内側に赤色の線が延在している。 Further, in FIG. 4, the line drawn by the alternate long and short dash line indicates the blue line (B), and the line drawn by the broken line indicates the red line (R). In FIG. 4, a blue line extends outward and a red line extends inward along the lines L1 and L2.

当該赤色の線及び青色の線の、線L1からのずれは、内側の線L2からのずれよりも大きくなっている。このような傾向は、レンズ21の特性によって倍率色収差が生じ、光の波長ごとに屈折率が異なることにより、テストパターンPT1が色ごとに異なる倍率で拡大されたことによる。 The deviation of the red line and the blue line from the line L1 is larger than the deviation from the inner line L2. This tendency is due to the fact that chromatic aberration of magnification occurs due to the characteristics of the lens 21, and the refractive index differs for each wavelength of light, so that the test pattern PT1 is magnified at a different magnification for each color.

図4中、破線で囲まれた部分A1の拡大図を示している。A1の拡大図において、正方形の内側から外側に向かって、赤色の線(R)、緑色の線(G)、及び青色の線(B)がこの順に、一部が重複して少しずつ外側にずれた状態で並んでいる。A1の拡大図中のハッチングを施した領域は、R、G、Bが全て重なっている領域であり、白色の線として視認される。 In FIG. 4, an enlarged view of a portion A1 surrounded by a broken line is shown. In the enlarged view of A1, from the inside to the outside of the square, the red line (R), the green line (G), and the blue line (B) partially overlap in this order and gradually move outward. They are lined up in a misaligned state. The hatched area in the enlarged view of A1 is an area where R, G, and B all overlap, and is visually recognized as a white line.

このように、黒地に白色の線で描かれたテストパターンPT1は、レンズ21を通して観察された場合、レンズ21のレンズ特性による光学収差の影響を受けた虚像14が視認され得る。例えば、上記したように、歪曲収差及び倍率色収差の影響を受け、像が歪曲すると同時に、色毎に異なる位置に像が現れて色の滲みが生じた虚像14が視認される場合がある。 As described above, when the test pattern PT1 drawn with white lines on a black background is observed through the lens 21, a virtual image 14 affected by optical aberration due to the lens characteristics of the lens 21 can be visually recognized. For example, as described above, under the influence of distortion and chromatic aberration of magnification, the image may be distorted, and at the same time, a virtual image 14 in which an image appears at a different position for each color and color bleeding may be visually recognized.

歪曲収差は、例えば、像が正方形の対角方向に縮んだ(各頂点及び隣接する辺が内側に縮んだ)形状、換言すれば正方形の各辺が外側に膨らんだ形状となって、いわゆる樽型の歪曲収差として現れる。また、例えば、像が正方形の対角方向に延びた(各頂点及び隣接する辺が外側に延びた)形状、換言すれば正方形の各辺が内側に窪んだ形状となって、いわゆる糸巻き型の歪曲収差として現れる。 Distortion is, for example, a shape in which the image shrinks in the diagonal direction of the square (each vertex and adjacent sides shrink inward), in other words, each side of the square bulges outward, so-called barrel. Appears as type distortion. Further, for example, the image has a shape in which the image extends diagonally in the square direction (each vertex and adjacent sides extend outward), in other words, each side of the square is recessed inward, which is a so-called pincushion type. Appears as distortion.

図5は、虚像14における図4に示したような歪曲収差及び倍率色収差を低減する処理が施された表示画像17の一例であるテストパターンPT2を示す図である。図5に示すように、テストパターンPT2の形状は、テストパターンPT1を構成する2つの正方形の各々の各辺が、内側に窪んだ曲線となった形状である。テストパターンPT2の形状は、テストパターンPT1について、図4に示した場合とは逆の歪曲収差であるいわゆる糸巻き型の歪曲収差が生じた場合を再現した形状である。 FIG. 5 is a diagram showing a test pattern PT2 which is an example of a display image 17 which has been subjected to processing for reducing distortion and chromatic aberration of magnification as shown in FIG. 4 in the virtual image 14. As shown in FIG. 5, the shape of the test pattern PT2 is such that each side of each of the two squares constituting the test pattern PT1 is a curved line recessed inward. The shape of the test pattern PT2 is a shape that reproduces the case where the test pattern PT1 has a so-called pincushion type distortion, which is the opposite distortion of the case shown in FIG.

また、図5に示すように、テストパターンPT2において、線L1及び線L2に沿って、外側に赤色の線が延在し、内側に青色の線が延在している。 Further, as shown in FIG. 5, in the test pattern PT2, a red line extends outward and a blue line extends inward along the lines L1 and L2.

図5中、破線で囲まれた部分A2の拡大図を示している。A2の拡大図において、正方形の内側から外側に向かって、青色(B)の線、緑色(G)の線、及び赤色(R)の線がこの順に、一部が重複して少しずつ外側にずれた状態で並んでいる。従って、テストパターンPT2は、図4に示した虚像と比較して、赤色(R)の線と青色(B)の線の位置が逆転したものである。 In FIG. 5, an enlarged view of the portion A2 surrounded by the broken line is shown. In the enlarged view of A2, from the inside to the outside of the square, the blue (B) line, the green (G) line, and the red (R) line partially overlap in this order and gradually move outward. They are lined up in a misaligned state. Therefore, in the test pattern PT2, the positions of the red (R) line and the blue (B) line are reversed as compared with the virtual image shown in FIG.

換言すれば、テストパターンPT2は、図4の虚像14における色毎の拡大率の大小を逆転させたものである。具体的には、図4の虚像14においては、赤色(R)の線、緑色(G)の線、及び青色(B)の線のうち、青色(B)の線で描かれた線L1及び線L2の拡大率が最も大きく、赤色(R)の線で描かれた線L1及び線L2の拡大率が小さい。これに対して、図5の表示画像17では、青色(B)の線で描かれた正方形の拡大率が最も小さく、赤色(R)の線で描かれた線L1及び線L2の拡大率が最も大きくなっている。 In other words, the test pattern PT2 reverses the magnitude of the enlargement ratio for each color in the virtual image 14 of FIG. Specifically, in the virtual image 14 of FIG. 4, among the red (R) line, the green (G) line, and the blue (B) line, the line L1 drawn by the blue (B) line and The enlargement ratio of the line L2 is the largest, and the enlargement ratio of the lines L1 and L2 drawn by the red (R) line is small. On the other hand, in the display image 17 of FIG. 5, the enlargement ratio of the square drawn by the blue (B) line is the smallest, and the enlargement ratio of the lines L1 and L2 drawn by the red (R) line is the smallest. It is the largest.

例えば、テストパターンPT2は、テストパターンPT1が複数の単色画像に分解され、複数の単色画像のうちの1の単色画像以外の他の単色画像を縮小し、当該1の単色画像と当該縮小後の他の単色画像とを合成して生成される。具体的には、元の画像であるテストパターンPT1が赤(R)、緑(G)、青(B)の単色画像に分解されて変形され、合成されてテストパターンPT2が生成される。 For example, in the test pattern PT2, the test pattern PT1 is decomposed into a plurality of monochromatic images, and the monochromatic image other than one monochromatic image among the plurality of monochromatic images is reduced, and the one monochromatic image and the reduced monochromatic image are reduced. It is generated by synthesizing with other monochrome images. Specifically, the original image, the test pattern PT1, is decomposed into red (R), green (G), and blue (B) monochromatic images, deformed, and combined to generate the test pattern PT2.

例えばテストパターンPT2は、図4の虚像14において最も拡大率が小さい色である赤の単色画像(R画像)を基準として、元の画像の緑の単色画像(G画像)、及び青の単色画像(B画像)を縮小することによって生成されることが好ましい。 For example, in the test pattern PT2, a green monochromatic image (G image) and a blue monochromatic image of the original image are used as a reference based on the red monochromatic image (R image) which is the color having the smallest magnification in the virtual image 14 of FIG. It is preferably generated by reducing (B image).

より詳細には、元の画像が分解されたR画像を変更せずに、G画像及びB画像をB画像の縮小率がG画像の縮小率よりも大きくなるように縮小することが好ましい。当該R画像と、当該縮小後のG画像及びB画像とを合成することで、いずれの単色画像も拡大することなくテストパターンPT2を生成することができる。従って、テストパターンPT2が表示領域16Aからはみ出すことを防止できる。従って、テストパターンPT2が表示領域16Aからはみ出した部分の画像が失われ、虚像14に現れなくなることを防止することができる。 More specifically, it is preferable to reduce the G image and the B image so that the reduction ratio of the B image is larger than the reduction ratio of the G image without changing the R image obtained by decomposing the original image. By synthesizing the R image and the reduced G image and B image, the test pattern PT2 can be generated without enlarging any of the monochromatic images. Therefore, it is possible to prevent the test pattern PT2 from protruding from the display area 16A. Therefore, it is possible to prevent the image of the portion where the test pattern PT2 protrudes from the display area 16A from being lost and not appearing in the virtual image 14.

なお、元の画像からR画像の大きさを変更しない例について説明したがこれに限られず、例えばR画像も縮小して元の画像から全体的に縮小されたテストパターンPT2が生成されてもよい。この場合、G画像及びB画像の縮小率がR画像の縮小率よりも大きい縮小率になっていればよい。この場合にも、テストパターンPT2が表示領域16Aからはみ出すことを防止できる。つまり、元の画像が分解されたR画像よりも大きい縮小率でG画像を縮小し、G画像よりも大きい縮小率でB画像を縮小し、当該縮小後のR画像、G画像及びB画像を合成して表示画像17としてテストパターンPT2が生成されることが好ましい。 An example in which the size of the R image is not changed from the original image has been described, but the present invention is not limited to this. For example, the R image may also be reduced to generate a test pattern PT2 that is totally reduced from the original image. .. In this case, the reduction ratio of the G image and the B image may be larger than the reduction ratio of the R image. Also in this case, it is possible to prevent the test pattern PT2 from protruding from the display area 16A. That is, the G image is reduced at a reduction ratio larger than that of the decomposed R image of the original image, the B image is reduced at a reduction ratio larger than that of the G image, and the reduced R image, G image, and B image are reduced. It is preferable that the test pattern PT2 is generated as the display image 17 by combining them.

図5に示したような表示画像17におけるテストパターンPT2がレンズ21を通して観察される場合、図3で示したように白色の線で描かれ、かつ、線L1及び線L2が正方形をなすテストパターンPT1が拡大された図形が虚像14として視認される。 When the test pattern PT2 in the display image 17 as shown in FIG. 5 is observed through the lens 21, the test pattern is drawn by a white line as shown in FIG. 3 and the lines L1 and L2 form a square. The enlarged figure of PT1 is visually recognized as a virtual image 14.

白色の線となるのは、レンズを通した際に拡大率の大きい色の図形については拡大率を小さく、拡大率の小さい色の図形については拡大率を大きくした図形を表示画像17とすることで、波長の違いによる結像倍率の差が見かけ上小さくなることによる。また、正方形の各辺が直線となっているのは、各辺が湾曲する方向を逆転させたことで歪曲収差の影響を打ち消して低減されることによる。 The white line means that the display image 17 is a figure having a small magnification for a figure having a large magnification when passed through a lens and a figure having a large magnification for a figure having a small magnification. This is because the difference in imaging magnification due to the difference in wavelength is apparently small. Further, the reason why each side of the square is a straight line is that the influence of the distortion is canceled and reduced by reversing the bending direction of each side.

つまり、テストパターンPT2は、レンズ21の特性による光学収差としての歪曲収差及び倍率色収差を低減する処理が施された表示画像17である。 That is, the test pattern PT2 is a display image 17 that has been subjected to processing for reducing distortion and chromatic aberration of magnification as optical aberrations due to the characteristics of the lens 21.

このように、画像表示装置10において、レンズ21のレンズ特性によって生じる光学収差である歪曲収差及び倍率色収差を低減して所望の形状及び色彩で、虚像14を観察させることができる。 In this way, in the image display device 10, the virtual image 14 can be observed with a desired shape and color by reducing distortion and chromatic aberration of magnification, which are optical aberrations caused by the lens characteristics of the lens 21.

図6は、レンズ特性に応じた光学収差の補正値の一例であるテーブルTB1を示す図である。テーブルTB1は、複数のレンズ設計に対応する光学収差補正値の一覧である。例えば、テーブルTB1は、予め記憶部27に記憶されている。また、例えば、テーブルTB1には、外部から新たに取得したデータが追加されてもよい。 FIG. 6 is a diagram showing a table TB1 which is an example of a correction value of optical aberration according to a lens characteristic. Table TB1 is a list of optical aberration correction values corresponding to a plurality of lens designs. For example, the table TB1 is stored in the storage unit 27 in advance. Further, for example, data newly acquired from the outside may be added to the table TB1.

図6に示すように、テーブルTB1には、レンズ特性が互いに異なる複数のレンズに付された識別記号(「レンズID」)が記載されている。また、テーブルTB1には、レンズIDに対応付けてレンズの種類(「レンズ種類」)が記載されている。図6中、フレネルレンズ、平凸レンズ、両凸レンズの3種類のレンズ種類が記載されている。 As shown in FIG. 6, on the table TB1, identification symbols (“lens IDs”) attached to a plurality of lenses having different lens characteristics are described. Further, on the table TB1, the type of lens (“lens type”) is described in association with the lens ID. In FIG. 6, three types of lenses, a Fresnel lens, a plano-convex lens, and a biconvex lens, are described.

また、テーブルTB1には、レンズIDに対応するレンズ特性として、各レンズの焦点距離(f)、屈折率(n)及び曲率半径(R)が記載されている。 Further, on the table TB1, the focal length (f), the refractive index (n), and the radius of curvature (R) of each lens are listed as the lens characteristics corresponding to the lens ID.

また、テーブルTB1には、各レンズIDに対応する光学収差補正値が記載されている。光学収差補正値のうち、倍率色収差補正値は、表示領域16Aに表示する表示画像を生成する際に、各レンズのレンズ特性によって、当該レンズを介して表示画像17を観察した際に生じる倍率色収差を低減するために元の画像(取得画像)に処理を施して補正するための補正値である。テーブルTB1には、倍率色収差補正値の一例として、画像を単色画像に分けて拡大する際の倍率がR、G、Bの色毎に記載されている。 Further, on the table TB1, the optical aberration correction values corresponding to each lens ID are listed. Of the optical aberration correction values, the magnification chromatic aberration correction value is the magnification chromatic aberration that occurs when the display image 17 is observed through the lens due to the lens characteristics of each lens when the display image to be displayed in the display area 16A is generated. This is a correction value for processing and correcting the original image (acquired image) in order to reduce the amount of aberration. In the table TB1, as an example of the chromatic aberration of magnification correction value, the magnification when the image is divided into monochromatic images and enlarged is described for each of the colors R, G, and B.

また、光学収差補正値のうち、歪曲収差補正値は、各レンズのレンズ特性によって当該レンズを介して表示画像を観察した際に生じる倍率色収差を低減するために、取得画像に処理を施すための補正値である。テーブルTB1には、歪曲収差補正値A〜Fが各レンズIDに対応して記載されている。例えば、歪曲収差補正値A〜Fの各々は、各レンズのレンズ特性に基づいて算出された補正値である。 Further, among the optical aberration correction values, the distortion aberration correction value is used to process the acquired image in order to reduce the chromatic aberration of magnification that occurs when the display image is observed through the lens due to the lens characteristics of each lens. This is the correction value. Distortion correction values A to F are listed on the table TB1 corresponding to each lens ID. For example, each of the distortion aberration correction values A to F is a correction value calculated based on the lens characteristics of each lens.

なお、テーブルTB1には、光学収差補正値の代わりに、光学収差がどの程度生じるかを示すデータが含まれていても良い。例えば、テーブルTB1には、各レンズ特性に応じて倍率色収差がどの程度生じるかを示すデータが含まれていてもよい。また、例えば、テーブルTB1には、各レンズ特性に応じて歪曲収差がどの程度生じるかを示すデータが含まれていてもよい。 The table TB1 may include data indicating how much optical aberration is generated instead of the optical aberration correction value. For example, the table TB1 may include data indicating how much chromatic aberration of magnification occurs according to each lens characteristic. Further, for example, the table TB1 may include data indicating how much distortion is generated according to each lens characteristic.

例えば、画像生成部31は、テーブルTB1を参照し、レンズ21に対応するレンズ特性に基づいた光学収差補正値に従って、画像取得部29が取得した取得画像に光学収差を低減する処理を施して、表示領域16Aに表示するための表示画像を生成する。 For example, the image generation unit 31 refers to the table TB1 and performs a process of reducing the optical aberration on the acquired image acquired by the image acquisition unit 29 according to the optical aberration correction value based on the lens characteristics corresponding to the lens 21. A display image for display in the display area 16A is generated.

例えば、画像生成部31は、テーブルTB1を参照し、レンズ21に対応するレンズ特性に応じた倍率色収差補正値に従って、取得画像に拡大又は縮小の処理を施して表示画像を生成する。例えば、画像生成部31は、取得画像を複数の単色画像に分解し、レンズ21を介して表示画像17を観察した際に生じる倍率色収差を低減するように、単色画像の各々を補正して再合成して表示画像を生成してもよい。例えば、画像中の各画素の輝度及び各画素に含まれる、赤、青、緑の成分比及び各画素の輝度に基づいて、或いは各成分の輝度に基づいて、赤色のみの画像であるR画像、緑色のみの画像であるG画像、及び青色のみの画像であるB画像に分解してもよい。なお、例えば、画像生成部31は、倍率色収差がどの程度生じるかを示すデータから、倍率色収差補正値を色毎に算出してもよい。 For example, the image generation unit 31 refers to the table TB1 and performs enlargement or reduction processing on the acquired image according to the chromatic aberration of magnification correction value corresponding to the lens characteristics corresponding to the lens 21 to generate a display image. For example, the image generation unit 31 decomposes the acquired image into a plurality of monochromatic images, corrects each of the monochromatic images, and re-corrects each of the monochromatic images so as to reduce the chromatic aberration of magnification that occurs when the display image 17 is observed through the lens 21. A display image may be generated by combining them. For example, an R image that is an image of only red based on the brightness of each pixel in the image and the component ratios of red, blue, and green contained in each pixel and the brightness of each pixel, or based on the brightness of each component. , G image which is an image of only green, and B image which is an image of only blue may be decomposed. For example, the image generation unit 31 may calculate the chromatic aberration of magnification correction value for each color from the data indicating how much the chromatic aberration of magnification occurs.

例えば、画像生成部31は、テーブルTB1を参照し、レンズ21に対応するレンズ特性に応じた歪曲収差補正値に従って、レンズ21を介して表示画像17を観察した際に生じる歪曲収差を低減するように、取得画像を歪曲させた表示画像を生成してもよい。 For example, the image generation unit 31 refers to the table TB1 and reduces the distortion generated when the display image 17 is observed through the lens 21 according to the distortion correction value corresponding to the lens characteristics corresponding to the lens 21. In addition, a display image in which the acquired image is distorted may be generated.

例えば、レンズ21がテーブルTB1のレンズA〜Fのいずれかに該当する場合には、画像生成部31は、レンズIDに対応する倍率色収差補正値又は歪曲収差補正値を使用して表示画像を生成する。例えば、レンズ21がレンズA〜Fのいずれにも該当しない場合、画像生成部31は、操作画面(図示せず)等においてレンズ21のレンズ特性の入力を要求し、入力されたレンズ21のレンズ特性に基づいて倍率色収差補正値又は歪曲収差補正値を算出してもよい。或いは、当該入力されたレンズ21のレンズ特性に近いレンズ特性に対応する倍率色収差補正値又は歪曲収差補正値を選択して使用してもよい。 For example, when the lens 21 corresponds to any of the lenses A to F of the table TB1, the image generation unit 31 generates a display image using the chromatic aberration of magnification correction value or the distortion correction value corresponding to the lens ID. do. For example, when the lens 21 does not correspond to any of the lenses A to F, the image generation unit 31 requests the input of the lens characteristics of the lens 21 on the operation screen (not shown) or the like, and the input lens of the lens 21 The chromatic aberration of magnification correction value or the distortion correction value may be calculated based on the characteristics. Alternatively, a chromatic aberration of magnification correction value or a distortion correction value corresponding to a lens characteristic close to the lens characteristic of the input lens 21 may be selected and used.

図7は、画像表示装置10において、表示制御部25によって実行されるルーチンの一例である画像表示ルーチンRT1を示すフローチャートである。表示制御部25は、例えば、画像表示装置10の電源が投入されると、画像表示ルーチンRT1を開始する。 FIG. 7 is a flowchart showing an image display routine RT1 which is an example of a routine executed by the display control unit 25 in the image display device 10. The display control unit 25 starts the image display routine RT1 when, for example, the power of the image display device 10 is turned on.

表示制御部25は、画像表示ルーチンRT1を開始すると、補正値を取得する(ステップS11)。ステップS11において、表示制御部25は、例えば図6に示したようなテーブルTB1を参照し、レンズ21のレンズ特性に対応する光学収差補正値を取得する。 When the display control unit 25 starts the image display routine RT1, the display control unit 25 acquires the correction value (step S11). In step S11, the display control unit 25 refers to, for example, the table TB1 as shown in FIG. 6 and acquires an optical aberration correction value corresponding to the lens characteristics of the lens 21.

例えば、ステップS11において、画像表示装置10において現在装着されているレンズ21のレンズID(図6参照)に対応する歪曲収差補正値及び倍率色収差補正値が取得される。 For example, in step S11, the distortion correction value and the chromatic aberration of magnification correction value corresponding to the lens ID (see FIG. 6) of the lens 21 currently mounted on the image display device 10 are acquired.

表示制御部25は、ステップS11の実行後、画像データの受信を待機する(ステップS12)。例えば、表示制御部25は、ステップS12において、画像取得部29が記憶部27から画像データを読み出すことを一定時間待機する。 After executing step S11, the display control unit 25 waits for the reception of image data (step S12). For example, the display control unit 25 waits for a certain period of time in step S12 for the image acquisition unit 29 to read the image data from the storage unit 27.

表示制御部25は、ステップS12の実行後、画像データを受信したか否かを判定する(ステップS13)。例えば、表示制御部25は、ステップS13において、画像取得部29が記憶部27から画像データを読み出すことで画像を取得した場合に画像データを受信したと判定する。 After executing step S12, the display control unit 25 determines whether or not image data has been received (step S13). For example, in step S13, the display control unit 25 determines that the image data has been received when the image acquisition unit 29 acquires the image by reading the image data from the storage unit 27.

表示制御部25は、ステップS13において、画像データを受信していないと判定する(ステップS13:NO)と、ステップS13を繰り返し、画像データを受信したか否かを再び判定する。 In step S13, the display control unit 25 determines that the image data has not been received (step S13: NO), repeats step S13, and determines again whether or not the image data has been received.

表示制御部25は、ステップS13において、画像データを受信したと判定する(ステップS13:YES)と、光学収差低減ルーチンを実行し(ステップS14)、表示領域16Aに表示するための表示画像17を生成する。ステップS14において、表示制御部25は、画像生成部31を制御して、レンズ特性に応じて光学収差を低減する処理を施した表示画像17を生成する。 When the display control unit 25 determines in step S13 that the image data has been received (step S13: YES), the display control unit 25 executes the optical aberration reduction routine (step S14), and displays the display image 17 for displaying in the display area 16A. Generate. In step S14, the display control unit 25 controls the image generation unit 31 to generate a display image 17 that has been subjected to a process of reducing optical aberration according to the lens characteristics.

表示制御部25は、ステップS14の実行後、生成した表示画像を表示面16の表示領域16Aに表示させる(ステップS15)。 After executing step S14, the display control unit 25 displays the generated display image in the display area 16A of the display surface 16 (step S15).

表示制御部25は、ステップS15の実行後、表示が停止されたか否かを判定する(ステップS16)。例えば、ステップS16において、画像表示装置10の電源を切るためのボタンが押されたか否かを判定する。 After executing step S15, the display control unit 25 determines whether or not the display has been stopped (step S16). For example, in step S16, it is determined whether or not the button for turning off the power of the image display device 10 has been pressed.

表示制御部25は、ステップS16において、表示が停止されていないと判定する(ステップS16:NO)、ステップS13に戻り、新たに画像を受信したか否かを判定する。 In step S16, the display control unit 25 determines that the display has not been stopped (step S16: NO), returns to step S13, and determines whether or not a new image has been received.

表示制御部25は、ステップS16において、表示が停止されていないと判定する(ステップS16:NO)と、表示画像17の表示を停止して、画像表示ルーチンRT1を終了する。 When the display control unit 25 determines in step S16 that the display is not stopped (step S16: NO), the display control unit 25 stops the display of the display image 17 and ends the image display routine RT1.

図8は、図7に示した画像表示ルーチンRT1のステップS14において表示制御部25によって実行されるサブルーチンの一例である光学収差低減サブルーチンRT2を示すフローチャートである。 FIG. 8 is a flowchart showing an optical aberration reduction subroutine RT2 which is an example of a subroutine executed by the display control unit 25 in step S14 of the image display routine RT1 shown in FIG.

表示制御部25は、光学収差低減サブルーチンRT2を開始すると、画像生成部31を制御して、歪曲収差を低減した表示画像を生成する(ステップS21)。例えば、ステップ21において、画像生成部31は、取得部29によって取得された取得画像に、レンズ21の特性に基づいて、レンズ21を介して表示面が観察された際に生じる歪曲収差を低減するように、取得画像を歪曲させた表示画像を生成する。 When the display control unit 25 starts the optical aberration reduction subroutine RT2, the display control unit 25 controls the image generation unit 31 to generate a display image with reduced distortion (step S21). For example, in step 21, the image generation unit 31 reduces the distortion that occurs when the display surface is observed through the lens 21 in the acquired image acquired by the acquisition unit 29, based on the characteristics of the lens 21. As described above, a display image in which the acquired image is distorted is generated.

例えば、ステップS21において、画像生成部31は、ステップS11において取得された歪曲収差補正値に従って、取得画像を歪曲させた表示画像を生成する。 For example, in step S21, the image generation unit 31 generates a display image in which the acquired image is distorted according to the distortion aberration correction value acquired in step S11.

ステップ21において、画像生成部31によって生成される表示画像の一例を図9に示す。図9は、図3に示したようなテストパターンPT1を歪曲させたテストパターンPT3を示している。テストパターンPT3は、樽型の歪曲収差を低減するように、取得画像におけるテストパターンPT1(図3参照)を構成する線L1及び線L2について、レンズの中心に向かって内側に窪むように歪曲させた表示画像である。 FIG. 9 shows an example of the display image generated by the image generation unit 31 in step 21. FIG. 9 shows a test pattern PT3 in which the test pattern PT1 as shown in FIG. 3 is distorted. In the test pattern PT3, the lines L1 and L2 constituting the test pattern PT1 (see FIG. 3) in the acquired image are distorted so as to be recessed inward toward the center of the lens so as to reduce the barrel distortion. It is a display image.

表示制御部25は、ステップS21の実行後、ステップS21において生成された表示画像を複数の単色画像に分ける(ステップS22)。例えば、ステップS22において、画像生成部31は、図9に示したような歪曲収差を低減する処理が施された画像を、画像中の各画素に含まれる赤緑青の成分比及び各画素の輝度、又は各画素に含まれる赤緑青の成分ごと(色ごと)の輝度に基づいて、赤色のみの画像であるR画像、緑色のみの画像であるG画像、及び青色のみの画像であるB画像に分解する。 After executing step S21, the display control unit 25 divides the display image generated in step S21 into a plurality of monochrome images (step S22). For example, in step S22, the image generation unit 31 uses the image subjected to the processing for reducing the distortion as shown in FIG. 9 to have the red, green, and blue component ratios and the brightness of each pixel included in each pixel in the image. Or, based on the brightness of each red, green, and blue component (for each color) contained in each pixel, the R image, which is a red-only image, the G image, which is a green-only image, and the B image, which is a blue-only image, Disassemble.

表示制御部25は、ステップS22の実行後、複数の単色画像のうち少なくとも1つを補正する(ステップS23)。ステップS23において、画像生成部31は、ステップS11において取得された倍率色収差補正値に従って、単色画像を色毎に拡大又は縮小する。例えば、R画像をG画像よりも大きく拡大し、B画像をG画像よりも小さく縮小する。例えば、G画像については補正がされなくともよい。 After executing step S22, the display control unit 25 corrects at least one of the plurality of monochrome images (step S23). In step S23, the image generation unit 31 enlarges or reduces the monochromatic image for each color according to the chromatic aberration of magnification correction value acquired in step S11. For example, the R image is enlarged larger than the G image, and the B image is reduced smaller than the G image. For example, the G image does not have to be corrected.

また、ステップS11において、単色画像を色毎に縮小のみ行うことで補正がなされることが好ましい。例えば、R画像については補正がされず、G画像がR画像より小さく縮小され、B画像がG画像よりも小さく縮小されることが好ましい。これによって、表示画像17が表示面16の表示領域16Aに表示される際に(ステップS15参照)、例えば拡大率を大きくした単色画像(例えば、R画像)が表示領域16Aからはみ出すことを防止することができ、当該はみ出した単色画像に相当する部分の虚像14において、当該色(例えば赤色(R))が欠落することを防止することができる。 Further, in step S11, it is preferable that the correction is performed by only reducing the monochromatic image for each color. For example, it is preferable that the R image is not corrected, the G image is reduced to be smaller than the R image, and the B image is reduced to be smaller than the G image. As a result, when the display image 17 is displayed in the display area 16A of the display surface 16 (see step S15), for example, a monochromatic image (for example, an R image) having a large enlargement ratio is prevented from protruding from the display area 16A. This makes it possible to prevent the color (for example, red (R)) from being missing in the virtual image 14 of the portion corresponding to the protruding monochromatic image.

表示制御部25は、ステップS23の実行後、複数の単色画像を合成して表示画像を生成する(ステップS24)。例えば、ステップS24において、画像生成部31は、別々に拡大又は縮小されたR画像、G画像及びB画像を重ね合わせて1つの画像とし、図5に示したような外側に赤い線(R)青い線(B)、内側に青い線(B)が現れた図形を含む表示画像17を生成する。 After executing step S23, the display control unit 25 synthesizes a plurality of monochrome images to generate a display image (step S24). For example, in step S24, the image generation unit 31 superimposes the separately enlarged or reduced R image, G image, and B image into one image, and the red line (R) on the outside as shown in FIG. A display image 17 including a figure in which a blue line (B) and a blue line (B) appear inside is generated.

換言すれば、例えばステップS22乃至ステップS24において、表示制御部25は、RGBカラーモデルを用いて、ステップS21において生成された表示画像を取得画像として、当該取得画像をR画像、G画像及びB画像に分解し、倍率色収差を低減するようにR画像、G画像及びB画像を補正して再合成し、表示画像17を生成することができる。 In other words, for example, in steps S22 to S24, the display control unit 25 uses an RGB color model, uses the display image generated in step S21 as an acquired image, and uses the acquired image as an R image, a G image, and a B image. The R image, the G image, and the B image can be corrected and recombined so as to reduce the chromatic aberration of magnification, and the display image 17 can be generated.

表示制御部25は、ステップS24の実行後、光学収差低減ルーチンを終了する。 The display control unit 25 ends the optical aberration reduction routine after executing step S24.

なお、上述したように、表示制御部25は、光学収差低減サブルーチンRT2において、歪曲収差及び倍率色収差を低減する処理を施す例について説明したが、歪曲収差を低減する処理のみを実行してもよく、倍率色収差を低減する処理のみを実行してもよい。 As described above, the display control unit 25 has described an example of performing processing for reducing distortion and chromatic aberration of magnification in the optical aberration reduction subroutine RT2, but may only perform processing for reducing distortion. , Only the process of reducing the chromatic aberration of magnification may be executed.

また、光学収差低減サブルーチンRT2において、歪曲収差補正を先に行い、続いて倍率色収差補正を行う例について説明したが、これに限られない。倍率色収差補正を先に行い、歪曲収差補正を後に行ってもよい。その場合、例えば倍率色収差補正がなされた画像を取得画像として扱い(すなわち歪曲収差補正の元の画像として扱い)、当該取得画像に歪曲収差補正を行うこととしてもよい。 Further, in the optical aberration reduction subroutine RT2, an example in which the distortion aberration is corrected first and then the chromatic aberration of magnification is corrected has been described, but the present invention is not limited to this. Magnification chromatic aberration correction may be performed first, and distortion aberration correction may be performed later. In that case, for example, an image that has been corrected for chromatic aberration of magnification may be treated as an acquired image (that is, treated as an original image for correction of distortion), and the acquired image may be corrected for distortion.

以上、説明したように、本実施例の画像表示装置10によれば、レンズ21を介して表示部15の表示面16に表示画像17を観察させる際に、レンズ21のレンズ特性に基づいて、レンズ21を介して表示画像17を観察した際に生じる光学収差を低減する処理を施すことができる。 As described above, according to the image display device 10 of the present embodiment, when the display image 17 is observed on the display surface 16 of the display unit 15 via the lens 21, the display image 17 is observed based on the lens characteristics of the lens 21. It is possible to perform a process of reducing the optical aberration that occurs when the display image 17 is observed through the lens 21.

具体的には、レンズ21のレンズ特性に基づく補正値に従って、歪曲収差を低減するように、取得画像を歪曲させた表示画像17を生成して、表示面16に表示させることができる。 Specifically, a display image 17 in which the acquired image is distorted can be generated and displayed on the display surface 16 so as to reduce the distortion according to the correction value based on the lens characteristics of the lens 21.

レンズ21のレンズ特性に基づく補正値に従って、倍率色収差を低減するように、取得画像を複数の単色画像に分解し、単色画像の各々を補正し合成して表示画像17を生成し、表示面16に表示させることができる。 According to the correction value based on the lens characteristics of the lens 21, the acquired image is decomposed into a plurality of monochromatic images so as to reduce the chromatic aberration of magnification, and each of the monochromatic images is corrected and combined to generate the display image 17, and the display surface 16 is generated. Can be displayed on.

従って、レンズを介して表示面を観察させる際に、レンズによる視覚効果を維持しつつ、良好なユーザエクスペリエンスを提供することが可能である画像表示装置を提供することができる。 Therefore, it is possible to provide an image display device capable of providing a good user experience while maintaining the visual effect of the lens when observing the display surface through the lens.

図10は、本発明の実施例2に係る画像表示装置40の構成を模式的に示す図である。図1の場合と同様に、図10には、画像表示装置40によって表示される画像を観察可能なヒト11及びヒト11の視座12が共に示されている。また、図1には、画像表示装置10における仮想の表示面である仮想表示面13及びヒト11が認識し得る虚像14が模式的に示されている。 FIG. 10 is a diagram schematically showing the configuration of the image display device 40 according to the second embodiment of the present invention. Similar to the case of FIG. 1, FIG. 10 shows both the human 11 and the viewpoint 12 of the human 11 capable of observing the image displayed by the image display device 40. Further, FIG. 1 schematically shows a virtual display surface 13 which is a virtual display surface in the image display device 10 and a virtual image 14 which can be recognized by a human 11.

画像表示装置40は、カメラ41及び認識部43を有している点において実施例1の画像表示装置10と異なり、その余の点においては、画像表示装置10と同様に構成されている。 The image display device 40 is different from the image display device 10 of the first embodiment in that it has a camera 41 and a recognition unit 43, and is configured in the same manner as the image display device 10 in other points.

カメラ41は、筐体23の上部に取り付けられたカメラである。カメラ41は、表示面16を観察可能なヒト11の視座12の位置を認識するために必要な画像を取得する。例えば、カメラ41は、開口部材18の上部から開口部材18から見て表示部15がある領域とは反対側の領域を撮像可能に設けられて、ヒト11の眼EYを撮像可能に配置されている。 The camera 41 is a camera attached to the upper part of the housing 23. The camera 41 acquires an image necessary for recognizing the position of the viewpoint 12 of the human 11 who can observe the display surface 16. For example, the camera 41 is provided so as to be able to image an area opposite to the area where the display unit 15 is located when viewed from the opening member 18 from the upper part of the opening member 18, and is arranged so that the eye EY of the human 11 can be imaged. There is.

例えば、カメラ41は、表示面16を観察可能な領域全体を撮像可能に配置されている。例えば、カメラ41の代わりに、ヒト11やヒト11の眼の位置を検出可能な他のセンサやソナーが設けられていても良い。なお、ヒト11にマーカー等を装着させて、当該マーカーを検出することでヒト11またはヒト11の眼を検出しても良い。 For example, the camera 41 is arranged so that the entire area where the display surface 16 can be observed can be imaged. For example, instead of the camera 41, another sensor or sonar capable of detecting the position of the human 11 or the eye of the human 11 may be provided. The human 11 or the eye of the human 11 may be detected by attaching a marker or the like to the human 11 and detecting the marker.

認識部43は、カメラ41に接続されている。認識部43は、カメラ41から撮像データを取得し、当該撮像データから視座12の位置を認識する機能部である。例えば、認識部43は、カメラ41からの撮像データを解析してヒト11の眼を検出し、当該眼の位置を視座12の位置として認識する。 The recognition unit 43 is connected to the camera 41. The recognition unit 43 is a functional unit that acquires imaging data from the camera 41 and recognizes the position of the viewpoint 12 from the imaging data. For example, the recognition unit 43 analyzes the imaging data from the camera 41 to detect the human 11's eye, and recognizes the position of the eye as the position of the viewpoint 12.

図11は、画像表示装置40の上面図である。図11には、ヒト11の視座12が存在する場合に画像表示装置40の表示面16を観察可能な領域A〜Cが模式的に示されている。 FIG. 11 is a top view of the image display device 40. FIG. 11 schematically shows regions A to C in which the display surface 16 of the image display device 40 can be observed when the viewpoint 12 of the human 11 is present.

図11に示すように、開口部材18から見て表示部15がある領域とは反対側の領域に、表示面16を観察可能な領域A〜Cが示されている。領域Aは、画像表示装置40の中心軸Cを含む領域である。領域Bは、領域Aよりも表示面16に向かってX方向における右側の領域である。領域Cは、領域Aよりも表示面16に向かってX方向における左側の領域である。 As shown in FIG. 11, regions A to C where the display surface 16 can be observed are shown in a region opposite to the region where the display unit 15 is located when viewed from the opening member 18. The area A is an area including the central axis C of the image display device 40. The area B is an area on the right side of the area A in the X direction with respect to the display surface 16. Region C is a region on the left side of the region A in the X direction with respect to the display surface 16.

図12は、ヒト11の視座12が領域Bに位置する場合に観察される虚像14の一例を示す図である。図12は、表示面16の表示領域16Aに表示されたテストパター
ンPT1(図3参照)が、レンズ21を介して領域B内の視座12から観察された虚像14を示している。
FIG. 12 is a diagram showing an example of a virtual image 14 observed when the viewpoint 12 of the human 11 is located in the region B. FIG. 12 shows a virtual image 14 in which the test pattern PT1 (see FIG. 3) displayed in the display area 16A of the display surface 16 is observed from the viewpoint 12 in the area B via the lens 21.

図12に示すように、虚像14において、テストパターンPT1がX方向における右側へいくに従って拡大され、正方形の各辺が湾曲している。このように、中心軸C上の視座12とは異なる位置にある視座12から観察した場合、歪曲収差は中心軸C上の視座12から観察した場合と異なる態様で生じる。 As shown in FIG. 12, in the virtual image 14, the test pattern PT1 is enlarged toward the right side in the X direction, and each side of the square is curved. As described above, when observed from the viewpoint 12 at a position different from the viewpoint 12 on the central axis C, the distortion occurs in a mode different from that when observed from the viewpoint 12 on the central axis C.

また、倍率色収差についても、色毎の図形の位置のずれが、X方向における右側へいくに従って大きくなっている。 Further, regarding the chromatic aberration of magnification, the deviation of the position of the figure for each color increases toward the right side in the X direction.

図13は、図12に示したような歪曲収差及び倍率色収差を低減する処理を施した表示画像17を示している。図13に示す表示画像17は、図12に示した図形の左右を逆転させ、かつ、青色の線(B)、緑色の線(G)、及び赤色の線(R)の拡大率の大小を逆転させたものである。 FIG. 13 shows a display image 17 that has been subjected to processing for reducing distortion and chromatic aberration of magnification as shown in FIG. The display image 17 shown in FIG. 13 reverses the left and right sides of the figure shown in FIG. 12, and shows the magnitude of the enlargement ratio of the blue line (B), the green line (G), and the red line (R). It is a reversal.

図13に示すような表示画像17を表示領域16Aに表示させることで、レンズ21を介して表示画面17が領域Bにある視座から観察されても、歪曲収差及び倍率色収差が低減された虚像14を観察させることができる。 By displaying the display image 17 as shown in FIG. 13 in the display area 16A, even if the display screen 17 is observed from the viewpoint in the area B through the lens 21, the virtual image 14 has reduced distortion and chromatic aberration of magnification. Can be observed.

図14は、画像表示装置40において、表示制御部25によって実行されるルーチンの一例として画像表示ルーチンRT3を示すフローチャートである。画像表示ルーチンRT3は、実施例1の画像表示ルーチンRT1と同様のルーチンに加えて、ステップS14とステップS15との間にステップS31〜32を含む。 FIG. 14 is a flowchart showing an image display routine RT3 as an example of a routine executed by the display control unit 25 in the image display device 40. The image display routine RT3 includes steps S31 to 32 between steps S14 and S15, in addition to the same routine as the image display routine RT1 of the first embodiment.

表示制御部25は、ステップS14の実行後、視座12を検出したか否かを判定する(ステップS31)。表示制御部27は、ステップS31において、例えば、認識部43がカメラ41から取得した撮像データからヒト11の眼の位置を視座12の位置として検出した場合に、視座12を検出したと判定する。 After executing step S14, the display control unit 25 determines whether or not the viewpoint 12 has been detected (step S31). In step S31, the display control unit 27 determines that the viewpoint 12 has been detected, for example, when the recognition unit 43 detects the position of the human eye 11 as the position of the viewpoint 12 from the imaging data acquired from the camera 41.

表示制御部25は、ステップS31において、視座を検出したと判定する(ステップS31:YES)と、画像生成部31を制御して、視座12の位置に対応する表示画像17を生成する(ステップS32)。例えば、ステップS32において、画像生成部31は、ステップS31において検出された視座12の位置が属する領域に応じて、ステップS14によって生成された表示画像17を変形させる処理を行う。 When the display control unit 25 determines in step S31 that the viewpoint has been detected (step S31: YES), the display control unit 25 controls the image generation unit 31 to generate the display image 17 corresponding to the position of the viewpoint 12 (step S32). ). For example, in step S32, the image generation unit 31 performs a process of deforming the display image 17 generated in step S14 according to the region to which the position of the viewpoint 12 detected in step S31 belongs.

例えば、ステップ31において検出された視座12の位置が図11における領域Bに属する場合、レンズ21を介して表示面16を領域Bにある視座位置から観察した際に生じる歪曲収差を左右逆転させた表示画像17(例えば図13)を生成する。例えば、ステップ31において検出された視座12の位置が図11における領域Aに属する場合、表示画像17を変形させないこととしてもよい。 For example, when the position of the viewpoint 12 detected in step 31 belongs to the region B in FIG. 11, the distortion that occurs when the display surface 16 is observed from the viewpoint position in the region B via the lens 21 is reversed left and right. A display image 17 (for example, FIG. 13) is generated. For example, when the position of the viewpoint 12 detected in step 31 belongs to the region A in FIG. 11, the display image 17 may not be deformed.

また、例えばステップ32において、画像生成部31は、視座12の位置に応じて、表示画像17を変形させるための補正値を算出してもよい。なお、当該補正値は、予め記憶部27に記憶されていてもよい。 Further, for example, in step 32, the image generation unit 31 may calculate a correction value for deforming the display image 17 according to the position of the viewpoint 12. The correction value may be stored in the storage unit 27 in advance.

表示制御部25は、ステップS32の実行後又はステップS31において視座を検出していないと判定(ステップS31:NO)した場合に、表示画像17を表示面16の表示領域16Aに表示する(ステップS15)。 The display control unit 25 displays the display image 17 in the display area 16A of the display surface 16 after the execution of step S32 or when it is determined that the viewpoint has not been detected in step S31 (step S31: NO) (step S15). ).

以上、説明したように、本実施例の画像表示装置40によれば、レンズ21のレンズ特性に基づいて、レンズ21を介して表示画像17を観察した際に生じる光学収差を低減する処理を施して表示画像17を生成し、さらに、レンズ21を介して表示画像17を観察する視座12の位置に応じた見え方の変化に応じて、当該表示画像17を必要に応じて変形することができる。つまり、視座位置に応じて、レンズ21による光学収差を低減する処理を施した表示画像を生成することができる。 As described above, according to the image display device 40 of the present embodiment, a process of reducing optical aberrations generated when the display image 17 is observed through the lens 21 is performed based on the lens characteristics of the lens 21. The display image 17 is generated, and the display image 17 can be deformed as necessary according to the change in the appearance according to the position of the viewpoint 12 for observing the display image 17 through the lens 21. .. That is, it is possible to generate a display image that has been subjected to a process of reducing the optical aberration caused by the lens 21 according to the viewpoint position.

従って、レンズを介して表示面を観察させる際に、レンズによる視覚効果を維持しつつ、視座の位置に関わらず良好なユーザエクスペリエンスを提供することが可能である画像表示装置を提供することができる。 Therefore, it is possible to provide an image display device capable of providing a good user experience regardless of the position of the viewpoint while maintaining the visual effect of the lens when observing the display surface through the lens. ..

なお、上記の実施例において、レンズ21は、表示面16に面している面21Aは平面であり、他方の面21Bはフレネルレンズ面である場合について説明したが、これに限られない。例えば、表示面16に面している面21がフレネルレンズ面であり、他方の面21Bは平面であってもよい。開口部19には、レンズが設けられていればよい。例えば、レンズ21は、平凸レンズ、両凸レンズ、又は複数のレンズの組み合わせであってもよい。 In the above embodiment, the lens 21 has described the case where the surface 21A facing the display surface 16 is a flat surface and the other surface 21B is a Fresnel lens surface, but the present invention is not limited to this. For example, the surface 21 facing the display surface 16 may be a Fresnel lens surface, and the other surface 21B may be a flat surface. A lens may be provided in the opening 19. For example, the lens 21 may be a plano-convex lens, a biconvex lens, or a combination of a plurality of lenses.

レンズ21が開口部19に嵌め込まれて設けられている例について説明したが、これに限られない。レンズ21は、任意の方法で固定されていればよい。例えば、レンズ21の下端のみが固定されていてもよく、左右両端のみが固定されていてもよい。また、例えば、レンズ21は、開口部19から離間して設けられていてもよい。 An example in which the lens 21 is fitted in the opening 19 has been described, but the present invention is not limited to this. The lens 21 may be fixed by any method. For example, only the lower end of the lens 21 may be fixed, or only the left and right ends may be fixed. Further, for example, the lens 21 may be provided apart from the opening 19.

なお、上記の実施例において、表示面16とレンズ21との間の距離Dは、レンズ21の焦点距離よりも小さくなるように設定されている場合について説明したが、これに限られない。光学部材の種類や目的の視覚効果に応じて設定することができる。 In the above embodiment, the case where the distance D between the display surface 16 and the lens 21 is set to be smaller than the focal length of the lens 21 has been described, but the present invention is not limited to this. It can be set according to the type of optical member and the desired visual effect.

なお、実施例2において、視座の位置が属する領域を3つの領域に分ける例について説明したが、これに限られない。画像表示装置40は、例えば、2つ又は4つ以上の領域毎に、視座位置に応じた補正を行ってもよい。 In the second embodiment, an example in which the region to which the position of the viewpoint belongs is divided into three regions has been described, but the present invention is not limited to this. The image display device 40 may perform correction according to the viewpoint position, for example, for each of two or four or more regions.

上述した実施例における構成は例示に過ぎず、用途等に応じて適宜選択及び変更可能である。 The configuration in the above-described embodiment is merely an example, and can be appropriately selected and changed according to the intended use and the like.

10、40 画像表示装置
11 ヒト
12 視座
13 仮想表示面
14 虚像
15 表示部
16 表示面
16A 表示領域
17 表示画像
18 開口部材
19 開口部
21 レンズ
23 筐体
25 表示制御部
27 記憶部
29 画像取得部
31 画像生成部
41 カメラ
43 認識部


10, 40 Image display device 11 Human 12 Viewpoint 13 Virtual display surface 14 Virtual image 15 Display unit 16 Display surface 16A Display area 17 Display image 18 Aperture member 19 Aperture 21 Lens 23 Housing 25 Display control unit 27 Storage unit 29 Image acquisition unit 31 Image generator 41 Camera 43 Recognition unit


Claims (10)

画像を取得する画像取得部と、
前記画像取得部が取得した取得画像に基づいて表示画像を生成して、表示面を有する表示部の前記表示面に前記表示画像を表示させる表示制御部と、を有し、
前記表示制御部は、前記表示面に対向する位置に設けられたレンズのレンズ特性に基づいて、前記取得画像に前記レンズによる光学収差を低減する処理を施した前記表示画像を生成することを特徴とする画像表示装置。
The image acquisition unit that acquires images and
It has a display control unit that generates a display image based on the acquired image acquired by the image acquisition unit and displays the display image on the display surface of the display unit having a display surface.
The display control unit is characterized by generating the display image obtained by subjecting the acquired image to a process of reducing optical aberration due to the lens, based on the lens characteristics of a lens provided at a position facing the display surface. Image display device.
前記表示制御部は、前記取得画像を複数の単色画像に分解し、前記レンズを介して前記表示画像を観察した際に生じる倍率色収差を低減するように前記複数の単色画像の少なくとも1つを変形し合成して前記表示画像を生成することを特徴とする請求項1に記載の画像表示装置。 The display control unit decomposes the acquired image into a plurality of monochromatic images, and deforms at least one of the plurality of monochromatic images so as to reduce the chromatic aberration of magnification that occurs when the displayed image is observed through the lens. The image display device according to claim 1, wherein the display image is generated by combining the images. 前記表示制御部は、複数の単色画像のうちの1の単色画像以外の他の単色画像を縮小し、前記1の単色画像と当該縮小後の前記他の単色画像とを合成して前記表示画像を生成することを特徴とする請求項2に記載の画像表示装置。 The display control unit reduces a single-color image other than one single-color image among the plurality of single-color images, and combines the one single-color image with the other single-color image after the reduction to obtain the display image. The image display device according to claim 2, wherein the image is generated. 前記表示制御部は、RGBカラーモデルを用いて、前記取得画像をR画像、G画像及びB画像に分解し、前記倍率色収差を低減するように前記R画像、前記G画像及び前記B画像を変形し合成して前記表示画像を生成することを特徴とする請求項2に記載の画像表示装置。 The display control unit uses an RGB color model to decompose the acquired image into an R image, a G image, and a B image, and deforms the R image, the G image, and the B image so as to reduce the chromatic aberration of magnification. The image display device according to claim 2, wherein the display image is generated by combining the images. 前記表示制御部は、前記G画像及び前記B画像を、前記B画像の縮小率が前記G画像の縮小率よりも大きくなるように縮小し、前記R画像と当該縮小後の前記G画像及び前記B画像とを合成して前記表示画像を生成することを特徴とする前記請求項4に記載の画像表示装置。 The display control unit reduces the G image and the B image so that the reduction ratio of the B image is larger than the reduction ratio of the G image, and the R image, the G image after the reduction, and the said. The image display device according to claim 4, wherein the display image is generated by synthesizing the B image. 前記表示制御部は、前記レンズを介して前記表示画像を観察した際に生じる歪曲収差を低減するように、前記取得画像を歪曲させた前記表示画像を生成することを特徴とする請求項1乃至5のいずれか1つに記載の画像表示装置。 The display control unit is characterized in that it generates the display image in which the acquired image is distorted so as to reduce the distortion that occurs when the display image is observed through the lens. The image display device according to any one of 5. 前記レンズを介して前記表示面に表示された前記表示画像を観察する際の視座位置を認識する認識部を有し、
前記表示制御部は、前記取得画像に、前記視座位置に応じて、前記レンズによる光学収差を低減する処理を施した前記表示画像を生成することを特徴とする請求項1乃至6のいずれか1つに記載の画像表示装置。
It has a recognition unit that recognizes the viewpoint position when observing the display image displayed on the display surface via the lens.
Any one of claims 1 to 6, wherein the display control unit generates the display image obtained by subjecting the acquired image to a process of reducing optical aberration due to the lens according to the viewpoint position. The image display device described in 1.
画像表示装置が画像を表示する画像表示方法であって、
画像取得部が画像を取得する取得ステップと、
表示制御部が、前記画像取得部が取得した取得画像に基づいて表示画像を生成して、表示面を有する表示部の前記表示面に前記表示画像を表示させる表示ステップと、を有し、
前記表示制御部は、前記表示ステップにおいて、前記表示面に対向する位置に設けられたレンズのレンズ特性に基づいて、前記取得画像に前記レンズによる光学収差を低減する処理を施した前記表示画像を生成することを特徴とする画像表示方法。
An image display method in which an image display device displays an image.
The acquisition step in which the image acquisition unit acquires the image,
The display control unit has a display step of generating a display image based on the acquired image acquired by the image acquisition unit and displaying the display image on the display surface of the display unit having the display surface.
In the display step, the display control unit displays the display image obtained by subjecting the acquired image to a process of reducing optical aberration due to the lens, based on the lens characteristics of a lens provided at a position facing the display surface. An image display method characterized by generating.
コンピュータを備える画像表示装置によって実行される画像表示プログラムであって、
画像取得部が画像を取得する取得ステップと、
表示制御部が、前記画像取得部が取得した取得画像に基づいて表示画像を生成して、表示面を有する表示部の前記表示面に前記表示画像を表示させる表示ステップと、を実行させ、
前記表示制御部は、前記表示ステップにおいて、前記表示面に対向する位置に設けられたレンズのレンズ特性に基づいて、前記取得画像に前記レンズによる光学収差を低減する処理を施した前記表示画像を生成することを特徴とする画像表示プログラム。
An image display program executed by an image display device equipped with a computer.
The acquisition step in which the image acquisition unit acquires the image,
The display control unit generates a display image based on the acquired image acquired by the image acquisition unit, and executes a display step of displaying the display image on the display surface of the display unit having a display surface.
In the display step, the display control unit displays the display image obtained by subjecting the acquired image to a process of reducing optical aberration due to the lens, based on the lens characteristics of a lens provided at a position facing the display surface. An image display program characterized by generating.
請求項9に記載のプログラムを格納したことを特徴とするコンピュータが読取可能な記録媒体。

A computer-readable recording medium comprising storing the program according to claim 9.

JP2020001211A 2020-01-08 2020-01-08 Image display device Pending JP2021110784A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020001211A JP2021110784A (en) 2020-01-08 2020-01-08 Image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020001211A JP2021110784A (en) 2020-01-08 2020-01-08 Image display device

Publications (1)

Publication Number Publication Date
JP2021110784A true JP2021110784A (en) 2021-08-02

Family

ID=77059760

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020001211A Pending JP2021110784A (en) 2020-01-08 2020-01-08 Image display device

Country Status (1)

Country Link
JP (1) JP2021110784A (en)

Similar Documents

Publication Publication Date Title
WO2019155916A1 (en) Image display device using retinal scan display unit and method therefor
JP5136442B2 (en) Head mounted display
JP5341462B2 (en) Aberration correction method, image processing apparatus, and image processing system
US20130207991A1 (en) Wearable displays methods, and computer-readable media for determining display conditions
JP6349660B2 (en) Image display device, image display method, and image display program
JP7358448B2 (en) Image generation device, head mounted display, and image generation method
JP2010020215A (en) Image projection device, control method therefor, program and information storage medium
JP4933056B2 (en) Image display device and imaging device using the same
CN109991751B (en) Light field display device and method
JP6474278B2 (en) Image generation system, image generation method, program, and information storage medium
US20150356751A1 (en) Display evaluation device, display evaluation method, and non-transitory computer readable medium
JP2005351990A (en) Scan type display optical system
US10679589B2 (en) Image processing system, image processing apparatus, and program for generating anamorphic image data
JP2017134327A (en) Image display device and image processing device
JP2021110784A (en) Image display device
US10771774B1 (en) Display apparatus and method of producing images having spatially-variable angular resolutions
JP7142762B2 (en) Display device and image display method
WO2017056599A1 (en) Image generation device and image generation method
JP2005250978A (en) Three-dimensional picture processor and three-dimensional picture processing method
US10930185B2 (en) Information processing system, information processing apparatus, output apparatus, program, and recording medium
JP2017037190A (en) Projection device, image processing device, image processing program and image distribution system
US20210152791A1 (en) Correction for lateral chromatic aberration in images
JP5418480B2 (en) Image display device and image display method
WO2018047246A1 (en) Visible image unit identification code structure
JP2006251846A (en) Image processing apparatus