JP2017026943A - Image display device and image processing device - Google Patents

Image display device and image processing device Download PDF

Info

Publication number
JP2017026943A
JP2017026943A JP2015147788A JP2015147788A JP2017026943A JP 2017026943 A JP2017026943 A JP 2017026943A JP 2015147788 A JP2015147788 A JP 2015147788A JP 2015147788 A JP2015147788 A JP 2015147788A JP 2017026943 A JP2017026943 A JP 2017026943A
Authority
JP
Japan
Prior art keywords
image
unit
display
correction coefficient
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2015147788A
Other languages
Japanese (ja)
Inventor
貴之 佐々木
Takayuki Sasaki
貴之 佐々木
山口 潤
Jun Yamaguchi
潤 山口
進平 澤田
Shimpei Sawada
進平 澤田
玲子 野田
Reiko Noda
玲子 野田
快行 爰島
Yasuyuki Kokojima
快行 爰島
馬場 雅裕
Masahiro Baba
雅裕 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2015147788A priority Critical patent/JP2017026943A/en
Publication of JP2017026943A publication Critical patent/JP2017026943A/en
Abandoned legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image display device capable of providing an easy-to-see image, and an image processing device.SOLUTION: According to one embodiment, there is provided an image display device including optical sections, reflection sections and image processing sections. The optical sections emit light including image information of a display image. The reflection sections reflect at least parts of the light emitted from the optical sections toward pupils of an observer. The image processing sections generate the display image by changing at least one of a size and a shape of an object region being at least a part of the object image based on a positional relation between the reflection sections and the pupils.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、画像表示装置及び画像処理装置に関する。   Embodiments described herein relate generally to an image display device and an image processing device.

映像を表示する表示部と、レンズなどの光学素子を用いて表示部に表示された画像を投影する光学部と、光学部から投影された映像を観視者の眼へ向けて反射する反射部(コンバイナ)とを有する画像表示装置がある。このような画像表示装置では、観視者の瞳孔位置に応じて、観視者が見る像に光学歪みや欠けが発生することがある。瞳孔位置が変化しても、歪み等の少ない見易い像を表示することが望まれる。   A display unit that displays an image, an optical unit that projects an image displayed on the display unit using an optical element such as a lens, and a reflection unit that reflects the image projected from the optical unit toward the eyes of the viewer There is an image display device having a (combiner). In such an image display device, optical distortion or chipping may occur in an image viewed by the viewer depending on the pupil position of the viewer. Even if the pupil position changes, it is desirable to display an easy-to-view image with little distortion.

特開2007−65899号公報JP 2007-65899 A

本発明の実施形態は、見易い像を提供可能な画像表示装置及び画像処理装置を提供する。   Embodiments of the present invention provide an image display device and an image processing device capable of providing an easy-to-see image.

本発明の実施形態によれば、光学部と反射部と画像処理部とを含む画像表示装置が提供される。前記光学部は、表示画像の画像情報を含む光を出射する。前記反射部は、前記光学部から出射される前記光の少なくとも一部を観視者の瞳孔へ向けて反射させる。前記画像処理部は、前記反射部と前記瞳孔との位置関係に基づいて、前記対象画像の少なくとも一部の対象領域の大きさ及び形状の少なくとも一方を変更して前記表示画像を生成する。   According to the embodiment of the present invention, an image display device including an optical unit, a reflection unit, and an image processing unit is provided. The optical unit emits light including image information of a display image. The reflection part reflects at least a part of the light emitted from the optical part toward the pupil of the viewer. The image processing unit generates the display image by changing at least one of a size and a shape of at least a part of the target region of the target image based on a positional relationship between the reflection unit and the pupil.

第1の実施形態に係る画像表示装置を例示する模式図である。1 is a schematic view illustrating an image display device according to a first embodiment. 第1の実施形態に係る画像表示装置を例示するブロック図である。1 is a block diagram illustrating an image display device according to a first embodiment. 図3(a)〜図3(c)は、第1の実施形態に係る画像表示装置に関する画像を例示する模式図である。FIG. 3A to FIG. 3C are schematic views illustrating images related to the image display apparatus according to the first embodiment. 参考例に係る画像表示装置を例示する模式図である。It is a schematic diagram which illustrates the image display apparatus which concerns on a reference example. 図5(a)〜(d)は、参考例に係る画像表示装置を例示する模式図である。5A to 5D are schematic views illustrating an image display device according to a reference example. 第1の実施形態に係る画像表示装置の画像補正部を例示するブロック図である。It is a block diagram which illustrates the image amendment part of the image display device concerning a 1st embodiment. 図7(a)及び図7(b)は、第1の実施形態に係る画像表示装置における画像処理を例示する模式図である。FIG. 7A and FIG. 7B are schematic views illustrating image processing in the image display device according to the first embodiment. 図8(a)〜図8(g)は、第1の実施形態に係る画像表示装置に用いられる補正係数を例示する模式図である。FIG. 8A to FIG. 8G are schematic views illustrating correction coefficients used in the image display apparatus according to the first embodiment. 第1の実施形態に係る画像表示装置の処理を例示するフローチャートである。3 is a flowchart illustrating processing of the image display apparatus according to the first embodiment. 図10(a)〜図10(f)は、第1の実施形態に係る画像表示装置の処理を例示する模式図である。FIG. 10A to FIG. 10F are schematic views illustrating processing of the image display device according to the first embodiment. 第2の実施形態に係る画像表示装置の画像補正部を例示するブロック図である。It is a block diagram which illustrates the image amendment part of the image display device concerning a 2nd embodiment. 第2の実施形態に係る画像表示装置の画像補正部における処理を例示するフローチャートである。10 is a flowchart illustrating processing in an image correction unit of an image display device according to a second embodiment. 第3の実施形態に係る画像表示装置の画像補正部を例示するブロック図である。It is a block diagram which illustrates the image correction part of the image display apparatus which concerns on 3rd Embodiment. 第3の実施形態に係る画像処理装置の画像補正部における処理を例示するフローチャートである。10 is a flowchart illustrating processing in an image correction unit of an image processing apparatus according to a third embodiment. 図15(a)〜図15(c)は、第3の実施形態に係る画像処理装置の画像補正部における処理を例示する模式図である。FIG. 15A to FIG. 15C are schematic views illustrating processing in the image correction unit of the image processing apparatus according to the third embodiment. 第4の実施形態に係る画像表示装置の画像補正部を例示するブロック図である。It is a block diagram which illustrates the image correction part of the image display apparatus which concerns on 4th Embodiment. 第4の実施形態に係る画像表示装置の画像補正部における処理を例示するフローチャートである。14 is a flowchart illustrating processing in an image correction unit of an image display device according to a fourth embodiment. 図18(a)〜図18(c)は、第4の実施形態に係る画像処理装置の画像補正部における処理を例示する模式図である。FIG. 18A to FIG. 18C are schematic views illustrating processing in the image correction unit of the image processing apparatus according to the fourth embodiment. 図19(a)及び図19(b)は、第5の実施形態に係る画像表示装置を例示する模式図である。FIG. 19A and FIG. 19B are schematic views illustrating an image display device according to the fifth embodiment. 図20(a)及び図20(b)は、第5の実施形態に係る画像表示装置を例示する模式図である。FIG. 20A and FIG. 20B are schematic views illustrating the image display device according to the fifth embodiment. 図21(a)及び図21(b)は、第5の実施形態に係る画像表示装置を例示する模式図である。FIG. 21A and FIG. 21B are schematic views illustrating an image display device according to the fifth embodiment. 図22(a)及び図22(b)は、第5の実施形態に係る画像表示装置を例示する模式図である。FIG. 22A and FIG. 22B are schematic views illustrating an image display device according to the fifth embodiment. 図23(a)及び図23(b)は、位置制御部を例示する模式図である。FIG. 23A and FIG. 23B are schematic views illustrating the position control unit. 図24は、第5の実施形態に係る画像表示装置の画像補正部を例示するブロック図である。FIG. 24 is a block diagram illustrating an image correction unit of the image display device according to the fifth embodiment. 第5の実施形態に係る画像表示装置の画像補正部における処理を例示するフローチャートである。14 is a flowchart illustrating processing in an image correction unit of an image display device according to a fifth embodiment. 図26(a)及び図26(b)は、実施形態に係る画像表示装置を例示するブロック図である。FIG. 26A and FIG. 26B are block diagrams illustrating an image display device according to the embodiment. 実施形態に係る画像表示装置を例示する模式図である。It is a schematic diagram which illustrates the image display apparatus which concerns on embodiment.

以下に、各実施の形態について図面を参照しつつ説明する。
なお、図面は模式的または概念的なものであり、各部分の厚みと幅との関係、部分間の大きさの比率などは、必ずしも現実のものと同一とは限らない。また、同じ部分を表す場合であっても、図面により互いの寸法や比率が異なって表される場合もある。
なお、本願明細書と各図において、既出の図に関して前述したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
Each embodiment will be described below with reference to the drawings.
The drawings are schematic or conceptual, and the relationship between the thickness and width of each part, the size ratio between the parts, and the like are not necessarily the same as actual ones. Further, even when the same part is represented, the dimensions and ratios may be represented differently depending on the drawings.
Note that, in the present specification and each drawing, the same elements as those described above with reference to the previous drawings are denoted by the same reference numerals, and detailed description thereof is omitted as appropriate.

(第1の実施形態)
図1は、第1の実施形態に係る画像表示装置を例示する模式図である。
図2は、第1の実施形態に係る画像表示装置を例示するブロック図である。
図1及び図2に表したように、本実施形態に係る画像表示装置101は、投影部125(表示部110および光学部120)と、反射部130と、画像処理装置200と、を含む。
(First embodiment)
FIG. 1 is a schematic view illustrating an image display device according to the first embodiment.
FIG. 2 is a block diagram illustrating the image display apparatus according to the first embodiment.
As illustrated in FIGS. 1 and 2, the image display apparatus 101 according to the present embodiment includes a projection unit 125 (display unit 110 and optical unit 120), a reflection unit 130, and an image processing device 200.

画像表示装置101は、例えば、眼鏡型のヘッドマウントディスプレイである。投影部125は、画像処理装置200から画像情報を取得し、当該画像情報を含む光を出射する。光は、反射部130を介して観視者60(使用者)の眼(瞳孔150)に投影される。これにより、観視者60に画像情報に対応した虚像を表示する。   The image display device 101 is, for example, a glasses-type head mounted display. The projection unit 125 acquires image information from the image processing apparatus 200 and emits light including the image information. The light is projected onto the eyes (pupil 150) of the viewer 60 (user) via the reflection unit 130. Thereby, a virtual image corresponding to the image information is displayed on the viewer 60.

画像処理装置200は、画像処理部140(回路部)を含む。画像処理部140は、表示の対象である対象画像のデータと、観視者60の瞳孔位置(眼球位置)の情報と、を取得する。例えば、画像処理部140は、外部の記憶媒体やネットワークなどに有線あるいは無線で接続され、対象画像(入力画像)のデータを受け取る。画像処理部140は、観視者60の瞳孔位置に基づいて、対象画像に対して補正処理を行い、表示画像(補正画像)を生成する。補正処理については後述する。   The image processing apparatus 200 includes an image processing unit 140 (circuit unit). The image processing unit 140 acquires data of a target image that is a display target and information on the pupil position (eyeball position) of the viewer 60. For example, the image processing unit 140 is connected to an external storage medium, a network, or the like by wire or wireless, and receives data of a target image (input image). The image processing unit 140 performs a correction process on the target image based on the pupil position of the viewer 60 and generates a display image (corrected image). The correction process will be described later.

画像処理部140は、例えば、屈曲可能なケーブル145によって表示部110と電気的に接続されている。これにより、画像処理部140によって生成された表示画像は、表示部110に入力される。   The image processing unit 140 is electrically connected to the display unit 110 by a bendable cable 145, for example. As a result, the display image generated by the image processing unit 140 is input to the display unit 110.

表示部110は、例えば、映像や画像を表示するディスプレイである。ディスプレイには、例えば、液晶、有機ELまたはリキッドクリスタルオンシリコン(Liquid Crystal On Silicon)などが用いられる。但し、実施形態は、これらに限定されない。表示部110は、平面上に並べられた複数の画素110eを含む。   The display unit 110 is a display that displays video and images, for example. For the display, for example, liquid crystal, organic EL, or Liquid Crystal On Silicon is used. However, the embodiment is not limited to these. The display unit 110 includes a plurality of pixels 110e arranged on a plane.

表示部110は、表示画像を表示する。すなわち、表示部110は、表示画像の画像情報を含む光L1(画像光)を出射する。光L1は、複数の画素110eから光学部120へ向けて出射される。   The display unit 110 displays a display image. That is, the display unit 110 emits light L1 (image light) including image information of a display image. The light L1 is emitted toward the optical unit 120 from the plurality of pixels 110e.

光学部120は、複数の画素110eから出射された光L1の光路上において、表示部110と反射部130との間に設けられる。光学部120は、少なくとも1つ以上の光学素子を含む。光学部120は、入射した光L1を投影する。光学素子には、レンズ、プリズム、またはミラーなどを用いることができる。光学部120は、例えば、光L1の少なくとも一部の進行方向を変化させる。このようにして、光学部120(投影部125)は、画像情報を含む光(補正光)を反射部130へ向けて出射する。なお、複数の光学素子を用いた場合、それらは直線上に配置されていなくてもよい。   The optical unit 120 is provided between the display unit 110 and the reflection unit 130 on the optical path of the light L1 emitted from the plurality of pixels 110e. The optical unit 120 includes at least one or more optical elements. The optical unit 120 projects the incident light L1. As the optical element, a lens, a prism, a mirror, or the like can be used. For example, the optical unit 120 changes the traveling direction of at least part of the light L1. In this way, the optical unit 120 (projection unit 125) emits light (correction light) including image information toward the reflection unit 130. When a plurality of optical elements are used, they do not have to be arranged on a straight line.

反射部130は、第1面11pに沿って設けられた反射面を含む。例えば、第1面11pに複数の微細な反射面を並列に配置して、反射部130とすることができる。第1面11pは、平面であっても曲面であってもよい。反射面のそれぞれは、例えばハーフミラーであり、入射した光の少なくとも一部を反射させる。反射面のそれぞれは、第1面11pに対して傾斜しており、反射面同士の間には、段差が形成される。反射部130は、例えば、複数の反射面及び複数の段差によって形成されたフレネル形状を有する。反射面のそれぞれと第1面11pとのなす角は、光学部120の光軸と、想定される瞳孔150と、の位置関係によって定まる。反射面のそれぞれと第1面11pとのなす角を調整することにより、例えば、光の反射角度を調整することができる。   The reflection unit 130 includes a reflection surface provided along the first surface 11p. For example, a plurality of fine reflecting surfaces can be arranged in parallel on the first surface 11p to form the reflecting unit 130. The first surface 11p may be a flat surface or a curved surface. Each of the reflecting surfaces is, for example, a half mirror, and reflects at least a part of incident light. Each of the reflection surfaces is inclined with respect to the first surface 11p, and a step is formed between the reflection surfaces. The reflecting unit 130 has, for example, a Fresnel shape formed by a plurality of reflecting surfaces and a plurality of steps. The angle formed between each of the reflection surfaces and the first surface 11p is determined by the positional relationship between the optical axis of the optical unit 120 and the assumed pupil 150. By adjusting the angle formed between each of the reflection surfaces and the first surface 11p, for example, the light reflection angle can be adjusted.

但し、実施形態においては、反射部130は、このようなハーフミラーに限られない。反射部130として、通常のハーフミラーを用いてもよいし、同様に反射角度を調整できる他の部材を用いてもよい。また、一例として、反射率と透過率とが同率であるハーフミラーを適用する例を説明しているが、実施形態は、同率である例に限られない。反射面に用いられる材料は、一部の光を透過し一部の光を反射する材料であれば、どのようなものでも構わない。   However, in the embodiment, the reflection unit 130 is not limited to such a half mirror. As the reflection unit 130, a normal half mirror may be used, or another member capable of adjusting the reflection angle may be used. In addition, as an example, an example is described in which a half mirror with the same reflectance and transmittance is applied, but the embodiment is not limited to the example with the same ratio. The material used for the reflecting surface may be any material as long as it is a material that transmits part of light and reflects part of light.

反射部130は、光学部120から出射された光L1の少なくとも一部を反射する。例えば、反射部130は、画像表示装置101の観視者60の瞳孔150に向けて、光学部120を通過した光を反射する。反射部130によって反射された光L1の一部は、像(以下「観視像」と称する)を形成する。例えば、光L1の一部は、瞳孔150から見て、虚像として観視像170を形成する。このようにして、観視者60は、対象画像(及び表示画像)に対応した観視像(観測画像)を見ることができる。なお、この例では、虚像として観視像を表示しているが、反射部130を瞳孔150から離して実像として像を表示してもよい。   The reflection unit 130 reflects at least a part of the light L1 emitted from the optical unit 120. For example, the reflecting unit 130 reflects light that has passed through the optical unit 120 toward the pupil 150 of the viewer 60 of the image display apparatus 101. A part of the light L1 reflected by the reflecting unit 130 forms an image (hereinafter referred to as “viewed image”). For example, a part of the light L <b> 1 forms the viewing image 170 as a virtual image when viewed from the pupil 150. In this way, the viewer 60 can see a viewing image (observation image) corresponding to the target image (and display image). In this example, the viewing image is displayed as a virtual image, but the reflection unit 130 may be separated from the pupil 150 and displayed as a real image.

また、反射部130には例えばハーフミラーが用いられるため、反射部130は、外界から反射部130へ入射した光の一部を透過させる。これにより、観視者60は、反射部130を通して外界を観視することができる。この例では、瞳孔150の正面に観視像170を表示しているが、観視像171のように観視者60の視界の端に像を表示してもよい。これにより、観視者60の視界が遮られない。   In addition, for example, a half mirror is used as the reflection unit 130, so that the reflection unit 130 transmits a part of light incident on the reflection unit 130 from the outside. Thereby, the human viewer 60 can view the outside world through the reflector 130. In this example, the viewing image 170 is displayed in front of the pupil 150, but an image may be displayed at the end of the field of view of the viewer 60 like the viewing image 171. Thereby, the visual field of the viewer 60 is not obstructed.

例えば、投影部125内において、表示部110と光学部120との相対的配置は固定されている。なお、表示部110と光学部120との相対的配置は、画像を投影する機能を損なわない程度に可変であってもよい。例えば、投影部125内において表示部110と光学部120とがネジで取り付けられている。ネジの締め具合を調整することで、表示部110と光学部120との相対的な距離や、互いになす角を調整することができる。表示部110と光学部120との間の距離を調整することで、観視者60から見た虚像までの距離を変化させることができる。例えば、顔の1m先に見えていた像を2m先に移動させることができる。   For example, the relative arrangement of the display unit 110 and the optical unit 120 in the projection unit 125 is fixed. Note that the relative arrangement of the display unit 110 and the optical unit 120 may be variable so as not to impair the function of projecting an image. For example, in the projection unit 125, the display unit 110 and the optical unit 120 are attached with screws. By adjusting the tightening degree of the screw, the relative distance between the display unit 110 and the optical unit 120 and the angle formed with each other can be adjusted. By adjusting the distance between the display unit 110 and the optical unit 120, the distance from the viewer 60 to the virtual image viewed can be changed. For example, an image that was seen 1 m ahead of the face can be moved 2 m away.

なお、図2に示したブロック図は、一例であり、必ずしも実際のモジュールとは一致しない場合がある。例えば、各ブロックの一部が画像表示装置とは別に設けられていてもよい。   Note that the block diagram shown in FIG. 2 is an example, and may not necessarily match an actual module. For example, a part of each block may be provided separately from the image display device.

図1を参照して、画像表示装置101の具体例についてさらに説明する。画像表示装置101は、例えば眼鏡型の画像表示装置であり、保持部320および眼鏡レンズ160をさらに含む。   A specific example of the image display apparatus 101 will be further described with reference to FIG. The image display device 101 is, for example, a glasses-type image display device, and further includes a holding unit 320 and a spectacle lens 160.

保持部320は、例えば、眼鏡フレーム(テンプル、つる)である。画像表示装置101は、保持部320によって、観視者60の頭部に装着可能である。保持部320は、ノーズパッド321と、ブリッジ322と、をさらに含む。ブリッジ322は、一方の眼鏡レンズ160と他方の眼鏡レンズ160とを接続する。必要に応じて眼鏡レンズ160のリム(眼鏡レンズ160を保持する枠)等が設けられてもよい。なお、本願では通常の矯正用眼鏡と同様の構成について述べるが、左右のレンズが一体化したような構成であってもよい。   The holding unit 320 is, for example, a spectacle frame (a temple or a vine). The image display apparatus 101 can be attached to the head of the viewer 60 by the holding unit 320. The holding unit 320 further includes a nose pad 321 and a bridge 322. The bridge 322 connects one spectacle lens 160 and the other spectacle lens 160. A rim of the spectacle lens 160 (a frame for holding the spectacle lens 160) or the like may be provided as necessary. In the present application, a configuration similar to that of normal correction glasses will be described, but a configuration in which the left and right lenses are integrated may be used.

眼鏡レンズ160(反射部130)は、保持部320に保持される。例えば、通常の眼鏡フレームと同様に、保持部320と眼鏡レンズ160との間の角度は、可変であってもよい。   The spectacle lens 160 (reflecting unit 130) is held by the holding unit 320. For example, as in a normal spectacle frame, the angle between the holding unit 320 and the spectacle lens 160 may be variable.

例えば、ノーズパッド321と眼鏡レンズ160との相対的配置は、固定されている。反射部130は、眼鏡レンズ160に内包されている(眼鏡レンズ160と一体に設けられている)。すなわち、コンバイナ一体型の眼鏡レンズ160が用いられており、反射部130と眼鏡レンズ160との相対的位置関係は、固定されている。
眼鏡レンズ160は、第1表面161と、第2表面162と、を有する。第2表面162は、第1表面161と離間する。反射部130は、第1表面161と第2表面162との間に設けられる。なお、反射部130の位置は、上記に限定されず、例えば第2表面162上に反射部130を配す構成であっても良い。
For example, the relative arrangement of the nose pad 321 and the spectacle lens 160 is fixed. The reflector 130 is included in the spectacle lens 160 (provided integrally with the spectacle lens 160). That is, a combiner-integrated spectacle lens 160 is used, and the relative positional relationship between the reflector 130 and the spectacle lens 160 is fixed.
The spectacle lens 160 has a first surface 161 and a second surface 162. The second surface 162 is separated from the first surface 161. The reflection unit 130 is provided between the first surface 161 and the second surface 162. In addition, the position of the reflection part 130 is not limited to the above, For example, the structure which distribute | arranges the reflection part 130 on the 2nd surface 162 may be sufficient.

観視者60は、画像表示装置101の使用時において、ノーズパッド321を鼻に載せ、保持部320の一端320eを耳に載せる。このようにして、観視者60の鼻及び耳の位置に応じて、保持部320の位置と眼鏡レンズ160(及び反射部130)の相対的位置が規定される。画像表示装置101の使用時において、保持部320に対する反射部130の相対的配置は、実質的に固定されている。また、瞳孔150の反射部130に対する位置は、眼球運動に伴って移動する。   When the image display apparatus 101 is used, the human viewer 60 places the nose pad 321 on the nose and places one end 320e of the holding unit 320 on the ear. In this manner, the position of the holding unit 320 and the relative position of the spectacle lens 160 (and the reflecting unit 130) are defined according to the position of the nose and ear of the viewer 60. When the image display apparatus 101 is used, the relative arrangement of the reflection unit 130 with respect to the holding unit 320 is substantially fixed. In addition, the position of the pupil 150 with respect to the reflecting unit 130 moves with eye movement.

ノーズパッド321は、付け替え可能であってもよい。すなわち、保持部320が、ノーズパッドを取り替えられるような構造を有していてもよい。例えば、ノーズパッド321は、ノーズパッド321とは異なる形状を有する別のノーズパッドに付け替えられる。これにより、例えば、図1に示すZ軸方向において、瞳孔位置と反射部130との相対的配置が調整可能である。   The nose pad 321 may be replaceable. That is, the holding part 320 may have a structure in which the nose pad can be replaced. For example, the nose pad 321 is replaced with another nose pad having a shape different from that of the nose pad 321. Thereby, for example, the relative arrangement of the pupil position and the reflecting unit 130 can be adjusted in the Z-axis direction shown in FIG.

なお、図1では、2つの画像表示装置101を用いた両眼ヘッドマウントディスプレイ(HMD)が例示されている。一方の画像表示装置は、観視者60の右目に対して画像を表示し、他方の表示装置は、左目に対して画像を表示する。実施形態は、1つの画像表示装置101を用い、片方の眼に対して画像を表示する単眼HMDであってもよい。
この例では、1つの画像表示装置101に対して回路部が一つずつ設けられている。2つの画像表示装置101を用いる場合、可能な範囲で画像処理部140(回路部)を統合してもよい。
In FIG. 1, a binocular head mounted display (HMD) using two image display devices 101 is illustrated. One image display device displays an image for the right eye of the viewer 60, and the other display device displays an image for the left eye. The embodiment may be a monocular HMD that uses one image display device 101 and displays an image for one eye.
In this example, one circuit unit is provided for each image display apparatus 101. When two image display devices 101 are used, the image processing unit 140 (circuit unit) may be integrated as much as possible.

図3(a)〜図3(c)は、第1の実施形態に係る画像表示装置に関する画像を例示する模式図である。
図3(a)は、画像表示装置101における対象画像A1を例示している。画像処理部140は、観視者60の瞳孔位置、すなわち反射部130と瞳孔150との位置関係に基づいて、対象画像A1を補正する。
図3(b)は、対象画像A1から補正処理によって生成された表示画像A2を例示している。表示画像A2は、表示部110に表示される画像である。
図3(c)は、表示画像A2の情報を含む光によって形成され、観視者60によって観視される観視像A3を例示している。
FIG. 3A to FIG. 3C are schematic views illustrating images related to the image display apparatus according to the first embodiment.
FIG. 3A illustrates the target image A1 in the image display apparatus 101. The image processing unit 140 corrects the target image A1 based on the pupil position of the viewer 60, that is, the positional relationship between the reflecting unit 130 and the pupil 150.
FIG. 3B illustrates a display image A2 generated from the target image A1 by correction processing. The display image A2 is an image displayed on the display unit 110.
FIG. 3C illustrates a viewing image A3 formed by light including information on the display image A2 and viewed by the viewer 60.

例えば、対象画像A1は、カラー画像である。すなわち、対象画像A1は、複数の画素を含み、各画素は、複数の色成分を含む。複数の色成分は、例えば、互いに異なる3つの色(第1〜第3色)に関する情報である。例えば、第1色、第2色、第3色は、それぞれ、赤、青、緑である。表示部110の各画素110eは、対象画像の各画素に対応する光を出射する。例えば、各画素110eは第1〜第3サブ画素を含み、第1〜第3サブ画素は、それぞれ、第1〜第3色の光を出射する。3色の光の重ね合わせにより、カラー画像が表示される。換言すると、対象画像の各画素は、第1色に対応した第1色画素と、第2色に対応した第2色画素と、第3色に対応した第3色画素と、によって表される。   For example, the target image A1 is a color image. That is, the target image A1 includes a plurality of pixels, and each pixel includes a plurality of color components. The plurality of color components is information on three different colors (first to third colors), for example. For example, the first color, the second color, and the third color are red, blue, and green, respectively. Each pixel 110e of the display unit 110 emits light corresponding to each pixel of the target image. For example, each pixel 110e includes first to third sub-pixels, and the first to third sub-pixels emit light of first to third colors, respectively. A color image is displayed by superimposing the three colors of light. In other words, each pixel of the target image is represented by a first color pixel corresponding to the first color, a second color pixel corresponding to the second color, and a third color pixel corresponding to the third color. .

画像処理部140は、反射部130と瞳孔150との位置関係に基づいて、対象画像A1の少なくとも一部の対象領域(第1領域R1)のスケール(サイズ)を変更する補正処理を行う。第1領域R1は、対象画像A1の全体または一部である。
この例では、第1領域R1は、対象画像A1のうち、特定の表示オブジェクト80を表示する部分である。第1領域R1は、例えば矩形である。表示オブジェクトは、例えば、画像中の特定の文字、文字列、図形および写真の少なくともいずれかの情報である。この例では、表示オブジェクト80は、「0123456789ABCDE」の文字列の情報である。なお、1つの画像中に複数の表示オブジェクトが配置されていてもよい。
The image processing unit 140 performs a correction process for changing the scale (size) of at least a part of the target region (first region R1) of the target image A1 based on the positional relationship between the reflecting unit 130 and the pupil 150. The first region R1 is the whole or a part of the target image A1.
In this example, the first region R1 is a portion that displays a specific display object 80 in the target image A1. The first region R1 is, for example, a rectangle. The display object is, for example, information on at least one of specific characters, character strings, figures, and photographs in the image. In this example, the display object 80 is information of a character string “01234456789ABCDE”. A plurality of display objects may be arranged in one image.

例えば、画像処理部140は、第1領域R1の対象画像A1における大きさ、および第1領域R1の形状の少なくともいずれかを変更して表示画像A2を生成する。形状の変更は、ある方向に沿った幅の変更またはアスペクト比の変更を含む。   For example, the image processing unit 140 generates the display image A2 by changing at least one of the size of the first region R1 in the target image A1 and the shape of the first region R1. Changing the shape includes changing the width or changing the aspect ratio along a certain direction.

例えば、画像処理部140は、第1領域R1の横方向における幅を変更する。ここで、画像の幅の変更に関する方向や比率は、後述する「光学歪み」や画面の「欠け」に応じて定められる。具体的には、画像の幅の変更に関する方向や比率は、観視者60の瞳孔位置、光学部120の位置、反射部130の位置などに基づいて定められる。これにより、例えば、光学歪みや画面欠け等を抑制することができる。   For example, the image processing unit 140 changes the width in the horizontal direction of the first region R1. Here, the direction and ratio regarding the change of the width of the image are determined according to “optical distortion” and “missing” of the screen, which will be described later. Specifically, the direction and ratio regarding the change in the width of the image are determined based on the pupil position of the viewer 60, the position of the optical unit 120, the position of the reflecting unit 130, and the like. As a result, for example, optical distortion and screen defects can be suppressed.

画像処理部140は、対象画像がカラー画像である場合には、光の色(第1〜第3色)ごとに、補正処理を行う。また、補正処理では、対象画像のサイズ情報(縦幅及び横幅)が考慮される。これにより、例えば、観視像A3において対象画像のアスペクト比が維持される。   When the target image is a color image, the image processing unit 140 performs correction processing for each light color (first to third colors). In the correction process, the size information (vertical width and horizontal width) of the target image is taken into consideration. Thereby, for example, the aspect ratio of the target image is maintained in the viewing image A3.

なお、画像(又はその一部)の大きさとは、当該画像(又は当該一部)を表示する画素の数に対応する。また、画像(又はその一部)のある方向に沿った幅(長さ)とは、当該画像(又は当該一部)の当該方向に沿った画素の数に対応する。   Note that the size of an image (or part thereof) corresponds to the number of pixels that display the image (or part thereof). Further, the width (length) along a certain direction of the image (or part thereof) corresponds to the number of pixels along the direction of the image (or part thereof).

このようにして生成された表示画像A2は、第1領域R1(対象領域)に基づいて生成された第2領域R2を含む。第2領域R2は、例えば矩形である。この例では、第2領域R2は、表示画像A2のうち、前述の表示オブジェクト80を表示する部分である。   The display image A2 generated in this way includes a second region R2 generated based on the first region R1 (target region). The second region R2 is, for example, a rectangle. In this example, the second region R2 is a portion that displays the above-described display object 80 in the display image A2.

例えば、表示画像A2のアスペクト比は、対象画像A1のアスペクト比と異なる。
ここで、対象画像A1のアスペクト比は、対象画像A1の第1方向D1(横方向)に沿った長さLn1に対する、対象画像A1の第2方向D2(縦方向)に沿った長さLn2の比率である。同様に、表示画像A2のアスペクト比は、表示画像A2の第1方向D1に沿った長さLn3に対する、表示画像A2の第2方向D2に沿った長さLn4の比率である。
For example, the aspect ratio of the display image A2 is different from the aspect ratio of the target image A1.
Here, the aspect ratio of the target image A1 is the length Ln2 along the second direction D2 (vertical direction) of the target image A1 with respect to the length Ln1 along the first direction D1 (horizontal direction) of the target image A1. It is a ratio. Similarly, the aspect ratio of the display image A2 is a ratio of the length Ln4 along the second direction D2 of the display image A2 to the length Ln3 along the first direction D1 of the display image A2.

例えば、第2領域R2の大きさは、第1領域R1の大きさと異なる。また、例えば、第2領域R2のアスペクト比は、第1領域R1のアスペクト比と異なる。
ここで、第1領域R1のアスペクト比は、第1領域R1の第1方向D1に沿った長さLn5に対する、第1領域R1の第2方向D2に沿った長さLn6の比率である。同様に、第2領域R2のアスペクト比は、第2領域R2の第1方向D1に沿った長さLn7に対する、第2領域R2の第2方向D2に沿った長さLn8の比率である。
For example, the size of the second region R2 is different from the size of the first region R1. For example, the aspect ratio of the second region R2 is different from the aspect ratio of the first region R1.
Here, the aspect ratio of the first region R1 is a ratio of the length Ln6 along the second direction D2 of the first region R1 to the length Ln5 along the first direction D1 of the first region R1. Similarly, the aspect ratio of the second region R2 is the ratio of the length Ln8 along the second direction D2 of the second region R2 to the length Ln7 along the first direction D1 of the second region R2.

表示画像A2は、さらに、第1画像領域S1と、第2画像領域S2と、を含む。第1画像領域S1は、対象画像A1の対象領域の画像情報を表示する領域である。すなわち、第2領域R2は、第1画像領域S1内に配置される。第2画像領域S2は、表示画像A2のうち対象画像A1の表示に用いられない領域である。第1画像領域S1および第2画像領域S2は、観視者60の瞳孔と反射部130との位置関係、光学部120の位置、などに基づいて定められる。このような第1画像領域S1および第2画像領域S2を設けることにより、後述の画面欠けを抑制することができる。   The display image A2 further includes a first image region S1 and a second image region S2. The first image area S1 is an area for displaying image information of the target area of the target image A1. That is, the second region R2 is arranged in the first image region S1. The second image region S2 is a region that is not used for displaying the target image A1 in the display image A2. The first image region S1 and the second image region S2 are determined based on the positional relationship between the pupil of the viewer 60 and the reflecting unit 130, the position of the optical unit 120, and the like. By providing the first image area S1 and the second image area S2 as described above, it is possible to suppress a lack of a screen described later.

第2画像領域S2が設けられたことによって、第1領域R1の対象画像A1中の位置は、第2領域R2の表示画像A2中の位置とは異なる。この例では、表示画像A2(または表示部110の表示画面)における第2領域R2の中心位置は、対象画像A1における第1領域R1の中心位置に比べて偏心している。なお、実施形態において表示画像A2は、第2画像領域S2を含んでいなくてもよい。   By providing the second image region S2, the position of the first region R1 in the target image A1 is different from the position of the second region R2 in the display image A2. In this example, the center position of the second region R2 in the display image A2 (or the display screen of the display unit 110) is decentered compared to the center position of the first region R1 in the target image A1. In the embodiment, the display image A2 may not include the second image region S2.

表示画像A2に基づいて表示部110から出射された光によって、観視像A3が形成される。観視像A3は、第1領域R1および第2領域R2に基づいて形成された第1像Q1を含む。この例では、第1像Q1は、前述の表示オブジェクト80を表示する部分である。第1像Q1は、例えば矩形である。   A viewing image A3 is formed by the light emitted from the display unit 110 based on the display image A2. The viewing image A3 includes a first image Q1 formed based on the first region R1 and the second region R2. In this example, the first image Q1 is a portion that displays the display object 80 described above. The first image Q1 is, for example, a rectangle.

第1像Q1のアスペクト比は、第1領域R1のアスペクト比と実質的に等しい。ここで、第1像Q1のアスペクト比は、第1像Q1の第1方向D1に沿った長さLn9に対する、第1像Q1の第2方向D2に沿った長さLn10の比率である。   The aspect ratio of the first image Q1 is substantially equal to the aspect ratio of the first region R1. Here, the aspect ratio of the first image Q1 is a ratio of the length Ln10 along the second direction D2 of the first image Q1 to the length Ln9 along the first direction D1 of the first image Q1.

次に画像表示装置において生じる、光学歪み、色割れ及び画面欠けについて説明する。 図4は、参考例に係る画像表示装置を例示する模式図である。
参考例に係る画像表示装置109は、反射部130bと、投影部125bと、を含む。反射部130bには反射部130と同様の構成を適用することができ、投影部125bには、投影部125と同様の構成を適用することができる。画像表示装置109は、画像処理部140を含まない点において、実施形態に係る画像表示装置101と異なる。すなわち、画像表示装置109では、前述した対象画像の補正処理が行われない。
Next, optical distortion, color breakup, and screen defects that occur in the image display apparatus will be described. FIG. 4 is a schematic view illustrating an image display device according to a reference example.
The image display device 109 according to the reference example includes a reflection unit 130b and a projection unit 125b. A configuration similar to that of the reflection unit 130 can be applied to the reflection unit 130b, and a configuration similar to that of the projection unit 125 can be applied to the projection unit 125b. The image display device 109 is different from the image display device 101 according to the embodiment in that it does not include the image processing unit 140. That is, the image display device 109 does not perform the correction process for the target image described above.

投影部125bから出射された光によって観視像170bが形成される。例えば、画像表示装置では、観察者の瞳孔が一定の範囲内に位置することを前提に光学設計がなされている。図4は、観視像170bを観測可能な瞳孔位置の範囲が存在することを例示している。この範囲は、アイレンジ180と呼ばれ、直径数ミリメートル程度の円形の領域である。   A viewing image 170b is formed by the light emitted from the projection unit 125b. For example, in the image display device, the optical design is made on the assumption that the pupil of the observer is located within a certain range. FIG. 4 exemplifies that there is a range of pupil positions where the viewing image 170b can be observed. This range is called an eye range 180 and is a circular region having a diameter of about several millimeters.

このような眼鏡型の画像表示装置においては、観視者60の耳、鼻及び眼の配置に応じて、眼の位置に対する反射部130の位置が定まる。例えば観視者60が変わると、眼に対する反射部130の位置が変化する。このため、観視者60が変わると、観視者60から見える像の位置が変化し、適切な位置に像が表示されない場合がある。瞳孔150がアイレンジ180内にある場合は、観視者は像170の全体を見ることができる。しかし、瞳孔150がアイレンジ180外にある場合は、画面の欠けが生じる。   In such a glasses-type image display device, the position of the reflection unit 130 with respect to the position of the eye is determined according to the arrangement of the ears, nose, and eyes of the viewer 60. For example, when the viewer 60 changes, the position of the reflection unit 130 with respect to the eye changes. For this reason, when the viewer 60 changes, the position of the image seen from the viewer 60 may change, and the image may not be displayed at an appropriate position. If the pupil 150 is within the eye range 180, the viewer can see the entire image 170. However, when the pupil 150 is outside the eye range 180, the screen is missing.

画像表示装置109で発生する光学歪みと色割れについて説明する。表示部から出射された画像情報を含む光は、光学部や反射部130bを構成するレンズやハーフミラーなどの光学素子を経由して瞳孔へ向かう。例えば、光が光学素子を通過するごとに、または光学素子において反射されるごとに、収差が発生する。このため、観視像170bに光学歪みや色割れなどの劣化が生じる。   The optical distortion and color breakup that occur in the image display device 109 will be described. Light including image information emitted from the display unit travels to the pupil via an optical element such as a lens or a half mirror that constitutes the optical unit or the reflection unit 130b. For example, each time light passes through the optical element or is reflected by the optical element, aberration occurs. For this reason, degradation such as optical distortion and color breakup occurs in the viewing image 170b.

光学歪みは、表示部から出射された光が光学素子を経由する際の収差である。光学歪みは、光学素子を経由した光の像が、表示部から出射された光の像に対する相似性を失うことで生じる。   The optical distortion is an aberration when light emitted from the display unit passes through the optical element. The optical distortion is caused when the image of the light passing through the optical element loses similarity to the image of the light emitted from the display unit.

カラー画像の表示において、色割れは、光の波長の違いにより生じる収差である。光学素子を経由した後の光の像の大きさは、光の波長に依存する。例えば、波長が短いほどレンズ等による屈折が生じやすく、アイレンジが狭くなり易い。また、例えば、像の中心位置は、光の波長に依存し、色によって異なる。   In color image display, color breakup is an aberration caused by a difference in light wavelength. The size of the image of light after passing through the optical element depends on the wavelength of the light. For example, as the wavelength is shorter, refraction by a lens or the like is likely to occur, and the eye range is likely to be narrowed. Also, for example, the center position of the image depends on the wavelength of light and varies depending on the color.

図5(a)〜(d)は、参考例に係る画像表示装置を例示する模式図である。
図5(a)は、投影部125bから出射された光が、異なる位置にある瞳孔150a(位置PA)、または、瞳孔150b(位置PB)に到達する様子を示す。瞳孔位置の違いは、例えば、観視者60の個人差によって生じる。
5A to 5D are schematic views illustrating an image display device according to a reference example.
FIG. 5A shows how the light emitted from the projection unit 125b reaches the pupil 150a (position PA) or the pupil 150b (position PB) at a different position. The difference in pupil position is caused by individual differences among the viewers 60, for example.

図5(b)は、画像表示装置109の表示部において表示される画像PIの例である。画像PIは、白い正方格子の画像Pwを含む。白色は、赤色、青色および緑色の重ね合わせによって表示される。   FIG. 5B is an example of an image PI displayed on the display unit of the image display device 109. The image PI includes a white square lattice image Pw. White is displayed by overlapping red, blue and green.

図5(c)は、表示部で画像PIを表示した場合に瞳孔150a(位置PA)から見える虚像の例である。図5(d)は、表示部で画像PIを表示した場合に瞳孔150b(位置PB)から見える虚像の例である。   FIG. 5C is an example of a virtual image that can be seen from the pupil 150a (position PA) when the image PI is displayed on the display unit. FIG. 5D is an example of a virtual image that can be seen from the pupil 150b (position PB) when the image PI is displayed on the display unit.

図5(c)及び図5(d)に表したように、画像PIの形状に対して、表示される虚像の形状は、歪んでいる。これは、上述した光学歪みや色割れによる生じる現象に起因するものである。さらに、色割れにより、青色が表示される領域Pb、緑色が表示される領域Pg、赤色が表示される領域Prの大きさや位置が互いに異なっており、色毎に表示可能な領域が異なることが確認できる。図5(c)では、左端の虚像の一部が欠けている。これは、位置PBが画像表示装置109のアイレンジ180外に存在する場合に生じる現象である。   As shown in FIGS. 5C and 5D, the shape of the displayed virtual image is distorted with respect to the shape of the image PI. This is due to the phenomenon caused by the above-described optical distortion and color breakup. Furthermore, due to color breakup, the size and position of the area Pb in which blue is displayed, the area Pg in which green is displayed, and the area Pr in which red is displayed are different from each other, and the displayable areas are different for each color. I can confirm. In FIG. 5C, a part of the leftmost virtual image is missing. This is a phenomenon that occurs when the position PB exists outside the eye range 180 of the image display device 109.

このように、瞳孔と投影部との相対的配置に応じて、表示される画像に歪みが生じる。さらに、アイレンジ外に瞳孔が存在する場合は、画面欠けが生じる。
これに対して、例えば、画像表示装置の個体差を示す固有情報(例えば、歪み補正係数など)を複数用意する方法が考えられる。この方法では、複数の歪み補正係数から各個体に対応した歪み補正係数を選択し、対象画像を補正した表示画像を生成する。これにより、前述の光学歪み等を抑制することができる。しかし、前述のように、光学歪み、色割れ、画面欠け等は、観視者の瞳孔位置にも依存する。このため、上記の方法では、観視者60によっては光学歪みや色割れが発生する場合がある。また、アイレンジ外に瞳孔が存在する場合は、画面欠けが発生する。さらに、色割れにより色毎に表示可能な領域が異なるため、一部の色が表示されない領域が発生する場合がある。
In this way, the displayed image is distorted according to the relative arrangement of the pupil and the projection unit. Further, when a pupil is present outside the eye range, a screen defect occurs.
On the other hand, for example, a method of preparing a plurality of pieces of unique information (for example, distortion correction coefficients) indicating individual differences between image display apparatuses is conceivable. In this method, a distortion correction coefficient corresponding to each individual is selected from a plurality of distortion correction coefficients, and a display image in which the target image is corrected is generated. Thereby, the above-mentioned optical distortion etc. can be suppressed. However, as described above, optical distortion, color breakup, screen loss, and the like also depend on the pupil position of the viewer. For this reason, in the above method, depending on the viewer 60, optical distortion and color breakup may occur. In addition, when a pupil is present outside the eye range, a screen defect occurs. Furthermore, since the displayable area differs for each color due to color breakup, an area where some colors are not displayed may occur.

これに対して、実施形態に係る画像表示装置101においては、画像処理部140は、観視者60の瞳孔位置(瞳孔150と反射部130との位置関係)に基づいて、対象画像の少なくとも一部(第1領域)の大きさや形状などを変更する。さらに、対象画像がカラー画像である場合には、第1〜第3色画素のそれぞれについて、補正処理を行う。これにより、観視者60の瞳孔位置が変化しても、光学歪みや色割れを抑制することができる。また、対象画像の少なくとも一部の変更は、対象画像のサイズ情報(アスペクト比)に基づいて行われる。これにより、観視像において、アスペクト比を保持することができる。さらに、画像処理部140は、観視者60の瞳孔位置に基づいて、前述の第1画像領域S1および第2画像領域S2を設定する。第2画像領域S2は、瞳孔位置がアイレンジ外にある時に、観視者60から画像を見ることができない領域に対応する。これにより、例えば、観視者60の瞳孔位置が変化しても、画面欠けを回避することができる。なお、Z軸方向については、ノーズパッド321を付け替えて反射部130の高さを調整してもよい。これにより、Z軸方向における画面欠けを抑制してもよい。   On the other hand, in the image display apparatus 101 according to the embodiment, the image processing unit 140 includes at least one target image based on the pupil position of the viewer 60 (the positional relationship between the pupil 150 and the reflecting unit 130). The size or shape of the part (first region) is changed. Further, when the target image is a color image, correction processing is performed for each of the first to third color pixels. Thereby, even if the pupil position of the viewer 60 changes, optical distortion and color breakup can be suppressed. Further, at least part of the target image is changed based on the size information (aspect ratio) of the target image. Thereby, the aspect ratio can be maintained in the viewing image. Further, the image processing unit 140 sets the first image region S1 and the second image region S2 described above based on the pupil position of the viewer 60. The second image region S2 corresponds to a region where the image cannot be viewed from the viewer 60 when the pupil position is outside the eye range. Thereby, for example, even if the pupil position of the viewer 60 changes, it is possible to avoid a lack of a screen. In addition, about the Z-axis direction, the nose pad 321 may be replaced and the height of the reflection part 130 may be adjusted. Thereby, screen chipping in the Z-axis direction may be suppressed.

以上説明したように、画像処理部140は、瞳孔位置に基づいて適応的に対象画像に補正処理を行う。これにより、画像の歪み、色割れ及び画面欠けが少なく、見やすい虚像を表示することができる。   As described above, the image processing unit 140 adaptively corrects the target image based on the pupil position. As a result, it is possible to display an easy-to-see virtual image with less image distortion, color breakup, and screen chipping.

以下、画像処理部140の具体例について、さらに説明する。
図2に表したように、画像処理部140は、画像補正部141と、設定部142と、を含む。画像補正部141及び設定部142は、例えば、画像処理部140(回路部)に組み込まれている。
Hereinafter, a specific example of the image processing unit 140 will be further described.
As illustrated in FIG. 2, the image processing unit 140 includes an image correction unit 141 and a setting unit 142. The image correction unit 141 and the setting unit 142 are incorporated in, for example, the image processing unit 140 (circuit unit).

設定部142は、瞳孔150と反射部130との位置関係(相対的配置)に関する瞳孔位置の情報を取得し、当該情報を画像補正部141へ出力する。   The setting unit 142 acquires information on the pupil position regarding the positional relationship (relative arrangement) between the pupil 150 and the reflecting unit 130, and outputs the information to the image correction unit 141.

例えば、画像表示装置101は、瞳孔位置を検知する第1検知部182(図1参照)をさらに含む。第1検知部182は、例えば保持部320に設けられる。第1検知部182には、赤外線センサ、可視カメラなどの任意のセンサを用いることができる。センサから得られる画像などの情報に基づいて、瞳孔位置を計測(推定)することができる。瞳孔位置の計測には、眼電位等を利用してもよい。例えば、瞳孔150に光が入射したときの眼電位の変化を計測する。光の入射方向や眼電位の変化に基づいて、瞳孔位置に関する情報を得ることができる。   For example, the image display apparatus 101 further includes a first detection unit 182 (see FIG. 1) that detects the pupil position. The first detection unit 182 is provided in the holding unit 320, for example. Arbitrary sensors, such as an infrared sensor and a visible camera, can be used for the 1st detection part 182. FIG. The pupil position can be measured (estimated) based on information such as an image obtained from the sensor. An electrooculogram or the like may be used for measuring the pupil position. For example, a change in electrooculogram when light enters the pupil 150 is measured. Information on the pupil position can be obtained based on the incident direction of light and changes in electrooculogram.

設定部142が設定する瞳孔位置の情報は、観視者60によって入力された情報に基づいてもよい。例えば、観視者60は、数値(例えば目盛の値)等の情報を、瞳孔150の位置に関する情報として、画像表示装置101に入力する。これにより、例えば、観視者60によって、画像補正部141における補正を変更することができる。例えば、コンピュータや携帯端末にソフト(アプリケーション)がインストールされ、コンピュータ又は携帯端末などを介して、観視者60から設定部142に情報が入力される。   The pupil position information set by the setting unit 142 may be based on information input by the viewer 60. For example, the viewer 60 inputs information such as a numerical value (for example, a scale value) to the image display apparatus 101 as information regarding the position of the pupil 150. Thereby, for example, the viewer 60 can change the correction in the image correction unit 141. For example, software (application) is installed in a computer or a mobile terminal, and information is input from the viewer 60 to the setting unit 142 via the computer or the mobile terminal.

画像補正部141は、設定部142から出力された瞳孔位置の情報に基づき、対象画像に対して歪み補正を行う。画像補正部141は、歪み補正によって生成された表示画像(補正画像)を表示部110へ出力する。   The image correction unit 141 performs distortion correction on the target image based on the pupil position information output from the setting unit 142. The image correction unit 141 outputs a display image (corrected image) generated by distortion correction to the display unit 110.

図6は、第1の実施形態に係る画像表示装置の画像補正部を例示するブロック図である。
図7(a)及び図7(b)は、第1の実施形態に係る画像表示装置における画像処理を例示する模式図である。
図6に表したように、画像補正部141は、座標変換部410と、スケール更新部420と、補正係数出力部430と、を含む。この例では、補正係数出力部430は、補正係数選択部431と、補正係数記憶部435と、をさらに含む。なお、図6において示したブロック図は、一例であり、必ずしも実際のモジュールとは一致しない場合がある。例えば、各ブロックの一部(例えば補正係数記憶部435など)が画像表示装置とは別に設けられてもよい。
FIG. 6 is a block diagram illustrating an image correction unit of the image display apparatus according to the first embodiment.
FIG. 7A and FIG. 7B are schematic views illustrating image processing in the image display device according to the first embodiment.
As illustrated in FIG. 6, the image correction unit 141 includes a coordinate conversion unit 410, a scale update unit 420, and a correction coefficient output unit 430. In this example, the correction coefficient output unit 430 further includes a correction coefficient selection unit 431 and a correction coefficient storage unit 435. Note that the block diagram shown in FIG. 6 is an example, and may not necessarily match an actual module. For example, a part of each block (for example, the correction coefficient storage unit 435) may be provided separately from the image display device.

補正係数記憶部435は、予め定められた複数の補正係数を記憶している。複数の補正係数のそれぞれは、複数の瞳孔位置のそれぞれに対応する。
この例では、複数の補正係数は、反射部130と瞳孔150との第1位置関係に対応した第1補正係数C1と、反射部130と瞳孔150との第2位置関係に対応した第2補正係数C2と、を含む。図6には、第1補正係数C1として、瞳孔が位置PAに配置された場合の係数(位置PA補正係数436)を示す。第2補正係数C2として、瞳孔が位置PBに配置された場合の係数(位置PB補正係数437)を示す。
The correction coefficient storage unit 435 stores a plurality of predetermined correction coefficients. Each of the plurality of correction coefficients corresponds to each of a plurality of pupil positions.
In this example, the plurality of correction coefficients are a first correction coefficient C1 corresponding to the first positional relationship between the reflecting unit 130 and the pupil 150, and a second correction corresponding to the second positional relationship between the reflecting unit 130 and the pupil 150. And a coefficient C2. FIG. 6 shows a coefficient (position PA correction coefficient 436) when the pupil is arranged at the position PA as the first correction coefficient C1. As the second correction coefficient C2, a coefficient (position PB correction coefficient 437) when the pupil is arranged at the position PB is shown.

歪み補正では、補正係数を用いて、対象画像を補正して表示画像を生成する。既に述べたように、対象画像は複数の画素によって表される。各画素の画像中の位置は、座標系(画像座標系)における座標によって表される。例えば、画像補正部141は、第1補正係数C1を用いて、複数の画素の座標を変換して表示画像を生成する。   In distortion correction, a display image is generated by correcting a target image using a correction coefficient. As already described, the target image is represented by a plurality of pixels. The position of each pixel in the image is represented by coordinates in a coordinate system (image coordinate system). For example, the image correction unit 141 generates a display image by converting the coordinates of a plurality of pixels using the first correction coefficient C1.

図7(a)に示すように、補正係数には、表示画像の各画素と対象画像の各画素との対応関係が保存されている。画像補正部141は、この対応関係を参照することで、表示画像に対応する対象画像の各画素の位置を取得し、表示画像を生成する。   As shown in FIG. 7A, the correction coefficient stores a correspondence relationship between each pixel of the display image and each pixel of the target image. The image correction unit 141 refers to this correspondence relationship, acquires the position of each pixel of the target image corresponding to the display image, and generates a display image.

対象画像が例えば赤、緑、青などの3原色で表される画像の場合は、図5(c)及び図5(d)に関して説明したように色毎に歪みが異なる。この場合は、色ごとに設定された3つの補正係数を用いて表示画像を生成する。
例えば、第1補正係数C1は、第1色画素用の第1色係数、第2色画素用の第2色係数、第3色画素用の第3色係数を含む。画像補正部141は、第1色係数に基づいて第1色画素の画像座標系における座標を変換し、第2色係数に基づいて第2色画素の画像座標系における座標を変換し、第3色係数に基づいて第3色画素の画像座標系における座標を変換する。
In the case where the target image is an image represented by three primary colors such as red, green, and blue, for example, as described with reference to FIG. 5C and FIG. In this case, a display image is generated using three correction coefficients set for each color.
For example, the first correction coefficient C1 includes a first color coefficient for the first color pixel, a second color coefficient for the second color pixel, and a third color coefficient for the third color pixel. The image correction unit 141 converts the coordinates of the first color pixel in the image coordinate system based on the first color coefficient, converts the coordinates of the second color pixel in the image coordinate system based on the second color coefficient, and The coordinates in the image coordinate system of the third color pixel are converted based on the color coefficient.

図7(a)では、対象画像の表示オブジェクトは、白色画像Iwによって表されている。白色画像Iwは、赤色画像Ir、青色画像Ib及び緑色画像Igの重ね合わせである。対象画像では、赤色画像Ir、青色画像Ib及び緑色画像Igのそれぞれの位置は、互いに同じである。一方、表示画像では、赤色画像Ir、青色画像Ib及び緑色画像Igのそれぞれの位置は、互いに異なり、ずれている。このように色成分毎に座標変換が行われる。   In FIG. 7A, the display object of the target image is represented by a white image Iw. The white image Iw is a superposition of the red image Ir, the blue image Ib, and the green image Ig. In the target image, the positions of the red image Ir, the blue image Ib, and the green image Ig are the same. On the other hand, in the display image, the positions of the red image Ir, the blue image Ib, and the green image Ig are different from each other and shifted. In this way, coordinate conversion is performed for each color component.

アイレンジ外に瞳孔位置がある場合は、画面が欠けないような補正係数を使用する。図7(b)は、アイレンジ外に瞳孔が位置する場合に、補正係数を用いて表示画像を生成した様子を示す。この場合に用いられる補正係数は、観視者60が見ることができない表示画像中の領域に関する情報を含む。すなわち、この場合に用いられる補正係数は、図3(b)に関して説明した第1画像領域S1および第2画像領域S2の情報を含む。図7(a)では、画像全体の画素の対応が保存された補正係数を用いて、対象画像の歪み補正を適用している。これに対して、図7(b)では、表示画像の左端の領域を使用せずに表示画像を生成する。これにより、図5(c)のように、左端の表示画像が欠けるような位置に瞳孔位置がある場合、画面欠けを回避することができる。   When there is a pupil position outside the eye range, a correction coefficient is used so that the screen is not lost. FIG. 7B shows a state where a display image is generated using the correction coefficient when the pupil is located outside the eye range. The correction coefficient used in this case includes information regarding a region in the display image that the viewer 60 cannot see. That is, the correction coefficient used in this case includes information on the first image area S1 and the second image area S2 described with reference to FIG. In FIG. 7A, distortion correction of the target image is applied using a correction coefficient in which the correspondence of pixels of the entire image is stored. In contrast, in FIG. 7B, the display image is generated without using the leftmost region of the display image. Accordingly, as shown in FIG. 5C, when the pupil position is at a position where the display image at the left end is missing, it is possible to avoid the lack of the screen.

図8(a)〜図8(g)は、第1の実施形態に係る画像表示装置に用いられる補正係数を例示する模式図である。
補正係数の設定の際には、例えば、観視像をカメラを用いて撮像する。観視像の画像の各画素と表示画像の各画素との対応関係から、補正係数を定めることができる。表示画像及び対象画像が赤、緑、青などの3原色で表される画像の場合は、画素の対応関係を色毎に保存する。
FIG. 8A to FIG. 8G are schematic views illustrating correction coefficients used in the image display apparatus according to the first embodiment.
When setting the correction coefficient, for example, a visual image is captured using a camera. The correction coefficient can be determined from the correspondence relationship between each pixel of the visual image and each pixel of the display image. In the case where the display image and the target image are images represented by three primary colors such as red, green, and blue, the pixel correspondence is stored for each color.

図8(a)は、表示画像のうち第1色(この例では赤色「R」)によって表される画像Raを示す。この画像は、例えば、対象画像の第1色画素から生成される。
図8(b)は、表示画像のうち第2色(この例では緑色「G」)によって表される画像Gaを示す。この画像は、例えば、対象画像の第2色画素から生成される。
図8(c)は、表示画像のうち第3色(この例では青色「B」)によって表される画像Baを示す。この画像は、例えば、対象画像の第3色画素から生成される。
FIG. 8A shows an image Ra represented by the first color (red “R” in this example) in the display image. This image is generated from the first color pixel of the target image, for example.
FIG. 8B shows an image Ga represented by the second color (green “G” in this example) in the display image. This image is generated from the second color pixel of the target image, for example.
FIG. 8C shows an image Ba represented by the third color (blue “B” in this example) in the display image. This image is generated from, for example, the third color pixel of the target image.

観視者60が見る観視像は、複数の色成分に対応する複数の色像を含む。例えば、観視像は、第1色画素に対応した第1色像と、第2色画素に対応した第2色像と、第3色画素に対応した第3色像と、の重ね合わせである。
図8(d)は、図8(a)の画像Raの情報を含む赤色光によって形成される第1色像Rbを示す。
図8(e)は、図8(b)の画像Gaの情報を含む緑色光によって形成される第2色像Gbを示す。
図8(f)は、図8(c)の画像Baの情報を含む青色光によって形成される第3色像Bbを示す。
The viewing image viewed by the viewer 60 includes a plurality of color images corresponding to a plurality of color components. For example, the viewing image is an overlay of a first color image corresponding to the first color pixel, a second color image corresponding to the second color pixel, and a third color image corresponding to the third color pixel. is there.
FIG. 8D shows a first color image Rb formed by red light including the information of the image Ra in FIG.
FIG. 8E shows a second color image Gb formed by green light including the information of the image Ga in FIG.
FIG. 8F shows a third color image Bb formed by blue light including information on the image Ba in FIG.

上述したとおり、色割れの影響により、色毎に観視像と表示画像との対応関係が異なる。例えば、図8(d)〜図8(f)に表したように、第1〜第3色像が表示される領域は、互いに異なる。観視像において、第1〜第3色像が互いに重なる領域では、カラー表示が可能であるが、それ以外の領域ではカラー表示ができない。そこで、3原色の表示領域を、カラー表示可能な領域へ統合する。図8(d)〜図8(f)に示すように、各色の参照位置領域の内接矩形Rc、Gc、Bcを求める。そして、図8(g)に示すように、各内接矩形の積領域を求める。その積領域の大きさによって各色の参照位置を正規化する。これにより、カラー表示可能な領域(アスペクト比a:1)を参照することができる補正係数を生成する。   As described above, the correspondence between the viewing image and the display image is different for each color due to the influence of color breakup. For example, as shown in FIGS. 8D to 8F, the areas where the first to third color images are displayed are different from each other. In the viewing image, color display is possible in a region where the first to third color images overlap each other, but color display cannot be performed in other regions. Therefore, the display areas of the three primary colors are integrated into areas capable of color display. As shown in FIGS. 8D to 8F, the inscribed rectangles Rc, Gc, and Bc of the reference position area of each color are obtained. Then, as shown in FIG. 8G, the product area of each inscribed rectangle is obtained. The reference position of each color is normalized by the size of the product area. Thus, a correction coefficient that can refer to a color displayable area (aspect ratio a: 1) is generated.

アスペクト比a:1は、補正係数に保存されているものとする。例えば、第1補正係数C1は、複数の色像(第1〜第3色像)が互いに重なる観視像中の重複領域Sa(積領域)に関する情報を含む。具体的には、第1補正係数C1は、重複領域Saの横方向に沿った長さと、重複領域Saの縦方向に沿った長さと、の比(a:1)の情報を含む。これにより、例えば、後述する処理によって歪み補正時に対象画像のアスペクト比を維持することができる。   It is assumed that the aspect ratio a: 1 is stored in the correction coefficient. For example, the first correction coefficient C1 includes information regarding the overlapping region Sa (product region) in the viewing image in which a plurality of color images (first to third color images) overlap each other. Specifically, the first correction coefficient C1 includes information on the ratio (a: 1) of the length along the horizontal direction of the overlapping region Sa and the length along the vertical direction of the overlapping region Sa. Thereby, for example, the aspect ratio of the target image can be maintained at the time of distortion correction by a process described later.

以上の処理により、RGBの3色のそれぞれに関して、表示画像上の座標位置と正規化座標上の位置との対応関係が得られる。   With the above processing, the correspondence between the coordinate position on the display image and the position on the normalized coordinate is obtained for each of the three colors RGB.

なお、カラー表示可能な領域以外において、三色同時に表現できない領域は、単色または2色を表示可能な領域として定義されてもよい。補正係数は、単色もしくは二色表示可能な領域の情報を含んでいてもよい。すなわち、例えば、第1補正係数C1は、複数の色像(第1色像と第2色像)が互いに重ならない観視像中の非重複領域Sbに関する情報をさらに含んでいてもよい。   It should be noted that areas other than the color displayable area that cannot be expressed simultaneously with three colors may be defined as areas capable of displaying a single color or two colors. The correction coefficient may include information on an area that can be displayed in a single color or two colors. That is, for example, the first correction coefficient C1 may further include information on the non-overlapping region Sb in the viewing image in which a plurality of color images (first color image and second color image) do not overlap each other.

例えば、赤色の場合、図8(d)に示すように、カラー表示可能な領域とは別に、単色の表示が可能な領域Rdの情報が補正係数に保存されていても良い。補正係数は、赤以外の単色を表示可能な領域の情報、または、2色の組合せを表示可能な領域の情報を含んでいてもよい。   For example, in the case of red, as shown in FIG. 8D, information on a region Rd capable of displaying a single color may be stored in the correction coefficient, in addition to the region capable of color display. The correction coefficient may include information on an area where a single color other than red can be displayed, or information on an area where a combination of two colors can be displayed.

補正係数は、曲線表現のパラメータを含んでもよい。これにより、補正画像の画素と観測画像の画素との対応を計算することができる。   The correction coefficient may include a curve expression parameter. Thereby, the correspondence between the pixel of the corrected image and the pixel of the observation image can be calculated.

図6において、補正係数選択部431は、設定部142から、瞳孔と反射部130との相対的配置に関する位置情報を取得する。補正係数選択部431は、取得した位置情報に応じた補正係数を選択する。   In FIG. 6, the correction coefficient selection unit 431 acquires position information related to the relative arrangement of the pupil and the reflection unit 130 from the setting unit 142. The correction coefficient selection unit 431 selects a correction coefficient according to the acquired position information.

スケール更新部420は、補正係数出力部430から選択された補正係数を取得する。スケール更新部420は、対象画像の大きさと、取得された補正係数の参照先座標領域のアスペクト比と、に基づいて、対象画像のアスペクト比が維持された状態で、補正係数をスケーリングする。そして、スケール更新部420は、スケールが更新された補正係数を座標変換部410に出力する。スケール更新部420の処理の詳細については、後述する。座標変換部410は、対象画像と、スケール更新部420から得られた補正係数と、を用いて補正画像を生成する。   The scale update unit 420 acquires the correction coefficient selected from the correction coefficient output unit 430. The scale update unit 420 scales the correction coefficient based on the size of the target image and the aspect ratio of the reference coordinate area of the acquired correction coefficient while maintaining the aspect ratio of the target image. Then, the scale update unit 420 outputs the correction coefficient whose scale has been updated to the coordinate conversion unit 410. Details of the processing of the scale update unit 420 will be described later. The coordinate conversion unit 410 generates a correction image using the target image and the correction coefficient obtained from the scale update unit 420.

例えば、補正係数出力部430は、反射部130と瞳孔150との第1位置関係に基づいて、複数の補正係数から第1補正係数C1を選択し、出力する。スケール更新部420は、対象画像の大きさ(サイズ情報)に基づいて第1補正係数C1を更新する。座標変換部410は、更新後の第1補正係数C1を用いて、対象画像の各画素の座標を変換する。   For example, the correction coefficient output unit 430 selects and outputs the first correction coefficient C1 from the plurality of correction coefficients based on the first positional relationship between the reflection unit 130 and the pupil 150. The scale update unit 420 updates the first correction coefficient C1 based on the size (size information) of the target image. The coordinate conversion unit 410 converts the coordinates of each pixel of the target image using the updated first correction coefficient C1.

図9は、第1の実施形態に係る画像表示装置の処理を例示するフローチャートである。 ステップS510では、設定部142に瞳孔位置に関する情報が入力される。設定部142は、入力された情報を瞳孔位置の情報として画像補正部141に出力する。瞳孔位置は、例えば、人種、地域、年齢等によって異なる。瞳孔位置の情報は、例えば、ノーズパットなど一意に位置が定まる基準位置に対する相対的配置で表現される。相対的配置は、3次元座標によって表現されてもよい。また、瞳孔位置の情報は、瞳孔の位置だけでなく姿勢を含んでもよい。   FIG. 9 is a flowchart illustrating the processing of the image display apparatus according to the first embodiment. In step S <b> 510, information regarding the pupil position is input to the setting unit 142. The setting unit 142 outputs the input information to the image correction unit 141 as pupil position information. The pupil position varies depending on, for example, race, region, age, and the like. The information on the pupil position is expressed by a relative arrangement with respect to a reference position where the position is uniquely determined, such as a nose pad. The relative arrangement may be expressed by three-dimensional coordinates. The information on the pupil position may include not only the position of the pupil but also the posture.

ステップS511では、対象画像が入力される。画像の形式やフォーマットの種類は任意である。例えば、画像は、ビットマップ画像である。画像は、カラー画像及びグレースケール画像のいずれでもよい。   In step S511, a target image is input. The image format and format type are arbitrary. For example, the image is a bitmap image. The image may be either a color image or a gray scale image.

ステップS520では、補正係数選択部431は、瞳孔位置の情報に応じて、補正係数記憶部435に登録されている補正係数を選択する。補正係数選択部431は、選択した補正係数をスケール更新部420へ出力する。
例えば、位置PAの補正係数と位置PBの補正係数とが補正係数記憶部に登録されている。観視者60の瞳孔位置がPAの場合、位置PAの補正係数が選択される。もし、観視者60の瞳孔位置に対応した補正係数が補正係数記憶部に登録されていない場合、補正係数選択部431は、ユークリッド距離のような評価値を用いて、当該瞳孔位置に最も近い位置に対応した補正係数を選択する。
In step S520, the correction coefficient selection unit 431 selects a correction coefficient registered in the correction coefficient storage unit 435 according to the pupil position information. The correction coefficient selection unit 431 outputs the selected correction coefficient to the scale update unit 420.
For example, the correction coefficient for the position PA and the correction coefficient for the position PB are registered in the correction coefficient storage unit. When the pupil position of the viewer 60 is PA, the correction coefficient for the position PA is selected. If the correction coefficient corresponding to the pupil position of the viewer 60 is not registered in the correction coefficient storage unit, the correction coefficient selection unit 431 uses the evaluation value such as the Euclidean distance and is closest to the pupil position. Select the correction coefficient corresponding to the position.

ステップS530では、スケール更新部420は、対象画像の画像サイズを用いて、座標変換部410で使用するスケールを計算し、補正係数を更新する。補正係数は、矩形領域で正規化されている。そこで、対象画像に歪み補正を適用する場合は、正規化座標系から画像座標系へのスケールを求める。このとき、補正係数のカラー表示可能な矩形領域に対象画像が収まるようにスケールを計算する。これにより、対象画像におけるアスペクト比を維持した状態で、画像を表示することができる。   In step S530, the scale update unit 420 calculates the scale used by the coordinate conversion unit 410 using the image size of the target image, and updates the correction coefficient. The correction coefficient is normalized in a rectangular area. Therefore, when applying distortion correction to the target image, a scale from the normalized coordinate system to the image coordinate system is obtained. At this time, the scale is calculated so that the target image fits in the rectangular area of the correction coefficient that can be displayed in color. As a result, the image can be displayed while maintaining the aspect ratio of the target image.

図10(a)〜図10(f)は、第1の実施形態に係る画像表示装置の処理を例示する模式図である。
図10(a)は、対象画像A4を例示している。対象画像A4の幅(横方向に沿った長さ)は、WINであり、対象画像A4の高さ(縦方向に沿った長さ)は、HINである。このとき、補正係数の正規化座標系から画像座標系へのスケールsは、次の式(1)により計算できる。
s=max(WIN/a,HIN) ・・・(1)
aは、前述のカラー表示可能な矩形領域のアスペクト比である。maxは、複数の引数のうちの最大値を表す。得られたスケールsを用いて補正係数の正規化座標をスケーリングして、補正係数を更新する。
FIG. 10A to FIG. 10F are schematic views illustrating processing of the image display device according to the first embodiment.
FIG. 10A illustrates the target image A4. The width of the target image A4 (length along the horizontal direction) is W IN, the height of the target image A4 (length along the longitudinal direction) is H IN. At this time, the scale s from the normalized coordinate system to the image coordinate system of the correction coefficient can be calculated by the following equation (1).
s = max (W IN / a, H IN ) (1)
a is the aspect ratio of the rectangular area capable of color display described above. max represents the maximum value among a plurality of arguments. The correction coefficient is updated by scaling the normalized coordinates of the correction coefficient using the obtained scale s.

図10(b)は、得られたスケールsを用いて更新された補正係数Caを例示する。図10(b)に示すように、補正係数は、アスペクト比を維持した状態でスケーリングされる。図10(b)の例では、対象画像のアスペクト比とカラー表示可能領域のアスペクト比との違いにより、補正係数のスケーリング時に、歪み補正に使用されない領域が発生する。歪み補正に使用されない領域は、例えば、上部の矩形領域920及び下部の矩形領域930である。歪み補正に使用されない領域には、対象画像とは異なる情報を提示しても良い。例えば、現在時刻や日時などを含む情報が提示される。   FIG. 10B illustrates the correction coefficient Ca updated using the obtained scale s. As shown in FIG. 10B, the correction coefficient is scaled while maintaining the aspect ratio. In the example of FIG. 10B, due to the difference between the aspect ratio of the target image and the aspect ratio of the color displayable area, an area that is not used for distortion correction occurs when the correction coefficient is scaled. The areas not used for distortion correction are, for example, an upper rectangular area 920 and a lower rectangular area 930. Information different from the target image may be presented in an area that is not used for distortion correction. For example, information including the current time and date is presented.

その後、ステップS540において、座標変換部410は、対象画像と更新された補正係数とを用いて、対象画像を補正した表示画像を算出する。図10(c)は、更新された補正係数Caを用いて図10(a)の対象画像A4の画素の座標を変換することによって得られる表示画像A5を例示している。   Thereafter, in step S540, the coordinate conversion unit 410 calculates a display image obtained by correcting the target image using the target image and the updated correction coefficient. FIG. 10C illustrates a display image A5 obtained by converting the coordinates of the pixel of the target image A4 in FIG. 10A using the updated correction coefficient Ca.

図10(d)は、図10(a)と同様の対象画像A4を例示している。図10(e)は、図10(b)に関する説明と同様のスケーリングによって更新された補正係数Cbを例示する。補正係数Cbに対応する瞳孔位置は、補正係数Caに対応する瞳孔位置と異なる。補正係数Caに対応する瞳孔位置は、アイレンジ内に存在し、補正係数Cbに対応する瞳孔位置は、アイレンジ外に存在する。   FIG. 10D illustrates the same target image A4 as that in FIG. FIG. 10E illustrates the correction coefficient Cb updated by scaling similar to that described with reference to FIG. The pupil position corresponding to the correction coefficient Cb is different from the pupil position corresponding to the correction coefficient Ca. The pupil position corresponding to the correction coefficient Ca exists in the eye range, and the pupil position corresponding to the correction coefficient Cb exists outside the eye range.

図10(f)は、更新された補正係数Cbを用いて、図10(d)の対象画像A4の画素の座標を変換することによって得られる表示画像A6を例示している。表示画像A6は、図10(c)の表示画像A5とは異なり、領域940を含む。領域940は、例えば表示画像上の使用しない領域であり、図3(b)に関して説明した第2画像領域S2に相当する。領域940に関する情報は、補正係数Cbが保持している。このため、補正係数Cbを用いた処理は、ステップS530においてもステップS540においても、補正係数Caを用いた処理と同様である。   FIG. 10F illustrates the display image A6 obtained by converting the pixel coordinates of the target image A4 in FIG. 10D using the updated correction coefficient Cb. Unlike the display image A5 of FIG. 10C, the display image A6 includes a region 940. The area 940 is an unused area on the display image, for example, and corresponds to the second image area S2 described with reference to FIG. Information regarding the region 940 is held by the correction coefficient Cb. For this reason, the process using the correction coefficient Cb is the same as the process using the correction coefficient Ca in both step S530 and step S540.

以上の第1の実施形態によれば、画像表示装置101は、画面欠け、及び、瞳孔位置に応じて生じる収差による影響を抑制するように、画像補正部141によって対象画像を補正する。これにより、画像の歪み、色割れ、画面欠けが少なく、見やすい虚像を表示することができる。   According to the first embodiment described above, the image display apparatus 101 corrects the target image by the image correction unit 141 so as to suppress the influence of the screen defect and the aberration caused according to the pupil position. As a result, it is possible to display an easy-to-see virtual image with less image distortion, color breakup, and missing screen.

(第2の実施形態)
図11は、第2の実施形態に係る画像表示装置の画像補正部を例示するブロック図である。
本実施形態に係る画像表示装置102は、第1の実施形態に係る画像表示装置101と同様に、表示部110、光学部120及び反射部130等を含む。これらは、第1の実施形態と同様である。第2の実施形態は、画像処理部において第1の実施形態と異なる。
(Second Embodiment)
FIG. 11 is a block diagram illustrating an image correction unit of the image display apparatus according to the second embodiment.
Similar to the image display device 101 according to the first embodiment, the image display device 102 according to the present embodiment includes a display unit 110, an optical unit 120, a reflection unit 130, and the like. These are the same as those in the first embodiment. The second embodiment differs from the first embodiment in the image processing unit.

画像表示装置102の画像処理部は、画像補正部141b及び設定部142を含む。図11に表したように画像補正部141bは、座標変換部410と、スケール更新部420と、補正係数出力部430bと、を含む。補正係数出力部430bは、補正係数計算部432と、補正係数選択部433と、補正係数記憶部435と、含む。座標変換部410、スケール更新部420及び補正係数記憶部435には、第1の実施形態と同様の説明を適用できる。なお、図11に示したブロック図は、一例であり、必ずしも実際のモジュールとは一致しない場合がある。   The image processing unit of the image display apparatus 102 includes an image correction unit 141 b and a setting unit 142. As illustrated in FIG. 11, the image correction unit 141b includes a coordinate conversion unit 410, a scale update unit 420, and a correction coefficient output unit 430b. The correction coefficient output unit 430b includes a correction coefficient calculation unit 432, a correction coefficient selection unit 433, and a correction coefficient storage unit 435. The same description as in the first embodiment can be applied to the coordinate conversion unit 410, the scale update unit 420, and the correction coefficient storage unit 435. Note that the block diagram shown in FIG. 11 is an example, and may not necessarily match an actual module.

図12は、第2の実施形態に係る画像表示装置の画像補正部における処理を例示するフローチャートである。
ステップS510において、第1の実施形態と同様に、画像補正部141bは、瞳孔位置の情報を取得する。
ステップS511において、第1の実施形態と同様に、画像補正部141bは対象画像を取得する。
FIG. 12 is a flowchart illustrating processing in the image correction unit of the image display apparatus according to the second embodiment.
In step S510, as in the first embodiment, the image correction unit 141b acquires pupil position information.
In step S511, as in the first embodiment, the image correction unit 141b acquires a target image.

ステップS521において、補正係数選択部433は、瞳孔位置に応じて補正係数記憶部435から複数の補正係数を選択する。例えば、補正係数選択部は、瞳孔位置に関する評価値に基づいて、補正係数を選択する。瞳孔位置が3次元座標で表現される場合、評価値にはユークリッド距離を用いることができる。補正係数選択部433は、複数の補正係数の中から、ステップS510において取得された瞳孔位置に近い位置に対応した補正係数を取得する。例えば、補正係数選択部433は、ユークリッド距離が近い順に、複数の補正係数を選択する。選択される補正係数の数は、2以上の任意の数でよい。   In step S521, the correction coefficient selection unit 433 selects a plurality of correction coefficients from the correction coefficient storage unit 435 according to the pupil position. For example, the correction coefficient selection unit selects a correction coefficient based on the evaluation value related to the pupil position. When the pupil position is expressed by three-dimensional coordinates, the Euclidean distance can be used as the evaluation value. The correction coefficient selection unit 433 acquires a correction coefficient corresponding to a position close to the pupil position acquired in step S510 from the plurality of correction coefficients. For example, the correction coefficient selection unit 433 selects a plurality of correction coefficients in order from the shortest Euclidean distance. The number of correction coefficients selected may be any number greater than or equal to two.

ステップS525において、補正係数計算部432は、補正係数選択部433によって選択された複数の補正係数に基づき、バイリニア補間などの線形補間手法によって、瞳孔位置での補正係数を生成する。生成された補正係数は、スケール更新部420へ出力される。   In step S525, the correction coefficient calculation unit 432 generates a correction coefficient at the pupil position by a linear interpolation method such as bilinear interpolation based on the plurality of correction coefficients selected by the correction coefficient selection unit 433. The generated correction coefficient is output to the scale update unit 420.

その後、ステップS530において、第1の実施形態と同様に、スケール更新部420は、補正係数を更新する。ステップS540において、第1の実施形態と同様に、座標変換部410は、対象画像の画素の座標を変換して、表示画像を生成する。   Thereafter, in step S530, as in the first embodiment, the scale update unit 420 updates the correction coefficient. In step S540, as in the first embodiment, the coordinate conversion unit 410 converts the coordinates of the pixels of the target image to generate a display image.

以上の処理について、瞳孔150が第1位置にある場合を例として説明する。このとき、瞳孔150と反射部130との位置関係は、第1位置関係であるとする。
補正係数記憶部435は、例えば、第2補正係数と、第3補正係数と、を含む。第2補正係数は、瞳孔150の第2位置に対応し、瞳孔150と反射部130との第2位置関係に対応する。第3補正係数は、瞳孔150の第3位置に対応し、瞳孔150と反射部130との第3位置関係に対応する。例えば、補正係数記憶部435に記憶された各補正係数が対応する瞳孔位置のうち、第2位置は、第1位置に最も近い位置であり、第3位置は、第1位置に2番目に近い位置である。
The above processing will be described as an example where the pupil 150 is in the first position. At this time, it is assumed that the positional relationship between the pupil 150 and the reflecting unit 130 is the first positional relationship.
The correction coefficient storage unit 435 includes, for example, a second correction coefficient and a third correction coefficient. The second correction coefficient corresponds to the second position of the pupil 150 and corresponds to the second positional relationship between the pupil 150 and the reflecting unit 130. The third correction coefficient corresponds to the third position of the pupil 150 and corresponds to the third positional relationship between the pupil 150 and the reflecting unit 130. For example, among the pupil positions corresponding to the respective correction coefficients stored in the correction coefficient storage unit 435, the second position is the position closest to the first position, and the third position is the second closest to the first position. Position.

このとき、補正係数選択部433は、第1位置関係に基づいて、補正係数記憶部435から第2補正係数及び第3補正係数を選択する。そして、補正係数計算部432は、第2補正係数及び第3補正係数を用いて、第1位置関係に対応した第1補正係数を算出する。その後、スケール更新部420は、算出された第1補正係数を更新し、座標変換部410は、更新された第1補正係数を用いて、対象画像の座標変換を行う。   At this time, the correction coefficient selection unit 433 selects the second correction coefficient and the third correction coefficient from the correction coefficient storage unit 435 based on the first positional relationship. Then, the correction coefficient calculation unit 432 calculates a first correction coefficient corresponding to the first positional relationship using the second correction coefficient and the third correction coefficient. Thereafter, the scale update unit 420 updates the calculated first correction coefficient, and the coordinate conversion unit 410 performs coordinate conversion of the target image using the updated first correction coefficient.

以上説明したように、予め定められた複数の補正係数に基づいて、瞳孔位置に対応した補正係数を計算してもよい。これにより、第1の実施形態と同様に、画像の歪み、色割れ、画面欠けが少なく、見やすい虚像を表示することができる。   As described above, a correction coefficient corresponding to the pupil position may be calculated based on a plurality of predetermined correction coefficients. As a result, as in the first embodiment, it is possible to display an easy-to-see virtual image with less image distortion, color breakup, and screen loss.

(第3の実施形態)
図13は、第3の実施形態に係る画像表示装置の画像補正部を例示するブロック図である。
本実施形態に係る画像表示装置103は、第1の実施形態に係る画像表示装置101と同様に、表示部110、光学部120及び反射部130等を含む。これらは、第1の実施形態と同様である。第3の実施形態は、画像処理部において第1の実施形態と異なる。
(Third embodiment)
FIG. 13 is a block diagram illustrating an image correction unit of an image display device according to the third embodiment.
Similar to the image display device 101 according to the first embodiment, the image display device 103 according to the present embodiment includes a display unit 110, an optical unit 120, a reflection unit 130, and the like. These are the same as those in the first embodiment. The third embodiment is different from the first embodiment in the image processing unit.

画像表示装置103の画像処理部は、画像補正部141cと設定部142とを含む。図13に表したように、画像補正部141cは、座標変換部410と、スケール更新部421と、補正係数出力部430cと、を含む。座標変換部410は、第1の実施形態と同様である。補正係数出力部430cは、前述の補正係数出力部430または430bと同様である。なお、図13に示したブロック図は、一例であり、必ずしも実際のモジュールとは一致しない場合がある。   The image processing unit of the image display device 103 includes an image correction unit 141 c and a setting unit 142. As illustrated in FIG. 13, the image correction unit 141c includes a coordinate conversion unit 410, a scale update unit 421, and a correction coefficient output unit 430c. The coordinate conversion unit 410 is the same as that in the first embodiment. The correction coefficient output unit 430c is the same as the correction coefficient output unit 430 or 430b described above. Note that the block diagram shown in FIG. 13 is an example, and may not necessarily match an actual module.

図14は、第3の実施形態に係る画像処理装置の画像補正部における処理を例示するフローチャートである。
ステップS510において、第1の実施形態と同様に、画像補正部141cは、瞳孔位置の情報を取得する。
ステップS511において、第1の実施形態と同様に、画像補正部141cは、対象画像を取得する。
FIG. 14 is a flowchart illustrating processing in the image correction unit of the image processing apparatus according to the third embodiment.
In step S510, as in the first embodiment, the image correction unit 141c acquires pupil position information.
In step S511, as in the first embodiment, the image correction unit 141c acquires a target image.

本実施形態においては、設定部142は、第1の実施形態で述べた瞳孔位置情報の他に、表示領域に関する情報を設定する。表示領域は、表示画像(補正画像)中において、対象画像の情報が表示される領域である。ステップS512において、画像補正部141cは、設定された表示領域に関する情報(表示領域情報)を取得する。   In the present embodiment, the setting unit 142 sets information regarding the display area in addition to the pupil position information described in the first embodiment. The display area is an area in which information of the target image is displayed in the display image (corrected image). In step S512, the image correction unit 141c acquires information (display area information) regarding the set display area.

ステップS526において、第1または2の実施形態と同様に、補正係数出力部430cは、補正係数をスケール更新部421へ出力する。   In step S526, as in the first or second embodiment, the correction coefficient output unit 430c outputs the correction coefficient to the scale update unit 421.

ステップS531において、スケール更新部421は、対象画像のサイズ情報(幅、高さ)と表示領域情報とに基づいて、補正係数出力部430cから出力された補正係数をスケーリングする。ステップS540において、第1の実施形態と同様に、座標変換が行われ表示画像(補正画像)が生成される。   In step S531, the scale update unit 421 scales the correction coefficient output from the correction coefficient output unit 430c based on the size information (width and height) of the target image and the display area information. In step S540, as in the first embodiment, coordinate conversion is performed and a display image (corrected image) is generated.

ステップS531及びS540の処理の例について、さらに説明する。
図15(a)〜図15(c)は、第3の実施形態に係る画像処理装置の画像補正部における処理を例示する模式図である。
図15(a)〜図15(c)は、補正係数のカラー表示可能領域へ対象画像を配置する方法を例示している。
図15(a)は、対象画像A7を例示する。図15(b)は、スケール更新部421によって画像座標系にスケーリングされた補正係数Ccを例示する。図15(c)は、補正係数Ccを用いて、対象画像A7の画素の座標を変換することによって得られる表示画像A8(補正画像)を例示する。
An example of the processing in steps S531 and S540 will be further described.
FIG. 15A to FIG. 15C are schematic views illustrating processing in the image correction unit of the image processing apparatus according to the third embodiment.
FIGS. 15A to 15C illustrate a method of arranging the target image in the color displayable area of the correction coefficient.
FIG. 15A illustrates the target image A7. FIG. 15B illustrates the correction coefficient Cc scaled to the image coordinate system by the scale update unit 421. FIG. 15C illustrates a display image A8 (corrected image) obtained by converting the coordinates of the pixel of the target image A7 using the correction coefficient Cc.

ステップS531では、ステップS512で取得した表示領域情報に応じて、表示領域として使用される領域が設定され、その情報が座標変換部410へ出力される。表示領域情報は、具体的には、例えば、対象画像のサイズの拡大率(又は縮小率)、及び、オフセット(カラー表示可能な領域における表示開始位置など)である。図15(a)〜図15(c)は、事前に設定された拡大率とオフセットに基づいて、スケーリングされた補正係数の座標系に対象画像を対応付ける様子を示す。   In step S531, an area used as a display area is set according to the display area information acquired in step S512, and the information is output to the coordinate conversion unit 410. Specifically, the display area information is, for example, an enlargement ratio (or reduction ratio) of the size of the target image and an offset (such as a display start position in a color displayable area). FIGS. 15A to 15C show how the target image is associated with the coordinate system of the scaled correction coefficient based on the preset enlargement ratio and offset.

第1の実施例におけるスケール更新部420と同様に、補正係数は、定数sによってスケーリングされる。さらに、拡大率とオフセットとに基づいて、対象画像が補正係数に対応付けられる。図15(a)〜図15(c)の例では、対象画像を0.5倍に縮小し、補正係数の画像座標系において、表示開始位置を(0,0)の位置に対応付けしている。これにより、図15(c)に表したように、表示画像A8は、対象画像の情報を含む表示領域1410と、非表示領域1411と、を含む。非表示領域1411は、表示画像A8中の、表示領域1410以外の領域である。非表示領域1411では、対象画像の情報は表示されない。表示領域を設定した上で、歪み補正を適用することにより、画面上部に映像を提示することができる。   Similar to the scale update unit 420 in the first embodiment, the correction coefficient is scaled by a constant s. Further, the target image is associated with the correction coefficient based on the enlargement factor and the offset. In the example of FIGS. 15A to 15C, the target image is reduced to 0.5 times, and the display start position is associated with the position (0, 0) in the image coordinate system of the correction coefficient. Yes. Accordingly, as illustrated in FIG. 15C, the display image A <b> 8 includes a display area 1410 including information on the target image and a non-display area 1411. The non-display area 1411 is an area other than the display area 1410 in the display image A8. In the non-display area 1411, information on the target image is not displayed. By setting the display area and applying distortion correction, an image can be presented at the top of the screen.

なお、表示領域に関する情報が何も設定されない場合は、スケール更新部421は、第1の実施形態のスケール更新部420と同様の処理を行う。   When no information regarding the display area is set, the scale update unit 421 performs the same process as the scale update unit 420 of the first embodiment.

表示領域情報(対象画像の拡大率およびオフセット)を変化させることによって、表示画像A8の大きさに対する表示領域1410の大きさ、及び、表示画像A8における表示領域1410の位置を変化させることができる。   By changing the display area information (magnification and offset of the target image), the size of the display area 1410 relative to the size of the display image A8 and the position of the display area 1410 in the display image A8 can be changed.

第1の実施形態で述べたとおり、瞳孔位置に応じて歪み補正を適用した画像を表示することが望まれる。観視者60にとっての適切な表示位置は様々であり、目的に応じて適切な表示位置が異なる場合がある。例えば、使用者が虚像を見ながら作業を行う場合、画面中央(例えば、使用者の視界の中央)に映像が表示されると、手元が見えにくい状態となることがある。このため、作業効率が低下する可能性がある。   As described in the first embodiment, it is desirable to display an image to which distortion correction is applied according to the pupil position. There are various appropriate display positions for the viewer 60, and the appropriate display position may differ depending on the purpose. For example, when a user performs an operation while looking at a virtual image, if an image is displayed at the center of the screen (for example, the center of the user's field of view), the hand may be difficult to see. For this reason, work efficiency may fall.

これに対して、本実施形態では、対象画像の表示に使用される表示領域の位置及び大きさは、表示領域情報によって可変である。これにより、例えば、映像の表示位置が適切に設定された上で、画像補正部141により画面が制御され、使用者に所望の画像を表示することができる。   On the other hand, in the present embodiment, the position and size of the display area used for displaying the target image are variable depending on the display area information. Thereby, for example, after the display position of the video is appropriately set, the screen is controlled by the image correction unit 141, and a desired image can be displayed to the user.

設定部142が設定する表示領域情報は、観視者60によって入力された情報に基づいてもよい。例えば、観視者60が表示領域を示す情報(例えば目盛の値等)を画像表示装置103に入力する。これにより、例えば、観視者60によって、画像補正部141cにおける画像の表示位置を変更することができる。例えば、コンピュータや携帯端末にソフト(アプリケーション)がインストールされ、コンピュータ又は携帯端末などを介して、観視者60から画像処理部(回路部)に情報が入力される。また、予め複数の表示方法がメモリに保存され、観視者60が、保存された表示方法から1つを選択してもよい。例えば、選択した表示方法に対応して、設定値が入力される。表示方法としては、例えば、右端のみに表示を行う方法、下端のみに表示を行う方法などがある。以上により、観視者60は、表示領域の大きさや位置を適宜設定することができる。   The display area information set by the setting unit 142 may be based on information input by the viewer 60. For example, the viewer 60 inputs information indicating the display area (for example, a scale value) to the image display device 103. Thereby, for example, the viewer 60 can change the image display position in the image correction unit 141c. For example, software (application) is installed in a computer or a mobile terminal, and information is input from the viewer 60 to the image processing unit (circuit unit) via the computer or the mobile terminal. A plurality of display methods may be stored in the memory in advance, and the viewer 60 may select one from the stored display methods. For example, a set value is input corresponding to the selected display method. Examples of the display method include a method of displaying only at the right end and a method of displaying only at the lower end. As described above, the viewer 60 can appropriately set the size and position of the display area.

第3の実施形態によれば、第1の実施形態と同様に、画像の歪み、色割れ、画面欠けが少なく、見やすい虚像を表示することができる。さらに、目的に応じて適切な位置に画像(虚像)を表示することができる。   According to the third embodiment, similarly to the first embodiment, it is possible to display an easy-to-see virtual image with less image distortion, color breakup, and missing screen. Furthermore, an image (virtual image) can be displayed at an appropriate position according to the purpose.

(第4の実施形態)
図16は、第4の実施形態に係る画像表示装置の画像補正部を例示するブロック図である。
本実施形態に係る画像表示装置104は、第1の実施形態に係る画像表示装置101と同様に、表示部110、光学部120及び反射部130を含む。これらは、第1の実施形態と同様である。第4の実施形態は、画像処理部において第1の実施形態と異なる。
(Fourth embodiment)
FIG. 16 is a block diagram illustrating an image correction unit of an image display device according to the fourth embodiment.
Similar to the image display device 101 according to the first embodiment, the image display device 104 according to the present embodiment includes a display unit 110, an optical unit 120, and a reflection unit 130. These are the same as those in the first embodiment. The fourth embodiment differs from the first embodiment in the image processing unit.

画像表示装置104の画像処理部は、画像補正部141dと設定部142とを含む。図16に表したように、画像補正部141dは、座標変換部410と、スケール更新部422と、補正係数出力部430dと、を含む。座標変換部410は、第1の実施形態と同様である。補正係数出力部430dは、前述の補正係数出力部430または430bと同様である。なお、図16に示したブロック図は、一例であり、必ずしも実際のモジュールとは一致しない場合がある。   The image processing unit of the image display device 104 includes an image correction unit 141d and a setting unit 142. As illustrated in FIG. 16, the image correction unit 141d includes a coordinate conversion unit 410, a scale update unit 422, and a correction coefficient output unit 430d. The coordinate conversion unit 410 is the same as that in the first embodiment. The correction coefficient output unit 430d is the same as the correction coefficient output unit 430 or 430b described above. Note that the block diagram shown in FIG. 16 is an example, and may not necessarily match an actual module.

図17は、第4の実施形態に係る画像表示装置の画像補正部における処理を例示するフローチャートである。
ステップS510において、第1の実施形態と同様に、画像補正部141dは、瞳孔位置の情報を取得する。
ステップS511において、画像処理部(画像補正部141d)は、対象画像を取得する。
FIG. 17 is a flowchart illustrating processing in the image correction unit of the image display apparatus according to the fourth embodiment.
In step S510, as in the first embodiment, the image correction unit 141d acquires pupil position information.
In step S511, the image processing unit (image correction unit 141d) acquires a target image.

本実施形態においては、設定部142は、第1の実施形態で述べた瞳孔位置情報の他に、使用領域に関する情報を設定する。使用領域は、画像補正部141dが取得した対象画像のうち、補正及び表示の対象として使用する領域である。すなわち、本実施形態においては、補正及び表示の対象は、例えば対象画像の一部(使用領域)である。ステップS513において、画像補正部141dは、使用領域に関する情報(使用領域情報)を取得する。   In the present embodiment, the setting unit 142 sets information related to the use area in addition to the pupil position information described in the first embodiment. The use area is an area used as an object of correction and display among the target images acquired by the image correction unit 141d. In other words, in the present embodiment, the correction and display target is, for example, a part (use area) of the target image. In step S513, the image correction unit 141d acquires information on the used area (used area information).

ステップS526において、第1または2の実施形態と同様に、補正係数出力部430dは、補正係数をスケール更新部422へ出力する。   In step S526, as in the first or second embodiment, the correction coefficient output unit 430d outputs the correction coefficient to the scale update unit 422.

ステップS532において、ステップS513で取得された使用領域情報に応じて、対象画像中の使用領域の範囲が設定される。そして、スケール更新部422は、設定された使用領域に基づいて、補正係数出力部430dから出力された補正係数をスケーリングする。ステップS540において、第1の実施形態と同様に、座標変換が行われ、表示画像(補正画像)が生成される。   In step S532, the range of the used area in the target image is set according to the used area information acquired in step S513. Then, the scale update unit 422 scales the correction coefficient output from the correction coefficient output unit 430d based on the set use area. In step S540, as in the first embodiment, coordinate conversion is performed, and a display image (corrected image) is generated.

ステップS542及びS540の処理の例について、さらに説明する。
図18(a)〜図18(c)は、第4の実施形態に係る画像処理装置の画像補正部における処理を例示する模式図である。
図18(a)〜図18(c)は、対象画像のクリッピングによって、使用領域を設定する方法を例示している。
An example of the processing in steps S542 and S540 will be further described.
FIG. 18A to FIG. 18C are schematic views illustrating processing in the image correction unit of the image processing apparatus according to the fourth embodiment.
FIG. 18A to FIG. 18C illustrate a method of setting a use area by clipping a target image.

スケール更新部422では、取得された使用領域情報に応じて、対象画像のうちの使用領域が設定される。使用領域情報は、対象画像における使用領域を示す情報であり、具体的には、例えば、対象画像における使用領域の画像サイズ、及び、オフセットである。使用領域情報は、例えば、矩形領域の4つの各頂点の座標値等であってもよい。使用領域情報によって、例えば、図18(a)に示したように、対象画像A9中の使用領域1710が指定される。   In the scale update unit 422, the use area of the target image is set according to the acquired use area information. The used area information is information indicating the used area in the target image, and specifically, for example, the image size and offset of the used area in the target image. The use area information may be, for example, coordinate values of four vertices of the rectangular area. For example, as shown in FIG. 18A, the use area 1710 in the target image A9 is designated by the use area information.

この例では、対象画像を補正して表示画像を生成する際に、対象画像のうちの使用領域のサイズ情報(幅及び高さ)が考慮される。使用領域のサイズ情報(幅及び高さ)に基づいて補正係数が更新され、更新後の補正係数によって補正処理(座標変換)が行われる。
例えば、図18(a)に表したように、使用領域情報に基づいて得られる使用領域の幅をW’INとし、使用領域の高さをH’INとする。このとき、補正係数の正規化座標系から画像座標系へのスケールs’は、式(2)によって計算できる。
s’=max(W’IN/a,H’IN) ・・・(2)
aは、前述のカラー表示可能な矩形領域のアスペクト比である。得られたスケールs’を用いて補正係数の正規化座標をスケーリングして、補正係数を更新する。これにより、図18(b)に示したように、更新された補正係数Cdが得られる。そして、更新された補正係数Cdを用いて、対象画像A9の画素の座標を変換することによって、図18(c)に示したような表示画像A10(補正画像)が得られる。
In this example, when the display image is generated by correcting the target image, the size information (width and height) of the used area in the target image is considered. The correction coefficient is updated based on the size information (width and height) of the used area, and correction processing (coordinate conversion) is performed using the updated correction coefficient.
For example, as shown in FIG. 18A, the width of the used area obtained based on the used area information is W′IN, and the height of the used area is H′IN . At this time, the scale s ′ of the correction coefficient from the normalized coordinate system to the image coordinate system can be calculated by Expression (2).
s ′ = max (W ′ IN / a, H ′ IN ) (2)
a is the aspect ratio of the rectangular area capable of color display described above. The correction coefficient is updated by scaling the normalized coordinate of the correction coefficient using the obtained scale s ′. As a result, an updated correction coefficient Cd is obtained as shown in FIG. Then, by using the updated correction coefficient Cd to convert the coordinates of the pixels of the target image A9, a display image A10 (corrected image) as shown in FIG. 18C is obtained.

なお、使用領域に関する情報が何も設定されない場合は、スケール更新部422は、第1の実施形態のスケール更新部420と同様の処理を行う。   Note that when no information regarding the use area is set, the scale update unit 422 performs the same processing as the scale update unit 420 of the first embodiment.

対象画像A9は、前述の使用領域1710と、非使用領域1711と、を含む。非使用領域1711は、対象画像A9中の、使用領域1710以外の領域である。図9(c)に示した表示画像A10は、使用領域1710に基づく情報を含むが、非使用領域1711に基づく情報を含まない。このように、使用領域を設定した上で、歪み補正を適用することにより、不要な領域を除き、設定した領域に含まれる映像を観視者60に提示することができる。   The target image A9 includes the use area 1710 and the non-use area 1711 described above. The non-use area 1711 is an area other than the use area 1710 in the target image A9. The display image A10 illustrated in FIG. 9C includes information based on the use area 1710, but does not include information based on the non-use area 1711. In this way, by setting the use area and applying the distortion correction, the video included in the set area can be presented to the viewer 60 except for the unnecessary area.

第1の実施形態で述べたとおり、瞳孔位置に応じた歪み補正を適用した画像を表示することが望まれる。入力される画像データは、標準規格に従った画像データであることが多い。例えば、標準規格に従った通信インターフェースを介して画像データが入力される場合、画像サイズは、1280×720に制限されることがある。このため、任意の画像に対して歪み補正を適用することができない場合がある。   As described in the first embodiment, it is desired to display an image to which distortion correction according to the pupil position is applied. The input image data is often image data in accordance with a standard. For example, when image data is input via a communication interface according to a standard, the image size may be limited to 1280 × 720. For this reason, distortion correction may not be applied to an arbitrary image.

これに対して本実施形態においては、対象画像に使用領域が設定された上で、画像補正部141dによって歪み補正が適用される。これにより、例えば、対象画像の所望の領域に対して歪み補正を適用した画像を生成することができる。   On the other hand, in the present embodiment, the distortion correction is applied by the image correction unit 141d after the use area is set in the target image. Thereby, for example, an image in which distortion correction is applied to a desired region of the target image can be generated.

設定部142が設定する使用領域情報は、観視者60によって入力された情報に基づいてもよい。例えば、観視者60が使用領域を示す情報(例えば、矩形領域の角4点の座標値等)を画像表示装置104に入力する。これにより、観視者60によって、画像補正部141dにおける対象画像の使用領域を変更することができる。例えば、コンピュータや携帯端末にソフト(アプリケーション)がインストールされ、コンピュータ又は携帯端末などを介して、観視者60から画像処理部(回路部)に情報が入力される。また、予め複数の使用領域がメモリに保存され、観視者60が、保存された使用領域から1つを選択してもよい。例えば、選択した使用領域が設定値となる。使用領域の設定方法には、例えば、対象画像の座標の原点に対して幅及び高さを指定する方法や、対象画像の中心に対して幅及び高さを指定する方法などがある。以上により、観視者60は、使用領域を適宜設定することができる。   The use area information set by the setting unit 142 may be based on information input by the viewer 60. For example, the viewer 60 inputs information indicating the use area (for example, coordinate values of four corners of the rectangular area) to the image display device 104. Thereby, the viewer 60 can change the use area of the target image in the image correction unit 141d. For example, software (application) is installed in a computer or a mobile terminal, and information is input from the viewer 60 to the image processing unit (circuit unit) via the computer or the mobile terminal. In addition, a plurality of use areas may be stored in the memory in advance, and the viewer 60 may select one from the stored use areas. For example, the selected use area becomes the set value. Examples of the setting method of the use area include a method of specifying the width and height with respect to the origin of the coordinates of the target image, and a method of specifying the width and height with respect to the center of the target image. As described above, the viewer 60 can appropriately set the use area.

第4の実施形態によれば、第1の実施形態と同様に、画像の歪み、色割れ、画面欠けが少なく、見やすい虚像を表示することができる。さらに、標準規格に影響を受けることなく所望の画像を表示することができる。   According to the fourth embodiment, as in the first embodiment, it is possible to display an easy-to-see virtual image with less image distortion, color breakup, and screen chipping. Furthermore, a desired image can be displayed without being affected by the standard.

(第5の実施形態)
本実施形態に係る画像表示装置105においても、第1の実施形態に係る画像表示装置101と同様に、表示部110、光学部120、反射部130及び保持部320等が設けられる。これらについては、第1の実施形態についての説明と同様の説明を適用できる。
(Fifth embodiment)
Also in the image display device 105 according to the present embodiment, the display unit 110, the optical unit 120, the reflection unit 130, the holding unit 320, and the like are provided as in the image display device 101 according to the first embodiment. About these, the description similar to the description about 1st Embodiment is applicable.

本実施形態に係る画像表示装置は、位置制御部126(図1を参照)をさらに含む。第5の実施形態は、位置制御部126及び画像処理部において第1の実施形態と異なる。
以下では、まず、位置制御部126について説明する。
The image display apparatus according to the present embodiment further includes a position control unit 126 (see FIG. 1). The fifth embodiment differs from the first embodiment in the position control unit 126 and the image processing unit.
In the following, first, the position control unit 126 will be described.

投影部125(表示部110及び光学部120)は、位置制御部126を介して、保持部320に保持される。位置制御部126は、保持部320に固定されている。位置制御部126によって、投影部125と反射部130との相対的配置が可変である。   The projection unit 125 (the display unit 110 and the optical unit 120) is held by the holding unit 320 via the position control unit 126. The position control unit 126 is fixed to the holding unit 320. The relative arrangement of the projection unit 125 and the reflection unit 130 is variable by the position control unit 126.

図1において、保持部320の延在する方向をY軸方向とする。Y軸方向に対して垂直な1つの方向をX軸方向とする。X軸方向に対して垂直でY軸方向に対して垂直な方向をZ軸方向とする。例えば、X軸方向は、観視者60の左右方向(横方向)に対応し、Y軸方向は、観視者60の前後方向に対応し、Z軸方向は、観視者60の上下方向(縦方向)に対応する。なお、図1において、保持部320は、Y軸方向において直線状に延在する辺を有するが、実施形態は、保持部320の形状が緩やかに彎曲した場合も含む。保持部320の形状は、デザイン性や使用上の利便性を考慮して適宜変更される。   In FIG. 1, the extending direction of the holding unit 320 is a Y-axis direction. One direction perpendicular to the Y-axis direction is taken as the X-axis direction. A direction perpendicular to the X-axis direction and perpendicular to the Y-axis direction is taken as a Z-axis direction. For example, the X-axis direction corresponds to the left-right direction (lateral direction) of the viewer 60, the Y-axis direction corresponds to the front-rear direction of the viewer 60, and the Z-axis direction corresponds to the up-down direction of the viewer 60. Corresponds to (vertical direction). In FIG. 1, the holding portion 320 has a side extending linearly in the Y-axis direction, but the embodiment includes a case where the shape of the holding portion 320 is gently bent. The shape of the holding part 320 is appropriately changed in consideration of design and convenience in use.

図19(a)及び図19(b)は、第5の実施形態に係る画像表示装置を例示する模式図である。
図19(a)及び図19(b)においては、位置制御部126の一例として位置制御部126aを用いている。図19(a)及び図19(b)に表した例では、位置制御部126aによって、投影部125と反射部130との間の距離が可変である。例えば、光学部120の光軸上に沿って、距離が可変である。
FIG. 19A and FIG. 19B are schematic views illustrating an image display device according to the fifth embodiment.
In FIG. 19A and FIG. 19B, a position control unit 126a is used as an example of the position control unit 126. In the example shown in FIGS. 19A and 19B, the distance between the projection unit 125 and the reflection unit 130 is variable by the position control unit 126a. For example, the distance is variable along the optical axis of the optical unit 120.

この例では、位置制御部126aには、光学部120の光軸に沿って、長孔31が設けられている。投影部125には可動軸51が設けられている。可動軸51は、投影部125に固定されている。可動軸51は、長孔31を通り、長孔31内を滑って動くことができる。これにより、投影部の位置を調整することができる。   In this example, the long hole 31 is provided in the position control unit 126 a along the optical axis of the optical unit 120. The projection unit 125 is provided with a movable shaft 51. The movable shaft 51 is fixed to the projection unit 125. The movable shaft 51 can pass through the long hole 31 and slide in the long hole 31. Thereby, the position of the projection unit can be adjusted.

図19(a)は、投影部125と反射部130との間の距離が長い状態を示し、図19(b)は、投影部125と反射部130との間の距離が短い状態を示している。図19(a)及び図19(b)において、投影部125の一端から出射された光L2の光路と、投影部125の別の端から出射された光L3の光路と、を示す。   19A shows a state where the distance between the projection unit 125 and the reflection unit 130 is long, and FIG. 19B shows a state where the distance between the projection unit 125 and the reflection unit 130 is short. Yes. 19A and 19B show an optical path of the light L2 emitted from one end of the projection unit 125 and an optical path of the light L3 emitted from another end of the projection unit 125.

図19(a)の例では、光L3は、反射部130において反射され、瞳孔150へ入射する。一方、反射部130において反射された光L2の一部は、瞳孔150へ入射していない。このため、観視者60は、例えば像の右端を見ることができない。これに対して図19(b)のように、反射部130と投影部125との間の距離を短くする。これにより、光L2の反射部130における拡がりが抑制される。投影部の端から出射された光が瞳孔に入射するため正しい虚像を見ることができる。   In the example of FIG. 19A, the light L <b> 3 is reflected by the reflecting unit 130 and enters the pupil 150. On the other hand, a part of the light L <b> 2 reflected by the reflecting unit 130 does not enter the pupil 150. For this reason, the human viewer 60 cannot see the right end of the image, for example. On the other hand, as shown in FIG. 19B, the distance between the reflection unit 130 and the projection unit 125 is shortened. Thereby, the spread of the light L2 in the reflecting portion 130 is suppressed. Since the light emitted from the end of the projection unit enters the pupil, a correct virtual image can be seen.

図20(a)及び図20(b)は、第5の実施形態に係る画像表示装置を例示する模式図である。
図20(a)及び図20(b)においては、位置制御部126の一例として位置制御部126bを用いている。図20(a)及び図20(b)に表した例では、位置制御部126bによって、投影部125と反射部130と相対的配置が可変である。
FIG. 20A and FIG. 20B are schematic views illustrating the image display device according to the fifth embodiment.
20A and 20B, a position control unit 126b is used as an example of the position control unit 126. In the example shown in FIGS. 20A and 20B, the relative arrangement between the projection unit 125 and the reflection unit 130 is variable by the position control unit 126b.

例えば、反射部130は、第1面11pに沿って設けられている。第1面11pに沿った方向D5において、投影部125の配置が可変である。例えば、方向D5は、投影部125(表示部110)から出射された光の反射部130における入射方向(例えばDL1)と反射方向(DL2)とを含む平面に対して平行である。この例では、方向D5は、X軸方向に対して平行である。観視者60の左右方向において、投影部125と反射部130との相対的配置が可変である。   For example, the reflection unit 130 is provided along the first surface 11p. In the direction D5 along the first surface 11p, the arrangement of the projection unit 125 is variable. For example, the direction D5 is parallel to a plane including the incident direction (for example, DL1) and the reflection direction (DL2) of the light emitted from the projection unit 125 (display unit 110) in the reflection unit 130. In this example, the direction D5 is parallel to the X-axis direction. In the left-right direction of the viewer 60, the relative arrangement of the projection unit 125 and the reflection unit 130 is variable.

位置制御部126bには、X軸方向に沿った長孔32が設けられている。投影部125に固定された可動軸52は、長孔32を通り、長孔32内を滑って動くことができる。これにより、観視者60の左右方向において、投影部125の位置を調整することができる。   The position controller 126b is provided with a long hole 32 along the X-axis direction. The movable shaft 52 fixed to the projection unit 125 can pass through the long hole 32 and slide in the long hole 32. Thereby, the position of the projection part 125 can be adjusted in the left-right direction of the human viewer 60.

図20(a)は、投影部125を右側に配置した状態を示し、図20(b)は、投影部125を左側に配置した状態を示す。例えば、図20(a)における投影部125と保持部320との間の距離は、図20(b)における投影部125と保持部320との間の距離よりも短い。   20A shows a state where the projection unit 125 is arranged on the right side, and FIG. 20B shows a state where the projection unit 125 is arranged on the left side. For example, the distance between the projection unit 125 and the holding unit 320 in FIG. 20A is shorter than the distance between the projection unit 125 and the holding unit 320 in FIG.

図20(a)に表したように、この例では、投影部125から出射された光L2の一部が瞳孔150へ入射していない。このため、観視者60は、例えば、像の右端を見ることができない。これに対して、図20(b)のように、投影部125を左側へ移動させる。これにより、光L2は瞳孔150へ入射する。投影部の端から出射された光が瞳孔に入射するため正しい虚像を見ることができる。投影部125の左右方向の移動に伴って、観視者60から見た像も左右方向に移動する。   As shown in FIG. 20A, in this example, a part of the light L <b> 2 emitted from the projection unit 125 is not incident on the pupil 150. For this reason, the viewer 60 cannot see the right end of the image, for example. On the other hand, the projection unit 125 is moved to the left as shown in FIG. Thereby, the light L2 enters the pupil 150. Since the light emitted from the end of the projection unit enters the pupil, a correct virtual image can be seen. As the projection unit 125 moves in the left-right direction, the image viewed from the viewer 60 also moves in the left-right direction.

図21(a)及び図21(b)は、第5の実施形態に係る画像表示装置を例示する模式図である。図21(a)及び図21(b)は、観視者60の横方向から見た側面図である。
図21(a)及び図21(b)においては、位置制御部126の一例として位置制御部126cを用いている。図21(a)及び図21(b)に表した例では、位置制御部126cによって、投影部125と反射部130と相対的配置が可変である。
FIG. 21A and FIG. 21B are schematic views illustrating an image display device according to the fifth embodiment. FIGS. 21A and 21B are side views of the human viewer 60 viewed from the lateral direction.
21A and 21B, a position control unit 126c is used as an example of the position control unit 126. In the example shown in FIG. 21A and FIG. 21B, the relative arrangement of the projection unit 125 and the reflection unit 130 is variable by the position control unit 126c.

例えば、反射部130は、第1面11pに沿って設けられている。第1面11pに沿った方向D6において、投影部125の配置が可変である。方向D6は、図20(a)において説明した方向D5に対して垂直な方向である。この例では、方向D6は、Z軸方向に対して平行である。観視者60の上下方向において、投影部125と反射部130との相対的配置が可変である。   For example, the reflection unit 130 is provided along the first surface 11p. In the direction D6 along the first surface 11p, the arrangement of the projection unit 125 is variable. The direction D6 is a direction perpendicular to the direction D5 described in FIG. In this example, the direction D6 is parallel to the Z-axis direction. In the vertical direction of the viewer 60, the relative arrangement of the projection unit 125 and the reflection unit 130 is variable.

位置制御部126cには、Z軸方向に沿った長孔33が設けられている。投影部125に固定された可動軸53は、長孔33を通り、長孔33内を滑って動くことができる。これにより、観視者60の上下方向において、投影部125の位置を調整することができる。   The position controller 126c is provided with a long hole 33 along the Z-axis direction. The movable shaft 53 fixed to the projection unit 125 can pass through the long hole 33 and slide in the long hole 33. Thereby, the position of the projection part 125 can be adjusted in the up-down direction of the human viewer 60.

図21(a)は、投影部125を下側に配置した状態を示し、図21(b)は、投影部125を上側に配置した状態を示す。   FIG. 21A shows a state where the projection unit 125 is arranged on the lower side, and FIG. 21B shows a state where the projection unit 125 is arranged on the upper side.

図21(a)に表したように、この例では、投影部125から出射された光L2の一部が瞳孔150へ入射していない。このため、観視者60は、例えば、像の下端を見ることができない。これに対して、図21(b)のように、投影部125を上側へ移動させる。これにより、光L2は瞳孔150へ入射する。投影部125の端から出射された光が瞳孔に入射するため正しい虚像を見ることができる。投影部125の上下方向の移動に伴って、観視者60から見た像も上下方向に移動する。   As shown in FIG. 21A, in this example, a part of the light L <b> 2 emitted from the projection unit 125 is not incident on the pupil 150. For this reason, the viewer 60 cannot see the lower end of the image, for example. On the other hand, the projection unit 125 is moved upward as shown in FIG. Thereby, the light L2 enters the pupil 150. Since the light emitted from the end of the projection unit 125 enters the pupil, a correct virtual image can be seen. As the projection unit 125 moves in the vertical direction, the image viewed from the viewer 60 also moves in the vertical direction.

図22(a)及び図22(b)は、第5の実施形態に係る画像表示装置を例示する模式図である。図22(a)及び図22(b)においては、位置制御部126の一例として位置制御部126dを用いている。位置制御部126dによって、投影部125と反射部130と相対的配置が可変である。   FIG. 22A and FIG. 22B are schematic views illustrating an image display device according to the fifth embodiment. 22A and 22B, a position control unit 126d is used as an example of the position control unit 126. The relative arrangement of the projection unit 125 and the reflection unit 130 is variable by the position control unit 126d.

例えば、光学部120は、光軸120aを有する。位置制御部126dによって、光軸120aと第1面11pとの間の角度が可変である。すなわち、位置制御部126dによって、画像情報を含む光L1の反射部130における入射方向DLaが可変である。   For example, the optical unit 120 has an optical axis 120a. The angle between the optical axis 120a and the first surface 11p is variable by the position controller 126d. In other words, the incident direction DLa of the light L1 including the image information in the reflection unit 130 is variable by the position control unit 126d.

この例では、位置制御部126dは、回転軸部54を有する。投影部125は、回転軸部54によって保持されている。回転軸部54を中心に投影部125を回転させることができる。例えば、X−Y平面内において投影部125を回転させることができる。図22(a)は、光L1の反射部130への入射角が大きい状態を示し、図22(b)は、光L1の反射部130への入射角が小さい状態を示す。このように、投影部125を回転させることで、反射部130における光L1の入射方向DLaと反射方向DLbとを調整することができる。これにより、像が見える方向を調整することができる。   In this example, the position control unit 126 d has a rotation shaft unit 54. The projection unit 125 is held by the rotation shaft unit 54. The projection unit 125 can be rotated around the rotation shaft unit 54. For example, the projection unit 125 can be rotated in the XY plane. 22A shows a state where the incident angle of the light L1 to the reflecting unit 130 is large, and FIG. 22B shows a state where the incident angle of the light L1 to the reflecting unit 130 is small. Thus, by rotating the projection unit 125, the incident direction DLa and the reflection direction DLb of the light L1 in the reflection unit 130 can be adjusted. Thereby, the direction in which an image can be seen can be adjusted.

図23(a)及び図23(b)は、位置制御部を例示する模式図である。
図23(a)に表した例においては、位置制御部126dによって、画像情報を含む光L1の反射部130における入射方向DLaが可変である。投影部125には、取付部55が設けられている。例えば、取付部55は、球の一部の形状を有する。位置制御部126dには、開口部35が設けられている。例えば、開口部35は、取付部55の少なくとも一部を覆っている。位置制御部126dによって取付部55が保持され、開口部35内で取付部55を回転させることができる。これにより、上下方向及び左右方向において投影部125を回転させることができ、像が見える方向を調整することができる。
FIG. 23A and FIG. 23B are schematic views illustrating the position control unit.
In the example shown in FIG. 23A, the incident direction DLa of the light L1 including the image information in the reflecting unit 130 is variable by the position control unit 126d. The projection part 125 is provided with an attachment part 55. For example, the attachment portion 55 has a shape of a part of a sphere. An opening 35 is provided in the position controller 126d. For example, the opening 35 covers at least a part of the attachment portion 55. The attachment portion 55 is held by the position control portion 126d, and the attachment portion 55 can be rotated in the opening 35. Thereby, the projection part 125 can be rotated in the up-down direction and the left-right direction, and the direction in which an image can be seen can be adjusted.

例えば、投影部125の配置を変更せずに、反射部130の位置を変更することで、虚像の位置を調整する参考例の方法がある。しかし、眼鏡型の画像表示装置では、使用時において、眼鏡フレームと眼鏡レンズ(反射部130)との相対的配置は実質的に固定されている。このため、前述のように、観視者60の瞳孔150と反射部130との相対的配置は実質的に固定されており、反射部130の位置を変更することが困難な場合がある。これに対して、実施形態においては、位置制御部126によって、投影部125の配置を変更する。これにより、例えば、反射部130と投影部125との相対的配置の調整において自由度が高まる。   For example, there is a reference method for adjusting the position of the virtual image by changing the position of the reflection unit 130 without changing the arrangement of the projection unit 125. However, in the eyeglass-type image display device, the relative arrangement of the eyeglass frame and the eyeglass lens (reflecting unit 130) is substantially fixed during use. For this reason, as described above, the relative arrangement of the pupil 150 of the viewer 60 and the reflecting unit 130 is substantially fixed, and it may be difficult to change the position of the reflecting unit 130. On the other hand, in the embodiment, the position control unit 126 changes the arrangement of the projection unit 125. Thereby, for example, the degree of freedom is increased in adjusting the relative arrangement of the reflection unit 130 and the projection unit 125.

以上説明した位置制御部126の機構は一例であり、実施形態は、同様に投影部の位置を調整することができる任意の形態を含む。さらに、以上説明した位置制御部126の機構を複数組み合わせてもよい。例えば、図23(b)に表した位置制御部126eは、X−Y平面内における回転機構と、左右方向における位置調整機構と、を組み合わせた例である。実施形態においては、組み合わせに用いる機構及び機構の数は、任意である。これにより、投影部125を適切な位置に配置し、像の位置を調整することができ、見易い表示を得ることができる。   The mechanism of the position control unit 126 described above is an example, and the embodiment includes any form that can similarly adjust the position of the projection unit. Furthermore, a plurality of mechanisms of the position control unit 126 described above may be combined. For example, the position control unit 126e shown in FIG. 23B is an example in which a rotation mechanism in the XY plane and a position adjustment mechanism in the left-right direction are combined. In the embodiment, the mechanism and the number of mechanisms used for the combination are arbitrary. Thereby, the projection part 125 can be arrange | positioned in an appropriate position, the position of an image can be adjusted, and an easy-to-see display can be obtained.

次に、画像表示装置105の画像処理部について説明する。
図24は、第5の実施形態に係る画像表示装置の画像補正部を例示するブロック図である。
本実施形態に係る画像表示装置105は、画像補正部141eを含む。画像補正部141eは、座標変換部410とスケール更新部420と補正係数出力部430eとを含む。座標変換部410及びスケール更新部420については、第1の実施形態と同様である。なお、図24に示したブロック図は、一例であり、必ずしも実際のモジュールとは一致しない場合がある。
Next, the image processing unit of the image display device 105 will be described.
FIG. 24 is a block diagram illustrating an image correction unit of the image display device according to the fifth embodiment.
The image display device 105 according to the present embodiment includes an image correction unit 141e. The image correction unit 141e includes a coordinate conversion unit 410, a scale update unit 420, and a correction coefficient output unit 430e. The coordinate conversion unit 410 and the scale update unit 420 are the same as those in the first embodiment. Note that the block diagram shown in FIG. 24 is an example, and may not necessarily match an actual module.

補正係数出力部430eは、第1または第2の実施形態と同様に、予め定められた複数の補正係数を記憶している。複数の補正係数のそれぞれは、複数の瞳孔位置のそれぞれに対応している。さらに、本実施形態においては、複数の補正係数のそれぞれは、複数の投影部位置のそれぞれに対応している。つまり、本実施形態の補正係数は、瞳孔位置の情報及び投影部位置の情報の少なくとも2つの情報に応じて、生成される。補正係数の構造や生成方法については、第1の実施形態と同様である。なお、投影部位置は、例えば、光学部120(投影部125)と反射部130との相対的配置によって表される。すなわち、各補正係数は、反射部130と瞳孔150との位置関係と、光学部120と反射部130との相対的配置と、に基づいて定められる。   The correction coefficient output unit 430e stores a plurality of predetermined correction coefficients as in the first or second embodiment. Each of the plurality of correction coefficients corresponds to each of a plurality of pupil positions. Furthermore, in the present embodiment, each of the plurality of correction coefficients corresponds to each of a plurality of projection unit positions. That is, the correction coefficient according to the present embodiment is generated according to at least two pieces of information, that is, pupil position information and projection unit position information. The structure and generation method of the correction coefficient are the same as those in the first embodiment. Note that the position of the projection unit is represented by, for example, the relative arrangement of the optical unit 120 (projection unit 125) and the reflection unit 130. That is, each correction coefficient is determined based on the positional relationship between the reflecting unit 130 and the pupil 150 and the relative arrangement of the optical unit 120 and the reflecting unit 130.

図25は、第5の実施形態に係る画像表示装置の画像補正部における処理を例示するフローチャートである。
設定部142は、第1の実施形態と同様に、瞳孔位置情報を設定する。
ステップS510において、画像補正部141eは、第1の実施形態と同様に瞳孔位置の情報を取得する。
ステップS511において、画像補正部141eは、第1の実施形態と同様に対象画像を取得する。
FIG. 25 is a flowchart illustrating the processing in the image correction unit of the image display device according to the fifth embodiment.
The setting unit 142 sets the pupil position information as in the first embodiment.
In step S510, the image correction unit 141e acquires pupil position information as in the first embodiment.
In step S511, the image correction unit 141e acquires the target image as in the first embodiment.

本実施形態においては、設定部142は、第1の実施形態で述べた瞳孔位置情報の他に、投影部位置の情報を設定する。そして、ステップS514において、画像補正部141eは、投影部位置の情報を取得する。   In the present embodiment, the setting unit 142 sets information on the projection unit position in addition to the pupil position information described in the first embodiment. In step S514, the image correction unit 141e acquires information on the position of the projection unit.

設定部142は、反射部と投影部が可変のとき、瞳孔位置情報とは別に、投影部125(光学部120)と反射部130との相対的配置に関する投影部位置情報を取得(設定)し、画像補正部141eへ出力する。投影部位置の検出には、カメラやポテンショメータなどの任意のセンサを用いることができる。センサは、例えば、投影部125、位置制御部126又は回路部等に設けられる。例えば、光学部120と反射部130との相対的配置は、無段階に調整することができる。   The setting unit 142 acquires (sets) projection unit position information related to the relative arrangement of the projection unit 125 (the optical unit 120) and the reflection unit 130 separately from the pupil position information when the reflection unit and the projection unit are variable. And output to the image correction unit 141e. Arbitrary sensors, such as a camera and a potentiometer, can be used for detection of a projection part position. The sensor is provided, for example, in the projection unit 125, the position control unit 126, or a circuit unit. For example, the relative arrangement of the optical unit 120 and the reflecting unit 130 can be adjusted steplessly.

なお、観視者の瞳孔位置の推定に、投影部位置情報を用いてもよい。例えば、眼鏡型の表示装置においては、観視者60の耳、鼻、眼などの配置に応じて、反射部130と光学部120との相対的配置は変化する。このため、光学部120と反射部130との相対的配置の情報に基づいて、観視者60の瞳孔位置をある程度推定することも可能である。   The projection unit position information may be used for estimating the pupil position of the viewer. For example, in a glasses-type display device, the relative arrangement of the reflection unit 130 and the optical unit 120 changes according to the arrangement of the viewer's 60 ears, nose, eyes, and the like. For this reason, it is also possible to estimate the pupil position of the human viewer 60 to some extent based on information on the relative arrangement of the optical unit 120 and the reflecting unit 130.

位置制御部126には、段階的に投影部125の位置を調整する機械的な機構を用いてもよい。例えば、位置情報を示すダイヤルなどの目盛を設け、段階的に投影部125の位置を調整する。設定部142は、目盛の値に応じた情報を画像補正部141eへ出力する。   The position control unit 126 may be a mechanical mechanism that adjusts the position of the projection unit 125 in stages. For example, a scale such as a dial indicating position information is provided, and the position of the projection unit 125 is adjusted step by step. The setting unit 142 outputs information corresponding to the scale value to the image correction unit 141e.

設定部142が設定する投影部位置情報は、観視者60によって入力された情報に基づいてもよい。例えば、観視者60が投影部125の位置を示す情報(例えば目盛の値等)を画像表示装置105に入力する。これにより、例えば、観視者60によって、画像補正部141eにおける補正を変更することができる。例えば、コンピュータや携帯端末にソフト(アプリケーション)がインストールされ、コンピュータ又は携帯端末などを介して、観視者60から画像制御部(画像補正部141e及び設定部142)に情報が入力される。画像制御部に位置情報が直接入力されても良い。   The projection unit position information set by the setting unit 142 may be based on information input by the viewer 60. For example, the viewer 60 inputs information indicating the position of the projection unit 125 (for example, a scale value) to the image display device 105. Accordingly, for example, the viewer 60 can change the correction in the image correction unit 141e. For example, software (application) is installed in a computer or a mobile terminal, and information is input from the viewer 60 to the image control unit (the image correction unit 141e and the setting unit 142) via the computer or the mobile terminal. Position information may be directly input to the image control unit.

ステップS527において、補正係数出力部430eは、瞳孔位置情報及び投影部位置情報に基づいて、複数の補正係数の中から、補正係数を選択する。そして、選択された補正係数がスケール更新部420へ出力される。   In step S527, the correction coefficient output unit 430e selects a correction coefficient from a plurality of correction coefficients based on the pupil position information and the projection unit position information. The selected correction coefficient is output to the scale update unit 420.

ステップS530及びステップS540は、第1の実施形態と同様である。以上により、画像補正部141eは、対象画像を補正して表示画像を生成する。表示部110は、生成された表示画像の画像情報に基づいて光を出射する。これにより、例えば、適切な像を表示することができる。   Steps S530 and S540 are the same as in the first embodiment. As described above, the image correction unit 141e corrects the target image and generates a display image. The display unit 110 emits light based on the image information of the generated display image. Thereby, for example, an appropriate image can be displayed.

例えば、投影部125の位置が変化すると、表示部110から瞳孔150への光路長が画素毎に変化する。このため、投影部125の位置によっては、光学歪みや色割れが発生する場合がある。これに対して、本実施形態では、対象画像の補正処理は、瞳孔位置情報と投影部位置情報とに基づいて行われる。すなわち、瞳孔150の位置及び投影部125の位置に基づいて、適応的に歪み補正が適用される。このため、瞳孔位置及び投影部の位置に応じて生じる収差による影響を抑制することができる。これにより、画像の歪み、色割れ、画面欠けが少なく、見やすい虚像を表示することできる。   For example, when the position of the projection unit 125 changes, the optical path length from the display unit 110 to the pupil 150 changes for each pixel. For this reason, depending on the position of the projection unit 125, optical distortion or color breakup may occur. On the other hand, in the present embodiment, the target image correction process is performed based on pupil position information and projection unit position information. That is, distortion correction is adaptively applied based on the position of the pupil 150 and the position of the projection unit 125. For this reason, the influence by the aberration which arises according to a pupil position and the position of a projection part can be suppressed. As a result, it is possible to display an easy-to-see virtual image with less image distortion, color breakup, and missing screen.

以上、第1〜第5の実施形態に係る画像表示装置及び画像処理装置について説明した。但し、実施形態は、上記の例には限定されず、例えば、第1〜第5の実施形態を適宜組み合わせて実施してもよい。例えば、実施形態は、以下の図26(a)及び図26(b)に関する説明の如くであってもよい。   The image display apparatus and the image processing apparatus according to the first to fifth embodiments have been described above. However, the embodiment is not limited to the above example, and for example, the first to fifth embodiments may be appropriately combined. For example, the embodiment may be as described with reference to FIGS. 26 (a) and 26 (b) below.

図26(a)及び図26(b)は、実施形態に係る画像表示装置を例示するブロック図である。
図26(a)に表した画像表示装置106の画像補正部141fは、座標変換部410、スケール更新部426及び補正係数出力部430fを含む。これ以外は、画像表示装置106は、第1の実施形態と同様である。
FIG. 26A and FIG. 26B are block diagrams illustrating an image display device according to the embodiment.
The image correction unit 141f of the image display device 106 illustrated in FIG. 26A includes a coordinate conversion unit 410, a scale update unit 426, and a correction coefficient output unit 430f. Other than this, the image display device 106 is the same as that of the first embodiment.

補正係数出力部430fには、前述の色割れや光学歪みを補正するための複数の補正係数が記憶されている。例えば、複数の補正係数は、画像表示装置の個体差を示す固有情報に対応しており、補正係数出力部430fは、固有情報に応じて補正係数を選択する。これにより、色割れや光学歪みを補正することができる。補正係数の構造や生成方法は、第1の実施形態と同様である。   The correction coefficient output unit 430f stores a plurality of correction coefficients for correcting the aforementioned color breakup and optical distortion. For example, the plurality of correction coefficients correspond to unique information indicating individual differences between image display apparatuses, and the correction coefficient output unit 430f selects a correction coefficient according to the unique information. Thereby, color breakup and optical distortion can be corrected. The structure and generation method of the correction coefficient are the same as those in the first embodiment.

本具体例では、センサや使用者によって、瞳孔位置情報がスケール更新部426へ入力される。スケール更新部426は、瞳孔位置情報及び対象画像のサイズ情報に基づいて補正係数を更新する。この際、例えば、スケール更新部426は、第3の実施形態において説明した表示領域情報と同様の情報を瞳孔位置情報に基づいて生成し、生成された情報に基づいて、第3の実施形態と同様に補正係数をスケーリングする。そして、座標変換部410は、スケーリングされた補正係数を用いて、対象画像から表示画像を生成する。これにより、画像欠けも補正することができる。   In this specific example, pupil position information is input to the scale update unit 426 by a sensor or a user. The scale update unit 426 updates the correction coefficient based on the pupil position information and the size information of the target image. At this time, for example, the scale update unit 426 generates information similar to the display area information described in the third embodiment based on the pupil position information, and, based on the generated information, the third embodiment and the third embodiment. Similarly, the correction coefficient is scaled. Then, the coordinate conversion unit 410 generates a display image from the target image using the scaled correction coefficient. Thereby, it is possible to correct image defects.

図26(b)に表した画像表示装置107の画像補正部141gは、座標変換部410、スケール更新部427及び補正係数出力部430gを含む。これ以外は、画像表示装置107は、第5の実施形態と同様である。   The image correction unit 141g of the image display device 107 illustrated in FIG. 26B includes a coordinate conversion unit 410, a scale update unit 427, and a correction coefficient output unit 430g. Other than this, the image display device 107 is the same as that of the fifth embodiment.

補正係数出力部430gには、前述の色割れや光学歪みを補正するための複数の補正係数が記憶されている。例えば、各補正係数は、各投影部位置情報に対応している。補正係数の構造や生成方法は、第1の実施形態と同様である。センサや使用者によって、投影部位置情報が補正係数出力部430gに入力される。補正係数出力部430gは、投影部位置情報に応じて補正係数を選択する。これにより、例えば、投影部位置に起因した色割れや光学歪みを補正することができる。   The correction coefficient output unit 430g stores a plurality of correction coefficients for correcting the above-described color breakup and optical distortion. For example, each correction coefficient corresponds to each projection unit position information. The structure and generation method of the correction coefficient are the same as those in the first embodiment. Projector position information is input to the correction coefficient output unit 430g by a sensor or a user. The correction coefficient output unit 430g selects a correction coefficient according to the projection unit position information. Thereby, for example, color breakup and optical distortion due to the position of the projection unit can be corrected.

本実施例では、センサや使用者によって、瞳孔位置情報がスケール更新部427へ入力される。これにより、図26(a)に関する説明と同様にして、画面欠けを補正することができる。例えば、投影部位置に起因した歪みは、センサ等からの情報に基づいて自動で補正され、表示像の大きさや位置は、使用者の入力に基づいて補正される。   In this embodiment, pupil position information is input to the scale update unit 427 by a sensor or a user. Thereby, it is possible to correct the screen defect in the same manner as described with reference to FIG. For example, distortion caused by the position of the projection unit is automatically corrected based on information from a sensor or the like, and the size and position of the display image are corrected based on user input.

図27は、実施形態に係る画像表示装置を例示する模式図である。
図27は、実施形態に係る画像表示装置のシステムの一例を例示している。
図27に表したように、画像処理部140(回路部)は、例えば、インターフェース42(取得部)、処理回路(プロセッサ)43、及びメモリ44を含む。
FIG. 27 is a schematic view illustrating the image display device according to the embodiment.
FIG. 27 illustrates an example of the system of the image display device according to the embodiment.
As illustrated in FIG. 27, the image processing unit 140 (circuit unit) includes, for example, an interface 42 (acquisition unit), a processing circuit (processor) 43, and a memory 44.

例えば、画像処理部140は、インターフェース42を介して、外部の記憶媒体やネットワークと接続され、入力画像(対象画像)を取得する。外部との接続には、有線及び無線のいずれの方法を用いてもよい。取得部は、例えば、入出力端子などでもよい。   For example, the image processing unit 140 is connected to an external storage medium or a network via the interface 42 and acquires an input image (target image). For connection to the outside, either a wired or wireless method may be used. The acquisition unit may be an input / output terminal, for example.

メモリ44には、例えば取得した対象画像を処理するプログラム45が記憶されている。例えばプログラム45に基づいて対象画像が適宜変換され、これにより、表示部110において適切な表示が行われる。メモリ44において、画像情報が保持されていてもよい。プログラム45は、予めメモリ44に記憶された状態で提供されてもよいし、CD−ROM等の記憶媒体やネットワークを介して提供され、適宜インストールされてもよい。   In the memory 44, for example, a program 45 for processing the acquired target image is stored. For example, the target image is appropriately converted based on the program 45, and accordingly, an appropriate display is performed on the display unit 110. In the memory 44, image information may be held. The program 45 may be provided in a state stored in the memory 44 in advance, or may be provided via a storage medium such as a CD-ROM or a network, and may be installed as appropriate.

画像処理部140は、センサ46を含んでもよい。センサ46には、例えば、カメラ、マイク、位置センサ又は加速度センサなどの任意のセンサを用いることができる。例えば、センサ46から得られる情報に基づいて、表示部110に表示される画像を適宜変更する。これにより、画像表示装置の利便性や見易さを向上させることができる。例えば、処理回路43において、センサ46から得られる情報や画像情報などが、プログラム45に基づいて処理される。このようにして得られた画像情報が、画像処理部140から表示部110に入力され、画像表示装置において表示が行われる。   The image processing unit 140 may include a sensor 46. For the sensor 46, for example, an arbitrary sensor such as a camera, a microphone, a position sensor, or an acceleration sensor can be used. For example, the image displayed on the display unit 110 is appropriately changed based on information obtained from the sensor 46. Thereby, the convenience and visibility of the image display device can be improved. For example, in the processing circuit 43, information obtained from the sensor 46, image information, and the like are processed based on the program 45. The image information obtained in this way is input from the image processing unit 140 to the display unit 110 and displayed on the image display device.

例えば、投影部125と反射部130との相対的配置に関する位置情報は、センサ46によって検出される。画像補正部141における補正に用いられる補正係数は、例えばメモリ44に記憶される。また、例えば、座標変換部410や、スケール更新部420や、補正係数出力部430における処理は、プログラム45に基づいて、処理回路43において行われる。   For example, position information regarding the relative arrangement of the projection unit 125 and the reflection unit 130 is detected by the sensor 46. The correction coefficient used for correction in the image correction unit 141 is stored in the memory 44, for example. Further, for example, the processing in the coordinate conversion unit 410, the scale update unit 420, and the correction coefficient output unit 430 is performed in the processing circuit 43 based on the program 45.

画像処理部140(画像処理装置200)の各ブロックの一部、又は全部には、LSI(Large Scale Integration)等の集積回路またはIC(Integrated Circuit)チップセットを用いることができる。各ブロックに個別の回路を用いてもよいし、一部又は全部を集積した回路を用いてもよい。各ブロック同士が一体として設けられてもよいし、一部のブロックが別に設けられてもよい。また、各ブロックのそれぞれにおいて、その一部が別に設けられてもよい。集積化には、LSIに限らず、専用回路又は汎用プロセッサを用いてもよい。   An integrated circuit such as LSI (Large Scale Integration) or an IC (Integrated Circuit) chip set can be used for a part or all of each block of the image processing unit 140 (image processing apparatus 200). An individual circuit may be used for each block, or a circuit in which part or all of the blocks are integrated may be used. Each block may be provided integrally, or a part of the blocks may be provided separately. In addition, a part of each block may be provided separately. The integration is not limited to LSI, and a dedicated circuit or a general-purpose processor may be used.

以上、実施形態として、画像表示装置及び画像処理装置について説明した。但し、実施形態は、画像処理装置における処理をコンピュータに実行させるためのプログラムの形態、または、このプログラムを記録したコンピュータ読み取り可能な記録媒体の形態、であってもよい。上記の記録媒体としては、具体的には、CD-ROM(-R/-RW)、光磁気ディスク、HD(ハードディスク)、DVD-ROM(-R/-RW/-RAM)、FD(フレキシブルディスク)、フラッシュメモリ、メモリカードや、メモリスティック及びその他各種ROMやRAM等が想定できる。これら記録媒体に上述した実施形態に係る画像処理装置の処理をコンピュータに実行させるための画像処理プログラムを記録して流通させてもよい。これにより、画像処理の実現が容易となる。そして、コンピュータ等の情報処理装置に上記のごとくの記録媒体を装着して情報処理装置により画像処理プログラムを読み出すか、または、情報処理装置が備えている記憶媒体に当該プログラムを記憶させ、必要に応じて読み出す。これにより、実施形態に係る画像処理を実行することができる。   The image display apparatus and the image processing apparatus have been described above as the embodiments. However, the embodiment may be in the form of a program that causes a computer to execute processing in the image processing apparatus, or in the form of a computer-readable recording medium that records this program. Specific examples of the recording medium include CD-ROM (-R / -RW), magneto-optical disk, HD (hard disk), DVD-ROM (-R / -RW / -RAM), and FD (flexible disk). ), A flash memory, a memory card, a memory stick, and other various ROMs and RAMs. An image processing program for causing a computer to execute the processing of the image processing apparatus according to the above-described embodiment may be recorded and distributed on these recording media. This facilitates the realization of image processing. Then, the information processing apparatus such as a computer is loaded with the recording medium as described above, and the image processing program is read by the information processing apparatus, or the program is stored in a storage medium included in the information processing apparatus, Read accordingly. Thereby, the image processing according to the embodiment can be executed.

実施形態によれば、見易い像を提供可能な画像表示装置及び画像処理装置が提供できる。   According to the embodiment, an image display device and an image processing device that can provide an easy-to-see image can be provided.

なお、本願明細書において、「垂直」及び「平行」は、厳密な垂直及び厳密な平行だけではなく、例えば製造工程におけるばらつきなどを含むものであり、実質的に垂直及び実質的に平行であれば良い。   In the present specification, “vertical” and “parallel” include not only strictly vertical and strictly parallel, but also include, for example, variations in the manufacturing process, and may be substantially vertical and substantially parallel. It ’s fine.

以上、具体例を参照しつつ、本発明の実施の形態について説明した。しかし、本発明の実施形態は、これらの具体例に限定されるものではない。例えば、投影部、光学部、表示部、反射部、画像処理部などの各要素の具体的な構成に関しては、当業者が公知の範囲から適宜選択することにより本発明を同様に実施し、同様の効果を得ることができる限り、本発明の範囲に包含される。
また、各具体例のいずれか2つ以上の要素を技術的に可能な範囲で組み合わせたものも、本発明の要旨を包含する限り本発明の範囲に含まれる。
The embodiments of the present invention have been described above with reference to specific examples. However, embodiments of the present invention are not limited to these specific examples. For example, regarding the specific configuration of each element such as a projection unit, an optical unit, a display unit, a reflection unit, and an image processing unit, the person skilled in the art similarly implements the present invention by selecting appropriately from a well-known range. As long as the above effects can be obtained, the scope of the present invention is included.
Moreover, what combined any two or more elements of each specific example in the technically possible range is also included in the scope of the present invention as long as the gist of the present invention is included.

その他、本発明の実施の形態として上述した画像表示装置及び画像処理装置を基にして、当業者が適宜設計変更して実施し得る全ての画像表示装置及び画像処理装置も、本発明の要旨を包含する限り、本発明の範囲に属する。   In addition, all image display devices and image processing devices that can be implemented by those skilled in the art based on the image display device and image processing device described above as the embodiment of the present invention are also included in the gist of the present invention. As long as it is included, it belongs to the scope of the present invention.

その他、本発明の思想の範疇において、当業者であれば、各種の変更例及び修正例に想到し得るものであり、それら変更例及び修正例についても本発明の範囲に属するものと了解される。   In addition, in the category of the idea of the present invention, those skilled in the art can conceive of various changes and modifications, and it is understood that these changes and modifications also belong to the scope of the present invention. .

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

11p…第1面、 31、32、33…長孔、 35…開口部、 42…インターフェース、 43…処理回路、 44…メモリ、 45…プログラム、 46…センサ、 51、52、53…可動軸、 54…回転軸部、 55…取付部、 60…観視者、 80…表示オブジェクト、 101〜105、109…画像表示装置、 110…表示部、 110e…画素、 120…光学部、 120a…光軸、 125、125b…投影部、 126、126a、126b、126c、126d、126e…位置制御部、 130、130b…反射部、 140…画像処理部、 141…画像補正部、 1410…表示領域、 1411…非表示領域、 141b、141c、141d、141e…画像補正部、 142…設定部、 145…ケーブル、 150、150a、150b…瞳孔、 160…眼鏡レンズ、 161…第1表面、 162…第2表面、 170、170b、171…観視像、 1710…使用領域、 1711…非使用領域、 180…アイレンジ、 182…検知部、 200…画像処理装置、 320…保持部、 320e…一端、 321…ノーズパッド、 322…ブリッジ、 410…座標変換部、 420、421、422、426…スケール更新部、 430、430b、430c、430d、430e…補正係数出力部、 431…補正係数選択部、 432…補正係数計算部、 433…補正係数選択部、 435…補正係数記憶部、 436、437…補正係数、 920、930…矩形領域、 940…領域、 A1…対象画像、 A2…表示画像、 A3…観視像、 A4…対象画像、 A5、A6…表示画像、 A7…対象画像、 A8…表示画像、 A9…対象画像、 A10…表示画像、 Ba…画像、 Bb…第3色像、 Bc…内接矩形、 C1…第1補正係数、 C2…第2補正係数、 Ca、Cb、Cc、Cd…補正係数、 D1…第1方向、 D2…第2方向、 D5、D6…方向、 DLa…入射方向、 DLb…反射方向、 Ga…画像、 Gb…第2色像、 Gc…内接矩形、 L1、L2、L3…光、 Ln1〜Ln10…長さ、 PA、PB…位置、 PI…画像、 Pa、Pb、Pr…領域、 Pw…画像、 Q1…第1像、 R1…第1領域(対象領域)、 R2…第2領域、 Ra…画像、 Rb…第1色像、 Rc…内接矩形、 Rd…領域、 S1…第1画像領域、 S2…第2画像領域、 Sa…重複領域、 Sb…非重複領域、 S510〜S514、S520、S521、S525〜S527、S530〜S532、S540、S542…ステップ   11p: first surface 31, 32, 33: long hole, 35: opening, 42: interface, 43 ... processing circuit, 44 ... memory, 45 ... program, 46 ... sensor, 51, 52, 53 ... movable shaft, 54 ... Rotating shaft part, 55 ... Mounting part, 60 ... Viewer, 80 ... Display object, 101-105, 109 ... Image display device, 110 ... Display part, 110e ... Pixel, 120 ... Optical part, 120a ... Optical axis 125, 125b ... projection unit, 126, 126a, 126b, 126c, 126d, 126e ... position control unit, 130, 130b ... reflection unit, 140 ... image processing unit, 141 ... image correction unit, 1410 ... display area, 1411 ... Non-display area, 141b, 141c, 141d, 141e ... image correction unit, 142 ... setting unit, 145 ... cable, 1 0, 150a, 150b ... pupil, 160 ... spectacle lens, 161 ... first surface, 162 ... second surface, 170, 170b, 171 ... visual image, 1710 ... use region, 1711 ... non-use region, 180 ... eye range 182 ... Detection unit 200 ... Image processing device 320 ... Holding unit 320e ... One end 321 ... Nose pad 322 ... Bridge 410 ... Coordinate conversion unit 420,421,422,426 ... Scale update unit 430 430b, 430c, 430d, 430e ... correction coefficient output unit, 431 ... correction coefficient selection unit, 432 ... correction coefficient calculation unit, 433 ... correction coefficient selection unit, 435 ... correction coefficient storage unit, 436, 437 ... correction coefficient, 920, 930: Rectangular area, 940: Area, A1: Target image, A2: Display image, A3: Viewing image A4 ... target image, A5, A6 ... display image, A7 ... target image, A8 ... display image, A9 ... target image, A10 ... display image, Ba ... image, Bb ... third color image, Bc ... inscribed rectangle, C1 ... first correction coefficient, C2 ... second correction coefficient, Ca, Cb, Cc, Cd ... correction coefficient, D1 ... first direction, D2 ... second direction, D5, D6 ... direction, DLa ... incident direction, DLb ... reflection Direction, Ga ... image, Gb ... second color image, Gc ... inscribed rectangle, L1, L2, L3 ... light, Ln1-Ln10 ... length, PA, PB ... position, PI ... image, Pa, Pb, Pr ... Region, Pw ... image, Q1 ... first image, R1 ... first region (target region), R2 ... second region, Ra ... image, Rb ... first color image, Rc ... inscribed rectangle, Rd ... region, S1 ... 1st image area, S2 ... 2nd image area, Sa ... overlapping region, Sb ... non-overlapping region, S510-S514, S520, S521, S525-S527, S530-S532, S540, S542 ... step

Claims (9)

表示画像の画像情報を含む光を出射する光学部と、
前記光学部から出射される前記光の少なくとも一部を観視者の瞳孔へ向けて反射させる反射部と、
前記反射部と前記瞳孔との位置関係に基づいて、対象画像の少なくとも一部の対象領域の大きさ及び形状の少なくとも一方を変更して前記表示画像を生成する画像処理部と、
を備えた画像表示装置。
An optical unit that emits light including image information of a display image;
A reflection unit that reflects at least a part of the light emitted from the optical unit toward a pupil of a viewer;
An image processing unit that generates the display image by changing at least one of a size and a shape of a target region of at least a part of the target image based on a positional relationship between the reflection unit and the pupil;
An image display device comprising:
前記画像処理部は、前記位置関係と、前記対象画像のサイズ情報と、に基づいて前記対象領域の大きさ及び形状の前記少なくとも一方を変更して前記表示画像を生成する請求項1記載の画像表示装置。   The image according to claim 1, wherein the image processing unit generates the display image by changing the at least one of a size and a shape of the target region based on the positional relationship and the size information of the target image. Display device. 前記画像処理部は、前記対象領域の画像情報が、前記位置関係に基づいて定まる前記表示画像の第1画像領域内に表示されるよう前記表示画像を生成する請求項1または2に記載の画像表示装置。   The image according to claim 1, wherein the image processing unit generates the display image so that image information of the target region is displayed in a first image region of the display image determined based on the positional relationship. Display device. 前記観視者によって観視される観視像は、前記対象画像の前記対象領域に基づいて形成された第1像を含み、
前記画像処理部は、前記対象領域のアスペクト比が、前記第1像のアスペクト比と等しくなるよう前記表示画像を生成する請求項1〜3のいずれか1つに記載の画像表示装置。
The viewing image viewed by the viewer includes a first image formed based on the target area of the target image,
The image display device according to claim 1, wherein the image processing unit generates the display image so that an aspect ratio of the target region is equal to an aspect ratio of the first image.
前記画像処理部は、前記位置関係に対応した補正係数を用いて前記対象画像に含まれる複数の画素の座標を変換して前記表示画像を生成する請求項1〜4のいずれか1つに記載の画像表示装置。   The said image processing part converts the coordinate of the some pixel contained in the said target image using the correction coefficient corresponding to the said positional relationship, and produces | generates the said display image. Image display device. 前記複数の画素のそれぞれは、複数の色成分を有し、
前記画像処理部は、前記色成分ごとに座標変換を行う請求項5記載の画像表示装置。
Each of the plurality of pixels has a plurality of color components,
The image display device according to claim 5, wherein the image processing unit performs coordinate conversion for each of the color components.
前記画像処理部は、前記反射部と前記瞳孔との複数の位置関係に対応する複数の補正係数を記憶し、前記位置関係に基づいて前記複数の補正係数から補正に用いる前記補正係数を選択する請求項5または6に記載の画像表示装置。   The image processing unit stores a plurality of correction coefficients corresponding to a plurality of positional relationships between the reflecting unit and the pupil, and selects the correction coefficient used for correction from the plurality of correction coefficients based on the positional relationship. The image display device according to claim 5 or 6. 前記光学部と前記反射部との相対的配置を制御する位置制御部をさらに備え、
前記光学部と前記反射部との間の距離が可変である請求項5〜7のいずれか1つに記載の画像表示装置。
A position control unit for controlling a relative arrangement of the optical unit and the reflection unit;
The image display device according to claim 5, wherein a distance between the optical unit and the reflection unit is variable.
対象画像を取得する取得部と、
前記対象画像の少なくとも一部の対象領域の大きさ及び形状の少なくとも一方を変更して表示画像を生成する画像処理部であって、前記表示画像は、光学部から出射される前記表示画像の画像情報を含む光の少なくとも一部を観視者の瞳孔へ向けて反射させる反射部と前記瞳孔との位置関係に基づいて生成される、前記画像処理部と、
を備えた画像処理装置。
An acquisition unit for acquiring a target image;
An image processing unit that generates a display image by changing at least one of a size and a shape of at least a part of a target region of the target image, wherein the display image is an image of the display image emitted from an optical unit The image processing unit that is generated based on a positional relationship between the pupil and a reflecting unit that reflects at least part of the light including information toward the pupil of the viewer;
An image processing apparatus.
JP2015147788A 2015-07-27 2015-07-27 Image display device and image processing device Abandoned JP2017026943A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015147788A JP2017026943A (en) 2015-07-27 2015-07-27 Image display device and image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015147788A JP2017026943A (en) 2015-07-27 2015-07-27 Image display device and image processing device

Publications (1)

Publication Number Publication Date
JP2017026943A true JP2017026943A (en) 2017-02-02

Family

ID=57946497

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015147788A Abandoned JP2017026943A (en) 2015-07-27 2015-07-27 Image display device and image processing device

Country Status (1)

Country Link
JP (1) JP2017026943A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113412615A (en) * 2019-02-14 2021-09-17 株式会社资生堂 Information processing terminal, program, information processing system, and color correction method

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07177442A (en) * 1992-12-25 1995-07-14 Olympus Optical Co Ltd Face or head mounted display device
JPH08292394A (en) * 1995-01-24 1996-11-05 Matsushita Electric Ind Co Ltd Head-mounted image display device
JP2002162597A (en) * 2000-11-22 2002-06-07 Toshiba Corp Wearable display device
JP2004233867A (en) * 2003-01-31 2004-08-19 Nikon Corp Picture display device
JP2008203550A (en) * 2007-02-20 2008-09-04 Canon Inc Head-mounted display device
JP2010091870A (en) * 2008-10-09 2010-04-22 Canon Inc Image processing apparatus and method therefor, head mounted type display, program, and recording medium
JP2011017777A (en) * 2009-07-07 2011-01-27 Shimadzu Corp Image display device
WO2014017348A1 (en) * 2012-07-24 2014-01-30 ソニー株式会社 Image display device and image display method
JP2014021708A (en) * 2012-07-18 2014-02-03 Nikon Corp Head-mounted information input/output device and head-mounted information input/output method
JP2014199385A (en) * 2013-03-15 2014-10-23 日本精機株式会社 Display device and display method thereof
JP2015015563A (en) * 2013-07-04 2015-01-22 セイコーエプソン株式会社 Image display device
JP2015102868A (en) * 2013-11-21 2015-06-04 中強光電股▲ふん▼有限公司 Head-up display system

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07177442A (en) * 1992-12-25 1995-07-14 Olympus Optical Co Ltd Face or head mounted display device
JPH08292394A (en) * 1995-01-24 1996-11-05 Matsushita Electric Ind Co Ltd Head-mounted image display device
JP2002162597A (en) * 2000-11-22 2002-06-07 Toshiba Corp Wearable display device
JP2004233867A (en) * 2003-01-31 2004-08-19 Nikon Corp Picture display device
JP2008203550A (en) * 2007-02-20 2008-09-04 Canon Inc Head-mounted display device
JP2010091870A (en) * 2008-10-09 2010-04-22 Canon Inc Image processing apparatus and method therefor, head mounted type display, program, and recording medium
JP2011017777A (en) * 2009-07-07 2011-01-27 Shimadzu Corp Image display device
JP2014021708A (en) * 2012-07-18 2014-02-03 Nikon Corp Head-mounted information input/output device and head-mounted information input/output method
WO2014017348A1 (en) * 2012-07-24 2014-01-30 ソニー株式会社 Image display device and image display method
JP2014199385A (en) * 2013-03-15 2014-10-23 日本精機株式会社 Display device and display method thereof
JP2015015563A (en) * 2013-07-04 2015-01-22 セイコーエプソン株式会社 Image display device
JP2015102868A (en) * 2013-11-21 2015-06-04 中強光電股▲ふん▼有限公司 Head-up display system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113412615A (en) * 2019-02-14 2021-09-17 株式会社资生堂 Information processing terminal, program, information processing system, and color correction method
CN113412615B (en) * 2019-02-14 2024-04-05 株式会社资生堂 Information processing terminal, recording medium, information processing system, and color correction method

Similar Documents

Publication Publication Date Title
JP5886896B2 (en) Display device
JP5341462B2 (en) Aberration correction method, image processing apparatus, and image processing system
JP5222856B2 (en) Image display device, display method thereof, program, integrated circuit, eyeglass-type head-mounted display, automobile, binoculars, and desktop display
US8456485B2 (en) Image processing apparatus and method, head mounted display, program, and recording medium
US11200646B2 (en) Compensation for deformation in head mounted display systems
JP6349660B2 (en) Image display device, image display method, and image display program
US20180197503A1 (en) Image display device and image processing device
WO2020170455A1 (en) Head-mounted display and image display method
JP2005241825A (en) Image display device
JP2004233867A (en) Picture display device
WO2020170454A1 (en) Image generation device, head-mounted display, and image generation method
JP2017026943A (en) Image display device and image processing device
JPWO2020170456A1 (en) Display device and image display method
US10884254B2 (en) Image display device having ocular optical system causing images to overlap in a blending area
US10718949B1 (en) Display apparatus and method of displaying
US20180268779A1 (en) Image display apparatus, image display method, and storage medium
CN112748573B (en) Head-mounted display device and display method
JP7388135B2 (en) head mounted display
WO2024057930A1 (en) Correction method, measurement method, and head-mounted display system
US10510139B2 (en) Image display apparatus
US20200033595A1 (en) Method and system for calibrating a wearable heads-up display having multiple exit pupils
JP2017026944A (en) Display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190104

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190701

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20190717