JP2012103753A - Image processing method, image processor and correction processing program - Google Patents

Image processing method, image processor and correction processing program Download PDF

Info

Publication number
JP2012103753A
JP2012103753A JP2010248979A JP2010248979A JP2012103753A JP 2012103753 A JP2012103753 A JP 2012103753A JP 2010248979 A JP2010248979 A JP 2010248979A JP 2010248979 A JP2010248979 A JP 2010248979A JP 2012103753 A JP2012103753 A JP 2012103753A
Authority
JP
Japan
Prior art keywords
image
correction
observer
information
aberration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010248979A
Other languages
Japanese (ja)
Inventor
Toru Sasaki
亨 佐々木
Takashi Kawai
川井  隆
Junichi Machida
純一 町田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010248979A priority Critical patent/JP2012103753A/en
Publication of JP2012103753A publication Critical patent/JP2012103753A/en
Pending legal-status Critical Current

Links

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To correct an image based on the degree of aberration in consideration of the fact that the degree of aberration that occurs on the retina of a viewer varies according to the viewer's pupil diameter, in order to solve the problem in which the sharpness of an image is deteriorated due to aberration that occurs on a viewer's retinal images when the viewer views the image displayed on a display device.SOLUTION: An image processing method involves an aberration estimation process 206 in which to estimate the amount of aberration occurring on the eyes of a viewer using information on the viewer's pupil diameter, a correction amount acquisition process 208 in which to convert the estimated aberration amount obtained in the aberration estimation process to the amount of correction for an input image and a correction process 217 in which to perform the correction based on the correction amount obtained in the correction amount acquisition process.

Description

本発明は、観察者の眼の収差を考慮した画像の補正処理を行なうことにより、観察者が知覚する画像の画質を向上させる画像処理方法に関する。   The present invention relates to an image processing method that improves the image quality of an image perceived by an observer by performing an image correction process in consideration of the aberration of the eye of the observer.

人間は、眼の水晶体により物体の光学像を網膜上に結像させ、網膜上の視覚神経細胞により得られた信号を脳内で像として認識することで、物体を知覚する。水晶体は、写真撮影に用いられるレンズのように収差が抑制されてはいないので、網膜像には少なからず収差が含まれる。収差の中でも色収差については、水晶体のような分散を有する材質からなる単レンズでは抑制できないことが知られている。そのため、網膜上に焦点が合い易い緑色光に比べて、赤色光や青色光は焦点が正確にはあっておらず、いわゆる「ボケた」像となっている。   Humans perceive an object by forming an optical image of the object on the retina with the crystalline lens of the eye and recognizing a signal obtained by the visual nerve cell on the retina as an image in the brain. Since the lens is not suppressed in aberrations unlike a lens used for taking a photograph, the retinal image includes a certain amount of aberration. Among aberrations, it is known that chromatic aberration cannot be suppressed by a single lens made of a material having dispersion such as a crystalline lens. Therefore, compared to green light which is easy to focus on the retina, red light and blue light are not accurately focused and are so-called “blurred” images.

知覚された像に収差の影響が感じられにくいのは、網膜上の視覚神経細胞により得られた信号を脳内で像として認識する際に補正を行なっているためである。   The reason that the influence of aberration is hardly felt in the perceived image is that correction is performed when a signal obtained by the visual nerve cell on the retina is recognized as an image in the brain.

観察者の眼の特性を考慮して画質を向上させた表示装置及び画像処理方法が、特許文献1に開示されている。   A display device and an image processing method that improve the image quality in consideration of the characteristics of the eyes of the observer are disclosed in Patent Document 1.

特許文献1に開示されている車両用表示装置は、視線検出機能、及び、運転者の眼の網膜像と車両外部の撮影結果と比較する機能、を備えている。網膜像は、車両外部の撮影結果に対し、事前に記録した運転者の眼の光学的伝達関数を作用させることで生成する。これらの機能を用いて視認が難しい箇所を特定した後、強調表示することで、運転者に注意を促すことを目的としている。また、運転者の眼の光学的伝達関数として、運転者に固有の収差についても例示されている。   The vehicle display device disclosed in Patent Document 1 has a line-of-sight detection function and a function of comparing a retinal image of a driver's eye with a photographing result outside the vehicle. The retinal image is generated by applying the optical transfer function of the driver's eye recorded in advance to the photographing result outside the vehicle. The purpose is to alert the driver by highlighting a point that is difficult to visually recognize using these functions. Further, as an optical transfer function of the driver's eyes, an aberration inherent to the driver is also illustrated.

特開平6−233306号公報JP-A-6-233306

一般に単レンズの収差は、レンズの周辺部を通過した光線で最も大きくなる。   In general, the aberration of a single lens is the largest for light rays that have passed through the periphery of the lens.

このことは眼の水晶体についても同様である。眼の瞳孔が小さく開いた状態に比べて、大きく開いた状態では収差の影響が大きくなる。   The same applies to the eye lens. The effect of aberration is greater when the pupil of the eye is wide open than when the eye pupil is small open.

その結果として、脳内で補正しきれずに知覚される像の見え(画質)に影響が現れることになる。   As a result, the appearance (image quality) of the image perceived without being corrected in the brain is affected.

液晶テレビなどの表示装置に関して言えば、表示装置が据えられている部屋が暗い場合には、表示装置を見ている観察者の瞳孔が開くことで収差が強く発生し、表示画面上でピントが合いにくい光に対して知覚される像の画質が低下することになる。   In the case of a display device such as a liquid crystal television set, when the room where the display device is installed is dark, the pupil of the observer who is watching the display device opens up and aberrations are strongly generated. The image quality perceived for light that is difficult to match will be reduced.

特許文献1に記載の方法のように、視線検出を用いて得られた視線方向や注視点情報を基にして、表示画像を補正する方法は知られている。だが、画像のボケに影響する収差は視線方向の変化が原因ではないため、これらの情報を補正に用いることはできない。   As in the method described in Patent Document 1, a method for correcting a display image based on a gaze direction and gaze point information obtained by using gaze detection is known. However, since aberrations that affect image blur are not caused by changes in the line-of-sight direction, such information cannot be used for correction.

さらに特許文献1には、運転者(表示装置の観察者)の眼の収差の記録手段に関する記載もある。しかし、運転者の瞳孔径の変化についての考慮は無く、従って、瞳孔径に伴って変化する収差の補正については対応できていなかった。   Further, Patent Document 1 also describes a means for recording aberrations of the eyes of the driver (observer of the display device). However, there is no consideration for changes in the pupil diameter of the driver, and therefore, correction of aberrations that change with the pupil diameter cannot be handled.

本発明の画像処理方法は、
画像表示装置において表示される表示画像の観察者の眼に生じる収差を推定する収差推定工程と、
前記収差推定工程により得られた収差推定量を、入力画像の補正量に変換する補正量取得工程と、
前記補正量取得工程により得られた補正量に従って前記画像情報に対する補正処理を実行する補正工程と、
を有することを特徴とする。
The image processing method of the present invention includes:
An aberration estimation step for estimating aberrations occurring in the eyes of the observer of the display image displayed in the image display device;
A correction amount acquisition step of converting the aberration estimation amount obtained by the aberration estimation step into a correction amount of the input image;
A correction step of performing a correction process on the image information according to the correction amount obtained by the correction amount acquisition step;
It is characterized by having.

本発明によれば、観察者の眼に生じる収差を推定し、収差の影響を抑制する補正を画像情報に対して施すことで、表示装置において表示される表示画像に対して観察者が知覚する像の見え(画質)の向上が可能になる。   According to the present invention, the observer perceives the display image displayed on the display device by estimating the aberration generated in the eye of the observer and performing correction for suppressing the influence of the aberration on the image information. Image appearance (image quality) can be improved.

実施例1に関する表示装置の構成図である。1 is a configuration diagram of a display device according to Embodiment 1. FIG. 実施例1に関する表示装置の映像制御部で行われる画像処理の流れについて示した図である。FIG. 6 is a diagram illustrating a flow of image processing performed by a video control unit of the display device according to the first embodiment. 数式1の変数と物理量の関係について述べた図である。It is the figure which described the relationship between the variable of Numerical formula 1, and a physical quantity. 数式2における網膜像輝度と瞳孔径の関係を示した図である。It is the figure which showed the relationship between the retinal image brightness | luminance in Numerical formula 2, and a pupil diameter. 青色及び緑色に関するMTFと補正量の関係を説明する図である。It is a figure explaining the relationship between MTF and correction amount regarding blue and green. 実施例2に関する表示装置の構成図である。6 is a configuration diagram of a display device according to Embodiment 2. FIG. 実施例2に関する表示装置の映像制御部で行われる画像処理の流れについて示した図である。FIG. 10 is a diagram illustrating a flow of image processing performed by a video control unit of a display device according to a second embodiment. 実施例2で想定している瞳孔径と脈拍の関係を説明する図である。It is a figure explaining the relationship between the pupil diameter assumed in Example 2, and a pulse. 実施例3に関する表示装置の構成図である。FIG. 10 is a configuration diagram of a display device according to a third embodiment. 瞳孔径測定用小型カメラの構成図である。It is a block diagram of the small camera for pupil diameter measurement. 実施例3に関する表示装置の計算・メモリモジュールで行われる画像処理の流れについて示した図である。FIG. 10 is a diagram illustrating a flow of image processing performed by a calculation / memory module of a display device according to a third embodiment. 実施例4に関する表示装置の映像制御部で行われる画像処理の流れについて示した図である。FIG. 10 is a diagram illustrating a flow of image processing performed by a video control unit of a display device according to a fourth embodiment.

まず始めに、本発明の実施の形態に共通する事柄について説明する。本発明を構成する収差推定工程では、観察者の眼に発生する収差を瞳孔径を得ることにより推定する。ここでは瞳孔径の変化により影響を受ける収差を取り扱う。そのような収差には、瞳孔の通過位置の異なる光の焦点距離の差により発生する「球面収差」や、波長の異なる光の焦点距離の差を原因とする「縦色収差」がある。   First, matters common to the embodiments of the present invention will be described. In the aberration estimation step constituting the present invention, the aberration occurring in the observer's eye is estimated by obtaining the pupil diameter. Here, aberrations affected by changes in pupil diameter are handled. Such aberrations include “spherical aberration” that occurs due to differences in the focal lengths of light having different pupil passing positions, and “longitudinal chromatic aberration” that is caused by differences in the focal lengths of light having different wavelengths.

球面収差が発生した場合、光学像が全体的にボケて、鮮明さが低下する。球面収差に関する補正では、ボケた像をピントがあった像に近付けるように補正を行う。   When spherical aberration occurs, the optical image is totally blurred and the sharpness is lowered. In the correction for spherical aberration, correction is performed so that a blurred image is brought closer to the focused image.

一方、縦色収差の場合には、焦点距離が短くなる青色光の像が、他の色よりもボケやすい。遠視の観察者の場合には、焦点距離が短い青色の方がピントが合いやすいため、赤色光にボケが発生する。水晶体の形状によっては、複数の色光が大きくボケてしまう場合もある。縦色収差に関する補正では、ピントが合いやすい色と比べてボケやすい色に関して補正を行う。ボケやすい色が複数ある場合には、複数の色に対して補正を行う。   On the other hand, in the case of longitudinal chromatic aberration, an image of blue light whose focal length is shortened is more blurred than other colors. In the case of a farsighted observer, the blue light with a shorter focal length is more easily focused, and the red light is blurred. Depending on the shape of the crystalline lens, a plurality of color lights may be greatly blurred. In the correction for longitudinal chromatic aberration, correction is performed for a color that is more blurred than a color that is easily focused. When there are a plurality of colors that are likely to be blurred, correction is performed on the plurality of colors.

瞳孔径の取得は、直接測定、あるいは、瞳孔径以外の情報からの推定により行われる。直接測定としては、例えば、観察者が画面を見ているときの瞳孔を含む領域を撮影し、瞳孔の大きさを画像から求める。瞳孔径以外の情報からの推定は、表示画面の明るさ、周辺光、心拍数や発汗などの生体反応、部屋の雰囲気等の、瞳孔径に影響するパラメータと瞳孔径の関係を実験等により関数またはテーブルを作成することで行われる。時刻や気温等のパラメータは、瞳孔径には直接影響しないが、周辺光や発汗などの瞳孔径に影響するパラメータに影響するので、同様な方法で推定に用いることができる。   The acquisition of the pupil diameter is performed by direct measurement or estimation from information other than the pupil diameter. As the direct measurement, for example, a region including the pupil when the observer is looking at the screen is photographed, and the size of the pupil is obtained from the image. Estimating from information other than the pupil diameter is a function of the relationship between parameters affecting the pupil diameter and the pupil diameter, such as brightness of the display screen, ambient light, biological reactions such as heart rate and sweating, room atmosphere, etc. Or by creating a table. Parameters such as time and temperature do not directly affect the pupil diameter, but affect parameters affecting the pupil diameter, such as ambient light and perspiration, and can be used for estimation in a similar manner.

本発明を構成する補正量取得工程と補正工程で扱う補正処理では、収差による画質の劣化(高周波成分の抑制や階調の変化)が生じないように、劣化を相殺できる画像処理を表示画像に施す。具体的には、高周波成分の抑制を相殺するために、高周波成分強調フィルタを使って高周波強調を行う、あるいは、階調の変化と逆の効果を持つ階調変換を施す。   In the correction amount acquisition process and the correction process that constitutes the present invention, image processing that can offset the deterioration is applied to the display image so as not to cause deterioration in image quality (suppression of high-frequency components or change in gradation) due to aberrations. Apply. Specifically, in order to cancel out suppression of the high frequency component, high frequency enhancement is performed using a high frequency component enhancement filter, or gradation conversion having an effect opposite to the change in gradation is performed.

ただし、階調や高周波成分の変化が知覚される際には、色恒常性のような心理的な補正が行われるので、収差の値のみに基づいて補正処理を実行するわけではない。また、心理的な補正により、異なる処理を行っていても似たような知覚効果が得られる場合がある。高周波成分の強調に関して言うと、高周波成分強調フィルタと、エッジ強調フィルタは厳密には異なる処理でも、心理的には同じような効果が期待できる。心理的な補正による効果は主観評価実験により見積もることができるので、収差から求めた補正量から効果を割り引く、あるいは、主観評価実験値から直接補正量を求めることで、正確な補正が可能になる。   However, since a psychological correction such as color constancy is performed when a change in gradation or high frequency component is perceived, the correction process is not executed based only on the aberration value. Also, due to psychological correction, a similar perceptual effect may be obtained even if different processing is performed. Regarding the enhancement of high frequency components, psychologically similar effects can be expected even if the high frequency component enhancement filter and the edge enhancement filter are strictly different processes. Since the effect of psychological correction can be estimated by subjective evaluation experiments, accurate correction is possible by discounting the effect from the correction amount obtained from the aberration or by directly obtaining the correction amount from the subjective evaluation experimental value. .

本発明の第一の実施の形態について、図1を用いて説明する。本発明の表示装置は、表示画面101、リモートコントローラー102、制御信号受信部103、周辺光量測定部104、観察者位置測距部105、映像制御部106、映像入出力端子107より構成される。   A first embodiment of the present invention will be described with reference to FIG. The display device of the present invention includes a display screen 101, a remote controller 102, a control signal receiving unit 103, a peripheral light amount measuring unit 104, an observer position ranging unit 105, a video control unit 106, and a video input / output terminal 107.

本発明の表示装置における処理の流れについて説明する。リモートコントローラー102から発せられた表示番組制御信号は、制御信号受信部103で受信される。表示番組制御信号に従って、表示対象となる動画像信号が映像入出力端子107に入力される。   A flow of processing in the display device of the present invention will be described. The display program control signal issued from the remote controller 102 is received by the control signal receiving unit 103. A moving image signal to be displayed is input to the video input / output terminal 107 in accordance with the display program control signal.

入力された動画像信号は、フレーム毎に分割されて、順番に映像制御部106に送信される。映像制御部106に動画像中の1フレームが入力されるのと同期して、周辺光量測定部104に備えられている簡易的な測光計により、表示装置周辺の照度(周辺光量測定値)が測定され、映像制御部106に送信される。   The input moving image signal is divided into frames and transmitted to the video control unit 106 in order. In synchronism with the input of one frame in the moving image to the video control unit 106, the illuminance around the display device (peripheral light amount measurement value) is obtained by a simple photometer provided in the peripheral light amount measurement unit 104. Measured and transmitted to the video controller 106.

同様に、観察者位置測距部105により観察者への距離が測定され、映像制御部106に送信される。観察者位置測距部105は、一眼レフカメラのオートフォーカス機能で一般的に知られている、多点測距を応用した測定器を搭載する。具体的には、設定画面において事前に選択された測距点に対して距離を測定し、距離の平均値を観察者への距離とする。   Similarly, the distance to the observer is measured by the observer position ranging unit 105 and transmitted to the video control unit 106. The observer position ranging unit 105 is equipped with a measuring device that applies multi-point ranging, which is generally known for the autofocus function of a single-lens reflex camera. Specifically, the distance is measured with respect to the distance measuring point selected in advance on the setting screen, and the average value of the distance is set as the distance to the observer.

映像制御部106では、1フレームに含まれる画像情報と、周辺光量測定値、観察者距離を用いて、本発明で提案する画像処理方法に基づいた補正処理が実行され、補正が行われた後に、通常の表示装置で行われる色変換処理、階調変換処理が施される。   After the image control unit 106 performs correction processing based on the image processing method proposed in the present invention using the image information included in one frame, the peripheral light amount measurement value, and the observer distance, Then, color conversion processing and gradation conversion processing performed in a normal display device are performed.

映像制御部106で実行される画像処理の流れについて図2を用いて説明する。映像制御部106に入力された画像データ201は、RED、GREEN、BLUEの3色の色信号からなるカラー画像であり、1フレームはRED信号からなるR面、GREEN信号からなるG面、BLUE信号からなるB面、の3枚のカラー画像平面(RGB面)から構成される。このようなRGB面からなる画像データ201は、画像データにすでに施されているガンマ補正の影響を除くために、線形化処理工程216により画像データの画素値が表示輝度に比例するように階調変換する。次に、表示画面上平均輝度推定工程202により表示画面上の平均輝度推定値203(以下では、表示画面輝度と略す)を算出する。表示画面輝度203の算出では、画像データ201のG面における平均画素値を求め、平均画素値に対応する輝度値を表示画面の輝度特性から求める。G面の平均画素値を推定に用いたのは、明るさに対する人間の眼の分光感度特性が、表示装置で用いられる緑色画素の分光輝度特性とほぼ同じなためである。   The flow of image processing executed by the video control unit 106 will be described with reference to FIG. The image data 201 input to the video control unit 106 is a color image composed of three color signals of RED, GREEN, and BLUE. One frame is an R plane composed of a RED signal, a G plane composed of a GREEN signal, and a BLUE signal. It is comprised from three color image planes (RGB surface) of the B surface which consists of these. In order to remove the influence of the gamma correction already applied to the image data, the image data 201 composed of such RGB planes has a gradation so that the pixel value of the image data is proportional to the display luminance by the linearization processing step 216. Convert. Next, an average luminance estimated value 203 (hereinafter abbreviated as display screen luminance) on the display screen is calculated by the average on-screen luminance estimation step 202. In calculating the display screen luminance 203, an average pixel value in the G plane of the image data 201 is obtained, and a luminance value corresponding to the average pixel value is obtained from the luminance characteristics of the display screen. The reason why the average pixel value on the G plane is used for the estimation is that the spectral sensitivity characteristic of the human eye with respect to the brightness is almost the same as the spectral luminance characteristic of the green pixel used in the display device.

[収差推定工程]
次に収差推定工程206で、観察者の網膜像平均輝度を用いて瞳孔径を推定し、眼の色収差を推定する。
表示画面輝度203と、周辺光量測定値204、観察者距離205から収差推定値207を算出する。収差推定工程206では、まず観察者の瞳孔が開いた状態での網膜像の平均輝度(以下では、網膜像輝度と略す)を数式1により推定する。
[Aberration estimation process]
Next, in an aberration estimation step 206, the pupil diameter is estimated using the average retinal image luminance of the observer, and the chromatic aberration of the eye is estimated.
An aberration estimation value 207 is calculated from the display screen luminance 203, the peripheral light amount measurement value 204, and the observer distance 205. In the aberration estimation step 206, first, the average luminance of the retinal image with the observer's pupil open (hereinafter abbreviated as retinal image luminance) is estimated by Equation 1.

ここで、Αは視野角、Φは表示画面の面積、Dは観察者から表示画面への距離、PとQは輝度に関する変数、SとTは比率に関する変数である。   Here, Α is the viewing angle, Φ is the area of the display screen, D is the distance from the observer to the display screen, P and Q are variables relating to luminance, and S and T are variables relating to the ratio.

数式1と物理量の関係を図3により説明する。数式1により得られる輝度は、表示画面301の周囲に仮想的な拡散反射面308が存在したときに、視野内に収まる領域の輝度の平均値を求めたものである。表示画面301と網膜304は結像関係であるので、得られる輝度の平均値が、網膜上の輝度の平均値とほぼ同じ値になる、ことに基づいている。   The relationship between Formula 1 and the physical quantity will be described with reference to FIG. The luminance obtained by Equation 1 is obtained by calculating the average value of the luminances of the regions that fall within the visual field when the virtual diffuse reflection surface 308 exists around the display screen 301. Since the display screen 301 and the retina 304 are in an imaging relationship, it is based on the fact that the average luminance value obtained is almost the same as the average luminance value on the retina.

数式1のパラメータについて、より詳細な説明を行う。図3には、表示画面301と観察者の眼302の関係が示されている。観察者の眼302は、大まかには水晶体303と網膜304から構成され、表示画面301と網膜304は結像関係にある。数式1の変数Αは視野角305であり、変数Φは表示画面の面積306、変数Dは観察者から表示画面への距離307である。   A more detailed description of the parameters of Equation 1 will be given. FIG. 3 shows the relationship between the display screen 301 and the eyes 302 of the observer. The observer's eye 302 is roughly composed of a crystalline lens 303 and a retina 304, and the display screen 301 and the retina 304 are in an imaging relationship. The variable の in Equation 1 is the viewing angle 305, the variable Φ is the display screen area 306, and the variable D is the distance 307 from the observer to the display screen.

変数Pは表示画面301の周囲に仮に存在するとした仮想拡散反射面308の平均輝度で、照明309により周辺光量測定値204で照らされたとして求めることができる。変数Qは表示画面301に対して推定された表示画面輝度203である。   The variable P is the average brightness of the virtual diffuse reflection surface 308 that is supposed to exist around the display screen 301 and can be obtained as being illuminated by the ambient light amount measurement value 204 by the illumination 309. The variable Q is the display screen brightness 203 estimated with respect to the display screen 301.

変数Sは結像による輝度補正比率である。非特許文献1にも記載されているように、十分に収差が抑制された光学系であれば、物体の輝度と像の輝度は一致することが知られているが、水晶体の収差は抑制されておらず透過率も低いため、輝度補正が必要である。ここでは、水晶体に対する照明シミュレーションにより事前に求めた値を輝度補正比率として用いる。   A variable S is a luminance correction ratio by image formation. As described in Non-Patent Document 1, it is known that if the optical system has sufficiently suppressed aberration, the luminance of the object and the luminance of the image coincide with each other, but the aberration of the crystalline lens is suppressed. Since the transmittance is low, luminance correction is necessary. Here, a value obtained in advance by an illumination simulation for the crystalline lens is used as the luminance correction ratio.

変数Tは表示装置の設置環境に応じた定数である。表示装置が白色の壁に壁掛けで設置されている場合は、表示装置の周囲に実際に拡散反射面が存在する状況になるため、T=1とし、壁から離れて設置される場合や壁の色が黒に近い場合はTを0に近づける。この数値は観測者が表示装置設置時に設定する。   The variable T is a constant corresponding to the installation environment of the display device. When the display device is installed on a white wall, the diffuse reflection surface actually exists around the display device. Therefore, when T = 1, the case where the display device is installed away from the wall If the color is close to black, T is brought close to 0. This value is set by the observer when the display device is installed.

次に、数式1により得られた網膜像輝度から、数式2で与えられる関数Rにより瞳孔径を算出する。   Next, the pupil diameter is calculated from the retinal image luminance obtained by Equation 1 using the function R given by Equation 2.

ここで、Bは数式1に従って推定された網膜像輝度、RMIN、RMAXは瞳孔径の最小・最大値、BMINは瞳孔径がRMAXのときに推定される網膜像輝度の最大値、BMAXは瞳孔径がRMINのときに推定される網膜像輝度の最小値、である。RMIN、RMAX、BMIN、BMAXは実験により容易に求めることができる。 Here, B is the retinal image luminance estimated according to Equation 1, R MIN and R MAX are the minimum and maximum values of the pupil diameter, B MIN is the maximum value of the retinal image luminance estimated when the pupil diameter is R MAX , B MAX is a minimum value of the retinal image luminance estimated when the pupil diameter is R MIN . R MIN , R MAX , B MIN , and B MAX can be easily determined by experiment.

数式2の理解を深めるために、網膜像輝度を0から上昇させた場合の瞳孔径推定値の変化を図4により説明する。網膜像輝度がBMIN以下である場合、像が暗く見にくい状態であるため、網膜に届く光が最大になるように瞳孔径は最大値RMAXに調整される。網膜像輝度がBMIN〜BMAXにある場合、網膜像の光量が一定になるように瞳孔径が調整される。網膜像の光量は近似的に(網膜像輝度)×(瞳孔の面積)×(網膜の面積)/(水晶体の焦点距離)として与えられるが、(網膜の面積)と(水晶体の焦点距離)は変化しないため、(網膜像輝度)×(瞳孔の面積)が一定の定数になるように瞳孔径を調節する。数式2においては、瞳孔径が最大の場合の光量が基準になるように、上記定数をBMIN×ΠRMAX /4とした。言うまでもないが、瞳孔が最小の場合を基準として定数を決めたり、定数ではなく、瞳孔が最小と最大の場合の間を滑らかにつなぐような関数を(網膜像輝度)×(瞳孔の面積)の基準としても良い。網膜像輝度がBMAX以上である場合は、像が明るすぎる状態であるので、網膜に届く光が最小になるように瞳孔径は最小値RMINに調整される。 In order to deepen the understanding of Equation 2, changes in the estimated pupil diameter when the retinal image brightness is increased from 0 will be described with reference to FIG. If retinal image brightness is less than B MIN, because the image is dark ugly state, pupil diameter such that the light that reaches the retina is maximum is adjusted to the maximum value R MAX. When the retinal image luminance is between B MIN and B MAX , the pupil diameter is adjusted so that the amount of light in the retinal image is constant. The amount of light of the retinal image is approximately given as (retinal image luminance) × (pupil area) × (retinal area) / (focal length of the lens), but (retinal area) and (focal length of the lens) are Since there is no change, the pupil diameter is adjusted so that (retinal image luminance) × (pupil area) becomes a constant constant. In Equation 2, so that the pupil diameter becomes the reference light amount in the case of the maximum, and the constant and B MIN × ΠR MAX 2/4 . Needless to say, a constant is determined based on the minimum pupil, or a function that smoothly connects between the minimum and maximum pupils instead of the constant is (retinal image brightness) × (pupil area). It is good as a standard. If retinal image brightness is B MAX or more, because it is state image is too bright, the pupil diameter such that the light that reaches the retina is minimized is adjusted to a minimum value R MIN.

瞳孔径を推定できれば、統計的に得られる水晶体の形状・屈折率分布情報を用いることで、表示画面上に形成された縞の再現性を表す指標であるMTF(MODULATION TRANSFER FUNCTION)を光学シミュレーションにより計算することが可能になる。収差推定工程206で推定する収差推定値207は、一般に光学設計で用いられる軸上色収差と物理的に同じものであるが、次工程以降で行われる画像補正に適するように、異なる色に関するMTFの比を表す関数F(Ν)(数式3)とする。   If the pupil diameter can be estimated, MTF (MODULATION TRANSFER FUNCTION), which is an index representing the reproducibility of stripes formed on the display screen, is obtained by optical simulation by using statistically obtained lens shape / refractive index distribution information. It becomes possible to calculate. The aberration estimation value 207 estimated in the aberration estimation step 206 is physically the same as the axial chromatic aberration generally used in optical design, but the MTF of different colors is suitable for image correction performed in the subsequent steps. A function F (Ν) (Expression 3) representing the ratio is used.

ここで、MTFΛ,R(Ν)は、入射光の波長がΛ、瞳孔径がRの場合に生じる眼のMTFであり、上記シミュレーションにより得られた結果とする。MTFの入射光の波長は、分子分母各々に対し、550、470NMとしている。これらの数値は、表示画面の緑色及び青色画素の分光輝度が最大になる波長を想定したものである。続く工程において、緑色・青色画素を用いた色補正を行うために、このような波長を選択したのであるが、他の色の画素を扱う場合や、分光輝度分布が特殊な場合には、波長の変更や、近くの波長に対するMTFとの平均を用いれば良い。   Here, MTFΛ, R (Ν) is the MTF of the eye that occurs when the wavelength of the incident light is Λ and the pupil diameter is R, and is the result obtained by the above simulation. The wavelength of the incident light of the MTF is 550 and 470 NM for each numerator denominator. These numerical values assume the wavelength at which the spectral luminance of the green and blue pixels of the display screen is maximized. In the subsequent process, such a wavelength was selected in order to perform color correction using green and blue pixels, but when dealing with pixels of other colors or when the spectral luminance distribution is special, the wavelength is selected. Or an average with the MTF for a nearby wavelength may be used.

数式1−3は計算途中で光学シミュレーションを必要とすることから、収差推定工程206では計算を行わず、事前に3つの数式を連結したLUT (LOOK−UP TABLE)を作成し、瞬時に収差推定値207を算出できるようにする。   Since Formula 1-3 requires an optical simulation in the middle of the calculation, the aberration estimation step 206 does not perform the calculation, but creates an LUT (LOOK-UP TABLE) by concatenating the three formulas in advance and instantaneously estimates the aberration. The value 207 can be calculated.

[補正量取得工程]
次の補正量取得工程208では、収差推定値207を用いて補正量209を算出する。ここで得られる補正量209は、画像データ201のB面の空間周波数増幅に関する数値であり、数式4で与えられる。
[Correction amount acquisition process]
In the next correction amount acquisition step 208, the correction amount 209 is calculated using the aberration estimated value 207. The correction amount 209 obtained here is a numerical value related to the spatial frequency amplification of the B surface of the image data 201 and is given by Expression 4.

変数ΝMIN,ΝMAXは、補正対象となる空間周波数帯の最小及び最大値、Nは空間周波数帯のサンプル点数である。数式4の内容を理解するには補正処理の知識が必要となるので、次工程と合わせて説明する。   The variables ΝMIN and ΝMAX are the minimum and maximum values of the spatial frequency band to be corrected, and N is the number of sample points in the spatial frequency band. Since knowledge of the correction process is required to understand the contents of Equation 4, it will be described together with the next step.

[補正工程]
次の補正工程210では、補正量209を用いて画像データ201の補正処理を行う。補正工程210は、B面抽出211、空間周波数成分分離212、高周波成分増幅213、画像合成214の各工程から成る。B面抽出工程211では、画像データ201のRGB面の中から補正対象であるB面を抽出する。空間周波数成分分離工程212では、フィルタ処理によりB面を低周波成分と高周波成分に分離する。フィルタ処理は任意に決められるが、本実施例では、ガウシアンフィルタを用いて低周波成分を抽出し、元データから低周波成分を減算することで、高周波成分を抽出する。カットオフ周波数については後述する。
[Correction process]
In the next correction step 210, the correction processing of the image data 201 is performed using the correction amount 209. The correction step 210 includes steps of B-plane extraction 211, spatial frequency component separation 212, high-frequency component amplification 213, and image composition 214. In the B surface extraction step 211, the B surface to be corrected is extracted from the RGB surfaces of the image data 201. In the spatial frequency component separation step 212, the B surface is separated into a low frequency component and a high frequency component by filtering. In the present embodiment, a low frequency component is extracted using a Gaussian filter, and a high frequency component is extracted by subtracting the low frequency component from the original data. The cut-off frequency will be described later.

高周波成分増幅工程213では、B面の高周波成分に対し、補正量209を積算する。画像合成214においては、高周波成分増幅工程213により処理された高周波成分と、空間周波数成分分離工程212により分離されていた低周波成分を合成して、補正後のB面を作成する。R,G面と合わせることにより、補正後画像データ215を生成する。   In the high frequency component amplification step 213, the correction amount 209 is integrated with respect to the high frequency component on the B surface. In the image synthesis 214, the high frequency component processed in the high frequency component amplification step 213 and the low frequency component separated in the spatial frequency component separation step 212 are synthesized to create a corrected B-plane. The corrected image data 215 is generated by combining with the R and G planes.

ここで、数式4の内容、および空間周波数成分分離工程212におけるカットオフ周波数の選び方について図5を用いて説明する。図5(A)には入射光の波長が550NM(緑色光)で瞳孔径が最大の場合に相当する緑色MTF501、及び入射光の波長が470NM(青色光)で瞳孔径が最大の場合に相当する青色MTF502を模式的に示している。色収差の影響で、緑色光と比較して青色光がボケるため、高周波成分において差が生じていることが確認できる。補正工程210では、高周波成分が緑色光と青色光で同じ程度になるように、青色光が形成する光強度分布(つまりB面の画素値)の高周波数成分を増幅する。   Here, the contents of Expression 4 and how to select the cutoff frequency in the spatial frequency component separation step 212 will be described with reference to FIG. FIG. 5A shows a green MTF 501 corresponding to the case where the incident light wavelength is 550 NM (green light) and the pupil diameter is maximum, and the case where the incident light wavelength is 470 NM (blue light) and the pupil diameter is maximum. A blue MTF 502 is schematically shown. Due to the influence of chromatic aberration, blue light is blurred compared with green light, so that it can be confirmed that a difference occurs in high frequency components. In the correction step 210, the high frequency component of the light intensity distribution (that is, the pixel value on the B surface) formed by the blue light is amplified so that the high frequency component is about the same for green light and blue light.

理想的には、B面の空間周波数成分を細かく分離し、数式3で与えられる関数Fを各周波数成分毎に積算すれば良いが、空間周波数成分の抽出に計算時間がかかるために現実的ではない。そこで、空間周波数成分分離工程212において行っているように、空間周波数の分離は二つとし、高周波成分を一律に増幅する。増幅後青色MTF503を図5 (B)に模式的に示す。このように、青色MTF502よりも高周波成分の傾きが緩くなり、緑色MTF501との差が小さくなる。   Ideally, the spatial frequency components on the B surface should be finely separated and the function F given by Equation 3 should be integrated for each frequency component. Absent. Therefore, as in the spatial frequency component separation step 212, the spatial frequency is separated into two and the high frequency components are uniformly amplified. A blue MTF 503 after amplification is schematically shown in FIG. Thus, the slope of the high frequency component becomes gentler than that of the blue MTF 502, and the difference from the green MTF 501 becomes smaller.

数式4により与えられる関数Gは、高周波成分に一律に積算される増幅率であり、数式3で与えられるMTF比率の平均(相乗平均)値を用いている。平均を求める空間周波数帯域は、Gの変数であるΝMIN,ΝMAXにより指定され、空間周波数帯のサンプル点数はNで指定される。ΝMIN,ΝMAXは、両者ともカットオフ周波数504付近の数値を選択する必要があるが、増幅後の画像にノイズが目立つようであれば低周波の数値を選択する。 The function G given by Expression 4 is an amplification factor that is uniformly integrated with the high-frequency component, and uses the average (synergistic average) value of the MTF ratio given by Expression 3. The spatial frequency band for which the average is obtained is designated by G variables Ν MIN and Ν MAX , and the number of sample points in the spatial frequency band is designated by N. For both Ν MIN and 両 者MAX, it is necessary to select a numerical value in the vicinity of the cutoff frequency 504, but if noise appears in the amplified image, a low-frequency numerical value is selected.

増幅後青色MTF503の形状からわかるように、カットオフ周波数504付近で不連続の段差が生じて画質劣化の要因となりうる。そのため、カットオフ周波数504として、眼に捉えられやすい低周波成分は避けて、表示時のナイキスト周波数の数分の1程度の高周波や、MTFが十分に抑制されている周波数を選ぶ。また、自明ではあるが、空間周波数成分分離工程212において、低周波・高周波の二つではなく三つ以上に分割すれば、分割した境界の周波数に発生する段差は抑制できる。   As can be seen from the shape of the blue MTF 503 after amplification, a discontinuous step occurs in the vicinity of the cut-off frequency 504, which may cause image quality degradation. For this reason, as the cutoff frequency 504, a low frequency component that is easily captured by the eye is avoided, and a high frequency that is about a fraction of the Nyquist frequency at the time of display or a frequency at which MTF is sufficiently suppressed is selected. In addition, as is obvious, if the spatial frequency component separation step 212 divides into three or more instead of two of low frequency and high frequency, a step generated at the frequency of the divided boundary can be suppressed.

補正後画像データ215は、表示前処理工程217において色温度調整やガンマ調整等の、通常の表示装置での画像処理を施される。得られた表示用画像データ218が映像制御部106の出力となる。   The post-correction image data 215 is subjected to image processing in a normal display device such as color temperature adjustment and gamma adjustment in a pre-display processing step 217. The obtained display image data 218 becomes the output of the video controller 106.

表示用画像データ218は、表示画面101上に表示され、観察者に提示されることになる。   The display image data 218 is displayed on the display screen 101 and presented to the observer.

このように、本発明の第一の実施の形態は、周辺光の照度等の情報から瞳孔径を推定することにより、観察者の眼に生じる色収差情報を取得し、観察者の色収差を補正するように、B面の高周波成分を強調する色補正機能を備えた表示装置、である。   As described above, the first embodiment of the present invention obtains chromatic aberration information generated in the eyes of the observer by estimating the pupil diameter from information such as the illuminance of the ambient light, and corrects the chromatic aberration of the observer. As described above, the display device includes a color correction function that emphasizes the high-frequency component of the B surface.

本発明の第二の実施の形態について説明する。
第一の実施形態では、表示機器周辺光量を測定して網膜像平均輝度を得、瞳孔径を推定するが、瞳孔径が拡大する状況は、必ずしも周辺光量のみでは決まらず、観察者の心理状態等にも影響される。第二の実施形態は、観察者の心拍や、観察時の時刻情報を用いて、瞳孔径を推定することを第一の特徴とする。さらに、視力補正を行っていない遠視の観察者を想定し、R面に色補正を行うことを第二の特徴とする。
A second embodiment of the present invention will be described.
In the first embodiment, the amount of peripheral light of the display device is measured to obtain the average luminance of the retinal image, and the pupil diameter is estimated.However, the situation in which the pupil diameter increases is not necessarily determined only by the peripheral light amount, and the psychological state of the observer Etc. are also affected. The second embodiment is characterized in that the pupil diameter is estimated using the observer's heartbeat and time information at the time of observation. Furthermore, assuming a hyperopic observer who has not performed visual acuity correction, color correction is performed on the R plane as a second feature.

図6に示される表示装置の構成は、第一の実施形態の構成とほぼ同じであるが、高性能マイク608、インターネット接続端子609、内蔵コンピューター610を備える点が異なる。   The configuration of the display device shown in FIG. 6 is almost the same as the configuration of the first embodiment, except that a high-performance microphone 608, an Internet connection terminal 609, and a built-in computer 610 are provided.

通常の処理の流れは、第一の実施形態と同じであるので、以下では、異なる点のみを説明する。   Since the normal processing flow is the same as in the first embodiment, only the differences will be described below.

第二の実施形態に関する瞳孔径推定は、リモートコントローラー602により明示的に指示された場合、あるいは、障害物の存在により、周辺光量測定部604や観察者位置測距部605の出力値が異常と判定される場合に有効になる。   In the pupil diameter estimation according to the second embodiment, the output values of the peripheral light amount measurement unit 604 and the observer position ranging unit 605 are abnormal when explicitly instructed by the remote controller 602 or due to the presence of an obstacle. It becomes effective when judged.

映像入出力端子607に入力された動画像信号は、フレーム毎に分割されて、順番に映像制御部606に送信される。映像制御部606に動画像中の1フレームが入力されるのと同期して、内蔵コンピューター610から脈拍情報と現在時刻を取得する。   The moving image signal input to the video input / output terminal 607 is divided for each frame and transmitted to the video control unit 606 in order. The pulse information and the current time are acquired from the built-in computer 610 in synchronization with the input of one frame in the moving image to the video control unit 606.

脈拍情報の取得は、内蔵コンピューター610のハードディスクに記録されている心音分析プログラムにより実行される。心音分析プログラムは、高感度マイク608から常時送られてくる表示装置設置場所近辺の音声信号の中から、あらかじめ心音波形を登録した観察者の脈拍に関する成分(以後、脈拍信号と呼ぶ)を、音声認識処理により抽出する。観察者の心音波形の登録は、表示装置の調整画面で行うことができ、表示装置の前に1分程座っている間に計測され、内蔵コンピューター610のハードディスクに記録される。抽出された脈拍信号は、過去1分間の値が内蔵コンピューター610のハードディスクにバッファリングされる。1フレームに同期して映像制御部606に送信される脈拍情報は、同期信号の1秒前及び10秒前の心拍の周期の差を、バッファリングされた脈拍信号から調べた値である。   Acquisition of pulse information is executed by a heart sound analysis program recorded on the hard disk of the built-in computer 610. The heart sound analysis program uses, as a sound, a component (hereinafter referred to as a pulse signal) relating to the pulse of the observer who has registered a heart sound waveform in advance from the sound signal in the vicinity of the display device installation location that is constantly sent from the high-sensitivity microphone 608. Extracted by recognition processing. The observer's heart waveform can be registered on the adjustment screen of the display device, measured while sitting for 1 minute in front of the display device, and recorded on the hard disk of the built-in computer 610. The extracted pulse signal is buffered on the hard disk of the built-in computer 610 for the past one minute. The pulse information transmitted to the video control unit 606 in synchronization with one frame is a value obtained by examining the difference between the heartbeat periods 1 second and 10 seconds before the synchronization signal from the buffered pulse signal.

現在時刻は、内蔵コンピューター610の時計機能から取得する。インターネット接続端子609により、インターネット上の時刻サーバーと同期できるため、時計機能は常に正確な時刻を返す。   The current time is obtained from the clock function of the built-in computer 610. Since the Internet connection terminal 609 can synchronize with a time server on the Internet, the clock function always returns an accurate time.

映像制御部606では、通常の表示装置で行われる色変換処理、階調変換処理が施された後に、1フレームに含まれる画像情報と脈拍情報および現在時刻を用いて、本発明で提案する画像処理方法に基づいた色補正処理が実行される。処理後の画像信号は、表示画面601上に表示される。   The video control unit 606 performs image conversion proposed in the present invention using image information, pulse information, and current time included in one frame after color conversion processing and gradation conversion processing performed in a normal display device are performed. Color correction processing based on the processing method is executed. The processed image signal is displayed on the display screen 601.

映像制御部606で実行される画像処理の流れについて図7を用いて説明する。まず、映像制御部606に入力された画像データ701は、表示前処理工程702において色温度調整やガンマ調整等の、通常の表示装置での画像処理を施される。   The flow of image processing executed by the video control unit 606 will be described with reference to FIG. First, the image data 701 input to the video control unit 606 is subjected to image processing in a normal display device such as color temperature adjustment and gamma adjustment in a display preprocessing step 702.

次に、脈拍情報704あるいは時刻情報705を用いて収差推定工程706を実行し、収差推定値707を推定する。脈拍と時刻のうち、どちらの情報を用いるかについては、リモートコントローラー602を使って事前に指示されている。同様に、観察者の視力と眼鏡・コンタクトレンズの有無に関する情報もリモートコントローラー602を使って指示されている。これらの情報は、補正を施す色の種類に影響する。観察者の視力が正常、あるいは、遠視だが眼鏡をかけている場合は、第一の実施形態と同じくB面への処理となるので省略し、観察者が遠視で、眼鏡をかけていない場合についてのみ述べる。   Next, the aberration estimation step 706 is executed using the pulse information 704 or the time information 705, and the aberration estimated value 707 is estimated. Which information to use between the pulse and the time is instructed in advance using the remote controller 602. Similarly, information regarding the visual acuity of the observer and the presence / absence of glasses / contact lenses is also instructed using the remote controller 602. Such information affects the type of color to be corrected. If the observer's visual acuity is normal, or is farsighted but wearing glasses, it will be omitted because it will be processed on the B surface as in the first embodiment, and the observer is farsighted and not wearing glasses. Only mention.

収差推定工程706は、瞳孔径の推定方法と補正を施す色の種類以外は、第一の実施形態と同じである。   The aberration estimation step 706 is the same as that of the first embodiment except for the pupil diameter estimation method and the type of color to be corrected.

脈拍情報704を用いて瞳孔径を推定する場合について説明する。興奮を誘発するような画像を観察者が見た場合、一時的に瞳孔が開き、映像に慣れるに従って元に戻ることが一般的に知られている。このような興奮状態に関しては、一時的な脈拍の上昇を伴うので脈拍情報704を用いた検知が可能である。   A case where the pupil diameter is estimated using the pulse information 704 will be described. It is generally known that when an observer sees an image that induces excitement, the pupil temporarily opens and then returns to the original as the video gets used. Such a state of excitement is accompanied by a temporary rise in pulse, and can be detected using the pulse information 704.

本発明で想定している瞳孔径と脈拍の関係について、図8を用いて説明する。上述したように、脈拍情報704は1秒前及び10秒前の心拍の周期の差であるが、横軸を測定開始時からの経過時間、縦軸を脈拍情報704としたグラフを作成すると、図8(A)のようになる。驚きが発生した時間には、脈拍の周期が急激に短くなるため、値がマイナス方向に振れる。その後、少しプラス方向に振れてから、ゆるやかに0に近づいていく。よって、閾値801を下回ったときの時間を、興奮状態検出時間802とすることができる。一方瞳孔径の変化については、図8(B)に示すように、興奮状態検出時間802に解放時瞳孔径803になったのち、緩和時間804経過して平常時瞳孔径805に戻る、と考える。   The relationship between the pupil diameter assumed in the present invention and the pulse will be described with reference to FIG. As described above, the pulse information 704 is the difference between the heartbeat periods 1 second and 10 seconds ago, but when creating a graph with the horizontal axis as the elapsed time from the start of measurement and the vertical axis as the pulse information 704, As shown in FIG. During the time when the surprise occurs, the value of the pulse fluctuates in the negative direction because the pulse period is rapidly shortened. After that, it swings slightly in the positive direction and then gradually approaches 0. Therefore, the time when the value falls below the threshold 801 can be set as the excited state detection time 802. On the other hand, with respect to the change in pupil diameter, as shown in FIG. 8B, it is assumed that the pupil diameter 803 at the time of release is reached at the excited state detection time 802 and then the normal pupil diameter 805 is returned after the relaxation time 804 has elapsed. .

閾値801は主観評価実験により決定可能であり、他のパラメータは実際に測定することが可能である。プログラム上では、図8(B)に示すような経過時間と瞳孔径の関係をLUTで保持して、興奮状態の検出後にLUTに従って瞳孔径を返す。   The threshold value 801 can be determined by a subjective evaluation experiment, and other parameters can be actually measured. On the program, the relationship between the elapsed time and the pupil diameter as shown in FIG. 8B is held in the LUT, and the pupil diameter is returned according to the LUT after the excited state is detected.

時刻情報705を用いて瞳孔径を推定する場合について説明する。周囲の明るさが時刻に応じて定期的に変化するような状況を想定した機能である。この状況では、第一の実施形態のように、周辺光照度を測定する必要はなく、周辺光照度の常時測定が困難であっても瞳孔径を推定できる。事前に、時刻に対応した明るさの変化を一日かけて記録し、LUTを作成しているとする。推定時には、まず、現在時刻からLUTにより周辺光量測定値を求める。次に、周辺光量測定値と、観察者から表示画面への距離、表示画面輝度、を数式1、2に与えることで、瞳孔径を算出する。ただし、観察者から表示画面への距離と表示画面輝度は、測定値ではなく、平均的な値を与えるものとする。   A case where the pupil diameter is estimated using the time information 705 will be described. This function assumes a situation in which the ambient brightness changes periodically according to the time. In this situation, it is not necessary to measure the ambient light illuminance as in the first embodiment, and the pupil diameter can be estimated even if it is difficult to always measure the ambient light illuminance. Assume that a change in brightness corresponding to the time is recorded in advance and an LUT is created in advance. At the time of estimation, first, a peripheral light amount measurement value is obtained by LUT from the current time. Next, the pupil diameter is calculated by giving the peripheral light amount measurement value, the distance from the observer to the display screen, and the display screen brightness in Equations 1 and 2. However, it is assumed that the distance from the observer to the display screen and the display screen brightness are not measured values but average values.

瞳孔径から収差推定値707を得る際には、一つめの実施形態と同じく数式3により収差推定値を算出するが、分母のMTFの波長を赤色画素の分光輝度が最大になる630NMとする。上述したように、本実施形態では、観察者が遠視で眼鏡をかけずに表示画面を見ていることを想定している。焦点距離が短い青色光側にピントが合いやすく、赤色光がボケやすい状態であるので、補正対象色を赤色とした。より補正効果を高めたいならば、視力に応じて青色と赤色の割合を変え、両方の色を同時に補正しても良い。   When the estimated aberration value 707 is obtained from the pupil diameter, the estimated aberration value is calculated by Equation 3 as in the first embodiment, but the wavelength of the denominator MTF is set to 630 NM at which the spectral luminance of the red pixel is maximized. As described above, in the present embodiment, it is assumed that the observer is viewing the display screen without spectacles in hyperopia. Since the focus is easily achieved on the blue light side where the focal length is short and the red light is likely to be blurred, the correction target color is set to red. If it is desired to enhance the correction effect, both the colors may be corrected simultaneously by changing the ratio of blue and red according to the visual acuity.

次の補正量取得工程708では、収差推定値707を用いて補正量709を算出する。補正量709は、数式4で与えられる第一の実施形態における補正量を、補正工程710にて実行されるエッジ強調処理のパラメータに変換した値である。エッジ強調処理パラメータへの変換関数は、事前に主観評価実験により作成する。具体的には、実施形態1の補正を行った画像と、R面にエッジ強調処理を施した画像をいくつか生成し、その中から類似性が高い組を複数抽出する。実施形態1の補正量とエッジ強調処理パラメータの組がいくつかできるので、関数フィッティングにより両者の関係を関数化できる。   In the next correction amount acquisition step 708, a correction amount 709 is calculated using the estimated aberration value 707. The correction amount 709 is a value obtained by converting the correction amount in the first embodiment given by Equation 4 into a parameter for edge enhancement processing executed in the correction step 710. The conversion function to the edge enhancement processing parameter is created in advance by a subjective evaluation experiment. Specifically, several images that have been subjected to the correction of the first embodiment and some images that have been subjected to edge enhancement processing on the R plane are generated, and a plurality of sets with high similarity are extracted from them. Since some combinations of the correction amount and the edge enhancement processing parameter of the first embodiment can be made, the relationship between both can be converted into a function by function fitting.

補正工程710では、補正量709を用いて表示前処理後画像データ701の補正処理を行う。補正工程710は、R面抽出711、エッジ強調処理712、画像合成713の各工程から成る。実施形態1と異なるのは、空間周波数に関する処理がエッジ強調処理712になった点であるので、エッジ強調処理についての説明のみ行う。   In the correction step 710, correction processing is performed on the pre-display image data 701 using the correction amount 709. The correction process 710 includes R-plane extraction 711, edge enhancement processing 712, and image composition 713. The difference from the first embodiment is that the processing related to the spatial frequency is the edge enhancement processing 712, and therefore only the edge enhancement processing will be described.

エッジ強調処理712は、数式5で与えられるフィルタを使用する線形フィルタ処理である。   The edge enhancement process 712 is a linear filter process using the filter given by Equation 5.

パラメータΑは強調の程度を表すパラメータであり、補正量709はパラメータΑを用いている。実施形態1で行う高周波成分強調処理と同様に、画像の高周波成分を強調できる。計算負荷が実施形態1の高周波成分強調処理より小さいため、高速に処理可能である。数式5で与えられるフィルタは3×3の大きさのものを使用しているが、強調性能を高めたければ、より大きいサイズのものを使用しても良い。   The parameter Α is a parameter representing the degree of enhancement, and the correction amount 709 uses the parameter Α. Similar to the high-frequency component enhancement processing performed in the first embodiment, the high-frequency component of the image can be enhanced. Since the calculation load is smaller than the high-frequency component enhancement processing of the first embodiment, the processing can be performed at high speed. The filter given by Equation 5 is a 3 × 3 filter, but a filter of a larger size may be used to enhance the enhancement performance.

補正工程710の結果である表示用画像データ714は、表示画面701上に表示され、観察者に提示されることになる。   Display image data 714 as a result of the correction process 710 is displayed on the display screen 701 and presented to the observer.

このように、本発明の第二の実施の形態である表示装置は、観察者の心拍や現在時刻等の情報から瞳孔径を推定することにより、遠視の観察者の眼に生じる色収差情報を取得し、観察者の色収差を補正するように、赤色成分にエッジ強調処理を行う補正機能、を備えている。   In this way, the display device according to the second embodiment of the present invention acquires chromatic aberration information generated in the eyes of a hyperopic observer by estimating the pupil diameter from information such as the observer's heartbeat and current time. And a correction function for performing edge enhancement processing on the red component so as to correct the chromatic aberration of the observer.

本発明の第三の実施の形態について説明する。これまで説明した実施形態は、観察者の瞳孔径を周辺情報から推定するものであったが、本実施形態は瞳孔径を直接測定することを特徴とする。また、携帯電話画面等の小型の表示画面を想定しており、周波数強調のような計算負荷の大きい処理ではなく、階調変換のみで補正を行う。   A third embodiment of the present invention will be described. In the embodiment described so far, the pupil diameter of the observer is estimated from the peripheral information, but this embodiment is characterized in that the pupil diameter is directly measured. In addition, a small display screen such as a mobile phone screen is assumed, and correction is performed only by tone conversion, not processing with a large calculation load such as frequency enhancement.

図9に示される表示装置は、タッチパネル901、瞳孔径測定用小型カメラ902、操作キー903、計算・メモリモジュール904、無線LANモジュール905、外部記憶モジュール906を備える。   The display device shown in FIG. 9 includes a touch panel 901, a pupil diameter measuring small camera 902, operation keys 903, a calculation / memory module 904, a wireless LAN module 905, and an external storage module 906.

第三の実施形態における処理の流れについて説明する。タッチパネル901上には、通常、待ち受け画面が表示されている。映像を表示したい場合は、表示画面901の該当項目を指でクリックする、あるいは、タッチパネル901に表示されているマウスカーソルを操作キー903により該当項目上に動かし、クリックする。この際、画像データの在り処(外部サーバー、または、外部記憶モジュール906)も指定する。指示が完了したのちに、画像データを取得し、計算・メモリモジュール904に送られる。計算・メモリモジュール904は、メインメモリ、キャッシュメモリ、小型のMPU、GPUを備えたモジュールであり、画像データはメインメモリに読み込まれる。   The flow of processing in the third embodiment will be described. A standby screen is normally displayed on the touch panel 901. In order to display an image, the corresponding item on the display screen 901 is clicked with a finger, or the mouse cursor displayed on the touch panel 901 is moved over the corresponding item with the operation key 903 and clicked. At this time, the location of the image data (external server or external storage module 906) is also specified. After the instruction is completed, image data is acquired and sent to the calculation / memory module 904. The calculation / memory module 904 is a module including a main memory, a cache memory, a small MPU, and a GPU, and image data is read into the main memory.

画像データがメインメモリに読み込まれるのと同期して、観察者の眼付近の画像(以下、眼測定画像と呼ぶ)を瞳孔径測定用小型カメラ902により取得し、計算・メモリモジュール904に眼測定画像が送信される。瞳孔径測定用小型カメラ902は図10に示すように、二つのレンズ1001、1002を備える。これらのレンズにより、観察者の片方の眼が同時に異なる画角から撮影される。   In synchronism with the reading of the image data into the main memory, an image near the observer's eyes (hereinafter referred to as an eye measurement image) is acquired by the small pupil diameter measurement camera 902, and the eye is measured by the calculation / memory module 904. An image is sent. The small pupil diameter measurement camera 902 includes two lenses 1001 and 1002 as shown in FIG. With these lenses, one eye of the observer is simultaneously photographed from different angles of view.

次に、計算・メモリモジュール904において、眼測定画像から瞳孔径を算出し、補正を実行する。図11を用いて、計算・メモリモジュール904において実行される画像処理について説明する。まず、計算・メモリモジュール904のメインメモリに保持されている眼測定画像1101から瞳孔径測定工程1102により瞳孔径情報1103を取得する。   Next, the calculation / memory module 904 calculates the pupil diameter from the eye measurement image, and executes correction. Image processing executed in the calculation / memory module 904 will be described with reference to FIG. First, the pupil diameter information 1103 is acquired from the eye measurement image 1101 held in the main memory of the calculation / memory module 904 by the pupil diameter measurement step 1102.

瞳孔径測定工程1102は、瞳孔位置検出1104、観察者距離取得1105、瞳孔径検出1106の3段階の処理で構成される。瞳孔位置検出1104では、図10に示すレンズ1001、1002により得られた二つの像から円形パターンを探索し、円形パターン中心の画像上での位置を瞳孔位置とする。瞳孔位置と同時に、画像上での瞳孔径も求める。観察者距離取得1105では、二つの画像における瞳孔位置から数式6に従ってレンズ面から瞳孔までの距離Yを算出する。   The pupil diameter measurement step 1102 includes three stages of processing: pupil position detection 1104, observer distance acquisition 1105, and pupil diameter detection 1106. In the pupil position detection 1104, a circular pattern is searched from two images obtained by the lenses 1001 and 1002 shown in FIG. 10, and the position on the image of the center of the circular pattern is set as the pupil position. Simultaneously with the pupil position, the pupil diameter on the image is also obtained. In the observer distance acquisition 1105, the distance Y from the lens surface to the pupil is calculated from the pupil position in the two images according to Equation 6.

数式6におけるパラメータと物理量の関係を図10を用いて示す。Dはレンズとセンサ面1003の距離1004、Xはレンズ間の距離1005、PとQは各々レンズ1001、1002の光軸とセンサ面の交点1006,1007を原点としたときの、瞳孔位置のX座標1008,1009である。ただし、X座標は光軸とセンサ面の交点1006,1007を結ぶ直線に平行であるとする。   The relationship between the parameter in Equation 6 and the physical quantity is shown using FIG. D is the distance 1004 between the lens and the sensor surface 1003, X is the distance 1005 between the lenses, and P and Q are the X of the pupil position when the intersections 1006 and 1007 of the optical axes of the lenses 1001 and 1002 and the sensor surface are the origin. The coordinates are 1008 and 1009. However, it is assumed that the X coordinate is parallel to a straight line connecting the intersections 1006 and 1007 between the optical axis and the sensor surface.

瞳孔径検出1106では、瞳孔位置検出1104で得られた画像上の瞳孔径H’と、観察者距離取得1105で得られたレンズ面から瞳孔までの距離Yから、数式7に従って瞳孔径Hを算出する。   In the pupil diameter detection 1106, the pupil diameter H is calculated according to Equation 7 from the pupil diameter H ′ on the image obtained by the pupil position detection 1104 and the distance Y from the lens surface to the pupil obtained by the observer distance acquisition 1105. To do.

ここで、Dはレンズとセンサ面1003の距離1004、Uはセンサ面1003上の画素間距離である。   Here, D is a distance 1004 between the lens and the sensor surface 1003, and U is a distance between pixels on the sensor surface 1003.

説明の都合上、観察者距離取得1105と瞳孔径検出1106を分割して算出しているが、これらを合わせて一度に算出することは可能である。さらに、観察者が画面を見る状態はほぼ決まっているので、プログラム化する際には、関数で算出せずにテーブル化するのが望ましい。   For convenience of explanation, the observer distance acquisition 1105 and the pupil diameter detection 1106 are divided and calculated, but it is possible to calculate them at the same time. Further, since the state in which the observer sees the screen is almost determined, it is desirable to create a table instead of calculating with a function when programming.

収差推定工程1107では、瞳孔径情報1103に対する色収差推定値1108をLUTから求める。他の実施形態における色収差推定値はMTFの比としていたが、本実施形態においては、計算負荷の大きい処理を避けるため異なる方式を採用する。色収差の副次的効果として、色の異なる点像のピーク値の明るさが低下することが知られている。本実施形態における収差推定値は、数式8で与えられる明るさ感覚量の比であり、LUTは瞳孔径と明るさ感覚量の比の対応をテーブル化したものを用いる。   In the aberration estimation step 1107, an estimated chromatic aberration value 1108 for the pupil diameter information 1103 is obtained from the LUT. Although the estimated chromatic aberration value in the other embodiments is the ratio of MTF, in this embodiment, a different method is adopted in order to avoid processing with a large calculation load. As a secondary effect of chromatic aberration, it is known that the brightness of the peak value of point images of different colors decreases. The aberration estimation value in this embodiment is the ratio of the brightness sensation amount given by Equation 8, and the LUT uses a table that shows the correspondence between the pupil diameter and the ratio of the brightness sensation amount.

SENT,Rは、瞳孔径Rのときに色の種類Tの明るさに関する感覚量である。感覚量は主観評価により求める。具体的には、部屋の照明の明るさを変化させて観察者の瞳孔径を操作し、瞳孔径が安定している状態で、色と明るさが異なる矩形パターンを比較を繰り返すような、主観評価実験で求めることができる。 SEN T, R is a sensory amount related to the brightness of the color type T when the pupil diameter is R. The amount of sensation is obtained by subjective evaluation. Specifically, the subject's pupil diameter is changed by changing the brightness of the room's illumination, and the subject's pupil diameter is stable. It can be obtained by an evaluation experiment.

補正量取得工程1109以降の処理は、空間周波数関連の処理を階調変換1114に置き換えれば、第一の実施形態と同じである。階調変換1114は、B面の全画素に対し、補正量1110を一律に積算する処理である。   The processing after the correction amount acquisition step 1109 is the same as that of the first embodiment if the processing related to spatial frequency is replaced with the gradation conversion 1114. The gradation conversion 1114 is a process of uniformly integrating the correction amount 1110 for all the pixels on the B surface.

表示用画像データ1118は、タッチパネル901上に表示され、観察者に提示される。   The display image data 1118 is displayed on the touch panel 901 and presented to the observer.

このように、本発明の第三の実施の形態は、瞳孔径をカメラにより測定することにより、観察者の眼に生じる色収差情報を取得し、観察者の色収差を補正するように、青色の階調を調整する色補正機能を備えた表示装置、である。   As described above, the third embodiment of the present invention obtains chromatic aberration information generated in the eyes of the observer by measuring the pupil diameter with a camera, and corrects the chromatic aberration of the observer so as to correct the chromatic aberration of the observer. A display device having a color correction function for adjusting a tone.

本発明の第四の実施の形態について説明する。本実施形態は、各色光間の差である色収差ではなく、瞳孔径に影響される一般的な収差を扱うことを特徴とする。このような収差には、球面収差、高次収差等が知られていて、いずれも光学像のボケの原因となる。   A fourth embodiment of the present invention will be described. The present embodiment is characterized by handling not a chromatic aberration which is a difference between light of each color but a general aberration influenced by the pupil diameter. As such aberrations, spherical aberrations, higher order aberrations and the like are known, which all cause blurring of the optical image.

本実施形態における表示装置の構成、処理の流れは、ほぼ第一の実施形態と同じであり、説明は省略する。映像制御部における処理の流れの一部が異なるので、図12を用いて説明する。   The configuration of the display device and the flow of processing in this embodiment are almost the same as those in the first embodiment, and a description thereof will be omitted. Since part of the flow of processing in the video control unit is different, a description will be given with reference to FIG.

収差推定行程1206において、瞳孔径を得るまでは、第一の実施形態と同じである。瞳孔径を得てから、収差推定値1207を得る際には、数式3ではなく、数式9を用いる。   In the aberration estimation step 1206, the process is the same as that in the first embodiment until the pupil diameter is obtained. When obtaining the estimated aberration value 1207 after obtaining the pupil diameter, Equation 9 is used instead of Equation 3.

ここで、MTFΛ,R(Ν)は、入射光の波長がΛ、瞳孔径がRの場合に生じる眼のMTFである。Pはボケが生じていないときの瞳孔径で事前に選択した値である。Qは瞳孔径推定値である。波長は、両方のMTF共に550NMとしている。この波長の光強度は、明るさの感覚量に近いことが知られている。数式9で与えられる関数により、550NMの波長の光に発生した収差を補正するための比率が得られる。 Here, MTFΛ, R (Ν) is the MTF of the eye that occurs when the wavelength of the incident light is Λ and the pupil diameter is R. P is a value selected in advance for the pupil diameter when no blur occurs. Q is an estimated pupil diameter. The wavelength is 550 NM for both MTFs. It is known that the light intensity at this wavelength is close to the sense amount of brightness. By the function given by Equation 9, a ratio for correcting the aberration generated in light having a wavelength of 550 NM can be obtained.

補正量1209は、数式4に数式9で与えられる関数を代入することで得られる。   The correction amount 1209 is obtained by substituting the function given by Equation 9 into Equation 4.

補正工程1210においては、RGB面全てに対して空間周波数分離1211、高周波成分増幅1212、画像合成1213を実施する。これらの処理は、第一の実施形態と同じである。   In the correction step 1210, spatial frequency separation 1211, high frequency component amplification 1212, and image composition 1213 are performed on all RGB planes. These processes are the same as those in the first embodiment.

本実施形態では、数式9に基づいて補正するために、550NM以外の波長の光に対しては正確に収差が補正されない。数式9と同様の式に基づいて、例えば、青色光の代表的波長である470NMと赤色光の630NMの補正量を算出し、各々をB面、R面に適用することで、より正確に収差を補正できる。   In the present embodiment, since correction is performed based on Equation 9, the aberration is not accurately corrected for light having a wavelength other than 550 NM. Based on the same equation as Equation 9, for example, the correction amount of 470 NM, which is a typical wavelength of blue light, and 630 NM of red light, is calculated, and each is applied to the B surface and the R surface, so that aberration can be more accurately Can be corrected.

このように、本発明の第四の実施の形態は、周辺光の照度等の情報から瞳孔径を推定することにより、観察者の眼に生じる収差情報を取得し、観察者の収差を補正するように、高周波成分を強調する補正機能を備えた表示装置、である。   As described above, in the fourth embodiment of the present invention, by estimating the pupil diameter from information such as the illuminance of ambient light, aberration information generated in the observer's eyes is acquired, and the observer's aberration is corrected. As described above, the display device includes a correction function that emphasizes high-frequency components.

101 表示画面
102 リモートコントローラー
103 制御信号受光部
104 周辺光量測定部
105 観察者位置測距部
106 映像制御部
107 映像入出力端子
201 画像データ
202 表示画面上平均輝度推定工程
203 表示画面輝度
204 周辺光量測定値
205 観察者距離
206 収差推定工程
207 収差推定値
208 補正量取得工程
209 補正量
210 補正工程
211 B面抽出
212 空間周波数分離
213 高周波成分増幅
214 画像合成
215 補正後画像データ
216 線形化工程
217 表示前処理工程
218 表示用画像データ
301 表示画面
302 観察者の眼
303 水晶体
304 網膜
305 視野角
306 表示画面の面積
307 観察者から表示画面への距離
308 仮想拡散反射面
309 照明
501 緑色MTF
502 青色MTF
503 増幅後青色MTF
504 カットオフ周波数
601 表示画面
602 リモートコントローラー
603 制御信号受光部
604 周辺光量測定部
605 観察者位置測距部
606 映像制御部
607 映像入出力端子
608 心音測定部
609 インターネット接続端子
610 内蔵コンピューター
701 画像データ
702 表示前処理工程
703 表示前処理後画像データ
704 脈拍情報
705 時刻情報
706 収差推定工程
707 収差推定値
708 補正量取得工程
709 補正量
710 補正工程
711 R面抽出
712 エッジ強調
713 画像合成
714 表示用画像データ
801 閾値
802 興奮状態検出時刻
803 解放時瞳孔径
804 緩和時間
805 平常時瞳孔径
901 表示画面
902 瞳孔径測定用小型カメラ
903 操作キー
904 計算・メモリモジュール
905 無線LANモジュール
906 外部記憶モジュール
907 ボタン電池
908 装置の外見
909 内部モジュール配置
1001,1002 レンズ
1003 センサ面
1004 レンズとセンサ面の距離
1005 レンズ間距離
1006,1007 光軸とセンサ面の交点
1008,1009 瞳孔位置のX座標
1010 観察者の眼
1011 レンズ面から瞳孔までの距離
1101 眼測定画像
1102 瞳孔径測定工程
1103 瞳孔径情報
1104 瞳孔位置検出
1105 観察者距離取得
1106 瞳孔径検出
1107 収差推定工程
1108 収差推定値
1109 補正量取得工程
1110 補正量
1111 画像データ
1112 色補正工程
1113 B面抽出
1114 階調変換
1115 画像合成
1116 補正後画像データ
1117 表示前処理工程
1118 表示用画像データ
1201 画像データ
1202 表示画面上平均輝度推定工程
1203 表示画面輝度
1204 周辺光量測定値
1205 観察者距離
1206 収差推定工程
1207 収差推定値
1208 補正量取得工程
1209 補正量
1210 補正工程
1211 空間周波数分離
1212 高周波成分増幅
1213 画像合成
1214 補正後画像データ
1215 線形化工程
1216 表示前処理工程
1217 表示用画像データ
DESCRIPTION OF SYMBOLS 101 Display screen 102 Remote controller 103 Control signal light-receiving part 104 Peripheral light quantity measuring part 105 Observer position ranging part 106 Image | video control part 107 Image | video input / output terminal 201 Image data 202 Average on-screen brightness | luminance estimation process 203 Display screen brightness | luminance 204 Measured value 205 Observer distance 206 Aberration estimation step 207 Aberration estimation value 208 Correction amount acquisition step 209 Correction amount 210 Correction step 211 B surface extraction 212 Spatial frequency separation 213 High frequency component amplification 214 Image composition 215 Corrected image data 216 Linearization step 217 Display Preprocessing Step 218 Display Image Data 301 Display Screen 302 Observer Eye 303 Crystal Lens 304 Retina 305 Viewing Angle 306 Display Screen Area 307 Distance from Viewer to Display Screen 308 Virtual Diffuse Reflection Surface 309 Illumination 50 Green MTF
502 Blue MTF
503 Blue MTF after amplification
504 Cut-off frequency 601 Display screen 602 Remote controller 603 Control signal light receiving unit 604 Peripheral light measurement unit 605 Observer position ranging unit 606 Video control unit 607 Video input / output terminal 608 Heart sound measurement unit 609 Internet connection terminal 610 Built-in computer 701 Image data 702 Pre-display processing step 703 Post-display pre-processing image data 704 Pulse information 705 Time information 706 Aberration estimation step 707 Aberration estimation value 708 Correction amount acquisition step 709 Correction amount 710 Correction step 711 R surface extraction 712 Edge enhancement 713 Image composition 714 For display Image data 801 Threshold 802 Excited state detection time 803 Release pupil diameter 804 Relaxation time 805 Normal pupil diameter 901 Display screen 902 Pupil diameter measurement small camera 903 Operation key 904 Calculation / memo Re-module 905 Wireless LAN module 906 External storage module 907 Button battery 908 Appearance of device 909 Internal module layout 1001, 1002 Lens 1003 Sensor surface 1004 Distance between lens and sensor surface 1005 Distance between lenses 1006, 1007 Intersection of optical axis and sensor surface 1008 , 1009 X coordinate of pupil position 1010 Eye of observer 1011 Distance from lens surface to pupil 1101 Eye measurement image 1102 Pupil diameter measurement process 1103 Pupil diameter information 1104 Pupil position detection 1105 Observer distance acquisition 1106 Pupil diameter detection 1107 Aberration estimation process 1108 Estimated aberration value 1109 Correction amount acquisition step 1110 Correction amount 1111 Image data 1112 Color correction step 1113 B-side extraction 1114 Tone conversion 1115 Image composition 1116 Corrected image data 1117 Display preprocessing step 1118 Display image data 1201 Image data 1202 Display screen average luminance estimation step 1203 Display screen luminance 1204 Peripheral light quantity measurement value 1205 Observer distance 1206 Aberration estimation step 1207 Aberration estimation value 1208 Correction amount acquisition step 1209 Correction amount 1210 Correction step 1211 Spatial frequency separation 1212 High frequency component amplification 1213 Image composition 1214 Image data after correction 1215 Linearization step 1216 Pre-display processing step 1217 Display image data

Claims (11)

入力された画像情報に対して補正処理を行なう画像処理方法において、
画像表示装置において表示される表示画像の観察者の眼に生じる収差を推定する収差推定工程と、
前記収差推定工程により得られた収差推定量を、入力画像の補正量に変換する補正量取得工程と、
前記補正量取得工程により得られた補正量に従って前記画像情報に対する補正処理を実行する補正工程と、
を有することを特徴とする画像処理方法。
In an image processing method for performing correction processing on input image information,
An aberration estimation step for estimating aberrations occurring in the eyes of the observer of the display image displayed in the image display device;
A correction amount acquisition step of converting the aberration estimation amount obtained by the aberration estimation step into a correction amount of the input image;
A correction step of performing a correction process on the image information according to the correction amount obtained by the correction amount acquisition step;
An image processing method comprising:
前記収差推定工程では、前記観察者の瞳孔径情報を取得することを特徴とする、請求項1に記載の画像処理方法。   The image processing method according to claim 1, wherein in the aberration estimation step, pupil diameter information of the observer is acquired. 前記収差推定工程では、前記観察者の瞳孔径情報を推定することを特徴とする、請求項1に記載の画像処理方法。   The image processing method according to claim 1, wherein in the aberration estimation step, pupil diameter information of the observer is estimated. 前記瞳孔径情報の推定は、前記観察者の周辺光の照度情報、前記観察者の心拍情報、前記画像表示装置から前記観察者までの距離情報、前記表示画像を表示する表示画面の平均輝度情報、および前記表示画像を表示する時刻情報の内、いずれか一つ以上を用いて行われることを特徴とする、請求項3に記載の画像処理方法。   The estimation of the pupil diameter information is performed by calculating the illuminance information of the observer's ambient light, the observer's heartbeat information, the distance information from the image display device to the observer, and the average luminance information of the display screen displaying the display image. 4. The image processing method according to claim 3, wherein the image processing method is performed using any one or more of time information for displaying the display image. 前記補正量取得工程により得られる補正量は、空間周波数成分処理、エッジ強調処理および階調処理のいずれか一つ以上に関することを特徴とする、請求項1から請求項4のいずれか一項に記載の画像処理方法。   The correction amount obtained by the correction amount acquisition step relates to any one or more of spatial frequency component processing, edge enhancement processing, and gradation processing, according to any one of claims 1 to 4. The image processing method as described. 入力された画像情報に対して補正処理を行なう画像処理装置において、
画像表示装置において表示される表示画像の観察者の眼に生じる収差を推定する収差推定手段と、
前記収差推定手段により得られた収差推定量を、入力画像の補正量に変換する補正量取得手段と、
前記補正量取得手段により得られた補正量に従って前記画像情報に対する補正処理を実行する補正手段と、
を有することを特徴とする画像処理装置。
In an image processing apparatus that performs correction processing on input image information,
An aberration estimating means for estimating an aberration occurring in an eye of an observer of a display image displayed in the image display device;
A correction amount acquisition unit that converts the aberration estimation amount obtained by the aberration estimation unit into a correction amount of an input image;
Correction means for performing correction processing on the image information in accordance with the correction amount obtained by the correction amount acquisition means;
An image processing apparatus comprising:
前記収差推定手段では、前記観察者の瞳孔径情報を取得することを特徴とする、請求項6に記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the aberration estimation unit acquires pupil diameter information of the observer. 前記収差推定手段では、前記観察者の瞳孔径情報を推定することを特徴とする、請求項6に記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the aberration estimation unit estimates pupil diameter information of the observer. 前記瞳孔径情報の推定は、前記観察者の周辺光の照度情報、前記観察者の心拍情報、前記画像表示装置から前記観察者までの距離情報、前記表示画像を表示する表示画面の平均輝度情報、および前記表示画像を表示する時刻情報の内、いずれか一つ以上を用いて行われることを特徴とする、請求項8に記載の画像処理装置。   The estimation of the pupil diameter information is performed by calculating the illuminance information of the observer's ambient light, the observer's heartbeat information, the distance information from the image display device to the observer, and the average luminance information of the display screen displaying the display image. The image processing apparatus according to claim 8, wherein the image processing apparatus is performed using any one or more of time information for displaying the display image. 前記補正量取得手段により得られる補正量は、空間周波数成分処理、エッジ強調処理および階調処理のいずれか一つ以上に関することを特徴とする、請求項6から請求項9のいずれか一項に記載の画像処理装置。   The correction amount obtained by the correction amount acquisition unit relates to one or more of spatial frequency component processing, edge enhancement processing, and gradation processing, according to any one of claims 6 to 9. The image processing apparatus described. 請求項1から請求項5のいずれか一項に記載した画像処理方法をコンピューターに実行させることを特徴とする、画像情報の補正処理プログラム。   An image information correction processing program that causes a computer to execute the image processing method according to any one of claims 1 to 5.
JP2010248979A 2010-11-05 2010-11-05 Image processing method, image processor and correction processing program Pending JP2012103753A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010248979A JP2012103753A (en) 2010-11-05 2010-11-05 Image processing method, image processor and correction processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010248979A JP2012103753A (en) 2010-11-05 2010-11-05 Image processing method, image processor and correction processing program

Publications (1)

Publication Number Publication Date
JP2012103753A true JP2012103753A (en) 2012-05-31

Family

ID=46394111

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010248979A Pending JP2012103753A (en) 2010-11-05 2010-11-05 Image processing method, image processor and correction processing program

Country Status (1)

Country Link
JP (1) JP2012103753A (en)

Similar Documents

Publication Publication Date Title
US10129520B2 (en) Apparatus and method for a dynamic “region of interest” in a display system
CN109633907B (en) Method for automatically adjusting brightness of monocular AR (augmented reality) glasses and storage medium
EP2621169B1 (en) An apparatus and method for augmenting sight
WO2018219293A1 (en) Information terminal
US20160110846A1 (en) Automatic display image enhancement based on user's visual perception model
US20150304625A1 (en) Image processing device, method, and recording medium
CN112055827A (en) Optical mixed reality system with digitally corrected aberrations
JP5607473B2 (en) Diopter correction device
WO2018219290A1 (en) Information terminal
KR101533642B1 (en) Method and apparatus for processing image based on detected information
CN111630847B (en) Image projection apparatus, image projection method, image display light output control method
CN111588345A (en) Eye disease detection method, AR glasses and readable storage medium
US10895749B2 (en) Electronic glasses and method operating them
JP2012104879A (en) Image capturing device, image display device, image processing method, image processing program, and image-capturing and displaying device
JP5103984B2 (en) Image processing apparatus, imaging apparatus, and image processing program
KR101880448B1 (en) Digital mirror with function of gesture recognition
JP2012103753A (en) Image processing method, image processor and correction processing program
TW202304370A (en) Vision test device, method and system and non-transient computer readable recording medium
JP6932526B2 (en) Image display device, image display method and program
CN110597386A (en) Image brightness improving method based on augmented reality and augmented reality glasses
US20230244307A1 (en) Visual assistance
RU2679915C9 (en) Optical system of hybrid reality with digital correction of aberrations
JP2013026793A (en) Image processing device and image processing program
TW202141234A (en) Method for compensating visual field defects, electronic device, smart glasses, computer readable storage medium
CN115908212A (en) Anti-dizziness method