JP2010283720A - Device for correcting aberration - Google Patents
Device for correcting aberration Download PDFInfo
- Publication number
- JP2010283720A JP2010283720A JP2009136968A JP2009136968A JP2010283720A JP 2010283720 A JP2010283720 A JP 2010283720A JP 2009136968 A JP2009136968 A JP 2009136968A JP 2009136968 A JP2009136968 A JP 2009136968A JP 2010283720 A JP2010283720 A JP 2010283720A
- Authority
- JP
- Japan
- Prior art keywords
- correction
- filter
- filter coefficient
- aberration
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Color Television Image Signal Generators (AREA)
Abstract
Description
本発明は、映像信号の信号処理装置、信号処理方法に関し、特に、光学レンズによる色収差の補正に用いて色分散を低減する収差補正装置に関する。 The present invention relates to a signal processing apparatus and a signal processing method for video signals, and more particularly to an aberration correction apparatus that reduces chromatic dispersion when used for correcting chromatic aberration by an optical lens.
光の屈折率は波長によって異なる。そのため、可視光においても、例えば赤色の光と青色の光では同じレンズを用いても焦点距離が異なる。この現象を色分散といい、結果として、赤色の光が結ぶ像の大きさ及び位置と、青色の光が結ぶ像の大きさ及び位置に差が生じる。これをレンズの色収差という。色収差は光の屈折率の差に起因するので、入射角の大きくなる光学レンズの光軸から離れた周辺部ほど色収差が大きくなり、各色間の位相ずれが大きくなることが知られている。このような色収差を補正する手段として、例えば、特許文献1に記載されているようなものがあった。図1は、前記特許文献1に記載された従来の画像処理装置を示すものである。 The refractive index of light varies depending on the wavelength. For this reason, even in visible light, for example, red light and blue light have different focal lengths even if the same lens is used. This phenomenon is called chromatic dispersion. As a result, there is a difference between the size and position of an image connected by red light and the size and position of an image connected by blue light. This is called chromatic aberration of the lens. Since chromatic aberration is caused by a difference in refractive index of light, it is known that the chromatic aberration increases in the peripheral portion away from the optical axis of the optical lens having a large incident angle, and the phase shift between the colors increases. As a means for correcting such chromatic aberration, for example, there is one described in Patent Document 1. FIG. 1 shows a conventional image processing apparatus described in Patent Document 1.
図1において、光学系を介して映像の情報がCCDセンサ101で読み取られる。得られたRGB各色のカラー映像信号は、A/D変換器102に入力される。A/D変換器102はアナログ信号であるRGBのカラー映像信号をディジタルのRGBカラー映像データに変換する。得られたカラー映像データは、R,Bの各映像画素データについては補間処理部103R及び103Bに入力される。G映像画素データについては前記処理部は設けられていない。視認性の高いG映像画素データについては補間処理を行わずに入力データをそのまま出力データとする。そして、R,B各映像画素データについて、G映像画素データを基準として位相ずれを補正する。 In FIG. 1, image information is read by a CCD sensor 101 via an optical system. The obtained RGB color image signals are input to the A / D converter 102. The A / D converter 102 converts RGB color video signals, which are analog signals, into digital RGB color video data. The obtained color video data is input to the interpolation processing units 103R and 103B for the R and B video pixel data. The processing unit is not provided for G video pixel data. For the G video pixel data with high visibility, the input data is directly used as output data without performing interpolation processing. Then, for each of the R and B video pixel data, the phase shift is corrected based on the G video pixel data.
補間処理部103R,103Bはそれぞれ補間係数設定部104から与えられる補間係数を用いて、5種類の補間データを出力する。補間係数は主走査有効画素エリアを光学的中心(画像データの中心)を中心とする同心円状にn分割し、それぞれの領域に対して予め定められた補間係数セットが選択される。これら補間データQ,Q0,Q1,Q2,Q3は彩度値生成部105A,105B,105C,105D,105Eにそれぞれ入力され、彩度値W=MAX(R,G,B)−MIN(R,G,B)を得る。彩度値生成部105A,105B,105C,105D,105Eから出力された彩度値Wはデータ選択部106R,106BのW0,W1,W2,W3,W4にそれぞれ入力される。データ選択部106Rのデータ入力端子A0,A1,A2,A3,A4には、補間処理部103Rの出力Q0,Q1,Q,Q2,Q3が入力されている。また、データ選択部106Bのデータ入力端子A0,A1,A2,A3,A4には、補間処理部103Bの出力Q0,Q1,Q,Q2,Q3が入力されている。そして、データ選択部106R,106Bは5つの選択用制御端子W0〜W4に入力された制御信号のうちの最も小さい値の制御信号に対応するデータ入力を選択し、出力端子Yから出力する。 Each of the interpolation processing units 103R and 103B outputs five types of interpolation data using the interpolation coefficients given from the interpolation coefficient setting unit 104. As the interpolation coefficient, the main scanning effective pixel area is divided into n concentric circles centered on the optical center (center of image data), and a predetermined interpolation coefficient set is selected for each area. These interpolation data Q, Q0, Q1, Q2, and Q3 are respectively input to the saturation value generation units 105A, 105B, 105C, 105D, and 105E, and the saturation value W = MAX (R, G, B) −MIN (R, G, B). The saturation values W output from the saturation value generation units 105A, 105B, 105C, 105D, and 105E are input to W0, W1, W2, W3, and W4 of the data selection units 106R and 106B, respectively. Outputs Q0, Q1, Q, Q2, and Q3 of the interpolation processing unit 103R are input to data input terminals A0, A1, A2, A3, and A4 of the data selection unit 106R. The outputs Q0, Q1, Q, Q2, and Q3 of the interpolation processing unit 103B are input to the data input terminals A0, A1, A2, A3, and A4 of the data selection unit 106B. Then, the data selection units 106R and 106B select the data input corresponding to the control signal having the smallest value among the control signals input to the five selection control terminals W0 to W4, and output from the output terminal Y.
上述の色収差補正回路では、図3に示すように主走査有効画素エリアをn分割し、各分割エリアごとに予め決められた補間係数を用いたフィルタ演算を行って色収差補正を行っている。図3において、実線の四角が撮像領域、点線の円が収差補正において同一の補間係数を用いる領域の境界を示す。例えば、線分LMにおいて、点Lから点Nまでの領域は係数Xを用いて収差補正を行い(領域A)、点Nから点Oまでの領域は係数Yを用いて収差補正を行い(領域B)、点Oから点Mまでの領域は係数Zを用いて収差補正を行う(領域C)。色収差補正において理想的な補間フィルタとは、信号レベルは変えずに、位相のみずらすようなフィルタである。すなわち、位相特性のみ変化し、周波数特性が周波数によらず一定であることである。しかしながら、有限の数の係数を用いたフィルタで周波数特性を周波数によらず一定に保つことは出来ない。このため、各分割エリア毎に決められたフィルタは周波数特性を持つことになる。 In the chromatic aberration correction circuit described above, the main scanning effective pixel area is divided into n as shown in FIG. 3, and chromatic aberration correction is performed by performing a filter operation using a predetermined interpolation coefficient for each divided area. In FIG. 3, a solid line square represents an imaging region, and a dotted circle represents a boundary between regions using the same interpolation coefficient in aberration correction. For example, in the line segment LM, an area from the point L to the point N is corrected using the coefficient X (area A), and an area from the point N to the point O is corrected using the coefficient Y (area). B) In the region from the point O to the point M, aberration correction is performed using the coefficient Z (region C). An ideal interpolation filter for correcting chromatic aberration is a filter that shifts only the phase without changing the signal level. That is, only the phase characteristic changes, and the frequency characteristic is constant regardless of the frequency. However, it is not possible to keep the frequency characteristics constant regardless of the frequency with a filter using a finite number of coefficients. For this reason, the filter determined for each divided area has frequency characteristics.
また、色収差はレンズの周辺部ほど顕著に現れるため領域Aよりも領域Bの方が、また領域Bよりも領域Cの方が、収差量は大きくなる。そのため、係数X,Y,Zはそれぞれに相異なった値が設定されることになる。従って、領域A,B,Cに適用されるフィルタの周波数特性は異なり、各領域の境界付近では補間後の画像に信号レベルの段差が生じる。主走査有効画素エリアを有効画素数分だけ分割して補間フィルタを適用すれば、事実上は1ドット単位で補正係数を変えることができ、結果として画像段差がわかりにくくなるが、有効画素が何百、何千といった数に上る場合は回路規模が増大し、現実的ではない。 Further, since the chromatic aberration appears more conspicuously in the periphery of the lens, the amount of aberration is larger in the region B than in the region A and in the region C than in the region B. Therefore, different values are set for the coefficients X, Y, and Z, respectively. Therefore, the frequency characteristics of the filters applied to the regions A, B, and C are different, and a signal level step occurs in the image after interpolation near the boundary between the regions. If the interpolation filter is applied by dividing the main scanning effective pixel area by the number of effective pixels, the correction coefficient can be changed in units of one dot in practice, and as a result, the image step becomes difficult to understand. When the number is in the hundreds or thousands, the circuit scale increases, which is not realistic.
また、上述のような画像段差は、特にレンズに入る光の強度が小さい場合に、つまり暗所の処理に対して顕著に発生する。光の入力が小さい、つまり、光電変換後の電気信号レベルが小さいと、相対的に回路で発生するノイズの影響が支配的になるためである。このノイズは回路構成に起因し、当然収差補正回路の前段でも発生するため、これが収差補正を受けると各分割エリア、例えば領域A,B,Cごとに特性の異なるノイズとなって画像に表れ、画像段差を形成する。 Further, the above-described image step is noticeably generated particularly when the intensity of light entering the lens is small, that is, in a dark place. This is because when the light input is small, that is, when the electric signal level after photoelectric conversion is small, the influence of noise generated in the circuit becomes relatively dominant. This noise is caused by the circuit configuration and naturally occurs even before the aberration correction circuit. Therefore, when this aberration is corrected, it appears as noise with different characteristics in each divided area, for example, the regions A, B, and C. An image step is formed.
また、上述のような光学レンズを使用して暗所での撮像を行う場合、後処理で入力信号のゲインを電気的に上げて使用する場合が多く、その場合は入力信号もノイズも等しくゲインを上げるため、画像段差がより目立ってしまう要因となる。 Also, when imaging in the dark using an optical lens as described above, the input signal gain is often increased electrically in post-processing, and in that case the input signal and noise are equally gained. Therefore, the image level difference becomes more conspicuous.
本発明は、上記課題に鑑み、収差補正後の画像段差を軽減するような収差補正装置を提供することを目的とする。 In view of the above problems, an object of the present invention is to provide an aberration correction apparatus that reduces an image level difference after aberration correction.
本発明は、上記課題を解決するために、色収差を補正する目的のフィルタ処理部と、画像領域内を光学レンズの光学的中心に対応する位置から同心円状に複数のエリアに分割し、光学レンズの特性を入力として各エリアに最適化した収差補正のフィルタ係数を設定する係数設定部と、を設け、この係数設定部で選択されるフィルタ係数を、エリアによって最適化した値を単一的に選択するのではなく、当該エリアとそのエリアに隣接するエリアでそれぞれ最適化した値から、時間的にランダムに選ぶ。あるいは、どの係数を選択するかを任意の確率関数に従って選ぶことによって、フィルタ係数が切り替わる境界をわかりにくくし、色収差補正における画像段差の影響を少なくなるようにする。 In order to solve the above problems, the present invention divides an image area into a plurality of areas concentrically from a position corresponding to the optical center of the optical lens, and a filter processing unit for correcting chromatic aberration. A coefficient setting unit that sets the filter coefficient for the aberration correction optimized for each area with the characteristics of the input as an input, and the filter coefficient selected by this coefficient setting unit is a single value that is optimized by the area Rather than selecting, it selects at random in time from values optimized in the area and areas adjacent to the area. Alternatively, by selecting which coefficient to select according to an arbitrary probability function, the boundary where the filter coefficient is switched is made difficult to understand, and the influence of the image step in chromatic aberration correction is reduced.
本発明の色収差補正装置によれば、画像を複数のエリアに分割して、各エリア毎に固有のフィルタ係数を設定して色収差補正を行う場合において、エリア毎のフィルタ周波数特性の違いによる出力画像の画像段差を軽減することが出来る。特に暗所等、ノイズが目立つような環境における光学レンズを使用した撮像において有用である。 According to the chromatic aberration correction apparatus of the present invention, when an image is divided into a plurality of areas and a chromatic aberration correction is performed by setting a unique filter coefficient for each area, an output image due to a difference in filter frequency characteristics for each area The image step can be reduced. This is particularly useful in imaging using an optical lens in an environment where noise is conspicuous, such as in a dark place.
以下、実施の形態について、図面を参照しながら説明する。 Hereinafter, embodiments will be described with reference to the drawings.
(実施の形態1)
図2は、実施の形態1における収差補正装置のブロック図である。本実施の形態の収差補正装置は、大きく分けてフィルタ係数設定部200とフィルタ処理部300とを含む。詳細な内容について以下に記す。図2において、光学系を介して映像の情報がCCDセンサ101で読み取られる。得られたRGB各色のカラー映像信号は、A/D変換器102に入力される。A/D変換器102から出力されたRGBの各映像データは従来例と同じく、視認性の高いG映像画素データについては補間処理を行わずに入力データをそのまま出力データとする。そして、R,B各映像画素データについて、G映像画素データを基準として位相ずれを補正する。但し、R,B各映像画素データの処理時間分だけ、G映像画素データは遅延させて出力する。この遅延は遅延部303にて行う。
(Embodiment 1)
FIG. 2 is a block diagram of the aberration correction apparatus according to the first embodiment. The aberration correction apparatus according to the present embodiment roughly includes a filter coefficient setting unit 200 and a filter processing unit 300. Detailed contents are described below. In FIG. 2, image information is read by the CCD sensor 101 through the optical system. The obtained RGB color image signals are input to the A / D converter 102. As in the conventional example, the RGB video data output from the A / D converter 102 does not perform interpolation for the highly visible G video pixel data, and uses the input data as output data as it is. Then, for each of the R and B video pixel data, the phase shift is corrected based on the G video pixel data. However, the G video pixel data is output after being delayed by the processing time of the R and B video pixel data. This delay is performed by the delay unit 303.
画素位置カウンタ201は、映像画素データの光学的中心(レンズの中心)に対応する位置を原点とした場合の水平、垂直座標を出力するものである。例えば、有効画素が水平1650画素×垂直720画素の映像データを扱う場合の座標を図4に示す。図4の左上の頂点が、座標(−850,−360)となっており、カウンタはここから開始して、座標をカウントする。例えば、点Aのカウント値は水平がx、垂直がyであり、これは画面の中心を原点とした直交座標である。カウント値と映像画素データを正しく連動させるには、CCDやCMOSといった撮像素子を光電変換を行うタイミングと同じタイミングでリセットすれば容易に実現できる。 The pixel position counter 201 outputs horizontal and vertical coordinates when the origin is a position corresponding to the optical center (lens center) of the video pixel data. For example, FIG. 4 shows coordinates in the case where video data having effective pixels of horizontal 1650 pixels × vertical 720 pixels is handled. The top left vertex in FIG. 4 is the coordinates (−850, −360), and the counter starts from here and counts the coordinates. For example, the count value of the point A is x in the horizontal direction and y in the vertical direction, which are orthogonal coordinates with the center of the screen as the origin. In order to correctly link the count value and the video pixel data, it can be easily realized by resetting an image sensor such as a CCD or CMOS at the same timing as the timing of photoelectric conversion.
画素位置カウンタ201で出力される座標は直交座標であるが、これをそのまま補正演算で用いるには計算が複雑になるため、極座標への変換を行う。 The coordinates output by the pixel position counter 201 are orthogonal coordinates. However, since the calculation becomes complicated to use them as they are in the correction calculation, conversion to polar coordinates is performed.
これが動径計算部202と偏角計算部203であり、動径計算部では画素位置の直交座標を入力として、画素位置の動径を出力し、偏角計算部203では画素位置の直交座標を入力として画素位置の偏角を出力する。 This is the radius calculation unit 202 and the declination calculation unit 203. The radius calculation unit receives the orthogonal coordinates of the pixel position as an input, outputs the radius of the pixel position, and the declination calculation unit 203 calculates the orthogonal coordinates of the pixel position. The deviation angle of the pixel position is output as an input.
動径計算部202では、中心からの距離を得る。これは図4における点Aではzで表されており、動径計算部202への入力座標を水平x、垂直yとすると、出力zは The radius vector calculation unit 202 obtains the distance from the center. This is represented by z at point A in FIG. 4. If the input coordinates to the radial calculation unit 202 are horizontal x and vertical y, the output z is
で表される。 It is represented by
偏角計算部203では、水平軸からの時計回りの角度を計算し、正弦、余弦の値を出力する。偏角は図4における点Aではθで表されている。偏角計算部203への入力座標を水平x(右方向を正とする)、垂直y(下方向を正とする)とすると、出力は
sinθ=y/z
cosθ=x/z
で表される。
The declination calculator 203 calculates the clockwise angle from the horizontal axis and outputs sine and cosine values. The declination is represented by θ at point A in FIG. Assuming that the input coordinates to the deflection angle calculation unit 203 are horizontal x (right direction is positive) and vertical y (down direction is positive), the output is sin θ = y / z.
cos θ = x / z
It is represented by
これらz,sinθ,cosθを用いて水平方向の収差補正量及び、垂直方向の収差補正量を決定する。 Using these z, sin θ, and cos θ, the horizontal aberration correction amount and the vertical aberration correction amount are determined.
具体的には、収差補正量の絶対値は、予めレンズ特性を元に測定しておいたデータを記憶媒体204に格納しておき、そこから読み出した収差補正量の絶対値と、z,sinθ,cosθを用いて、収差補正の対象となる画素について垂直方向の補正量と、水平方向の補正量を算出する。測定したデータをどのように格納しておくかを以下に述べる。 Specifically, as the absolute value of the aberration correction amount, data measured in advance based on the lens characteristics is stored in the storage medium 204, and the absolute value of the aberration correction amount read out from the storage medium 204, and z, sin θ. , Cos θ, the correction amount in the vertical direction and the correction amount in the horizontal direction are calculated for the pixel to be subjected to aberration correction. The following describes how the measured data is stored.
収差補正量は、レンズの絞り、焦点距離、フォーカス位置によって変動する。そのため、図5のような3次元レンズパラメータ空間を考える。あるレンズ状態において、発生している収差特性は、この空間内の1点と対応する。従って、絞り、焦点距離、フォーカス位置それぞれの軸に対し、カバーするパラメータ範囲とこの範囲を複数の区間に分割するパラメータ値を設定し、絞り、焦点距離、フォーカス位置それぞれのパラメータ値が交差する点に対して色収差データを測定し、保持する。記憶媒体204の容量には限りがあるため、色収差データは絞り、焦点距離、フォーカス位置のパラメータをある程度荒く分割して測定したデータを保持しておき、任意のパラメータ値のデータは隣接する点の色収差データから補完して作り出す。 The amount of aberration correction varies depending on the aperture, focal length, and focus position of the lens. Therefore, a three-dimensional lens parameter space as shown in FIG. 5 is considered. In a certain lens state, the generated aberration characteristic corresponds to one point in this space. Therefore, for each axis of the aperture, focal length, and focus position, set the parameter range to cover and the parameter value that divides this range into multiple sections, and the parameter values for the aperture, focal length, and focus position intersect Chromatic aberration data is measured and stored. Since the capacity of the storage medium 204 is limited, the chromatic aberration data holds data measured by roughly dividing the parameters of the aperture, focal length, and focus position to some extent, and data of arbitrary parameter values is stored at adjacent points. Complemented from chromatic aberration data.
また、当然ながら、収差補正量は、補正対象とする映像画素データが、R信号かB信号かどうかによって変わり、映像データの原点からの距離によっても変わる。従って、上記色収差データとは、原点から端までの距離をrとするとr/10、2r/10、3r/10・・というように原点から端までの距離をある程度分割した箇所でのR信号の色収差量のデータ列、及びB信号の色収差量のデータ列を意味する。このように離散的なデータ列を保持しておくのは、記憶媒体204の容量の限界や、演算量の増大を防ぐためであるが、これが前記課題で述べた画像段差が生じる原因となる。 Of course, the aberration correction amount varies depending on whether the image pixel data to be corrected is an R signal or a B signal, and also varies depending on the distance from the origin of the image data. Therefore, the chromatic aberration data is the R signal at a location where the distance from the origin to the end is divided to some extent, such as r / 10, 2r / 10, 3r / 10... Where r is the distance from the origin to the end. It means a data string of chromatic aberration amount and a data string of chromatic aberration amount of B signal. The reason why the discrete data string is held in this way is to prevent the limit of the capacity of the storage medium 204 and the increase in the calculation amount, which causes the image step described in the above problem.
以上のように格納しておいた色収差データを、まず絞り、焦点距離、フォーカス位置という3つのレンズ状態に従って記憶媒体204から読み出す。読み出された色収差データは、収差補正絶対量決定部205に入力される。収差補正絶対量決定部205では、中心からの距離zに従って、例えば2r/10≦z<3r/10であれば、r/10、2r/10、3r/10の位置に相当する3つのR,B色収差データから1つをランダムに選択し、選択した補正量をこの画素でのR,B信号の補正量の絶対値として出力する。 The chromatic aberration data stored as described above is first read from the storage medium 204 in accordance with the three lens states of the aperture, focal length, and focus position. The read chromatic aberration data is input to the aberration correction absolute amount determination unit 205. In the aberration correction absolute amount determination unit 205, according to the distance z from the center, for example, if 2r / 10 ≦ z <3r / 10, three R, corresponding to the positions r / 10, 2r / 10, and 3r / 10 One of the B chromatic aberration data is selected at random, and the selected correction amount is output as the absolute value of the correction amount of the R and B signals in this pixel.
上記のように補正量をランダムで選択することで、色収差データが切り替わる境界がわかりにくくなり、画像段差がわかりにくくなる。また、比較的近い位置の色収差データをランダムで選択するので、レンズの中心から端までの分割単位をある程度細かくすれば本来の目的である色収差の補正にも殆ど影響を与えることはない。 By selecting the correction amount at random as described above, it becomes difficult to understand the boundary where the chromatic aberration data is switched, and it is difficult to understand the image step. Further, since chromatic aberration data at relatively close positions is selected at random, if the division unit from the center to the end of the lens is made somewhat fine, the correction of chromatic aberration, which is the original purpose, is hardly affected.
R,B信号の補正量の絶対値はそれぞれ垂直/水平補正量決定部206に入力される。入力された補正量の絶対値にsinθをかけてR,B信号の垂直方向の補正量とし、これらをそれぞれR垂直フィルタ係数、B垂直フィルタ係数として出力する。同様に入力された補正量の絶対値にcosθをかけてR,B信号の水平方向の補正量を算出し、R水平フィルタ係数、B水平フィルタ係数として出力する。 The absolute values of the correction amounts of the R and B signals are input to the vertical / horizontal correction amount determination unit 206, respectively. The absolute value of the input correction amount is multiplied by sin θ to obtain the correction amounts in the vertical direction of the R and B signals, which are output as the R vertical filter coefficient and the B vertical filter coefficient, respectively. Similarly, the correction amount in the horizontal direction of the R and B signals is calculated by multiplying the absolute value of the input correction amount by cos θ and output as an R horizontal filter coefficient and a B horizontal filter coefficient.
R映像画素データは垂直フィルタ301Rに入力される。垂直フィルタ301RはR垂直フィルタ係数も入力に持ち、上記補正量に従って、R映像画素データに垂直方向のフィルタ処理を施し、出力する。R信号の垂直フィルタ301Rの出力は、R信号の水平フィルタ302Rに入力される。水平フィルタ302RはR水平フィルタ係数も入力に持ち、上記補正量に従って、R映像画素データに水平方向のフィルタ処理を施し、出力する。 The R video pixel data is input to the vertical filter 301R. The vertical filter 301 </ b> R also has an R vertical filter coefficient as input, performs vertical filter processing on the R video pixel data according to the correction amount, and outputs the result. The output of the R signal vertical filter 301R is input to the R signal horizontal filter 302R. The horizontal filter 302R also has an R horizontal filter coefficient as input, and performs a filtering process in the horizontal direction on the R video pixel data in accordance with the correction amount and outputs it.
また、B映像画素データは垂直フィルタ301Bに入力される。垂直フィルタ301BはB垂直フィルタ係数も入力に持ち、上記補正量に従って、B映像画素データに垂直方向のフィルタ処理を施し、出力する。B信号の垂直フィルタ301Bの出力は、B信号の水平フィルタ302Bに入力される。水平フィルタ302RはB水平フィルタ係数も入力に持ち、上記補正量に従って、B映像画素データに水平方向のフィルタ処理を施し、出力する。 The B video pixel data is input to the vertical filter 301B. The vertical filter 301 </ b> B also has a B vertical filter coefficient as input, and performs vertical filter processing on the B video pixel data according to the correction amount and outputs it. The output of the B signal vertical filter 301B is input to the B signal horizontal filter 302B. The horizontal filter 302R also has a B horizontal filter coefficient as an input, performs horizontal filtering on the B video pixel data according to the correction amount, and outputs the result.
以上の構成により本実施の形態の色収差補正装置は、画像を複数のエリアに分割して、各エリア毎に固有のフィルタ係数を設定して色収差補正を行う場合において、エリア毎のフィルタ周波数特性の違いによる出力画像の画像段差を軽減することが出来る。 With the above configuration, the chromatic aberration correction apparatus according to the present embodiment divides an image into a plurality of areas, and sets chromatic aberration correction by setting a unique filter coefficient for each area. The image level difference of the output image due to the difference can be reduced.
(実施の形態2)
本実施の形態が、実施の形態1と異なるところは、収差補正絶対量決定部205である。実施の形態1では、収差補正絶対量決定部205は3つのR,B色収差データから完全にランダムに1つを選択したが、本実施の形態では、係数の選択にある程度の規則性を持たせる。図6に、図3の線分LMを切り出したものを示す。例えば、線分LM上の係数Yを用いる領域において、その線分を3分割し、領域Pでは係数YとXからそれぞれ50%の確率で選択する。また、領域Qでは確率Aで係数Yを選び、確率Bで係数Xを選び、確率Cで係数Zを選択する。領域Rでは係数Yと係数Zからそれぞれ50%の確率で選択する。
(Embodiment 2)
This embodiment is different from the first embodiment in the aberration correction absolute amount determination unit 205. In the first embodiment, the aberration correction absolute amount determination unit 205 selects one from the three R and B chromatic aberration data completely at random, but in this embodiment, the coefficient selection has a certain degree of regularity. . FIG. 6 shows the line segment LM of FIG. 3 cut out. For example, in the region using the coefficient Y on the line segment LM, the line segment is divided into three, and in the region P, the coefficients Y and X are selected with a probability of 50%. In region Q, coefficient Y is selected with probability A, coefficient X is selected with probability B, and coefficient Z is selected with probability C. In the region R, each of the coefficients Y and Z is selected with a probability of 50%.
このように係数を選択することで、より自然に分割エリアの境界領域での画像段差を目立たなくすることが出来る。 By selecting the coefficients in this way, it is possible to make the image level difference in the boundary area of the divided area less noticeable.
但し、本発明は上記の例に限られるわけではなく、たとえば分割エリア内の領域の分割をもっと細かくしたり、係数の選択される確率を上記とは異なる値に定めてもよい。 However, the present invention is not limited to the above example. For example, the region in the divided area may be further divided, or the probability that the coefficient is selected may be set to a value different from the above.
本発明の収差補正装置によれば、画像を複数のエリアに分割して、各エリアごとに固有のフィルタ係数を設定して色収差補正を行うような回路において、エリアごとのフィルタ係数の違いによる出力画像の画像段差を軽減することが出来る。特に暗所など、ノイズが目立つような環境における光学レンズを使用した映像信号処理回路にも有用である。 According to the aberration correction device of the present invention, in a circuit that divides an image into a plurality of areas and sets a unique filter coefficient for each area to perform chromatic aberration correction, output based on a difference in filter coefficient for each area The image level difference of the image can be reduced. In particular, it is also useful for a video signal processing circuit using an optical lens in an environment where noise is conspicuous, such as in a dark place.
101 CCD
102 A/D変換
103R 補間処理部(Rチャンネル)
103B 補間処理部(Bチャンネル)
104 補間係数設定部
105A 彩度値生成部
105B 彩度値生成部
105C 彩度値生成部
105D 彩度値生成部
105E 彩度値生成部
106R データ選択部(Rチャンネル)
106B データ選択部(Bチャンネル)
200 フィルタ係数設定部
201 画素位置カウンタ
202 動径計算部
203 偏角計算部
204 記憶媒体
205 収差補正絶対量決定部
206 垂直/水平補正量決定部
300 フィルタ処理部
301R R垂直フィルタ
302R R水平フィルタ
301B B垂直フィルタ
302B B水平フィルタ
303 遅延部
101 CCD
102 A / D conversion 103R Interpolation processing unit (R channel)
103B Interpolation processing unit (B channel)
104 Interpolation coefficient setting unit 105A Saturation value generation unit 105B Saturation value generation unit 105C Saturation value generation unit 105D Saturation value generation unit 105E Saturation value generation unit 106R Data selection unit (R channel)
106B Data selection part (B channel)
DESCRIPTION OF SYMBOLS 200 Filter coefficient setting part 201 Pixel position counter 202 Radial radius calculation part 203 Declination angle calculation part 204 Storage medium 205 Aberration correction absolute amount determination part 206 Vertical / horizontal correction amount determination part 300 Filter processing part 301R R Vertical filter 302R R Horizontal filter 301B B vertical filter 302B B horizontal filter 303 delay unit
Claims (2)
前記映像信号のうち、R,B各チャンネルに対して、フィルタ係数に基づき所定のフィルタ処理を施すフィルタ処理部と、
前記フィルタ係数として、前記映像信号の、前記光学レンズの光学的中心に対応する位置から同心円状に複数の補正エリアに分割し、前記中心から前記フィルタ処理の対象となる対象画素までの距離もしくは相対座標と、前記光学レンズの絞り、焦点距離およびフォーカス位置とを入力として、前記対象画素までの距離に対応する補正エリアA、及び、前記補正エリアAに隣接する2つの補正エリアB,Cにおける、レンズの色収差に起因するR、G、B各映像信号間の位相ずれの補正を行う補正フィルタ係数X、Y、Zのうちから1つを選択し、前記フィルタ処理部へ出力するフィルタ係数設定部と、
を備えた収差補正装置。 An aberration correction apparatus that detects light from an optical lens and corrects a video signal output from a photoelectric conversion element,
A filter processing unit that performs a predetermined filter process on the R and B channels of the video signal based on a filter coefficient;
As the filter coefficient, the video signal is divided into a plurality of correction areas concentrically from a position corresponding to the optical center of the optical lens, and the distance or relative from the center to the target pixel to be filtered In the correction area A corresponding to the distance to the target pixel, and the two correction areas B and C adjacent to the correction area A, using the coordinates and the aperture, focal length, and focus position of the optical lens as inputs. A filter coefficient setting unit that selects one of correction filter coefficients X, Y, and Z for correcting a phase shift between R, G, and B video signals caused by chromatic aberration of the lens, and outputs the selected filter coefficient to the filter processing unit When,
An aberration correction apparatus comprising:
前記映像信号のうち、R,B各チャンネルに対して、フィルタ係数に基づき所定のフィルタ処理を施すフィルタ処理部と、
前記光学レンズの光学的中心に対応する位置から前記フィルタ処理の対象となる対象画素までの距離もしくは相対座標と、前記光学レンズの絞り、焦点距離およびフォーカス位置とを入力として、前記対象画素までの距離に対応する補正エリアA、及び、前記補正エリアAに隣接する2つの補正エリアB,Cにおける、レンズの色収差に起因するR、G、B各映像信号間の位相ずれの補正を行う補正フィルタ係数X、Y、Zのいずれを対象画素に適用するかを、入力した対象画素の位置座標が補正エリアBに近いほどフィルタ係数Yを選択する確率を高くし、前記対象画素の位置座標が補正エリアCに近いほどフィルタ係数Zを選択する確率を高くしてフィルタ係数を前記フィルタ処理部へ出力するフィルタ係数設定部と、
を備えた収差補正装置。 An aberration correction apparatus that detects light from an optical lens and corrects a video signal output from a photoelectric conversion element,
A filter processing unit that performs a predetermined filter process on the R and B channels of the video signal based on a filter coefficient;
The distance or relative coordinate from the position corresponding to the optical center of the optical lens to the target pixel to be filtered, and the aperture, focal length, and focus position of the optical lens, and the input to the target pixel A correction filter for correcting a phase shift between R, G, and B video signals caused by chromatic aberration of a lens in a correction area A corresponding to a distance and two correction areas B and C adjacent to the correction area A Which of the coefficients X, Y, and Z is applied to the target pixel, the closer the input target pixel position coordinate is to the correction area B, the higher the probability of selecting the filter coefficient Y, and the target pixel position coordinate is corrected. A filter coefficient setting unit that increases the probability of selecting the filter coefficient Z closer to the area C and outputs the filter coefficient to the filter processing unit;
An aberration correction apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009136968A JP2010283720A (en) | 2009-06-08 | 2009-06-08 | Device for correcting aberration |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009136968A JP2010283720A (en) | 2009-06-08 | 2009-06-08 | Device for correcting aberration |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010283720A true JP2010283720A (en) | 2010-12-16 |
Family
ID=43540054
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009136968A Pending JP2010283720A (en) | 2009-06-08 | 2009-06-08 | Device for correcting aberration |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010283720A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111008945A (en) * | 2019-12-31 | 2020-04-14 | 哈工大机器人(中山)无人装备与人工智能研究院 | Multi-image-quality-parameter self-adaptive aberration correction method and device based on machine learning |
-
2009
- 2009-06-08 JP JP2009136968A patent/JP2010283720A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111008945A (en) * | 2019-12-31 | 2020-04-14 | 哈工大机器人(中山)无人装备与人工智能研究院 | Multi-image-quality-parameter self-adaptive aberration correction method and device based on machine learning |
CN111008945B (en) * | 2019-12-31 | 2024-03-29 | 哈工大机器人(中山)无人装备与人工智能研究院 | Multi-image quality parameter self-adaptive aberration correction method and device based on machine learning |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8754957B2 (en) | Image processing apparatus and method | |
JP2007148500A (en) | Image processor and image processing method | |
JP2012191607A (en) | Image processing system, image processing method and program | |
JP5344648B2 (en) | Image processing method, image processing apparatus, imaging apparatus, and image processing program | |
JP5398667B2 (en) | Image processing device | |
WO2011121763A1 (en) | Image processing apparatus and image capturing apparatus using same | |
JP5528139B2 (en) | Image processing apparatus, imaging apparatus, and image processing program | |
KR20070004202A (en) | Method for correcting lens distortion in digital camera | |
US9995931B2 (en) | Method for correcting contour distortions of lenses | |
JP2011160255A5 (en) | ||
JP2010086139A (en) | Image processing method, image processing apparatus, and image pickup apparatus | |
JP6415108B2 (en) | Image processing method, image processing apparatus, imaging apparatus, image processing program, and storage medium | |
JP4994158B2 (en) | Image correction device | |
JP2010283720A (en) | Device for correcting aberration | |
JP2006121384A (en) | Imaging device | |
JP6436840B2 (en) | Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium | |
US11064114B2 (en) | Image processing apparatus and image processing method for correcting deterioration in image quality due to characteristics of image optical system | |
US9215354B2 (en) | Image processing method and solid-state imaging device having a noise reduction filter | |
JP5278421B2 (en) | Imaging device | |
JP2018067868A (en) | Imaging apparatus | |
JP6148568B2 (en) | Solid-state imaging device and video signal correction program | |
JP6238673B2 (en) | Image processing apparatus, imaging apparatus, imaging system, image processing method, image processing program, and storage medium | |
JP6552248B2 (en) | IMAGE PROCESSING APPARATUS AND METHOD, IMAGING APPARATUS, AND PROGRAM | |
JP5333163B2 (en) | Imaging device | |
CN106920217A (en) | The method and device of image flame detection |