JP2015216576A - Image processing apparatus, image processing method, imaging apparatus, electronic apparatus, and program - Google Patents

Image processing apparatus, image processing method, imaging apparatus, electronic apparatus, and program Download PDF

Info

Publication number
JP2015216576A
JP2015216576A JP2014099459A JP2014099459A JP2015216576A JP 2015216576 A JP2015216576 A JP 2015216576A JP 2014099459 A JP2014099459 A JP 2014099459A JP 2014099459 A JP2014099459 A JP 2014099459A JP 2015216576 A JP2015216576 A JP 2015216576A
Authority
JP
Japan
Prior art keywords
image
filter
image height
correction
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014099459A
Other languages
Japanese (ja)
Inventor
幹弘 尾崎
Mikihiro Ozaki
幹弘 尾崎
茂幸 馬場
Shigeyuki Baba
茂幸 馬場
宜邦 野村
Nobukuni Nomura
宜邦 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014099459A priority Critical patent/JP2015216576A/en
Priority to PCT/JP2015/062635 priority patent/WO2015174257A1/en
Publication of JP2015216576A publication Critical patent/JP2015216576A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • H04N25/615Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4" involving a transfer function modelling the optical system, e.g. optical transfer function [OTF], phase transfer function [PhTF] or modulation transfer function [MTF]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements

Abstract

PROBLEM TO BE SOLVED: To suitably correct image blur.SOLUTION: An image processing apparatus includes an acquisition unit for acquiring a filter for performing blur correction respectively set for a plurality of image heights and a correction unit for correcting a pixel value of a pixel in an image height to be corrected by using the filter acquired by the acquisition unit. The correction unit applies a filter set to an image height adjacent to the image height to be corrected to a pixel value of a pixel to be corrected, calculates a coefficient from positional relation between the image height to be corrected and the adjacent image height and calculates a corrected pixel value by using the filter-applied pixel value and the coefficient. This technique can be applied to an image processing apparatus, e.g. a camera, for processing a photographed image.

Description

本技術は、画像処理装置、画像処理方法、撮像装置、電子機器、並びにプログラムに関する。詳しくは、画像のぼけ補正を行う画像処理装置、画像処理方法、撮像装置、電子機器、並びにプログラムに関する。   The present technology relates to an image processing device, an image processing method, an imaging device, an electronic device, and a program. Specifically, the present invention relates to an image processing apparatus, an image processing method, an imaging apparatus, an electronic apparatus, and a program that perform image blur correction.

デジタルカメラ等の撮像装置において撮影される画像には、ぼけが発生する可能性がある。特に、安価なレンズを用いたカメラでは、像高(光学中心からの距離)が大きくなるほど、レンズの収差に起因した画像のぼけが大きくなる。   Blur may occur in an image taken by an imaging device such as a digital camera. In particular, in a camera using an inexpensive lens, image blur due to lens aberration increases as the image height (distance from the optical center) increases.

このような様々な要因に基づく画像のノイズやぼけの補正処理について開示した従来技術として、例えば、特許文献1乃至3がある。特許文献1は、撮影画像の領域単位で異なる先鋭化パラメータを用いた補正処理構成を開示している。具体的には、像高(光学中心からの距離)が大きくなるほど、先鋭化パラメータを強くして画像補正を行う構成である。   For example, Patent Documents 1 to 3 are disclosed as conventional techniques that disclose image noise and blur correction processing based on such various factors. Patent Document 1 discloses a correction processing configuration using different sharpening parameters for each region of a captured image. Specifically, the image correction is performed by increasing the sharpening parameter as the image height (distance from the optical center) increases.

しかしながら、この特許文献1の処理は、像高に応じて高周波成分の強度を強める処理を施すのみであり、例えばぼけの周波数特性の変化等については考慮しておらず、適切な補正が実行されない可能性がある。   However, the process of Patent Document 1 merely performs a process of increasing the intensity of the high-frequency component in accordance with the image height, and does not take into account, for example, a change in the frequency characteristic of blur, and appropriate correction is not performed. there is a possibility.

また、特許文献2は、レンズの固体差や製造誤差によって変化するぼけに対応するため、それぞれのレンズ特性に応じたフィルタを選択してぼけ補正処理を実行する構成を開示している。しかしながら、上述の像高依存型のぼけのように像高に応じてぼけ方が連続的に変化するぼけに対して、この補正処理を適用しようとすると、ぼけ補正用のフィルタの種類が膨大な数になる可能性がある。   Patent Document 2 discloses a configuration in which a blur correction process is performed by selecting a filter corresponding to each lens characteristic in order to cope with a blur that varies depending on a lens difference or a manufacturing error. However, if this correction processing is applied to blur in which the blur method changes continuously according to the image height, such as the above-described image height-dependent blur, the number of types of filters for blur correction is enormous. Could be a number.

さらに、特許文献3は、像高によって偏りの発生するぼけ方を示すいわゆる片ぼけに対して、像高毎に重心位置をずらしたフィルタを適用することで、像高に応じた適切な補正を実行する構成を開示している。具体的には、フィルタの重心位置の補正によって片ぼけに対応した補正を行うものである。しかし、重心位置の補正に主眼をおいており、補正強度の制御については示されておらず、ぼけの強い部分や弱い部分に対応した個別の処理が実行されず、適切な補正がなされない場合が発生する。   Furthermore, Patent Document 3 applies an appropriate correction according to the image height by applying a filter in which the position of the center of gravity is shifted for each image height with respect to so-called one-sided blur indicating how the blur occurs depending on the image height. A configuration to execute is disclosed. More specifically, correction corresponding to blurring is performed by correcting the position of the center of gravity of the filter. However, the focus is on the correction of the center of gravity, the control of the correction strength is not shown, and individual processing corresponding to the strong or weak part is not executed, and appropriate correction is not made Occurs.

特開2006−246080号公報JP 2006-246080 A 特開2009−159603号公報JP 2009-159603 A 特開2010−081263号公報JP 2010-081263 A

従来のぼけ補正は、上記したようなことの他に、例えば、畳み込み演算によるフィルタリングに基づく画素値補正を行うものであるが、様々な補正を行うために、このフィルタリングを行うためのフィルタを多数、格納するため容量の大きなメモリを必要とするなど、小型かつ低コストの実現の妨げとなる可能性があった。   In the conventional blur correction, in addition to the above, for example, pixel value correction based on filtering by convolution calculation is performed, but in order to perform various corrections, a number of filters for performing this filtering are used. In some cases, a large-capacity memory is required for storage, which may hinder the realization of a small size and low cost.

本技術は、このような状況に鑑みてなされたものであり、像高に応じた適切な補正を行うことができるようにするものである。   This technique is made in view of such a situation, and makes it possible to perform an appropriate correction according to the image height.

本技術の一側面の画像処理装置は、複数の像高にそれぞれ設定されているぼけ補正を行うフィルタを取得する取得部と、前記取得部により取得された前記フィルタを用いて、補正対象とされた像高における画素の画素値を補正する補正部とを備える。   An image processing apparatus according to an aspect of the present technology is an object to be corrected using an acquisition unit that acquires a filter that performs blur correction that is set for each of a plurality of image heights, and the filter acquired by the acquisition unit. A correction unit that corrects the pixel value of the pixel at the obtained image height.

前記補正部は、前記補正対象とされた像高に隣接する像高に設定されている前記フィルタを、前記補正対象とされた画素の画素値に適用し、前記補正対象とされた像高と前記隣接する像高との位置関係から係数を算出し、前記フィルタ適用後の画素値と前記係数を用いて補正後の画素値を算出するようにすることができる。   The correction unit applies the filter that is set to an image height adjacent to the image height that is the correction target to a pixel value of the pixel that is the correction target, and the image height that is the correction target. A coefficient can be calculated from the positional relationship with the adjacent image height, and a corrected pixel value can be calculated using the pixel value after applying the filter and the coefficient.

前記補正部は、前記補正対象とされた像高と前記隣接する像高との位置関係から係数を算出し、前記補正対象とされた像高に隣接する像高に設定されている前記フィルタと前記係数を用いて、前記補正対象とされた画素の画素値に適用するフィルタを生成し、生成された前記フィルタと前記補正対象とされた画素の画素値を用いて補正後の画素値を算出するようにすることができる。   The correction unit calculates a coefficient from a positional relationship between the image height that is the correction target and the adjacent image height, and the filter that is set to an image height adjacent to the image height that is the correction target; A filter to be applied to the pixel value of the pixel to be corrected is generated using the coefficient, and a corrected pixel value is calculated using the generated filter and the pixel value of the pixel to be corrected To be able to.

前記フィルタの係数は、前記第1の像高上の複数の像点から、PSF(Point Spread Function)データが算出され、前記PSFデータが平均化され、前記平均化された前記PSFデータが用いられて、所定の関数で近似され、前記近似された前記PSFデータから算出された係数であるようにすることができる。   As the filter coefficient, PSF (Point Spread Function) data is calculated from a plurality of image points on the first image height, the PSF data is averaged, and the averaged PSF data is used. Thus, the coefficient is approximated by a predetermined function and calculated from the approximated PSF data.

前記フィルタの係数の算出は、ウィナーフィルタを用いるようにすることができる。   The coefficient of the filter can be calculated using a Wiener filter.

前記フィルタが設定されている像高は、前記PSFの形状が大きく変化するところの像高であるようにすることができる。   The image height for which the filter is set may be an image height at which the shape of the PSF changes greatly.

前記フィルタの係数は、前記第1の像高上の複数の像点から、MTF(Modulation Transfer Function)データが算出され、前記MTFデータが平均化され、前記平均化された前記MTFデータが用いられて、所定の関数で近似され、前記近似された前記MTFデータから算出された係数であるようにすることができる。   As the filter coefficient, MTF (Modulation Transfer Function) data is calculated from a plurality of image points on the first image height, the MTF data is averaged, and the averaged MTF data is used. Thus, the coefficient is approximated by a predetermined function and calculated from the approximated MTF data.

前記フィルタの係数の算出は、ウィナーフィルタを用いるようにすることができる。   The coefficient of the filter can be calculated using a Wiener filter.

前記フィルタが設定されている像高は、前記MTFデータの変曲点であるようにすることができる。   The image height for which the filter is set can be an inflection point of the MTF data.

本技術の一側面の画像処理方法は、複数の像高にそれぞれ設定されているぼけ補正を行うフィルタを取得し、取得された前記フィルタを用いて、補正対象とされた像高における画素の画素値を補正するステップを含む。   An image processing method according to an aspect of the present technology acquires a filter that performs blur correction that is set for each of a plurality of image heights, and uses the acquired filter to obtain a pixel of a pixel at an image height that is a correction target. A step of correcting the value.

本技術の一側面のプログラムは、複数の像高にそれぞれ設定されているぼけ補正を行うフィルタを取得し、取得された前記フィルタを用いて、補正対象とされた像高における画素の画素値を補正するステップを含む処理を実行させる。   A program according to an aspect of the present technology acquires a filter that performs blur correction that is set for each of a plurality of image heights, and uses the acquired filter to calculate a pixel value of a pixel at an image height that is a correction target. A process including a correction step is executed.

本技術の一側面の撮像装置は、撮像素子と、複数の像高にそれぞれ設定されているぼけ補正を行うフィルタを取得する取得部と、前記取得部により取得された前記フィルタを用いて、前記撮像素子で撮像された画素のうち、補正対象とされた像高における画素の画素値を補正する補正部とを備える。   An imaging apparatus according to an aspect of the present technology uses the imaging device, an acquisition unit that acquires a filter that performs blur correction that is set for each of a plurality of image heights, and the filter acquired by the acquisition unit, A correction unit that corrects a pixel value of a pixel at an image height that is a correction target among pixels picked up by the image pickup device;

本技術の一側面の電子機器は、複数の像高にそれぞれ設定されているぼけ補正を行うフィルタを取得する取得部と、前記取得部により取得された前記フィルタを用いて、補正対象とされた像高における画素の画素値を補正する補正部と、前記補正部からの補正後の画素値に対して、所定の画像処理を施す画像処理部とを備える。   An electronic apparatus according to an aspect of the present technology is subjected to correction using an acquisition unit that acquires a filter that performs blur correction that is set for each of a plurality of image heights, and the filter acquired by the acquisition unit. A correction unit that corrects a pixel value of a pixel at an image height and an image processing unit that performs predetermined image processing on the pixel value after correction from the correction unit.

本技術の一側面の画像処理装置、画像処理方法、並びにプログラムにおいては、複数の像高にそれぞれ設定されているぼけ補正を行うフィルタが取得され、取得されたフィルタが用いられて、補正対象とされた像高における画素の画素値が補正される。   In the image processing apparatus, the image processing method, and the program according to one aspect of the present technology, a filter that performs blur correction that is set for each of a plurality of image heights is acquired, and the acquired filter is used to correct the correction target. The pixel value of the pixel at the set image height is corrected.

本技術の一側面の撮影装置においては、前記画像処理装置が含まれ、画像を撮像するための撮像素子が備えられる。   An imaging device according to one aspect of the present technology includes the image processing device, and includes an imaging element for capturing an image.

本技術の一側面の電子機器においては、前記画像処理装置が含まれ、前記画像処理装置で処理された信号をさらに処理する処理部が備えられる。   An electronic apparatus according to an aspect of the present technology includes the image processing device, and includes a processing unit that further processes a signal processed by the image processing device.

本技術の一側面によれば、像高に応じた適切な補正を行うことができるようになる。   According to one aspect of the present technology, it is possible to perform appropriate correction according to the image height.

なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。   Note that the effects described here are not necessarily limited, and may be any of the effects described in the present disclosure.

本技術を適用した画像処理装置の一実施の形態の構成を示す図である。It is a figure showing composition of an embodiment of an image processing device to which this art is applied. 信号処理部の構成を示す図である。It is a figure which shows the structure of a signal processing part. レンズ収差補正フィルタ係数の一例を示す図である。It is a figure which shows an example of a lens aberration correction filter coefficient. レンズ収差補正フィルタ係数の一例を示す図である。It is a figure which shows an example of a lens aberration correction filter coefficient. レンズ収差補正フィルタ係数の一例を示す図である。It is a figure which shows an example of a lens aberration correction filter coefficient. レンズPSFデータについて説明するための図である。It is a figure for demonstrating lens PSF data. コマ収差について説明するための図である。It is a figure for demonstrating a coma aberration. レンズ収差補正フィルタ係数の求め方について説明するための図である。It is a figure for demonstrating how to obtain | require a lens aberration correction filter coefficient. レンズ収差補正フィルタ係数の求め方について説明するための図である。It is a figure for demonstrating how to obtain | require a lens aberration correction filter coefficient. 係数を算出する像高の選択について説明するための図である。It is a figure for demonstrating selection of the image height which calculates a coefficient. 係数が算出された像高の位置について説明するための図である。It is a figure for demonstrating the position of the image height from which the coefficient was calculated. ブレンド係数について説明するための図である。It is a figure for demonstrating a blend coefficient. 記録媒体について説明するための図である。It is a figure for demonstrating a recording medium.

以下に、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、説明は、以下の順序で行う。
1.画像処理装置の構成
2.信号処理部の構成
3.レンズ収差補正フィルタ係数について
4.第1のレンズ収差補正フィルタ係数の求め方
5.第2のレンズ収差補正フィルタ係数の求め方
6.レンズ収差補正フィルタ係数を算出する像高について
7.レンズ収差補正フィルタ係数の補間について
8.記録媒体について
Hereinafter, modes for carrying out the present technology (hereinafter referred to as embodiments) will be described. The description will be given in the following order.
1. 1. Configuration of image processing apparatus 2. Configuration of signal processing unit 3. Lens aberration correction filter coefficient 4. Determination of first lens aberration correction filter coefficient 5. Method of obtaining second lens aberration correction filter coefficient 6. Image height for calculating lens aberration correction filter coefficient 7. Interpolation of lens aberration correction filter coefficient About recording media

<画像処理装置の構成>
以下に説明する本技術は、撮影画像に発生するぼけを補正する装置に適用できる。まず、撮影画像に発生するぼけの特性について説明する。
<Configuration of image processing apparatus>
The present technology described below can be applied to an apparatus that corrects a blur that occurs in a captured image. First, the characteristics of blur occurring in a captured image will be described.

デジタルカメラ等の撮像装置によって撮影された画像には、レンズ特性やCCD、CMOS等の撮像素子の特性に応じたぼけが発生する。特に、安価なレンズを用いたカメラでは、像高(光学中心からの距離)が大きくなるほど、レンズの収差に起因した画像のぼけが大きくなる。   In an image taken by an imaging device such as a digital camera, blurring occurs according to lens characteristics and characteristics of an imaging element such as a CCD or CMOS. In particular, in a camera using an inexpensive lens, image blur due to lens aberration increases as the image height (distance from the optical center) increases.

一般的に像高に応じて発生するぼけのうち、画像の中心領域は、ぼけが小さい。すなわち、光学中心に近い(像高が小さい)ほど、ぼけが小さい。一方、光学中心からの距離が大きくなるほど、すなわち像高が大きくなるほど、ぼけが大きくなる。   Of the blurs that generally occur according to the image height, the center region of the image has a small blur. That is, the closer to the optical center (the smaller the image height), the smaller the blur. On the other hand, the greater the distance from the optical center, that is, the greater the image height, the greater the blur.

このように、カメラによる撮影画像に発生するぼけは、カメラのレンズの光学中心に近い画像領域の中心部ほど小さく、レンズの光学中心から遠い画像の周辺領域ほど大きくなる傾向がある。このようなぼけを補正することができる本技術を適用した撮像装置について説明を加える。   As described above, the blur generated in the image taken by the camera tends to be smaller at the center of the image area near the optical center of the lens of the camera and larger at the peripheral area of the image far from the optical center of the lens. An imaging apparatus to which the present technology that can correct such blur will be described.

<信号処理部の構成>
図1は、本技術を適用した撮像装置の一実施の形態の構成を示す図である。撮像装置100は、光学レンズ111、撮像素子(イメージセンサ)112、信号処理部113、制御部114、メモリ115を有する。なお、撮像装置は画像処理装置の一態様である。
<Configuration of signal processing unit>
FIG. 1 is a diagram illustrating a configuration of an embodiment of an imaging apparatus to which the present technology is applied. The imaging apparatus 100 includes an optical lens 111, an imaging element (image sensor) 112, a signal processing unit 113, a control unit 114, and a memory 115. Note that the imaging device is an aspect of an image processing device.

なお、本開示の画像処理装置には、例えばパーソナルコンピュータ(PC)などの装置も含まれる。PC等の画像処理装置は、図1に示す撮像装置100の光学レンズ111、撮像素子112を持たず、その他の構成要素から構成され、撮像装置100の取得データの入力部、または記憶部を持つ構成となる。   Note that the image processing apparatus according to the present disclosure includes an apparatus such as a personal computer (PC). An image processing apparatus such as a PC does not include the optical lens 111 and the image sensor 112 of the image capturing apparatus 100 illustrated in FIG. 1, and includes other components, and includes an acquisition data input unit or a storage unit of the image capturing apparatus 100. It becomes composition.

以下では、図1に示す撮像装置100を本開示の画像処理装置の代表例として説明する。なお、図1に示す撮像装置100は、例えばスチルカメラ、ビデオカメラなどである。   Hereinafter, the imaging apparatus 100 illustrated in FIG. 1 will be described as a representative example of the image processing apparatus of the present disclosure. Note that the imaging apparatus 100 illustrated in FIG. 1 is, for example, a still camera or a video camera.

図1に示す撮像装置100の撮像素子112は、RGB配列からなるベイヤ配列を持つカラーフィルタを備えた構成である。ここでは、RGB配列からなる撮像素子112を利用した構成と処理について説明するが、本技術は、RGB配列以外の例えばRGBW配列を持つ撮像素子を利用した構成に対しても適用できる。また例えば、Y(イエロー)、C(シアン)、M(マゼンタ)等の配列を持つ撮像素子を利用した構成に対しても適用できる。ここで例示した配列以外の他の色配列に対しても本技術は適用できる。   The imaging device 112 of the imaging apparatus 100 shown in FIG. 1 has a configuration including a color filter having a Bayer array composed of RGB arrays. Here, the configuration and processing using the image sensor 112 having an RGB array will be described, but the present technology can also be applied to a configuration using an image sensor having an RGBW array other than the RGB array. Further, for example, the present invention can be applied to a configuration using an image sensor having an array of Y (yellow), C (cyan), M (magenta), and the like. The present technology can be applied to color arrangements other than the arrangements exemplified here.

図1に示す撮像装置100の撮像素子112は、RGB配列121を持つ。すなわち、
赤色近傍の波長を透過する赤(R)、
緑色近傍の波長を透過する緑(G)、
青色近傍の波長を透過する青(B)、
これら3種類の分光特性を持つフィルタを備えた撮像素子である。
The imaging device 112 of the imaging apparatus 100 shown in FIG. That is,
Red (R) that transmits wavelengths near red,
Green (G) that transmits wavelengths in the vicinity of green,
Blue (B) that transmits wavelengths near blue,
It is an image sensor provided with a filter having these three types of spectral characteristics.

このRGB配列121を持つ撮像素子112は、光学レンズ111を介してRGBいずれかの光を各画素単位で受光し、光電変換により受光信号強度に対応する電気信号を生成して出力する。この撮像素子112によってRGB3種類の分光から成るモザイク画像が得られる。   The image sensor 112 having the RGB array 121 receives RGB light in units of pixels via the optical lens 111, and generates and outputs an electrical signal corresponding to the received light signal intensity by photoelectric conversion. A mosaic image composed of three types of RGB spectra is obtained by the image sensor 112.

撮像素子112の出力信号は、信号処理部113の画像信号補正部131に入力される。   The output signal of the image sensor 112 is input to the image signal correction unit 131 of the signal processing unit 113.

画像信号補正部131は、例えば像高(光学中心からの距離)やフォーカス位置に応じて変化するぼけ方を考慮したぼけ補正処理を実行する。この画像信号補正部131の構成については、図2を参照して後述する。   The image signal correction unit 131 performs a blur correction process in consideration of, for example, a blur method that changes according to the image height (distance from the optical center) and the focus position. The configuration of the image signal correction unit 131 will be described later with reference to FIG.

画像信号補正部131においてぼけ補正のなされたモザイク画像は、RGB信号処理部132に出力される。画像信号補正部131の出力は、撮像素子112からの出力と同様、ベイヤ配列を持つデータである。   The mosaic image subjected to the blur correction in the image signal correction unit 131 is output to the RGB signal processing unit 132. The output of the image signal correction unit 131 is data having a Bayer array, similar to the output from the image sensor 112.

RGB信号処理部132は、デモザイク処理、ホワイトバランス調整処理、γ補正処理などを実行してカラー画像116を生成する。生成したカラー画像116はメモリ115に記録される。   The RGB signal processing unit 132 generates a color image 116 by performing demosaic processing, white balance adjustment processing, γ correction processing, and the like. The generated color image 116 is recorded in the memory 115.

制御部114は、これら一連の処理の制御を実行する。例えば、一連の処理を実行させるプログラムがメモリ115に格納されており、制御部114は、メモリ115から読み出したプログラムを実行して一連の処理を制御する。なお、メモリ115は、例えば磁気ディスク、光ディスク、フラッシュメモリ等の各種記録媒体によって構成可能である。   The control unit 114 controls these series of processes. For example, a program for executing a series of processes is stored in the memory 115, and the control unit 114 executes the program read from the memory 115 and controls the series of processes. The memory 115 can be configured by various recording media such as a magnetic disk, an optical disk, and a flash memory.

画像信号補正部131の詳細構成について図2を参照して説明する。画像信号補正部131は、図2に示すように、像高算出部201、ブレンド係数算出部202、ラインメモリ203、レンズ収差補正処理部204、エッジ検出部205、およびエッジ・平坦部ブレンド処理部206を有する。またレンズ収差補正処理部204は、レンズ収差補正部221とブレンド処理部222を備える。   A detailed configuration of the image signal correction unit 131 will be described with reference to FIG. As shown in FIG. 2, the image signal correction unit 131 includes an image height calculation unit 201, a blend coefficient calculation unit 202, a line memory 203, a lens aberration correction processing unit 204, an edge detection unit 205, and an edge / flat portion blend processing unit. 206. The lens aberration correction processing unit 204 includes a lens aberration correction unit 221 and a blend processing unit 222.

撮像素子112から出力された各画素対応の画素値信号は一旦、ラインメモリ203に蓄えられる。また、各画素の画素値に対応付けられた各画素の座標位置を示すxyアドレスが像高算出部201に出力される。   The pixel value signal corresponding to each pixel output from the image sensor 112 is temporarily stored in the line memory 203. An xy address indicating the coordinate position of each pixel associated with the pixel value of each pixel is output to the image height calculation unit 201.

ラインメモリ203は、撮像素子112の、例えば、水平7ライン分のラインメモリを有する。ラインメモリ203からは、7つの水平ライン分のデータを並列に順次出力する。出力先は、レンズ収差補正部221、エッジ検出部205、エッジ・平坦部ブレンド処理部206である。これらの各処理部に対して、RGB配列121の撮像データが7ライン単位で出力される。   The line memory 203 includes a line memory for the horizontal 7 lines of the image sensor 112, for example. From the line memory 203, data for seven horizontal lines are sequentially output in parallel. The output destinations are the lens aberration correction unit 221, the edge detection unit 205, and the edge / flat portion blend processing unit 206. The imaging data of the RGB array 121 is output in units of 7 lines to each of these processing units.

なお、ここでは、7ライン単位で出力されるとして説明を続けるが、後述するフィルタが、7×7画素に対するフィルタを例に挙げて説明するためであり、このフィルタが7×7画素以外に対するフィルタであれば、そのフィルタに対応するライン数が設定され、ラインメモリ203は、設定されているライン数分の画素値を蓄積し、出力する。   Here, the description will be continued on the assumption that data is output in units of 7 lines. However, this is because a filter described later is described by taking a filter for 7 × 7 pixels as an example, and this filter is a filter for other than 7 × 7 pixels. If so, the number of lines corresponding to the filter is set, and the line memory 203 accumulates and outputs pixel values for the set number of lines.

エッジ検出部205は、ラインメモリ203からの出力信号を検証して、画像に含まれるエッジ情報、例えばエッジ方向とエッジ強度を含むエッジ情報を生成してエッジ・平坦部ブレンド処理部206に出力する。具体的には、例えば、処理対象画素(7×7画素の中心画素)を中心として7×7画素の画素情報から算出される平坦度(weightFlat)を算出してエッジ・平坦部ブレンド処理部206に出力する。なお、この平坦度(weightFlat)算出処理は、本出願人の先の出願である特開2011−55038号公報に記載の処理と同様の処理として実行可能である。   The edge detection unit 205 verifies the output signal from the line memory 203, generates edge information included in the image, for example, edge information including the edge direction and the edge strength, and outputs the edge information to the edge / flat part blend processing unit 206. . Specifically, for example, the edge / flat part blend processing unit 206 calculates the flatness (weightFlat) calculated from the pixel information of 7 × 7 pixels with the processing target pixel (the center pixel of 7 × 7 pixels) as the center. Output to. This flatness (weightFlat) calculation process can be executed as a process similar to the process described in Japanese Patent Application Laid-Open No. 2011-55038, which is an earlier application of the present applicant.

レンズ収差補正処理部204は、ラインメモリ203からの入力信号(Rin,Gin,Bin)を検証して、画像ぼけを補正する処理を行い、その処理結果として得られるぼけ補正信号(Rd,Gd,Bd)を算出してエッジ・平坦部ブレンド処理部206に出力する。   The lens aberration correction processing unit 204 verifies the input signal (Rin, Gin, Bin) from the line memory 203, performs a process for correcting image blur, and obtains a blur correction signal (Rd, Gd, Bd) is calculated and output to the edge / flat portion blend processing unit 206.

レンズ収差補正処理部204は、画像ぼけ、特に本実施の形態においては、像高に依存する画像ぼけを補正する。レンズ収差補正処理部204のレンズ収差補正部221は、各像高におけるレンズ収差補正フィルタ係数が取得する。このレンズ収差補正フィルタ係数に関しては、後述するが、像高毎に異なるレンズ収差を補正するために、例えば、ウィナーフィルタを用いて算出された係数である。   The lens aberration correction processing unit 204 corrects image blur, particularly in this embodiment, image blur that depends on the image height. The lens aberration correction unit 221 of the lens aberration correction processing unit 204 acquires lens aberration correction filter coefficients at each image height. The lens aberration correction filter coefficient is a coefficient calculated using, for example, a Wiener filter in order to correct lens aberrations that differ for each image height, as will be described later.

レンズ収差補正部221による補正結果は、ブレンド処理部222に供給される。ブレンド処理部222には、ブレンド係数算出部202からの係数αも供給される。ブレンド処理部222は、ブレンド係数算出部202からの係数αに基づき、レンズ収差補正フィルタ係数が設定されていない像高におけるレンズ収差補正後のぼけ補正信号(Rd,Gd,Bd)を生成し、エッジ・平坦部ブレンド処理部206に供給する。   The correction result by the lens aberration correction unit 221 is supplied to the blend processing unit 222. The coefficient α from the blend coefficient calculating unit 202 is also supplied to the blend processing unit 222. Based on the coefficient α from the blend coefficient calculation unit 202, the blend processing unit 222 generates a blur correction signal (Rd, Gd, Bd) after lens aberration correction at an image height for which no lens aberration correction filter coefficient is set, This is supplied to the edge / flat portion blend processing unit 206.

エッジ・平坦部ブレンド処理部206は、ラインメモリ203からの出力信号中のRGB信号(Rin,Gin,Bin)、エッジ検出部205から出力されるエッジ情報、およびレンズ収差補正処理部204から出力されるぼけ補正信号(Rd,Gd,Bd)を入力する。エッジ・平坦部ブレンド処理部206は、これらの情報を利用して、エッジを考慮したぼけ補正のなされた出力信号RGBを生成してRGB信号処理部132に出力する。   The edge / flat portion blend processing unit 206 is output from the RGB signal (Rin, Gin, Bin) in the output signal from the line memory 203, the edge information output from the edge detection unit 205, and the lens aberration correction processing unit 204. A blur correction signal (Rd, Gd, Bd) is input. The edge / flat part blend processing unit 206 uses these pieces of information to generate an output signal RGB that has been subjected to blur correction in consideration of edges, and outputs the output signal RGB to the RGB signal processing unit 132.

エッジ・平坦部ブレンド処理部206は、エッジ検出部205で算出された処理対象画素のエッジ情報、すなわち、処理対象画素(7×7画素の中心画素)を中心として7×7画素の画素情報から算出される平坦度(weightFlat)に応じて、レンズ収差補正処理部204から出力されるぼけ補正信号(Rd,Gd,Bd)の加重平均処理を実行して、RGB配列121のRGB各画素値を算出する。具体的には、以下の式に従ってRGB画素値を決定する。   The edge / flat part blend processing unit 206 is based on the edge information of the processing target pixel calculated by the edge detection unit 205, that is, the pixel information of 7 × 7 pixels centering on the processing target pixel (center pixel of 7 × 7 pixels). In accordance with the calculated flatness (weightFlat), the weighted average processing of the blur correction signal (Rd, Gd, Bd) output from the lens aberration correction processing unit 204 is executed, and the RGB pixel values of the RGB array 121 are obtained. calculate. Specifically, RGB pixel values are determined according to the following formula.

R=(weightFlat)×(Rd)+(1−weightFlat)×Rin
G=(weightFlat)×(Gd)+(1−weightFlat)×Gin
B=(weightFlat)×(Bd)+(1−weightFlat)×Bin
R = (weightFlat) × (Rd) + (1-weightFlat) × Rin
G = (weightFlat) × (Gd) + (1−weightFlat) × Gin
B = (weightFlat) × (Bd) + (1−weightFlat) × Bin

この式の算出結果として得られるR、G、BをRGB信号処理部132に出力する。RGB信号処理部132は、RGB配列(ベイヤ配列)信号に対する信号処理として、エッジ・平坦部ブレンド処理部206から出力されるRGB配列(ベイヤ配列)信号に対する信号処理を実行してカラー画像116(図1)を生成する。RGB信号処理部132は、例えば、ホワイトバランス調整処理、デモザイク処理、シェーディング処理、RGBカラーマトリクス処理、γ補正処理などを実行してカラー画像116を生成する。   R, G, and B obtained as a calculation result of this expression are output to the RGB signal processing unit 132. The RGB signal processing unit 132 performs signal processing on the RGB array (Bayer array) signal output from the edge / flat part blend processing unit 206 as signal processing on the RGB array (Bayer array) signal, and performs the color image 116 (FIG. 1) is generated. The RGB signal processing unit 132 generates, for example, a color image 116 by executing white balance adjustment processing, demosaic processing, shading processing, RGB color matrix processing, γ correction processing, and the like.

<レンズ収差補正フィルタ係数について>
レンズ収差補正部221に供給される所定の像高におけるレンズ収差補正フィルタ係数について説明を加える。
<Lens aberration correction filter coefficient>
The lens aberration correction filter coefficient at a predetermined image height supplied to the lens aberration correction unit 221 will be described.

レンズ収差補正フィルタ係数は、例えば、ウィナー(Wiener)フィルタが用いられて算出される。ここで、ウィナーフィルタについて簡単に説明する。
(1)ぼけのない理想画像(原画像)、
(2)ぼけのある撮影画像、
(3)撮影画像に対するフィルタの適用処理によって復元される復元画像、
これらの3つの画像を想定する。
The lens aberration correction filter coefficient is calculated using, for example, a Wiener filter. Here, the winner filter will be briefly described.
(1) Ideal image (original image) without blur,
(2) Blurred shot image,
(3) a restored image restored by filter application processing on the captured image;
Assume these three images.

ここで、
(1)ぼけのない理想画像(原画像)と、
(3)撮影画像に対するフィルタの適用処理によって復元される復元画像、
これらの2つの画像の二乗誤差を最小とするフィルタが、最小二乗フィルタ、またはウィナーフィルタと呼ばれる。
here,
(1) An ideal image (original image) without blur,
(3) a restored image restored by filter application processing on the captured image;
A filter that minimizes the square error between these two images is called a least square filter or a Wiener filter.

f(x,y)を、ぼけのない理想画像(原画像)、
g(x,y)を、ぼけを含む撮影画像、
h(x,y)を、レンズ収差や手ぶれによる劣化関数、
n(x,y)を、ノイズ成分、
とする。
(x,y)は各画像の画素位置であり、f(x,y)〜n(x,y)は各画像の座標位置(x,y)の画素値を示す場合もある。ここで、レンズ収差や手ぶれによる劣化関数h(x,y)が、固定値であると仮定すると、以下の式(1)の関係が成り立つ。
f (x, y) is an ideal image (original image) without blur,
g (x, y) is a captured image including blur,
h (x, y) is a degradation function due to lens aberration or camera shake,
n (x, y) is a noise component,
And
(X, y) is the pixel position of each image, and f (x, y) to n (x, y) may indicate the pixel value of the coordinate position (x, y) of each image. Here, assuming that the degradation function h (x, y) due to lens aberration and camera shake is a fixed value, the relationship of the following formula (1) is established.

Figure 2015216576
Figure 2015216576

上記式(1)の両辺をフーリエ変換すると、次式(2)となる。
G(u,v)=H(u,v)×F(u,v)+N(u,v) ・・・(2)
When both sides of the above equation (1) are Fourier transformed, the following equation (2) is obtained.
G (u, v) = H (u, v) × F (u, v) + N (u, v) (2)

式(2)において、G(u,v),H(u,v),F(u,v),N(u,v)はそれぞれg(x,y),h(x,y),f(x,y),n(x,y)のフーリエ変換を表す。この式からレンズ収差や手ぶれによる劣化関数に零点がなく、ノイズ成分が既知であるとき、F(u,v)は、次式(3)から求めることが可能である。   In Equation (2), G (u, v), H (u, v), F (u, v), and N (u, v) are g (x, y), h (x, y), and f, respectively. Represents the Fourier transform of (x, y), n (x, y). From this equation, when there is no zero point in the degradation function due to lens aberration or camera shake, and the noise component is known, F (u, v) can be obtained from the following equation (3).

Figure 2015216576
Figure 2015216576

しかしながら、一般にノイズ成分は未知であるため、上記式(3)を厳密に解くことはできない。そこで、理想画像(F)と、ぼけの補正された復元画像(F')の誤差を最小とする次式(4)のウィナーフィルタK(u,v)を用いてぼけ補正が行われる。   However, since the noise component is generally unknown, the above equation (3) cannot be solved exactly. Therefore, blur correction is performed using the Wiener filter K (u, v) of the following equation (4) that minimizes the error between the ideal image (F) and the restored image (F ′) corrected for blur.

Figure 2015216576
Figure 2015216576

ただし、上記式(4)において、
(Sn(u,v)/Sf(u,v)):理想画像(原画像)Fと、ノイズNとのパワースペクトル密度(Γ)を示す。
(Γ=Sn(u,v)/Sf(u,v))
However, in the above formula (4),
(Sn (u, v) / Sf (u, v)): Indicates the power spectral density (Γ) between the ideal image (original image) F and noise N.
(Γ = Sn (u, v) / Sf (u, v))

次式(5)のとおり、このフィルタを逆フーリエ変換したものk(x,y)と、観測画像を実空間で畳み込むことで、ぼけ補正のされた画像f'(x,y)を得ることができる。   As shown in the following equation (5), the image obtained by performing inverse Fourier transform of this filter k (x, y) and the image f ′ (x, y) corrected for blur are obtained by convolving the observed image in real space. Can do.

Figure 2015216576
Figure 2015216576

上記式(5)に従ったウィナーフィルタによるぼけ補正処理の一例を図3に示す。図3には、
(a)撮影画像G
(b)ウィナーフィルタK
を示している。
An example of the blur correction process by the Wiener filter according to the above equation (5) is shown in FIG. In FIG.
(A) Captured image G
(B) Wiener filter K
Is shown.

撮影画像は、RGB画素からなるRAW画像である。補正対象画素は、図3の左側に示した7×7画素の中心のG画素である。図3の右側に示したウィナーフィルタKは、7×7画素に含まれる複数のG画素各々に対する乗算係数を示したものである。7×7画素に含まれるG画素の画素値に各係数を乗算して加算する畳み込み演算を実行して、中心のG画素の補正画素値を算出する。   The captured image is a RAW image composed of RGB pixels. The correction target pixel is the center G pixel of 7 × 7 pixels shown on the left side of FIG. The Wiener filter K shown on the right side of FIG. 3 shows a multiplication coefficient for each of a plurality of G pixels included in 7 × 7 pixels. A convolution operation is performed in which the pixel values of the G pixels included in the 7 × 7 pixels are multiplied by each coefficient and added to calculate a correction pixel value of the central G pixel.

式で表すと、次式(6)となる。

Figure 2015216576
This is expressed by the following equation (6).
Figure 2015216576

同様に、R画素についても処理される。図4は、R画素を処理するときの画像とフィルタの一例を示している。補正対象画素は、図4の左側に示した7×7画素の中心のR画素である。図4の右側に示したウィナーフィルタKは、7×7画素に含まれる複数のR画素各々に対する乗算係数を示したものである。7×7画素に含まれるR画素の画素値に各係数を乗算して加算する畳み込み演算を実行して、中心のR画素の補正画素値を算出する。   Similarly, R pixels are processed. FIG. 4 shows an example of an image and a filter when processing R pixels. The correction target pixel is an R pixel at the center of 7 × 7 pixels shown on the left side of FIG. The Wiener filter K shown on the right side of FIG. 4 shows a multiplication coefficient for each of a plurality of R pixels included in a 7 × 7 pixel. A convolution operation for multiplying and adding each pixel value to the pixel value of the R pixel included in the 7 × 7 pixel is executed to calculate a correction pixel value of the center R pixel.

式で表すと、次式(7)となる。

Figure 2015216576
This is expressed by the following equation (7).
Figure 2015216576

同様に、B画素についても処理される。図5は、R画素を処理するときの画像とフィルタの一例を示している。補正対象画素は、図5の左側に示した7×7画素の中心のB画素である。図5の右側に示したウィナーフィルタKは、7×7画素に含まれる複数のB画素各々に対する乗算係数を示したものである。7×7画素に含まれるB画素の画素値に各係数を乗算して加算する畳み込み演算を実行して、中心のB画素の補正画素値を算出する。   Similarly, the B pixel is processed. FIG. 5 shows an example of an image and a filter when processing R pixels. The correction target pixel is the B pixel at the center of the 7 × 7 pixels shown on the left side of FIG. The Wiener filter K shown on the right side of FIG. 5 shows a multiplication coefficient for each of a plurality of B pixels included in a 7 × 7 pixel. A convolution operation for multiplying and adding each pixel value to the pixel value of the B pixel included in the 7 × 7 pixel is executed to calculate a correction pixel value of the central B pixel.

式で表すと、次式(8)となる。

Figure 2015216576
This is expressed by the following equation (8).
Figure 2015216576

このようなレンズ収差補正フィルタ係数を生成するには、レンズPSF(Point Spread Function)データが必要となる。PSF(点拡がり関数)は、光学系の点光源に対する応答を表す関数である。図6に、レンズPSFデータの一例を示す。図6の左側に示した図は、像点の位置を表す図であり、右側のグラフは、各像点から得られるPSFデータ値を表す。   In order to generate such a lens aberration correction filter coefficient, lens PSF (Point Spread Function) data is required. PSF (point spread function) is a function representing the response of the optical system to a point light source. FIG. 6 shows an example of lens PSF data. The diagram shown on the left side of FIG. 6 is a diagram showing the position of the image point, and the graph on the right side shows the PSF data value obtained from each image point.

図6の左側の図には、イメージセンサ(撮像素子112(図2))の有効領域301内に存在する1つの像高302を示す。また図6中、横方向をX軸、縦方向をY軸とする。像高302とY軸の交点を、像点A、像点Cとし、像高302とX軸との交点を、像点B、像点Dとする。   6 shows one image height 302 existing in the effective area 301 of the image sensor (the image sensor 112 (FIG. 2)). In FIG. 6, the horizontal direction is the X axis and the vertical direction is the Y axis. Intersections between the image height 302 and the Y axis are image points A and C, and intersections between the image height 302 and the X axis are image points B and D.

図6の右側には、各像点A乃至Dから得られるグラフをそれぞれ表している。また各像点A乃至Dにおいて、サジタル(sagittal)方向とタンジェンシャル(tangential)方向でそれぞれ得られたグラフを表している。   On the right side of FIG. 6, graphs obtained from the image points A to D are shown. In addition, the graphs obtained in the sagittal direction and the tangential direction are shown for the image points A to D, respectively.

例えば、像点Aのサジタル方向から得られたグラフとタンジェンシャル方向から得られたグラフを比較した場合、同じ像点Aから得られるグラフであっても、その形は異なることがわかる。このことから、レンズPSFは、異方性があり、例えば、サジタル方向とタンジェンシャル方向でぼけ具合が異なることがわかる。   For example, when a graph obtained from the sagittal direction of the image point A is compared with a graph obtained from the tangential direction, it can be seen that the shapes of the graphs obtained from the same image point A are different. From this, it can be seen that the lens PSF has anisotropy and, for example, the degree of blur is different between the sagittal direction and the tangential direction.

また、像点Aのサジタル方向から得られたグラフ、像点Bのサジタル方向から得られたグラフ、像点Cのサジタル方向から得られたグラフ、像点Dのサジタル方向から得られたグラフをそれぞれ比較した場合、同じサジタル方向から得られるグラフであっても、その形は異なることがわかる。このことから、レンズPSFは、同じ像高であっても、レンズ内の位置によりぼけ具合が異なることがわかる。このことは、タンジェンシャル方向においても同じである。   In addition, a graph obtained from the sagittal direction of the image point A, a graph obtained from the sagittal direction of the image point B, a graph obtained from the sagittal direction of the image point C, and a graph obtained from the sagittal direction of the image point D When each is compared, it can be seen that even if the graphs are obtained from the same sagittal direction, the shapes are different. From this, it can be seen that, even if the lens PSF has the same image height, the degree of blur differs depending on the position in the lens. This is the same in the tangential direction.

このように、同一レンズ内でもぼけ具合が異なる。ぼけ具合が異なる要因としては、例えば、製造時のばらつきなどがある。よって、同一工程で作られたレンズであっても、ぼけ具合は異なる可能性がある。   Thus, the degree of blur is different even within the same lens. Factors that vary the degree of blur include, for example, variations in manufacturing. Therefore, even if the lenses are manufactured in the same process, the degree of blur may be different.

例えば、図7に示すような軸外でコマ収差を補正する場合、角度に応じて非等方のレンズ収差補正フィルタ係数を複数保持する必要がある。   For example, when correcting coma aberration off-axis as shown in FIG. 7, it is necessary to hold a plurality of anisotropic lens aberration correction filter coefficients according to the angle.

仮に、像高毎に、サジタル方向やタンジェンシャル方向などの方向毎に、角度毎に、レンズ収差補正フィルタ係数を保持するように構成した場合、保持すべきレンズ収差補正フィルタ係数の数が多くなり、それを保持するためのメモリの容量が大きくなってしまう可能性が高い。   If the lens aberration correction filter coefficients are held for each angle, such as sagittal direction and tangential direction, for each image height, the number of lens aberration correction filter coefficients to be held increases. There is a high possibility that the capacity of the memory for holding it will increase.

保持すべきレンズ収差補正フィルタ係数の数を効果的に削減する構成について説明を続ける。ここでは、レンズPSFを、ガウス関数やベッセル関数等を用いて近似することにより、レンズ収差補正フィルタ係数の数を減らし、メモリを削減し、その結果として、回路規模を削減することができる場合について説明する。   The description of the configuration that effectively reduces the number of lens aberration correction filter coefficients to be held will be continued. Here, by approximating the lens PSF using a Gaussian function, a Bessel function or the like, the number of lens aberration correction filter coefficients can be reduced, the memory can be reduced, and as a result, the circuit scale can be reduced. explain.

<第1のレンズ収差補正フィルタ係数の求め方>
図8を参照し、ガウス関数を用いて、レンズ収差補正フィルタ係数を算出する工程について説明する。工程S1において、所定の像点において、レンズPSFデータが取得される。ここでは、図6を参照して説明したように、レンズの像高302上にあるX軸、Y軸上の4箇所の像点A、像点B、像点C、および像点Dから、それぞれサジタル方向とタンジェンシャル方向におけるPSFデータが取得されるとして説明を続ける。
<Determining First Lens Aberration Correction Filter Coefficient>
With reference to FIG. 8, the process of calculating lens aberration correction filter coefficients using a Gaussian function will be described. In step S1, lens PSF data is acquired at a predetermined image point. Here, as described with reference to FIG. 6, from the four image points A, image points B, C, and D on the X-axis and Y-axis on the image height 302 of the lens, The description will be continued assuming that PSF data in the sagittal direction and the tangential direction are acquired.

この場合、光学レンズ111の端における同一像高上に位置する4個の像点から、この像高におけるレンズ収差補正フィルタ係数を求める場合を例に挙げて説明する。   In this case, the case where the lens aberration correction filter coefficient at this image height is obtained from four image points located on the same image height at the end of the optical lens 111 will be described as an example.

図8の工程S1に示したように、ここでは、8個のPSFデータが取得される。なお、このPSFデータを取得する像点(像高)の決め方については、後述する。   As shown in step S1 of FIG. 8, here, eight PSF data are acquired. Note that how to determine the image point (image height) for acquiring the PSF data will be described later.

工程S2において、得られたPSFデータの全てを用いて、平均化が行われる。この場合、8個のPSFデータの平均が求められる。   In step S2, averaging is performed using all of the obtained PSF data. In this case, an average of 8 pieces of PSF data is obtained.

工程S3において、平均化されたPSFデータと1種類のガウス関数を用いて、近似が行われる。ガウス関数の近似係数は、平均化を行ったPSFデータとガウス関数との最小二乗法を解くことにより求められる。   In step S3, approximation is performed using the averaged PSF data and one type of Gaussian function. The approximation coefficient of the Gaussian function is obtained by solving the least square method of the PSF data that has been averaged and the Gaussian function.

このような演算が行われた結果、工程S4において、等方的なPSFデータに近似されたPSFデータが求められる。   As a result of such calculation, in step S4, PSF data approximated to isotropic PSF data is obtained.

工程S5において、等方的なPSFデータに近似されたPSFデータから、ウィナーフィルタを解くことによりレンズ収差補正フィルタ係数が求められる。   In step S5, lens aberration correction filter coefficients are obtained by solving a Wiener filter from PSF data approximated to isotropic PSF data.

ここでは、1種類の関数を用いた近似例を示したが、ベッセル関数による近似も可能である。また、関数を組み合わせた結果が等方的になる限りは、複数の関数を組み合わせることによって、レンズPSFデータの近似精度を向上させるように構成することも可能であり、レンズPSFデータの近似精度を向上させることで、レンズ収差補正性能を向上させることも可能となる。   Although an example of approximation using one type of function is shown here, approximation using a Bessel function is also possible. As long as the result of combining the functions is isotropic, it is possible to improve the approximation accuracy of the lens PSF data by combining a plurality of functions. By improving the lens aberration correction performance, it is possible to improve the lens aberration correction performance.

<第2のレンズ収差補正フィルタ係数の求め方>
次に、図9を参照し、ガウス関数を用いて、レンズ収差補正フィルタ係数を算出する他の工程について説明する。工程S11において、所定の像点において、MTF(Modulation Transfer Function)データが取得される。MTFデータは、レンズ性能を評価する指標のひとつで、被写体の持つコントラストをどの程度忠実に再現できるかを周波数特性によって表したデータである。
<Determining Second Lens Aberration Correction Filter Coefficient>
Next, with reference to FIG. 9, another process for calculating lens aberration correction filter coefficients using a Gaussian function will be described. In step S11, MTF (Modulation Transfer Function) data is acquired at a predetermined image point. The MTF data is one index for evaluating the lens performance, and is data representing how faithfully the contrast of the subject can be reproduced by frequency characteristics.

MTFデータのグラフは、図9の工程S11のところに示すように、横軸が空間周波数、縦軸がレンズによって結像される画像のMTFデータとされたグラフである。なお、MTFデータのグラフは、コントラスト再現率(%)、横軸に画面中心からの距離(mm)をとったグラフとされることもある。   The graph of MTF data is a graph in which the horizontal axis is the spatial frequency and the vertical axis is MTF data of an image formed by the lens, as shown in step S11 of FIG. The graph of the MTF data may be a graph in which the contrast reproduction rate (%) and the distance (mm) from the center of the screen are taken on the horizontal axis.

図9の工程S11のところに示したグラフも、図6を参照して説明したように、レンズの像高302上であり、X軸、Y軸上の4箇所の像点A、像点B、像点C、および像点Dから、それぞれサジタル方向とタンジェンシャル方向におけるMTFデータが取得されるとして説明を続ける。   The graph shown at step S11 in FIG. 9 is also on the lens image height 302 as described with reference to FIG. 6, and the four image points A and B on the X and Y axes. The description will be continued assuming that MTF data in the sagittal direction and the tangential direction are acquired from the image point C and the image point D, respectively.

MTFデータも、PSFデータと同じく、同一の像点において異方性があるため、方向により異なり、異なる像点においても異なる。よって、MTFデータも、PSFデータと同じく同一の像点において、複数の方向でのMTFデータを取得し、同一レンズ内でも、異なる像点から、それぞれMTFデータが取得される。   Similar to PSF data, MTF data also has anisotropy at the same image point, and therefore differs depending on the direction and also at different image points. Therefore, the MTF data is acquired from a plurality of directions at the same image point as the PSF data, and the MTF data is acquired from different image points within the same lens.

図9の工程S11に示したように、ここでは、8個のMTFデータが取得されるとして説明を続ける。なお、このMTFデータを取得する像点の決め方については、後述する。   As shown in step S11 of FIG. 9, the description is continued here assuming that eight MTF data are acquired. A method for determining the image point from which the MTF data is acquired will be described later.

工程S12において、得られたMTFデータの全てを用いて、平均化が行われる。この場合、8個のMTFデータの平均が求められる。   In step S12, averaging is performed using all of the obtained MTF data. In this case, an average of 8 pieces of MTF data is obtained.

工程S13において、平均化されたMTFデータと1種類のガウス関数を用いて、近似が行われる。ガウス関数の近似係数は、平均化を行ったMTFデータとガウス関数との最小二乗法を解くことにより求められる。   In step S13, approximation is performed using the averaged MTF data and one type of Gaussian function. The approximation coefficient of the Gaussian function is obtained by solving the least square method of the averaged MTF data and the Gaussian function.

このような演算が行われた結果、工程S14において、等方的なMTFデータに近似されたMTFデータが求められる。   As a result of such calculation, in step S14, MTF data approximated to isotropic MTF data is obtained.

工程S15において、等方的なMTFデータに近似されたMTFデータから、ウィナーフィルタを解くことによりレンズ収差補正フィルタ係数が求められる。   In step S15, lens aberration correction filter coefficients are obtained by solving a Wiener filter from MTF data approximated to isotropic MTF data.

ここでは、1種類の関数を用いた近似例を示したが、ベッセル関数による近似も可能である。また、関数を組み合わせた結果が等方的になる限りは、複数の関数を組み合わせることによって、MTFデータの近似精度を向上させるように構成することも可能であり、MTFデータの近似精度を向上させることで、レンズ収差補正性能を向上させることも可能となる。   Although an example of approximation using one type of function is shown here, approximation using a Bessel function is also possible. Further, as long as the result of combining the functions is isotropic, it is possible to improve the approximation accuracy of the MTF data by combining a plurality of functions, thereby improving the approximation accuracy of the MTF data. As a result, the lens aberration correction performance can be improved.

このように、レンズ上の複数の像点から、また1つの像点の異なる角度から、それぞれ求められるPSFデータやMTFデータが平均化され、その平均化されたデータが用いられて、レンズ内の所定の像高におけるPSFデータやMTFデータの近似値が得られる。そして得られた近似値とウィナーフィルタが用いられて、レンズ収差補正フィルタ係数が算出される。   In this way, PSF data and MTF data obtained from a plurality of image points on the lens and from different angles of one image point are averaged, and the averaged data is used to calculate An approximate value of PSF data or MTF data at a predetermined image height is obtained. Then, the lens aberration correction filter coefficient is calculated using the obtained approximate value and the Wiener filter.

所定の像高から算出されたレンズ収差補正フィルタ係数と、その所定の像高におけるレンズ収差補正フィルタ係数を用いた演算については、図3乃至5を参照して説明したので、ここではその説明を省略する。   The lens aberration correction filter coefficient calculated from the predetermined image height and the calculation using the lens aberration correction filter coefficient at the predetermined image height have been described with reference to FIGS. Omitted.

<レンズ収差補正フィルタ係数を算出する像高について>
上記したように、所定の像高において、その像高に位置する画素に対して適用するレンズ収差補正フィルタ係数が算出される。1つのレンズに対して、複数の像高が選択され、それぞれの像高において、レンズ収差補正フィルタ係数が算出される。
<Image height for calculating lens aberration correction filter coefficient>
As described above, at a predetermined image height, a lens aberration correction filter coefficient to be applied to a pixel located at the image height is calculated. A plurality of image heights are selected for one lens, and a lens aberration correction filter coefficient is calculated at each image height.

1つのレンズから選択される像高の個数を増やす、換言すれば、選択される像高の間隔を狭めることで、レンズ収差補正フィルタ係数を用いた細かなぼけ補正を行える可能性は高くなると思われるが、保持すべきレンズ収差補正フィルタ係数が多くなり、多くのメモリの容量が必要となる可能性が高くなる。   Increasing the number of image heights selected from one lens, in other words, reducing the interval between selected image heights, will increase the possibility of performing fine blur correction using lens aberration correction filter coefficients. However, the number of lens aberration correction filter coefficients to be retained increases, and there is a high possibility that a large amount of memory capacity is required.

しかしながら、図11、図12を参照して後述するように、レンズ収差補正フィルタ係数が設定されていない像高の画素に対しては、補間により補正ができるため、また、図10を参照して説明するような方法で、レンズ収差補正フィルタ係数を算出する像高を決定するため、選択される像高の間隔を、ある程度広くとることが可能である。   However, as will be described later with reference to FIGS. 11 and 12, image height pixels for which lens aberration correction filter coefficients are not set can be corrected by interpolation. Also, with reference to FIG. Since the image height for calculating the lens aberration correction filter coefficient is determined by a method as will be described, the interval between the selected image heights can be widened to some extent.

選択される像高の間隔は、等間隔とすることが可能であり、また、その間隔は、レンズによらず一定としても良い。しかしながら、ここでは、等間隔ではなく、図10を参照して説明するように、特徴がある像高を検出することで、効果的にレンズ収差フィルタ係数の数を削減することができ、その検出された像高のレンズ収差補正フィルタ係数を算出する場合を例に挙げて説明する。   The intervals between the selected image heights can be equal intervals, and the intervals may be constant regardless of the lens. However, the number of lens aberration filter coefficients can be effectively reduced by detecting a characteristic image height as described with reference to FIG. An example of calculating the lens aberration correction filter coefficient of the image height will be described.

図10は、MTFデータのグラフを示す図であり、図10に示したMTFデータのグラフの縦軸は、MTFデータを表し、横軸は、像高を表す。図10に示したグラフを参照するに、MTFデータは、像高により変化し、一定値ではない。   FIG. 10 is a diagram illustrating a graph of MTF data. The vertical axis of the graph of MTF data illustrated in FIG. 10 represents MTF data, and the horizontal axis represents image height. Referring to the graph shown in FIG. 10, the MTF data changes depending on the image height and is not a constant value.

図10に示したように、MTFデータは、像高により変化する可能性がある。そこで、変化が激しい像高を、レンズ収差補正フィルタ係数を算出する像高として選択するようにする。   As shown in FIG. 10, the MTF data may change depending on the image height. Therefore, the image height that changes drastically is selected as the image height for calculating the lens aberration correction filter coefficient.

図10においては、像高0は、レンズの中心位置なので、選択される。像高2は、MTFデータが落ち込む像高であるため、選択される。像高1は、像高0と像高2の間隔が離れているため、その略中央の像高として選択される。   In FIG. 10, the image height 0 is selected because it is the center position of the lens. The image height 2 is selected because it is the image height at which the MTF data falls. Since the distance between the image height 0 and the image height 2 is separated, the image height 1 is selected as the image height at the approximate center.

像高3は、像高2で一旦下がったMTFデータが再度上がり、そして再度下がる転換点なので、選択される。像高4は、レンズの端であるため、選択される。例えば、図6の像点A乃至Dは、像高4の位置にある像点であり、像高4に該当するレンズ上の複数箇所から、MTFデータが取得され、上記したような処理によりレンズ収差補正フィルタ係数が算出される。   Image height 3 is selected because it is a turning point where the MTF data once lowered at image height 2 rises again and falls again. The image height 4 is selected because it is the end of the lens. For example, image points A to D in FIG. 6 are image points at the position of the image height 4, MTF data is acquired from a plurality of positions on the lens corresponding to the image height 4, and the lens is processed by the above-described processing. An aberration correction filter coefficient is calculated.

なお図10では、MTFデータとしたが、PSFデータであっても良い。PSFデータの場合も同様に、PSFの形状が大きく変化するところの像高が選択されればよい。   In FIG. 10, although MTF data is used, PSF data may be used. Similarly, in the case of PSF data, the image height at which the shape of the PSF greatly changes may be selected.

このように、レンズ収差補正フィルタ係数を算出する像高は、MTFデータの変化が激しい変曲点が選択される。また、レンズ中心や端なども、レンズ内では特徴的な位置であるため、その位置の像高も、レンズ収差補正フィルタ係数を算出する像高として選択される。   As described above, as the image height for calculating the lens aberration correction filter coefficient, an inflection point at which the MTF data changes rapidly is selected. In addition, since the center and the end of the lens are also characteristic positions in the lens, the image height at that position is also selected as the image height for calculating the lens aberration correction filter coefficient.

また、このような処理により選択された像高の個数が少ない場合や、選択された像高の間隔が広い場合、適切な間隔になるように追加の像高が選択されるようにすれば良い。   Further, when the number of image heights selected by such processing is small, or when the interval between the selected image heights is wide, an additional image height may be selected so as to be an appropriate interval. .

このようにして選択された像高から、複数の像点が選択され、選択された像点からMTFデータまたはPSFデータが取得されることで、レンズ収差補正フィルタ係数が算出される。   A plurality of image points are selected from the image height selected in this manner, and MTF data or PSF data is acquired from the selected image points, whereby lens aberration correction filter coefficients are calculated.

MTFデータのグラフやPSFデータのグラフは、レンズにより異なる可能性がある。よって、レンズ毎に、データが取得され、像高が選択され、レンズ収差補正フィルタ係数が算出されるようにすることで、レンズ毎に異なる特性に対応したレンズ収差補正フィルタ係数を算出できるようになり、ぼけ補正をより精度良く行えるようになる。   The graph of MTF data and the graph of PSF data may differ depending on the lens. Therefore, by acquiring data for each lens, selecting an image height, and calculating a lens aberration correction filter coefficient, it is possible to calculate a lens aberration correction filter coefficient corresponding to a different characteristic for each lens. Therefore, the blur correction can be performed with higher accuracy.

このようにして算出されるレンズ収差補正フィルタ係数は、例えば、レンズが製造される製造時に算出され、レンズと関連付けられて保持される。例えば、撮像装置100(図1)の本体と着脱自在のレンズ(光学レンズ111)の場合、光学レンズ111の筐体部分にメモリなどの保持機能が備えられ、その保持機能によりレンズ収差補正フィルタ係数が保持される。   The lens aberration correction filter coefficient calculated in this way is calculated, for example, when the lens is manufactured, and is stored in association with the lens. For example, in the case of the main body of the imaging apparatus 100 (FIG. 1) and a detachable lens (optical lens 111), the housing portion of the optical lens 111 is provided with a holding function such as a memory, and the lens aberration correction filter coefficient is obtained by the holding function. Is retained.

この場合、図2に示したように、レンズ収差補正フィルタ係数は、信号処理部113と異なる外部の光学レンズ111側から供給される。   In this case, as shown in FIG. 2, the lens aberration correction filter coefficient is supplied from the side of the external optical lens 111 different from the signal processing unit 113.

光学レンズ111と撮像装置100が一体型の場合、レンズ収差補正部221(図2)にレンズ収差補正フィルタ係数が保持されるように構成しても良い。   When the optical lens 111 and the imaging apparatus 100 are integrated, the lens aberration correction unit 221 (FIG. 2) may be configured to hold the lens aberration correction filter coefficient.

または、光学レンズ111の製造時に算出されるのではなく、ユーザにより、撮像装置100が使用されているときに、レンズ収差補正フィルタ係数が算出されるような構成としても良い。   Alternatively, the lens aberration correction filter coefficient may be calculated by the user when the imaging apparatus 100 is being used, instead of being calculated when the optical lens 111 is manufactured.

例えば、ユーザにより、撮像装置100でテストパターンなどが撮影され、その撮影された画像から、PSFデータまたはMTFデータが取得され、上記したような方法により、レンズ収差補正フィルタ係数が算出されるように構成することも可能である。   For example, a test pattern or the like is captured by the user with the imaging apparatus 100, PSF data or MTF data is acquired from the captured image, and the lens aberration correction filter coefficient is calculated by the method described above. It is also possible to configure.

このように、使用時に、レンズ収差補正フィルタ係数が算出されるようにした場合、使用環境の変化や経年変化などに対応して、レンズ収差補正フィルタ係数を適切に更新することが可能となる。また、光学レンズ111が交換可能な撮像装置である場合、光学レンズ111が交換されたときなどに、レンズ収差補正フィルタ係数を算出するための処理が実行され、保持されるように構成することも可能である。   As described above, when the lens aberration correction filter coefficient is calculated at the time of use, it is possible to appropriately update the lens aberration correction filter coefficient in accordance with a change in the use environment or a secular change. Further, when the optical lens 111 is a replaceable imaging device, the processing for calculating the lens aberration correction filter coefficient may be executed and held when the optical lens 111 is replaced. Is possible.

または、光学レンズ111の製造時に、レンズ収差補正フィルタ係数を算出し、IPアドレスと関連付けて、光学レンズ111を製造した側で管理しておく。IPv6(Internet Protocol Version 6)の技術を用いれば、光学レンズ111にIPアドレスを割り振ることが可能である。またIPアドレスでなくても、光学レンズ111を一意に識別できる、例えば製造番号などでも良い。   Alternatively, when the optical lens 111 is manufactured, a lens aberration correction filter coefficient is calculated and associated with the IP address and managed on the side where the optical lens 111 is manufactured. If IPv6 (Internet Protocol Version 6) technology is used, an IP address can be assigned to the optical lens 111. Moreover, even if it is not an IP address, the optical lens 111 can be uniquely identified, for example, a manufacturing number may be used.

このような構成とされた場合、一例として、光学レンズ111が、撮像装置100に装着され、撮像装置100がネットワークに接続されたときに、IPアドレスや製造番号などと関連付けられているレンズ収差補正フィルタ係数がダウンロードされ、撮像装置100側で保持することが可能となる構成とすることができる。   In the case of such a configuration, as an example, when the optical lens 111 is attached to the imaging apparatus 100 and the imaging apparatus 100 is connected to the network, lens aberration correction associated with an IP address, a manufacturing number, or the like is performed. The filter coefficient can be downloaded and stored on the imaging apparatus 100 side.

このように、レンズ収差補正フィルタ係数は、光学レンズ111毎に算出され、撮像装置100のレンズ収差補正部221に供給または保持される。   As described above, the lens aberration correction filter coefficient is calculated for each optical lens 111 and is supplied or held to the lens aberration correction unit 221 of the imaging apparatus 100.

<レンズ収差補正フィルタ係数の補間について>
次に、複数の像高にそれぞれ対応するレンズ収差補正フィルタ係数を用いて、ぼけの補正を行う場合の処理について、図11と図12を参照して説明する。
<Lens aberration correction filter coefficient interpolation>
Next, processing for correcting blur using lens aberration correction filter coefficients respectively corresponding to a plurality of image heights will be described with reference to FIGS. 11 and 12.

図11は、レンズ収差補正フィルタ係数を算出するとして選択された像高の位置について説明するための図である。図11に示した例では、5箇所の像高が選択された例を示している。この5箇所は、図10に示した像高0乃至4に相当する。図11の下側に、MTFデータのグラフを示したが、このグラフは、図10に示したグラフと同じである。   FIG. 11 is a diagram for explaining the position of the image height selected for calculating the lens aberration correction filter coefficient. In the example shown in FIG. 11, an example in which five image heights are selected is shown. These five locations correspond to the image heights 0 to 4 shown in FIG. A graph of MTF data is shown on the lower side of FIG. 11, and this graph is the same as the graph shown in FIG.

図10に示したグラフにおける像高0は、図11に示したグラフにおいては、像高ih0と示している。同じく、像高1は、像高ih1、像高2は、像高ih2、像高3は、像高ih3、像高4は、像高ih4である。   The image height 0 in the graph shown in FIG. 10 is shown as the image height ih0 in the graph shown in FIG. Similarly, the image height 1 is the image height ih1, the image height 2 is the image height ih2, the image height 3 is the image height ih3, and the image height 4 is the image height ih4.

図11に示した例では、像高ih4は、光学レンズ111のイメージサークル303上に位置している。像高ih0乃至4の各像高に対するレンズ収差補正フィルタ係数は、それぞれ算出され、保持されている。   In the example shown in FIG. 11, the image height ih4 is located on the image circle 303 of the optical lens 111. The lens aberration correction filter coefficients for the image heights ih0 to 4 are calculated and held.

このような像高と、レンズ収差補正フィルタ係数が設定されている場合、光学レンズ111の座標(x、y)におけるぼけ補正は、次式(9)に基づいて行われる。補正対象とされる座標(x、y)に位置する画素の像高には、レンズ補正フィルタ係数は設定されていないために、以下の式(9)に基づいて座標(x、y)に位置する画素の画素値が算出される。   When such an image height and a lens aberration correction filter coefficient are set, blur correction at the coordinates (x, y) of the optical lens 111 is performed based on the following equation (9). Since the lens correction filter coefficient is not set in the image height of the pixel located at the coordinates (x, y) to be corrected, the position is located at the coordinates (x, y) based on the following equation (9). The pixel value of the pixel to be calculated is calculated.

Figure 2015216576
Figure 2015216576

式(9)において、deblur_r(x,y)は、座標(x、y)における補正後の画素値を表す。αは、ブレンド係数を表す。ihは像高位置を示し、例えば、図11における像高ih0乃至4である。 In Expression (9), deblur_r (x, y) represents a pixel value after correction at coordinates (x, y). α represents a blending coefficient. ih n indicates an image height position, and is, for example, the image heights ih0 to ih4 in FIG.

deblur_ihnは、座標(x,y)よりもレンズの中心に近い側で隣接するレンズ補正フィルタ係数が設定されている像高ihnであり、その像高ihnに設定されているレンズ補正フィルタ係数Filter ihn(i,j)を、座標(x,y)に位置する画素の画素値Pr(i,j)に適用して算出された画素値を表す。 deblur_ih n is an image height ihn in which an adjacent lens correction filter coefficient is set closer to the center of the lens than the coordinates (x, y), and the lens correction filter coefficient Filter set to the image height ihn. The pixel value calculated by applying ihn (i, j) to the pixel value Pr (i, j) of the pixel located at the coordinates (x, y) is represented.

deblur_ihn+1は、座標(x,y)よりもレンズの中心よりも遠い側で隣接するレンズ補正フィルタ係数が設定されている像高ihn+1であり、その像高ihn+1に設定されているレンズ補正フィルタ係数Filter ihn+1(i,j)を、座標(x,y)に位置する画素の画素値Pr(i,j)に適用して算出された画素値を表す。 deblur_ih n + 1 is an image height ihn + 1 in which an adjacent lens correction filter coefficient is set on the side farther from the center of the lens than the coordinates (x, y), and is set to the image height ihn + 1. Represents the pixel value calculated by applying the lens correction filter coefficient Filter ihn + 1 (i, j) to the pixel value Pr (i, j) of the pixel located at the coordinates (x, y).

ブレンド係数αは、図11の上図において、α10、α21、α32、α43と記載してある。すなわち、像高ih0と像高ih1との間の像高のときには、ブレンド係数α10が用いられ、像高ih1と像高ih2との間の像高のときには、ブレンド係数α21が用いられ、像高ih2と像高ih3との間の像高のときには、ブレンド係数α32が用いられ、像高ih3と像高ih4との間の像高のときには、ブレンド係数α43が用いられる。 The blend coefficient α is described as α 10 , α 21 , α 32 , and α 43 in the upper diagram of FIG. That is, when the image height between the image height ih0 to image height ih1 are is used blending coefficient alpha 10, when the image height between the image height ih1 to image height ih2, the blend coefficient alpha 21 is used, when the image height between the image height ih2 to image height ih3, the blend coefficient alpha 32 is used when the image height between the image height ih3 to image height ih4, the blend coefficient alpha 43 is used.

ブレンド係数αは、レンズ収差補正フィルタ係数が設定されている隣接する像高間で、同一の値が用いられるのではなく、図12に示したように、像高に応じて算出される。補正対象の画素の位置が、光学レンズ111の中心からの距離rであり、この距離rが、像高ih0以上であり、像高ih1よりも小さい場合、ブレンド係数α10が算出される。このブレンド係数α10は、距離rから、像高ih0を減算した値を、像高ih1から像高ih0を減算した値で除算した値とされる。 The blend coefficient α is calculated according to the image height, as shown in FIG. 12, instead of using the same value between adjacent image heights for which the lens aberration correction filter coefficients are set. Position of the pixel to be corrected, the distance r from the center of the optical lens 111, the distance r is is a image height ih0 above, is smaller than the image height IH1, blending coefficient alpha 10 is calculated. The blending coefficient alpha 10 from a distance r, a value obtained by subtracting the image height Ih0, are divided by the value obtained by subtracting the image height Ih0 from the image height IH1.

補正対象の画素の位置が、像高ih1以上であり、像高ih2よりも小さい場合、ブレンド係数α21が算出される。このブレンド係数α21は、距離rから、像高ih1を減算した値を、像高ih2から像高ih1を減算した値で除算した値とされる。 When the position of the pixel to be corrected is equal to or higher than the image height ih1 and smaller than the image height ih2, the blend coefficient α 21 is calculated. The blending coefficient alpha 21 from a distance r, a value obtained by subtracting the image height IH1, is a value obtained by dividing the value obtained by subtracting the image height IH1 from the image height ih2.

補正対象の画素の位置が、像高ih2以上であり、像高ih3よりも小さい場合、ブレンド係数α32が算出される。このブレンド係数α32は、距離rから、像高ih2を減算した値を、像高ih3から像高ih2を減算した値で除算した値とされる。 Position of the pixel to be corrected, and the image height ih2 above, is smaller than the image height IH3, blending coefficient alpha 32 is calculated. The blend coefficient α 32 is a value obtained by dividing the value obtained by subtracting the image height ih2 from the distance r by the value obtained by subtracting the image height ih2 from the image height ih3.

補正対象の画素の位置が、像高ih3以上であり、像高ih4以下の場合、ブレンド係数α43が算出される。このブレンド係数α43は、距離rから、像高ih3を減算した値を、像高ih4から像高ih3を減算した値で除算した値とされる。 Position of the pixel to be corrected, and the image height ih3 above, when the image height IH4, blending coefficient alpha 43 is calculated. The blend coefficient α 43 is a value obtained by dividing the value obtained by subtracting the image height ih3 from the distance r by the value obtained by subtracting the image height ih3 from the image height ih4.

このように、ブレンド係数αは、補正対象の画素の位置により、その位置に隣接する2つのレンズ収差補正フィルタ係数が設定されている像高を用いて算出される値とされる。すなわち、ブレンド係数αは、図12に示したように、光学レンズ111の中心からの距離r(x,y)に応じて線形的に計算が行われることにより算出される値とされる。   As described above, the blend coefficient α is a value calculated by using the image height in which two lens aberration correction filter coefficients adjacent to the position are set according to the position of the pixel to be corrected. That is, the blend coefficient α is a value calculated by performing a linear calculation according to the distance r (x, y) from the center of the optical lens 111, as shown in FIG.

式(9)を参照するに、光学レンズ111の中心からの距離r(x、y)の補正後の画素値deblur_r(x,y)は、その距離rの位置に前後するレンズ収差補正フィルタ係数が設定されている像高ihと像高ihn+1に、それぞれ設定されているレンズ補正フィルタ係数が、補正対象とされている画素値Prに対して適用され、そのフィルタ適用後の画素値deblur_ihnと画素値deblur_ihn+1が用いられて算出される。 Referring to Expression (9), the pixel value deblur_r (x, y) after the correction of the distance r (x, y) from the center of the optical lens 111 is a lens aberration correction filter coefficient that fluctuates around the position of the distance r. Is applied to the pixel value Pr to be corrected, and the pixel value deblur_ih after the filter application is applied to the image height ih n and the image height ih n + 1. n is calculated using pixel value deblur_ih n + 1 .

式(9)に示したように、補正対象とされている画素の像高に隣接する像高に、設定されているレンズ補正フィルタ係数を、補正対象とされている画素の画素値に適用して算出された補正後の画素値を、レンズ収差補正フィルタ係数が設定されていない画素の像高位置に応じてブレンドすることによってレンズ収差補正が行われる。   As shown in Expression (9), the lens correction filter coefficient that is set to the image height adjacent to the image height of the pixel that is the correction target is applied to the pixel value of the pixel that is the correction target. Lens aberration correction is performed by blending the corrected pixel value calculated in accordance with the image height position of the pixel for which no lens aberration correction filter coefficient is set.

ここで、図2を再度参照する。像高算出部201には、撮像素子112から、各画素の画素値に対応付けられた各画素の座標位置を示すxyアドレスが供給される。像高算出部201は、供給されたxyアドレスから、上記した光学レンズ111の中心からの距離r(x、y)、すなわち像高を導き出す。   Reference is now made to FIG. 2 again. An xy address indicating the coordinate position of each pixel associated with the pixel value of each pixel is supplied from the image sensor 112 to the image height calculation unit 201. The image height calculation unit 201 derives the distance r (x, y) from the center of the optical lens 111, that is, the image height, from the supplied xy address.

ブレンド係数算出部202は、像高算出部201により算出された像高に応じたブレンド係数αを、図12を参照して説明したように、光学レンズ111の中心からの距離r(x,y)に応じた線形的な演算により算出する。算出されたブレンド係数αは、レンズ収差補正処理部204のブレンド処理部222に供給される。   The blend coefficient calculation unit 202 sets the blend coefficient α corresponding to the image height calculated by the image height calculation unit 201 to the distance r (x, y from the center of the optical lens 111 as described with reference to FIG. ) Is calculated by a linear calculation according to). The calculated blend coefficient α is supplied to the blend processing unit 222 of the lens aberration correction processing unit 204.

このようなブレンド係数αの算出に関わる処理が行われている一方で、レンズ収差補正処理部204のレンズ収差補正部221は、供給されるレンズ収差補正フィルタ係数を取得し、その取得されたレンズ収差補正フィルタ係数を用いて、処理対象とされている画素値のぼけ補正を行う。レンズ収差補正部221は、式(9)における画素値deblur ihと画素値deblur ihn+1を算出する。 While processing related to the calculation of the blend coefficient α is performed, the lens aberration correction unit 221 of the lens aberration correction processing unit 204 acquires the supplied lens aberration correction filter coefficient, and the acquired lens The blur correction of the pixel value to be processed is performed using the aberration correction filter coefficient. The lens aberration correction unit 221 calculates the pixel value deblur ih n and the pixel value deblur ih n + 1 in Equation (9).

レンズ収差補正部221は、図3乃至5を用いて説明したように、7×7画素に含まれる画素の画素値に、レンズ収差補正フィルタ係数の各係数を乗算して加算する畳み込み演算を実行して、中心の画素の補正画素値を算出する。   As described with reference to FIGS. 3 to 5, the lens aberration correction unit 221 performs a convolution operation that multiplies the pixel values of the pixels included in the 7 × 7 pixels by each coefficient of the lens aberration correction filter coefficient and adds them. Then, the correction pixel value of the center pixel is calculated.

ブレンド処理部222は、レンズ収差補正部221から供給される2つの補正後の画素値と、ブレンド係数算出部202から供給されるブレンド係数αを用いて、式(9)に基づく演算を行い、最終的なレンズ収差補正後の画素値を算出し、エッジ・平坦部ブレンド処理部206に出力する。   The blend processing unit 222 uses the two corrected pixel values supplied from the lens aberration correction unit 221 and the blend coefficient α supplied from the blend coefficient calculation unit 202 to perform a calculation based on Expression (9), The pixel value after final lens aberration correction is calculated and output to the edge / flat portion blend processing unit 206.

このように、像高に応じたぼけ補正が行われる。   In this way, blur correction according to the image height is performed.

ここでは、レンズ収差補正部221によりレンズ収差の補正が行われた後、その補正後の画素値を用いたブレンド処理が行われ、補正対象とされた画素に対する最終的なレンズ収差補正後画素値が算出される例を示した。   Here, after the lens aberration is corrected by the lens aberration correction unit 221, blend processing using the corrected pixel value is performed, and the final lens aberration corrected pixel value for the pixel to be corrected An example in which is calculated is shown.

他の構成として、各像高位置で設定されているレンズ補正フィルタ係数を、ブレンド係数αを用いてブレンドし、ブレンド後のレンズ補正フィルタ係数を算出し、そのブレンド後のレンズ補正フィルタ係数を用いたフィルタ処理を行うことで、像高依存に対応したレンズ収差補正が行われるようにしても良い。   As another configuration, the lens correction filter coefficient set at each image height position is blended using the blend coefficient α, the lens correction filter coefficient after blending is calculated, and the lens correction filter coefficient after blending is used. The lens aberration correction corresponding to the image height may be performed by performing the filtering process.

この場合、次式(10)に基づく演算で、補正が行われる。

Figure 2015216576
In this case, correction is performed by calculation based on the following equation (10).
Figure 2015216576

式(10)において、Filter blend(i,j)は、補正対象とされている画素に対して適用するレンズ補正フィルタ係数を表す。Filter ihnは、像高ihnに設定されているレンズ補正フィルタ係数を表し、Filter ihn+1は、像高ihn+1に設定されているレンズ補正フィルタ係数を表す。像高ihnと像高ihn+1は、補正対象とされている画素の像高に隣接する像高である。   In Expression (10), Filter blend (i, j) represents a lens correction filter coefficient to be applied to a pixel that is a correction target. Filter ihn represents a lens correction filter coefficient set to the image height ihn, and Filter ihn + 1 represents a lens correction filter coefficient set to the image height ihn + 1. The image height ihn and the image height ihn + 1 are image heights adjacent to the image height of the pixel to be corrected.

式(10)に示したように、補正対象とされている画素の像高に隣接する像高に設定されている2つのレンズ補正フィルタ係数をブレンドすることで、補正対象とされている画素に適用するレンズ補正フィルタ係数が算出される。このブレンドに用いられるブレンド係数αは、図12を参照して説明したようにして算出される係数であり、上記した場合と同様にして算出され、用いられる。   As shown in Expression (10), by blending two lens correction filter coefficients set to an image height adjacent to the image height of the pixel to be corrected, the pixel to be corrected A lens correction filter coefficient to be applied is calculated. The blend coefficient α used for the blend is a coefficient calculated as described with reference to FIG. 12, and is calculated and used in the same manner as described above.

deblur r(x,y)は、補正対象とされている画素の補正後の画素値を表す。補正対象とされている画素の画素値に、ブレンド後のレンズ補正フィルタ係数Filter blend(i,j)が用いられることで算出される。   deblur r (x, y) represents a pixel value after correction of a pixel to be corrected. This is calculated by using the blended lens correction filter coefficient Filter blend (i, j) as the pixel value of the pixel to be corrected.

このように、レンズ補正フィルタ係数をブレンドした後、補正対象とされている画素値に対して適用するようにした場合、図2に示した信号処理部113のレンズ収差補正処理部204内の構成は、ブレンド処理部222においてフィルタ係数のブレンドが行われた後、レンズ収差補正部221による補正が行われる構成とされる。   In this way, when the lens correction filter coefficients are blended and then applied to the pixel value to be corrected, the configuration in the lens aberration correction processing unit 204 of the signal processing unit 113 shown in FIG. The lens aberration correction unit 221 performs correction after the filter coefficient is blended in the blend processing unit 222.

本技術によれば、レンズのMTF特性に最適化されたレンズ収差補正処理が可能となる。また大規模なシステムを用いることなく、像高依存に対応したレンズ収差補正が可能となる。その結果、大規模なシステムを用いることができないイメージセンサ(撮像素子)内で像高依存に対応したレンズ収差補正が可能となる。   According to the present technology, it is possible to perform lens aberration correction processing optimized for the MTF characteristics of the lens. Further, lens aberration correction corresponding to the image height can be performed without using a large-scale system. As a result, it is possible to correct lens aberration corresponding to image height in an image sensor (imaging device) that cannot use a large-scale system.

また像高依存のMTF曲線の変曲点から像高を選択することで、少ない像高点数でも精度の高いレンズ収差補正が可能となり、レンズ補正フィルタ係数を保持するメモリの容量の削減などによる小規模な回路で実現可能となる。   In addition, by selecting the image height from the inflection points of the MTF curve that depends on the image height, it is possible to perform highly accurate lens aberration correction even with a small number of image height points, and by reducing the capacity of the memory that holds the lens correction filter coefficient, etc. It can be realized with a large-scale circuit.

PSFデータを関数で近似することにより、回路の小規模化が可能となり、製造バラつきの影響を抑えたレンズ収差補正フィルタ係数の作成が可能となる。   By approximating the PSF data with a function, it is possible to reduce the circuit scale, and it is possible to create a lens aberration correction filter coefficient that suppresses the influence of manufacturing variations.

<記録媒体について>
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
<About recording media>
The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software is installed in the computer. Here, the computer includes, for example, a general-purpose personal computer capable of executing various functions by installing various programs by installing a computer incorporated in dedicated hardware.

図13は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。コンピュータにおいて、CPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003は、バス1004により相互に接続されている。バス1004には、さらに、入出力インタフェース1005が接続されている。入出力インタフェース1005には、入力部1006、出力部1007、記憶部1008、通信部1009、およびドライブ1110が接続されている。   FIG. 13 is a block diagram showing an example of the hardware configuration of a computer that executes the above-described series of processing by a program. In a computer, a CPU (Central Processing Unit) 1001, a ROM (Read Only Memory) 1002, and a RAM (Random Access Memory) 1003 are connected to each other by a bus 1004. An input / output interface 1005 is further connected to the bus 1004. An input unit 1006, an output unit 1007, a storage unit 1008, a communication unit 1009, and a drive 1110 are connected to the input / output interface 1005.

入力部1006は、キーボード、マウス、マイクロフォンなどよりなる。出力部1007は、ディスプレイ、スピーカなどよりなる。記憶部1008は、ハードディスクや不揮発性のメモリなどよりなる。通信部1009は、ネットワークインタフェースなどよりなる。ドライブ1110は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア1111を駆動する。   The input unit 1006 includes a keyboard, a mouse, a microphone, and the like. The output unit 1007 includes a display, a speaker, and the like. The storage unit 1008 includes a hard disk, a nonvolatile memory, and the like. The communication unit 1009 includes a network interface. The drive 1110 drives a removable medium 1111 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.

以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを、入出力インタフェース1005およびバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。   In the computer configured as described above, the CPU 1001 loads, for example, the program stored in the storage unit 1008 to the RAM 1003 via the input / output interface 1005 and the bus 1004 and executes the program. Is performed.

コンピュータ(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア1111に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。   The program executed by the computer (CPU 1001) can be provided by being recorded on a removable medium 1111 as a package medium, for example. The program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.

コンピュータでは、プログラムは、リムーバブルメディア1111をドライブ1110に装着することにより、入出力インタフェース1005を介して、記憶部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記憶部1008にインストールすることができる。その他、プログラムは、ROM1002や記憶部1008に、あらかじめインストールしておくことができる。   In the computer, the program can be installed in the storage unit 1008 via the input / output interface 1005 by attaching the removable medium 1111 to the drive 1110. Further, the program can be received by the communication unit 1009 via a wired or wireless transmission medium and installed in the storage unit 1008. In addition, the program can be installed in advance in the ROM 1002 or the storage unit 1008.

なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。   The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.

また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.

なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。   In addition, the effect described in this specification is an illustration to the last, and is not limited, Moreover, there may exist another effect.

なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present technology.

なお、本技術は以下のような構成も取ることができる。   In addition, this technique can also take the following structures.

(1)
複数の像高にそれぞれ設定されているぼけ補正を行うフィルタを取得する取得部と、
前記取得部により取得された前記フィルタを用いて、補正対象とされた像高における画素の画素値を補正する補正部と
を備える画像処理装置。
(2)
前記補正部は、
前記補正対象とされた像高に隣接する像高に設定されている前記フィルタを、前記補正対象とされた画素の画素値に適用し、
前記補正対象とされた像高と前記隣接する像高との位置関係から係数を算出し、
前記フィルタ適用後の画素値と前記係数を用いて補正後の画素値を算出する
前記(1)に記載の画像処理装置。
(3)
前記補正部は、
前記補正対象とされた像高と前記隣接する像高との位置関係から係数を算出し、
前記補正対象とされた像高に隣接する像高に設定されている前記フィルタと前記係数を用いて、前記補正対象とされた画素の画素値に適用するフィルタを生成し、
生成された前記フィルタと前記補正対象とされた画素の画素値を用いて補正後の画素値を算出する
前記(1)に記載の画像処理装置。
(4)
前記フィルタの係数は、
前記第1の像高上の複数の像点から、PSF(Point Spread Function)データが算出され、
前記PSFデータが平均化され、
前記平均化された前記PSFデータが用いられて、所定の関数で近似され、
前記近似された前記PSFデータから算出された係数である
前記(1)乃至(3)のいずれかに記載の画像処理装置。
(5)
前記フィルタの係数の算出は、ウィナーフィルタを用いる
前記(4)に記載の画像処理装置。
(6)
前記フィルタが設定されている像高は、前記PSFの形状が大きく変化するところの像高である
前記(4)または(5)に記載の画像処理装置。
(7)
前記フィルタの係数は、
前記第1の像高上の複数の像点から、MTF(Modulation Transfer Function)データが算出され、
前記MTFデータが平均化され、
前記平均化された前記MTFデータが用いられて、所定の関数で近似され、
前記近似された前記MTFデータから算出された係数である
前記(1)乃至(3)のいずれかに記載の画像処理装置。
(8)
前記フィルタの係数の算出は、ウィナーフィルタを用いる
前記(7)に記載の画像処理装置。
(9)
前記フィルタが設定されている像高は、前記MTFデータの変曲点である
前記(7)または(8)に記載の画像処理装置。
(10)
複数の像高にそれぞれ設定されているぼけ補正を行うフィルタを取得し、
取得された前記フィルタを用いて、補正対象とされた像高における画素の画素値を補正する
ステップを含む画像処理方法。
(11)
複数の像高にそれぞれ設定されているぼけ補正を行うフィルタを取得し、
取得された前記フィルタを用いて、補正対象とされた像高における画素の画素値を補正する
ステップを含む処理を実行させるためのコンピュータ読み取り可能なプログラム。
(12)
撮像素子と、
複数の像高にそれぞれ設定されているぼけ補正を行うフィルタを取得する取得部と、
前記取得部により取得された前記フィルタを用いて、前記撮像素子で撮像された画素のうち、補正対象とされた像高における画素の画素値を補正する補正部と
を備える撮像装置。
(13)
複数の像高にそれぞれ設定されているぼけ補正を行うフィルタを取得する取得部と、
前記取得部により取得された前記フィルタを用いて、補正対象とされた像高における画素の画素値を補正する補正部と、
前記補正部からの補正後の画素値に対して、所定の画像処理を施す画像処理部と
を備える電子機器。
(1)
An acquisition unit that acquires a filter that performs blur correction set to each of a plurality of image heights;
An image processing apparatus comprising: a correction unit that corrects a pixel value of a pixel at an image height to be corrected using the filter acquired by the acquisition unit.
(2)
The correction unit is
Applying the filter set to an image height adjacent to the image height that is the correction target to a pixel value of the pixel that is the correction target;
A coefficient is calculated from the positional relationship between the image height that is the correction target and the adjacent image height,
The image processing apparatus according to (1), wherein a pixel value after correction is calculated using the pixel value after application of the filter and the coefficient.
(3)
The correction unit is
A coefficient is calculated from the positional relationship between the image height that is the correction target and the adjacent image height,
Using the filter set to an image height adjacent to the image height that is the correction target and the coefficient, a filter that is applied to the pixel value of the pixel that is the correction target is generated,
The image processing apparatus according to (1), wherein a corrected pixel value is calculated using the generated filter and a pixel value of the pixel to be corrected.
(4)
The filter coefficients are:
PSF (Point Spread Function) data is calculated from a plurality of image points on the first image height,
The PSF data is averaged;
The averaged PSF data is used and approximated by a predetermined function,
The image processing apparatus according to any one of (1) to (3), wherein the coefficient is a coefficient calculated from the approximated PSF data.
(5)
The calculation of the coefficient of the filter uses a Wiener filter. The image processing apparatus according to (4).
(6)
The image processing apparatus according to (4) or (5), wherein the image height for which the filter is set is an image height at which the shape of the PSF changes greatly.
(7)
The filter coefficients are:
MTF (Modulation Transfer Function) data is calculated from a plurality of image points on the first image height,
The MTF data is averaged;
The averaged MTF data is used and approximated by a predetermined function,
The image processing apparatus according to any one of (1) to (3), wherein the coefficient is a coefficient calculated from the approximated MTF data.
(8)
The image processing apparatus according to (7), wherein the filter coefficient is calculated using a Wiener filter.
(9)
The image processing apparatus according to (7) or (8), wherein the image height for which the filter is set is an inflection point of the MTF data.
(10)
Get a filter that performs blur correction set to multiple image heights,
An image processing method including a step of correcting a pixel value of a pixel at an image height to be corrected using the acquired filter.
(11)
Get a filter that performs blur correction set to multiple image heights,
A computer-readable program for executing a process including a step of correcting a pixel value of a pixel at an image height to be corrected using the acquired filter.
(12)
An image sensor;
An acquisition unit that acquires a filter that performs blur correction set to each of a plurality of image heights;
An imaging apparatus comprising: a correction unit that corrects a pixel value of a pixel at an image height that is a correction target among pixels captured by the imaging device using the filter acquired by the acquisition unit.
(13)
An acquisition unit that acquires a filter that performs blur correction set to each of a plurality of image heights;
Using the filter acquired by the acquisition unit, a correction unit that corrects the pixel value of the pixel at the image height that is the correction target;
An electronic device comprising: an image processing unit that performs predetermined image processing on the pixel value after correction from the correction unit.

100 撮像装置, 111 光学レンズ, 112 撮像素子, 113 信号処理部, 131 画像信号補正部, 132 RGB信号処理部, 201 像高算出部, 202 ブレンド係数算出部, 203 ラインメモリ, 204 レンズ収差補正処理部, 205 エッジ検出部, 206 エッジ・平坦部ブレンド処理部   DESCRIPTION OF SYMBOLS 100 Imaging device, 111 Optical lens, 112 Image sensor, 113 Signal processing part, 131 Image signal correction part, 132 RGB signal processing part, 201 Image height calculation part, 202 Blend coefficient calculation part, 203 Line memory, 204 Lens aberration correction process Section, 205 edge detection section, 206 edge / flat section blend processing section

Claims (13)

複数の像高にそれぞれ設定されているぼけ補正を行うフィルタを取得する取得部と、
前記取得部により取得された前記フィルタを用いて、補正対象とされた像高における画素の画素値を補正する補正部と
を備える画像処理装置。
An acquisition unit that acquires a filter that performs blur correction set to each of a plurality of image heights;
An image processing apparatus comprising: a correction unit that corrects a pixel value of a pixel at an image height to be corrected using the filter acquired by the acquisition unit.
前記補正部は、
前記補正対象とされた像高に隣接する像高に設定されている前記フィルタを、前記補正対象とされた画素の画素値に適用し、
前記補正対象とされた像高と前記隣接する像高との位置関係から係数を算出し、
前記フィルタ適用後の画素値と前記係数を用いて補正後の画素値を算出する
請求項1に記載の画像処理装置。
The correction unit is
Applying the filter set to an image height adjacent to the image height that is the correction target to a pixel value of the pixel that is the correction target;
A coefficient is calculated from the positional relationship between the image height that is the correction target and the adjacent image height,
The image processing apparatus according to claim 1, wherein a pixel value after correction is calculated using the pixel value after application of the filter and the coefficient.
前記補正部は、
前記補正対象とされた像高と前記隣接する像高との位置関係から係数を算出し、
前記補正対象とされた像高に隣接する像高に設定されている前記フィルタと前記係数を用いて、前記補正対象とされた画素の画素値に適用するフィルタを生成し、
生成された前記フィルタと前記補正対象とされた画素の画素値を用いて補正後の画素値を算出する
請求項1に記載の画像処理装置。
The correction unit is
A coefficient is calculated from the positional relationship between the image height that is the correction target and the adjacent image height,
Using the filter set to an image height adjacent to the image height that is the correction target and the coefficient, a filter that is applied to the pixel value of the pixel that is the correction target is generated,
The image processing apparatus according to claim 1, wherein a corrected pixel value is calculated using the generated filter and a pixel value of the pixel to be corrected.
前記フィルタの係数は、
前記第1の像高上の複数の像点から、PSF(Point Spread Function)データが算出され、
前記PSFデータが平均化され、
前記平均化された前記PSFデータが用いられて、所定の関数で近似され、
前記近似された前記PSFデータから算出された係数である
請求項1に記載の画像処理装置。
The filter coefficients are:
PSF (Point Spread Function) data is calculated from a plurality of image points on the first image height,
The PSF data is averaged;
The averaged PSF data is used and approximated by a predetermined function,
The image processing apparatus according to claim 1, wherein the coefficient is calculated from the approximated PSF data.
前記フィルタの係数の算出は、ウィナーフィルタを用いる
請求項4に記載の画像処理装置。
The image processing apparatus according to claim 4, wherein the filter coefficient is calculated using a Wiener filter.
前記フィルタが設定されている像高は、前記PSFの形状が大きく変化するところの像高である
請求項4に記載の画像処理装置。
The image processing apparatus according to claim 4, wherein the image height for which the filter is set is an image height at which the shape of the PSF changes greatly.
前記フィルタの係数は、
前記第1の像高上の複数の像点から、MTF(Modulation Transfer Function)データが算出され、
前記MTFデータが平均化され、
前記平均化された前記MTFデータが用いられて、所定の関数で近似され、
前記近似された前記MTFデータから算出された係数である
請求項1に記載の画像処理装置。
The filter coefficients are:
MTF (Modulation Transfer Function) data is calculated from a plurality of image points on the first image height,
The MTF data is averaged;
The averaged MTF data is used and approximated by a predetermined function,
The image processing apparatus according to claim 1, wherein the coefficient is calculated from the approximated MTF data.
前記フィルタの係数の算出は、ウィナーフィルタを用いる
請求項7に記載の画像処理装置。
The image processing apparatus according to claim 7, wherein the filter coefficient is calculated using a Wiener filter.
前記フィルタが設定されている像高は、前記MTFデータの変曲点である
請求項7に記載の画像処理装置。
The image processing apparatus according to claim 7, wherein the image height for which the filter is set is an inflection point of the MTF data.
複数の像高にそれぞれ設定されているぼけ補正を行うフィルタを取得し、
取得された前記フィルタを用いて、補正対象とされた像高における画素の画素値を補正する
ステップを含む画像処理方法。
Get a filter that performs blur correction set to multiple image heights,
An image processing method including a step of correcting a pixel value of a pixel at an image height to be corrected using the acquired filter.
複数の像高にそれぞれ設定されているぼけ補正を行うフィルタを取得し、
取得された前記フィルタを用いて、補正対象とされた像高における画素の画素値を補正する
ステップを含む処理を実行させるためのコンピュータ読み取り可能なプログラム。
Get a filter that performs blur correction set to multiple image heights,
A computer-readable program for executing a process including a step of correcting a pixel value of a pixel at an image height to be corrected using the acquired filter.
撮像素子と、
複数の像高にそれぞれ設定されているぼけ補正を行うフィルタを取得する取得部と、
前記取得部により取得された前記フィルタを用いて、前記撮像素子で撮像された画素のうち、補正対象とされた像高における画素の画素値を補正する補正部と
を備える撮像装置。
An image sensor;
An acquisition unit that acquires a filter that performs blur correction set to each of a plurality of image heights;
An imaging apparatus comprising: a correction unit that corrects a pixel value of a pixel at an image height that is a correction target among pixels captured by the imaging device using the filter acquired by the acquisition unit.
複数の像高にそれぞれ設定されているぼけ補正を行うフィルタを取得する取得部と、
前記取得部により取得された前記フィルタを用いて、補正対象とされた像高における画素の画素値を補正する補正部と、
前記補正部からの補正後の画素値に対して、所定の画像処理を施す画像処理部と
を備える電子機器。
An acquisition unit that acquires a filter that performs blur correction set to each of a plurality of image heights;
Using the filter acquired by the acquisition unit, a correction unit that corrects the pixel value of the pixel at the image height that is the correction target;
An electronic device comprising: an image processing unit that performs predetermined image processing on the pixel value after correction from the correction unit.
JP2014099459A 2014-05-13 2014-05-13 Image processing apparatus, image processing method, imaging apparatus, electronic apparatus, and program Pending JP2015216576A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014099459A JP2015216576A (en) 2014-05-13 2014-05-13 Image processing apparatus, image processing method, imaging apparatus, electronic apparatus, and program
PCT/JP2015/062635 WO2015174257A1 (en) 2014-05-13 2015-04-27 Image-processing device, image-processing method, imaging device, electronic instrument, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014099459A JP2015216576A (en) 2014-05-13 2014-05-13 Image processing apparatus, image processing method, imaging apparatus, electronic apparatus, and program

Publications (1)

Publication Number Publication Date
JP2015216576A true JP2015216576A (en) 2015-12-03

Family

ID=54479800

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014099459A Pending JP2015216576A (en) 2014-05-13 2014-05-13 Image processing apparatus, image processing method, imaging apparatus, electronic apparatus, and program

Country Status (2)

Country Link
JP (1) JP2015216576A (en)
WO (1) WO2015174257A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018037806A1 (en) * 2016-08-25 2018-03-01 富士フイルム株式会社 Image processing device, image processing system, image processing method, and image capturing optical system set
KR20190033560A (en) 2016-08-16 2019-03-29 소니 세미컨덕터 솔루션즈 가부시키가이샤 Image processing apparatus, image processing method, and imaging apparatus
US10354369B2 (en) 2016-08-25 2019-07-16 Canon Kabushiki Kaisha Image processing method, image processing apparatus, image pickup apparatus, and storage medium
JP2021189171A (en) * 2020-06-02 2021-12-13 三菱電機株式会社 Infrared imaging device
JP6991371B1 (en) * 2020-06-02 2022-01-14 三菱電機株式会社 Infrared imager
US20220353414A1 (en) * 2021-04-30 2022-11-03 Gramm Inc. Method and apparatus of camera image correction using stored tangential and sagittal blur data and computer-readable recording medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002369071A (en) * 2001-06-08 2002-12-20 Olympus Optical Co Ltd Picture processing method and digital camera mounted with the same and its program
JP5506573B2 (en) * 2010-07-01 2014-05-28 キヤノン株式会社 Image processing apparatus and image processing method
JP2013055623A (en) * 2011-09-06 2013-03-21 Sony Corp Image processing apparatus, image processing method, information recording medium, and program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190033560A (en) 2016-08-16 2019-03-29 소니 세미컨덕터 솔루션즈 가부시키가이샤 Image processing apparatus, image processing method, and imaging apparatus
US10878546B2 (en) 2016-08-16 2020-12-29 Sony Semiconductor Solutions Corporation Image processing device, image processing method, and imaging device
WO2018037806A1 (en) * 2016-08-25 2018-03-01 富士フイルム株式会社 Image processing device, image processing system, image processing method, and image capturing optical system set
US10354369B2 (en) 2016-08-25 2019-07-16 Canon Kabushiki Kaisha Image processing method, image processing apparatus, image pickup apparatus, and storage medium
JPWO2018037806A1 (en) * 2016-08-25 2019-07-18 富士フイルム株式会社 Image processing apparatus, image processing system, image processing method, and imaging optical system set
US10817995B2 (en) 2016-08-25 2020-10-27 Fujifilm Corporation Image processing device, image processing system, image processing method, and imaging optical system group
JP2021189171A (en) * 2020-06-02 2021-12-13 三菱電機株式会社 Infrared imaging device
JP6991371B1 (en) * 2020-06-02 2022-01-14 三菱電機株式会社 Infrared imager
TWI786569B (en) * 2020-06-02 2022-12-11 日商三菱電機股份有限公司 Infrared photography device
JP7271604B2 (en) 2020-06-02 2023-05-11 三菱電機株式会社 Infrared imager
US20220353414A1 (en) * 2021-04-30 2022-11-03 Gramm Inc. Method and apparatus of camera image correction using stored tangential and sagittal blur data and computer-readable recording medium
US11546515B2 (en) * 2021-04-30 2023-01-03 Gramm Inc. Method and apparatus of camera image correction using stored tangential and sagittal blur data and computer-readable recording medium

Also Published As

Publication number Publication date
WO2015174257A1 (en) 2015-11-19

Similar Documents

Publication Publication Date Title
JP6327922B2 (en) Image processing apparatus, image processing method, and program
WO2015174257A1 (en) Image-processing device, image-processing method, imaging device, electronic instrument, and program
JP5535053B2 (en) Image processing apparatus and image processing method
WO2011122284A1 (en) Image processing device and image capturing apparatus using same
US8849055B2 (en) Image processing apparatus and method
JP5983373B2 (en) Image processing apparatus, information processing method, and program
US9049356B2 (en) Image processing method, image processing apparatus and image processing program
JP2013219705A (en) Image processor, image processing method and program
JP2007066138A (en) Image processor and image processing program
JP2014126903A (en) Image processing apparatus, image processing method, and program
JP2013055623A (en) Image processing apparatus, image processing method, information recording medium, and program
JP5451704B2 (en) Image processing apparatus, image processing method, program, and image processing system
JP4945942B2 (en) Image processing device
JP5353945B2 (en) Image processing apparatus, image processing program, and electronic camera
JP5631769B2 (en) Image processing device
JP6415108B2 (en) Image processing method, image processing apparatus, imaging apparatus, image processing program, and storage medium
JP2014003550A (en) Image processing apparatus and program
JP4797478B2 (en) Image processing device
JP6436840B2 (en) Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium
JP6238673B2 (en) Image processing apparatus, imaging apparatus, imaging system, image processing method, image processing program, and storage medium
JP2017183775A (en) Image processing apparatus, image processing method, and image pickup device
JP2013055622A (en) Image processing apparatus, image processing method, information recording medium, and program
JP6306811B2 (en) Image processing apparatus, information processing method, and program
JP2010079815A (en) Image correction device
JP2017123532A (en) Image processing device, imaging device, image processing method, image processing program and recording medium