JP2012142747A - Signal processing apparatus, signal processing method, and program - Google Patents

Signal processing apparatus, signal processing method, and program Download PDF

Info

Publication number
JP2012142747A
JP2012142747A JP2010293308A JP2010293308A JP2012142747A JP 2012142747 A JP2012142747 A JP 2012142747A JP 2010293308 A JP2010293308 A JP 2010293308A JP 2010293308 A JP2010293308 A JP 2010293308A JP 2012142747 A JP2012142747 A JP 2012142747A
Authority
JP
Japan
Prior art keywords
processing unit
signal
unit
filter
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010293308A
Other languages
Japanese (ja)
Inventor
Yukihiko Mogi
幸彦 茂木
Ken Tamayama
研 玉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010293308A priority Critical patent/JP2012142747A/en
Publication of JP2012142747A publication Critical patent/JP2012142747A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a signal processing apparatus, a signal processing method, and a program capable of suppressing an amount of operation of signal processing to compensate signal deterioration caused by convolution of impulse responses.SOLUTION: The signal processing apparatus comprises: a first processing part which thins data out of a data signal; a convolution part which convolves, into the data signal processed by the first processing part, a compensation filter compensating signal deterioration caused by an impulse response obtained by thinning data by a second processing part; and an interpolation processing part which interpolates the result of the convolution by the convolution part.

Description

本発明は、信号処理装置、信号処理方法、およびプログラムに関する。   The present invention relates to a signal processing device, a signal processing method, and a program.

近日、CCDやCMOSなどの撮像素子を用い、撮像レンズにより撮像素子の受光面上に結像された被写体の光学像を撮像する撮像装置が普及している。このような撮像装置により得られる画像は、受光面上の受光画素数や撮像レンズの解像力に応じた解像度を有する。   2. Description of the Related Art Recently, an imaging apparatus that uses an imaging element such as a CCD or CMOS and picks up an optical image of a subject formed on a light receiving surface of an imaging element by an imaging lens has become widespread. An image obtained by such an imaging apparatus has a resolution corresponding to the number of light receiving pixels on the light receiving surface and the resolution of the imaging lens.

このため、撮像装置により得られる画像の解像度を向上するためには、受光画素の数を増大させることや、撮像レンズの解像力を高めることが効果的である。例えば、受光面上の受光画素の密度を高くすると共に、撮像レンズを通して受光面上に投影される点像が1つの受光画素の範囲内に収まるように撮像レンズの解像力を高めることにより、撮像装置により得られる画像の解像度を向上することが可能である。   For this reason, in order to improve the resolution of an image obtained by the imaging device, it is effective to increase the number of light receiving pixels or to increase the resolution of the imaging lens. For example, by increasing the density of light receiving pixels on the light receiving surface and increasing the resolving power of the imaging lens so that a point image projected on the light receiving surface through the imaging lens is within the range of one light receiving pixel, It is possible to improve the resolution of the image obtained.

ここで、撮像素子を構成する受光画素の密度を高めることは近年の技術向上により比較的容易である。一方、撮像レンズの解像力を高めるためには、撮像レンズを構成する各レンズの形状誤差や組立誤差などを低減することが有効であるが、加工、組立および調整制度などの製作精度をさらに高めることの困難性は高い。   Here, it is relatively easy to increase the density of the light receiving pixels constituting the image sensor due to recent technological improvements. On the other hand, in order to increase the resolving power of the imaging lens, it is effective to reduce the shape error and assembly error of each lens that constitutes the imaging lens, but it further increases the manufacturing accuracy of processing, assembly, and adjustment systems. The difficulty is high.

また、解像度を高める他のアプローチとして、特許文献1には、撮像装置の撮像により得られた画像を点像分布関数(PSF:Point Spread Function)に基づいて信号処理することにより解像度を高める方法が記載されている。   As another approach for increasing the resolution, Patent Document 1 discloses a method for increasing the resolution by performing signal processing on an image obtained by imaging with an imaging device based on a point spread function (PSF). Are listed.

特開2009−141742号公報JP 2009-141742 A

しかし、ベイヤー配列型の撮像素子により得られた画像において、G成分の画素数はRB成分の画素数の2倍である。このため、撮像素子により得られた画像を信号処理する際に、G成分に関する演算量が他の成分よりも多くなるという問題がある。また、G成分に限らず、昨今の画素数の増加により、画像の信号処理のための演算負荷の増大が懸念される。   However, in the image obtained by the Bayer array type image sensor, the number of pixels of the G component is twice the number of pixels of the RB component. For this reason, when the image obtained by the image sensor is subjected to signal processing, there is a problem that the amount of calculation regarding the G component is larger than that of the other components. In addition to the G component, there is a concern that the calculation load for image signal processing increases due to the recent increase in the number of pixels.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、インパルス応答の畳み込みによる信号劣化を補償するための信号処理の演算量を抑制することが可能な、新規かつ改良された信号処理装置、信号処理方法、およびプログラムを提供することにある。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to reduce the amount of calculation of signal processing for compensating for signal degradation caused by convolution of impulse responses. To provide a new and improved signal processing apparatus, signal processing method, and program.

上記課題を解決するために、本発明のある観点によれば、データ信号からデータを間引く第1の処理部と、第2の処理部によりデータが間引かれたインパルス応答による信号劣化を補償する補償フィルタを前記第1の処理部による処理後のデータ信号に畳み込む畳み込み部と、前記畳み込み部による畳み込み結果を補間する補間処理部と、を備える信号処理装置が提供される。   In order to solve the above-described problem, according to an aspect of the present invention, signal degradation due to an impulse response in which data is thinned out by a first processing unit and a second processing unit that thin out data from a data signal is compensated. There is provided a signal processing device including a convolution unit that convolves a compensation filter into a data signal processed by the first processing unit, and an interpolation processing unit that interpolates a convolution result by the convolution unit.

前記第1の処理部は、第1のフィルタ処理部によるフィルタリング後の前記データ信号からデータを間引き、前記第2の処理部は、第2のフィルタ処理部によるフィルタリング後のインパルス応答からデータを間引き、前記信号処理装置は、前記補間処理部による補間結果をフィルタリングする第3のフィルタ処理部をさらに備えてもよい。   The first processing unit thins data from the data signal after filtering by the first filter processing unit, and the second processing unit thins data from an impulse response after filtering by the second filter processing unit. The signal processing apparatus may further include a third filter processing unit that filters an interpolation result by the interpolation processing unit.

前記第2のフィルタ処理部は、前記第1のフィルタ処理部で用いられるフィルタ、および前記第3のフィルタ処理部で用いられるフィルタを用いてフィルタリングを行なってもよい。   The second filter processing unit may perform filtering using a filter used in the first filter processing unit and a filter used in the third filter processing unit.

前記信号処理装置は、前記第3のフィルタ処理部によるフィルタリング結果を前記データ信号に加算する加算部をさらに備えてもよい。   The signal processing device may further include an adding unit that adds a filtering result obtained by the third filter processing unit to the data signal.

前記データ信号は画像信号であり、前記信号処理装置は、前記畳み込み部によるある領域に関する畳み込み結果を、前記領域のエッジ情報に基づいて調整する調整部をさらに備え、前記補間部は、前記調整部による調整後の畳み込み結果を補間してもよい。   The data signal is an image signal, and the signal processing device further includes an adjustment unit that adjusts a convolution result of a certain region by the convolution unit based on edge information of the region, and the interpolation unit includes the adjustment unit. The convolution result after adjustment according to may be interpolated.

前記調整部は、前記エッジ情報に基づき、前記領域のエッジ成分が弱いほどゲインが高くなるように前記領域に関する畳み込み結果を調整してもよい。   The adjustment unit may adjust a convolution result related to the region based on the edge information so that the gain becomes higher as the edge component of the region is weaker.

前記調整部は、前記データ信号における前記領域のエッジ情報、前記畳み込み結果における前記領域のエッジ情報、または、前記第1の処理部による処理後のデータ信号における前記領域のエッジ情報に基づいて前記領域に関する畳み込み結果を調整してもよい。   The adjustment unit is configured to generate the region based on the edge information of the region in the data signal, the edge information of the region in the convolution result, or the edge information of the region in the data signal processed by the first processing unit. You may adjust the convolution result about.

前記データ信号は、撮像光学系により撮像されたベイヤー配列型の入力画像であり、前記インパルス応答は前記撮像光学系の点像分布関数であり、前記第2の処理部はG成分の点像分布関数からデータを間引き、前記第1の処理部はG成分の入力画像からデータを間引き、他の成分に対しては前記第1の処理部および前記第2の処理部によらない処理を行ってもよい。   The data signal is a Bayer array type input image captured by an imaging optical system, the impulse response is a point spread function of the imaging optical system, and the second processing unit is a point spread distribution of a G component. Data is thinned out from the function, the first processing unit thins out the data from the input image of the G component, and other components are subjected to processing independent of the first processing unit and the second processing unit. Also good.

また、上記課題を解決するために、本発明の別の観点によれば、データ信号から第1の処理部によりデータを間引くステップと、第2の処理部によりデータが間引かれたインパルス応答による信号劣化を補償する補償フィルタを前記第1の処理部による処理後のデータ信号に畳み込むステップと、畳み込み結果を補間するステップと、を含む信号処理方法が提供される。   In order to solve the above problem, according to another aspect of the present invention, a step of thinning out data from a data signal by a first processing unit and an impulse response in which data is thinned out by a second processing unit There is provided a signal processing method including a step of convolving a compensation filter that compensates for signal degradation into a data signal processed by the first processing unit and a step of interpolating a convolution result.

また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、データ信号からデータを間引く第1の処理部と、第2の処理部によりデータが間引かれたインパルス応答による信号劣化を補償する補償フィルタを前記第1の処理部による処理後のデータ信号に畳み込む畳み込み部と、前記畳み込み部による畳み込み結果を補間する補間処理部と、として機能させるためのプログラムが提供される。   In order to solve the above-described problem, according to another aspect of the present invention, a computer includes an impulse response in which data is thinned out by a first processing unit that thins data from a data signal and a second processing unit. There is provided a program for functioning as a convolution unit that convolves a compensation filter that compensates for signal degradation due to the data signal after processing by the first processing unit, and an interpolation processing unit that interpolates a convolution result by the convolution unit. The

以上説明したように本発明によれば、画像解像度を高めるための信号処理の演算量を抑制することが可能である。   As described above, according to the present invention, it is possible to suppress the amount of calculation of signal processing for increasing the image resolution.

本発明の実施形態による画像処理装置の構成を示した説明図である。It is explanatory drawing which showed the structure of the image processing apparatus by embodiment of this invention. ベイヤー配列型のCMOS撮像素子の受光面における画素配列を示した説明図である。It is explanatory drawing which showed the pixel arrangement | sequence in the light-receiving surface of a Bayer arrangement type CMOS image sensor. ベイヤー配列画像の周波数帯域の概念を示した説明図である。It is explanatory drawing which showed the concept of the frequency band of a Bayer arrangement | sequence image. 比較例による信号処理部の構成を示した機能ブロック図である。It is the functional block diagram which showed the structure of the signal processing part by a comparative example. 比較例による信号処理部の動作を示したフローチャートである。It is the flowchart which showed operation | movement of the signal processing part by a comparative example. 比較例による信号処理部において設計される逆フィルタの2次元周波数応答のY軸断面を示した説明図である。It is explanatory drawing which showed the Y-axis cross section of the two-dimensional frequency response of the inverse filter designed in the signal processing part by a comparative example. 比較例による信号処理部によって復元された画像の2次元周波数応答のY軸の断面を示した説明図である。It is explanatory drawing which showed the cross section of the Y-axis of the two-dimensional frequency response of the image decompress | restored by the signal processing part by a comparative example. 本発明の第1の実施形態による信号処理部の構成を示した機能ブロック図である。It is the functional block diagram which showed the structure of the signal processing part by the 1st Embodiment of this invention. フィルタ処理部および縮小処理部による処理例を示した説明図である。It is explanatory drawing which showed the example of a process by a filter process part and a reduction process part. フィルタ処理部および縮小処理部による処理例を示した説明図である。It is explanatory drawing which showed the example of a process by a filter process part and a reduction process part. 拡大処理部およびフィルタ処理部による処理例を示した説明図である。It is explanatory drawing which showed the example of a process by an expansion process part and a filter process part. 拡大処理部およびフィルタ処理部による処理例を示した説明図である。It is explanatory drawing which showed the example of a process by an expansion process part and a filter process part. 本発明の第1の実施形態による動作を示したフローチャートである。5 is a flowchart illustrating an operation according to the first embodiment of the present invention. 本発明の第2の実施形態による信号処理部の構成を示した機能ブロック図である。It is the functional block diagram which showed the structure of the signal processing part by the 2nd Embodiment of this invention. エッジ情報の算出に利用する画素位置を示した説明図である。It is explanatory drawing which showed the pixel position utilized for calculation of edge information. エッジ情報とゲインの関係を示した説明図である。It is explanatory drawing which showed the relationship between edge information and a gain. 本発明の第2の実施形態による動作を示したフローチャートである。5 is a flowchart illustrating an operation according to the second exemplary embodiment of the present invention. 入力画像の2次元周波数応答のY軸断面を示した説明図である。It is explanatory drawing which showed the Y-axis cross section of the two-dimensional frequency response of an input image. 図18に示した入力画像の復元結果の2次元周波数応答のY軸の断面を示した説明図である。It is explanatory drawing which showed the cross section of the Y-axis of the two-dimensional frequency response of the restoration result of the input image shown in FIG.

以下に添付図面を参照しながら、本発明の実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。   In the present specification and drawings, a plurality of components having substantially the same functional configuration may be distinguished by adding different alphabets after the same reference numeral. However, when it is not necessary to particularly distinguish each of a plurality of constituent elements having substantially the same functional configuration, only the same reference numerals are given.

また、以下に示す項目順序に従って当該「発明を実施するための形態」を説明する。
1.画像処理装置の基本構成
2.比較例による画像処理
3.本発明の第1の実施形態
3−1.第1の実施形態による信号処理部の構成
3−2.第1の実施形態による動作
4.本発明の第2の実施形態
4−1.第2の実施形態による信号処理部の構成
4−2.第2の実施形態による動作
5.まとめ
Further, the “DETAILED DESCRIPTION OF THE INVENTION” will be described according to the following item order.
1. 1. Basic configuration of image processing apparatus 2. Image processing according to comparative example First embodiment of the present invention 3-1. Configuration of Signal Processing Unit according to First Embodiment 3-2. 3. Operation according to the first embodiment Second embodiment of the present invention 4-1. Configuration of signal processing unit according to second embodiment 4-2. 4. Operation according to the second embodiment Summary

<1.画像処理装置の基本構成>
本発明は、一例として「3.第1の実施形態」および「4.第2の実施形態」において詳細に説明するように、多様な形態で実施され得る。また、各実施形態による画像処理装置(信号処理装置)は、
A.データ信号からデータを間引く第1の処理部(230A)と、
B.第2の処理部(230B)によりデータが間引かれたインパルス応答による信号劣化を補償する補償フィルタを前記第1の処理部による処理後のデータ信号に畳み込む畳み込み部(250)と;
前記畳み込み部による畳み込み結果を補間する補間処理部(260)と、
を備える。
<1. Basic Configuration of Image Processing Device>
The present invention can be implemented in various forms as described in detail in “3. First Embodiment” and “4. Second Embodiment” as an example. In addition, the image processing apparatus (signal processing apparatus) according to each embodiment is
A. A first processing unit (230A) for thinning data from a data signal;
B. A convolution unit (250) for convolving a compensation filter that compensates for signal degradation due to the impulse response with data thinned out by the second processing unit (230B) into the data signal processed by the first processing unit;
An interpolation processing unit (260) for interpolating a convolution result by the convolution unit;
Is provided.

以下では、まず、このような各実施形態において共通する基本構成について図1〜図3を参照して説明する。   In the following, first, a basic configuration common to each of such embodiments will be described with reference to FIGS.

図1は、本発明の実施形態による画像処理装置1の構成を示した説明図である。図1に示したように、本発明の実施形態による画像処理装置1は、撮像光学系10と、アイリス2と、CMOS撮像素子14と、S/H_AGC16と、A/D変換部18と、AE検波ブロック24と、マイクロコンピュータ26と、アイリスドライバ28と、を備える。なお、本発明の実施形態による画像処理装置1は、撮像装置、携帯機器、車載機器および医療機器などの多様な機器に適用可能である。   FIG. 1 is an explanatory diagram showing a configuration of an image processing apparatus 1 according to an embodiment of the present invention. As shown in FIG. 1, the image processing apparatus 1 according to the embodiment of the present invention includes an imaging optical system 10, an iris 2, a CMOS imaging device 14, an S / H_AGC 16, an A / D conversion unit 18, and an AE. A detection block 24, a microcomputer 26, and an iris driver 28 are provided. The image processing apparatus 1 according to the embodiment of the present invention can be applied to various devices such as an imaging device, a portable device, an in-vehicle device, and a medical device.

撮像光学系10は、複数の撮像レンズからなり、アイリス12を介して被写体の光学像をCMOS撮像素子14の受光面に結像させる。   The imaging optical system 10 includes a plurality of imaging lenses, and forms an optical image of a subject on the light receiving surface of the CMOS imaging device 14 via the iris 12.

CMOS(Complementary Metal Oxide Semiconductor)撮像素子14は、受光面に結像された被写体の光学像を電気信号に変換する。なお、CMOS撮像素子14は撮像素子の一例に過ぎず、画像処理装置1は、CMOS撮像素子14に代えて例えばCCD(Charge Coupled Device)撮像素子を備えてもよい。   A CMOS (Complementary Metal Oxide Semiconductor) image sensor 14 converts an optical image of a subject formed on the light receiving surface into an electrical signal. The CMOS image sensor 14 is merely an example of an image sensor, and the image processing apparatus 1 may include, for example, a CCD (Charge Coupled Device) image sensor instead of the CMOS image sensor 14.

S/H_AGC16は、CMOS撮像素子14からの出力に対してサンプルホールド(S/H)およびAGC(Automatic Gain Control)を施し、A/D変換部18は、S/H_AGC16からの出力をデジタル形式に変換する。A/D変換部18からのデジタル信号は、信号処理部20およびAE検波ブロック24に供給される。   The S / H_AGC 16 performs sample hold (S / H) and AGC (Automatic Gain Control) on the output from the CMOS image sensor 14, and the A / D converter 18 converts the output from the S / H_AGC 16 into a digital format. Convert. The digital signal from the A / D conversion unit 18 is supplied to the signal processing unit 20 and the AE detection block 24.

信号処理部20は、A/D変換部18からのデジタル出力に対して各種の信号処理を施し、出力端子22を介して後段回路に処理後の信号を出力する。例えば、信号処理部20は、詳細については各実施形態として後述するように、デジタル出力として入力される入力画像の解像度を向上させるための信号処理を行う。   The signal processing unit 20 performs various types of signal processing on the digital output from the A / D conversion unit 18, and outputs the processed signal to the subsequent circuit via the output terminal 22. For example, the signal processing unit 20 performs signal processing for improving the resolution of an input image input as a digital output, as will be described later in detail as each embodiment.

AE(Auto Exposure)検波ブロック24は、A/D変換部18から入力されるデジタル信号を検波する。マイクロコンピュータ26は、AE検波ブロック24から供給される検波値に基づき、アイリス12の開度を制御するための制御信号をアイリスドライバ28に供給する。アイリスドライバ28は、マイクロコンピュータ26から供給される制御信号に従ってアイリス12を駆動する。   An AE (Auto Exposure) detection block 24 detects a digital signal input from the A / D conversion unit 18. The microcomputer 26 supplies a control signal for controlling the opening degree of the iris 12 to the iris driver 28 based on the detection value supplied from the AE detection block 24. The iris driver 28 drives the iris 12 in accordance with a control signal supplied from the microcomputer 26.

(ベイヤー配列)
上述したCMOS撮像素子14は、ベイヤー配列に従って画素が配列されている。以下、図2を参照してベイヤー配列について説明する。
(Bayer array)
In the CMOS image sensor 14 described above, pixels are arranged according to a Bayer arrangement. Hereinafter, the Bayer arrangement will be described with reference to FIG.

図2は、ベイヤー配列型のCMOS撮像素子14の受光面における画素配列を示した説明図である。図2に示したように、ベイヤー配列においては、水平方向に沿った第1ライン(最上段のライン)にはB成分を検知する画素とG成分を検知する画素が交互に配置され、第2ラインにはG成分を検知する画素とR成分を検知する画素とが交互に配置される。以下、垂直方向Vには同様の画素配列を有する複数のラインが配置され、各画素において光電変換が行われることにより、CMOS撮像素子14からカラー画像が出力される。   FIG. 2 is an explanatory diagram showing a pixel array on the light receiving surface of the Bayer array type CMOS image sensor 14. As shown in FIG. 2, in the Bayer array, pixels that detect the B component and pixels that detect the G component are alternately arranged on the first line (the uppermost line) along the horizontal direction. In the line, pixels for detecting the G component and pixels for detecting the R component are alternately arranged. Hereinafter, a plurality of lines having the same pixel arrangement are arranged in the vertical direction V, and a color image is output from the CMOS image sensor 14 by performing photoelectric conversion in each pixel.

図3は、ベイヤー配列を有する画像の周波数帯域の概念を示した説明図である。図3に示したように、ベイヤー配列を有する画像は、サンプリングの観点から、G成分の帯域がR、B成分の帯域の2倍に相当する。   FIG. 3 is an explanatory diagram showing the concept of the frequency band of an image having a Bayer array. As shown in FIG. 3, an image having a Bayer array has a G component band equivalent to twice the R and B component bands from the viewpoint of sampling.

<2.比較例による画像復元処理>
以上、本発明の実施形態による画像処理装置の基本構成を説明した。続いて、図4〜図7を参照し、比較例による画像復元処理を説明する。
<2. Image restoration processing according to comparative example>
The basic configuration of the image processing apparatus according to the embodiment of the present invention has been described above. Next, an image restoration process according to a comparative example will be described with reference to FIGS.

図4は、比較例による信号処理部80の構成を示した機能ブロック図である。図4に示したように、比較例による信号処理部80は、PSFテーブル82と、逆フィルタ設計部84と、畳み込み部86と、加算部88と、を有する。   FIG. 4 is a functional block diagram showing the configuration of the signal processing unit 80 according to the comparative example. As illustrated in FIG. 4, the signal processing unit 80 according to the comparative example includes a PSF table 82, an inverse filter design unit 84, a convolution unit 86, and an addition unit 88.

PSFテーブル82は、RGB成分ごと、および画素ごとに定義される点像分布関数P(z)を保持する。点像分布関数は画面内で非一様な分布であるが、近隣画素との差分は必ずしも大きくないので、ある範囲内のブロックで点像分布関数を一様に近似することも可能である。なお、点像分布関数は、例えば特開2009−141742号公報に記載の方法により取得される。または、光学設計値の点像分布関数を用いてもよい。   The PSF table 82 holds a point spread function P (z) defined for each RGB component and each pixel. Although the point spread function is a non-uniform distribution in the screen, the difference from the neighboring pixels is not necessarily large, so that the point spread function can be uniformly approximated by a block within a certain range. Note that the point spread function is acquired by a method described in, for example, Japanese Patent Application Laid-Open No. 2009-141742. Alternatively, a point spread function of an optical design value may be used.

逆フィルタ設計部84は、RGB成分ごと、および画素ごとに、点像分布関数P(z)に対する逆フィルタK(z)を設計する。例えば、逆フィルタ設計部84は、特開2009−141742号公報に記載の方法や、ウィナーフィルタに基づき入力画像との平均二乗誤差を最小とする方法により逆フィルタK(z)を設計する。   The inverse filter design unit 84 designs an inverse filter K (z) for the point spread function P (z) for each RGB component and for each pixel. For example, the inverse filter design unit 84 designs the inverse filter K (z) by the method described in Japanese Patent Application Laid-Open No. 2009-141742 or a method that minimizes the mean square error with the input image based on the Wiener filter.

具体的には、逆フィルタ設計部84は、以下の数式1に従って逆フィルタの周波数応答K(w)を算出し、逆フィルタの周波数応答K(ω)を逆フーリエ変換することにより逆フィルタK(w)を設計することができる。なお、数式1においてP(w)はPSFの周波数応答を示し、N(w)はノイズ成分の周波数応答を示す。   Specifically, the inverse filter design unit 84 calculates the frequency response K (w) of the inverse filter according to the following Equation 1, and performs inverse Fourier transform on the frequency response K (ω) of the inverse filter, thereby obtaining the inverse filter K ( w) can be designed. In Equation 1, P (w) indicates the frequency response of PSF, and N (w) indicates the frequency response of the noise component.

Figure 2012142747
Figure 2012142747

畳み込み部86は、ベイヤー配列の入力画像X(z)のR成分、G成分、B成分の各々に対し、逆フィルタ設計部84により算出されたR成分向けの逆フィルタKr(z)、G成分向けの逆フィルタKg(z)、およびB成分向けの逆フィルタKb(z)の各々を畳み込む。このような畳み込み部86による演算を以下の数式2に示す。なお、数式2においてXr(z)は入力画像のR成分を示し、Xg(z)は入力画像のG成分を示し、Xb(z)は入力画像のB成分を示す。   The convolution unit 86 performs inverse filter Kr (z), G component for the R component calculated by the inverse filter design unit 84 for each of the R component, G component, and B component of the input image X (z) in the Bayer array. The inverse filter Kg (z) for the B component and the inverse filter Kb (z) for the B component are convolved. The calculation by the convolution unit 86 is shown in the following formula 2. In Equation 2, Xr (z) represents the R component of the input image, Xg (z) represents the G component of the input image, and Xb (z) represents the B component of the input image.

Figure 2012142747
Figure 2012142747

加算部88は、数式3に示すように畳み込み部86により得られた畳み込み結果Y(z)をRGB成分ごとに入力画像に加算する。なお、数式3においてOr(z)は出力画像のR成分を示し、Og(z)は出力画像のG成分を示し、Ob(z)は出力画像のB成分を示す。   The adder 88 adds the convolution result Y (z) obtained by the convolution unit 86 to the input image for each RGB component as shown in Equation 3. In Equation 3, Or (z) represents the R component of the output image, Og (z) represents the G component of the output image, and Ob (z) represents the B component of the output image.

Figure 2012142747
Figure 2012142747

以上、比較例による信号処理部80の構成を説明した。続いて、図5を参照し、比較例による信号処理部80の動作を説明する。   The configuration of the signal processing unit 80 according to the comparative example has been described above. Next, the operation of the signal processing unit 80 according to the comparative example will be described with reference to FIG.

‐ステップS94
まず、図5に示したように、逆フィルタ設計部84が、RGB成分ごと、および画素ごとに、例えば数式1に示したように点像分布関数P(z)に対する逆フィルタK(z)を設計する。
-Step S94
First, as shown in FIG. 5, the inverse filter design unit 84 performs an inverse filter K (z) for the point spread function P (z) as shown in Equation 1, for each RGB component and for each pixel, for example. design.

‐ステップS96
その後、畳み込み部86は、ベイヤー配列の入力画像X(z)のR成分、G成分、B成分の各々に対し、逆フィルタ設計部84により算出されたR成分向けの逆フィルタKr(z)、G成分向けの逆フィルタKg(z)、およびB成分向けの逆フィルタKb(z)の各々を畳み込む(S96)。
-Step S96
Thereafter, the convolution unit 86 applies the inverse filter Kr (z) for the R component calculated by the inverse filter design unit 84 to each of the R component, G component, and B component of the input image X (z) in the Bayer array. Each of the inverse filter Kg (z) for the G component and the inverse filter Kb (z) for the B component is convolved (S96).

‐ステップS98
そして、加算部88は、畳み込み部86により得られた畳み込み結果Y(z)を例えば数式3に示したようにRGB成分ごとに入力画像に加算し、出力画像O(z)を出力する。
-Step S98
Then, the adding unit 88 adds the convolution result Y (z) obtained by the convolution unit 86 to the input image for each RGB component as shown in Equation 3, for example, and outputs an output image O (z).

図6は、このような比較例による信号処理部80において設計される逆フィルタの2次元周波数応答のY軸断面を示した説明図である。図7は、比較例による信号処理部80によって復元された画像の2次元周波数応答のY軸の断面を示した説明図である。なお、図面においてはR成分を実線で示し、B成分を破線で示し、G成分を細線で示す。   FIG. 6 is an explanatory diagram showing a Y-axis cross section of the two-dimensional frequency response of the inverse filter designed in the signal processing unit 80 according to such a comparative example. FIG. 7 is an explanatory diagram showing a Y-axis cross section of the two-dimensional frequency response of the image restored by the signal processing unit 80 according to the comparative example. In the drawings, the R component is indicated by a solid line, the B component is indicated by a broken line, and the G component is indicated by a thin line.

(本発明の実施形態に至る経緯)
図6に示したように、比較例によるG成分およびB成分の逆フィルタでは、ナイキスト周波数を1としたときの0.5以上の周波数も10dB以上持ち上げられる。しかし、撮像レンズを通過した高域の周波数成分のほとんどは、画像成分でなくノイズ成分である。このため、比較例による復元方法では、画像の解像度だけでなく、ノイズ成分も増幅してしまうという問題が生じる。
(Background to the embodiment of the present invention)
As shown in FIG. 6, in the inverse filter of the G component and the B component according to the comparative example, the frequency of 0.5 or more when the Nyquist frequency is 1 is also raised by 10 dB or more. However, most of the high frequency components that have passed through the imaging lens are not image components but noise components. For this reason, the restoration method according to the comparative example has a problem that not only the resolution of the image but also noise components are amplified.

また、図2に示したベイヤー配列型の画像に対して比較例による復元方法を適用すると、G成分がRB成分に対して2倍の帯域を有するので、色つきが生じる。具体的には、図7に示したように、G成分とB成分は高域まで復元されるが、R成分は0.4程度の周波数から急激に減少しているので、この復元結果の画像では赤色の色つきが生じる。   Further, when the restoration method according to the comparative example is applied to the Bayer array type image shown in FIG. 2, the G component has a band twice as large as the RB component, so that coloring occurs. Specifically, as shown in FIG. 7, the G component and the B component are restored to a high frequency, but the R component is rapidly reduced from a frequency of about 0.4. Then, red coloring occurs.

さらに、ベイヤー配列型の撮像素子により得られた画像において、G成分の画素数はRB成分の画素数の2倍である。このため、逆フィルタの設計や畳み込みなどの信号処理に際し、G成分に関する演算量が他の成分よりも多くなるという問題がある。また、G成分に限らず、昨今の画素数の増加により、画像の信号処理のための演算負荷の増大が懸念される。   Further, in the image obtained by the Bayer array type imaging device, the number of pixels of the G component is twice the number of pixels of the RB component. For this reason, in signal processing such as inverse filter design and convolution, there is a problem that the amount of calculation related to the G component is larger than that of the other components. In addition to the G component, there is a concern that the calculation load for image signal processing increases due to the recent increase in the number of pixels.

本発明の実施形態は、上記事情を一着眼点にしてなされたものであり、本発明の実施形態によれば、撮像素子の受光面に投影される光学像を撮像して画像を取得し、当該画像の品質を演算量の観点から効率的に向上させることが可能である。以下、このような本発明の各実施形態について詳細に説明する。   The embodiment of the present invention is made with the above circumstances as a focus, and according to the embodiment of the present invention, the optical image projected on the light receiving surface of the image sensor is captured to obtain an image, It is possible to efficiently improve the quality of the image from the viewpoint of calculation amount. Hereinafter, each embodiment of the present invention will be described in detail.

<3.本発明の第1の実施形態>
[3−1.第1の実施形態による信号処理部の構成]
図8は、本発明の第1の実施形態による信号処理部20−1の構成を示した機能ブロック図である。図10に示したように、第1の実施形態による信号処理部20−1は、PSFテーブル210と、フィルタ処理部220A、220Bおよび220Cと、縮小処理部230Aおよび230Bと、逆フィルタ設計部240と、畳み込み部250と、拡大処理部260と、を有する。
<3. First embodiment of the present invention>
[3-1. Configuration of Signal Processing Unit According to First Embodiment]
FIG. 8 is a functional block diagram showing the configuration of the signal processing unit 20-1 according to the first embodiment of the present invention. As shown in FIG. 10, the signal processing unit 20-1 according to the first embodiment includes a PSF table 210, filter processing units 220A, 220B, and 220C, reduction processing units 230A and 230B, and an inverse filter design unit 240. And a convolution unit 250 and an enlargement processing unit 260.

なお、以下ではG成分に関して縮小および拡大などを含む本実施形態による処理を行い、RB成分に関しては縮小および拡大を含まない例えば比較例に準ずる処理を行う例を説明するが、RGBの各成分に対して縮小および拡大などを含む本実施形態による処理を行ってもよい。   In the following, an example in which processing according to the present embodiment including reduction and enlargement is performed for the G component and processing according to a comparative example that does not include reduction and enlargement is performed for the RB component will be described. On the other hand, processing according to the present embodiment including reduction and enlargement may be performed.

PSFテーブル210は、RGB成分ごと、および画素ごとに定義される点像分布関数P(z)を保持する。点像分布関数は画面内で非一様な分布であるが、近隣画素との差分は必ずしも大きくないので、ある範囲内のブロックで点像分布関数を一様に近似することも可能である。なお、点像分布関数は、例えば特開2009−141742号公報に記載の方法により取得される。または、光学設計値の点像分布関数を用いてもよい。   The PSF table 210 holds a point spread function P (z) defined for each RGB component and each pixel. Although the point spread function is a non-uniform distribution in the screen, the difference from the neighboring pixels is not necessarily large, so that the point spread function can be uniformly approximated by a block within a certain range. Note that the point spread function is acquired by a method described in, for example, Japanese Patent Application Laid-Open No. 2009-141742. Alternatively, a point spread function of an optical design value may be used.

フィルタ処理部220A(第2のフィルタ処理部)は、ベイヤー配列の入力画像X(z)のG成分に対してエイリアジング成分を抑制するために、ローパスフィルタを用いて入力画像X(z)のG成分のフィルタリングを行う。ローパスフィルタのフィルタ特性をL(z)とすると、フィルタ処理部220Aによるフィルタリングは数式4のように表現される。 The filter processing unit 220A (second filter processing unit) uses a low-pass filter to reduce the aliasing component with respect to the G component of the Bayer-array input image X (z). Filter the G component. When the filter characteristic of the low-pass filter is L a (z), the filtering by the filter processing unit 220A is expressed as Equation 4.

Figure 2012142747
Figure 2012142747

縮小処理部230Aは、フィルタ処理部220Aによるフィルタリング後の低域の入力画像X(z)からデータを間引くことにより、入力画像X(z)を水平方向および垂直方向の各々に関して例えば1/2に縮小する。以下、図9および図10を参照し、このようなフィルタ処理部220Aおよび縮小処理部230Aによる処理例を具体的に説明する。 The reduction processing unit 230A thins out the data from the low-frequency input image X a (z) after filtering by the filter processing unit 220A, thereby reducing the input image X a (z) with respect to each of the horizontal direction and the vertical direction, for example 1 / Reduce to 2. Hereinafter, with reference to FIG. 9 and FIG. 10, an example of processing by the filter processing unit 220A and the reduction processing unit 230A will be specifically described.

図9および図10は、フィルタ処理部220Aおよび縮小処理部230Aによる処理例を示した説明図である。フィルタ処理部220Aおよび縮小処理部230Aは、水平方向および垂直方向の各々のG成分を順次に処理する。例えば、図9の上段に示したようにG成分の画素がベイヤー配列に従って分布していた場合を考える。この場合、フィルタ処理部220Aは、まず、水平方向に沿った例えば(1,3,3,3,1)のようなローパスフィルタを用いて入力画像のG成分(G1,1〜Gm,n)をフィルタリングする。 9 and 10 are explanatory diagrams showing an example of processing by the filter processing unit 220A and the reduction processing unit 230A. The filter processing unit 220A and the reduction processing unit 230A sequentially process each G component in the horizontal direction and the vertical direction. For example, consider the case where the G component pixels are distributed according to the Bayer array as shown in the upper part of FIG. In this case, the filter processing unit 220A first uses a low-pass filter such as ( 1 , 3, 3, 3, 1 ) along the horizontal direction to input the G component (G 1,1 to G m, n ).

フィルタ処理部220Aにより図9の中段に示したフィルタリング結果(g1,1〜gm,n)が得られると、縮小処理部230Aは、フィルタリング結果(g1,1〜gm,n)の各行からデータを間引く。これにより、図9の下段に示したように、水平方向幅が1/2に縮小された入力画像が得られる。 When the filtering result (g 1,1 to g m, n ) shown in the middle stage of FIG. 9 is obtained by the filter processing unit 220A, the reduction processing unit 230A displays the filtering result (g 1,1 to g m, n ). Thin out data from each row. As a result, as shown in the lower part of FIG. 9, an input image whose horizontal width is reduced to ½ is obtained.

フィルタ処理部220Aおよび縮小処理部230Aは、この水平方向幅が1/2に縮小された入力画像の垂直方向に対しても同様の処理を行う。例えば、フィルタ処理部220Aは、垂直方向に沿った例えば(1,3,3,3,1)のようなローパスフィルタを用い、水平方向幅が1/2に縮小された入力画像のG成分(g1,n-1〜gm,n-1)をフィルタリングする。 The filter processing unit 220A and the reduction processing unit 230A perform the same processing on the vertical direction of the input image whose horizontal width is reduced to ½. For example, the filter processing unit 220A uses a low-pass filter such as (1, 3, 3, 3, 1) along the vertical direction and uses the G component ( g1 , n-1 to gm , n-1 ) are filtered.

フィルタ処理部220Aにより図10の中段に示したフィルタリング結果(g’1,n-1〜g’m,n-1)が得られると、縮小処理部230Aは、フィルタリング結果(g’1,n-1〜g’m,n-1)の各列からデータを間引く。これにより、図10の下段に示したように、水平方向幅および垂直方向幅が1/2に縮小された入力画像が得られる。 When the filtering result (g ′ 1, n−1 to g ′ m, n−1 ) shown in the middle stage of FIG. 10 is obtained by the filter processing unit 220A, the reduction processing unit 230A receives the filtering result (g ′ 1, n -1 to g'm , n-1 ) data is thinned out from each column. As a result, as shown in the lower part of FIG. 10, an input image in which the horizontal width and the vertical width are reduced to ½ is obtained.

フィルタ処理部220B(第1のフィルタ処理部)は、数式5に示すように、点像分布関数P(z)を、フィルタ処理部220Aにおいて用いられるローパスフィルタL(z)、およびフィルタ処理部220Cにおいて用いられるローパスフィルタL(z)を用いてフィルタリングする。これにより、帯域制限された点像分布関数P(z)が得られる。 As shown in Formula 5, the filter processing unit 220B (first filter processing unit) uses the point spread function P (z), the low-pass filter L a (z) used in the filter processing unit 220A, and the filter processing unit. Filter using the low pass filter L b (z) used at 220C. As a result, a band-limited point spread function P a (z) is obtained.

Figure 2012142747
Figure 2012142747

縮小処理部230Bは、フィルタ処理部220Bにより得られた点像分布関数P(z)からデータを間引くことにより、点像分布関数P(z)を水平方向および垂直方向の各々に関して例えば1/2に縮小する。なお、フィルタ処理部220Bおよび縮小処理部230Bは、入力画像に関して図9および図10を参照して説明したように、水平方向および垂直方向の各々のG成分を順次に処理することにより点像分布関数P(z)を取得してもよい。 The reduction processing unit 230B thins out the data from the point spread function P a (z) obtained by the filter processing unit 220B, so that the point spread function P a (z) is, for example, 1 for each of the horizontal direction and the vertical direction. Reduce to / 2. Note that the filter processing unit 220B and the reduction processing unit 230B, as described with reference to FIG. 9 and FIG. 10 regarding the input image, sequentially process the respective G components in the horizontal direction and the vertical direction, thereby performing point image distribution. The function P a (z) may be acquired.

逆フィルタ設計部240は、縮小処理部230Bにより縮小された点像分布関数P(z)の逆特性を有する逆フィルタを設計する。具体的には、逆フィルタ設計部230は、以下の数式6に従って逆フィルタの周波数応答K(w)を算出し、逆フィルタの周波数応答K(ω)を逆フーリエ変換することにより逆フィルタK(z)を設計することができる。なお、数式6においてP(w)は縮小処理後の点像分布関数の周波数応答を示し、P (w)はP(w)の複素共役を示し、N(w)はノイズ成分の周波数応答を示す。また、逆フィルタは、厳密に点像分布関数P(z)の逆特性である必要はなく、点像分布関数P(z)による信号劣化の少なくとも一部を補償する補償フィルタであればよい。 The inverse filter design unit 240 designs an inverse filter having an inverse characteristic of the point spread function P a (z) reduced by the reduction processing unit 230B. Specifically, the inverse filter design unit 230 calculates the frequency response K a (w) of the inverse filter according to Equation 6 below, and performs inverse Fourier transform on the frequency response K a (ω) of the inverse filter, thereby performing the inverse filter. K a (z) can be designed. In Equation 6, P a (w) represents the frequency response of the point spread function after the reduction process, P * a (w) represents the complex conjugate of P a (w), and N (w) represents the noise component. The frequency response of is shown. The inverse filter is not strictly necessary that the inverse characteristics of the point spread function P a (z), if the compensation filter for compensating at least a portion of the signal degradation due to the point spread function P a (z) Good.

Figure 2012142747
Figure 2012142747

畳み込み部250は、数式7に示すように、縮小処理部230Aによる縮小処理後の入力画像Xag(z)に対して、逆フィルタ設計部240によりG成分向けに設計された逆フィルタKag(z)を畳み込む。 As shown in Equation 7, the convolution unit 250 applies an inverse filter K ag (designed for the G component by the inverse filter design unit 240 to the input image X ag (z) after the reduction processing by the reduction processing unit 230A. z) Convolve.

Figure 2012142747
Figure 2012142747

拡大処理部260は、畳み込み部250による畳み込み結果の水平方向および垂直方向にデータを挿入(例えば、0を補間)することにより、畳み込み結果を入力画像と同じ大きさの画像T(z)に拡大する。   The enlargement processing unit 260 expands the convolution result to an image T (z) having the same size as the input image by inserting data in the horizontal direction and the vertical direction of the convolution result by the convolution unit 250 (for example, interpolation of 0). To do.

フィルタ処理部220C(第3のフィルタ処理部)は、数式8に示すように、拡大処理部260による拡大後の画像T(z)を、イメージング成分を抑制するためにローパスフィルタL(z)を用いてフィルタリングする。これにより、G成分に関する出力画像O(z)が得られる。 The filter processing unit 220C (third filter processing unit) uses the low-pass filter L b (z) to suppress the imaging component of the image T (z) after the enlargement by the enlargement processing unit 260, as shown in Expression 8. Filter using. Thereby, an output image O g (z) relating to the G component is obtained.

Figure 2012142747
Figure 2012142747

ここで、図11および図12を参照し、拡大処理部260およびフィルタ処理部220Cによる処理例を具体的に説明する。   Here, with reference to FIG. 11 and FIG. 12, a processing example by the enlargement processing unit 260 and the filter processing unit 220C will be specifically described.

図11および図12は、拡大処理部260およびフィルタ処理部220Cによる処理例を示した説明図である。拡大処理部260およびフィルタ処理部220Cは、水平方向および垂直方向の各々のG成分を順次に処理する。例えば、畳み込み部250により図11の上段に示した畳み込み結果(G1,1〜Gm−1,n−1)が得られた場合、まず、拡大処理部260が畳み込み結果の各行に0を挿入する。これにより、水平方向幅が入力画像と同一である画像が得られる。 11 and 12 are explanatory diagrams showing an example of processing by the enlargement processing unit 260 and the filter processing unit 220C. The enlargement processing unit 260 and the filter processing unit 220C sequentially process each G component in the horizontal direction and the vertical direction. For example, when the convolution result (G 1,1 to G m−1, n−1 ) shown in the upper part of FIG. 11 is obtained by the convolution unit 250, first, the enlargement processing unit 260 sets 0 to each row of the convolution result. insert. As a result, an image having the same horizontal width as the input image is obtained.

拡大処理部260により図11の中段に示した拡大結果が得られると、フィルタ処理部220Cは、水平方向に沿った例えば(1,3,3,3,1)のようなローパスフィルタを用いて拡大結果をフィルタリングする。   When the enlargement processing unit 260 obtains the enlargement result shown in the middle of FIG. 11, the filter processing unit 220C uses a low-pass filter such as (1, 3, 3, 3, 1) along the horizontal direction. Filter the magnified result.

拡大処理部260およびフィルタ処理部220Cは、水平方向幅が入力画像と同一であり、垂直方向幅が入力画像の半分である図11の下段に示した画像に対しても同様の処理を行う。例えば、拡大処理部260は、図12の中段に示したように、画像の各列に0を挿入する。これにより、水平方向幅および垂直方向幅が入力画像と同一である画像が得られる。   The enlargement processing unit 260 and the filter processing unit 220C perform the same processing on the image shown in the lower part of FIG. 11 whose horizontal width is the same as that of the input image and whose vertical width is half that of the input image. For example, the enlargement processing unit 260 inserts 0 in each column of the image as shown in the middle part of FIG. Thereby, an image having the same horizontal width and vertical width as the input image is obtained.

フィルタ処理部220Cは、この画像を、垂直方向に沿った例えば(1,3,3,3,1)のようなローパスフィルタを用いてフィルタリングする。その結果、図12の下段に示したようにG’1,1〜G’m,nが得られる。このうち、図12の下段において色を付して示したベイヤー配列に従ったG成分値がG成分の出力画像として出力される。 The filter processing unit 220C filters this image using a low-pass filter such as (1, 3, 3, 3, 1) along the vertical direction. As a result, G ′ 1,1 to G ′ m, n are obtained as shown in the lower part of FIG. Among these, the G component value according to the Bayer arrangement shown with colors in the lower part of FIG. 12 is output as an output image of the G component.

[3−2.第1の実施形態による動作]
以上、本発明の第1の実施形態による信号処理部20−1の構成を説明した。続いて、図13を参照し、本発明の第1の実施形態による動作を説明する。
[3-2. Operation according to first embodiment]
The configuration of the signal processing unit 20-1 according to the first embodiment of the present invention has been described above. Next, the operation according to the first embodiment of the present invention will be described with reference to FIG.

図13は、本発明の第1の実施形態による動作を示したフローチャートである。図13に示したように、まず、フィルタ処理部220Bが、点像分布関数P(z)を、フィルタ処理部220Aにおいて用いられるローパスフィルタL(z)、およびフィルタ処理部220Cにおいて用いられるローパスフィルタL(z)を用いてフィルタリングする(S300)。 FIG. 13 is a flowchart showing an operation according to the first embodiment of the present invention. As shown in FIG. 13, first, the filter processing unit 220B uses the point spread function P (z) as the low-pass filter L a (z) used in the filter processing unit 220A and the low-pass used in the filter processing unit 220C. Filtering is performed using the filter L b (z) (S300).

そして、縮小処理部230Bが、フィルタ処理部220Bにより得られた点像分布関数P(z)からデータを間引くことにより、点像分布関数P(z)を水平方向および垂直方向の各々に関して例えば1/2に縮小する(S310)。さらに、逆フィルタ設計部240が、縮小処理部230Bにより縮小された点像分布関数P(z)の逆特性を有する逆フィルタK(z)を設計する(S320)。 The reduction processing unit 230B is, by thinning out data from the point obtained by the filter processing unit 220B spread function P a (z), for each of the horizontal and vertical point spread function P a (z) For example, it is reduced to 1/2 (S310). Furthermore, the inverse filter design unit 240 designs an inverse filter K a (z) having an inverse characteristic of the point spread function P a (z) reduced by the reduction processing unit 230B (S320).

一方、フィルタ処理部220Aは、ベイヤー配列の入力画像X(z)のG成分に対してエイリアジング成分を抑制するために、ローパスフィルタを用いて入力画像X(z)のG成分のフィルタリングを行う(S330)。縮小処理部230Aは、フィルタ処理部220Aによるフィルタリング後の低域の入力画像X(z)からデータを間引くことにより、入力画像X(z)を水平方向および垂直方向の各々に関して例えば1/2に縮小する(S340)。 On the other hand, the filter processing unit 220A filters the G component of the input image X (z) using a low-pass filter in order to suppress the aliasing component with respect to the G component of the input image X (z) in the Bayer array. (S330). The reduction processing unit 230A thins out the data from the low-frequency input image X a (z) after filtering by the filter processing unit 220A, thereby reducing the input image X a (z) with respect to each of the horizontal direction and the vertical direction, for example 1 / It is reduced to 2 (S340).

続いて、畳み込み部250は、縮小処理部230Aによる縮小処理後の入力画像Xag(z)に対して、逆フィルタ設計部240によりG成分向けに設計された逆フィルタKag(z)を畳み込む(S350)。 Subsequently, the convolution unit 250 convolves the inverse filter K ag (z) designed for the G component by the inverse filter design unit 240 with respect to the input image X ag (z) after the reduction processing by the reduction processing unit 230A. (S350).

その後、拡大処理部260は、畳み込み部250による畳み込み結果の水平方向および垂直方向にデータを挿入(例えば、0を補間)することにより、畳み込み結果を入力画像と同じ大きさの画像T(z)に拡大する(S360)。さらに、フィルタ処理部220Cが、拡大処理部260による拡大後の画像T(z)を、イメージング成分を抑制するためにローパスフィルタL(z)を用いてフィルタリングする(S370)。これにより、G成分に関する出力画像O(z)が得られる。 Thereafter, the enlargement processing unit 260 inserts data in the horizontal direction and the vertical direction of the convolution result by the convolution unit 250 (for example, interpolates 0), whereby the convolution result is an image T (z) having the same size as the input image. (S360). Further, the filter processing unit 220C filters the image T (z) that has been enlarged by the enlargement processing unit 260 using the low-pass filter L b (z) in order to suppress the imaging component (S370). Thereby, an output image O g (z) relating to the G component is obtained.

以上説明したように、本発明の第1の実施形態によれば、縮小処理部230Aにより縮小された入力画像に対して畳み込みが行われるので、畳み込み部250における演算負荷を抑制することが可能である。なお、上記では水平方向幅および垂直方向幅の各々を1/2に縮小する例を説明したが、本実施形態はかかる例に限定されない。例えば、水平方向幅または垂直方向幅のいずれかのみを縮小してもよいし、水平方向幅および垂直方向幅を異なる割合で縮小してもよいし、縮小幅を1/2よりもさらに小さくしてもよい。   As described above, according to the first embodiment of the present invention, since the input image reduced by the reduction processing unit 230A is convolved, it is possible to suppress the calculation load in the convolution unit 250. is there. In the above description, the example in which each of the horizontal width and the vertical width is reduced to ½ has been described. However, the present embodiment is not limited to such an example. For example, only the horizontal width or the vertical width may be reduced, the horizontal width and the vertical width may be reduced at different ratios, or the reduction width may be made smaller than 1/2. May be.

<4.本発明の第2の実施形態>
以上、本発明の第1の実施形態を説明した。続いて、図14〜図19を参照し、本発明の第2の実施形態を説明する。
<4. Second embodiment of the present invention>
The first embodiment of the present invention has been described above. Subsequently, a second embodiment of the present invention will be described with reference to FIGS.

[4−1.第2の実施形態による信号処理部の構成]
図14は、本発明の第2の実施形態による信号処理部20−2の構成を示した機能ブロック図である。図14に示したように、第2の実施形態による信号処理部20−2は、PSFテーブル210と、フィルタ処理部220A、220Bおよび220Cと、縮小処理部230Aおよび230Bと、逆フィルタ設計部240’と、畳み込み部250と、拡大処理部260と、調整部270と、加算部280と、を有する。
[4-1. Configuration of Signal Processing Unit According to Second Embodiment]
FIG. 14 is a functional block diagram showing the configuration of the signal processing unit 20-2 according to the second embodiment of the present invention. As shown in FIG. 14, the signal processing unit 20-2 according to the second embodiment includes a PSF table 210, filter processing units 220A, 220B, and 220C, reduction processing units 230A and 230B, and an inverse filter design unit 240. ', A convolution unit 250, an enlargement processing unit 260, an adjustment unit 270, and an addition unit 280.

なお、PSFテーブル210、フィルタ処理部220Aおよび220B、縮小処理部230Aおよび230Bについては、第1の実施形態で説明したので、詳細な説明を省略する。   Since the PSF table 210, the filter processing units 220A and 220B, and the reduction processing units 230A and 230B have been described in the first embodiment, a detailed description thereof will be omitted.

逆フィルタ設計部240’は、縮小処理部230Bにより縮小された点像分布関数P(z)の逆特性を有する逆フィルタを設計する。具体的には、逆フィルタ設計部240’は、以下の数式9に従って逆フィルタの周波数応答K(w)を算出し、逆フィルタの周波数応答K(ω)を逆フーリエ変換することにより逆フィルタK(z)を設計することができる。なお、数式9においてP(w)は縮小処理後の点像分布関数の周波数応答を示し、P (w)はP(w)の複素共役を示し、N(w)はノイズ成分の周波数応答を示す。 The inverse filter design unit 240 ′ designs an inverse filter having an inverse characteristic of the point spread function P a (z) reduced by the reduction processing unit 230B. Specifically, the inverse filter design unit 240 ′ calculates the inverse filter frequency response K a (w) according to the following Equation 9 and performs inverse Fourier transform on the inverse filter frequency response K a (ω). A filter K a (z) can be designed. In Equation 9, P a (w) represents the frequency response of the point spread function after the reduction process, P * a (w) represents the complex conjugate of P a (w), and N (w) represents the noise component. The frequency response of is shown.

Figure 2012142747
Figure 2012142747

畳み込み部250は、数式10に示すように、縮小処理部230Aによる縮小処理後の入力画像Xag(z)に対して、逆フィルタ設計部240によりG成分向けに設計された逆フィルタKag(z)を畳み込む。 As shown in Equation 10, the convolution unit 250 applies an inverse filter K ag (designed for the G component by the inverse filter design unit 240 to the input image X ag (z) after the reduction processing by the reduction processing unit 230A. z) Convolve.

Figure 2012142747
Figure 2012142747

調整部270は、畳み込み部250によるある対象画素の畳み込み結果Y(z)を、対象画素付近のエッジ情報に基づいて調整する。具体的には、調整部270は、まず数式11に示す対象画素付近のエッジ情報Diffを算出する。数式11における画素A、B、C、およびDの対象画素Pに対する位置は図15に示した通りである。 The adjustment unit 270 adjusts the convolution result Y a (z) of a certain target pixel by the convolution unit 250 based on edge information in the vicinity of the target pixel. Specifically, the adjustment unit 270 first calculates edge information Diff in the vicinity of the target pixel shown in Expression 11. The positions of the pixels A, B, C, and D in Expression 11 with respect to the target pixel P are as shown in FIG.

Figure 2012142747
Figure 2012142747

なお、調整部250は、入力画像における対象画素付近のエッジ情報Diffを算出してもよいし、畳み込み部250による畳み込み結果における対象画素付近のエッジ情報Diffを算出してもよいし、縮小処理部230Aによる縮小処理後の入力画像における対象画素付近のエッジ情報Diffを算出してもよい。   Note that the adjustment unit 250 may calculate edge information Diff near the target pixel in the input image, may calculate edge information Diff near the target pixel in the convolution result by the convolution unit 250, or may be a reduction processing unit. The edge information Diff near the target pixel in the input image after the reduction processing by 230A may be calculated.

そして、調整部270は、エッジ情報Diffに応じてゲインGを算出する。例えば、調整部270は、エッジ情報DiffとゲインGの図16に示した関係に従ってゲインGを算出してもよい。図16に示した関係によれば、エッジ情報Diffが閾値以下である場合はゲインGとして1.00を算出され、エッジ情報Diffが閾値以上になるとゲインGが段階的に減少する。   Then, the adjustment unit 270 calculates the gain G according to the edge information Diff. For example, the adjustment unit 270 may calculate the gain G according to the relationship illustrated in FIG. 16 between the edge information Diff and the gain G. According to the relationship shown in FIG. 16, when the edge information Diff is less than or equal to the threshold, 1.00 is calculated as the gain G, and when the edge information Diff becomes greater than or equal to the threshold, the gain G decreases stepwise.

さらに、調整部270は、数式12に示すように、畳み込み部250による畳み込み結果Y(z)を、算出したゲインGに従って調整する。 Further, the adjustment unit 270 adjusts the convolution result Y a (z) by the convolution unit 250 according to the calculated gain G, as shown in Expression 12.

Figure 2012142747
Figure 2012142747

拡大処理部260は、調整部270による調整後の畳み込み結果の水平方向および垂直方向にデータを挿入(例えば、0を補間)することにより、畳み込み結果を入力画像と同じ大きさの画像T(z)に拡大する。   The enlargement processing unit 260 inserts data in the horizontal direction and the vertical direction of the convolution result adjusted by the adjustment unit 270 (for example, interpolates 0), thereby converting the convolution result into an image T (z having the same size as the input image. ).

フィルタ処理部220Cは、数式13に示すように、拡大処理部260による拡大後の画像T(z)を、イメージング成分を抑制するためにローパスフィルタL(z)を用いてフィルタリングする。これにより、G成分に関する加算用画像Z(z)が得られる。 The filter processing unit 220C filters the image T (z) enlarged by the enlargement processing unit 260 using a low-pass filter L b (z) in order to suppress the imaging component, as shown in Expression 13. Thereby, the addition image Z b (z) regarding the G component is obtained.

Figure 2012142747
Figure 2012142747

加算部280は、数式14に示すように、フィルタ処理部220Cによるフィルタリング結果である加算用画像Z(z)を入力画像X(z)に加算する。これにより、G成分に関する出力画像O(z)が得られる。 As shown in Formula 14, the adding unit 280 adds the addition image Z b (z), which is the filtering result by the filter processing unit 220C, to the input image X (z). Thereby, an output image O g (z) relating to the G component is obtained.

Figure 2012142747
Figure 2012142747

[4−2.第2の実施形態による動作]
以上、本発明の第2の実施形態による信号処理部20−2の構成を説明した。続いて、図17を参照し、本発明の第2の実施形態による動作を説明する。
[4-2. Operation according to the second embodiment]
The configuration of the signal processing unit 20-2 according to the second embodiment of the present invention has been described above. Subsequently, an operation according to the second embodiment of the present invention will be described with reference to FIG.

図17は、本発明の第2の実施形態による動作を示したフローチャートである。図16に示したように、フィルタ処理部220Bが、点像分布関数P(z)を、フィルタ処理部220Aにおいて用いられるローパスフィルタL(z)、およびフィルタ処理部220Cにおいて用いられるローパスフィルタL(z)を用いてフィルタリングする(S300)。 FIG. 17 is a flowchart showing an operation according to the second embodiment of the present invention. As shown in FIG. 16, the filter processing unit 220B converts the point spread function P (z) into the low-pass filter L a (z) used in the filter processing unit 220A and the low-pass filter L used in the filter processing unit 220C. Filtering is performed using b (z) (S300).

そして、縮小処理部230Bが、フィルタ処理部220Bにより得られた点像分布関数P(z)からデータを間引くことにより、点像分布関数P(z)を水平方向および垂直方向の各々に関して例えば1/2に縮小する(S310)。さらに、逆フィルタ設計部240が、縮小処理部230Bにより縮小された点像分布関数P(z)の逆特性を有する逆フィルタK(z)を設計する(S320)。 The reduction processing unit 230B is, by thinning out data from the point obtained by the filter processing unit 220B spread function P a (z), for each of the horizontal and vertical point spread function P a (z) For example, it is reduced to 1/2 (S310). Furthermore, the inverse filter design unit 240 designs an inverse filter K a (z) having an inverse characteristic of the point spread function P a (z) reduced by the reduction processing unit 230B (S320).

一方、フィルタ処理部220Aは、ベイヤー配列の入力画像X(z)のG成分に対してエイリアジング成分を抑制するために、ローパスフィルタを用いて入力画像X(z)のG成分のフィルタリングを行う(S330)。縮小処理部230Aは、フィルタ処理部220Aによるフィルタリング後の低域の入力画像X(z)からデータを間引くことにより、入力画像X(z)を水平方向および垂直方向の各々に関して例えば1/2に縮小する(S340)。 On the other hand, the filter processing unit 220A filters the G component of the input image X (z) using a low-pass filter in order to suppress the aliasing component with respect to the G component of the input image X (z) in the Bayer array. (S330). The reduction processing unit 230A thins out the data from the low-frequency input image X a (z) after filtering by the filter processing unit 220A, thereby reducing the input image X a (z) with respect to each of the horizontal direction and the vertical direction, for example 1 / It is reduced to 2 (S340).

続いて、畳み込み部250は、縮小処理部230Aによる縮小処理後の入力画像Xag(z)に対して、逆フィルタ設計部240によりG成分向けに設計された逆フィルタKag(z)を畳み込む(S350)。 Subsequently, the convolution unit 250 convolves the inverse filter K ag (z) designed for the G component by the inverse filter design unit 240 with respect to the input image X ag (z) after the reduction processing by the reduction processing unit 230A. (S350).

そして、調整部270は、畳み込み部250によるある対象画素の畳み込み結果Y(z)を、対象画素付近のエッジ情報に基づいて調整する(S360)。その後、拡大処理部260は、調整部270による調整後の畳み込み結果の水平方向および垂直方向にデータを挿入(例えば、0を補間)することにより、畳み込み結果を入力画像と同じ大きさの画像T(z)に拡大する(S370)。 Then, the adjustment unit 270 adjusts the convolution result Y a (z) of a certain target pixel by the convolution unit 250 based on the edge information near the target pixel (S360). Thereafter, the enlargement processing unit 260 inserts data in the horizontal direction and the vertical direction of the convolution result adjusted by the adjustment unit 270 (for example, interpolates 0), so that the convolution result is an image T having the same size as the input image. The image is enlarged to (z) (S370).

さらに、フィルタ処理部220Cが、拡大処理部260による拡大後の画像T(z)を、イメージング成分を抑制するためにローパスフィルタL(z)を用いてフィルタリングする(S380)。その後、加算部280が、フィルタ処理部220Cによるフィルタリング結果である加算用画像Z(z)を入力画像X(z)に加算する。これにより、G成分に関する出力画像O(z)が得られる。 Further, the filter processing unit 220C filters the image T (z) that has been enlarged by the enlargement processing unit 260 using the low-pass filter L b (z) in order to suppress the imaging component (S380). Thereafter, the addition unit 280 adds the addition image Z b (z), which is the filtering result by the filter processing unit 220C, to the input image X (z). Thereby, an output image O g (z) relating to the G component is obtained.

ここで、図18および図19を参照し、本発明の第2の実施形態による効果を説明する。   Here, with reference to FIG. 18 and FIG. 19, the effect by the 2nd Embodiment of this invention is demonstrated.

図19は、図18に示した入力画像の復元結果の2次元周波数応答のY軸の断面を示した説明図である。図19に示したように、本発明の第2の実施形態によれば、0.4程度までの低域を十分に復元することが可能である。また、本発明の第2の実施形態によれば、図19に示したように、各色とも0.4程度から落ちているので色つきの問題は解消され、かつ、高域は−10dB以上落とされるので高域のノイズ成分は増幅されない。また、調整部270によるエッジ情報に基づく調整により、白黒のエッジ部分に起きる画素が黒色に沈む現象も改善することが可能である。   FIG. 19 is an explanatory diagram showing a Y-axis cross section of the two-dimensional frequency response of the restoration result of the input image shown in FIG. As shown in FIG. 19, according to the second embodiment of the present invention, it is possible to sufficiently restore the low frequency up to about 0.4. Further, according to the second embodiment of the present invention, as shown in FIG. 19, since each color falls from about 0.4, the problem of coloring is solved, and the high frequency is lowered by -10 dB or more. Therefore, the high frequency noise component is not amplified. In addition, by the adjustment based on the edge information by the adjustment unit 270, it is possible to improve the phenomenon that the pixels that occur at the black and white edge portion sink into black.

<5.まとめ>
以上説明したように、本発明の実施形態によれば、縮小処理部230Aにより縮小された入力画像に対して畳み込みが行われるので、畳み込み部250における演算負荷を抑制することが可能である。また、本発明の実施形態によれば、高域のノイズ成分の増幅を回避しつつ、0.4程度までの低域を十分に復元することが可能である。
<5. Summary>
As described above, according to the embodiment of the present invention, since the convolution is performed on the input image reduced by the reduction processing unit 230A, it is possible to suppress the calculation load in the convolution unit 250. Further, according to the embodiment of the present invention, it is possible to sufficiently restore a low frequency up to about 0.4 while avoiding amplification of a high frequency noise component.

なお、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。   Although the preferred embodiments of the present invention have been described in detail with reference to the accompanying drawings, the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.

例えば、上記では点像分布関数が畳み込まれた入力画像を補償する画像処理装置を説明したが、本発明はかかる例に限定されない。点像分布関数はインパルス応答の一例に過ぎず、入力画像はデータ信号の一例に過ぎず、画像処理装置はインパルス応答が畳み込まれたデータ信号を補償する信号処理装置の一例に過ぎない。本発明は、インパルス応答が畳み込まれたデータ信号を補償する信号処理装置全般に適用可能である。   For example, the image processing apparatus that compensates the input image in which the point spread function is convoluted has been described above, but the present invention is not limited to such an example. A point spread function is only an example of an impulse response, an input image is only an example of a data signal, and an image processing device is only an example of a signal processing device that compensates for a data signal in which the impulse response is convoluted. The present invention is applicable to all signal processing apparatuses that compensate for a data signal in which an impulse response is convoluted.

また、本明細書の信号処理部20の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、信号処理部20の処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。   Further, each step in the processing of the signal processing unit 20 of the present specification does not necessarily have to be processed in time series in the order described as a flowchart. For example, each step in the processing of the signal processing unit 20 may be processed in an order different from the order described as the flowchart, or may be processed in parallel.

また、画像処理装置1に内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した信号処理部20の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。   In addition, a computer program for causing hardware such as a CPU, a ROM, and a RAM built in the image processing apparatus 1 to perform the same functions as the components of the signal processing unit 20 described above can be created. A storage medium storing the computer program is also provided.

1 画像処理装置
10 撮像光学系
20 信号処理部
210 PSFテーブル
220 フィルタ処理部
230 縮小処理部
240、240’ 逆フィルタ設計部
250 畳み込み部
260 拡大処理部
270 調整部
280 加算部
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 10 Imaging optical system 20 Signal processing part 210 PSF table 220 Filter processing part 230 Reduction processing part 240,240 'Inverse filter design part 250 Convolution part 260 Enlargement processing part 270 Adjustment part 280 Addition part

Claims (10)

データ信号からデータを間引く第1の処理部と;
第2の処理部によりデータが間引かれたインパルス応答による信号劣化を補償する補償フィルタを前記第1の処理部による処理後のデータ信号に畳み込む畳み込み部と;
前記畳み込み部による畳み込み結果を補間する補間処理部と;
を備える、信号処理装置。
A first processing unit for thinning data from the data signal;
A convolution unit that convolves a compensation filter that compensates for signal degradation due to an impulse response with data thinned out by the second processing unit into the data signal processed by the first processing unit;
An interpolation processing unit for interpolating a convolution result by the convolution unit;
A signal processing apparatus comprising:
前記第1の処理部は、第1のフィルタ処理部によるフィルタリング後の前記データ信号からデータを間引き、
前記第2の処理部は、第2のフィルタ処理部によるフィルタリング後のインパルス応答からデータを間引き、
前記信号処理装置は、
前記補間処理部による補間結果をフィルタリングする第3のフィルタ処理部をさらに備える、請求項1に記載の信号処理装置。
The first processing unit thins data from the data signal after filtering by the first filter processing unit,
The second processing unit thins data from the impulse response after filtering by the second filter processing unit,
The signal processing device includes:
The signal processing apparatus according to claim 1, further comprising a third filter processing unit that filters an interpolation result obtained by the interpolation processing unit.
前記第2のフィルタ処理部は、前記第1のフィルタ処理部で用いられるフィルタ、および前記第3のフィルタ処理部で用いられるフィルタを用いてフィルタリングを行う、請求項2に記載の信号処理装置。   The signal processing apparatus according to claim 2, wherein the second filter processing unit performs filtering using a filter used in the first filter processing unit and a filter used in the third filter processing unit. 前記信号処理装置は、
前記第3のフィルタ処理部によるフィルタリング結果を前記データ信号に加算する加算部をさらに備える、請求項1に記載の信号処理装置。
The signal processing device includes:
The signal processing apparatus according to claim 1, further comprising an addition unit that adds a filtering result obtained by the third filter processing unit to the data signal.
前記データ信号は画像信号であり、
前記信号処理装置は、
前記畳み込み部によるある領域に関する畳み込み結果を、前記領域のエッジ情報に基づいて調整する調整部をさらに備え、
前記補間部は、前記調整部による調整後の畳み込み結果を補間する、請求項4に記載の信号処理装置。
The data signal is an image signal;
The signal processing device includes:
An adjustment unit that adjusts a convolution result related to a certain region by the convolution unit based on edge information of the region;
The signal processing apparatus according to claim 4, wherein the interpolation unit interpolates a convolution result after adjustment by the adjustment unit.
前記調整部は、前記エッジ情報に基づき、前記領域のエッジ成分が弱いほどゲインが高くなるように前記領域に関する畳み込み結果を調整する、請求項5に記載の信号処理装置。   The signal processing apparatus according to claim 5, wherein the adjustment unit adjusts a convolution result related to the region based on the edge information so that the gain becomes higher as the edge component of the region is weaker. 前記調整部は、前記データ信号における前記領域のエッジ情報、前記畳み込み結果における前記領域のエッジ情報、または、前記第1の処理部による処理後のデータ信号における前記領域のエッジ情報に基づいて前記領域に関する畳み込み結果を調整する、請求項6に記載の信号処理装置。   The adjustment unit is configured to generate the region based on the edge information of the region in the data signal, the edge information of the region in the convolution result, or the edge information of the region in the data signal processed by the first processing unit. The signal processing apparatus according to claim 6, wherein the convolution result is adjusted. 前記データ信号は、撮像光学系により撮像されたベイヤー配列型の入力画像であり、
前記インパルス応答は前記撮像光学系の点像分布関数であり、
前記第2の処理部はG成分の点像分布関数からデータを間引き、
前記第1の処理部はG成分の入力画像からデータを間引き、
他の成分に対しては前記第1の処理部および前記第2の処理部によらない処理を行う、請求項7に記載の信号処理装置。
The data signal is a Bayer array type input image captured by an imaging optical system,
The impulse response is a point spread function of the imaging optical system,
The second processing unit thins data from the point spread function of the G component,
The first processing unit thins data from an input image of G component,
The signal processing apparatus according to claim 7, wherein processing other than the first processing unit and the second processing unit is performed on the other components.
データ信号から第1の処理部によりデータを間引くステップと;
第2の処理部によりデータが間引かれたインパルス応答による信号劣化を補償する補償フィルタを前記第1の処理部による処理後のデータ信号に畳み込むステップと;
畳み込み結果を補間するステップと;
を含む、信号処理方法。
Thinning out data from the data signal by the first processing unit;
Convolving a compensation filter that compensates for signal degradation due to an impulse response with data thinned out by the second processing unit into the data signal processed by the first processing unit;
Interpolating the convolution results;
Including a signal processing method.
コンピュータを、
データ信号からデータを間引く第1の処理部と;
第2の処理部によりデータが間引かれたインパルス応答による信号劣化を補償する補償フィルタを前記第1の処理部による処理後のデータ信号に畳み込む畳み込み部と;
前記畳み込み部による畳み込み結果を補間する補間処理部と;
として機能させるための、プログラム。
Computer
A first processing unit for thinning data from the data signal;
A convolution unit that convolves a compensation filter that compensates for signal degradation due to an impulse response with data thinned out by the second processing unit into the data signal processed by the first processing unit;
An interpolation processing unit for interpolating a convolution result by the convolution unit;
Program to function as
JP2010293308A 2010-12-28 2010-12-28 Signal processing apparatus, signal processing method, and program Withdrawn JP2012142747A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010293308A JP2012142747A (en) 2010-12-28 2010-12-28 Signal processing apparatus, signal processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010293308A JP2012142747A (en) 2010-12-28 2010-12-28 Signal processing apparatus, signal processing method, and program

Publications (1)

Publication Number Publication Date
JP2012142747A true JP2012142747A (en) 2012-07-26

Family

ID=46678596

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010293308A Withdrawn JP2012142747A (en) 2010-12-28 2010-12-28 Signal processing apparatus, signal processing method, and program

Country Status (1)

Country Link
JP (1) JP2012142747A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014203326A (en) * 2013-04-08 2014-10-27 任天堂株式会社 Image processing program, image processing device, image processing system, and image processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014203326A (en) * 2013-04-08 2014-10-27 任天堂株式会社 Image processing program, image processing device, image processing system, and image processing method

Similar Documents

Publication Publication Date Title
US9167216B2 (en) Image processing apparatus, image capture apparatus and image processing method
JP4942216B2 (en) Image processing method, image processing apparatus, imaging apparatus, and program
JP5677040B2 (en) Image processing apparatus and control method thereof
JP5128207B2 (en) Image processing apparatus, image processing method, and image processing program
WO2016018653A1 (en) Sensor data rescaler for image signal processing
JP2011123589A (en) Image processing method and apparatus, image capturing apparatus, and image processing program
KR20110029001A (en) Image porcessing method and apparatus in the bayer image
US8238685B2 (en) Image noise reduction method and image processing apparatus using the same
JP5344648B2 (en) Image processing method, image processing apparatus, imaging apparatus, and image processing program
JP5693743B2 (en) Image processing apparatus, image processing method, imaging apparatus, computer program, and recording medium
JP2010141663A (en) Imaging device
JP2014115790A (en) Image processor, information processing method and program
JP2013055623A (en) Image processing apparatus, image processing method, information recording medium, and program
JP2012141725A (en) Signal processor, signal processing method, and program
JP2009021756A (en) Noise rejection circuit, noise rejection method, imaging apparatus, and program
JP5268321B2 (en) Image processing apparatus, image processing method, and image processing program
US8629917B2 (en) Image processing apparatus, method, and recording medium
CN107979715B (en) Image pickup apparatus
JP2012142747A (en) Signal processing apparatus, signal processing method, and program
JP2010098663A (en) Imaging apparatus
JP4329485B2 (en) Image signal processing apparatus and image signal processing method
JP7183015B2 (en) Image processing device, image processing method, and program
JP4385748B2 (en) Image signal processing apparatus and image signal processing method
JP6090193B2 (en) Motion detection processing device, image processing device, imaging device, and motion detection processing method
JP2011114537A (en) Image processing apparatus

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140304