JP2013150123A - Image processor, control method, program, and storage medium - Google Patents

Image processor, control method, program, and storage medium Download PDF

Info

Publication number
JP2013150123A
JP2013150123A JP2012008445A JP2012008445A JP2013150123A JP 2013150123 A JP2013150123 A JP 2013150123A JP 2012008445 A JP2012008445 A JP 2012008445A JP 2012008445 A JP2012008445 A JP 2012008445A JP 2013150123 A JP2013150123 A JP 2013150123A
Authority
JP
Japan
Prior art keywords
image
signal
pixel
component
interpolation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012008445A
Other languages
Japanese (ja)
Inventor
Takashi Sasaki
貴志 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012008445A priority Critical patent/JP2013150123A/en
Publication of JP2013150123A publication Critical patent/JP2013150123A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Input (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate an image improved in feeling of resolution, by using plural image signals obtained from an imaging device in which respective color components are arranged with a predetermined rule.SOLUTION: An image processor acquires plural image signals arranged in a Bayer array, generates one luminance signal and a color difference signal of an R component and a B component, and generates a development image. In generation of the luminance signal at this time, the image processor sets one image signal among the image signals as a reference image, and extracts a signal of a G component with respect to the reference image. With respect to each of missing pixels included in the signal of the G component, a pixel value calculated by adaptive interpolation from the peripheral pixels of the missing pixel and a pixel value of the nearest pixel which minimizes an image deviation amount from the missing pixel, the pixel value having been extracted from the image signals other than the image signal of the reference signal among the image signals undergo weighted addition to calculate the pixel value of the missing pixel.

Description

本発明は、画像処理装置、その制御方法、プログラム、及び記憶媒体に関し、特に撮像素子から出力された複数の画像信号を用いて、解像感の高い現像画像を生成する技術に関する。   The present invention relates to an image processing apparatus, a control method therefor, a program, and a storage medium, and more particularly to a technique for generating a developed image with a high resolution using a plurality of image signals output from an image sensor.

近年、デジタルカメラやデジタルビデオカメラ等の撮像装置に用いられている撮像素子は、多画素化傾向にある。このような画素数の多い撮像素子を有する撮像装置により撮像された静止画像や動画像(以下、単に画像)を表示するために、テレビ受像機等の表示装置では、画像を表示する表示領域の画素数も増加傾向にある。   In recent years, image pickup elements used in image pickup apparatuses such as digital cameras and digital video cameras have a tendency to increase the number of pixels. In order to display a still image or a moving image (hereinafter simply referred to as an image) picked up by an image pickup device having such an image pickup device having a large number of pixels, a display device such as a television receiver has a display area for displaying an image. The number of pixels is also increasing.

しかしながら、表示領域の画素数が増加した表示装置に従前の画素数の少ない画像を全面表示する場合、表示領域の画素数に合わせて該画像を引き伸ばすことで画像が粗くなった印象をユーザに与えてしまう。このため、画素数の少ない画像の解像感を低下させることなく画素数の多い画像に変換する、様々な画像処理方法が提案されている。   However, when displaying an image with a small number of pixels in accordance with a display device having an increased number of pixels in the display area, the image is roughened by stretching the image according to the number of pixels in the display area. End up. For this reason, various image processing methods have been proposed in which an image with a small number of pixels is converted into an image with a large number of pixels without reducing the resolution.

提案されている画像処理方法の1つに、所謂「超解像処理」と呼ばれる方法がある。該方法は、例えば動画像における連続するフレームや連写撮影された画像等、関連性の高い複数の画像を使用して、解像感を向上させた画像を生成することができる。具体的には該方法は、図16に示すように、画素数増加の基準となる基準画像の画素(図の□)に対して、○で示された画素(新規画素)を他の画像(参照画像)を参照して内挿する処理を行う。一般的に新規画素の内挿時には、参照画像の画素のうち、該新規画素に対応する位置の周辺に存在する複数の周辺画素の画素値を使用した、バイ・リニア法等の線形補間法によって新規画素は生成される。   One of the proposed image processing methods is a method called “super-resolution processing”. This method can generate an image with improved resolution by using a plurality of highly related images such as continuous frames in a moving image or images continuously shot. Specifically, as shown in FIG. 16, in this method, a pixel (new pixel) indicated by a circle is replaced with another image ( Interpolation processing is performed with reference to the reference image. In general, when interpolating a new pixel, a linear interpolation method such as a bi-linear method using pixel values of a plurality of peripheral pixels existing around a position corresponding to the new pixel among the pixels of the reference image. A new pixel is generated.

しかしながら、内挿時に複数の画素値を使用した補間により新規画素を生成する方法は、画素値の平均化処理を伴う。即ち、画素値の平均化を行うことにより画像がスムージングされるため、生成される画像はエッジ強度が弱まった画像となることがあった。   However, the method of generating new pixels by interpolation using a plurality of pixel values at the time of interpolation involves pixel value averaging processing. That is, since the image is smoothed by averaging the pixel values, the generated image may be an image with reduced edge strength.

これに対し、新規画素に対して参照画像の画素そのものを割り当てることにより、平均化処理によるエッジ強度の低下を軽減する方法もある。特許文献1には、参照画像において新規画素に対応する位置と、該位置に最も近い画素との距離に応じて、新規画素に該最も近い画素を割り当てるか、基準画像の他の画素から新規画素を生成する適応補間を行うかを切り替える超解像処理が開示されている。   On the other hand, there is also a method of reducing the decrease in edge strength due to the averaging process by assigning the reference image pixel itself to the new pixel. According to Patent Document 1, the closest pixel is assigned to a new pixel according to the distance between the position corresponding to the new pixel in the reference image and the pixel closest to the position, or a new pixel from another pixel of the reference image A super-resolution process for switching whether to perform adaptive interpolation for generating the image is disclosed.

特開2000−188680号公報JP 2000-188680 A

しかしながら、特許文献1の超解像処理は、既に現像された複数の画像から、1つの解像感を向上させた画像を生成する方法であって、現像処理において解像感を向上させるものではなかった。即ち、撮像素子から複数回の撮像により出力された画像信号を使用し、現像処理において解像感を向上させた画像を生成する技術は、これまで開示されていなかった。また、ベイヤー配列のような各色成分が所定の規則をもって配されているような撮像素子での超解像技術に関しては開示されていなかった。   However, the super-resolution processing of Patent Document 1 is a method of generating one image with improved resolution from a plurality of already developed images, and does not improve the resolution in the development processing. There wasn't. That is, no technology has been disclosed so far that uses an image signal output from an imaging device by imaging a plurality of times and generates an image with improved resolution in development processing. Further, there has been no disclosure regarding a super-resolution technique in an image sensor in which each color component such as a Bayer array is arranged with a predetermined rule.

本発明は、上述の問題点に鑑みてなされたものであり、各色成分が所定の規則をもって配される撮像素子から得られる複数の画像信号を使用して、解像感を向上させた画像を生成すること目的とする。   The present invention has been made in view of the above-mentioned problems, and an image with improved resolution is obtained by using a plurality of image signals obtained from an image sensor in which each color component is arranged with a predetermined rule. The purpose is to generate.

前述の目的を達成するために、本発明の画像処理装置は、以下の構成を備える。
ベイヤー配列を有する複数の画像信号を取得する取得手段と、取得手段により取得された複数の画像信号から、1つの輝度信号を生成する輝度信号生成手段であって、複数の画像信号のうち、1つの画像信号を基準画像として設定する設定手段と、設定手段により設定された基準画像について、G成分の信号を抽出する抽出手段と、抽出手段により抽出されたG成分の信号について、画素値のない欠落画素を補間する補間手段と、を有する輝度信号生成手段と、取得手段により取得された複数の画像信号から、R成分及びB成分の色差信号を生成する色差信号生成手段と、を有し、補間手段は、G成分の信号における欠落画素の各々について、欠落画素の周辺画素から適応補間により算出した画素値と、複数の画像信号のうち基準画像を除く画像信号に含まれる画素であって、欠落画素との像ずれ量が最も小さい近傍画素の画素値とを加重加算することにより欠落画素の画素値を算出し、輝度信号生成手段は、補間手段により欠落画素が補間されたG成分の信号と、線形補間により欠落画素が補間された基準画像のR成分及びB成分の信号とから輝度信号を生成することを特徴とする。
In order to achieve the above object, an image processing apparatus of the present invention comprises the following arrangement.
An acquisition unit that acquires a plurality of image signals having a Bayer array, and a luminance signal generation unit that generates one luminance signal from the plurality of image signals acquired by the acquisition unit. Setting means for setting one image signal as a reference image, an extracting means for extracting a G component signal for the reference image set by the setting means, and no signal for the G component signal extracted by the extracting means Interpolating means for interpolating missing pixels, and luminance signal generating means, and color difference signal generating means for generating R component and B component color difference signals from a plurality of image signals acquired by the acquiring means, The interpolation means excludes the pixel value calculated by adaptive interpolation from the peripheral pixels of the missing pixel and the reference image among the plurality of image signals for each of the missing pixels in the G component signal. The pixel value of the missing pixel is calculated by weighted addition with the pixel value of a neighboring pixel that is the pixel included in the image signal and has the smallest image shift amount from the missing pixel. A luminance signal is generated from the G component signal in which the missing pixel is interpolated and the R component and B component signals of the reference image in which the missing pixel is interpolated by linear interpolation.

このような構成により本発明によれば、各色成分が所定の規則をもって配される撮像素子から得られる複数の画像信号を使用して、解像感を向上させた画像を生成することが可能となる。   With such a configuration, according to the present invention, it is possible to generate an image with improved resolution using a plurality of image signals obtained from an image sensor in which each color component is arranged with a predetermined rule. Become.

本発明の実施形態に係るデジタルカメラ100の機能構成を示したブロック図。1 is a block diagram showing a functional configuration of a digital camera 100 according to an embodiment of the present invention. 本発明の実施形態に係る画像処理部107の機能構成を示したブロック図。The block diagram which showed the function structure of the image process part 107 which concerns on embodiment of this invention. 本発明の実施形態に係る適応補間を説明するための図。The figure for demonstrating the adaptive interpolation which concerns on embodiment of this invention. 本発明の実施形態に係る近傍画素を説明するための図。The figure for demonstrating the neighboring pixel which concerns on embodiment of this invention. 本発明の実施形態1に係る加重加算係数を説明するための図。The figure for demonstrating the weighted addition coefficient which concerns on Embodiment 1 of this invention. 本発明の実施形態に係る線形補間を説明するための図。The figure for demonstrating the linear interpolation which concerns on embodiment of this invention. 本発明の実施形態に係る複数の画像信号の露出時間を説明するための図。The figure for demonstrating the exposure time of the several image signal which concerns on embodiment of this invention. 本発明の実施形態に係るベイヤー配列を示した図。The figure which showed the Bayer arrangement | sequence which concerns on embodiment of this invention. 本発明の実施形態に係る輝度信号生成処理を例示したフローチャート。The flowchart which illustrated the luminance signal generation processing concerning the embodiment of the present invention. 本発明の実施形態に係る色差信号生成処理を例示したフローチャート。5 is a flowchart illustrating color difference signal generation processing according to the embodiment of the invention. 本発明の実施形態2に係る生成方法決定処理を例示したフローチャート。The flowchart which illustrated the production | generation method determination process which concerns on Embodiment 2 of this invention. 本発明の実施形態2に係るノイズ低減用輝度信号生成処理を例示したフローチャート。The flowchart which illustrated the luminance signal generation process for noise reduction which concerns on Embodiment 2 of this invention. 本発明の実施形態2に係る加重加算係数を説明するための図。The figure for demonstrating the weighted addition coefficient which concerns on Embodiment 2 of this invention. 本発明の変形例に係るアオリ現象を説明するための図。The figure for demonstrating the tilt phenomenon which concerns on the modification of this invention. 本発明の変形例に係る生成方法決定処理を例示したフローチャート。The flowchart which illustrated the production | generation method determination process which concerns on the modification of this invention. 従来の超解像処理を説明するための図。The figure for demonstrating the conventional super-resolution process.

[実施形態1]
以下、本発明の例示的な実施形態について、図面を参照して詳細に説明する。なお、以下に説明する一実施形態は、画像処理装置の一例としての、ベイヤー配列を有する撮像素子を有し、現像処理時に複数の画像信号を使用して、1つの現像画像を生成可能なデジタルカメラに、本発明を適用した例を説明する。しかし、本発明は、ベイヤー配列を有する複数の画像信号を使用して、1つの現像画像を生成することが可能な任意の機器に適用可能である。また、本明細書において、「画像信号」とは、現像処理が適用される前の、各画素がベイヤー配列のR、G1、G2、及びBのいずれかの画素値を有する信号群であるものとする。
[Embodiment 1]
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In addition, one embodiment described below includes an image pickup device having a Bayer array as an example of an image processing apparatus, and can generate a single developed image using a plurality of image signals at the time of development processing. An example in which the present invention is applied to a camera will be described. However, the present invention is applicable to any apparatus that can generate a single developed image using a plurality of image signals having a Bayer array. Further, in this specification, the “image signal” is a signal group in which each pixel has a pixel value of any of R, G1, G2, and B in the Bayer array before the development processing is applied. And

<デジタルカメラ100の構成>
図1は、本発明の実施形態に係るデジタルカメラ100の機能構成を示すブロック図である。
<Configuration of Digital Camera 100>
FIG. 1 is a block diagram showing a functional configuration of a digital camera 100 according to an embodiment of the present invention.

制御部101は、例えばCPUであり、デジタルカメラ100が有する各ブロックの動作を制御する。具体的には制御部101は、例えばROM102より後述する輝度信号生成処理あるいは色差信号生成処理の動作プログラムを読み出し、RAM103に展開して実行することにより、各ブロックの動作を制御する。   The control unit 101 is a CPU, for example, and controls the operation of each block included in the digital camera 100. Specifically, the control unit 101 controls the operation of each block by reading out an operation program for luminance signal generation processing or color difference signal generation processing, which will be described later, from the ROM 102, for example, and expanding and executing it in the RAM 103.

ROM102は、例えば書き換え可能な不揮発性メモリであり、輝度信号生成処理及び色差信号生成処理の動作プログラムに加え、デジタルカメラ100で行われる他の処理の動作プログラムを記憶する。またROM102は、デジタルカメラ100で行われる動作プログラムに加え、デジタルカメラ100が有する各ブロックの動作において必要となるパラメータ等の情報を記憶する。   The ROM 102 is, for example, a rewritable nonvolatile memory, and stores operation programs for other processes performed by the digital camera 100 in addition to operation programs for luminance signal generation processing and color difference signal generation processing. The ROM 102 stores information such as parameters necessary for the operation of each block of the digital camera 100 in addition to the operation program executed by the digital camera 100.

RAM103は、揮発性メモリであり、デジタルカメラ100が有する各ブロックの動作プログラムの展開領域としてだけでなく、各ブロックの動作において出力された中間データ等を記憶する格納領域としても用いられる。   The RAM 103 is a volatile memory and is used not only as a development area for the operation program of each block of the digital camera 100 but also as a storage area for storing intermediate data output in the operation of each block.

撮像部105は、例えばCCDやCMOSセンサ等の、ベイヤー配列を有する撮像素子である。また、本実施形態ではベイヤー配列を用いた撮像素子の例を示しているが、これに限らず、各色成分の画素が所定の規則をもって配される撮像素子において本発明は適用できる。撮像部105は、撮像光学系104を介して受光部に結像された光学像を光電変換し、アナログ画像信号をA/D変換部106に出力する。   The imaging unit 105 is an imaging element having a Bayer array, such as a CCD or a CMOS sensor. In this embodiment, an example of an image sensor using a Bayer array is shown. However, the present invention is not limited to this, and the present invention can be applied to an image sensor in which pixels of each color component are arranged with a predetermined rule. The imaging unit 105 photoelectrically converts an optical image formed on the light receiving unit via the imaging optical system 104 and outputs an analog image signal to the A / D conversion unit 106.

A/D変換部106は、入力されたアナログ画像信号に対してA/D変換処理を適用し、デジタル画像信号(以下、単に画像信号)を画像処理部107に出力する。画像信号は、撮像素子と同数の画素についての画素値を示す情報であり、上述したように各画素はR、G1、G2、及びBのいずれかの画素値を有する。   The A / D conversion unit 106 applies A / D conversion processing to the input analog image signal, and outputs a digital image signal (hereinafter simply referred to as an image signal) to the image processing unit 107. The image signal is information indicating pixel values for the same number of pixels as the image sensor, and each pixel has any one of R, G1, G2, and B as described above.

表示部108は、例えば小型LCD等のデジタルカメラ100が有する表示装置である。表示部108は、撮像部105により撮像された画像や記録媒体109に記録された画像の表示に用いられる。   The display unit 108 is a display device included in the digital camera 100 such as a small LCD. The display unit 108 is used to display an image captured by the imaging unit 105 and an image recorded on the recording medium 109.

記録媒体109は、例えばデジタルカメラ100の内蔵メモリや、デジタルカメラ100に着脱可能に接続されるメモリカードやHDD等の記録装置である。記録媒体109は、撮像部105により撮像され、後述する画像処理部107による現像処理によって出力された記録用の画像が記録される。   The recording medium 109 is, for example, a recording device such as a built-in memory of the digital camera 100 or a memory card or HDD that is detachably connected to the digital camera 100. The recording medium 109 is imaged by the imaging unit 105 and records an image for recording output by a development process by an image processing unit 107 described later.

操作入力部110は、例えば電源ボタンやレリーズボタン等の、デジタルカメラ100が有するユーザ入力インタフェースである。操作入力部110は、ユーザによりインタフェースが操作されたことを検出すると、該操作に対応する制御信号を制御部101に伝送する。   The operation input unit 110 is a user input interface of the digital camera 100 such as a power button or a release button. When the operation input unit 110 detects that the user has operated the interface, the operation input unit 110 transmits a control signal corresponding to the operation to the control unit 101.

画像処理部107は、入力されたベイヤー配列を有する複数の画像信号から、解像感を向上させた、最終的な現像画像の輝度信号及び色差信号を生成する。ここで、本実施形態の画像処理部107の構成について、図2を用いて詳細を説明する。   The image processing unit 107 generates a final developed image luminance signal and color difference signal with improved resolution from a plurality of input image signals having the Bayer array. Here, the configuration of the image processing unit 107 of the present embodiment will be described in detail with reference to FIG.

(画像処理部107の構成)
図示されるように、画像処理部107は画像メモリ120、輝度信号生成部130、及び色差信号生成部140で構成される。即ち、本実施形態の画像処理部107は、入力された複数の画像信号から、1つの現像画像の輝度信号と色差信号とをそれぞれ別々に生成し、出力する。
(Configuration of the image processing unit 107)
As illustrated, the image processing unit 107 includes an image memory 120, a luminance signal generation unit 130, and a color difference signal generation unit 140. That is, the image processing unit 107 of the present embodiment separately generates and outputs a luminance signal and a color difference signal of one developed image from a plurality of input image signals.

画像メモリ120は、画像処理部107が有する画像処理用の揮発性メモリである。画像処理部107に入力された複数の画像信号は、画像メモリ120に格納された後、後述する画像処理部107の各ブロックで実行される処理のために読み出される。なお、画像メモリ120に記憶される情報は、入力された画像信号に限らず、画像処理部107の各ブロックで処理が適用された画像信号等が記憶されてよい。   The image memory 120 is a volatile memory for image processing that the image processing unit 107 has. A plurality of image signals input to the image processing unit 107 are stored in the image memory 120 and then read out for processing executed in each block of the image processing unit 107 described later. Note that the information stored in the image memory 120 is not limited to the input image signal, and an image signal or the like to which processing is applied in each block of the image processing unit 107 may be stored.

◇輝度信号生成部130◇
輝度信号生成部130は、適応補間部131、近傍画素抽出部132、加重加算係数決定部133、加重加算部134、及び輝度信号変換部135で構成される。
Luminance signal generator 130 ◇
The luminance signal generation unit 130 includes an adaptive interpolation unit 131, a neighboring pixel extraction unit 132, a weighted addition coefficient determination unit 133, a weighted addition unit 134, and a luminance signal conversion unit 135.

適応補間部131は、入力された複数の画像信号のうち、基準画像として選択された画像信号のG成分(G1及びG2)のみを抽出した画像信号に対し、欠落画素のにあたる画素位置の画素値Gadapt(補間信号)を適応補間により生成する(色成分信号生成)。 The adaptive interpolation unit 131 extracts a pixel value corresponding to a missing pixel from an image signal obtained by extracting only the G component (G1 and G2) of the image signal selected as the reference image from among the plurality of input image signals. G adapt (interpolation signal) is generated by adaptive interpolation (color component signal generation).

なお、適応補間部131で行われる適応補間はエッジ方向を判断して行われる。例えば図3に示すように欠落画素と該欠落画素に隣接するG成分の画素(周辺画素)が配置されている場合、欠落画素におけるエッジ方向は、隣接する画素の水平方向及び垂直方向の勾配(ΔH及びΔV)により決定される。具体的には各方向の勾配は
ΔH=|G10−G12|
ΔV=|G01−G21|
であり、エッジ方向は該勾配差により判断され、欠落画素の画素値はGadaptは次のようになる。
Note that the adaptive interpolation performed by the adaptive interpolation unit 131 is performed by determining the edge direction. For example, as shown in FIG. 3, when a missing pixel and a G component pixel (peripheral pixel) adjacent to the missing pixel are arranged, the edge direction of the missing pixel is a gradient in the horizontal direction and the vertical direction of the adjacent pixel ( ΔH and ΔV). Specifically, the gradient in each direction is ΔH = | G10−G12 |
ΔV = | G01−G21 |
The edge direction is determined based on the gradient difference, and the pixel value of the missing pixel is G adapt as follows.

i)ΔH−ΔV>閾値の場合は、エッジ方向は水平方向であると判断し、
adapt=(G01+G21)/2
ii)ΔV−ΔH>閾値の場合は、エッジ方向は垂直方向であると判断し、
adapt=(G10+G12)/2
iii)その他の場合は、エッジではないと判断し、
adapt=(G01+G10+G12+G21)/4
として、適応補間部131は欠落画素の画素値を生成する。なお、適応補間の方法はこれに限られるものでなく、エッジ方向に応じて画素値の生成方法を異ならせるものであればよい。
i) If ΔH−ΔV> threshold, it is determined that the edge direction is the horizontal direction,
G adapt = (G01 + G21) / 2
ii) If ΔV−ΔH> threshold, determine that the edge direction is the vertical direction;
G adapt = (G10 + G12) / 2
iii) In other cases, determine that it is not an edge,
G adapt = (G01 + G10 + G12 + G21) / 4
As described above, the adaptive interpolation unit 131 generates pixel values of missing pixels. Note that the adaptive interpolation method is not limited to this, and any method may be used as long as the pixel value generation method varies depending on the edge direction.

近傍画素抽出部132は、基準画像のG成分の欠落画素であった各画素、即ち適応補間部131における適応補間により生成された各適応補間画素について、その近傍に位置する基準画像以外の画像のG成分の画素を抽出する。本実施形態では、相対的な位置ずれ量が最も小さいG成分の画素(最近傍画素)を、基準画像以外の画像信号(参照画像)に含まれるG成分の画素から抽出する。これに限らず、位置ずれ量の小さい画像を複数選択し、各適応補間画素近傍のG成分の画素を抽出するなどしてもよい。   The neighboring pixel extraction unit 132 extracts, for each pixel that is a missing pixel of the G component of the reference image, that is, each adaptive interpolation pixel generated by adaptive interpolation in the adaptive interpolation unit 131, an image other than the reference image located in the vicinity thereof. G component pixels are extracted. In the present embodiment, the G component pixel (nearest neighbor pixel) having the smallest relative positional deviation amount is extracted from the G component pixels included in the image signal (reference image) other than the standard image. However, the present invention is not limited to this, and it is also possible to select a plurality of images having a small positional deviation amount and to extract G component pixels in the vicinity of each adaptive interpolation pixel.

具体的には近傍画素抽出部132は、1つの参照画像のG成分について、基準画像のG成分との像ずれをなくす方向に移動させ、基準画像及び参照画像のG成分の画像信号を位置合わせする。即ち、近傍画素抽出部132は、例えばパターンマッチング処理や画像信号撮影時の加速度変化量に基づいて信号間の像ずれ量を把握し、該像ずれ量に応じて2つの画像信号の位置合わせを行う。このとき、いずれの像ずれ量検出方法及び位置合わせ方法を以てしても、サブピクセル単位で正確に位置合わせを行うことは困難である。すなわち、位置合わせ後の基準画像と基準画像以外の各参照画像でも、サブピクセル単位のずれが生じていることが考えられる。このことを利用して本実施形態では、位置合わせ後に近傍画素抽出部132が、図4に示すように、参照画像において基準画像のG成分の各適応補間画素の位置に最も近い画素を特定し、該画素と適応補間画素との相対的な位置ずれ量dをサブピクセル単位で取得する。近傍画素抽出部132は、このような処理を全ての参照画像に対して行い、最終的に適応補間画素について相対的な位置ずれ量が最も小さい最近傍画素を示す情報と、該画素と対応する適応補間画素との距離dとを取得する。   Specifically, the neighboring pixel extraction unit 132 moves the G component of one reference image in a direction that eliminates the image shift from the G component of the reference image, and aligns the image signals of the G component of the reference image and the reference image. To do. That is, the neighboring pixel extraction unit 132 grasps an image shift amount between signals based on, for example, a pattern matching process or an acceleration change amount at the time of image signal shooting, and aligns two image signals according to the image shift amount. Do. At this time, it is difficult to perform accurate alignment in units of subpixels by any image shift amount detection method and alignment method. That is, it is conceivable that a deviation in sub-pixel units also occurs in the reference image after alignment and each reference image other than the reference image. In this embodiment using this, the neighboring pixel extraction unit 132 specifies the pixel closest to the position of each adaptive interpolation pixel of the G component of the reference image in the reference image as shown in FIG. 4 after alignment. The relative positional deviation amount d between the pixel and the adaptive interpolation pixel is acquired in units of subpixels. The neighboring pixel extraction unit 132 performs such processing on all the reference images, and finally corresponds to the information indicating the nearest pixel having the smallest relative displacement amount with respect to the adaptive interpolation pixel and the pixel. A distance d from the adaptive interpolation pixel is acquired.

加重加算係数決定部133は、基準画像のG成分の各適応補間画素について、適応補間画素の画素値Gadaptと近傍画素抽出部132により抽出された最近傍画素の画素値Grefとを、加重加算部134で加重加算する際の加重加算係数r(比率)を算出する。加重加算係数rは、本実施形態では例えば図5のように2種類の閾値(th1及びth2)を設けて、挙動が変化する値として定義する。図示されるように、加重加算係数r(<0)は、
i)0≦d≦th1
r=1
ii)th1<d<th2)
r=1−(d−th1)/(th2−th1)
iii)th2≦d
r=0
となり、加重加算部134は、加重加算後の画素値Gmixを、算出された加重加算係数rを用いて、
mix=Gadapt×(1−r)+Gref×r
として算出する。このGmixが、新しいGの色成分の信号となり、輝度信号生成に用いられることとなる。
For each adaptive interpolation pixel of the G component of the reference image, the weighted addition coefficient determination unit 133 weights the pixel value G adapt of the adaptive interpolation pixel and the pixel value G ref of the nearest pixel extracted by the neighboring pixel extraction unit 132. A weighted addition coefficient r (ratio) for weighted addition by the adding unit 134 is calculated. In this embodiment, the weighted addition coefficient r is defined as a value at which the behavior changes by providing two types of threshold values (th1 and th2) as shown in FIG. As shown, the weighted addition coefficient r (<0) is
i) 0 ≦ d ≦ th1
r = 1
ii) th1 <d <th2)
r = 1- (d-th1) / (th2-th1)
iii) th2 ≦ d
r = 0
The weighted addition unit 134 uses the calculated weighted addition coefficient r to calculate the pixel value G mix after the weighted addition,
G mix = G adapt × (1-r) + G ref × r
Calculate as This G mix becomes a signal of a new G color component and is used for generating a luminance signal.

なお、加重加算係数rの算出方法はこれに限られるものではなく、加重加算する2つの画素の相対的な位置ずれ量dに応じて変化する係数であればよい。具体的には加重加算係数決定部133は、近傍画素について、位置ずれ量dが欠落画素の対応画素とみなしてもよいと定めた閾値以下である場合に、適応補間画素の画素値を近傍画素の画素値で置換する加重加算係数を決定するものであればよい。   Note that the method of calculating the weighted addition coefficient r is not limited to this, and any coefficient that changes in accordance with the relative positional deviation amount d between the two pixels to be weighted and added may be used. Specifically, the weighted addition coefficient determination unit 133 sets the pixel value of the adaptive interpolation pixel to the neighboring pixel when the positional deviation amount d is equal to or less than a threshold value that can be regarded as the corresponding pixel of the missing pixel. What is necessary is just to determine the weighted addition coefficient to be replaced with the pixel value.

輝度信号変換部135は、加重加算部134における加重加算処理後の基準画像のG成分の画像信号と、基準画像のR成分及びB成分の画像信号とから、基準画像と同一の画素数を有する輝度信号を生成する。   The luminance signal conversion unit 135 has the same number of pixels as the reference image from the G component image signal of the reference image after the weighted addition processing in the weighted addition unit 134 and the R component and B component image signals of the reference image. A luminance signal is generated.

具体的には輝度信号変換部135は、基準画像のR成分及びB成分の画像信号の各々について、線形補間を行うことにより各画像信号の欠落画素の情報を補間する。具体的にはR成分の信号に対しての線形補間では、図6に示されるようなR成分の4画素について、欠落画素であるRlinear(01)、(10)、(11)、(12)、及び(21)は、以下のように生成される。 Specifically, the luminance signal conversion unit 135 interpolates information on missing pixels of each image signal by performing linear interpolation on each of the R component and B component image signals of the reference image. Specifically, in the linear interpolation for the R component signal, R linear (01), (10), (11), (12) that are missing pixels for the four R component pixels as shown in FIG. ) And (21) are generated as follows.

1.まず欠落画素に画素値0を割り当てる
2.垂直方向に(1 2 1)/2で表されるフィルタを適用し、Rlinear(10)及
び(12)の画素値を生成
3.水平方向に(1 2 1)/2で表されるフィルタを適用する
1. First, the pixel value 0 is assigned to the missing pixel. 2. Apply a filter represented by (1 2 1) / 2 in the vertical direction to generate pixel values of R linear (10) and (12). Apply a filter represented by (1 2 1) / 2 in the horizontal direction

そして輝度信号変換部135は、基準画像の各画素について、G成分、R成分、及びB成分の画素値を以下の式に従って加算することにより、輝度信号Yを生成して出力する。
Y=(3R+6G+B)/10 ・・・ (式1)
Then, the luminance signal conversion unit 135 generates and outputs a luminance signal Y by adding the pixel values of the G component, the R component, and the B component according to the following formula for each pixel of the reference image.
Y = (3R + 6G + B) / 10 (Formula 1)

なお、上記式1では、画像処理部107に入力された画像信号の全ては、適正露出で撮像されている場合の、輝度信号の生成に係る式を示している。しかしながら、制御部101が決定した適正露光時間を、例えば図7に示すような1回の撮像時間が手ぶれの影響を受けにくい時間になるように分割してn回の時分割撮像を行う場合は、上記式1をn倍すればよい。   Note that, in the above formula 1, all the image signals input to the image processing unit 107 are formulas related to generation of a luminance signal in the case where the image is captured with appropriate exposure. However, when the appropriate exposure time determined by the control unit 101 is divided so that, for example, one imaging time as shown in FIG. The above equation 1 may be multiplied by n.

また、本実施形態の輝度信号生成部130は、基準画像のG成分の画像信号に対しては、近傍画素の抽出処理や適応補間処理を実行して欠落画素の補間を行い、R成分及びB成分の画像信号に対しては、線形補間を実行して欠落画素の補間を行なっている。これは、以下の理由によるものである。   In addition, the luminance signal generation unit 130 of the present embodiment performs neighboring pixel extraction processing and adaptive interpolation processing on the G component image signal of the reference image to interpolate missing pixels, and thereby perform R component and B For the component image signal, linear interpolation is performed to perform missing pixel interpolation. This is due to the following reason.

1.ベイヤー配列の色分布
基準画像のR成分及びB成分の信号についても、G成分の信号と同様に、全ての欠落画素に対して近傍画素の抽出処理や適応補間処理を実行することは、原理上は可能である。しかしながら、ベイヤー配列においては先にも図8を用いて示したように、2×2の画素のうち、半分をG成分、1/4をR成分あるいはB成分が占有している。つまり、基準画像のG成分の画像信号における欠落画素の数を基準とすると、R成分及びB成分の画像信号における欠落画素の数は3倍になる。即ち、近傍画素の抽出に係る処理は3倍の処理負荷を有することになるため、画像処理部107のコスト上昇につながり、現実的ではない場合が考えられる。また適応補間処理は、周囲の画素のエッジ方向を判断して処理を分けることで、エッジ強度の低減が回避可能であるが、2×2の画素において1つの画素しか参照できない場合、エッジ方向の判断が不正確となる可能性があり、好適な補間が行えない可能性がある。
1. As for the R component and B component signals of the color distribution reference image of the Bayer array , as in the case of the G component signal, it is theoretically possible to execute the neighboring pixel extraction processing and adaptive interpolation processing for all missing pixels. Is possible. However, in the Bayer array, as described above with reference to FIG. 8, half of the 2 × 2 pixels are occupied by the G component and 1/4 by the R component or B component. That is, when the number of missing pixels in the G component image signal of the reference image is used as a reference, the number of missing pixels in the R component and B component image signals is tripled. In other words, the processing related to the extraction of neighboring pixels has a processing load three times that, which leads to an increase in the cost of the image processing unit 107 and is not realistic. In addition, adaptive interpolation processing can avoid edge strength reduction by determining the edge direction of surrounding pixels and dividing the processing, but if only one pixel can be referred to in 2 × 2 pixels, The judgment may be inaccurate, and there is a possibility that suitable interpolation cannot be performed.

2.輝度信号への寄与率
一般に、輝度信号の再現率が高い場合、画像の解像感が向上することが知られている。即ち、輝度信号の生成において、ベイヤー配列の1つの画像信号からの補間処理により輝度信号を生成する場合よりも、本明細書で説明するように複数の画像信号を用いて再現度の高い輝度信号を生成する場合の方が、画像の解像感を向上させることができる。輝度信号については、上述した式1で示されるようにG成分の寄与率が最も高く、R成分及びB成分はその半分以下の寄与率となっている。即ち、輝度成分への寄与率が高いG成分の欠落画素の補間に対して、近傍画素の抽出及び適応補間処理を実行して再現性を高めることで、最終的に得られる輝度信号も再現性を高くすることができる。
2. In general, it is known that the resolution of an image is improved when the luminance signal reproduction rate is high. That is, in the generation of a luminance signal, a luminance signal having a higher reproducibility using a plurality of image signals as described in this specification than when a luminance signal is generated by interpolation processing from one image signal in a Bayer array. In the case of generating the image, the resolution of the image can be improved. As for the luminance signal, the contribution ratio of the G component is the highest as shown in the above-described equation 1, and the contribution ratio of the R component and the B component is less than half of that. In other words, with respect to the interpolation of missing pixels of the G component, which has a high contribution rate to the luminance component, the reproducibility is improved by executing the neighboring pixel extraction and adaptive interpolation processing, so that the luminance signal finally obtained is also reproducible. Can be high.

上述した理由によって、本実施形態ではより好ましい形態としてG成分の画像信号に対しては、近傍画素の抽出処理や適応補間処理を実行して欠落画素の補間を行い、R成分及びB成分の画像信号に対しては、線形補間を実行して欠落画素の補間を行なっている。しかし、これに限らず、R成分、B成分に対してもG成分と同様に、本実施形態における近傍画素の抽出処理や適応補間処理、加重加算処理を実行して欠落画素の補間を行って、それらの信号から輝度信号を生成してもよい。   For the reason described above, in the present embodiment, as a more preferable form, for the G component image signal, the neighboring pixel extraction processing or adaptive interpolation processing is executed to perform the missing pixel interpolation, and the R component and B component images are processed. For the signal, linear interpolation is performed to interpolate missing pixels. However, the present invention is not limited to this, and for the R component and B component as well as the G component, the neighboring pixel extraction processing, adaptive interpolation processing, and weighted addition processing in this embodiment are executed to perform missing pixel interpolation. The luminance signal may be generated from these signals.

◇色差信号生成部140◇
一方、色差信号生成部140は、線形補間部141、色差用近傍画素抽出部142、色差用加重加算係数決定部143、色差用加重加算部144、偽色判断部145、及び色差信号変換部146で構成される。
◇ Color difference signal generator 140 ◇
On the other hand, the color difference signal generation unit 140 includes a linear interpolation unit 141, a color difference neighboring pixel extraction unit 142, a color difference weighted addition coefficient determination unit 143, a color difference weighted addition unit 144, a false color determination unit 145, and a color difference signal conversion unit 146. Consists of.

線形補間部141は、基準画像のR成分、G1成分、G2成分、及びB成分のそれぞれの信号について、線形補間処理を実行し、欠陥画素を補間した各成分の信号を出力する(同時化処理)。なお、色差信号の生成においては輝度信号の生成とは異なり、G1及びG2を分離し、それぞれ別々に補間処理を行う。これは、撮像素子がベイヤー配列であることに起因する偽色の発生を抑制するためである。   The linear interpolation unit 141 performs linear interpolation processing on each of the R component, G1 component, G2 component, and B component signals of the reference image, and outputs a signal of each component obtained by interpolating the defective pixel (synchronization processing). ). In the generation of the color difference signal, unlike the generation of the luminance signal, G1 and G2 are separated and interpolation processing is performed separately. This is to suppress the generation of false colors due to the Bayer arrangement of the image sensor.

色差用近傍画素抽出部142、色差用加重加算係数決定部143、及び色差用加重加算部144は、線形補間部141において線形補間がなされた基準画像のG1成分及びG2成分の信号の各々について、近傍画素抽出部132、加重加算係数決定部133、及び加重加算部134と同様の処理を行うため、各ブロックの説明は省略する。なお、色差用近傍画素抽出部142、色差用加重加算係数決定部143、及び色差用加重加算部144で行われる処理は、適応補間画素ではなく、線形補間画素を対象として行われることは言うまでもない。   The color difference neighboring pixel extraction unit 142, the color difference weighted addition coefficient determination unit 143, and the color difference weighted addition coefficient unit 144, for each of the signals of the G1 component and G2 component of the reference image subjected to linear interpolation in the linear interpolation unit 141, Since the same processing as the neighboring pixel extraction unit 132, the weighted addition coefficient determination unit 133, and the weighted addition unit 134 is performed, description of each block is omitted. Needless to say, the processing performed by the color difference neighboring pixel extraction unit 142, the color difference weighted addition coefficient determination unit 143, and the color difference weighted addition unit 144 is performed not on the adaptive interpolation pixel but on the linear interpolation pixel. .

偽色判断部145は、色差信号を生成するに当たり、色差信号の各画素において偽色の発生を抑制する画素値の算出方法を、従前の方法を用いて決定する。偽色発生の抑制方法は、例えば特開2002−300590号公報に示されるような、水平方向と垂直方向のG成分の相関度から、エッジ方向を判断して色差信号の画素値を算出する方法であってもよい。また偽色発生の抑制方法は、特開平08−023541号公報に示されるようなG1及びG2のそれぞれと、R及びBの画素値の差分に応じた重み付け係数によって加重加算を行なって算出する方法であってもよい。   When generating the color difference signal, the false color determination unit 145 determines a pixel value calculation method for suppressing generation of a false color in each pixel of the color difference signal using a conventional method. A false color generation suppression method is a method of calculating a pixel value of a color difference signal by determining an edge direction from a correlation degree between G components in a horizontal direction and a vertical direction as disclosed in, for example, Japanese Patent Application Laid-Open No. 2002-300590. It may be. In addition, a false color generation suppression method is a method of calculating by performing weighted addition using each of G1 and G2 and a weighting coefficient corresponding to the difference between R and B pixel values as disclosed in JP-A-08-023541 It may be.

色差信号変換部146は、線形補間部141により生成された4種類の画像信号から、R成分及びB成分についての、二種類の色差信号の生成(R−G、B−G)を行う。このとき、色差信号変換部146は、偽色判断部145において決定された偽色の発生を抑制する算出式で、色差信号の各画素の画素値を算出するものとする。   The color difference signal conversion unit 146 generates two types of color difference signals (RG and BG) for the R component and the B component from the four types of image signals generated by the linear interpolation unit 141. At this time, the color difference signal conversion unit 146 calculates the pixel value of each pixel of the color difference signal with a calculation formula that suppresses the generation of the false color determined by the false color determination unit 145.

なお、本実施形態では画像処理部107は、上記の構成であるものとして説明するが、この他に現像処理や表示処理等の、他の画像処理を行うブロックを含んでいてもよいことは容易に理解されよう。   In the present embodiment, the image processing unit 107 is described as having the above-described configuration, but it is easy to include blocks that perform other image processing such as development processing and display processing. Will be understood.

また、本実施形態ではハードウェアとしてデジタルカメラ100が備える各ブロックにおいて処理が実現されるものとして説明するが、本発明の実施はこれに限らず、各ブロックの処理は該各ブロックと同様の処理を行うプログラムで実現されてもよい。   In the present embodiment, description will be made assuming that processing is realized in each block included in the digital camera 100 as hardware. However, the present invention is not limited to this, and processing of each block is the same processing as that of each block. It may be realized by a program that performs.

<輝度信号生成処理>
このような構成をもつ本実施形態のデジタルカメラ100の輝度信号生成処理について、図9のフローチャートを用いて具体的な処理を説明する。該フローチャートに対応する処理は、制御部101が、例えばROM102に記憶されている対応する処理プログラムを読み出し、RAM103に展開して実行することにより実現することができる。なお、本輝度信号生成処理は、例えばユーザによる撮影指示を受けて撮像部105が複数回の撮像を行い、得られたベイヤー配列を有するn枚の画像信号がA/D変換部106から出力された際に開始されるものとして説明する。
<Luminance signal generation processing>
Specific processing of the luminance signal generation processing of the digital camera 100 of the present embodiment having such a configuration will be described with reference to the flowchart of FIG. The processing corresponding to the flowchart can be realized by the control unit 101 reading out a corresponding processing program stored in, for example, the ROM 102, developing it in the RAM 103, and executing it. In this luminance signal generation process, for example, the imaging unit 105 performs imaging a plurality of times in response to a shooting instruction from the user, and n image signals having the obtained Bayer array are output from the A / D conversion unit 106. It will be described as starting at the time.

S901で、制御部101は、A/D変換部106から出力された、ベイヤー配列を有するn枚の画像信号を画像処理部107に入力し、画像メモリ120に記憶させる。   In step S <b> 901, the control unit 101 inputs n image signals having a Bayer array output from the A / D conversion unit 106 to the image processing unit 107 and stores them in the image memory 120.

S902で、画像処理部107は制御部101の制御のもと、n枚の画像信号のうちの1つの画像信号を基準画像として設定する。そして画像処理部107は、基準画像として設定した画像信号のG成分の信号を抽出して、適応補間部131に入力する。   In step S <b> 902, the image processing unit 107 sets one image signal of n image signals as a reference image under the control of the control unit 101. Then, the image processing unit 107 extracts a G component signal of the image signal set as the reference image and inputs the signal to the adaptive interpolation unit 131.

S903で、画像処理部107は制御部101の制御のもと、基準画像のG成分の信号について適応補間部131に欠落画素の適応補間処理を実行させ、適応補間画素を生成させる。適応補間部131は、適応補間処理後のG成分の信号を近傍画素抽出部132に出力する。   In step S <b> 903, under the control of the control unit 101, the image processing unit 107 causes the adaptive interpolation unit 131 to perform adaptive interpolation processing for missing pixels on the G component signal of the reference image, thereby generating adaptive interpolation pixels. The adaptive interpolation unit 131 outputs the G component signal after the adaptive interpolation processing to the neighboring pixel extraction unit 132.

S904で、画像処理部107は制御部101の制御のもと、適応補間処理後の基準画像に対して、各適応補間画素の最近傍画素の抽出、及び該画素と対応する適応補間画素との位置ずれ量(距離)dを近傍画素抽出部132に取得させる。   In step S904, under the control of the control unit 101, the image processing unit 107 extracts the nearest pixel of each adaptive interpolation pixel from the reference image after the adaptive interpolation process, and compares the pixel with the corresponding adaptive interpolation pixel. The neighboring pixel extraction unit 132 is made to acquire the positional deviation amount (distance) d.

具体的には近傍画素抽出部132は、画像メモリ120に記憶された基準画像以外のn−1枚の画像信号(参照画像)を1つずつ選択し、所定の位置合わせ処理を行なう。そして近傍画素抽出部132は、基準画像の全ての適応補間画素に対して、選択した参照画像のG成分の画素のうち、最も位置ずれ量が少ない位置に存在する画素を各々特定する。近傍画素抽出部132は、各適応補間画素について特定した、最も位置ずれ量が少ない位置に存在する画素について、その位置ずれ量を算出して、参照画像を示す情報に関連付けて画像メモリ120に記憶する。近傍画素抽出部132は、全ての参照画像に対してこれを繰り返し、各適応補間画素について最小の位置ずれ量を有する最近傍画素を抽出する。   Specifically, the neighboring pixel extraction unit 132 selects n−1 image signals (reference images) other than the standard image stored in the image memory 120 one by one, and performs a predetermined alignment process. Then, the neighboring pixel extraction unit 132 specifies, for all the adaptive interpolation pixels of the base image, pixels that are present at the position with the smallest positional deviation amount among the G component pixels of the selected reference image. The neighboring pixel extraction unit 132 calculates the positional deviation amount of the pixel specified for each adaptive interpolation pixel and exists at the position with the smallest positional deviation amount, and stores it in the image memory 120 in association with the information indicating the reference image. To do. The neighborhood pixel extraction unit 132 repeats this for all reference images, and extracts the nearest neighborhood pixel having the minimum positional deviation amount for each adaptive interpolation pixel.

このように、全ての参照画像について、各適応補間画素と最も位置ずれ量が少ない位置に存在する画素の位置ずれ量を算出することで、各適応補間画素について最近傍画素を抽出することができる。しかしながら、例えば位置ずれ量dが適応補間画素の対応画素とみなしてもよいと定めた閾値以下である場合には、該適応補間画素についてはそれ以降の参照画像において、位置ずれ量dの算出を行わないようにしてもよい。また、位置ずれ量の少ない対応画素を複数抽出し、加算するなどして使用しても良い。   As described above, by calculating the positional deviation amount of the pixel existing in the position where the positional deviation amount is the smallest with respect to each adaptive interpolation pixel for all the reference images, the nearest pixel can be extracted for each adaptive interpolation pixel. . However, for example, when the positional deviation amount d is equal to or less than a threshold value that can be regarded as a corresponding pixel of the adaptive interpolation pixel, the positional deviation amount d is calculated in the reference image after that for the adaptive interpolation pixel. It may not be performed. Alternatively, a plurality of corresponding pixels with a small amount of positional deviation may be extracted and added.

S905で、画像処理部107は制御部101の制御のもと、基準画像のG成分の各適応補間画素について、対応する最近傍画素の位置ずれ量dの情報を加重加算係数決定部133に伝送して、加重加算係数rをそれぞれ決定させる。   In step S <b> 905, the image processing unit 107 transmits, to the weighted addition coefficient determination unit 133, information on the positional deviation amount d of the nearest neighboring pixel for each adaptive interpolation pixel of the G component of the reference image under the control of the control unit 101. Thus, the weighted addition coefficient r is determined.

S906で、画像処理部107は制御部101の制御のもと、加重加算係数決定部133により決定された加重加算係数に応じて、各適応補間画素と該適応補間画素の最近傍画素とを、加重加算部134に加重加算させる。そして加重加算部134は、補間が完了した基準画像のG成分の信号を出力する。   In step S906, the image processing unit 107 controls each adaptive interpolation pixel and the nearest neighboring pixel of the adaptive interpolation pixel according to the weighted addition coefficient determined by the weighted addition coefficient determination unit 133 under the control of the control unit 101. The weighted addition unit 134 performs weighted addition. The weighted addition unit 134 outputs a G component signal of the reference image for which interpolation has been completed.

S907で、画像処理部107は制御部101の制御のもと、補間が完了した基準画像のG成分の信号と、基準画像のR成分及びB成分の信号を輝度信号変換部135に伝送し、輝度信号を生成させる。具体的には輝度信号変換部135は、まず入力された基準画像のR成分及びB成分の信号の各々について、線形補間により欠落画素を生成する。そして補間が完了した基準画像のG成分の信号と、線形補間処理後のR成分及びB成分の信号とを用いて、式1に従って輝度信号の各画素の画素値を算出して輝度画像を生成し、出力する。   In step S907, under the control of the control unit 101, the image processing unit 107 transmits the G component signal of the reference image for which interpolation has been completed and the R component and B component signals of the reference image to the luminance signal conversion unit 135, A luminance signal is generated. Specifically, the luminance signal converter 135 first generates missing pixels by linear interpolation for each of the R component and B component signals of the input reference image. Then, using the G component signal of the reference image that has been interpolated and the R and B component signals after the linear interpolation processing, the pixel value of each pixel of the luminance signal is calculated according to Equation 1, and a luminance image is generated. And output.

このようにすることで、本実施形態の輝度信号生成部130は、被写体再現度の高い輝度信号を生成することができる。   By doing in this way, the luminance signal generation part 130 of this embodiment can generate | occur | produce a luminance signal with high subject reproducibility.

<色差信号生成処理>
次に、本実施形態のデジタルカメラ100の色差信号生成処理について、図10のフローチャートを用いて具体的な処理を説明する。該フローチャートに対応する処理は、制御部101が、例えばROM102に記憶されている対応する処理プログラムを読み出し、RAM103に展開して実行することにより実現することができる。なお、本色差信号生成処理は、例えばユーザによる撮影指示を受けて撮像部105が複数回の撮像を行い、得られたベイヤー配列を有するn枚の画像信号がA/D変換部106から出力された際に開始されるものとして説明する。
<Color difference signal generation processing>
Next, specific processing of the color difference signal generation processing of the digital camera 100 of the present embodiment will be described using the flowchart of FIG. The processing corresponding to the flowchart can be realized by the control unit 101 reading out a corresponding processing program stored in, for example, the ROM 102, developing it in the RAM 103, and executing it. In this color difference signal generation process, for example, the imaging unit 105 performs imaging a plurality of times in response to a shooting instruction from the user, and n image signals having the obtained Bayer array are output from the A / D conversion unit 106. It will be described as starting at the time.

S1001で、制御部101は、A/D変換部106から出力された、ベイヤー配列を有するn枚の画像信号を画像処理部107に入力し、画像メモリ120に記憶させる。なお、本ステップの処理は、上述した輝度信号生成処理のS901の処理と共通であるため、省略されてもよい。   In step S <b> 1001, the control unit 101 inputs n image signals having a Bayer array output from the A / D conversion unit 106 to the image processing unit 107 and stores them in the image memory 120. Note that the processing in this step is common to the processing in S901 of the luminance signal generation processing described above, and may be omitted.

S1002で、画像処理部107は制御部101の制御のもと、n枚の画像信号のうちの1つの画像信号を基準画像として設定する。そして画像処理部107は、基準画像として設定した画像信号のG1成分及びG2成分の信号をそれぞれ抽出(色差用抽出)して、線形補間部141に入力する。なお、本ステップで設定される基準画像は、輝度信号生成処理において設定される基準画像と同一であるものとする。   In step S <b> 1002, the image processing unit 107 sets one image signal of n image signals as a reference image under the control of the control unit 101. Then, the image processing unit 107 extracts the G1 component signal and the G2 component signal of the image signal set as the reference image (extraction for color difference) and inputs them to the linear interpolation unit 141. Note that the reference image set in this step is the same as the reference image set in the luminance signal generation process.

S1003で、画像処理部107は制御部101の制御のもと、基準画像のG1成分及びG2成分の信号について線形補間部141に欠落画素の線形補間処理を実行させ、線形補間画素を生成させる。線形補間部141は、線形補間処理後のG1成分及びG2成分の信号を色差用近傍画素抽出部142に出力する。   In step S <b> 1003, under the control of the control unit 101, the image processing unit 107 causes the linear interpolation unit 141 to perform linear interpolation processing of missing pixels on the G1 component and G2 component signals of the reference image, thereby generating linear interpolation pixels. The linear interpolation unit 141 outputs the G1 component and G2 component signals after the linear interpolation processing to the color difference neighboring pixel extraction unit 142.

S1004で、画像処理部107は制御部101の制御のもと、線形補間処理後のG1成分及びG2成分の信号に対して、各線形補間画素の最近傍画素の抽出、及び該画素と対応する線形補間画素との位置ずれ量(距離)dを色差用近傍画素抽出部142に取得させる。   In step S1004, under the control of the control unit 101, the image processing unit 107 extracts the nearest pixel of each linear interpolation pixel and corresponds to the pixel with respect to the G1 component and G2 component signals after the linear interpolation processing. The positional deviation amount (distance) d from the linear interpolation pixel is acquired by the color difference neighboring pixel extraction unit 142.

具体的には色差用近傍画素抽出部142は、画像メモリ120に記憶された基準画像以外のn−1枚の画像信号(参照画像)を1つずつ選択し、所定の位置合わせ処理を行なう。そして色差用近傍画素抽出部142は、G1成分及びG2成分の信号の全ての線形補間画素に対して、選択した参照画像の対応する成分の画素のうち、最も位置ずれ量が少ない位置に存在する画素を各々特定する。色差用近傍画素抽出部142は、各線形補間画素について特定した、最も位置ずれ量が少ない位置に存在する画素について、その位置ずれ量を算出して、参照画像を示す情報に関連付けて画像メモリ120に記憶する。色差用近傍画素抽出部142は、全ての参照画像に対してこれを繰り返し、各線形補間画素について最小の位置ずれ量を有する最近傍画素を抽出する。   Specifically, the color-difference neighboring pixel extraction unit 142 selects n−1 image signals (reference images) other than the standard image stored in the image memory 120 one by one, and performs a predetermined alignment process. Then, the color difference neighboring pixel extraction unit 142 is present at the position where the amount of positional deviation is the smallest among the corresponding component pixels of the selected reference image with respect to all the linear interpolation pixels of the G1 component and G2 component signals. Each pixel is specified. The color difference neighboring pixel extraction unit 142 calculates the positional deviation amount of the pixel specified for each linear interpolation pixel and exists at the position with the smallest positional deviation amount, and associates it with the information indicating the reference image, and the image memory 120. To remember. The color difference neighboring pixel extraction unit 142 repeats this for all reference images, and extracts the nearest neighbor pixel having the smallest amount of positional deviation for each linear interpolation pixel.

このように、全ての参照画像について、各線形補間画素と最も位置ずれ量が少ない位置に存在する画素の位置ずれ量を算出することで、各線形補間画素について最近傍画素を抽出することができる。しかしながら、例えば位置ずれ量dが線形補間画素の対応画素とみなしてもよいと定めた閾値以下である場合には、該線形補間画素についてはそれ以降の参照画像において、位置ずれ量dの算出を行わないようにしてもよい。また、位置ずれ量の少ない対応画素を複数抽出し、加算するなどして使用しても良い。   As described above, by calculating the positional deviation amount of the pixel existing at the position with the smallest positional deviation amount with respect to each linear interpolation pixel for all the reference images, the nearest pixel can be extracted for each linear interpolation pixel. . However, for example, when the positional deviation amount d is equal to or less than a threshold value that can be regarded as a corresponding pixel of the linear interpolation pixel, the positional deviation amount d is calculated in the subsequent reference image for the linear interpolation pixel. It may not be performed. Alternatively, a plurality of corresponding pixels with a small amount of positional deviation may be extracted and added.

S1005で、画像処理部107は制御部101の制御のもと、基準画像のG1成分及びG2成分の各線形補間画素について、対応する最近傍画素の位置ずれ量dの情報を色差用加重加算係数決定部143に伝送して、加重加算係数rをそれぞれ決定させる。   In step S <b> 1005, under the control of the control unit 101, the image processing unit 107 uses the color difference weighted addition coefficient for information on the positional deviation amount d of the nearest neighboring pixel for each of the linear interpolation pixels of the G1 component and G2 component of the reference image. It transmits to the determination part 143, and makes each weighted addition coefficient r determine.

S1006で、画像処理部107は制御部101の制御のもと、色差用加重加算係数決定部143により決定された加重加算係数に応じて、各線形補間画素と該線形補間画素の最近傍画素とを色差用加重加算部144に加重加算させる(色差用補間)。そして色差用加重加算部144は、補間が完了した基準画像のG1成分あるいはG2成分の信号を出力する。   In step S <b> 1006, the image processing unit 107 controls each linear interpolation pixel and the nearest neighbor pixel of the linear interpolation pixel according to the weighted addition coefficient determined by the color difference weighted addition coefficient determination unit 143 under the control of the control unit 101. Are weighted and added to the color difference weighted addition unit 144 (color difference interpolation). Then, the color difference weighted addition unit 144 outputs a signal of the G1 component or G2 component of the reference image for which interpolation has been completed.

S1007で、画像処理部107は制御部101の制御のもと、補間が完了した基準画像のG1成分及びG2成分の信号と、基準画像のR成分及びB成分の信号を偽色判断部145に伝送し、偽色発生を抑制する色差信号の算出方法を決定させる。そして画像処理部107は、決定された算出方法に従って、R成分及びB成分についての色差信号を生成し、出力する。   In step S <b> 1007, under the control of the control unit 101, the image processing unit 107 sends the G1 and G2 component signals of the reference image that has been interpolated and the R and B component signals of the reference image to the false color determination unit 145. The color difference signal calculation method that suppresses false color generation is determined. Then, the image processing unit 107 generates and outputs color difference signals for the R component and the B component according to the determined calculation method.

このようにすることで、本実施形態の輝度信号生成部130は、輝度信号への寄与率が高いG1成分及びG2成分について、被写体再現度を高めた上で色差信号を生成することができる。   By doing in this way, the luminance signal generation unit 130 of the present embodiment can generate a color difference signal for the G1 component and G2 component that have a high contribution rate to the luminance signal while increasing the subject reproducibility.

そして、上述した輝度信号生成処理及び色差信号生成処理により生成された輝度信号と色差信号とから、本実施形態のデジタルカメラ100は、解像感が向上した現像画像を生成することができる。   Then, from the luminance signal and the color difference signal generated by the luminance signal generation process and the color difference signal generation process described above, the digital camera 100 of this embodiment can generate a developed image with improved resolution.

以上説明したように、本実施形態の画像処理装置は、各色成分が所定の規則をもって配される撮像素子から得られる複数の画像信号を使用して、解像感を向上させた画像を生成することができる。具体的には画像処理装置は、ベイヤー配列を有する複数の画像信号を取得し、1つの輝度信号とR成分及びB成分の色差信号とを生成し、現像画像を生成する。このとき輝度信号の生成において画像処理装置は、複数の画像信号のうち1つの画像信号を基準画像として設定し、基準画像についてG成分の信号を抽出する。そしてG成分の信号に含まれる欠落画素の各々について、欠落画素の周辺画素から適応補間により算出した画素値と、複数の画像信号のうち基準画像を除く画像信号から抽出した、欠落画素との像ずれ量が最も小さい最近傍画素の画素値とを加重加算して欠落画素の画素値を算出する。   As described above, the image processing apparatus according to the present embodiment generates an image with improved resolution using a plurality of image signals obtained from an image sensor in which each color component is arranged with a predetermined rule. be able to. Specifically, the image processing apparatus acquires a plurality of image signals having a Bayer array, generates one luminance signal, R component and B component color difference signals, and generates a developed image. At this time, in the generation of the luminance signal, the image processing apparatus sets one image signal among the plurality of image signals as a reference image, and extracts a G component signal for the reference image. For each missing pixel included in the G component signal, a pixel value calculated by adaptive interpolation from the neighboring pixels of the missing pixel and an image of the missing pixel extracted from the image signal excluding the reference image among the plurality of image signals The pixel value of the missing pixel is calculated by weighted addition with the pixel value of the nearest pixel with the smallest deviation amount.

なお、本実施形態では、輝度信号の生成、色差信号の生成に共に本実施形態に特徴的な近傍画素抽出処理及び補間画素との加重加算処理を行っている。しかし、必ずしも輝度、色差両方の信号生成に本実施形態に特徴的な処理を用いる必要はなく、輝度信号、色差信号いずれかに本実施形態の処理を行い、他方の信号は1枚の画像に対しての公知の補間処理などを用いて信号を生成しても良い。その場合でも本実施形態における処理を施した輝度信号あるいは色差信号のいずれかにおいて解像感の向上した画像が得られることになる。   In the present embodiment, a neighboring pixel extraction process and a weighted addition process with an interpolation pixel that are characteristic of the present embodiment are performed for both the generation of the luminance signal and the generation of the color difference signal. However, it is not always necessary to use the processing characteristic of this embodiment for generating both luminance and color difference signals. The processing of this embodiment is performed on either the luminance signal or the color difference signal, and the other signal is converted into one image. Alternatively, a signal may be generated using a known interpolation process or the like. Even in that case, an image with improved resolution can be obtained in either the luminance signal or the color difference signal subjected to the processing in the present embodiment.

[実施形態2]
上述した実施形態1では、基準画像のG成分の信号について生成した適応補間画素と、参照画像のうちの最も該画素との位置ずれ量が小さい、1つの最近傍画素とを加重加算することにより輝度信号を生成する方法について説明した。即ち、上述した実施形態1では、基準画像のG成分の信号における1つの欠落画素については、多くとも2種類の画像信号から画素値を算出する方法を説明した。
[Embodiment 2]
In the first embodiment described above, by performing weighted addition of the adaptive interpolation pixel generated for the G component signal of the base image and one nearest neighbor pixel having the smallest positional deviation amount from the pixel in the reference image. A method for generating a luminance signal has been described. That is, in the first embodiment described above, the method of calculating pixel values from at most two types of image signals for one missing pixel in the G component signal of the reference image has been described.

一方、撮像素子から出力される画像信号には、感度設定や撮像素子の周辺温度の影響等によって、ノイズが生じることがある。具体的には、感度設定が高いほど、撮像素子から出力された画像信号に含まれるノイズ量は増加する。また、撮像素子の周辺温度が高いほど、撮像素子から出力された画像信号に含まれるノイズ量は増加する。このように撮像信号にノイズが含まれる場合、基準画像のG成分の信号に含まれる1つの欠落画素に対し、3以上の画像を加算合成することによりノイズを低減した画素値を算出する、所謂コンポジット法とよばれる手法がある。   On the other hand, noise may occur in the image signal output from the image sensor due to the sensitivity setting, the influence of the ambient temperature of the image sensor, or the like. Specifically, as the sensitivity setting is higher, the amount of noise included in the image signal output from the image sensor increases. Further, as the ambient temperature of the image sensor increases, the amount of noise included in the image signal output from the image sensor increases. In this way, when noise is included in the imaging signal, a pixel value with reduced noise is calculated by adding and synthesizing three or more images to one missing pixel included in the G component signal of the reference image. There is a technique called a composite method.

本実施形態では、撮像部105が撮像を行う際の条件においてノイズが発生しうるか否かを判断することにより、基準画像のG成分の信号における欠落画素について、画素値の算出に用いる画像信号の数を変更する方法について説明する。   In the present embodiment, by determining whether noise can be generated under the conditions when the imaging unit 105 performs imaging, the image signal used for calculating the pixel value of the missing pixel in the G component signal of the reference image is determined. A method of changing the number will be described.

<デジタルカメラ100の構成>
本実施形態のデジタルカメラ100は、上述した実施形態1のデジタルカメラ100の構成に加え、ノイズ量判定部111を備える。
<Configuration of Digital Camera 100>
The digital camera 100 according to the present embodiment includes a noise amount determination unit 111 in addition to the configuration of the digital camera 100 according to the first embodiment.

ノイズ量判定部111は、撮像時の撮像素子の感度設定、及び撮像素子周辺の環境温度の情報を取得し、予め定められた算出式に基づいて評価値を算出する。該評価値は、撮像により撮像部105から出力される画像信号に含まれうるノイズ量を、定量的に評価する値である。   The noise amount determination unit 111 acquires information on sensitivity settings of the image sensor at the time of imaging and environmental temperature around the image sensor, and calculates an evaluation value based on a predetermined calculation formula. The evaluation value is a value for quantitatively evaluating the amount of noise that can be included in the image signal output from the imaging unit 105 by imaging.

<生成方法決定処理>
本実施形態のデジタルカメラ100の、輝度信号の生成方法を決定する生成方法決定処理について、図11のフローチャートを用いて具体的な処理を説明する。該フローチャートに対応する処理は、制御部101が、例えばROM102に記憶されている対応する処理プログラムを読み出し、RAM103に展開して実行することにより実現することができる。なお、本生成方法決定処理は、例えばユーザによる撮影指示を受けて撮像部105が複数回の撮像を行った際に開始されるものとして説明する。
<Generation method determination process>
A specific process of the generation method determination process for determining the generation method of the luminance signal of the digital camera 100 according to the present embodiment will be described with reference to the flowchart of FIG. The processing corresponding to the flowchart can be realized by the control unit 101 reading out a corresponding processing program stored in, for example, the ROM 102, developing it in the RAM 103, and executing it. Note that this generation method determination processing is described as being started when the imaging unit 105 performs imaging a plurality of times, for example, in response to an imaging instruction from the user.

S1101で、制御部101は、ノイズ量判定部111に撮像時のノイズ量の評価値を算出させる。具体的には制御部101は、ROM102から読み出した撮像素子の感度設定、及び不図示の温度センサに計測させた撮像素子周辺の温度情報をノイズ量判定部111に伝送し、評価値の算出を行わせる。   In step S1101, the control unit 101 causes the noise amount determination unit 111 to calculate an evaluation value of the noise amount during imaging. Specifically, the control unit 101 transmits the sensitivity setting of the image sensor read from the ROM 102 and the temperature information around the image sensor measured by a temperature sensor (not shown) to the noise amount determination unit 111 to calculate the evaluation value. Let it be done.

S1102で、制御部101は、ノイズ量判定部111に算出させた撮像時のノイズ量の評価値が、3以上の画像信号の加算合成を行なってノイズ低減を行う評価基準として定めた閾値以上であるか否かを判断する。制御部101は、撮像時のノイズ量の評価値が閾値以上であると判断した場合は処理をS1104に移し、閾値未満であると判断した場合は処理をS1103に移す。   In step S1102, the control unit 101 determines that the noise amount evaluation value at the time of imaging calculated by the noise amount determination unit 111 is equal to or greater than a threshold value set as an evaluation criterion for performing noise reduction by adding and synthesizing three or more image signals. Judge whether there is. If the control unit 101 determines that the evaluation value of the noise amount at the time of imaging is equal to or greater than the threshold value, the control unit 101 moves the process to S1104.

S1103で、制御部101は、実施形態1で示した輝度信号生成処理を実行する。   In step S1103, the control unit 101 executes the luminance signal generation process described in the first embodiment.

S1104で、制御部101は、後述するノイズ低減用輝度信号生成処理を実行する。   In step S1104, the control unit 101 executes a noise reduction luminance signal generation process described later.

このようにすることで、本実施形態のデジタルカメラ100は、撮像時のノイズ発生条件を評価して輝度信号の生成方法を決定し、実行することができる。   By doing in this way, the digital camera 100 of this embodiment can determine and execute a method for generating a luminance signal by evaluating a noise generation condition during imaging.

<ノイズ低減用輝度信号生成処理>
ここで、本実施形態のデジタルカメラ100のノイズ低減用輝度信号生成処理について、図12のフローチャートを用いて具体的な処理を説明する。なお、以下のノイズ低減用輝度信号生成処理の説明において、実施形態1の輝度信号生成処理と同様の処理を行うステップについては同一の参照符号を付して説明を省略し、本実施形態に特徴的なステップの説明に留める。
<Noise reduction luminance signal generation processing>
Here, specific processing of the noise reduction luminance signal generation processing of the digital camera 100 of the present embodiment will be described with reference to the flowchart of FIG. In the following description of the noise reduction luminance signal generation process, the steps for performing the same process as the luminance signal generation process of the first embodiment are denoted by the same reference numerals, and the description thereof is omitted. I will only explain the typical steps.

S903で適応補間処理後の基準画像のG成分の信号の生成を適応補間部131が行った後、制御部101は処理をS1201に移す。   After the adaptive interpolation unit 131 generates the G component signal of the reference image after the adaptive interpolation process in S903, the control unit 101 moves the process to S1201.

S1201で、画像処理部107は制御部101の制御のもと、適応補間処理後の基準画像のG成分の各適応補間画素について、加重加算に用いる複数の近傍画素を近傍画素抽出部132に抽出させる。また画像処理部107は、該抽出された複数の近傍画素の各々について、対応する適応補間画素との位置ずれ量dを近傍画素抽出部132に取得させる。   In step S <b> 1201, the image processing unit 107 extracts a plurality of neighboring pixels used for weighted addition to the neighboring pixel extraction unit 132 for each adaptive interpolation pixel of the G component of the reference image after adaptive interpolation processing under the control of the control unit 101. Let Further, the image processing unit 107 causes the neighboring pixel extraction unit 132 to acquire a positional deviation amount d from the corresponding adaptive interpolation pixel for each of the extracted plurality of neighboring pixels.

なお、本ステップにおいて各適応補間画素について抽出する近傍画素の数は、参照画像の数(n−1)であってもよいし、ノイズ量の評価値により決定される数であってもよい。また位置ずれ量dが適応補間画素の対応画素とみなしてもよいと定めた閾値以下である近傍画素を、加重加算に用いる画素として全て抽出してもよい。   Note that the number of neighboring pixels extracted for each adaptive interpolation pixel in this step may be the number of reference images (n−1) or a number determined by the noise amount evaluation value. Alternatively, all neighboring pixels whose positional deviation amount d is equal to or less than a threshold value determined to be regarded as a corresponding pixel of the adaptive interpolation pixel may be extracted as pixels used for weighted addition.

S1202で、画像処理部107は制御部101の制御のもと、基準画像のG成分の各適応補間画素について、抽出された近傍画素を1つずつ選択し、該画素の位置ずれ量dの情報を加重加算係数決定部133に伝送して加重加算係数rを決定させる。なお、本実施形態のノイズ低減用輝度信号生成処理においては、抽出された複数の近傍画素を1つずつ選択して適応補間画素とのノイズ抑圧のために加重加算処理を行うため、加重加算係数は図13に示されるように位置ずれ量によらず一定であるものとする。   In step S1202, the image processing unit 107 selects one extracted neighboring pixel for each adaptive interpolation pixel of the G component of the reference image under the control of the control unit 101, and information on the positional deviation amount d of the pixel. Is transmitted to the weighted addition coefficient determination unit 133 to determine the weighted addition coefficient r. In the noise reduction luminance signal generation processing of the present embodiment, the weighted addition coefficient is selected because the extracted plurality of neighboring pixels are selected one by one and weighted addition processing is performed for noise suppression with the adaptive interpolation pixel. As shown in FIG. 13, it is assumed that it is constant regardless of the amount of displacement.

S1203で、画像処理部107は制御部101の制御のもと、加重加算係数決定部133により決定された加重加算係数に応じて、各適応補間画素と該適応補間画素について抽出された複数の近傍画素とを、加重加算部134に加重加算させる。そして加重加算部134は、補間が完了した基準画像のG成分の信号を出力する。   In step S1203, the image processing unit 107 controls each adaptive interpolation pixel and a plurality of neighbors extracted for the adaptive interpolation pixel according to the weighted addition coefficient determined by the weighted addition coefficient determination unit 133 under the control of the control unit 101. Pixels are weighted and added by the weighted addition unit 134. The weighted addition unit 134 outputs a G component signal of the reference image for which interpolation has been completed.

このように、本実施形態のデジタルカメラ100は、撮像時の条件を判断することでノイズの発生量を判断し、ノイズの発生量が所定量以上であると判断した場合は複数の画像信号を加算合成する補間を行うことで、好適にノイズを抑圧した輝度信号を生成できる。   As described above, the digital camera 100 according to the present embodiment determines the amount of noise generated by determining the conditions at the time of imaging. If it is determined that the amount of noise generated is equal to or greater than a predetermined amount, a plurality of image signals are output. By performing interpolation for addition and synthesis, it is possible to generate a luminance signal in which noise is preferably suppressed.

[変形例]
上述した実施形態1及び2では、複数回撮像されて得られた画像信号において、被写体像が平行移動している状況を想定して説明した。即ち、最近傍画素あるいは近傍画素の抽出において、単純にパターンマッチング等の手法により基準画像と参照画像の位置合わせが行えるものとして説明した。本変形例では、複数回撮像されて得られた画像信号において、被写体像が平行移動していない状況を考慮して輝度信号の生成方法を制御する態様について説明する。
[Modification]
In the first and second embodiments described above, the description has been made on the assumption that the subject image is translated in the image signal obtained by imaging a plurality of times. That is, it has been described that the reference image and the reference image can be aligned simply by a method such as pattern matching in extracting the nearest pixel or the neighboring pixel. In the present modification, an aspect in which a luminance signal generation method is controlled in consideration of a situation in which a subject image is not translated in an image signal obtained by imaging a plurality of times will be described.

同一の被写体を撮像した2つの画像信号について、一方の画像信号を撮像時のデジタルカメラ100の姿勢と他方の画像信号を撮像時のデジタルカメラ100の姿勢とが異なっている場合を考える。このとき、2つの姿勢間で、撮像素子の水平軸周り(ピッチ方向)の回転、あるいは撮像素子の垂直軸周り(ヨー方向)の回転が生じている場合、被写体像が台形状に変形する、所謂アオリ現象が生じる。   For two image signals obtained by imaging the same subject, a case is considered in which the attitude of the digital camera 100 when imaging one image signal and the attitude of the digital camera 100 when imaging the other image signal are different. At this time, when rotation about the horizontal axis (pitch direction) of the image sensor or rotation about the vertical axis (yaw direction) of the image sensor occurs between the two postures, the subject image is deformed into a trapezoidal shape. A so-called tilt phenomenon occurs.

例えば、一方の画像信号を撮像時のデジタルカメラ100の姿勢が図14(a)のようであり、他方の画像信号を撮像時の姿勢が、ピッチ方向下向きの回転(アオリ角θとする)が生じた図14(b)のような姿勢である場合を考える。このとき、図14(a)においてデジタルカメラ100と正対していた矩形被写体1401は、図14(b)に1402で示されるように、台形状に変形して撮像される。   For example, the attitude of the digital camera 100 when imaging one image signal is as shown in FIG. 14A, and the attitude when imaging the other image signal is a downward rotation in the pitch direction (referred to as the tilt angle θ). Consider the case where the resulting posture is as shown in FIG. At this time, the rectangular object 1401 facing the digital camera 100 in FIG. 14A is captured in a trapezoidal shape as indicated by 1402 in FIG. 14B.

このような2つの画像信号について、像の位置合わせを行うためには、いずれかの画像信号に対してアオリ角θに応じた射影変換を行った後に、パターンマッチング等の像ずれ量を判断する処理を行う必要がある。しかしながら、射影変換には画素の補間演算が含まれるため、アオリ角によっては変換後に得られる画像信号にはナイキスト付近に0落ちが発生することになる。即ち、このような0落ちを含む画像信号から抽出した画素を使用して加重加算を行なったとしても、好適な輝度信号が得られない可能性がある。   In order to perform image alignment with respect to such two image signals, after performing projective transformation according to the tilt angle θ on any of the image signals, an image shift amount such as pattern matching is determined. It is necessary to perform processing. However, since the projective transformation includes pixel interpolation, depending on the tilt angle, a zero drop occurs in the vicinity of Nyquist in the image signal obtained after the transformation. That is, there is a possibility that a suitable luminance signal cannot be obtained even if weighted addition is performed using pixels extracted from an image signal including zero drop.

本変形例では、撮像された複数の画像信号について、撮像時のデジタルカメラ100の姿勢変化によって、射影変換で0落ちを含む画像信号が出力されるか否かを判断し、輝度信号の生成方法を制御する。具体的には、射影変換で0落ちを含む画像信号については輝度の再現度が低減するため、上述した実施形態2のノイズ低減用輝度信号生成処理と同様に、1つの欠落画素に対して、3以上の画像信号から抽出した画素値の加重加算を用いて画素値を算出する。   In the present modification, a method for generating a luminance signal is determined by determining whether or not an image signal including zero drop is output by projective transformation based on a change in posture of the digital camera 100 during imaging for a plurality of captured image signals. To control. Specifically, since the reproducibility of the luminance is reduced for the image signal including zero drop in the projective transformation, similarly to the noise reduction luminance signal generation processing of the second embodiment described above, for one missing pixel, Pixel values are calculated using weighted addition of pixel values extracted from three or more image signals.

<生成方法決定処理>
以下、本実施形態のデジタルカメラ100の、輝度信号の生成方法を決定する生成方法決定処理について、図15のフローチャートを用いて具体的な処理を説明する。該フローチャートに対応する処理は、制御部101が、例えばROM102に記憶されている対応する処理プログラムを読み出し、RAM103に展開して実行することにより実現することができる。なお、本生成方法決定処理は、例えばユーザによる撮影指示を受けて撮像部105が複数回の撮像を開始する際に開始されるものとして説明する。
<Generation method determination process>
Hereinafter, specific processing of the generation method determination processing for determining the generation method of the luminance signal of the digital camera 100 according to the present embodiment will be described with reference to the flowchart of FIG. The processing corresponding to the flowchart can be realized by the control unit 101 reading out a corresponding processing program stored in, for example, the ROM 102, developing it in the RAM 103, and executing it. Note that this generation method determination processing will be described as being started when the imaging unit 105 starts imaging a plurality of times in response to, for example, an imaging instruction from the user.

S1501で、制御部101は、不図示の角速度センサに複数の画像信号の撮像中の角速度変位を検出させ、該角速度変位についての時間経過を示す姿勢情報をRAM103に記憶させる。   In step S <b> 1501, the control unit 101 causes an angular velocity sensor (not illustrated) to detect angular velocity displacement during imaging of a plurality of image signals, and causes the RAM 103 to store posture information indicating the passage of time for the angular velocity displacement.

S1502で、制御部101は、画像処理部107において輝度信号生成の基準画像として選択される画像の撮影時の姿勢を基準姿勢とし、該姿勢から参照画像の撮像時までの角速度変化を積分することにより、参照画像の各々についての基準姿勢からの回転角を算出する。制御部101は、算出した回転角のうち、アオリが生じうる方向(ピッチ及びヨー方向)の回転角(アオリ角)を抽出する。   In step S1502, the control unit 101 sets the posture at the time of shooting of the image selected as the reference image for generating the luminance signal in the image processing unit 107 as a reference posture, and integrates the angular velocity change from the posture to the time of shooting the reference image. Thus, the rotation angle from the standard posture for each of the reference images is calculated. The control unit 101 extracts a rotation angle (tilt angle) in a direction (pitch and yaw direction) in which tilt can occur from the calculated rotation angles.

S1503で、制御部101は、参照画像の各々について算出されたアオリ角θの平均値を算出し、算出した平均アオリ角θaが、予め定められた射影変換で0落ちを含む画像信号が出力される閾値以上であるか否かを判断する(姿勢判断)。制御部101は、平均アオリ角θaが閾値以上であると判断した場合は処理をS1505に移し、閾値未満であると判断した場合は処理をS1504に移す。 In step S1503, the control unit 101 calculates an average value of the tilt angle θ calculated for each of the reference images, and outputs an image signal in which the calculated average tilt angle θ a includes zero drop by a predetermined projective transformation. It is determined whether or not it is equal to or greater than a threshold value (posture determination). Control unit 101, when the average tilt angle theta a is equal to or greater than the threshold moves the processing to S1505, if it is determined to be less than the threshold value shifts the processing to S1504.

S1504で、制御部101は、実施形態1で示した輝度信号生成処理を実行する。   In step S1504, the control unit 101 executes the luminance signal generation process described in the first embodiment.

S1505で、制御部101は、実施形態2で示したノイズ低減用輝度信号生成処理を実行する。   In step S1505, the control unit 101 executes the noise reduction luminance signal generation process described in the second embodiment.

このようにすることで、複数の画像信号に、アオリが生じうる姿勢で撮像された画像信号が含まれている場合であっても、好適な画質の輝度信号を生成することができる。   By doing in this way, even if it is a case where the image signal imaged with the attitude | position which can produce a tilt is contained in several image signals, the luminance signal of suitable image quality can be produced | generated.

[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又はコンピュータが読み取り可能な各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
[Other Embodiments]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via various storage media that can be read by a network or a computer, and the computer of the system or apparatus (or CPU, MPU, or the like). Is a process of reading and executing the program.

Claims (18)

ベイヤー配列を有する複数の画像信号を取得する取得手段と、
前記取得手段により取得された前記複数の画像信号から、1つの輝度信号を生成する輝度信号生成手段であって、
前記複数の画像信号のうち、1つの画像信号を基準画像として設定する設定手段と、
前記設定手段により設定された前記基準画像について、G成分の信号を抽出する抽出手段と、
前記抽出手段により抽出された前記G成分の信号について、画素値のない欠落画素を補間する補間手段と、を有する輝度信号生成手段と、
前記取得手段により取得された前記複数の画像信号から、R成分及びB成分の色差信号を生成する色差信号生成手段と、を有し、
前記補間手段は、前記G成分の信号における欠落画素の各々について、欠落画素の周辺画素から適応補間により算出した画素値と、前記複数の画像信号のうち前記基準画像を除く画像信号に含まれる画素であって、欠落画素との像ずれ量が最も小さい最近傍画素の画素値とを加重加算することにより欠落画素の画素値を算出し、
前記輝度信号生成手段は、前記補間手段により欠落画素が補間された前記G成分の信号と、線形補間により欠落画素が補間された前記基準画像のR成分及びB成分の信号とから輝度信号を生成する
ことを特徴とする画像処理装置。
Obtaining means for obtaining a plurality of image signals having a Bayer array;
Luminance signal generation means for generating one luminance signal from the plurality of image signals acquired by the acquisition means,
Setting means for setting one image signal as a reference image among the plurality of image signals;
Extracting means for extracting a G component signal for the reference image set by the setting means;
Interpolating means for interpolating missing pixels having no pixel value for the G component signal extracted by the extracting means, and a luminance signal generating means,
Color difference signal generation means for generating R component and B component color difference signals from the plurality of image signals acquired by the acquisition means;
The interpolation means includes, for each missing pixel in the G component signal, a pixel value calculated by adaptive interpolation from neighboring pixels of the missing pixel, and pixels included in the image signal excluding the reference image among the plurality of image signals The pixel value of the missing pixel is calculated by weighted addition of the pixel value of the nearest pixel with the smallest image shift amount with the missing pixel,
The luminance signal generation unit generates a luminance signal from the G component signal obtained by interpolating the missing pixel by the interpolation unit and the R component and B component signals of the reference image obtained by interpolating the missing pixel by linear interpolation. An image processing apparatus.
前記補間手段は、欠落画素の画素値を、該欠落画素と該欠落画素の近傍画素との像ずれ量に応じて加重加算の比率を変更することを特徴とする請求項1に記載の画像処理装置。   2. The image processing according to claim 1, wherein the interpolation unit changes a weighted addition ratio of the pixel value of the missing pixel in accordance with an image shift amount between the missing pixel and a neighboring pixel of the missing pixel. apparatus. 前記色差信号生成手段は、
前記設定手段により設定された前記基準画像について、G1成分の信号とG2成分の信号とを抽出する色差用抽出手段と、
前記色差用抽出手段により抽出された前記G1成分の信号と前記G2成分の信号について、欠落画素を補間する色差用補間手段と、
を有し、
前記色差用補間手段は、前記G1成分の信号と前記G2成分の信号の各々に含まれる各欠落画素について、欠落画素の周辺画素から線形補間により算出した画素値と、前記複数の画像信号のうち前記基準画像を除く画像信号に含まれる画素であって、欠落画素との像ずれ量が最も小さい画素の画素値とを加重加算することにより欠落画素の画素値を算出し、
前記色差信号生成手段は、前記色差用補間手段により欠落画素が補間された前記G1成分の信号及び前記G2成分の信号の画素値に応じて、色差信号の算出方法を変更する
ことを特徴とする請求項1または2に記載の画像処理装置。
The color difference signal generating means includes
Color difference extraction means for extracting a G1 component signal and a G2 component signal for the reference image set by the setting means;
Color difference interpolation means for interpolating missing pixels for the G1 component signal and the G2 component signal extracted by the color difference extraction means;
Have
The color-difference interpolating means, for each missing pixel included in each of the G1 component signal and the G2 component signal, a pixel value calculated by linear interpolation from a peripheral pixel of the missing pixel, and among the plurality of image signals Calculating the pixel value of the missing pixel by weighted addition of the pixel value of the pixel that is included in the image signal excluding the reference image and has the smallest image deviation amount from the missing pixel;
The chrominance signal generation unit changes a chrominance signal calculation method according to pixel values of the G1 component signal and the G2 component signal in which missing pixels are interpolated by the chrominance interpolation unit. The image processing apparatus according to claim 1.
撮像素子の感度設定あるいは環境温度を取得し、画像信号に含まれるノイズを抑圧するか否かを判断する判断手段をさらに有し、
前記補間手段は、前記判断手段により画像信号に含まれるノイズを抑圧すると判断された場合に、欠落画素の周辺画素から適応補間により算出した画素値と、前記複数の画像信号のうち前記基準画像を除く複数の画像信号に含まれる近傍画素の画素値とを加重加算することにより欠落画素の画素値を算出する
ことを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
It further includes a determination unit that acquires sensitivity setting of the image sensor or an environmental temperature, and determines whether to suppress noise included in the image signal,
When the determination unit determines that the noise included in the image signal is to be suppressed by the determination unit, the interpolation unit calculates a pixel value calculated by adaptive interpolation from the peripheral pixels of the missing pixel and the reference image among the plurality of image signals. The image processing apparatus according to claim 1, wherein a pixel value of a missing pixel is calculated by weighted addition of pixel values of neighboring pixels included in a plurality of image signals other than the image signal.
前記複数の画像信号の各々を撮像した際の撮像装置の姿勢情報を取得し、前記複数の画像信号のうち前記基準画像を除く画像信号の各々を撮像した際の前記撮像装置の姿勢について算出された、前記基準画像を撮像した際の前記撮像装置の姿勢からの回転角の平均値が、予め定められた閾値以上であるか否かを判断する姿勢判断手段をさらに有し、
前記補間手段は、前記姿勢判断手段により前記回転角の平均値が前記予め定められた閾値以上であると判断された場合に、欠落画素の周辺画素から適応補間により算出した画素値と、前記複数の画像信号のうち前記基準画像を除く複数の画像信号に含まれる近傍画素の画素値とを加重加算することにより欠落画素の画素値を算出する
ことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
The attitude information of the imaging device when each of the plurality of image signals is imaged is obtained, and the attitude of the imaging device when each of the image signals excluding the reference image among the plurality of image signals is imaged is calculated. In addition, there is further provided posture determination means for determining whether or not an average rotation angle from the posture of the imaging device when the reference image is captured is equal to or greater than a predetermined threshold value.
The interpolation means, when the posture determination means determines that the average value of the rotation angle is equal to or greater than the predetermined threshold, the pixel value calculated by adaptive interpolation from the peripheral pixels of the missing pixel, and the plurality of 5. The pixel value of a missing pixel is calculated by performing weighted addition of pixel values of neighboring pixels included in a plurality of image signals excluding the reference image among the image signals of 5. The image processing apparatus according to item 1.
画像処理装置の取得手段が、ベイヤー配列を有する複数の画像信号を取得する取得工程と、
前記画像処理装置の輝度信号生成手段が、前記取得工程において取得された前記複数の画像信号から、1つの輝度信号を生成する輝度信号生成工程であって、
前記複数の画像信号のうち、1つの画像信号を基準画像として設定する設定工程と、
前記設定工程において設定された前記基準画像について、G成分の信号を抽出する抽出工程と、
前記抽出工程において抽出された前記G成分の信号について、画素値のない欠落画素を補間する補間工程と、を有する輝度信号生成工程と、
前記画像処理装置の色差信号生成手段が、前記取得工程において取得された前記複数の画像信号から、R成分及びB成分の色差信号を生成する色差信号生成工程と、を有し、
前記輝度信号生成手段は前記補間工程において、前記G成分の信号に含まれる欠落画素の各々について、欠落画素の周辺画素から適応補間により算出した画素値と、前記複数の画像信号のうち前記基準画像を除く画像信号に含まれる画素であって、欠落画素との像ずれ量が最も小さい近傍画素の画素値とを加重加算することにより欠落画素の画素値を算出し、
前記輝度信号生成手段は前記輝度信号生成工程において、前記補間工程において欠落画素が補間された前記G成分の信号と、線形補間により欠落画素が補間された前記基準画像のR成分及びB成分の信号とから輝度信号を生成する
ことを特徴とする画像処理装置の制御方法。
An acquisition step in which an acquisition unit of the image processing apparatus acquires a plurality of image signals having a Bayer array;
The luminance signal generation means of the image processing device is a luminance signal generation step of generating one luminance signal from the plurality of image signals acquired in the acquisition step,
A setting step of setting one image signal as a reference image among the plurality of image signals;
An extraction step of extracting a G component signal for the reference image set in the setting step;
An interpolation step of interpolating missing pixels without pixel values for the G component signal extracted in the extraction step;
A color difference signal generation step of generating a color difference signal of an R component and a B component from the plurality of image signals acquired in the acquisition step, the color difference signal generation means of the image processing apparatus,
In the interpolation step, the luminance signal generation unit is configured to calculate, for each missing pixel included in the G component signal, a pixel value calculated from a neighboring pixel of the missing pixel by adaptive interpolation, and the reference image among the plurality of image signals. The pixel value of the missing pixel is calculated by weighted addition of the pixel value of the neighboring pixel with the smallest image deviation amount from the missing pixel, which is a pixel included in the image signal except
In the luminance signal generation step, the luminance signal generation means includes the G component signal obtained by interpolating the missing pixel in the interpolation step, and the R component and B component signals of the reference image obtained by interpolating the missing pixel by linear interpolation. Generating a luminance signal from the image processing apparatus.
コンピュータを、請求項1乃至5のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the image processing apparatus of any one of Claims 1 thru | or 5. コンピュータを、請求項1乃至5のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラムが記憶されたコンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing a program for causing a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 5. 各色成分が所定の規則をもって配される撮像素子から得られる画像信号を取得する取得手段と、
前記取得手段により取得される画像信号の中の1つの画像信号を基準画像とし、該基準画像の1つの色成分の信号について、前記画像信号における該1つの色成分の信号を持たない画素位置の近傍に位置する、前記基準画像以外の前記複数の画像信号の前記1つの色成分の信号を抽出する抽出手段と、
前記基準画像の前記1つの色成分の信号と、前記抽出手段により抽出される前記1つの色成分の信号とを用いて新しい前記1つの色成分の信号を生成する色成分信号生成手段と、
前記色成分信号生成手段により生成される信号を用いて生成される輝度信号あるいは色差信号を用いて1つの現像画像を生成する生成手段と、を有することを特徴とする画像処理装置。
An acquisition means for acquiring an image signal obtained from an image sensor in which each color component is arranged with a predetermined rule;
One image signal of the image signals acquired by the acquisition unit is used as a reference image, and one color component signal of the reference image is a pixel position having no signal of the one color component in the image signal. Extraction means for extracting a signal of the one color component of the plurality of image signals other than the reference image located in the vicinity;
Color component signal generation means for generating a new signal of the one color component using the signal of the one color component of the reference image and the signal of the one color component extracted by the extraction means;
An image processing apparatus comprising: generating means for generating one developed image using a luminance signal or a color difference signal generated using a signal generated by the color component signal generating means.
前記色成分信号生成手段は、前記1つの色成分の信号について、前記画像信号における前記1つの色成分の信号を持たない画素位置に対応する補間信号を補間処理により算出し、
該補間信号と前記抽出手段により抽出される信号とを、該画素位置と前記抽出手段により抽出される信号の画素位置との距離に応じた係数で加重加算することにより、新しい前記1つの色成分の信号を生成することを特徴とする請求項9に記載の画像処理装置。
The color component signal generation means calculates an interpolation signal corresponding to a pixel position having no signal of the one color component in the image signal by interpolation processing for the signal of the one color component,
The interpolation signal and the signal extracted by the extracting unit are weighted and added by a coefficient corresponding to the distance between the pixel position and the pixel position of the signal extracted by the extracting unit, thereby obtaining a new one color component. The image processing apparatus according to claim 9, wherein the signal is generated.
前記補間処理は適応補間処理であり、
前記生成手段は、前記新しい前記1つの色成分の信号から前記輝度信号を生成することを特徴とする請求項10に記載の画像処理装置。
The interpolation process is an adaptive interpolation process,
The image processing apparatus according to claim 10, wherein the generation unit generates the luminance signal from the new signal of the one color component.
前記補間処理は線形補間処理であり、
前記生成手段は、前記新しい前記1つの色成分の信号から前記色差信号を生成することを特徴とする請求項10または11に記載の画像処理装置。
The interpolation process is a linear interpolation process,
The image processing apparatus according to claim 10, wherein the generation unit generates the color difference signal from the signal of the new one color component.
前記1つの色成分は、前記輝度信号への寄与率が最も高い信号であることを特徴とする請求項9乃至12のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 9, wherein the one color component is a signal having a highest contribution rate to the luminance signal. 前記撮像素子は、R、G、Bを色成分とするベイヤー配列を有し、
前記1つの色成分は、G成分であることを特徴とする請求項9乃至13のいずれか1項に記載の画像処理装置。
The image sensor has a Bayer array having R, G, and B as color components,
The image processing apparatus according to claim 9, wherein the one color component is a G component.
前記色成分信号生成手段は、各色成分についてそれぞれ前記新しい前記1つの色成分の信号を生成することを特徴とする請求項9乃至14のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 9, wherein the color component signal generation unit generates a signal of the new one color component for each color component. 画像処理装置の取得手段が、各色成分が所定の規則をもって配される撮像素子から得られる複数の画像信号を取得する取得工程と、
前記画像処理装置の抽出手段が、前記取得工程において取得される前記複数の画像信号の中の1つの画像信号を基準画像とし、該基準画像の1つの色成分の信号について、前記画像信号における該1つの色成分の信号を持たない画素位置の近傍に位置する、前記基準画像以外の前記複数の画像信号の前記1つの色成分の信号を抽出する抽出工程と、
前記画像処理装置の色成分信号生成手段が、前記基準画像の前記1つの色成分の信号と、前記抽出工程において抽出される前記1つの色成分の信号とを用いて新しい前記1つの色成分の信号を生成する色成分信号生成工程と、
前記画像処理装置の生成手段が、前記色成分信号生成工程において生成される信号を用いて生成される輝度信号あるいは色差信号を用いて1つの現像画像を生成する生成工程と、を有することを特徴とする画像処理装置の制御方法。
An acquisition step of the image processing apparatus for acquiring a plurality of image signals obtained from an image sensor in which each color component is arranged with a predetermined rule;
The extraction means of the image processing device uses one image signal among the plurality of image signals acquired in the acquisition step as a reference image, and the signal of one color component of the reference image An extraction step of extracting the signal of the one color component of the plurality of image signals other than the reference image located in the vicinity of a pixel position having no signal of one color component;
The color component signal generation means of the image processing device uses the signal of the one color component of the reference image and the signal of the one color component extracted in the extraction step to generate a new one color component. A color component signal generation step for generating a signal;
The generation unit of the image processing apparatus includes a generation step of generating one developed image using a luminance signal or a color difference signal generated using the signal generated in the color component signal generation step. A control method of the image processing apparatus.
コンピュータを、請求項9乃至15のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the image processing apparatus of any one of Claim 9 thru | or 15. コンピュータを、請求項9乃至15のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラムが記憶されたコンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing a program for causing a computer to function as each unit of the image processing apparatus according to any one of claims 9 to 15.
JP2012008445A 2012-01-18 2012-01-18 Image processor, control method, program, and storage medium Pending JP2013150123A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012008445A JP2013150123A (en) 2012-01-18 2012-01-18 Image processor, control method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012008445A JP2013150123A (en) 2012-01-18 2012-01-18 Image processor, control method, program, and storage medium

Publications (1)

Publication Number Publication Date
JP2013150123A true JP2013150123A (en) 2013-08-01

Family

ID=49047228

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012008445A Pending JP2013150123A (en) 2012-01-18 2012-01-18 Image processor, control method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP2013150123A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016063289A (en) * 2014-09-16 2016-04-25 日本放送協会 Video compression device, video compression method and video compression program
CN114365472A (en) * 2019-09-02 2022-04-15 索尼集团公司 Imaging apparatus, image processing apparatus, and image processing method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016063289A (en) * 2014-09-16 2016-04-25 日本放送協会 Video compression device, video compression method and video compression program
CN114365472A (en) * 2019-09-02 2022-04-15 索尼集团公司 Imaging apparatus, image processing apparatus, and image processing method
CN114365472B (en) * 2019-09-02 2024-05-28 索尼集团公司 Imaging apparatus, image processing apparatus, and image processing method

Similar Documents

Publication Publication Date Title
JP4327246B2 (en) Multicolor image processing apparatus and signal processing apparatus
KR101313686B1 (en) Image processing apparatus and method of controlling the same
JP4638361B2 (en) Imaging device
JP5096645B1 (en) Image generating apparatus, image generating system, method, and program
JP4806476B2 (en) Image processing apparatus, image generation system, method, and program
JP5421647B2 (en) Imaging apparatus and control method thereof
JP4598162B2 (en) Imaging processing device
JP6711612B2 (en) Image processing apparatus, image processing method, and imaging apparatus
CN106576143A (en) Image photographing apparatus and image photographing method
JP5984493B2 (en) Image processing apparatus, image processing method, imaging apparatus, and program
JP5002738B2 (en) Image generation device
JP2004056789A (en) Resolution and picture quality improving method for small image sensor
JPWO2009019824A1 (en) IMAGING PROCESSING DEVICE, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND COMPUTER PROGRAM
US20140184853A1 (en) Image processing apparatus, image processing method, and image processing program
JP2013017142A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP6261205B2 (en) Image processing device
JP2013162347A (en) Image processor, image processing method, program, and device
JP5970012B2 (en) Image processing apparatus and control method thereof
US8259188B2 (en) Image processing apparatus and method thereof
JP2010028452A (en) Image processor and electronic camera
JP2013150123A (en) Image processor, control method, program, and storage medium
US8675106B2 (en) Image processing apparatus and control method for the same
US20130038773A1 (en) Image processing apparatus and control method for the same
JP6415330B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP5400655B2 (en) Image processing apparatus, image processing method, image processing program, and electronic apparatus