JP2011199786A - Apparatus, method and program for processing image - Google Patents

Apparatus, method and program for processing image Download PDF

Info

Publication number
JP2011199786A
JP2011199786A JP2010067017A JP2010067017A JP2011199786A JP 2011199786 A JP2011199786 A JP 2011199786A JP 2010067017 A JP2010067017 A JP 2010067017A JP 2010067017 A JP2010067017 A JP 2010067017A JP 2011199786 A JP2011199786 A JP 2011199786A
Authority
JP
Japan
Prior art keywords
image
images
pixels
pixel
correlation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010067017A
Other languages
Japanese (ja)
Inventor
Yukihiro Naito
幸宏 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2010067017A priority Critical patent/JP2011199786A/en
Publication of JP2011199786A publication Critical patent/JP2011199786A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PROBLEM TO BE SOLVED: To combine images using a plurality of images photographed time-sequentially.SOLUTION: An image processing apparatus includes an image capturing means (frame memory) 102 for capturing a plurality of images from an imaging device 101 wherein photoelectric transducers corresponding to respective color components are disposed in a predetermined pattern; and a combination processing part 106 for producing a combination image from the plurality of images. The combination processing part 106 is characterized by combining images based on a combination ratio of images determined in accordance with the color components. Furthermore, the combination processing part 106 includes a correlation calculating part in which one of a plurality of images is determined as a reference image and a correlation of pixels between the reference image and any other image than the reference image among the plurality of images or correlation between predetermined regions comprised of a plurality of pixels is calculated. when the correlation is not more than a threshold determined in accordance with the color components of pixels to be combined, as the correlation becomes small, the combination ratio of any other image than the reference image is reduced.

Description

本発明は、画像処理装置及び画像処理方法並びにプログラムに関するものである。   The present invention relates to an image processing apparatus, an image processing method, and a program.

デジタルカメラ等の撮像装置において静止画を撮影する際に、ノイズの少ない画像を得るためには、十分な露光量を確保することが有効である。しかしながら、露光量を確保するために露光時間を長くすると、手ぶれによるカメラの動きや、被写体の動きにより画像にぶれが生じ不鮮明になるという問題があるため、このようなぶれに対処する方式として、電子ぶれ補正方式が提案されている。   It is effective to secure a sufficient exposure amount in order to obtain an image with little noise when taking a still image with an imaging device such as a digital camera. However, if the exposure time is increased in order to secure the exposure amount, there is a problem that the camera movement due to camera shake or the movement of the subject causes blurring in the image, and as a method for dealing with such blurring, Electronic blur correction methods have been proposed.

特開平9−261526号公報JP-A-9-261526 特開2006−157568号公報JP 2006-157568 A 特開2005−286678号公報JP 2005-286678 A

例えば、上記特許文献1には、ぶれの少ない短い露光時間での撮影を連続して複数回実施し、得られた複数枚の画像間の動きがキャンセルされるように位置合わせ処理をした後、合成処理をすることにより、ぶれの無い良好な画像を得る方式が開示されている。また、上記特許文献2には、デジタルカメラ等で広く採用されているベイヤー配列を有する撮像素子を用いて撮像された画像に対して、低演算量で効率的に電子ブレ補正を適用する方式が開示されている。通常、撮像されたベイヤー配列の画像は、現像処理により3板のRGB形式の画像、あるいは、YCbCr形式の画像等に変換される。上記特許文献2で開示された方式は、画像の合成を3板の画像でではなくベイヤー配列の画像で直接行い、処理対象とする画素数を減らすことで、低演算量での合成を可能としている。   For example, in Patent Document 1 described above, after performing a plurality of continuous shootings with a short exposure time with less blur, and performing alignment processing so that the movement between the obtained images is canceled, A method of obtaining a good image without blurring by performing the composition processing is disclosed. Further, in Patent Document 2, there is a method for efficiently applying electronic blur correction with a low calculation amount to an image picked up using an image pickup device having a Bayer array widely used in digital cameras and the like. It is disclosed. Normally, the captured Bayer array image is converted into an RGB image of three plates, an image of YCbCr format, or the like by development processing. The method disclosed in Patent Document 2 directly combines images with a Bayer array image instead of a three-plate image, and reduces the number of pixels to be processed, thereby enabling synthesis with a low calculation amount. Yes.

一方、ノイズ低減方式においては、輝度信号についてはノイズ低減性能よりも解像度の保存が重視され、色信号については解像度の保存よりもノイズ低減性能が重視される要請がある。このような要請に対応するため、例えば、上記特許文献3には、画像を輝度信号と色信号とに分離し、それぞれに対してパラメータを変化させる、或いは、別々のノイズ低減方式を適用する等で、異なる強度のノイズ低減性能を実現する技術が開示されている。電子ブレ補正方式においても、YCbCr形式の画像に対して合成を適用する場合には、Y画像に対する合成枚数とCbCr画像に対する合成枚数を異なる枚数に設定することで、輝度信号と色信号に対するノイズ低減性能を変化させることが可能である。   On the other hand, in the noise reduction method, there is a demand for saving the resolution with respect to the luminance signal rather than the noise reduction performance with respect to the luminance signal, and with regard to the noise reduction performance with respect to the saving of the resolution with respect to the color signal. In order to respond to such a request, for example, in Patent Document 3 described above, an image is separated into a luminance signal and a color signal, and parameters are changed for each, or a separate noise reduction method is applied. Thus, a technique for realizing noise reduction performance with different strengths is disclosed. Even in the electronic blur correction method, when applying synthesis to an image in YCbCr format, noise reduction for luminance signals and color signals is performed by setting the number of synthesized images for Y images and the number of synthesized images for CbCr images to be different. It is possible to change the performance.

しかしながら、ベイヤー配列の画像に対して電子ブレ補正を直接適用する場合、輝度信号と色信号が分離されていないため、これらに対してノイズ低減性能を変化させることができないという問題があった。また、ベイヤー配列の画像から、例えば、YCbCr信号を作成し、異なる合成方式を適用すれば上記問題は解決可能となる。しかし、この場合には、ベイヤー配列を3板化する演算や、YCbCr形式に変換する演算が必要となり、ベイヤー配列の画像で直接、電子ブレ補正を適用することで得られていた演算量削減の効果を減殺するという問題があった。   However, when electronic blur correction is directly applied to an image with a Bayer array, there is a problem that the noise reduction performance cannot be changed for the luminance signal and the color signal because they are not separated. Further, for example, if the YCbCr signal is created from the Bayer array image and a different synthesis method is applied, the above problem can be solved. However, in this case, an operation to convert the Bayer array into three plates and an operation to convert to the YCbCr format are required, and the amount of calculation reduced by applying electronic blur correction directly on the Bayer array image can be reduced. There was a problem of diminishing the effect.

本発明は、上述した事情に鑑みてなされたものであって、演算量を削減しつつ、輝度信号と色信号とに対するノイズ低減性能を異ならせた画像の補正を行うことが可能な画像処理装置及び方法並びにプログラムを提供することを目的とする。   The present invention has been made in view of the above-described circumstances, and is an image processing apparatus capable of correcting an image with different noise reduction performance with respect to a luminance signal and a color signal while reducing a calculation amount. And a method and a program.

上記目的を達成するために、本発明は以下の手段を提供する。   In order to achieve the above object, the present invention provides the following means.

本発明の第1の態様は、各色成分に対応する光電変換素子が所定のパターンで配置された撮像素子から複数の画像を取得する画像取得手段と、前記複数の画像から合成画像を生成する合成処理手段とを備え、前記合成処理手段は、前記色成分に応じて決定される画像の合成比率に基づいて画像を合成することを特徴とする画像処理装置である。   According to a first aspect of the present invention, image acquisition means for acquiring a plurality of images from an image sensor in which photoelectric conversion elements corresponding to each color component are arranged in a predetermined pattern, and synthesis for generating a composite image from the plurality of images Processing means, and the composition processing means is an image processing apparatus for synthesizing images based on a composition ratio of images determined according to the color components.

このような構成によれば、ベイヤー配列の複数枚の画像を、色成分に応じて決定される合成比率に基づいて合成することにより、ベイヤー配列を保ったまま合成することによる演算量低減の効果を維持しつつ、輝度信号と色信号に対するノイズ低減の効果を制御することが可能となる。これにより、合成失敗による輝度信号におけるアーティファクトを抑えつつ、色信号におけるノイズ低減の効果を高めることが可能となる。   According to such a configuration, it is possible to reduce the amount of calculation by combining a plurality of images in the Bayer array based on a combination ratio determined according to the color component, and maintaining the Bayer array. It is possible to control the effect of noise reduction on the luminance signal and the color signal while maintaining the above. Thereby, it is possible to increase the noise reduction effect in the color signal while suppressing artifacts in the luminance signal due to the composition failure.

上記本発明の第1の態様においては、前記合成処理手段は、前記複数枚の画像から1枚の画像を基準画像と定め、前記基準画像と、前記複数枚の画像のうち基準画像以外の画像との間の画素間の相関量、あるいは、複数画素からなる所定の領域間の相関量を算出する相関計算手段を有し、前記相関量が合成対象画素の色成分に応じて決定される閾値以下である場合に、その相関量が小さくなるにつれて、前記基準画像以外の画像の合成比率を小さくすることとしてもよい。   In the first aspect of the present invention, the synthesis processing means determines one image from the plurality of images as a reference image, and the reference image and an image other than the reference image among the plurality of images. A correlation calculating means for calculating a correlation amount between pixels or a correlation amount between predetermined areas composed of a plurality of pixels, and the correlation amount is determined according to a color component of the synthesis target pixel In the following cases, as the correlation amount decreases, the composition ratio of images other than the reference image may be decreased.

上記本発明の第1の態様においては、前記合成処理手段は、前記複数の画像のうち少なくとも1つの画像において、画素毎、または複数の画素を含む所定の領域毎のノイズレベルを推定するノイズレベル推定手段を備え、前記ノイズレベル推定手段により推定されたノイズレベルに基づいて前記閾値を算出することとしてもよい。   In the first aspect of the present invention, the synthesis processing means is configured to estimate a noise level for each pixel or for each predetermined region including a plurality of pixels in at least one of the plurality of images. An estimation means may be provided, and the threshold value may be calculated based on the noise level estimated by the noise level estimation means.

上記本発明の第1の態様においては、前記基準画像と前記対象画像との動き情報を取得する動き情報取得手段と、前記動き情報に基づく画素のシフト量が偶数画素以外である場合に、前記対象画像の画素の補間を行い、補間後の対象画像を前記シフト量に応じてシフトさせて補正する画像補正手段とを備え、前記合成処理手段は、前記画像補正手段により補正された前記複数の画像を合成することとしてもよい。   In the first aspect of the present invention, when the motion information acquisition means for acquiring the motion information between the reference image and the target image, and the shift amount of the pixel based on the motion information is other than an even number of pixels, Image correction means for interpolating pixels of the target image and correcting the interpolated target image by shifting according to the shift amount, and the synthesis processing means includes the plurality of corrections corrected by the image correction means. Images may be combined.

本発明の第2の態様は、各色成分に対応する光電変換素子が所定のパターンで配置された撮像素子から複数の画像を取得し、前記色成分に応じて決定される画像の合成比率に基づいて前記複数の画像を合成して合成画像を生成する画像処理方法である。   According to a second aspect of the present invention, a plurality of images are acquired from an image sensor in which photoelectric conversion elements corresponding to the respective color components are arranged in a predetermined pattern, and based on a composite ratio of images determined according to the color components. An image processing method for generating a composite image by combining the plurality of images.

本発明の第3の態様は、各色成分に対応する光電変換素子が所定のパターンで配置された撮像素子から複数の画像を取得する第1処理と、前記色成分に応じて決定される画像の合成比率に基づいて前記複数の画像を合成して合成画像を生成する第2処理とをコンピュータに実行させるための画像処理プログラムである。   According to a third aspect of the present invention, there is provided a first process for acquiring a plurality of images from an image sensor in which photoelectric conversion elements corresponding to each color component are arranged in a predetermined pattern, and an image determined according to the color component. An image processing program for causing a computer to execute a second process of generating a combined image by combining the plurality of images based on a combining ratio.

本発明によれば、演算量を削減しつつ、輝度信号と色信号とに対するノイズ低減性能を異ならせた画像の補正を行うことができるという効果を奏する。   According to the present invention, it is possible to perform image correction with different noise reduction performances for luminance signals and color signals while reducing the amount of calculation.

本発明の第1の実施形態に係る画像処理装置の構成例を示したブロック図である。1 is a block diagram illustrating a configuration example of an image processing apparatus according to a first embodiment of the present invention. ベイヤー配列の画素を示した図である。It is the figure which showed the pixel of Bayer arrangement. 本発明の第1の実施形態に係る合成処理部の構成例を示した図である。It is a figure showing an example of composition of a composition processing part concerning a 1st embodiment of the present invention. 本発明の第1の実施形態に係る画像処理装置の動作フローを示した図である。It is the figure which showed the operation | movement flow of the image processing apparatus which concerns on the 1st Embodiment of this invention. 複数枚の画像から1枚の画像を合成する手法を説明するための図である。It is a figure for demonstrating the method of synthesize | combining one image from several images. 本発明の第2の実施形態に係る合成処理部の構成例を示した図である。It is the figure which showed the structural example of the synthetic | combination process part which concerns on the 2nd Embodiment of this invention. 合成比率決定部における合成比率の決定方式を説明するための図である(Gr、Gb画素)。It is a figure for demonstrating the determination method of the synthetic | combination ratio in a synthetic | combination ratio determination part (Gr, Gb pixel). 合成比率決定部における合成比率の決定方式を説明するための図である(R、B画素)。It is a figure for demonstrating the determination method of the composite ratio in a composite ratio determination part (R, B pixel). 本発明の第3の実施形態に係る合成処理部の構成例を示した図である。It is the figure which showed the structural example of the synthetic | combination process part which concerns on the 3rd Embodiment of this invention. 撮像素子が出力する画素値とノイズ量の典型的関係を説明するための図である。It is a figure for demonstrating the typical relationship between the pixel value which an image sensor outputs, and noise amount. ノイズレベル推定部の構成例を示した図である。It is the figure which showed the structural example of the noise level estimation part. 合成比率決定部における合成比率の決定方式を説明するための図である(Gr、Gb画素)。It is a figure for demonstrating the determination method of the synthetic | combination ratio in a synthetic | combination ratio determination part (Gr, Gb pixel). 合成比率決定部における合成比率の決定方式を説明するための図である(R、B画素)。It is a figure for demonstrating the determination method of the composite ratio in a composite ratio determination part (R, B pixel).

以下に、本発明に係る画像処理装置、画像処理方法、および画像処理プログラムの実施形態について、図面を参照して説明する。   Embodiments of an image processing apparatus, an image processing method, and an image processing program according to the present invention will be described below with reference to the drawings.

〔第1の実施形態〕
図1は、本実施形態に係る画像処理装置1の概略構成を示したブロック図である。本実施形態に係る画像処理装置1は、例えば、デジタルカメラである。
図1に示されるように、画像処理装置1は、光学系100、撮像素子101、フレームメモリ(画像取得手段)102、画像処理部103、動き情報取得部(動き情報取得手段)104、画像補正部(画像補正手段)105、および合成処理部(合成処理手段)106を備えている。本実施形態においては、基準画像と対象画像との2枚の画像を処理の対象とするものとして説明する。
[First Embodiment]
FIG. 1 is a block diagram illustrating a schematic configuration of an image processing apparatus 1 according to the present embodiment. The image processing apparatus 1 according to the present embodiment is, for example, a digital camera.
As shown in FIG. 1, the image processing apparatus 1 includes an optical system 100, an image sensor 101, a frame memory (image acquisition unit) 102, an image processing unit 103, a motion information acquisition unit (motion information acquisition unit) 104, and image correction. Section (image correction means) 105 and a composition processing section (composition processing means) 106. In the present embodiment, description will be made assuming that two images, a reference image and a target image, are to be processed.

フレームメモリ102は、各色成分に対応する光電変換素子が所定のパターンで配置された撮像素子101から複数の画像を取得する。取得した複数の画像は、動き情報取得部104及び画像補正部105に出力される。   The frame memory 102 acquires a plurality of images from the image sensor 101 in which photoelectric conversion elements corresponding to each color component are arranged in a predetermined pattern. The acquired plurality of images are output to the motion information acquisition unit 104 and the image correction unit 105.

動き情報取得部104は、フレームメモリ102に格納された基準画像と対象画像との間の動きである動き情報を取得する。動き情報は、例えば、基準画像と対象画像との画像間の動きを1個の動きベクトル情報(水平方向移動量と垂直方向移動量)として示される。   The motion information acquisition unit 104 acquires motion information that is a motion between the reference image and the target image stored in the frame memory 102. In the motion information, for example, the motion between the reference image and the target image is indicated as one piece of motion vector information (horizontal movement amount and vertical movement amount).

なお、動き情報は1個の画像につき1個の動きベクトル情報とする他にも、画像を複数の領域に分割し、それぞれの領域で動きベクトルを計算する方法でも良い。また、動きベクトルを水平方向移動量と垂直方向移動量とからなるものとするのではなく、回転や拡大縮小による変化を表現できる形式にすることも可能である。さらに、装置に備えたジャイロ等のセンサを用いて動き情報を取得する方法でも良い。   In addition to the motion information being one motion vector information per image, a method of dividing an image into a plurality of regions and calculating a motion vector in each region may be used. Further, the motion vector is not made up of the horizontal direction movement amount and the vertical direction movement amount, but can also be in a format that can express changes due to rotation or enlargement / reduction. Furthermore, a method of acquiring motion information using a sensor such as a gyro provided in the apparatus may be used.

画像補正部105は、動き情報取得部104で取得された動き情報に基づいて、フレームメモリ102に格納された対象画像を補正する。具体的には、水平方向移動量と垂直方向移動量とからなる動きベクトル情報に基づいて、対象画像の位置をシフトすることにより、基準画像との位置を合わせる。例えば、対象画像の位置をシフトする際に、偶数画素分のシフトの場合は、基準画像とシフト後の対象画像のベイヤー配列(詳細は後述する)における各色(R、Gr、Gb、B)との対応関係が一致するので、画像補正部105は対象画像をシフトするのみでよい。   The image correction unit 105 corrects the target image stored in the frame memory 102 based on the motion information acquired by the motion information acquisition unit 104. More specifically, the position of the target image is adjusted by shifting the position of the target image based on the motion vector information including the horizontal direction movement amount and the vertical direction movement amount. For example, when shifting the position of the target image, in the case of a shift by an even number of pixels, each color (R, Gr, Gb, B) in the Bayer array (details will be described later) of the reference image and the shifted target image Therefore, the image correction unit 105 need only shift the target image.

これに対し、奇数画素分のシフトが含まれる場合や、小数画素分のシフトが含まれる場合、換言すると、シフト量が偶数画素以外の場合には、その分シフトさせてしまうと、基準画像における色の配列とシフト後の対象画像の色の配列とが一致しなくなってしまうので、シフト後の両画像の色の対応関係を一致させるべく、画像補正部105において補間処理とシフト処理とを行う。   On the other hand, when a shift for an odd number of pixels is included, or when a shift for a fractional number of pixels is included, in other words, when the shift amount is other than an even number of pixels, if the shift is performed by that amount, Since the color arrangement and the color arrangement of the target image after the shift do not match, the image correction unit 105 performs an interpolation process and a shift process in order to match the color correspondence between the two images after the shift. .

より具体的に、図2を用いて、奇数画素分(例えば、1画素分)のシフトが含まれる場合の画像補正部105の処理について説明する。
図2(a)はベイヤー配列の画素を示した図である。ベイヤー配列は、G(緑色)のフィルタが市松状に配置されており、R(赤色)フィルタとB(青色)フィルタがラインごとに交互に配置される構成である。したがって、撮像素子101から出力される画像信号は、1画素につきR(赤色)成分、G(緑色)成分、B(青色)成分のいずれか1色の画素値を持った信号となる。そして、このような画像信号が、例えば、G,R,G,R…或いはB,G,B,Gといった色の順でフレームメモリ102に入力される。
More specifically, the processing of the image correction unit 105 when a shift of an odd number of pixels (for example, one pixel) is included will be described with reference to FIG.
FIG. 2A is a diagram illustrating pixels in a Bayer array. In the Bayer array, G (green) filters are arranged in a checkered pattern, and R (red) filters and B (blue) filters are alternately arranged for each line. Therefore, the image signal output from the image sensor 101 is a signal having a pixel value of any one color of R (red) component, G (green) component, and B (blue) component per pixel. Such image signals are input to the frame memory 102 in the order of colors such as G, R, G, R... Or B, G, B, G, for example.

このようなベイヤー配列の画素において、対象画像の各画素を水平方向に1画素ずらす(シフトさせる)と、図2(b)´のようになり、図2(a)で示されていたベイヤー配列とは配列が異なる。従って、この状態では基本画像と合成することができないため、1画素シフトさせると基本画像と同じ色の配列が得られる画像、すなわち、この場合には、図2(b)に示すような配列の画像を、補間処理を行うことにより作成する。
1画素シフトの場合、図2(a)から図2(b)の画像を得るためには、例えば、画素G33(緑色)の位置にR(赤色)の画素を作成しなければならない。
In such a Bayer array pixel, when each pixel of the target image is shifted (shifted) by one pixel in the horizontal direction, the result is as shown in FIG. 2B ', and the Bayer array shown in FIG. And the sequence is different. Therefore, in this state, since it cannot be combined with the basic image, an image in which the same color array as that of the basic image is obtained by shifting one pixel, that is, in this case, an array as shown in FIG. An image is created by performing an interpolation process.
In the case of 1 pixel shift, in order to obtain the image of FIGS. 2A to 2B, for example, an R (red) pixel must be created at the position of the pixel G33 (green).

この場合、G33の周辺に存在するR(赤色)の画素、例えば、水平方向の両隣に配置されているR(赤色)成分、つまりR32とR34とを用いて補間処理を行い、G33の位置にR(赤色)の画素を作成する。この場合、G33に作成されるR(赤色)の画素は、R32とR34との画素値の平均値とする。そして、同様の補間処理を他の全ての画素において行うことにより、図2(a)に示されている色配列から図2(b)に示される色配列の画像を作成する。   In this case, interpolation processing is performed using R (red) pixels present around G33, for example, R (red) components arranged on both sides in the horizontal direction, that is, R32 and R34, and the position of G33 is set. An R (red) pixel is created. In this case, the R (red) pixel created in G33 is the average of the pixel values of R32 and R34. Then, by performing the same interpolation process on all other pixels, an image having the color array shown in FIG. 2B is created from the color array shown in FIG.

そして、図2(b)に示した色配列の画像を作成した後は、この画像を水平方向に1画素分シフトすることで、図2(c)に示される画像を得る。これにより、シフト後の画像の色配列を基本画像と同様の色配列に一致させることができる。
このように、奇数画素分のシフトが含まれる場合には、予め補間処理を行って、シフト後の色配列が基本画素と同じ配列となるような画像を作成する。これにより、基準画像におけるベイヤー配列とシフト後の対象画像のベイヤー配列とを一致させることができる。
Then, after the image having the color arrangement shown in FIG. 2B is created, the image shown in FIG. 2C is obtained by shifting the image by one pixel in the horizontal direction. Thereby, the color arrangement of the image after the shift can be matched with the same color arrangement as that of the basic image.
As described above, when a shift for an odd number of pixels is included, an interpolation process is performed in advance to create an image in which the color arrangement after the shift is the same as the basic pixel. Accordingly, the Bayer array in the reference image can be matched with the Bayer array in the target image after the shift.

なお、本実施形態においては、説明の便宜上、1画素(整数画素)ずつ水平方向にシフトさせる場合について説明したが、偶数画素以外のシフトを行う場合は同様の手法によって対応することができる。
例えば、シフト量が小数点を含んでいる場合には、補間処理において加重平均処理を行うことにより、対応することができる。この場合、シフトはあくまでも1画素単位でしかできないので、補間の方法を工夫することにより、小数点以下のシフトまでも可能とするような色配列の画像を作成する。
In the present embodiment, for the sake of convenience of explanation, the case of shifting by one pixel (integer pixel) in the horizontal direction has been described. However, when a shift other than even pixels is performed, the same method can be used.
For example, when the shift amount includes a decimal point, it can be dealt with by performing a weighted average process in the interpolation process. In this case, since the shift can be performed only in units of one pixel, an image having a color arrangement that enables even a shift after the decimal point is created by devising an interpolation method.

例えば、図2の紙面において左方向に0.1画素シフトさせなければならない場合には、R34の画素に0.1の重みづけ、及びR32の画素に0.9の重みづけをしたものの平均値を算出し、算出された平均値をG33の画素に対するR成分とする。そして、同様の加重平均処理を残りの画素に対して行うことで、まずは、図2(a)に記載の画像を紙面右側に向けて0.9画素シフトさせた画像を作成する。そして、この画像を、紙面左側に向けて1画素シフトさせることにより、最終的には、図2の紙面に向けて左方向に0.1画素シフトさせた画像を得ることができる。なお、上記説明では、両隣の画素を使用して補間処理を行っていたが、この例に限られない。例えば、注目画素を中心とした所定画素からなる領域の中から同色の画素を用い、更に、これらの各画素にシフト量に応じた重み付け値を与えることにより、注目画素の画素値を算出することとしても良い。   For example, when it is necessary to shift 0.1 pixel leftward on the paper surface of FIG. 2, an average value obtained by weighting R34 pixels with 0.1 weight and R32 pixels with 0.9 weighting. And the calculated average value is set as the R component for the G33 pixel. Then, by performing the same weighted average processing on the remaining pixels, first, an image is generated by shifting the image shown in FIG. 2A toward the right side of the paper by 0.9 pixels. Then, by shifting this image by one pixel toward the left side of the paper, it is possible to finally obtain an image shifted by 0.1 pixel leftward toward the paper surface of FIG. In the above description, the interpolation processing is performed using both adjacent pixels, but the present invention is not limited to this example. For example, the pixel value of the target pixel is calculated by using pixels of the same color from a predetermined pixel area centered on the target pixel, and further giving a weighting value corresponding to the shift amount to each of these pixels. It is also good.

例えば、画素G33を囲むR12、R14、R32、R34、R52、およびR54の6画素を用い、これらの画素にシフト量に応じた重み付けを与えることで、G33にR成分の画素を作成することとしてもよい。   For example, by using six pixels R12, R14, R32, R34, R52, and R54 surrounding the pixel G33 and assigning weights according to the shift amount to these pixels, an R component pixel is created in G33. Also good.

これにより、基準画像と対象画像のベイヤー配列における各色(R、Gr、Gb、B)の対応関係が一致するようにする。
なお、例えば、動き情報に回転や拡大縮小に関する情報が含まれる構成の場合は、画像補正部105において回転や拡大縮小に相当する補正処理を行い、基準画像と対象画像との位置合わせを行うこととなる。
Thereby, the correspondence relationship of each color (R, Gr, Gb, B) in the Bayer array of the reference image and the target image is made to match.
For example, in the case of a configuration in which motion information includes information related to rotation and enlargement / reduction, the image correction unit 105 performs correction processing corresponding to rotation and enlargement / reduction to align the reference image and the target image. It becomes.

合成処理部106は、画像補正部105で位置合わせ処理がなされた対象画像と基準画像とから合成画像を出力する。具体的には、合成処理部106は、加重平均化処理部200と合成比率決定部201とを備えている。図3は、合成処理部106の構成例を示したブロック図である。   The composition processing unit 106 outputs a composite image from the target image that has been subjected to the alignment processing by the image correction unit 105 and the reference image. Specifically, the synthesis processing unit 106 includes a weighted averaging processing unit 200 and a synthesis ratio determination unit 201. FIG. 3 is a block diagram illustrating a configuration example of the synthesis processing unit 106.

合成比率決定部201は、基準画像と対象画像の合成比率を決定する。合成比率は、基準画像を1.0とした場合の対象画像の合成割合を0.0から1.0で表すものとする。合成比率決定部201は、処理対象画素がR、Gr、Gb、Bのいずれであるかを識別する色識別情報に基づき、事前に設定された合成比率を加重平均化処理部200に出力する。処理対象画素がGr、Gbの場合、G成分は輝度信号に対する寄与率がR、B成分よりも大きいことから、ノイズ低減性能よりも解像度の保存を重視し、合成比率は低めとする。   The composition ratio determination unit 201 determines a composition ratio between the reference image and the target image. As for the composition ratio, the composition ratio of the target image when the reference image is 1.0 is represented by 0.0 to 1.0. The combination ratio determination unit 201 outputs a preset combination ratio to the weighted average processing unit 200 based on color identification information that identifies whether the processing target pixel is R, Gr, Gb, or B. When the processing target pixels are Gr and Gb, the contribution ratio of the G component to the luminance signal is larger than that of the R and B components. Therefore, the preservation of the resolution is more important than the noise reduction performance, and the composition ratio is set low.

処理対象画素がR、Bの場合、R、B成分は色信号に対する寄与率がG成分よりも大きいことから、ノイズ低減性能を解像度の保存よりも優先し、合成比率を高めとする。以上のように決定された各色成分に応じた合成比率を、事前に合成比率決定部201に設定し、合成比率決定部201は色識別情報に応じて合成比率を加重平均化処理部200に出力する。   When the processing target pixels are R and B, since the contribution ratio of the R and B components to the color signal is larger than that of the G component, the noise reduction performance is prioritized over the resolution storage, and the synthesis ratio is increased. The combination ratio corresponding to each color component determined as described above is set in advance in the combination ratio determination unit 201, and the combination ratio determination unit 201 outputs the combination ratio to the weighted averaging processing unit 200 according to the color identification information. To do.

加重平均化処理部200は、合成比率決定部201が出力する合成比率に応じて、基準画像と対象画像との画素の加重平均処理を行い、合成画像の画素とする。画像処理部103は、合成処理が完了したベイヤー配列の合成画像に対して、3板化処理、色処理、および階調変換処理等の画像処理を施し、出力画像とする。   The weighted average processing unit 200 performs weighted average processing of the pixels of the reference image and the target image in accordance with the combination ratio output from the combination ratio determination unit 201 to obtain the pixel of the combined image. The image processing unit 103 performs image processing such as three-plate processing, color processing, and gradation conversion processing on the composite image of the Bayer array that has undergone the composite processing, and generates an output image.

次に、上記構成を備える画像処理装置の作用について図4を用いて説明する。画像処理装置1は、レンズ等からなる光学系100を通して撮像素子101にて画像が撮像され、複数の撮像画像(例えば、フレーム1およびフレーム2)がフレームメモリ102に格納される(ステップSA1)。撮像素子101は、例えば、ベイヤー配列を有しており、フレームメモリ102にはベイヤー配列の画像が格納される。このような撮像処理を所定枚数分繰り返すことにより、フレームメモリ102には、複数枚のベイヤー配列の画像が格納される。   Next, the operation of the image processing apparatus having the above configuration will be described with reference to FIG. In the image processing apparatus 1, an image is picked up by the image pickup device 101 through the optical system 100 including a lens or the like, and a plurality of picked-up images (for example, frame 1 and frame 2) are stored in the frame memory 102 (step SA1). The image sensor 101 has, for example, a Bayer array, and an image of the Bayer array is stored in the frame memory 102. By repeating such imaging processing for a predetermined number of sheets, a plurality of Bayer array images are stored in the frame memory 102.

動き情報取得部104において、フレーム1が基準画像、フレーム2が対象画像とされ、このフレーム1(基準画像)とフレーム2(対象画像)とに基づいて、動きベクトル情報が取得(検出)される(ステップSA2)。画像補正部105において、動き情報取得部104から取得された動きベクトル情報に基づいて、フレーム2(対象画像)が補正される(ステップSA3)。合成比率決定部201において、色識別情報に基づいて合成比率が決定される(ステップSA4)。加重平均化処理部200において、合成比率に基づいてフレーム1(基準画像)とフレーム2(対象画像)とに加重平均処理が施され、合成画像が生成される(ステップSA5)。こうして生成された合成画像は、フレームメモリ102に出力される(ステップSA6)。ステップSA4、ステップSA5の処理は、撮像素子101によって撮像された全ての画像に対して繰り返し施される。   In the motion information acquisition unit 104, frame 1 is a reference image and frame 2 is a target image, and motion vector information is acquired (detected) based on frame 1 (reference image) and frame 2 (target image). (Step SA2). In the image correction unit 105, the frame 2 (target image) is corrected based on the motion vector information acquired from the motion information acquisition unit 104 (step SA3). The composition ratio determining unit 201 determines the composition ratio based on the color identification information (step SA4). In the weighted averaging processing unit 200, the weighted average processing is performed on the frame 1 (reference image) and the frame 2 (target image) based on the composition ratio, and a composite image is generated (step SA5). The composite image generated in this way is output to the frame memory 102 (step SA6). The processes in step SA4 and step SA5 are repeatedly performed on all images captured by the image sensor 101.

より具体的に、4枚の画像から1枚の画像を合成する例を示す。4枚の画像をフレーム1からフレーム4とし、2枚の画像を合成して1枚の合成画像を得るという基本処理を3回行うことで、最終的に4枚の画像から1枚の合成画像を得る場合について図5を用いて説明する。
図5に示されるように、フレーム1とフレーム2とを合成し合成画像1を生成する。合成の際には一方を基準画像、他方を対象画像と定義するものとする。続いて、フレーム3を基準画像、フレーム4を対象画像としてフレーム3とフレーム4とを合成し、合成画像2を生成する。さらに、合成画像1を基準画像、合成画像2を対象画像とし、合成画像1と合成画像2とを合成し、合成画像3を生成する。
More specifically, an example in which one image is synthesized from four images is shown. The basic process of combining four images from frame 1 to frame 4 and synthesizing the two images to obtain one composite image is performed three times, so that one composite image is finally formed from the four images. The case of obtaining is described with reference to FIG.
As shown in FIG. 5, frame 1 and frame 2 are combined to generate a combined image 1. At the time of synthesis, one is defined as a reference image and the other as a target image. Subsequently, the frame 3 is combined with the frame 4 using the frame 3 as a reference image and the frame 4 as a target image, thereby generating a combined image 2. Further, the synthesized image 1 is used as a reference image and the synthesized image 2 is set as a target image, and the synthesized image 1 and the synthesized image 2 are synthesized to generate a synthesized image 3.

なお、複数枚の合成手法はこれに限られることはなく、例えば図5における合成画像1とフレーム3とを合成し、この合成結果とフレーム4を合成する方式でもよい。また、合成の基本処理を基準画像と対象画像1枚の計2枚の合成処理とするのではなく、基準画像と対象画像3枚の計4枚とすることも、動き情報取得部104、画像補正部105、合成処理部106を拡張することにより容易に可能である。   Note that the method of combining a plurality of sheets is not limited to this, and for example, a method of combining the combined image 1 and the frame 3 in FIG. In addition, instead of combining the basic process of combining two reference images and one target image, a total of four reference images and three target images, the motion information acquisition unit 104, the image This can be easily achieved by expanding the correction unit 105 and the composition processing unit 106.

また、基準画像の定め方については、先に撮像した画像とする他にも、後に撮像された画像とする方法や、基本処理のたびに先後を変えることで、中間的な時刻に撮像された画像を基準にすることも可能である。   In addition to the method of determining the reference image, in addition to the image picked up first, the image was picked up at an intermediate time by changing the method of making the image picked up later or each time basic processing is performed. It is also possible to use the image as a reference.

なお、上述した実施形態では、画像処理装置としてハードウェアによる処理を前提としていたが、このような構成に限定される必要はない。例えば、各センサからの出力信号に基づいて別途ソフトウェアにて処理する構成も可能である。この場合、画像処理装置は、CPU、RAM等の主記憶装置、上記処理の全て或いは一部を実現させるためのプログラムが記録されたコンピュータ読み取り可能な記録媒体を備えている。そして、CPUが上記記憶媒体に記録されているプログラムを読み出して、情報の加工・演算処理を実行することにより、上述の画像処理装置と同様の処理を実現させる。
ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。
In the above-described embodiment, processing by hardware is assumed as the image processing apparatus, but it is not necessary to be limited to such a configuration. For example, a configuration in which software is separately processed based on output signals from each sensor is also possible. In this case, the image processing apparatus includes a main storage device such as a CPU and a RAM, and a computer-readable recording medium on which a program for realizing all or part of the above processing is recorded. Then, the CPU reads out the program recorded in the storage medium and executes information processing / calculation processing, thereby realizing processing similar to that of the above-described image processing apparatus.
Here, the computer-readable recording medium means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Alternatively, the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.

以上説明してきたように、本発明に係る画像処理装置及び画像処理方法並びにプログラムによれば、ベイヤー配列の複数枚の画像を、色成分に応じて決定される合成比率に基づいて合成することにより、ベイヤー配列を保ったまま合成することによる演算量低減の効果を維持しつつ、輝度信号と色信号とに対するノイズ低減の効果を制御することができる。これにより、合成の失敗による輝度信号におけるアーティファクトを抑制し、かつ、色信号におけるノイズ低減の効果を向上させることが可能となる。   As described above, according to the image processing device, the image processing method, and the program according to the present invention, by synthesizing a plurality of Bayer array images based on the composition ratio determined according to the color components. In addition, it is possible to control the effect of reducing noise with respect to the luminance signal and the color signal while maintaining the effect of reducing the amount of calculation by synthesizing while maintaining the Bayer arrangement. As a result, artifacts in the luminance signal due to the composition failure can be suppressed, and the noise reduction effect in the color signal can be improved.

なお、本実施形態においては合成比率を0.0から1.0で設定する構成としていたが、これに限定されない。例えば、合成比率を0.0と1.0の2値とし、加重平均化処理部200を単純な平均化処理に置き換えることで、演算量を削減する構成としてもよい。これにより、例えば、Gr、Gb画素については2枚の画像の合成処理、R、B画素については8枚の画像の合成処理を行う構成とすることが可能となり、上述の効果を得ることができる。   In the present embodiment, the composition ratio is set from 0.0 to 1.0. However, the present invention is not limited to this. For example, the composition ratio may be a binary value of 0.0 and 1.0, and the weighted averaging processing unit 200 may be replaced with a simple averaging process to reduce the calculation amount. Accordingly, for example, it is possible to adopt a configuration in which two images are combined for Gr and Gb pixels, and eight images are combined for R and B pixels, and the above-described effects can be obtained. .

〔第2の実施形態〕
次に、本発明の第2の実施形態に係る画像処理装置について図6を参照して説明する。
図6に示されるように、第2の実施形態に係る画像処理装置は、第1の実施形態における合成処理部106の構成に変更が加えられ、相関計算部(相関計算手段)300を更に備えた構成である。図6に示されるように、第2の実施形態における合成処理部106´に入力されるのは、ベイヤー配列の基準画像と対象画像とである。これら画像は相関計算部300において相関が算出される。
以下、本実施形態に係る画像処理装置について、第1の実施形態と共通する点については説明を省略し、異なる点について主に説明する。
[Second Embodiment]
Next, an image processing apparatus according to a second embodiment of the present invention will be described with reference to FIG.
As shown in FIG. 6, the image processing apparatus according to the second embodiment is further provided with a correlation calculation unit (correlation calculation means) 300 in which the configuration of the synthesis processing unit 106 in the first embodiment is changed. It is a configuration. As shown in FIG. 6, the reference image and the target image in the Bayer array are input to the composition processing unit 106 ′ in the second embodiment. The correlation of these images is calculated by the correlation calculation unit 300.
Hereinafter, the image processing apparatus according to the present embodiment will not be described with respect to the points common to the first embodiment, and different points will be mainly described.

相関計算部300は、画像間の相関値として差分絶対値を画素毎に算出する。一般に、位置合わせが成功している場合には差分絶対値は小さくなり、位置合わせが失敗している場合には差分絶対値は大きくなるので、この結果を合成比率決定部301での合成比率の制御に利用して、位置合わせ失敗に起因するぼけや2重像等のアーティファクトを抑える。   The correlation calculation unit 300 calculates an absolute difference value for each pixel as a correlation value between images. Generally, when the alignment is successful, the absolute difference value is small, and when the alignment is unsuccessful, the absolute difference value is large. It is used for control to suppress artifacts such as blur and double image caused by alignment failure.

なお、相関値として本実施形態では画素間の差分絶対値を用いているが、この他にもより安定した相関値を算出するために、注目画素の周辺画素からなるブロックについて、ブロック間の差分絶対値和(SAD)を相関値としても良い。また、演算量を削減するために、画素毎に相関値を算出するのではなく、複数の画素からなる領域につき1つの相関値を算出する構成にしても良い。また例えば、R画素における画素間の相関値の代わりに、近傍のGrあるいはGb画素の相関値を用いる構成にしても良い。   In this embodiment, the absolute value of the difference between pixels is used as the correlation value. In addition, in order to calculate a more stable correlation value, the difference between the blocks is determined for the block including the peripheral pixels of the target pixel. The absolute value sum (SAD) may be used as the correlation value. Further, in order to reduce the amount of calculation, a correlation value may not be calculated for each pixel, but one correlation value may be calculated for a region composed of a plurality of pixels. Further, for example, instead of the correlation value between pixels in the R pixel, a correlation value of neighboring Gr or Gb pixels may be used.

合成比率決定部301は、相関計算部300で算出される差分絶対値と、処理対象画素がR、Gr、Gb、Bのいずれであるかを識別する色識別情報に基づいて、基準画像と対象画像の合成比率を決定する。合成比率は、基準画像を1.0とした際の対象画像の合成割合を0.0から1.0で表すものとする。画素の差分絶対値の大小で合成比率を制御する。差分絶対値が小さい場合には、位置合わせが成功している可能性が高いので合成比率は大きくする。   The combination ratio determination unit 301 determines the reference image and the target based on the difference absolute value calculated by the correlation calculation unit 300 and the color identification information that identifies whether the processing target pixel is R, Gr, Gb, or B. Determine the composition ratio of the images. As for the composition ratio, the composition ratio of the target image when the reference image is 1.0 is represented by 0.0 to 1.0. The composition ratio is controlled by the magnitude of the absolute difference value of the pixels. When the difference absolute value is small, it is highly likely that the alignment has succeeded, so the composition ratio is increased.

差分絶対値が大きい場合には、位置合わせが失敗している可能性が高いのでアーティファクトを抑制するため合成比率を小さくする。さらに色識別情報を用いて、Gr、Gb画素についてはノイズ低減性能よりも解像度の維持を優先し、R、B画素についてはノイズ低減性能を解像度の維持よりも優先するように合成比率を制御する。   When the difference absolute value is large, there is a high possibility that the alignment has failed, so the synthesis ratio is decreased to suppress artifacts. Furthermore, using the color identification information, for Gr and Gb pixels, the synthesis ratio is controlled so that priority is given to maintaining resolution over noise reduction performance, and for R and B pixels, noise reduction performance is prioritized over resolution maintenance. .

図7は、Gr、Gb画素における画素の差分絶対値と合成比率の関係例を示した図であり、図8は、R、B画素における画素の差分絶対値と合成比率の関係例を示した図である。図7の例では、差分絶対値が閾値1より小さい場合には合成比率を1.0に、差分絶対値が閾値2より大きい場合には合成比率を0.0にし、閾値1から閾値2へは直線的に合成比率を遷移させている。閾値1および閾値2は小さめの値とし、差分絶対値が大きい場合には迅速に合成比率を小さくして合成失敗によるアーティファクトを抑制する設定としている。   FIG. 7 is a diagram illustrating an example of the relationship between the pixel difference absolute value and the composition ratio in the Gr and Gb pixels, and FIG. 8 illustrates an example of the relationship between the pixel difference absolute value and the composition ratio in the R and B pixels. FIG. In the example of FIG. 7, when the difference absolute value is smaller than the threshold value 1, the composition ratio is set to 1.0, and when the difference absolute value is greater than the threshold value 2, the composition ratio is set to 0.0. Is a linear transition of the composition ratio. Threshold values 1 and 2 are set to be smaller values, and when the difference absolute value is large, the composition ratio is quickly reduced to suppress artifacts due to composition failure.

図8の例では、差分絶対値が閾値3より小さい場合には合成比率を1.0に、差分絶対値が閾値4より大きい場合には合成比率を0.5にし、閾値3から閾値4へは直線的に合成比率を遷移させている。閾値3および閾値4は大きめの値とし、差分絶対値がある程度大きい場合でも合成比率が小さくなりすぎないようにしてノイズ低減能力を維持することを優先する設定としている。   In the example of FIG. 8, when the difference absolute value is smaller than the threshold value 3, the composition ratio is set to 1.0, and when the difference absolute value is greater than the threshold value 4, the composition ratio is set to 0.5. Is a linear transition of the composition ratio. The thresholds 3 and 4 are set to larger values, and even when the absolute difference value is large to some extent, priority is given to maintaining the noise reduction capability so that the synthesis ratio does not become too small.

以上説明してきたように、本実施形態に係る画像処理装置及び画像処理方法並びにプログラムによれば、ベイヤー配列の複数枚の画像を、色成分に応じて決定される合成比率に基づいて合成することにより、ベイヤー配列を保ったまま合成することによる演算量低減の効果を維持しつつ、輝度信号と色信号に対するノイズ低減の効果を制御することが可能となる。さらに、画像間の相関値と合成比率の関係を、色成分に応じて設定することにより、合成失敗による輝度信号におけるアーティファクトを抑えつつ、色信号におけるノイズ低減の効果をより高めることが可能となる。   As described above, according to the image processing apparatus, the image processing method, and the program according to the present embodiment, a plurality of images in a Bayer array are combined based on a combination ratio determined according to color components. As a result, it is possible to control the noise reduction effect on the luminance signal and the color signal while maintaining the effect of reducing the amount of calculation by synthesizing while maintaining the Bayer array. Furthermore, by setting the relationship between the correlation value between images and the composition ratio according to the color component, it is possible to further enhance the noise reduction effect in the color signal while suppressing artifacts in the luminance signal due to composition failure. .

なお、本実施形態においては合成比率を0.0から1.0の間で連続的に変化させる構成としているが、これを0.0と1.0の2値とし、加重平均化処理部200を単純な平均化処理に置き換えることで、演算量を削減する構成も可能である。   In this embodiment, the composition ratio is continuously changed between 0.0 and 1.0. However, this is a binary value of 0.0 and 1.0, and the weighted averaging processing unit 200 is used. It is also possible to reduce the amount of calculation by replacing with a simple averaging process.

〔第3の実施形態〕
本発明の第3の実施形態に係る画像処理装置は、第2の実施形態における合成処理部106の構成に変更が加えられた構成である。図9に第3の実施形態における合成処理部106´´の構成図を示す。第3の実施形態は、第2の実施形態における合成処理部106´にノイズレベル推定部(ノイズレベル推定手段)400が更に備えられ、合成比率決定部401における合成比率をノイズレベル、画像間の相関により決定することにより、ぼけや2重像等のアーティファクトをより精度良く確実に抑え、加えて色識別情報を用いて合成比率を制御することにより、輝度信号と色信号に対するノイズ低減の効果を制御する形態である。
以下、本実施形態に係る画像処理装置について、第1、第2の実施形態と共通する点については説明を省略し、異なる点について主に説明する。
[Third Embodiment]
The image processing apparatus according to the third embodiment of the present invention has a configuration obtained by changing the configuration of the synthesis processing unit 106 according to the second embodiment. FIG. 9 shows a configuration diagram of the composition processing unit 106 ″ in the third embodiment. In the third embodiment, the synthesis processing unit 106 ′ in the second embodiment is further provided with a noise level estimation unit (noise level estimation means) 400, and the synthesis ratio in the synthesis ratio determination unit 401 is determined based on the noise level and between the images. By determining by correlation, artifacts such as blur and double image can be suppressed more accurately and reliably, and by controlling the combination ratio using color identification information, the effect of noise reduction on the luminance signal and color signal can be improved. It is a form to control.
Hereinafter, the image processing apparatus according to this embodiment will not be described for points that are the same as those in the first and second embodiments, and different points will be mainly described.

合成処理部106´´に入力されるのは、ベイヤー配列の基準画像と対象画像である。まず、基準画像と対象画像から相関計算部300で画像間の相関値が算出される。詳細は第2の実施形態と同様である。また、基準画像と対象画像から、処理対象画素に含まれるノイズの強度(ノイズレベル)をノイズレベル推定部400で推定する。   The reference image and target image in the Bayer array are input to the composition processing unit 106 ″. First, a correlation value between images is calculated by the correlation calculation unit 300 from the reference image and the target image. Details are the same as in the second embodiment. Further, the noise level estimation unit 400 estimates the noise intensity (noise level) included in the processing target pixel from the reference image and the target image.

一般に、撮像素子が出力する画素に含まれるノイズ量と画素値との間には一定の関係があり、画素値からノイズ量が推定できることが知られている。図10に撮像素子が出力する画素値とノイズ量の典型的関係を示す。図10における横軸は撮像素子が出力する画素の画素値、縦軸はその画素に含まれるノイズ量(ノイズの標準偏差等)である。典型的には、撮像素子が出力する画素値が大きくなるにつれて、含まれるノイズ量は増える傾向にある。   In general, it is known that there is a certain relationship between the amount of noise contained in a pixel output from an image sensor and the pixel value, and the amount of noise can be estimated from the pixel value. FIG. 10 shows a typical relationship between the pixel value output from the image sensor and the amount of noise. In FIG. 10, the horizontal axis represents the pixel value of the pixel output from the image sensor, and the vertical axis represents the amount of noise (such as the standard deviation of noise) contained in the pixel. Typically, the amount of noise included tends to increase as the pixel value output from the image sensor increases.

ノイズレベル推定部400では、上述のようなノイズ量と画素値との関連を用いて、処理対象画素に含まれるノイズの強度(ノイズレベル)を推定する。図11にノイズレベル推定部400の構成図を示す。ノイズレベル計算部500、501は、図10に示すような画素値とノイズ量の関係を事前に折れ線近似、あるいは、テーブル化等の手法により用意しておき、基準画像の画素、あるいは、対象画像の画素のノイズレベルをそれぞれ算出する。   The noise level estimation unit 400 estimates the noise intensity (noise level) included in the processing target pixel using the relationship between the noise amount and the pixel value as described above. FIG. 11 shows a configuration diagram of the noise level estimation unit 400. The noise level calculation units 500 and 501 prepare the relationship between the pixel value and the amount of noise as shown in FIG. 10 in advance by a method such as polygonal line approximation or table formation, and the reference image pixel or target image. The noise level of each pixel is calculated.

なお、ノイズレベル推定部400が推定するノイズレベルは、撮像素子が出力するノイズ量と完全に一致する必要はなく、後に行なわれる階調変換処理等の画像処理により増幅されるノイズも考慮して設定してもよい。典型的には、階調変換処理により暗部のノイズが増幅されるため、暗部において撮像素子が出力するノイズ量よりも大きい値をノイズレベルとして設定することも可能である。   Note that the noise level estimated by the noise level estimation unit 400 does not need to completely match the amount of noise output from the image sensor, and also considers noise amplified by image processing such as gradation conversion processing performed later. It may be set. Typically, since the noise in the dark portion is amplified by the gradation conversion process, a value larger than the amount of noise output from the image sensor in the dark portion can be set as the noise level.

基準画像と対象画像の位置合わせが成功している画素においては、基準画像の画素値と対象画像の画素値に大きな差はなく、算出されるノイズレベルにも大きな違いは生じない。しかし、位置合わせが失敗している画素においてはこれらに違いが生ずる可能性が高く、当該画素のノイズレベルとしては最大値計算部502にて最大値を選択することで、これをノイズレベルとする。   For pixels in which the alignment of the reference image and the target image is successful, there is no significant difference between the pixel value of the reference image and the pixel value of the target image, and no significant difference occurs in the calculated noise level. However, there is a high possibility that a difference will occur in a pixel for which alignment has failed, and this is set as the noise level by selecting the maximum value in the maximum value calculation unit 502 as the noise level of the pixel. .

なお、本実施形態においては、最大値計算部502にて最大値を算出し、これをノイズレベルとしたが、この他にも、基準画像のノイズレベルと対象画像のノイズレベルの加重平均値とし、例えば基準画像の画素に重みをつけてノイズレベルを推定することも可能である。またノイズレベル計算部500、501を複数動作させるのが演算量の観点から望ましくない場合には、ノイズレベル計算部500のみを動作させ、この出力をノイズレベルとしても良い。   In the present embodiment, the maximum value is calculated by the maximum value calculation unit 502 and set as the noise level. However, in addition to this, a weighted average value of the noise level of the reference image and the noise level of the target image is used. For example, it is possible to estimate the noise level by weighting the pixels of the reference image. If it is not desirable to operate a plurality of noise level calculation units 500 and 501 from the viewpoint of the amount of calculation, only the noise level calculation unit 500 may be operated and this output may be used as the noise level.

次に、合成比率決定部401の動作について説明する。
合成比率決定部401は、ノイズレベル推定部400で算出されるノイズレベルと、相関計算部300で算出される差分絶対値と、処理対象画素がR、Gr、Gb、Bのいずれであるかを識別する色識別情報に基づいて、基準画像と対象画像の合成比率を決定する。
Next, the operation of the composition ratio determination unit 401 will be described.
The synthesis ratio determination unit 401 determines whether the noise level calculated by the noise level estimation unit 400, the difference absolute value calculated by the correlation calculation unit 300, and the processing target pixel is R, Gr, Gb, or B. Based on the color identification information to be identified, the composition ratio of the reference image and the target image is determined.

第2の実施形態と同様に、合成比率は、基準画像を1.0とした際の対象画像の合成割合を0.0から1.0で表すものとする。画素の差分絶対値の大小で合成比率を制御する。差分絶対値が小さい場合には、位置合わせが成功している可能性が高いので合成比率は大きくする。差分絶対値が大きい場合には、位置合わせが失敗している可能性が高いのでアーティファクトを抑えるため合成比率を小さくする。さらに色識別情報を用いて、Gr、Gb画素についてはノイズ低減性能よりも解像度の保存を重視し、R、B画素についてはノイズ低減性能を解像度の保存よりも優先するように合成比率を制御する。   As in the second embodiment, the composition ratio represents the composition ratio of the target image from 0.0 to 1.0 when the reference image is 1.0. The composition ratio is controlled by the magnitude of the absolute difference value of the pixels. When the difference absolute value is small, it is highly likely that the alignment has succeeded, so the composition ratio is increased. When the difference absolute value is large, there is a high possibility that the alignment has failed, so the synthesis ratio is reduced to suppress artifacts. Furthermore, using the color identification information, for Gr and Gb pixels, the synthesis ratio is controlled so that the preservation of resolution is more important than the noise reduction performance, and for R and B pixels, the noise reduction performance is prioritized over the preservation of resolution. .

図12にGr、Gb画素における画素の差分絶対値と合成比率の関係例を、図13にR、B画素における画素の差分絶対値と合成比率の関係例を示す。図12の例では、第2の実施形態と同様に、差分絶対値が閾値1より小さい場合には合成比率を1.0に、差分絶対値が閾値2より大きい場合には合成比率を0.0にし、閾値1から閾値2へは直線的に合成比率を遷移させている。これに加えてノイズレベルに応じて閾値1と閾値2を制御することにより、ノイズレベルに応じた合成比率の制御を行う。   FIG. 12 shows an example of the relationship between the pixel difference absolute value and the composition ratio in the Gr and Gb pixels, and FIG. 13 shows an example of the relationship between the pixel difference absolute value and the composition ratio in the R and B pixels. In the example of FIG. 12, as in the second embodiment, when the difference absolute value is smaller than the threshold value 1, the combination ratio is 1.0, and when the difference absolute value is greater than the threshold value 2, the combination ratio is 0. The composition ratio is shifted linearly from threshold value 1 to threshold value 2. In addition, by controlling the threshold value 1 and the threshold value 2 according to the noise level, the synthesis ratio is controlled according to the noise level.

ノイズレベルが大きい画素においては、合成によるノイズ低減の必要性が高いことから、合成比率を大きくするために、閾値1と閾値2を大きくする。具体的には、ノイズレベルに所定の定数を乗算した値を、閾値1と閾値2にそれぞれ加算する等とすればよい。ノイズレベルが小さい画素においては、合成によるノイズ低減の必要性が低いので、合成比率を低くするために、閾値1と閾値2を小さくする。具体的には、ノイズレベルに所定の定数を乗算した値を、閾値1と閾値2からそれぞれ減算する等とすればよい。合成比率決定部503は、このような関係をテーブル化等の手法で用意しておいてもよいし、数式計算で算出するようにしてもよい。   In a pixel with a high noise level, the necessity for noise reduction by synthesis is high, so that threshold 1 and threshold 2 are increased in order to increase the synthesis ratio. Specifically, a value obtained by multiplying the noise level by a predetermined constant may be added to threshold 1 and threshold 2, respectively. In a pixel with a low noise level, since the necessity for noise reduction by synthesis is low, the threshold value 1 and the threshold value 2 are reduced in order to reduce the synthesis ratio. Specifically, a value obtained by multiplying the noise level by a predetermined constant may be subtracted from the threshold value 1 and the threshold value 2, respectively. The composition ratio determining unit 503 may prepare such a relationship by a method such as tabulation or may calculate the relationship by mathematical formula calculation.

図13の例では、差分絶対値が閾値3より小さい場合には合成比率を1.0に、差分絶対値が閾値4より大きい場合には合成比率を0.5にし、閾値3から閾値4へは直線的に合成比率を遷移させている。閾値3および閾値4は大きめの値とし、差分絶対値がある程度大きい場合でも合成比率が小さくなりすぎないようにしてノイズ低減能力を維持することを優先する設定としている。Gr、Gb画素の場合と同様に、ノイズレベルに応じて閾値3と閾値4を制御することにより、ノイズレベルに応じた合成比率の制御を行う。   In the example of FIG. 13, when the difference absolute value is smaller than the threshold value 3, the composition ratio is set to 1.0, and when the difference absolute value is larger than the threshold value 4, the composition ratio is set to 0.5. Is a linear transition of the composition ratio. The thresholds 3 and 4 are set to larger values, and even when the absolute difference value is large to some extent, priority is given to maintaining the noise reduction capability so that the synthesis ratio does not become too small. As in the case of the Gr and Gb pixels, the threshold value 3 and the threshold value 4 are controlled according to the noise level, thereby controlling the synthesis ratio according to the noise level.

以上説明してきたように、本実施形態に係る画像処理装置及び画像処理方法並びにプログラムによれば、ベイヤー配列の複数枚の画像を、色成分に応じて決定される合成比率に基づいて合成することにより、ベイヤー配列を保ったまま合成することによる演算量低減の効果を維持しつつ、輝度信号と色信号に対するノイズ低減の効果を制御することが可能となる。さらに、画像間の相関値と合成比率の関係を色成分に応じて設定し、且つこれらを、処理対象画素のノイズレベルに応じて制御することで、合成失敗による輝度信号におけるアーティファクトを精度良く抑えつつ、色信号におけるノイズ低減の効果をより高めることが可能となる。   As described above, according to the image processing apparatus, the image processing method, and the program according to the present embodiment, a plurality of images in a Bayer array are combined based on a combination ratio determined according to color components. As a result, it is possible to control the noise reduction effect on the luminance signal and the color signal while maintaining the effect of reducing the amount of calculation by synthesizing while maintaining the Bayer array. Furthermore, the relationship between the correlation value between images and the composition ratio is set according to the color component, and these are controlled according to the noise level of the pixel to be processed, thereby accurately suppressing artifacts in the luminance signal due to composition failure. However, the noise reduction effect in the color signal can be further enhanced.

なお、本実施形態においては合成比率を0.0から1.0の間で連続的に変化させる構成としていたが、これを0.0と1.0の2値とし、加重平均化処理部200を単純な平均化処理に置き換えることで、演算量を削減する構成も可能である。   In the present embodiment, the composition ratio is continuously changed between 0.0 and 1.0. However, this is a binary value of 0.0 and 1.0, and the weighted averaging processing unit 200 It is also possible to reduce the amount of calculation by replacing with a simple averaging process.

104 動き情報取得部
105 画像補正部
106 合成処理部
200 加重平均化処理部
201、301、401 合成比率決定部
300 相関計算部
400 ノイズレベル推定部
500、501 ノイズレベル計算部
502 最大値計算部
104 motion information acquisition unit 105 image correction unit 106 synthesis processing unit 200 weighted averaging processing unit 201, 301, 401 synthesis ratio determination unit 300 correlation calculation unit 400 noise level estimation unit 500, 501 noise level calculation unit 502 maximum value calculation unit

Claims (6)

各色成分に対応する光電変換素子が所定のパターンで配置された撮像素子から複数の画像を取得する画像取得手段と、
前記複数の画像から合成画像を生成する合成処理手段とを備え、
前記合成処理手段は、前記色成分に応じて決定される画像の合成比率に基づいて画像を合成することを特徴とする画像処理装置。
Image acquisition means for acquiring a plurality of images from an image sensor in which photoelectric conversion elements corresponding to the respective color components are arranged in a predetermined pattern;
Combining processing means for generating a composite image from the plurality of images,
The image processing apparatus, wherein the composition processing unit synthesizes an image based on an image composition ratio determined according to the color component.
前記合成処理手段は、
前記複数枚の画像から1枚の画像を基準画像と定め、前記基準画像と、前記複数枚の画像のうち基準画像以外の画像との間の画素間の相関量、あるいは、複数画素からなる所定の領域間の相関量を算出する相関計算手段を有し、
前記相関量が合成対象画素の色成分に応じて決定される閾値以下である場合に、その相関量が小さくなるにつれて、前記基準画像以外の画像の合成比率を小さくすることを特徴とする請求項1に記載の画像処理装置。
The synthesis processing means includes
One image is defined as a reference image from the plurality of images, and a correlation amount between pixels between the reference image and an image other than the reference image among the plurality of images, or a predetermined number of pixels. A correlation calculation means for calculating a correlation amount between the regions of
The composition ratio of images other than the reference image is reduced as the correlation amount is reduced when the correlation amount is equal to or less than a threshold value determined according to the color component of the synthesis target pixel. The image processing apparatus according to 1.
前記合成処理手段は、
前記複数の画像のうち少なくとも1つの画像において、画素毎、または複数の画素を含む所定の領域毎のノイズレベルを推定するノイズレベル推定手段を備え、
前記ノイズレベル推定手段により推定されたノイズレベルに基づいて前記閾値を算出することを特徴とする請求項2に記載の画像処理装置。
The synthesis processing means includes
Noise level estimation means for estimating a noise level for each pixel or for each predetermined region including a plurality of pixels in at least one of the plurality of images,
The image processing apparatus according to claim 2, wherein the threshold value is calculated based on a noise level estimated by the noise level estimation unit.
前記基準画像と前記対象画像との動き情報を取得する動き情報取得手段と、
前記動き情報に基づく画素のシフト量が偶数画素以外である場合に、前記対象画像の画素の補間を行い、補間後の対象画像を前記シフト量に応じてシフトさせて補正する画像補正手段と
を備え、
前記合成処理手段は、
前記画像補正手段により補正された前記複数の画像を合成することを特徴とする請求項1から請求項3のいずれかに記載の画像処理装置。
Motion information acquisition means for acquiring motion information between the reference image and the target image;
Image correction means for interpolating pixels of the target image when the pixel shift amount based on the motion information is other than an even number of pixels and correcting the interpolated target image according to the shift amount; Prepared,
The synthesis processing means includes
The image processing apparatus according to claim 1, wherein the plurality of images corrected by the image correction unit are combined.
各色成分に対応する光電変換素子が所定のパターンで配置された撮像素子から複数の画像を取得し、
前記色成分に応じて決定される画像の合成比率に基づいて前記複数の画像を合成して合成画像を生成する画像処理方法。
A plurality of images are acquired from an image sensor in which photoelectric conversion elements corresponding to each color component are arranged in a predetermined pattern,
An image processing method for generating a composite image by combining the plurality of images based on a composite ratio of images determined according to the color components.
各色成分に対応する光電変換素子が所定のパターンで配置された撮像素子から複数の画像を取得する第1処理と、
前記色成分に応じて決定される画像の合成比率に基づいて前記複数の画像を合成して合成画像を生成する第2処理と
をコンピュータに実行させるための画像処理プログラム。
A first process of acquiring a plurality of images from an image sensor in which photoelectric conversion elements corresponding to each color component are arranged in a predetermined pattern;
An image processing program for causing a computer to execute a second process of generating a composite image by combining the plurality of images based on a composite ratio of images determined according to the color components.
JP2010067017A 2010-03-23 2010-03-23 Apparatus, method and program for processing image Pending JP2011199786A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010067017A JP2011199786A (en) 2010-03-23 2010-03-23 Apparatus, method and program for processing image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010067017A JP2011199786A (en) 2010-03-23 2010-03-23 Apparatus, method and program for processing image

Publications (1)

Publication Number Publication Date
JP2011199786A true JP2011199786A (en) 2011-10-06

Family

ID=44877377

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010067017A Pending JP2011199786A (en) 2010-03-23 2010-03-23 Apparatus, method and program for processing image

Country Status (1)

Country Link
JP (1) JP2011199786A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013135343A (en) * 2011-12-26 2013-07-08 Ricoh Co Ltd Imaging device
JP2014072846A (en) * 2012-10-01 2014-04-21 Fujitsu Semiconductor Ltd Image composition device and image composition method
US9420175B2 (en) 2014-03-27 2016-08-16 Olympus Corporation Image processing system, image processing method, and computer-readable medium
WO2016207990A1 (en) * 2015-06-24 2016-12-29 オリンパス株式会社 Image processing device, imaging device, image processing method, image processing program, and storage medium
JP2017017585A (en) * 2015-07-02 2017-01-19 オリンパス株式会社 Imaging apparatus and image processing method
US9898803B2 (en) 2014-04-16 2018-02-20 Olympus Corporation Image processing apparatus, image processing method, and recording medium storing image processing program
WO2018159288A1 (en) * 2017-02-28 2018-09-07 ソニー株式会社 Image processing apparatus, image forming method, and program
US10096091B2 (en) 2015-11-16 2018-10-09 Samsung Electronics Co., Ltd. Image generating method and apparatus
US10491815B2 (en) 2017-11-10 2019-11-26 Olympus Corporation Image-processing apparatus, image-processing method, and non-transitory computer readable medium storing image-processing program
US10636126B2 (en) 2015-10-16 2020-04-28 Olympus Corporation Image processing device, imaging apparatus, image processing method, image processing program, and recording medium
US11146746B2 (en) 2017-07-05 2021-10-12 Olympus Corporation Image processing device, image capturing device, image processing method, and storage medium
US11445109B2 (en) 2017-07-05 2022-09-13 Olympus Corporation Image processing device, image capturing device, image processing method, and storage medium
US11882247B2 (en) 2019-12-04 2024-01-23 Olympus Corporation Image acquisition apparatus and camera body

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000217126A (en) * 1999-01-26 2000-08-04 Canon Inc Image processor, its method, image pickup device and memory medium
JP2006087030A (en) * 2004-09-17 2006-03-30 Olympus Corp Noise reducer
JP2007324770A (en) * 2006-05-30 2007-12-13 Kyocera Corp Imaging apparatus and imaging method
JP2009021810A (en) * 2007-07-11 2009-01-29 Canon Inc Imaging apparatus and image processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000217126A (en) * 1999-01-26 2000-08-04 Canon Inc Image processor, its method, image pickup device and memory medium
JP2006087030A (en) * 2004-09-17 2006-03-30 Olympus Corp Noise reducer
JP2007324770A (en) * 2006-05-30 2007-12-13 Kyocera Corp Imaging apparatus and imaging method
JP2009021810A (en) * 2007-07-11 2009-01-29 Canon Inc Imaging apparatus and image processing method

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013135343A (en) * 2011-12-26 2013-07-08 Ricoh Co Ltd Imaging device
JP2014072846A (en) * 2012-10-01 2014-04-21 Fujitsu Semiconductor Ltd Image composition device and image composition method
US9420175B2 (en) 2014-03-27 2016-08-16 Olympus Corporation Image processing system, image processing method, and computer-readable medium
US9898803B2 (en) 2014-04-16 2018-02-20 Olympus Corporation Image processing apparatus, image processing method, and recording medium storing image processing program
WO2016207990A1 (en) * 2015-06-24 2016-12-29 オリンパス株式会社 Image processing device, imaging device, image processing method, image processing program, and storage medium
CN107736010A (en) * 2015-06-24 2018-02-23 奥林巴斯株式会社 Image processing apparatus, camera device, image processing method, image processing program and storage medium
JPWO2016207990A1 (en) * 2015-06-24 2018-04-05 オリンパス株式会社 Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium
US10389952B2 (en) 2015-06-24 2019-08-20 Olympus Corporation Image-processing device which generates a high-resolution image by combining images, imaging device, image-processing method, and storage-medium
JP2017017585A (en) * 2015-07-02 2017-01-19 オリンパス株式会社 Imaging apparatus and image processing method
US10636126B2 (en) 2015-10-16 2020-04-28 Olympus Corporation Image processing device, imaging apparatus, image processing method, image processing program, and recording medium
US10096091B2 (en) 2015-11-16 2018-10-09 Samsung Electronics Co., Ltd. Image generating method and apparatus
WO2018159288A1 (en) * 2017-02-28 2018-09-07 ソニー株式会社 Image processing apparatus, image forming method, and program
JPWO2018159288A1 (en) * 2017-02-28 2019-12-19 ソニー株式会社 Image processing apparatus, image processing method, and program
JP7127637B2 (en) 2017-02-28 2022-08-30 ソニーグループ株式会社 Image processing device, image processing method, and program
US11146746B2 (en) 2017-07-05 2021-10-12 Olympus Corporation Image processing device, image capturing device, image processing method, and storage medium
US11445109B2 (en) 2017-07-05 2022-09-13 Olympus Corporation Image processing device, image capturing device, image processing method, and storage medium
US10491815B2 (en) 2017-11-10 2019-11-26 Olympus Corporation Image-processing apparatus, image-processing method, and non-transitory computer readable medium storing image-processing program
US11882247B2 (en) 2019-12-04 2024-01-23 Olympus Corporation Image acquisition apparatus and camera body

Similar Documents

Publication Publication Date Title
JP2011199786A (en) Apparatus, method and program for processing image
US8547451B2 (en) Apparatus and method for obtaining high dynamic range image
JP5677040B2 (en) Image processing apparatus and control method thereof
JP4770154B2 (en) Image processing apparatus, image processing method, and computer program
JP4683994B2 (en) Image processing apparatus, image processing method, electronic camera, scanner
JP6592523B2 (en) Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium
JP6129119B2 (en) Image processing apparatus, image processing system, imaging apparatus, and image processing method
JP5123756B2 (en) Imaging system, image processing method, and image processing program
WO2011010359A1 (en) Image processing device for correcting chromatic aberration, method for processing image, program, and storage medium
JP5143038B2 (en) Image processing apparatus and image processing method
JP4803156B2 (en) SIGNAL PROCESSING DEVICE FOR SOLID-STATE IMAGING ELEMENT, IMAGING DEVICE HAVING SIGNAL PROCESSING DEVICE, SIGNAL PROCESSING METHOD, AND PROGRAM
JP2010200179A (en) Image processor, image processing method, image processing program and program storing medium in which image processing program is stored
JP5041886B2 (en) Image processing apparatus, image processing program, and image processing method
JP5593683B2 (en) Imaging device
JP5430379B2 (en) Imaging apparatus, control method thereof, and program
JP2010200177A (en) Imaging device and image processing program
JP2011055259A (en) Image processing apparatus, image processing method, image processing program and program storage medium stored with image processing program
JP5496036B2 (en) Image processing apparatus and image processing program
JP2011171842A (en) Image processor and image processing program
JP6449320B2 (en) Imaging device
JP6245847B2 (en) Image processing apparatus and image processing method
JP6152642B2 (en) Moving picture compression apparatus, moving picture decoding apparatus, and program
JP4122082B2 (en) Signal processing apparatus and processing method thereof
JP2009027537A (en) Image processor, image processing method, and image processing program
JP4478981B2 (en) Color noise reduction method and color imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140401