JP2009239772A - Imaging device, image processing device, image processing method, and program - Google Patents

Imaging device, image processing device, image processing method, and program Download PDF

Info

Publication number
JP2009239772A
JP2009239772A JP2008085220A JP2008085220A JP2009239772A JP 2009239772 A JP2009239772 A JP 2009239772A JP 2008085220 A JP2008085220 A JP 2008085220A JP 2008085220 A JP2008085220 A JP 2008085220A JP 2009239772 A JP2009239772 A JP 2009239772A
Authority
JP
Japan
Prior art keywords
image
scene
unit
raw image
histogram
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008085220A
Other languages
Japanese (ja)
Inventor
Junya Suzuki
淳也 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008085220A priority Critical patent/JP2009239772A/en
Publication of JP2009239772A publication Critical patent/JP2009239772A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To enable executing a process such as a color correction corresponding to a scene by performing an exact scene determination. <P>SOLUTION: An imaging device carries out processes to calculate a pixel value ratio of each color in an unit of a block as a sectional area of a RAW image, to produce a histogram of frequency distribution information of the calculated pixel value ratio, and to practice the determination processing of the shot scene to make a pixel processing correspondent to a determination result by a comparison processing between the histogram and a scene determination dictionary. The histogram and a parameter of rectangle feature characteristic determination data are compared to make a scene determination. The composition can exactly determine a various scenes (outdoor, evening scene, night scene, indoor, and in-water, etc.), and the processing etc. of the optimum color correction specialized to scenes becomes possible. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮像装置、画像処理装置、および画像処理方法、並びにプログラムに関する。さらに詳細には、画像の特徴に基づくシーン判別を行い、判別結果に応じて補正処理を行うことを可能とした撮像装置、画像処理装置、および画像処理方法、並びにプログラムに関する。   The present invention relates to an imaging device, an image processing device, an image processing method, and a program. More specifically, the present invention relates to an imaging apparatus, an image processing apparatus, an image processing method, and a program that can perform scene determination based on image characteristics and perform correction processing according to the determination result.

カメラによって画像を撮影する場合、屋外、夕景、夜景、室内、あるいは水中など様々な撮影状況、すなわち撮影シーンがあり、これらの撮影画像は、それぞれの撮影シーンに応じた補正を行うことで高品質な画像を出力することが可能となる。例えばホワイトバランス調整処理や、彩度、色相の調整を行う色再現処理などにおいて、撮影シーンに応じた異なるパラメータを適用した補正を行うことで出力画像の品質を高めることが可能となる。具体的には例えば水中写真では全体に青みがかった画像となり、青みを削減するといった画像補正を行うことで、品質の高い画像を出力できる。このように撮影シーンに応じた色補正などの画像処理を行うことが求められる場合がある。   When shooting images with a camera, there are various shooting situations such as outdoors, evening scenes, night scenes, indoors, or underwater, that is, shooting scenes. These shot images are of high quality by performing corrections according to each shooting scene. It is possible to output a simple image. For example, in white balance adjustment processing, color reproduction processing for adjusting saturation and hue, and the like, it is possible to improve the quality of an output image by performing correction using different parameters according to the shooting scene. Specifically, for example, an underwater photograph has an overall bluish image, and by performing image correction such as reducing bluishness, a high-quality image can be output. As described above, there are cases where it is required to perform image processing such as color correction according to the shooting scene.

撮影シーンに応じた画像処理を開示した従来技術として、例えば以下の手法がある。
(1)撮影時の外光からの検波データを解析し、この解析結果をシーン判別に利用してストロボ発光、非発行時の最適なホワイトバランスを決定して、色補正を行う手法がある。このような手法については、例えば特許文献1(特開2001−358986号公報)に記載がある。
また、
(2)撮影画像の色を用いてシーン判別する手法としては、画像から色特徴量を計算して全画素の色の平均値を算出し、この計算結果と、あらかじめ設定した閾値を用いて、どのようなシーンが撮影されたかを判別する手法がある。
As a conventional technique that discloses image processing according to a shooting scene, for example, there is the following technique.
(1) There is a method of analyzing the detection data from the external light at the time of photographing, and using this analysis result for scene discrimination to determine the optimum white balance at the time of strobe light emission and non-issuance to perform color correction. Such a technique is described in, for example, Japanese Patent Application Laid-Open No. 2001-358986.
Also,
(2) As a technique for discriminating a scene using the color of a captured image, a color feature amount is calculated from the image, an average value of colors of all pixels is calculated, and using this calculation result and a preset threshold value, There is a method for determining what scene was shot.

しかし、上記(1)の手法は、撮影時の明るさに基づいてシーン判別を行う構成であり、色に関しての判断は行っておらず、色の補正態様を変更するといった処理には適用できない。
また、上記(2)の手法は、画像全体での色特徴量の平均値を算出し、画像全体の平均的な特徴に基づいて補正態様を決定する構成である。このような手法では、画像内に存在する様々なオブジェクトの色が画像全体の色特徴量の平均値に影響を与える。従って、例えば異なるシーンでも映像内の色の組み合わせ次第では、類似した特徴量を出力することがあり、誤ったシーン判別をしてしまう可能性が大きくなるという問題がある。
特開2001−358986号公報
However, the method (1) is configured to determine the scene based on the brightness at the time of shooting, and does not make a determination regarding the color and cannot be applied to a process of changing the color correction mode.
The method (2) is a configuration in which an average value of color feature amounts in the entire image is calculated, and a correction mode is determined based on an average feature of the entire image. In such a method, the colors of various objects existing in the image affect the average value of the color feature amount of the entire image. Therefore, for example, depending on the combination of colors in the video even in different scenes, similar feature amounts may be output, which increases the possibility of erroneous scene discrimination.
JP 2001-358986 A

本発明は、例えば、上記問題点に鑑みてなされたものであり、画像の持つ色の平均値を利用するのではなく、画像に含まれる色の分布状況を解析することで、より正確なシーン判別を可能として、判別シーンに応じた適切な補正を実現する撮像装置、画像処理装置、および画像処理方法、並びにプログラムを提供することを目的とする。   The present invention has been made in view of the above problems, for example, and does not use an average value of colors of an image but analyzes a distribution state of colors included in the image, thereby enabling more accurate scenes. An object of the present invention is to provide an imaging apparatus, an image processing apparatus, an image processing method, and a program that enable discrimination and realize appropriate correction according to a discrimination scene.

本発明の第1の側面は、
撮像処理を実行してRAW画像を出力する撮像素子と、
前記撮像素子によって取得されるRAW画像または該RAW画像を縮小した縮小RAW画像を入力し、入力RAW画像の区分領域であるブロック単位で、各色の画素値比率を算出し、算出した画素値比率の度数分布情報であるヒストグラムを生成する特徴量計算部と、
前記特徴量計算部の算出したヒストグラムと、記憶部に格納されたシーン判別用辞書との比較を実行して、前記RAW画像の撮影シーン判別処理を実行する画像判別部と、
前記画像判別部のシーン判別結果に応じた画像処理を実行する画像処理部と、
を有する撮像装置にある。
The first aspect of the present invention is:
An imaging device that executes imaging processing and outputs a RAW image;
A RAW image acquired by the image sensor or a reduced RAW image obtained by reducing the RAW image is input, a pixel value ratio of each color is calculated in units of blocks that are segmented regions of the input RAW image, and the calculated pixel value ratio A feature amount calculation unit that generates a histogram which is frequency distribution information;
An image discriminating unit that performs a comparison between a histogram calculated by the feature amount calculating unit and a scene discriminating dictionary stored in a storage unit, and executes a shooting scene discriminating process of the RAW image;
An image processing unit that executes image processing according to a scene determination result of the image determination unit;
In an imaging apparatus having

さらに、本発明の撮像装置の一実施態様において、前記特徴量計算部は、前記入力RAW画像を構成するブロック単位でRGB各画素値の比率R/G,B/Gを算出し、前記入力RAW画像の構成ブロック全てに対応する複数のR/GとB/Gの値の出現頻度を度数分布としたヒストグラムを生成する構成である。   Furthermore, in an embodiment of the imaging apparatus of the present invention, the feature amount calculation unit calculates a ratio R / G, B / G of each RGB pixel value in units of blocks constituting the input RAW image, and the input RAW This is a configuration for generating a histogram having a frequency distribution of appearance frequencies of a plurality of R / G and B / G values corresponding to all the constituent blocks of an image.

さらに、本発明の撮像装置の一実施態様において、前記撮像装置は、前記撮像素子の出力するRAW画像の縮小処理を実行して縮小RAW画像を生成する画像縮小部を有し、前記特徴量計算部は、前記画像縮小部の生成した縮小RAW画像を入力して前記ヒストグラムを生成する構成である。   Furthermore, in an embodiment of the imaging apparatus of the present invention, the imaging apparatus includes an image reduction unit that generates a reduced RAW image by executing a reduction process of the RAW image output from the imaging element, and the feature amount calculation The unit is configured to generate the histogram by inputting the reduced RAW image generated by the image reduction unit.

さらに、本発明の撮像装置の一実施態様において、前記記憶部は、前記ヒストグラムの度数分布傾向を判別する矩形形状特徴判定データ(Rectangle Feature)を規定するパラメータを、複数の異なるシーンに対応するシーン判別用辞書として格納し、前記画像判別部は、前記特徴量計算部の算出したヒストグラムと、前記記憶部に格納された前記パラメータとの比較処理を実行し、前記ヒストグラムと規定類似度以上の類似度を持つパラメータ対応のシーンを前記RAW画像のシーンであると判断する構成である。   Furthermore, in an embodiment of the imaging apparatus of the present invention, the storage unit sets parameters defining rectangular shape feature determination data (Rectangle Feature) for determining the frequency distribution tendency of the histogram to scenes corresponding to a plurality of different scenes. Stored as a discrimination dictionary, and the image discrimination unit executes a comparison process between the histogram calculated by the feature amount calculation unit and the parameter stored in the storage unit, and is similar to the histogram at a predetermined similarity or higher. A parameter-corresponding scene having a degree is determined to be a scene of the RAW image.

さらに、本発明の撮像装置の一実施態様において、前記記憶部は、特定シーン対応の画像による学習データを用いて、前記矩形形状特徴判定データ(Rectangle Feature)を規定するパラメータを算出した結果を格納した構成である。   Furthermore, in one embodiment of the imaging apparatus of the present invention, the storage unit stores a result of calculating a parameter defining the rectangular shape feature determination data (Rectangle Feature) using learning data based on an image corresponding to a specific scene. This is the configuration.

さらに、本発明の撮像装置の一実施態様において、前記画像処理部は、前記画像判別部のシーン判別結果に特化した色補正処理を実行する構成である。   Furthermore, in an embodiment of the imaging apparatus of the present invention, the image processing unit is configured to execute color correction processing specialized for a scene discrimination result of the image discrimination unit.

さらに、本発明の第2の側面は、
撮像素子によって取得されるRAW画像または該RAW画像を縮小した縮小RAW画像を入力し、入力RAW画像の区分領域であるブロック単位で、各色の画素値比率を算出し、算出した画素値比率の度数分布情報であるヒストグラムを生成する特徴量計算部と、
前記特徴量計算部の算出したヒストグラムと、記憶部に格納されたシーン判別用辞書との比較を実行して、前記RAW画像の撮影シーン判別処理を実行する画像判別部と、
前記画像判別部のシーン判別結果に応じた画像処理を実行する画像処理部と、
を有する画像処理装置にある。
Furthermore, the second aspect of the present invention provides
A RAW image acquired by the image sensor or a reduced RAW image obtained by reducing the RAW image is input, a pixel value ratio of each color is calculated for each block which is a segmented area of the input RAW image, and the frequency of the calculated pixel value ratio A feature amount calculation unit for generating a histogram as distribution information;
An image discriminating unit that performs a comparison between a histogram calculated by the feature amount calculating unit and a scene discriminating dictionary stored in a storage unit, and executes a shooting scene discriminating process of the RAW image;
An image processing unit that executes image processing according to a scene determination result of the image determination unit;
In an image processing apparatus.

さらに、本発明の第3の側面は、
特徴量計算部が、撮像素子によって取得されるRAW画像または該RAW画像を縮小した縮小RAW画像を入力し、入力RAW画像の区分領域であるブロック単位で、各色の画素値比率を算出し、算出した画素値比率の度数分布情報であるヒストグラムを生成する特徴量計算ステップと、
画像判別部が、前記特徴量計算ステップにおいて算出したヒストグラムと、記憶部に格納されたシーン判別用辞書との比較を実行して、前記RAW画像の撮影シーン判別処理を実行する画像判別ステップと、
画像処理部が、前記画像判別ステップにおけるシーン判別結果に応じた画像処理を実行する画像処理ステップと、
を有する画像処理方法にある。
Furthermore, the third aspect of the present invention provides
A feature amount calculation unit inputs a RAW image acquired by an image sensor or a reduced RAW image obtained by reducing the RAW image, calculates a pixel value ratio of each color in units of blocks that are divided regions of the input RAW image, and calculates A feature amount calculating step for generating a histogram which is frequency distribution information of the pixel value ratio,
An image discriminating step, wherein the image discriminating unit performs comparison between the histogram calculated in the feature amount calculating step and the scene discriminating dictionary stored in the storage unit, and executes the shooting scene discriminating process of the RAW image;
An image processing unit that performs image processing according to a scene determination result in the image determination step;
An image processing method having

さらに、本発明の第4の側面は、
画像処理装置に画像処理を実行させるプログラムであり、
特徴量計算部に、撮像素子によって取得されるRAW画像または該RAW画像を縮小した縮小RAW画像を入力し、入力RAW画像の区分領域であるブロック単位で、各色の画素値比率を算出し、算出した画素値比率の度数分布情報であるヒストグラムを生成させる特徴量計算ステップと、
画像判別部に、前記特徴量計算ステップにおいて算出したヒストグラムと、記憶部に格納されたシーン判別用辞書との比較を実行して、前記RAW画像の撮影シーン判別処理を実行させる画像判別ステップと、
画像処理部に、前記画像判別ステップにおけるシーン判別結果に応じた画像処理を実行させる画像処理ステップと、
を有するプログラムにある。
Furthermore, the fourth aspect of the present invention provides
A program for causing an image processing apparatus to execute image processing,
A RAW image acquired by the image sensor or a reduced RAW image obtained by reducing the RAW image is input to the feature amount calculation unit, and a pixel value ratio of each color is calculated for each block that is a divided region of the input RAW image. A feature amount calculating step for generating a histogram which is frequency distribution information of the pixel value ratio,
An image discriminating step for causing the image discriminating unit to perform a comparison between the histogram calculated in the feature amount calculating step and the scene discriminating dictionary stored in the storage unit, and to execute a shooting scene discriminating process of the RAW image;
An image processing step for causing the image processing unit to execute image processing according to a scene determination result in the image determination step;
Is in a program with

なお、本発明のプログラムは、例えば、様々なプログラム・コードを実行可能な汎用システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータ・システム上でプログラムに応じた処理が実現される。   The program of the present invention is, for example, a program that can be provided by a storage medium or a communication medium provided in a computer-readable format to a general-purpose system capable of executing various program codes. By providing such a program in a computer-readable format, processing corresponding to the program is realized on the computer system.

本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。   Other objects, features, and advantages of the present invention will become apparent from a more detailed description based on embodiments of the present invention described later and the accompanying drawings. In this specification, the system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.

本発明の一実施例の構成によれば、撮像素子によって取得されるRAW画像または該RAW画像を縮小した縮小RAW画像の区分領域であるブロック単位で、各色の画素値比率を算出し、算出した画素値比率の度数分布情報であるヒストグラムを生成して、生成したヒストグラムと、予め記憶部に格納されたシーン判別用辞書との比較を実行して、RAW画像の撮影シーン判別処理を実行して、判別結果に応じた画像処理を実行する。具体的には、ヒストグラムと、様々なシーンに対応して準備された矩形形状特徴判定データ(Rectangle Feature)を規定するパラメータとを比較してシーン判別を行う構成としたので、明るさや、色の平均値による解析に比較して、様々なシーン(屋外、夕景、夜景、室内、水中など)をより正確に判定することが可能となり、それぞれのシーンに特化した最適な色補正など、最適な画像補正処理を実行することが可能となる。   According to the configuration of one embodiment of the present invention, the pixel value ratio of each color is calculated and calculated for each block, which is a divided area of a RAW image acquired by an image sensor or a reduced RAW image obtained by reducing the RAW image. A histogram which is frequency distribution information of the pixel value ratio is generated, a comparison between the generated histogram and a dictionary for scene determination stored in advance in a storage unit is performed, and a shooting scene determination process for a RAW image is performed. Then, image processing according to the determination result is executed. Specifically, since the scene is discriminated by comparing the histogram and the parameters that define the rectangular feature determination data (Rectangle Feature) prepared for various scenes, brightness and color Compared to analysis using average values, various scenes (outdoor, sunset, night view, indoor, underwater, etc.) can be determined more accurately, and optimal color correction specialized for each scene, etc. Image correction processing can be executed.

以下、図面を参照しながら本発明の一実施形態に係る撮像装置、画像処理装置、および画像処理方法、並びにプログラムの詳細について説明する。   Hereinafter, an imaging device, an image processing device, an image processing method, and a program according to an embodiment of the present invention will be described in detail with reference to the drawings.

本発明の画像処理装置や撮像装置の一実施例について、図1を参照して説明する。図1に示す構成は撮像装置100の構成例を示している。撮像装置100において、画像撮影を行う場合、被写体像はレンズ101によって取り込まれる。レンズ101から取り込まれた画像光は撮像素子102で光電変換によって電気信号(アナログ信号)に変換される。次にこの電気信号(アナログ信号)はデジタル信号化部103でデジタル信号に変換される。   An embodiment of an image processing apparatus and an imaging apparatus according to the present invention will be described with reference to FIG. The configuration illustrated in FIG. 1 illustrates a configuration example of the imaging apparatus 100. When the image capturing apparatus 100 captures an image, the subject image is captured by the lens 101. Image light taken in from the lens 101 is converted into an electric signal (analog signal) by photoelectric conversion in the image sensor 102. Next, the electrical signal (analog signal) is converted into a digital signal by the digital signal converting unit 103.

デジタル信号化部103で生成されるデジタル信号は、撮像素子101の配列に従った信号であり、特定の色信号をモザイク上に配列した信号(モザイク信号)となる。具体的には、例えば図2に示すようなR,G、Bのデータ配列を持ったRAW画像となる。図2に示す例はG信号が2種類のGr,Gbからなる。これは、Gr,GbがG+rと、G+bのわずかに異なる色信号を持つことを示している。ただし、この配列は撮像素子101の配列に応じた構成であり、単純なRGBの3種類の撮像素子構成を適用した場合は、RGBの3種の色信号配列となる。   The digital signal generated by the digital signal converting unit 103 is a signal according to the arrangement of the imaging elements 101, and is a signal (mosaic signal) in which specific color signals are arranged on a mosaic. Specifically, for example, a RAW image having R, G, and B data arrays as shown in FIG. In the example shown in FIG. 2, the G signal is composed of two types of Gr and Gb. This indicates that Gr and Gb have slightly different color signals of G + b and G + b. However, this arrangement is a configuration corresponding to the arrangement of the image sensors 101. When three simple RGB image sensor configurations are applied, three color signal arrays of RGB are obtained.

図2に示すRAW画像信号は一例であり、本発明で適用する色信号配列は、この配列に限らず単純なRGBの3種の色信号配列など、この他の構成としてもよい。   The RAW image signal shown in FIG. 2 is an example, and the color signal array applied in the present invention is not limited to this array, and other configurations such as a simple RGB color signal array may be used.

図2に示すRAW画像では、各画素でそれぞれR信号、G(GrまたはGb)信号、B信号の信号値を有する。各画素の画素値は、例えば16bitで保持される。最終的な出力画像生成の際には、これらの個別の色信号の値に基づくデモザイク処理により各画素のR,G,Bの出力値が決定される。   In the RAW image shown in FIG. 2, each pixel has signal values of an R signal, a G (Gr or Gb) signal, and a B signal. The pixel value of each pixel is held at, for example, 16 bits. When the final output image is generated, the output values of R, G, and B of each pixel are determined by demosaic processing based on the values of these individual color signals.

この図2に示すようなRAW画像が、図1に示す撮像装置100のデジタル信号化部103が生成し、図1に示す撮像装置100のシーン判別部110に入力される。シーン判別部110は、このRAW画像データを入力してシーン判別を行う。シーン判別部110は、図1に示すように、画像縮小部111、特徴量計算部112、画像判定部113を有する。   The RAW image as shown in FIG. 2 is generated by the digital signal conversion unit 103 of the imaging apparatus 100 shown in FIG. 1 and input to the scene determination unit 110 of the imaging apparatus 100 shown in FIG. The scene discrimination unit 110 inputs this RAW image data and performs scene discrimination. As shown in FIG. 1, the scene determination unit 110 includes an image reduction unit 111, a feature amount calculation unit 112, and an image determination unit 113.

画像縮小部111は、デジタル信号化部103の生成した画像の縮小処理を実行する。これは、後段の特徴量計算部112における処理負荷を軽減するための処理である。例えば、デジタル信号化部103の生成したサイズ247×1124画素のRAW画像を60×80画素に縮小する。なお、画像縮小部111の後段の処理部、すなわち、特徴量計算部112などにおいてサイズの大きな画像データの処理を可能とした構成であれば、画像縮小部111を省略し、デジタル信号化部103の生成したRAW画像をそのまま特徴量計算部112に入力して処理を実行する構成としてもよい。   The image reduction unit 111 executes a reduction process for the image generated by the digital signal conversion unit 103. This is a process for reducing the processing load in the feature quantity calculation unit 112 in the subsequent stage. For example, the RAW image having a size of 247 × 1124 pixels generated by the digital signal converting unit 103 is reduced to 60 × 80 pixels. Note that if the processing unit subsequent to the image reducing unit 111, that is, the feature amount calculating unit 112 or the like can process large image data, the image reducing unit 111 is omitted and the digital signal converting unit 103 is omitted. The generated RAW image may be directly input to the feature amount calculation unit 112 to execute processing.

画像縮小部111の実行する処理の具体例について、図3を参照して説明する。図3には、
(a)デジタル信号化部103から入力するRAW画像
(b)画像縮小部104の生成する縮小画像
(c)縮小画像を構成するブロックの構成
これらを示している。
A specific example of processing executed by the image reduction unit 111 will be described with reference to FIG. In FIG.
(A) RAW image input from digital signal conversion unit 103 (b) Reduced image generated by image reduction unit 104 (c) Configuration of blocks constituting reduced image These are shown.

(a)RAW画像は、デジタル信号化部103の生成したサイズ247×1124画素のRAW画像であり、画像縮小部104は、このサイズ247×1124画素を、60×80画素の(b)縮小画像に縮小する。このとき端数が出た場合は、右端、下端よりそれぞれ切り捨てることとする。(b)縮小画像の1つのブロックは、(c)ブロックに示すように、RとBが1画素ずつ、Gが2画素の4画素から構成される。この4つの画素値は、ブロックとして縮小する対象となる(a)RAW画像の構成画素の画素値を入力して以下に示す算出式に従って算出する。   (A) The RAW image is a RAW image having a size of 247 × 1124 pixels generated by the digital signal conversion unit 103, and the image reduction unit 104 converts the size 247 × 1124 pixels into a (b) reduced image having a size of 60 × 80 pixels. Reduce to. If a fraction is given at this time, it will be rounded off from the right end and the lower end. (B) As shown in the block (c), one block of the reduced image is composed of four pixels, one for each of R and B, and two for G. These four pixel values are calculated according to the following calculation formula by inputting the pixel values of the constituent pixels of the (a) RAW image to be reduced as a block.

具体的には、ブロック内における、R、G、Bの値の平均値を以下に示す式に従ってそれぞれ計算する。但し、Gr、Gbに関しては、一緒に計算し、その平均をGとする。計算された値は、小数第1位で四捨五入し、16bitの整数とする。すなわち、下式に従ってブロックの構成画素R,G,Bの画素値を算出する。2つのG画素の画素値は同一の値に設定される。   Specifically, the average values of the R, G, and B values in the block are calculated according to the following equations. However, Gr and Gb are calculated together and the average is G. The calculated value is rounded off to the first decimal place to obtain an integer of 16 bits. That is, the pixel values of the constituent pixels R, G, and B of the block are calculated according to the following formula. The pixel values of the two G pixels are set to the same value.

上記式によって算出されたR,G,Bの値をブロックの4画素の画素値に設定して、この4画素を1ブロックとした30×40=1200ブロックの画像を(b)縮小画像とする。   The values of R, G, and B calculated by the above formula are set to the pixel values of the four pixels of the block, and an image of 30 × 40 = 1200 blocks with the four pixels as one block is defined as (b) a reduced image. .

特徴量計算部104は、画像縮小部103で作成した60×80画素の縮小RAW画像を入力し、この縮小RAW画像の色特徴量を計算する。特徴量計算部104は、60×80画素の縮小RAW画像を、図2(c)に示す4画素によって構成されるブロック単位の30×40ブロックの画像として、1ブロック内での、R、B、G(2つのGは共通)の値から、画像特徴量として以下の2つの色比率を算出する。すなわち、
R/G、
B/G、
である。
The feature amount calculation unit 104 receives the reduced RAW image of 60 × 80 pixels created by the image reduction unit 103, and calculates the color feature amount of the reduced RAW image. The feature amount calculation unit 104 converts the reduced RAW image of 60 × 80 pixels into an image of 30 × 40 blocks in units of blocks configured by the four pixels illustrated in FIG. , G (two G are common), the following two color ratios are calculated as image feature amounts. That is,
R / G,
B / G,
It is.

R/Gは、1つのブロックのR画素値とG画素値の比率である。
B/Gは、1つのブロックのB画素値とG画素値の比率である。
なお、G画素値は1ブロックに2つ存在するが、先に説明したように、1つのブロック内の2つのG画素の画素値は同一の値として算出されるのでいずれの値を利用しても同じである。特徴量計算部104は、これらの画素値比率を、各ブロック対応の特徴量データとして算出する。
R / G is a ratio of the R pixel value and the G pixel value of one block.
B / G is a ratio of the B pixel value and the G pixel value of one block.
Although there are two G pixel values in one block, as described above, the pixel values of two G pixels in one block are calculated as the same value, so which value is used. Is the same. The feature amount calculation unit 104 calculates these pixel value ratios as feature amount data corresponding to each block.

特徴量計算部104は、縮小RAW画像を構成する30×40=1200ブロックのすべてに対して上記の色比率である画像特徴量、R/G、B/Gを算出する。縮小RAW画像の1フレームから、1200個のブロック対応の色比率としての画像特徴量[R/G]、[B/G]を算出する。   The feature amount calculation unit 104 calculates the image feature amounts, R / G, and B / G, which are the above color ratios, for all 30 × 40 = 1200 blocks constituting the reduced RAW image. Image feature amounts [R / G] and [B / G] as color ratios corresponding to 1200 blocks are calculated from one frame of the reduced RAW image.

特徴量計算部104は、さらに、これらのブロック対応の1200組のデータを用いて、図4に示すような、R/G、B/Gの各軸によって構成される2次元平面上でのヒストグラムを作成する。縦軸は同一の特徴量値の組([R/G],[B/G])を持つブロック数に相当する。このヒストグラムは、画像の色に基づく特徴量を示す画像特徴ヒストグラムである。   Further, the feature quantity calculation unit 104 uses the 1200 sets of data corresponding to these blocks, and a histogram on a two-dimensional plane constituted by R / G and B / G axes as shown in FIG. Create The vertical axis corresponds to the number of blocks having the same feature value set ([R / G], [B / G]). This histogram is an image feature histogram indicating feature amounts based on the color of the image.

図4に示す画像特徴ヒストグラムの生成処理の詳細について図5、図6を参照して説明する。図5には、(1)縮小RAW画像から(2)ブロックを取得して、(2)ブロック内のRGBの各画素値から色比率である画像特徴量、R/G、B/Gを算出し、この算出結果によって生成する(3)画像特徴ヒストグラムを示している。   Details of the image feature histogram generation processing shown in FIG. 4 will be described with reference to FIGS. In FIG. 5, (1) (2) block is acquired from the reduced RAW image, and (2) image feature amounts, R / G, B / G, which are color ratios, are calculated from the RGB pixel values in the block. The (3) image feature histogram generated by the calculation result is shown.

特徴量計算部104は、(R/G,B/G)の値を(1)縮小RAW画像に含まれる1200ブロック全てにおいて算出し、1200個の(R/G,B/G)データに基づいて、(R/G,B/G)を2次元平面とし、縦軸を出現頻度として、(c)画像特徴ヒストグラムを生成する。   The feature amount calculation unit 104 calculates the value of (R / G, B / G) in (1) all 1200 blocks included in the reduced RAW image, and based on 1200 pieces of (R / G, B / G) data. (C) An image feature histogram is generated with (R / G, B / G) as the two-dimensional plane and the vertical axis as the appearance frequency.

具体的なヒストグラム生成シーケンスについて、図6に示すフローチャートを参照して説明する。この処理は、図1に示す特徴量計算部105の処理として実行される。まず、ステップS101において、画像縮小部の生成した縮小RAW画像を入力し、ステップS102において、入力した縮小RAW画像を1つのブロックに4画素が含まれる1200個のブロックに分割する。   A specific histogram generation sequence will be described with reference to the flowchart shown in FIG. This process is executed as the process of the feature quantity calculation unit 105 shown in FIG. First, in step S101, the reduced RAW image generated by the image reduction unit is input. In step S102, the input reduced RAW image is divided into 1200 blocks in which 4 pixels are included in one block.

ステップS101において入力する縮小RAW画像は、例えば、図4、図5に示す1つのブロックに4画素が含まれるブロックを1200個含むRAW画像データである。   The reduced RAW image input in step S101 is, for example, RAW image data including 1200 blocks including 4 pixels in one block illustrated in FIGS. 4 and 5.

次に、ステップS103において、1つのブロックデータを読み取り、ステップS104〜S106において、読み取ったブロックに含まれる画素の画素値R,G,Bの平均値を算出する。なお、本実施例では、1ブロックは図4、図5を参照して説明したように、R,Bが1つずつ、Gが同一の画素値に設定された2つの画素から構成されているので、ブロック内のRGB各画素値の取得のみで、平均値算出は省略できる。   Next, in step S103, one block data is read, and in steps S104 to S106, average values of pixel values R, G, and B of pixels included in the read block are calculated. In this embodiment, as described with reference to FIG. 4 and FIG. 5, one block is composed of two pixels each having R and B and G having the same pixel value. Therefore, the average value calculation can be omitted only by acquiring the RGB pixel values in the block.

1つのブロックの設定態様は様々な設定態様が可能であり、例えば1つのブロック内に異なる画素値を持つR画素、G画素、B画素が複数存在する場合には、ステップS104〜S106において平均値算出を行うことが必要となる。   Various setting modes are possible for the setting mode of one block. For example, when there are a plurality of R pixels, G pixels, and B pixels having different pixel values in one block, the average value in steps S104 to S106. It is necessary to perform calculation.

次に、ステップS107、S108において、画像特徴量を示すブロック内のRGB各画素値に基づく色比率R/G,B/Gを算出する。次に、ステップS109において、算出した(R/G,B/G)の値の組のカウント値(出現頻度)を+1とする。次に、ステップS110において、縮小RAW画像に含まれる1200ブロックの全ての処理が終了したか否かを判定し、終了していない場合は、ステップS103に戻り、未処理ブロックの読み取りを行いステップS104以下の処理を繰り返し実行する。   Next, in steps S107 and S108, color ratios R / G and B / G based on the RGB pixel values in the block indicating the image feature amount are calculated. Next, in step S109, the count value (appearance frequency) of the calculated (R / G, B / G) value set is set to +1. Next, in step S110, it is determined whether or not all the processes of 1200 blocks included in the reduced RAW image have been completed. If not, the process returns to step S103, and unprocessed blocks are read to perform step S104. The following process is repeated.

ステップS110において、縮小RAW画像に含まれる1200ブロックの全ての処理が終了したと判定すると、ステップS111に進み、1200ブロック全ての(R/G,B/G)の値の組のカウント値(出現頻度)に基づいて、色比率(R/G,B/G)平面と頻度情報からなるヒストグラム、すなわち図4、図5を参照して説明した(R/G,B/G)を2次元平面として頻度を縦軸とした画像特徴(色比率)ヒストグラム(Ratio Histgram)を生成する。   If it is determined in step S110 that all the processing of 1200 blocks included in the reduced RAW image has been completed, the process proceeds to step S111, and the count values (appearance) of the (R / G, B / G) values of all 1200 blocks are displayed. Histogram made up of color ratio (R / G, B / G) plane and frequency information, that is, (R / G, B / G) described with reference to FIG. 4 and FIG. As a result, an image feature (color ratio) histogram (Ratio Histgram) is generated with the frequency as the vertical axis.

図1に示す特徴量計算部105は、このような処理によって画像特徴(色比率)ヒストグラム(Ratio Histgram)を生成する。   The feature quantity calculation unit 105 shown in FIG. 1 generates an image feature (color ratio) histogram (Ratio Histgram) through such processing.

次に、図1に示す画像判別部105は、特徴量計算部104の生成したヒストグラムを利用して、画像のシーン判別処理を行う。この画像判別部105は、例えば水中、空、夕景、夜景、木、雪、紅葉などの各シーンを撮影して得られたヒストグラムに基づく学習データから得られる辞書データを利用して画像シーン判別処理を行う。画像判別部105は記憶部に保持された様々なシーン(水中、空、夕景、夜景、木、雪、紅葉など)に対応した辞書データを利用して、シーン判別対象画像のヒストグラムがどのタイプのシーンに対応する画像であるかを判別する。   Next, the image determination unit 105 illustrated in FIG. 1 performs an image scene determination process using the histogram generated by the feature amount calculation unit 104. The image discriminating unit 105 performs image scene discrimination processing using dictionary data obtained from learning data based on histograms obtained by photographing scenes such as underwater, sky, evening scene, night scene, trees, snow, and autumn leaves. I do. The image discriminating unit 105 uses dictionary data corresponding to various scenes (underwater, sky, evening scene, night scene, tree, snow, autumn leaves, etc.) held in the storage unit to determine which type of histogram of the scene discrimination target image. It is determined whether the image corresponds to the scene.

画像判別部105が記憶部に格納している辞書データは、例えば、
*水中を撮影した画像に基づいて生成されるヒストグラムの分布の傾向を判断するための辞書データ、
*夕景を撮影した画像に基づいて生成されるヒストグラムの分布の傾向を判断するための辞書データ、
など、水中、空、夕景、夜景、木、雪、紅葉などの各シーン対応の辞書データであり、画像判別部105は、特徴量計算部104の生成したヒストグラムと各辞書データとを比較して最も類似する辞書データを選択し、判定対象の画像のシーンとして判別する。
The dictionary data stored in the storage unit by the image determination unit 105 is, for example,
* Dictionary data for judging the tendency of the distribution of histograms generated based on images taken underwater,
* Dictionary data for judging the tendency of the distribution of histograms generated based on images of sunset scenes.
Dictionary data corresponding to each scene such as underwater, sky, evening scene, night scene, tree, snow, autumn leaves, etc. The image discriminating unit 105 compares the histogram generated by the feature amount calculating unit 104 with each dictionary data. The most similar dictionary data is selected and discriminated as the scene of the judgment target image.

辞書データの具体例について、図7を参照して説明する。図7(a)は、特徴量計算部104の生成したヒストグラムを示し、さらに、画像判別部105がシーン判別において利用する辞書データである矩形状特徴判定データ(Rectangle Feature)301,302の例を示している。   A specific example of dictionary data will be described with reference to FIG. FIG. 7A shows a histogram generated by the feature amount calculation unit 104, and examples of rectangular feature determination data (Rectangle Feature) 301 and 302 which are dictionary data used by the image determination unit 105 in scene determination. Show.

矩形状特徴判定データ(Rectangle Feature)は、図7(b)に示すように、ヒストグラムの生成される2次元平面である[R/G]軸と,[B/G]軸とに平行な線によって構成される矩形形状を有し、図7(b)に示すように、A,Bの2分割された領域からなる。領域Aと領域Bの面積は等しい設定とする。   As shown in FIG. 7B, the rectangular feature determination data (Rectangle Feature) is a line parallel to the [R / G] axis and the [B / G] axis, which are two-dimensional planes in which a histogram is generated. As shown in FIG. 7B, the rectangular shape is composed of two divided areas A and B. The areas of region A and region B are set to be equal.

この矩形状特徴判定データ(Rectangle Feature)の大きさ(hやwによって定義される)や、設定位置(1つの頂点位置(x,y)によって定義される)は、水中、空、夕景、夜景、木、雪、紅葉などの各シーン対応の辞書データごとに異なっていてよい。また、利用する矩形状特徴判定データ(Rectangle Feature)の個数も各シーン対応の辞書ごとに異なっていてよい。   The size (defined by h and w) and the set position (defined by one vertex position (x, y)) of the rectangular feature determination data (Rectangle Feature) are underwater, sky, sunset, and night view. It may be different for each dictionary data corresponding to each scene such as trees, snow and autumn leaves. The number of rectangular feature determination data (Rectangle Feature) to be used may be different for each dictionary corresponding to each scene.

特徴量計算部104の生成したヒストグラム上に、矩形形状特徴判定データ(Rectangle Feature)を設定してA,Bにおける頻度数総数(積分値)の差分値を算出する。矩形形状特徴判定データ(Rectangle Feature)の設定位置は、比較対象とするシーン対応の辞書に定義された位置とする。各シーン対応の辞書には、矩形形状特徴判定データ(Rectangle Feature)の設定位置や大きさ、タイプ(ABの配置が並列型か縦列型か)などの情報が定義されている。   On the histogram generated by the feature quantity calculation unit 104, rectangular feature determination data (Rectangle Feature) is set, and a difference value of the total number of frequencies (integrated values) in A and B is calculated. The set position of the rectangular feature determination data (Rectangle Feature) is a position defined in a scene-corresponding dictionary to be compared. In the dictionary corresponding to each scene, information such as the setting position, size, and type (whether the arrangement of AB is a parallel type or a column type) of rectangular shape feature determination data (Rectangle Feature) is defined.

図8には、矩形形状特徴判定データ(Rectangle Feature)を設定してA,Bにおける頻度数総数(積分値)の差分値を算出する処理例を示している。図8(1)は、ABの配置が並列型である場合であり、領域Aの頻度数総数(積分値)から、領域Bの頻度数総数(積分値)を減算して、差分値(St)を算出する。なお、tは、あるシーン対応の辞書に登録された矩形形状特徴判定データ(Rectangle Feature)の数に相当する識別子である。たとえば1つのシーン対応の辞書に矩形形状特徴判定データ(Rectangle Feature)がK個登録されている場合、差分値StはS1〜Sk、総計でK個算出する。   FIG. 8 shows a processing example in which rectangular shape feature determination data (Rectangle Feature) is set and the difference value of the total number of frequencies (integrated values) in A and B is calculated. FIG. 8 (1) shows a case where the arrangement of AB is a parallel type. The total number of frequencies (integrated value) in region B is subtracted from the total number of frequencies (integrated value) in region A to obtain a difference value (St ) Is calculated. Note that t is an identifier corresponding to the number of rectangular feature determination data (Rectangle Feature) registered in a dictionary corresponding to a scene. For example, when K pieces of rectangular feature determination data (Rectangle Feature) are registered in one scene-corresponding dictionary, the difference value St is calculated as S1 to Sk and K pieces in total.

図8(2)は、ABの配置が縦列型である場合であり、領域Aの頻度数総数(積分値)から、領域Bの頻度数総数(積分値)を減算して、差分値(St)を算出する。   FIG. 8 (2) shows a case where the arrangement of AB is a tandem type. The total number of frequencies (integrated value) in region B is subtracted from the total number of frequencies (integrated value) in region A to obtain a difference value (St ) Is calculated.

図9には、ある1つのシーン(例えば水中シーン)の判定に適用する辞書の構成例を示している。辞書データは、複数の矩形形状特徴判定データ(Rectangle Feature)に対応するパラメータ(x,y,w,h,type,θ,α,p)によって構成される。図9に示す例は、K個の矩形形状特徴判定データ(Rectangle Feature)に対応するパラメータを示している。   FIG. 9 shows a configuration example of a dictionary applied to determination of a certain scene (for example, an underwater scene). The dictionary data is composed of parameters (x, y, w, h, type, θ, α, p) corresponding to a plurality of rectangular feature determination data (Rectangle Feature). The example illustrated in FIG. 9 illustrates parameters corresponding to K rectangular shape feature determination data (Rectangle Feature).

各パラメータは以下の意味を持つ。
x:矩形領域の1頂点のR/G軸の座標
y:矩形領域の1頂点のB/G軸の座標
w:矩形領域の幅
h:矩形領域の高さ
type:矩形領域に設定するABの配置が並列型か縦列型か
θ:差分値(St)判別用閾値
α:シーン判別用重み
p:差分値(St)算出結果からシーン判別データを算出する場合に適用するフラグであり、+1または−1の値に設定されている。
Each parameter has the following meaning.
x: R / G axis coordinates of one vertex of the rectangular area y: B / G axis coordinates of one vertex of the rectangular area w: width of the rectangular area h: height of the rectangular area type: AB of the AB to be set in the rectangular area Whether the arrangement is a parallel type or a column type θ: a threshold value for discriminating a difference value (St) α: a weight for discriminating a scene p: a flag applied when scene discrimination data is calculated from a calculation result of a difference value (St), +1 or The value is set to -1.

図10に示すフローチャートを参照して、辞書データを適用したシーン判別処理と、判別結果に基づく画像処理態様の決定処理のシーケンスについて説明する。この処理は、図1に示す撮像装置100の画像判別部113の処理として実行される。   With reference to the flowchart shown in FIG. 10, a sequence of scene determination processing to which dictionary data is applied and image processing mode determination processing based on the determination result will be described. This process is executed as a process of the image discrimination unit 113 of the imaging apparatus 100 shown in FIG.

まず、ステップS201において、特徴量計算部112の生成した色比率ヒストグラムを入力する。これは図4、図5を参照して説明したR/G,B/G平面と頻度情報(高さ)を持つヒストグラムである。また、初期設定として、適用する辞書データに含まれる矩形形状特徴判定データ(Rectangle Feature)の識別子[t]と、シーン判別用データ[f]の初期設定として、t=0,f=0の初期値設定を行う。   First, in step S201, the color ratio histogram generated by the feature amount calculation unit 112 is input. This is a histogram having R / G and B / G planes and frequency information (height) described with reference to FIGS. Further, as initial settings, the initial setting of t = 0 and f = 0 is set as the initial setting of the identifier [t] of the rectangular feature determination data (Rectangle Feature) included in the dictionary data to be applied and the scene determination data [f]. Set the value.

ステップS202において、比較対象とするシーン対応の辞書を記憶部から取得し、辞書に含まれる複数の矩形形状特徴判定データ(Rectangle Feature)から、t番目の矩形形状特徴判定データ(Rectangle Feature)に対応するパラメータを取得する。なお、辞書データは、図9を参照して説明したように、複数の矩形形状特徴判定データ(Rectangle Feature)に対応するパラメータ(x,y,w,h,type,θ,α,p)によって構成される。   In step S202, a dictionary corresponding to a scene to be compared is acquired from the storage unit and corresponds to the t-th rectangular shape feature determination data (Rectangle Feature) from a plurality of rectangular shape feature determination data (Rectangle Feature) included in the dictionary. Get the parameters to perform. As described with reference to FIG. 9, the dictionary data is based on parameters (x, y, w, h, type, θ, α, p) corresponding to a plurality of rectangular feature determination data (Rectangle Feature). Composed.

例えばヒストグラムを生成した撮影画像が、水中シーンであるか否かを判別する場合は、水中シーンの学習データによって生成された辞書データを利用して処理を行う。夕景シーンであるか否かを判別する場合は、夕景シーンの学習データによって生成された辞書データを利用して処理を行う。   For example, when it is determined whether or not a captured image that has generated a histogram is an underwater scene, the processing is performed using dictionary data generated from learning data of the underwater scene. When determining whether or not the scene is an evening scene, processing is performed using dictionary data generated from learning data of the evening scene.

ステップS203〜S204において、撮影画像に基づいて生成したヒストグラム内に、判別対象としたシーン対応辞書のt番目の矩形形状特徴判定データ(Rectangle Feature)を設定して、領域Aおよび領域Bの積分、すなわち頻度の総数を算出する。次にステップS205において、領域Aおよび領域Bの積分値の差分[St]を算出する。この処理は、図8を参照して説明した処理に相当する。   In steps S203 to S204, t-th rectangular shape feature determination data (Rectangle Feature) of the scene correspondence dictionary to be determined is set in the histogram generated based on the photographed image, and the integration of the region A and the region B. That is, the total number of frequencies is calculated. Next, in step S205, the difference [St] between the integral values of region A and region B is calculated. This process corresponds to the process described with reference to FIG.

次に、ステップS206において、ステップS205で算出した差分[St]と、辞書に登録されている閾値[θt]とを比較する。前述したようにθは、差分値(St)判別用閾値である。   Next, in step S206, the difference [St] calculated in step S205 is compared with the threshold [θt] registered in the dictionary. As described above, θ is a difference value (St) determination threshold.

ステップS206の判定処理において、St>θtが成立する場合は、ステップS207に進み、St>θtが成立しない場合は、ステップS208に進む。   In the determination process of step S206, when St> θt is satisfied, the process proceeds to step S207, and when St> θt is not satisfied, the process proceeds to step S208.

ステップS206の判定処理において、St>θtが成立する場合は、ステップS207に進み、ステップS207において、
ft=p×αt
上記式を適用して、t番目の1つの矩形形状特徴判定データ(Rectangle Feature)に対応するシーン判別用データ[ft]を算出する。上記式において、
pは差分値(St)算出結果からシーン判別データを算出する場合に適用するフラグであり、(+1)または(−1)の値である。
αtは、1つの矩形形状特徴判定データ(Rectangle Feature)に対応するシーン判別用重みである。
In the determination process of step S206, when St> θt is established, the process proceeds to step S207, and in step S207,
ft = p × αt
By applying the above formula, scene discrimination data [ft] corresponding to one t-th rectangular feature determination data (Rectangle Feature) is calculated. In the above formula,
p is a flag applied when scene discrimination data is calculated from the difference value (St) calculation result, and is a value of (+1) or (−1).
αt is a scene discrimination weight corresponding to one rectangular feature determination data (Rectangle Feature).

一方、ステップS206の判定処理において、St>θtが成立しない場合は、ステップS208において、
ft=−p×αt
上記式を適用して、t番目の1つの矩形形状特徴判定データ(Rectangle Feature)に対応するシーン判別用データ[ft]を算出する。
On the other hand, if St> θt is not satisfied in the determination process in step S206, in step S208,
ft = −p × αt
By applying the above formula, scene discrimination data [ft] corresponding to one t-th rectangular feature determination data (Rectangle Feature) is calculated.

すなわち、図11(1)に示すように、
St>θtが成立する場合は、ft=p×αt、
St>θtが成立しない場合は、ft=−p×αt、
このようにして、t番目の1つの矩形形状特徴判定データ(Rectangle Feature)に対応するシーン判別用データ[ft]を算出する。
That is, as shown in FIG.
If St> θt holds, ft = p × αt,
If St> θt does not hold, ft = −p × αt,
In this way, scene discrimination data [ft] corresponding to one t-th rectangular feature determination data (Rectangle Feature) is calculated.

次に、ステップS209において、
ステップS207またはステップS208において算出したt番目の1つの矩形形状特徴判定データ(Rectangle Feature)に対応するシーン判別用データ[ft]を、既に算出済みのシーン判別用データ[Σf]に加算する。
Next, in step S209,
The scene discrimination data [ft] corresponding to one t-th rectangular feature determination data (Rectangle Feature) calculated in step S207 or step S208 is added to the already calculated scene discrimination data [Σf].

次に、ステップS210において、シーン判別に適用している辞書に含まれる矩形形状特徴判定データ(Rectangle Feature)の識別子[t]が、選択辞書に含まれる矩形形状特徴判定データ(Rectangle Feature)の総数未満であるか否かを判定する。すなわち、利用している辞書に未処理の矩形形状特徴判定データ(Rectangle Feature)があるか否かを判定する。   Next, in step S210, the identifier [t] of the rectangular shape feature determination data (Rectangle Feature) included in the dictionary applied to the scene determination is the total number of rectangular shape feature determination data (Rectangle Feature) included in the selected dictionary. It is judged whether it is less than. That is, it is determined whether there is unprocessed rectangular feature determination data (Rectangle Feature) in the dictionary being used.

利用している辞書に未処理の矩形形状特徴判定データ(Rectangle Feature)が存在する場合は、ステップS202に戻り、ステップS202以下、未処理の矩形形状特徴判定データ(Rectangle Feature)を利用して同様の処理を繰り返し実行する。このようにして、全ての矩形形状特徴判定データ(Rectangle Feature)に対応するシーン判別用データ[ft]を算出し、そのトータル加算値であるfの総和[Σf]を算出する。   When unprocessed rectangular shape feature determination data (Rectangle Feature) exists in the dictionary used, the process returns to step S202, and the same processing is performed using unprocessed rectangular shape feature determination data (Rectangle Feature). Repeat the process. In this way, scene discrimination data [ft] corresponding to all rectangular shape feature determination data (Rectangle Feature) is calculated, and a total sum [Σf] of the total addition value f is calculated.

次に、ステップS211において、fの総和[Σf]が0より大きいか否かを判定する。
fの総和[Σf]が0より大きい場合は、ヒストグラムを生成した画像がシーン判別に適用した辞書データに類似する色の分布を持つと判定する。この場合、ステップS212において、適用した辞書に対応するシーンの画像であると判断し、そのシーンに特化した画像処理を実行する。この判別結果に基づく画像処理は、図1に示す撮像装置の画像処理部105が実行する。
Next, in step S211, it is determined whether or not the total sum [Σf] of f is greater than zero.
When the total sum [Σf] of f is larger than 0, it is determined that the image in which the histogram is generated has a color distribution similar to the dictionary data applied to the scene determination. In this case, in step S212, it is determined that the image is a scene corresponding to the applied dictionary, and image processing specialized for the scene is executed. Image processing based on the determination result is executed by the image processing unit 105 of the imaging apparatus shown in FIG.

一方、fの総和[Σf]が0より大きくない場合は、ヒストグラムを生成した画像がシーン判別に適用した辞書データに類似する色の分布を持たないと判定する。この場合、ステップS213において、適用した辞書に対応するシーンの画像でないと判断し、そのシーンに特化した画像処理ではなく、一般画像に対して適用する画像処理を実行する。この判別結果に基づく画像処理は、図1に示す撮像装置の画像処理部105が実行する。   On the other hand, if the total sum [Σf] of f is not larger than 0, it is determined that the image for which the histogram is generated does not have a color distribution similar to the dictionary data applied to the scene determination. In this case, in step S213, it is determined that the image is not a scene corresponding to the applied dictionary, and image processing applied to the general image is executed instead of image processing specialized for the scene. Image processing based on the determination result is executed by the image processing unit 105 of the imaging apparatus shown in FIG.

このように、ヒストグラムを生成した撮影画像が、シーン判別処理に適用した辞書に対応するシーン画像であると判断した場合、ステップS212においてそのシーンに特化した画像処理が実行される。   As described above, when it is determined that the captured image for which the histogram is generated is a scene image corresponding to the dictionary applied to the scene determination process, image processing specialized for the scene is executed in step S212.

具体的には、例えばシーン判定に適用した辞書が水中シーン対応の辞書であり、撮影画像が水中シーンの画像であると判断された場合、撮影された画像は、水中の光特性により、画像が実際より青みがかった色となっている。この場合、その青みを除去して自然な色に戻す処理が、シーンに特化した画像処理として、ステップS212において実行される。   Specifically, for example, when a dictionary applied to scene determination is a dictionary for underwater scenes, and it is determined that the captured image is an image of an underwater scene, the captured image may be imaged due to underwater light characteristics. The color is more bluish than it actually is. In this case, the process of removing the bluish color and returning it to a natural color is executed in step S212 as an image process specialized for the scene.

このように、本発明のシーン判別処理は、撮影画像の色分布をヒストグラムによって表現して、様々なシーンに対応する画像データの学習により生成した辞書データである矩形形状特徴判定データ(Rectangle Feature)を適用して、シーン判別を行う。この構成により、画像に含まれる色に基づくシーン判別を正確に行うことが可能となる。例えば従来行われていた明るさの条件によるシーン判別より正確なシーン判別が実現される。   As described above, the scene discrimination processing according to the present invention expresses the color distribution of a captured image by a histogram, and rectangular shape feature determination data (Rectangle Feature) which is dictionary data generated by learning image data corresponding to various scenes. Is applied to perform scene discrimination. With this configuration, it is possible to accurately determine the scene based on the colors included in the image. For example, more accurate scene discrimination can be realized than conventional scene discrimination based on brightness conditions.

例えば、明るさによる解析だけでは水中であるか否かを判別することは不可能であり、明るさに基づくシーン判別を実行しても水中で撮影した画像に対応する特定の画像処理を実行させるといった処理を行うことはできない。従って、明るさによるシーン解析だけでは一般的な画像処理を実行せざる得なくなり、結果としての出力画像は、不自然に青いままの画像となってしまう。   For example, it is impossible to determine whether or not the subject is underwater only by analysis based on brightness. Even if scene discrimination based on brightness is executed, specific image processing corresponding to an image taken underwater is executed. Such processing cannot be performed. Therefore, general image processing must be executed only by scene analysis based on brightness, and the resulting output image becomes an unnatural blue image.

これに対して、本発明に従ったシーン判別を実行することで、様々なシーン(屋外、夕景、夜景、室内、水中など)をより正確に判定することが可能となり、それぞれのシーンに特化した最適な色補正など、最適な画像補正処理を実行することが可能となり、各シーンに対応した高品質な画像の生成、出力を行うことが可能となる。   In contrast, by performing scene discrimination according to the present invention, various scenes (outdoor, sunset, night view, indoor, underwater, etc.) can be determined more accurately, and specialized for each scene. It is possible to execute optimal image correction processing such as optimal color correction, and to generate and output high-quality images corresponding to each scene.

また、本発明のシーン判別処理は、色特徴量の平均値ではなく、全体の色分布情報を利用してシーン判別を実行する構成であるので、シーン判別に用いる情報が飛躍的に増加し、シーン判別精度を向上させることが可能となる。例えば、何らかの青い物体が画像内の大半に映っている風景を撮影したときの映像と、水中で魚を撮影した映像を、色の平均値で判別しようとしても、色平均値を算出すると、その平均値はほぼ同じ値になる可能性が高くなり、シーン判別が困難となる。しかし、本発明の手法では、色分布を用いた判別を行う構成であり、このような平均値を利用した処理における問題が解決され、より正確なシーン判別が実現される。   In addition, since the scene determination processing of the present invention is configured to execute scene determination using the entire color distribution information instead of the average value of the color feature amount, information used for scene determination increases dramatically, It is possible to improve scene discrimination accuracy. For example, if you try to distinguish between an image of a landscape where some blue object appears in the majority of the image and an image of a fish photographed underwater with the average value of the color, The average value is likely to be almost the same value, and scene discrimination becomes difficult. However, the method of the present invention is configured to perform discrimination using color distribution, and the problem in processing using such an average value is solved, and more accurate scene discrimination is realized.

本発明の処理では、より正確なシーン判別結果を用いた補正処理を行うことが可能となり、例えば非水中では実際に青いものは青く出力、水中では不自然な青さを抑えた画像を生成するといったシーンに応じた補正処理が可能となり、より品質の高い画像を生成して出力することが可能となる。   The processing of the present invention makes it possible to perform correction processing using a more accurate scene discrimination result. For example, an image that is actually blue in non-water is output in blue, and an unnatural blue image is suppressed in water. Thus, it is possible to perform correction processing according to the scene, and it is possible to generate and output a higher quality image.

以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。   The present invention has been described in detail above with reference to specific embodiments. However, it is obvious that those skilled in the art can make modifications and substitutions of the embodiments without departing from the gist of the present invention. In other words, the present invention has been disclosed in the form of exemplification, and should not be interpreted in a limited manner. In order to determine the gist of the present invention, the claims should be taken into consideration.

また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。   The series of processing described in the specification can be executed by hardware, software, or a combined configuration of both. When executing processing by software, the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run. For example, the program can be recorded in advance on a recording medium. In addition to being installed on a computer from a recording medium, the program can be received via a network such as a LAN (Local Area Network) or the Internet, and installed on a recording medium such as a built-in hard disk.

なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。   Note that the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary. Further, in this specification, the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.

以上、説明したように、本発明の一実施例構成によれば、撮像素子によって取得されるRAW画像または該RAW画像を縮小した縮小RAW画像の区分領域であるブロック単位で、各色の画素値比率を算出し、算出した画素値比率の度数分布情報であるヒストグラムを生成して、生成したヒストグラムと、予め記憶部に格納されたシーン判別用辞書との比較を実行して、RAW画像の撮影シーン判別処理を実行して、判別結果に応じた画像処理を実行する。具体的には、ヒストグラムと、様々なシーンに対応して準備された矩形形状特徴判定データ(Rectangle Feature)を規定するパラメータとを比較してシーン判別を行う構成としたので、明るさや、色の平均値による解析に比較して、様々なシーン(屋外、夕景、夜景、室内、水中など)をより正確に判定することが可能となり、それぞれのシーンに特化した最適な色補正など、最適な画像補正処理を実行することが可能となる。   As described above, according to the configuration of the embodiment of the present invention, the pixel value ratio of each color in the block unit which is the divided region of the RAW image acquired by the image sensor or the reduced RAW image obtained by reducing the RAW image. , And a histogram that is the frequency distribution information of the calculated pixel value ratio is generated, and the generated histogram is compared with a scene discrimination dictionary stored in advance in the storage unit to obtain a RAW image shooting scene A discrimination process is executed, and an image process corresponding to the discrimination result is executed. Specifically, since the scene is discriminated by comparing the histogram and the parameters that define the rectangular feature determination data (Rectangle Feature) prepared for various scenes, brightness and color Compared to analysis using average values, various scenes (outdoor, sunset, night view, indoor, underwater, etc.) can be determined more accurately, and optimal color correction specialized for each scene, etc. Image correction processing can be executed.

本発明の一実施例に係る撮像装置の構成について説明する図である。It is a figure explaining the structure of the imaging device which concerns on one Example of this invention. R,G、Bのデータ配列を持ったRAW画像例について説明する図である。It is a figure explaining the example of a RAW image with the data arrangement | sequence of R, G, B. 本発明の一実施例に係る撮像装置における画像縮小部の実行する処理の具体例について説明する図である。It is a figure explaining the specific example of the process which the image reduction part in the imaging device which concerns on one Example of this invention performs. 本発明の一実施例に係る撮像装置における特徴量計算部の生成する縦軸をR/G、横軸をB/Gとする2次元平面上でのヒストグラムの一例について説明する図である。It is a figure explaining an example of the histogram on the two-dimensional plane which makes R / G the vertical axis | shaft which the feature-value calculation part in the imaging device which concerns on one Example of this invention produces, and makes a horizontal axis B / G. 縮小RAW画像からブロックを取得して、ブロック内のRGBの各画素値から色比率である画像特徴量、R/G、B/Gを算出し、この算出結果によって画像特徴ヒストグラムを生成する処理例について説明する図である。Processing example of acquiring a block from a reduced RAW image, calculating an image feature amount, R / G, B / G, which is a color ratio, from RGB pixel values in the block, and generating an image feature histogram based on the calculation result It is a figure explaining about. 本発明の一実施例に係る撮像装置における具体的なヒストグラム生成シーケンスについて説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the specific histogram generation sequence in the imaging device which concerns on one Example of this invention. 本発明の一実施例に係る撮像装置における画像判別部の利用する辞書データの構成例について説明する図である。It is a figure explaining the structural example of the dictionary data utilized by the image discrimination | determination part in the imaging device which concerns on one Example of this invention. 本発明の一実施例に係る撮像装置における画像判別部の実行する矩形形状特徴判定データ(Rectangle Feature)を利用した頻度数総数(積分値)の差分値を算出する処理例について説明する図である。It is a figure explaining the process example which calculates the difference value of the frequency number total number (integral value) using the rectangular shape characteristic determination data (Rectangle Feature) which the image discrimination | determination part which the imaging device which concerns on one Example of this invention performs. . ある1つのシーン(例えば水中シーン)の判定に適用する辞書の構成例を示す図である。It is a figure which shows the structural example of the dictionary applied to determination of a certain scene (for example, underwater scene). 辞書データを適用したシーン判別処理と、判別結果に基づく画像処理態様の決定処理のシーケンスについて説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the sequence of the scene discrimination | determination process to which dictionary data is applied, and the determination process of the image processing mode based on a discrimination | determination result. 辞書データを適用したシーン判別処理の具体例について説明する図である。It is a figure explaining the specific example of the scene discrimination | determination process to which dictionary data is applied.

符号の説明Explanation of symbols

100 撮像装置
101 レンズ
102 撮像素子
103 デジタル信号化部
105 画像処理部
110 シーン判別部
111 画像縮小部
112 特徴量計算部
113 画像判別部
DESCRIPTION OF SYMBOLS 100 Imaging device 101 Lens 102 Image pick-up element 103 Digital signal conversion part 105 Image processing part 110 Scene discrimination | determination part 111 Image reduction part 112 Feature-value calculation part 113 Image discrimination | determination part

Claims (9)

撮像処理を実行してRAW画像を出力する撮像素子と、
前記撮像素子によって取得されるRAW画像または該RAW画像を縮小した縮小RAW画像を入力し、入力RAW画像の区分領域であるブロック単位で、各色の画素値比率を算出し、算出した画素値比率の度数分布情報であるヒストグラムを生成する特徴量計算部と、
前記特徴量計算部の算出したヒストグラムと、記憶部に格納されたシーン判別用辞書との比較を実行して、前記RAW画像の撮影シーン判別処理を実行する画像判別部と、
前記画像判別部のシーン判別結果に応じた画像処理を実行する画像処理部と、
を有する撮像装置。
An imaging device that executes imaging processing and outputs a RAW image;
A RAW image acquired by the image sensor or a reduced RAW image obtained by reducing the RAW image is input, a pixel value ratio of each color is calculated in units of blocks that are segmented regions of the input RAW image, and the calculated pixel value ratio A feature amount calculation unit that generates a histogram which is frequency distribution information;
An image discriminating unit that performs a comparison between a histogram calculated by the feature amount calculating unit and a scene discriminating dictionary stored in a storage unit, and executes a shooting scene discriminating process of the RAW image;
An image processing unit that executes image processing according to a scene determination result of the image determination unit;
An imaging apparatus having
前記特徴量計算部は、
前記入力RAW画像を構成するブロック単位でRGB各画素値の比率R/G,B/Gを算出し、前記入力RAW画像の構成ブロック全てに対応する複数のR/GとB/Gの値の出現頻度を度数分布としたヒストグラムを生成する構成である請求項1に記載の撮像装置。
The feature amount calculation unit includes:
Ratios R / G and B / G of RGB pixel values are calculated in units of blocks constituting the input RAW image, and a plurality of R / G and B / G values corresponding to all the constituent blocks of the input RAW image are calculated. The imaging apparatus according to claim 1, wherein the imaging apparatus is configured to generate a histogram having an appearance frequency as a frequency distribution.
前記撮像装置は、
前記撮像素子の出力するRAW画像の縮小処理を実行して縮小RAW画像を生成する画像縮小部を有し、
前記特徴量計算部は、前記画像縮小部の生成した縮小RAW画像を入力して前記ヒストグラムを生成する構成である請求項1に記載の撮像装置。
The imaging device
An image reduction unit that generates a reduced RAW image by performing a reduction process of the RAW image output from the image sensor;
The imaging apparatus according to claim 1, wherein the feature amount calculation unit is configured to generate the histogram by inputting the reduced RAW image generated by the image reduction unit.
前記記憶部は、前記ヒストグラムの度数分布傾向を判別する矩形形状特徴判定データ(Rectangle Feature)を規定するパラメータを、複数の異なるシーンに対応するシーン判別用辞書として格納し、
前記画像判別部は、
前記特徴量計算部の算出したヒストグラムと、前記記憶部に格納された前記パラメータとの比較処理を実行し、前記ヒストグラムと規定類似度以上の類似度を持つパラメータ対応のシーンを前記RAW画像のシーンであると判断する構成である請求項1に記載の撮像装置。
The storage unit stores, as a scene discrimination dictionary corresponding to a plurality of different scenes, parameters defining rectangular shape feature determination data (Rectangle Feature) for determining the frequency distribution tendency of the histogram,
The image discrimination unit
A comparison process between the histogram calculated by the feature amount calculation unit and the parameter stored in the storage unit is executed, and a parameter-corresponding scene having a similarity higher than a specified similarity with the histogram is a scene of the RAW image The imaging apparatus according to claim 1, wherein the imaging apparatus is configured to determine that
前記記憶部は、
特定シーン対応の画像による学習データを用いて、前記矩形形状特徴判定データ(Rectangle Feature)を規定するパラメータを算出した結果を格納した構成である請求項4に記載の撮像装置。
The storage unit
The imaging apparatus according to claim 4, wherein a result of calculating a parameter that defines the rectangular shape feature determination data (Rectangle Feature) using learning data based on an image corresponding to a specific scene is stored.
前記画像処理部は、
前記画像判別部のシーン判別結果に特化した色補正処理を実行する構成である請求項1に記載の撮像装置。
The image processing unit
The imaging apparatus according to claim 1, wherein the imaging apparatus is configured to execute color correction processing specialized for a scene discrimination result of the image discrimination unit.
撮像素子によって取得されるRAW画像または該RAW画像を縮小した縮小RAW画像を入力し、入力RAW画像の区分領域であるブロック単位で、各色の画素値比率を算出し、算出した画素値比率の度数分布情報であるヒストグラムを生成する特徴量計算部と、
前記特徴量計算部の算出したヒストグラムと、記憶部に格納されたシーン判別用辞書との比較を実行して、前記RAW画像の撮影シーン判別処理を実行する画像判別部と、
前記画像判別部のシーン判別結果に応じた画像処理を実行する画像処理部と、
を有する画像処理装置。
A RAW image acquired by the image sensor or a reduced RAW image obtained by reducing the RAW image is input, a pixel value ratio of each color is calculated for each block which is a segmented area of the input RAW image, and the frequency of the calculated pixel value ratio A feature amount calculation unit for generating a histogram as distribution information;
An image discriminating unit that performs a comparison between a histogram calculated by the feature amount calculating unit and a scene discriminating dictionary stored in a storage unit, and executes a shooting scene discriminating process of the RAW image;
An image processing unit that executes image processing according to a scene determination result of the image determination unit;
An image processing apparatus.
特徴量計算部が、撮像素子によって取得されるRAW画像または該RAW画像を縮小した縮小RAW画像を入力し、入力RAW画像の区分領域であるブロック単位で、各色の画素値比率を算出し、算出した画素値比率の度数分布情報であるヒストグラムを生成する特徴量計算ステップと、
画像判別部が、前記特徴量計算ステップにおいて算出したヒストグラムと、記憶部に格納されたシーン判別用辞書との比較を実行して、前記RAW画像の撮影シーン判別処理を実行する画像判別ステップと、
画像処理部が、前記画像判別ステップにおけるシーン判別結果に応じた画像処理を実行する画像処理ステップと、
を有する画像処理方法。
A feature amount calculation unit inputs a RAW image acquired by an image sensor or a reduced RAW image obtained by reducing the RAW image, calculates a pixel value ratio of each color in units of blocks that are divided regions of the input RAW image, and calculates A feature amount calculating step for generating a histogram which is frequency distribution information of the pixel value ratio,
An image discriminating step, wherein the image discriminating unit performs comparison between the histogram calculated in the feature amount calculating step and the scene discriminating dictionary stored in the storage unit, and executes the shooting scene discriminating process of the RAW image;
An image processing unit that performs image processing according to a scene determination result in the image determination step;
An image processing method.
画像処理装置に画像処理を実行させるプログラムであり、
特徴量計算部に、撮像素子によって取得されるRAW画像または該RAW画像を縮小した縮小RAW画像を入力し、入力RAW画像の区分領域であるブロック単位で、各色の画素値比率を算出し、算出した画素値比率の度数分布情報であるヒストグラムを生成させる特徴量計算ステップと、
画像判別部に、前記特徴量計算ステップにおいて算出したヒストグラムと、記憶部に格納されたシーン判別用辞書との比較を実行して、前記RAW画像の撮影シーン判別処理を実行させる画像判別ステップと、
画像処理部に、前記画像判別ステップにおけるシーン判別結果に応じた画像処理を実行させる画像処理ステップと、
を有するプログラム。
A program for causing an image processing apparatus to execute image processing,
A RAW image acquired by the image sensor or a reduced RAW image obtained by reducing the RAW image is input to the feature amount calculation unit, and a pixel value ratio of each color is calculated for each block that is a divided region of the input RAW image. A feature amount calculating step for generating a histogram which is frequency distribution information of the pixel value ratio,
An image discriminating step for causing the image discriminating unit to perform a comparison between the histogram calculated in the feature amount calculating step and the scene discriminating dictionary stored in the storage unit, and to execute a shooting scene discriminating process of the RAW image;
An image processing step for causing the image processing unit to execute image processing according to a scene determination result in the image determination step;
A program with
JP2008085220A 2008-03-28 2008-03-28 Imaging device, image processing device, image processing method, and program Pending JP2009239772A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008085220A JP2009239772A (en) 2008-03-28 2008-03-28 Imaging device, image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008085220A JP2009239772A (en) 2008-03-28 2008-03-28 Imaging device, image processing device, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2009239772A true JP2009239772A (en) 2009-10-15

Family

ID=41253158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008085220A Pending JP2009239772A (en) 2008-03-28 2008-03-28 Imaging device, image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2009239772A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014027675A1 (en) * 2012-08-17 2014-02-20 株式会社ニコン Image processing device, image capture device, and program
JP2017508130A (en) * 2015-01-26 2017-03-23 深▲せん▼市冠旭万達科技有限公司 Noise map production method and apparatus
WO2020003764A1 (en) 2018-06-25 2020-01-02 ソニー株式会社 Image processing device, moving apparatus, method, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014027675A1 (en) * 2012-08-17 2014-02-20 株式会社ニコン Image processing device, image capture device, and program
JPWO2014027675A1 (en) * 2012-08-17 2016-07-28 株式会社ニコン Image processing apparatus, imaging apparatus, and program
JP2017508130A (en) * 2015-01-26 2017-03-23 深▲せん▼市冠旭万達科技有限公司 Noise map production method and apparatus
WO2020003764A1 (en) 2018-06-25 2020-01-02 ソニー株式会社 Image processing device, moving apparatus, method, and program
KR20210023859A (en) 2018-06-25 2021-03-04 소니 주식회사 Image processing device, mobile device and method, and program
US11917335B2 (en) 2018-06-25 2024-02-27 Sony Corporation Image processing device, movable device, method, and program

Similar Documents

Publication Publication Date Title
CN110022469B (en) Image processing method, image processing device, storage medium and electronic equipment
US9426437B2 (en) Image processor performing noise reduction processing, imaging apparatus equipped with the same, and image processing method for performing noise reduction processing
EP1528797A2 (en) Image processing apparatus, image-taking system and image processing method
KR20070026288A (en) Image processing apparatus, image processing method, and computer program
JP2009159496A (en) White balance control device, imaging apparatus using the same, and white balance control method
CN110930301B (en) Image processing method, device, storage medium and electronic equipment
JP2011054071A (en) Image processing device, image processing method and program
JP6172935B2 (en) Image processing apparatus, image processing method, and image processing program
KR101309008B1 (en) Image processing method and image processing apparatus
JP2015231103A (en) Image processing device, image processing system, imaging device and image processing method
JP5814799B2 (en) Image processing apparatus and image processing method
JP2012165069A (en) Image processing apparatus and method
JP4703498B2 (en) Digital camera
JP2013162347A (en) Image processor, image processing method, program, and device
JP2010226364A (en) White balance processing apparatus, white balance processing method and white balance processing program
JP2009239772A (en) Imaging device, image processing device, image processing method, and program
JP2016134661A (en) Image processing method, image processor, imaging device, program, and storage medium
JP5706705B2 (en) Image processing apparatus, control method therefor, and imaging apparatus
JP5956844B2 (en) Image processing apparatus and control method thereof
CN112995633B (en) Image white balance processing method and device, electronic equipment and storage medium
JP6786273B2 (en) Image processing equipment, image processing methods, and programs
JP6316006B2 (en) SUBJECT SEARCH DEVICE, ITS CONTROL METHOD, CONTROL PROGRAM, AND IMAGING DEVICE
JP2010119051A (en) Imaging device and imaging method
JP2012134678A (en) Imaging apparatus and imaging method
JP5653665B2 (en) Image processing apparatus, photographing apparatus, image processing method, and image processing program