JP5836602B2 - Image processing apparatus and image processing apparatus control method - Google Patents

Image processing apparatus and image processing apparatus control method Download PDF

Info

Publication number
JP5836602B2
JP5836602B2 JP2011021697A JP2011021697A JP5836602B2 JP 5836602 B2 JP5836602 B2 JP 5836602B2 JP 2011021697 A JP2011021697 A JP 2011021697A JP 2011021697 A JP2011021697 A JP 2011021697A JP 5836602 B2 JP5836602 B2 JP 5836602B2
Authority
JP
Japan
Prior art keywords
scene
condition
image processing
image
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011021697A
Other languages
Japanese (ja)
Other versions
JP2012165049A (en
Inventor
光明 服部
光明 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011021697A priority Critical patent/JP5836602B2/en
Publication of JP2012165049A publication Critical patent/JP2012165049A/en
Application granted granted Critical
Publication of JP5836602B2 publication Critical patent/JP5836602B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • Y02P70/54

Description

本発明は、撮影シーンを判定する画像処理装置及び画像処理装置の制御方法に関するものである。   The present invention relates to an image processing apparatus for determining a shooting scene and a control method for the image processing apparatus.

例えばビデオカメラのような撮像装置において撮影されるシーンには、ポートレート、風景、夜景など様々なシーンがある。従来、これらの撮影シーンで最適な映像を得る為に、撮影時の被写体情報をカメラが解析することで、どのようなシーンで撮影されたかを自動的に判別し、その判別したシーンに応じて最適な画像処理を施すものがある。
このようなシステムでは、例えば撮影時の情報から「青空シーン」、「自然の緑が多いシーン」、「夕景シーン」等を判定し、判定結果に応じて青空の青、自然の緑、夕景のオレンジの彩度を強調するといった処理が行われる。
For example, there are various scenes such as a portrait, a landscape, and a night view taken by an imaging apparatus such as a video camera. Conventionally, in order to obtain optimal images in these shooting scenes, the camera analyzes the subject information at the time of shooting to automatically determine what scene was shot, and according to the determined scene Some perform optimal image processing.
In such a system, for example, “blue sky scene”, “natural green scene”, “evening scene” and the like are determined from information at the time of shooting, and blue sky blue, natural green, sunset scene are determined according to the determination result. Processing such as enhancing the saturation of the orange is performed.

しかしながらこれらのシーン判定処理を精度良く行うためには高度な演算処理が必要となり、複数のシーン判定処理を同時に行うと演算負荷が非常に重くなってしまう。   However, in order to perform these scene determination processes with high accuracy, advanced calculation processes are required, and if a plurality of scene determination processes are performed simultaneously, the calculation load becomes very heavy.

例えば、特許文献1では、夕焼け判定、色被り判定、コントラスト判定等の補正の要否判定を行い、補正が必要と判定されたときにのみ対応する項目の補正を行うという技術が開示されている。この技術によれば、所定の補正の要否判定を行い必要なときのみ補正を行うため、補正処理の負荷が削減される。   For example, Patent Document 1 discloses a technique for determining whether or not correction is necessary, such as sunset determination, color covering determination, and contrast determination, and correcting corresponding items only when it is determined that correction is necessary. . According to this technique, since it is determined whether or not a predetermined correction is necessary and correction is performed only when necessary, the load of correction processing is reduced.

特開平11−298736号公報Japanese Patent Laid-Open No. 11-298736

しかしながら、上述の特許文献1では、補正の要否判定(即ちシーン検出処理)を行い必要な補正のみを行うようにしても、複数のシーン検出処理は同時に毎回行う必要があり、前述したような動画撮影中の演算負荷がかかるという問題は残ってしまう。
そこで、本発明の目的は、シーン検出による演算負荷を軽減しつつ効果的にシーンの検出を行うことを可能にした画像処理装置を提供することである。
However, in the above-mentioned Patent Document 1, even if it is determined whether or not correction is necessary (that is, scene detection processing) and only necessary correction is performed, a plurality of scene detection processing must be performed at the same time each time. There remains a problem that a calculation load is applied during movie shooting.
Accordingly, an object of the present invention is to provide an image processing apparatus capable of effectively detecting a scene while reducing a calculation load due to scene detection.

上記課題に鑑み、本発明の画像処理装置は、請求項1に記載のとおり、複数フレームの画像データを取得する画像取得手段と、予め設定された複数のシーンの中から、前記画像データに該当するシーンを特定するシーン検出手段と、前記シーン検出手段によるシーン特定の結果に応じて複数の画像取得条件または複数の画像処理条件の設定を自動で行う条件設定手段と、前記条件設定手段によって設定を自動で行う画像取得条件または画像処理条件を指定する指定手段と、を有し、前記条件設定手段によって設定される条件は、前記予め設定された複数のシーンの中の第1のシーン、第2のシーン、第3のシーンそれぞれで固有の設定がなされる第1の条件と、前記第1のシーンでは他のシーンとは異なる固有の設定がなされ、前記第2のシーン及び第3のシーンでは同じ設定がなされる第2の条件と、を含み、前記シーン検出手段は、前記指定手段によって前記第1の条件が指定される場合、前記第1のシーンに該当するか否かを所定の周期で判定し、前記指定手段によって前記第1の条件が指定されず、かつ前記第2の条件が指定される場合、前記第1のシーンに該当するか否か判定する周期を前記所定の周期よりも短くすることを特徴とする。 In view of the above problems, an image processing apparatus according to the present invention corresponds to the image data from among a plurality of preset scenes and image acquisition means for acquiring image data of a plurality of frames. A scene detection unit that identifies a scene to be set, a condition setting unit that automatically sets a plurality of image acquisition conditions or a plurality of image processing conditions according to a scene identification result by the scene detection unit, and a setting by the condition setting unit Designation means for designating image acquisition conditions or image processing conditions for automatically performing processing, and the conditions set by the condition setting means are a first scene, a first scene of the plurality of preset scenes, The first condition in which the unique setting is made in each of the second scene and the third scene, and the unique setting different from the other scene is made in the first scene. Wherein a second condition that the same setting is down and third scenes are made, and the scene detecting means, when the first condition is designated by the designation unit, corresponding to the first scene whether determined in a predetermined cycle, determining whether the first condition is not specified, and if the second condition is specified, corresponding to the first scene by said specifying means The period of performing is shorter than the predetermined period.

また、本発明の画像処理装置の制御方法は、請求項11に記載のとおり、複数フレームの画像データを取得する画像取得ステップと、予め設定された複数のシーンの中から、前記画像データに該当するシーンを特定するシーン検出ステップと、前記シーン検出ステップによるシーン特定の結果に応じて複数の画像取得条件または複数の画像処理条件の設定を自動で行う条件設定ステップと、前記条件設定ステップにて設定が自動で行われる画像取得条件または画像処理条件を指定する指定ステップと、を有し、前記条件設定ステップにて設定される条件は、前記予め設定された複数のシーンの中の第1のシーン、第2のシーン、第3のシーンそれぞれで固有の設定がなされる第1の条件と、前記第1のシーンでは他のシーンとは異なる固有の設定がなされ、前記第2のシーン及び第3のシーンでは同じ設定がなされる第2の条件と、を含み、前記シーン検出ステップでは、前記指定ステップにて前記第1の条件が指定される場合、前記第1のシーンに該当するか否かを所定の周期で判定し、前記指定ステップによって前記第1の条件が指定されず、かつ前記第2の条件が指定される場合、前記第1のシーンに該当するか否か判定する周期を前記所定の周期よりも短くすることを特徴とする。 According to a control method of an image processing apparatus of the present invention, an image acquisition step for acquiring image data of a plurality of frames, and the image data from among a plurality of preset scenes as described in claim 11 A scene detection step for identifying a scene to be performed, a condition setting step for automatically setting a plurality of image acquisition conditions or a plurality of image processing conditions in accordance with the scene identification result of the scene detection step, and the condition setting step. A setting step of specifying an image acquisition condition or an image processing condition in which the setting is automatically performed, and the condition set in the condition setting step is a first of the plurality of preset scenes The first condition in which a unique setting is made in each of the scene, the second scene, and the third scene, and the unique condition that is different from the other scenes in the first scene A second condition in which the same setting is made in the second scene and the third scene, and in the scene detection step, the first condition is designated in the designation step , It is determined at a predetermined cycle whether or not it corresponds to the first scene , and when the first condition is not specified and the second condition is specified by the specifying step, the first condition is the period to determine whether corresponds to a scene, characterized in that shorter than the predetermined period.

本発明によれば、撮影条件に応じてシーン検出の検出速度を優先した処理と検出シーン数を優先した処理を行うことで、シーン検出による演算負荷を軽減しつつ、シーン検出に対応した効果的な補正処理及び撮影制御を可能にする。   According to the present invention, the processing that prioritizes the detection speed of scene detection and the processing that prioritizes the number of detected scenes according to the shooting conditions is performed, thereby effectively reducing the computation load due to scene detection and corresponding to scene detection. Correction processing and shooting control.

第1の実施形態におけるデジタルカメラ114の全体構成を示したブロック図である。第1の実施形態における検出シーンサイクルを示した図である。1 is a block diagram illustrating an overall configuration of a digital camera 114 according to a first embodiment. It is the figure which showed the detection scene cycle in 1st Embodiment. 背景技術による各シーンの検出サイクルの概念図を示した図である。It is the figure which showed the conceptual diagram of the detection cycle of each scene by background art. 第1の実施形態における各シーンの検出サイクルの表を示した図である。It is the figure which showed the table | surface of the detection cycle of each scene in 1st Embodiment. 第1の実施形態における各機能における自動/固定のモードの選択肢をまとめた表を示した図である。It is the figure which showed the table | surface which put together the option of the automatic / fixed mode in each function in 1st Embodiment. 第1の実施形態における各検出シーンと各シーンに対応した処理が行われる機能の対応関係を示した図である。It is the figure which showed the correspondence of the function in which the process corresponding to each detection scene and each scene in 1st Embodiment is performed. 第1の実施形態における明るさ補正処理に用いるヒストグラムの例を示した図である。It is the figure which showed the example of the histogram used for the brightness correction process in 1st Embodiment. 第1の実施形態における明るさ補正処理に用いるコントラスト補正カーブを示した図である。It is the figure which showed the contrast correction curve used for the brightness correction process in 1st Embodiment. 第1の実施形態における青空シーン検出処理のフローを示した図である。It is the figure which showed the flow of the blue sky scene detection process in 1st Embodiment. 第1の実施形態における自然の緑シーン検出処理のフローを示した図である。It is the figure which showed the flow of the natural green scene detection process in 1st Embodiment. 第1の実施形態における夕景シーン検出処理のフローを示した図である。It is the figure which showed the flow of the evening scene detection process in 1st Embodiment. 第1の実施形態における人物シーン検出処理のフローを示した図である。It is the figure which showed the flow of the person scene detection process in 1st Embodiment. 第1の実施形態におけるシーン検出処理全体の動作フローを示した図である。It is the figure which showed the operation | movement flow of the whole scene detection process in 1st Embodiment. 第1の実施形態におけるUV色空間上の青空判定領域を示した図である。It is the figure which showed the blue sky determination area | region on UV color space in 1st Embodiment. 第1の実施形態におけるUV色空間上の自然の緑判定領域を示した図である。It is the figure which showed the natural green determination area | region on UV color space in 1st Embodiment. 第1の実施形態におけるUV色空間上の夕景判定領域を示した図である。It is the figure which showed the evening scene determination area | region on UV color space in 1st Embodiment. 他の実施形態における人物シーンの検出を行わないときの、検出シーンサイクルを示した図である。It is the figure which showed the detection scene cycle when not detecting the person scene in other embodiment.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

図1は、本発明の実施形態にかかわる画像処理装置の1例としてのデジタルカメラ114の全体構成を示すブロック図である。
図1において、100は撮影レンズ、101は絞り、102はシャッター、103は光学像を電気信号に変換する撮像素子、104は撮像素子103のアナログ信号出力をデジタル信号に変換するアナログ/デジタル(以下A/D)変換器である。100〜104をもって画像取得手段とする。タイミング発生部105は、撮像素子103、A/D変換器104にクロック信号や制御信号を供給して、それらの動作を制御している。このタイミング発生部105はメモリ制御部106及びシステム制御部113により制御されている。
FIG. 1 is a block diagram showing an overall configuration of a digital camera 114 as an example of an image processing apparatus according to an embodiment of the present invention.
In FIG. 1, 100 is a photographing lens, 101 is an aperture, 102 is a shutter, 103 is an image sensor that converts an optical image into an electrical signal, and 104 is an analog / digital (hereinafter referred to as analog / digital) that converts an analog signal output of the image sensor 103 into a digital signal. A / D) converter. 100 to 104 are image acquisition means. The timing generator 105 supplies clock signals and control signals to the image sensor 103 and the A / D converter 104 to control their operations. The timing generation unit 105 is controlled by the memory control unit 106 and the system control unit 113.

画像処理部108ではA/D変換器104或いはメモリ制御部106からの12ビットRGBベイヤー配列画像データ(一般的に知られているRAWデータ)に対して、現像処理を施す。この現像処理はホワイトバランス(以下WB)補正処理、RGBベイヤー配列の信号をRGB3プレーン信号に変換するための色補間処理、ガンマ補正処理、色変換マトリックス処理、明るさ補正処理、色補正処理などで構成されている。この現像処理の詳細については後に詳述する。   The image processing unit 108 performs development processing on 12-bit RGB Bayer array image data (generally known RAW data) from the A / D converter 104 or the memory control unit 106. This development processing includes white balance (WB) correction processing, color interpolation processing for converting RGB Bayer array signals into RGB 3 plane signals, gamma correction processing, color conversion matrix processing, brightness correction processing, color correction processing, and the like. It is configured. Details of this development processing will be described later.

尚、この画像処理部108(シーン検出手段)では、画像データを解析することで、青空シーン、自然の緑シーン、夕景シーン、人物シーン等のシーンの検出も行っている。そしてこのシーン検出結果は、システム制御部113(条件設定手段)によりWB補正、明るさ補正、色補正のそれぞれの処理に用いられる補正値に反映され、画像処理部108での上記補正処理に用いられる。このシーン検出処理の詳細については後に詳述する。
また、WB補正、色補正、明るさ補正処理機能はそれぞれ、検出された撮影シーンに最適な補正を行う自動制御のモードと、撮影シーンによらず固定の補正を行うモードの2種類のモードが設けられている。この自動と固定の2つのモードは操作部115(指定手段)をユーザが操作することでそれぞれの補正機能毎に切り替えることが出来る。この自動/固定モードの詳細については後に詳述する。
The image processing unit 108 (scene detection means) also detects scenes such as a blue sky scene, a natural green scene, a sunset scene, and a person scene by analyzing the image data. The scene detection result is reflected on correction values used for WB correction, brightness correction, and color correction by the system control unit 113 (condition setting unit), and is used for the correction processing in the image processing unit 108. It is done. Details of this scene detection processing will be described later.
Each of the WB correction, color correction, and brightness correction processing functions has two modes: an automatic control mode that performs optimum correction for the detected shooting scene, and a mode that performs fixed correction regardless of the shooting scene. Is provided. The two modes, automatic and fixed, can be switched for each correction function by the user operating the operation unit 115 (designating means). Details of the automatic / fixed mode will be described later.

メモリ制御部106は、A/D変換器104、タイミング発生部105、画像処理部108、メモリ107を制御する。これにより、A/D変換器104でA/D変換されたデジタルデータは画像処理部108、メモリ制御部106を介して、或いは直接メモリ制御部106を介して、メモリ107に書き込まれる。
メモリ107は撮影した動画を格納する為のメモリである。また、このメモリ107はシステム制御部113や画像処理部108の作業領域としても使用される。
外部記憶装置109はCFカードやSDカードといった着脱可能な外付けの記録媒体である。メモリ107に一時的に記録された動画データは最終的にこの外部記憶装置109に記録される。
The memory control unit 106 controls the A / D converter 104, the timing generation unit 105, the image processing unit 108, and the memory 107. As a result, the digital data A / D converted by the A / D converter 104 is written into the memory 107 via the image processing unit 108, the memory control unit 106, or directly via the memory control unit 106.
A memory 107 is a memory for storing captured moving images. The memory 107 is also used as a work area for the system control unit 113 and the image processing unit 108.
The external storage device 109 is a detachable external recording medium such as a CF card or an SD card. The moving image data temporarily recorded in the memory 107 is finally recorded in the external storage device 109.

露光制御部110は絞り101やシャッター102を制御する。露光制御部110の露光制御は、デジタルカメラ114が自動的に最適な補正を行う自動制御のモードとユーザが任意に露出を決定する固定モードの2種類のモードが設けられている。この自動と固定の2つのモードは操作部115をユーザが操作することで切り替えることが出来る。この自動/固定モードの詳細については後に詳述する。
測距制御部111はレンズ100のフォーカシングを制御する。
測距制御部111のフォーカス制御は、フォーカシングをデジタルカメラ114が自動制御するモードと、ユーザが任意のフォーカス位置を設定する固定モードの2種類のモードが設けられている。この自動と固定の2つのモードは操作部115をユーザが操作することで切り替えることが出来る。この自動/固定モードの詳細については後に詳述する。
The exposure control unit 110 controls the aperture 101 and the shutter 102. The exposure control of the exposure controller 110 is provided with two types of modes: an automatic control mode in which the digital camera 114 automatically performs optimum correction and a fixed mode in which the user arbitrarily determines exposure. The two modes, automatic and fixed, can be switched by operating the operation unit 115 by the user. Details of the automatic / fixed mode will be described later.
The distance measurement control unit 111 controls the focusing of the lens 100.
The focus control of the distance measurement control unit 111 is provided with two types of modes: a mode in which the digital camera 114 automatically controls focusing and a fixed mode in which the user sets an arbitrary focus position. The two modes, automatic and fixed, can be switched by operating the operation unit 115 by the user. Details of the automatic / fixed mode will be described later.

また、システム制御部113はこのデジタルカメラ114全体の動作の制御している。
撮影開始/終了釦112は撮影動作を開始/終了するスイッチとなる。
以上が本発明の実施形態にかかわるデジタルカメラ114の全体構成の概要である。
The system control unit 113 controls the operation of the entire digital camera 114.
The shooting start / end button 112 is a switch for starting / ending a shooting operation.
The above is the outline of the overall configuration of the digital camera 114 according to the embodiment of the present invention.

以下、本実施形態におけるデジタルカメラ114の動作について説明する。
まず前述した、現像処理、シーン検出処理、各機能の自動/固定モード、のそれぞれの詳細について順に説明する。
Hereinafter, the operation of the digital camera 114 in the present embodiment will be described.
First, the details of the development processing, scene detection processing, and automatic / fixed mode of each function described above will be described in order.

(現像処理の詳細説明)
最初に画像処理部108で行われる現像処理の詳細について説明する。
現像処理ではWB補正処理、RGBベイヤー配列の信号をRGB3プレーン信号に変換するための色補間処理、ガンマ補正処理、色変換マトリックス処理、明るさ補正処理、色補正処理が順に行われる。
まず、WB処理では12ビットRGBベイヤー配列画像のR,G,Bの画素毎に下記式1に従って補正が行われる。
(Detailed explanation of development processing)
First, details of the development processing performed by the image processing unit 108 will be described.
In the development process, a WB correction process, a color interpolation process for converting an RGB Bayer array signal into an RGB 3 plane signal, a gamma correction process, a color conversion matrix process, a brightness correction process, and a color correction process are sequentially performed.
First, in the WB process, correction is performed according to the following equation 1 for each of R, G, and B pixels of a 12-bit RGB Bayer array image.


ここでWBgainR, WBgainG, WbgainBはWB補正値である。このWB補正値の算出方法については別途後述する。

Here, WBgainR, WBgainG, and WbgainB are WB correction values. A method for calculating the WB correction value will be described later.

次に既知の手法による色補間処理により、WB補正後のRGBベイヤー配列信号がRGB3プレーン信号に変換される。
そして色補間後の信号に対してガンマ補正処理が行われる。ここで使用されるガンマ補正カーブは事前に求めておき、メモリ107に格納されている。
Next, the RGB Bayer array signal after WB correction is converted into an RGB3 plane signal by color interpolation processing using a known method.
Then, gamma correction processing is performed on the signal after color interpolation. The gamma correction curve used here is obtained in advance and stored in the memory 107.

次にガンマ補正処理後のRGB信号は下記式2の色変換マトリックス処理により8ビットY(輝度)、U、V(色差)信号に変換される。   Next, the RGB signal after the gamma correction process is converted into an 8-bit Y (luminance), U, V (color difference) signal by a color conversion matrix process of the following formula 2.


ここで、γR, γG, γBはそれぞれガンマ補正後のR,G,B、 a〜iは任意の浮動小数点。

Here, γR, γG, and γB are R, G, and B after gamma correction, and a to i are arbitrary floating point numbers.

次にこのYUV信号のY値に対して明るさ補正処理が施される。この明るさ補正処理の詳細については別途後述する。
最後に色補正処理により色補正が行われ全ての現像処理が完了する。尚この色補正処理は一般的に知られている3次元ルックアップテーブル(3DLUT)処理により行われる。この色補正処理の詳細については別途後述する。
Next, brightness correction processing is performed on the Y value of the YUV signal. Details of this brightness correction processing will be described later.
Finally, color correction is performed by color correction processing, and all development processing is completed. This color correction process is performed by a generally known three-dimensional lookup table (3DLUT) process. Details of the color correction process will be described later.

(シーン検出処理の詳細説明)
次に画像処理部108で行われるシーン検出処理の詳細について説明する。本実施形態では、青空シーン、自然の緑シーン、夕景シーン、人物シーンの検出が行われる。
尚以下に説明するシーン検出処理はいずれも動画撮影された複数フレームのうち任意の1フレームの画像を解析することで行われる。
(Detailed explanation of scene detection processing)
Next, details of the scene detection process performed by the image processing unit 108 will be described. In this embodiment, a blue sky scene, a natural green scene, an evening scene, and a person scene are detected.
Note that the scene detection process described below is performed by analyzing an image of an arbitrary frame among a plurality of frames taken with moving images.

<青空シーン検出方法>
以下、図8のフローチャートを参照して、青空シーン検出処理の動作について説明する。
ステップS801では、動画撮影された1フレームの12ビットRAWデータを画像処理部108でn×m(n、mは整数)の領域(ブロック)にブロック分割し、分割された各領域内のR,G,B各色の画素の平均値を算出する。本実施形態ではn、mは8とする。
<Blue sky scene detection method>
Hereinafter, the operation of the blue sky scene detection process will be described with reference to the flowchart of FIG.
In step S801, one frame of 12-bit RAW data obtained by moving image shooting is divided into blocks of n × m (n and m are integers) by the image processing unit 108, and R, The average value of the G and B color pixels is calculated. In this embodiment, n and m are 8.

次にステップS802で、各ブロックのR,G,B平均値に対して、前述したホワイトバランス補正処理、ガンマ補正処理、色変換マトリックス処理による仮現像処理を行う。ここで仮現像処理された結果として8×8各ブロックのYUV値が算出される。   In step S802, the R, G, B average value of each block is subjected to provisional development processing by the above-described white balance correction processing, gamma correction processing, and color conversion matrix processing. Here, the YUV value of each 8 × 8 block is calculated as a result of the temporary development processing.

次にステップS803で、画面内全ブロックに占める青空ブロックの割合を算出する。青空ブロックかどうかの判定はUV色空間上で青空判定領域(第3の領域)を定義し、その領域内に入ったブロックの数をカウントすることで行われる。
図13の1301にUV色空間上の青空判定領域の例を示した。本実施形態ではY値によらず、UV色空間上の青空判定領域は同じとしているが、Y値毎にUV色空間上の青空判定領域を異ならせるような構成としても良い。
尚、UV色空間上の青空判定領域は、ステップS802の仮現像処理を施した様々な場所、季節、時刻に撮影した青空画像の青空部のUV値が含まれるような領域を事前に算出しておき、メモリ107に記録しておく。
In step S803, the ratio of the blue sky block to all the blocks in the screen is calculated. Whether or not the block is a blue sky block is determined by defining a blue sky determination region (third region) in the UV color space and counting the number of blocks entering the region.
An example of a blue sky determination area on the UV color space is shown at 1301 in FIG. In this embodiment, the blue sky determination area on the UV color space is the same regardless of the Y value, but the blue sky determination area on the UV color space may be different for each Y value.
It should be noted that the blue sky determination area in the UV color space is calculated in advance so that the UV value of the blue sky portion of the blue sky image taken at various places, seasons, and times after the provisional development processing in step S802 is included. It is recorded in the memory 107.

次に総ブロック個数(本実施形態では8×8=64個)に占めるUV色空間上の青空判定領域に入ったブロック個数の割合(以下青空ブロック割合)に応じて、青空シーンの検出を行う。本実施形態では青空ブロック割合が50%以上で青空シーンと判定する。   Next, a blue sky scene is detected in accordance with the ratio of the number of blocks entering the blue sky determination area in the UV color space (hereinafter referred to as the blue sky block ratio) occupying the total number of blocks (8 × 8 = 64 in this embodiment). . In this embodiment, a blue sky scene is determined when the blue sky block ratio is 50% or more.

<自然の緑シーン検出方法>
以下、図9のフローチャートを参照して、草木といった自然の緑シーン検出処理の動作について説明する。
ステップS901では、動画撮影された1フレームの12ビットRAWデータを画像処理部108でn×m(n、mは整数)の領域(ブロック)に分割し、分割された各領域内のR,G,B各色の画素の平均値を算出する。ステップS801と同じく本実施形態ではn、mは8とする。
<Natural green scene detection method>
Hereinafter, with reference to the flowchart of FIG. 9, the operation of a natural green scene detection process such as a plant will be described.
In step S901, one frame of 12-bit RAW data obtained by moving image shooting is divided into n × m (n and m are integers) areas (blocks) by the image processing unit 108, and R, G in each divided area is divided. , B The average value of the pixels of each color is calculated. As in step S801, n and m are 8 in this embodiment.

次にステップS902で、各ブロックのR,G,B平均値に対して、前述したホワイトバランス補正処理、ガンマ補正処理、色変換マトリックス処理による仮現像処理を行う。ここで仮現像処理された結果として8×8各ブロックのYUV値が算出される。   In step S902, the R, G, B average values of each block are subjected to provisional development processing by the above-described white balance correction processing, gamma correction processing, and color conversion matrix processing. Here, the YUV value of each 8 × 8 block is calculated as a result of the temporary development processing.

次にステップS903で、画面内全ブロックに占める自然の緑ブロックの割合を算出する。自然の緑ブロックかどうかの判定はUV色空間上で自然の緑判定領域(第2の領域)を定義し、その領域内に入ったブロックの数をカウントすることで行われる。
図14の1401にUV色空間上の自然の緑判定領域の例を示した。本実施形態ではY値によらず、UV色空間上の自然の緑判定領域は同じとしているが、Y値毎にUV色空間上の自然の緑判定領域を異ならせるような構成としても良い。
尚、UV色空間上の自然の緑判定領域は、ステップS902の仮現像処理を施した様々な草木の画像の緑部のUV値が含まれるような領域を事前に算出しておき、メモリ107に記録しておく。
In step S903, the ratio of natural green blocks to all blocks in the screen is calculated. The determination of whether or not the block is a natural green block is performed by defining a natural green determination region (second region) in the UV color space and counting the number of blocks that have entered the region.
An example of a natural green determination region on the UV color space is shown at 1401 in FIG. In this embodiment, the natural green determination area in the UV color space is the same regardless of the Y value, but the natural green determination area in the UV color space may be different for each Y value.
Note that the natural green determination region in the UV color space is calculated in advance so that the UV value of the green portion of the images of various plants that have undergone the temporary development processing in step S902 is included, and the memory 107 Keep a record.

次に総ブロック個数(本実施形態では8×8=64個)に占めるUV色空間上の自然の緑判定領域に入ったブロック個数の割合(以下自然の緑ブロック割合)に応じて、自然の緑シーンの検出を行う。本実施形態では自然の緑ブロック割合が50%以上で自然の緑シーンと判定する。   Next, according to the ratio of the number of blocks that have entered the natural green determination area in the UV color space (hereinafter, the ratio of natural green blocks) to the total number of blocks (8 × 8 = 64 in the present embodiment), Perform green scene detection. In the present embodiment, a natural green scene is determined when the natural green block ratio is 50% or more.

<夕景シーン検出方法>
以下、図10のフローチャートを参照して、夕焼け空が写った夕景シーン検出処理の動作について説明する。
ステップS1001では、動画撮影された1フレームの12ビットRAWデータを画像処理部108でn×m(n、mは整数)の領域(ブロック)に分割し、分割された各領域内のR,G,B各色の画素の平均値を算出する。ステップS801と同じく本実施形態ではn、mは8とする。
<Evening scene detection method>
Hereinafter, the operation of the sunset scene detection process in which the sunset sky is reflected will be described with reference to the flowchart of FIG.
In step S1001, one frame of 12-bit RAW data obtained by moving image shooting is divided into n × m (n and m are integers) areas (blocks) by the image processing unit 108, and R, G in each divided area is divided. , B The average value of the pixels of each color is calculated. As in step S801, n and m are 8 in this embodiment.

次にステップS1002で、各ブロックのR,G,B平均値に対して、前述したホワイトバランス補正処理、ガンマ補正処理、色変換マトリックス処理による仮現像処理を行う。ここで仮現像処理された結果として8×8各ブロックのYUV値が算出される。   In step S1002, the R, G, and B average values of each block are subjected to provisional development processing by the above-described white balance correction processing, gamma correction processing, and color conversion matrix processing. Here, the YUV value of each 8 × 8 block is calculated as a result of the temporary development processing.

次にステップS1003で、画面内に占める夕景ブロックの割合を算出する。夕景ブロックかどうかの判定はUV色空間上で夕景判定領域(第1の領域)を定義し、その領域内に入ったブロックの数をカウントすることで行われる。
図15の1501にUV色空間上の夕景判定領域の例を示した。本実施形態ではY値によらず、UV色空間上の夕景判定領域は同じとしているが、Y値毎にUV色空間上の夕景判定領域を異ならせるような構成としても良い。
尚、UV色空間上の夕景判定領域は、ステップS1002の仮現像処理を施した様々な夕景(夕焼け空)のオレンジ部のUV値が含まれるような領域を事前に算出しておき、メモリ107に記録しておく。
In step S1003, the ratio of evening scene blocks in the screen is calculated. The determination of whether or not the block is an evening scene block is performed by defining an evening scene determination area (first area) in the UV color space and counting the number of blocks entering the area.
An example of an evening scene determination area on the UV color space is shown at 1501 in FIG. In the present embodiment, the sunset scene determination area on the UV color space is the same regardless of the Y value, but the sunset scene determination area on the UV color space may be different for each Y value.
Note that the sunset scene determination area in the UV color space is calculated in advance so that the UV values of the orange portions of various sunset scenes (sunset sky) subjected to the temporary development processing in step S1002 are included. Keep a record.

次に全ブロック個数(本実施形態では8×8=64個)に占めるUV色空間上の夕景判定領域に入ったブロック個数の割合(以下自然の緑ブロック割合)を算出する。
また、夕景検出の確度を高めるために、ステップS1004で、夕焼けのオレンジや空の青色以外の夕景に存在しない色が含まれていないかどうかを判定し、夕景に存在しない色が含まれていた場合には夕景シーンと判定されにくくする。
具体的には、図15のUV色空間上の1502と1503の緑や赤色の領域を夕景に存在しない色領域と定義する。そして、8×8ブロックYUVデータに対して夕景に存在しない色領域内に入ったブロック個数をカウントする。
Next, the ratio of the number of blocks entering the evening scene determination area on the UV color space (hereinafter referred to as a natural green block ratio) occupying the total number of blocks (8 × 8 = 64 in the present embodiment) is calculated.
Further, in order to increase the accuracy of sunset detection, it is determined in step S1004 whether or not a color that does not exist in the sunset scene other than orange in the sunset or blue in the sky is included, and a color that does not exist in the sunset scene is included. In this case, it is difficult to determine that the scene is an evening scene.
Specifically, the green and red regions 1502 and 1503 on the UV color space in FIG. 15 are defined as color regions that do not exist in the evening scene. Then, the number of blocks that enter the color region that does not exist in the evening scene with respect to the 8 × 8 block YUV data is counted.

次に8×8ブロックYUVデータ総ブロック個数(本実施形態では8×8=64個)に占めるUV色空間上の夕景に存在しない色領域に入ったブロック個数の割合(以下夕景以外ブロック割合)を算出する。
そして最後にステップS1005で、夕景ブロック割合が50%以上、且つ夕景以外ブロック割合10%以下の場合に夕景シーンと判定する。
Next, the ratio of the number of blocks in a color area that does not exist in the sunset scene on the UV color space in the total number of 8 × 8 block YUV data blocks (8 × 8 = 64 in this embodiment) (hereinafter, the ratio of blocks other than the sunset scene) Is calculated.
Finally, in step S1005, if the evening scene block ratio is 50% or more and the non-evening scene block ratio is 10% or less, it is determined as an evening scene.

<人物シーン検出方法>
以下、図11のフローチャートを参照して、人物の顔が写った人物シーン検出処理の動作について説明する。
ステップS1101では、動画撮影された1フレームの12ビットRAWデータに対して
一般的に知られているパターンマッチング処理により、画像内に顔があるかどうかを検出する。尚顔パターンデータは事前にメモリ107に記録されているものとする。
また本実施形態では人物の顔のパターンを検出するようにしているが、人物以外にも動物、建造物、乗り物、などを検出するような構成としても良い。いずれの場合も検出する被写体のパターンデータをメモリ107に記録しておき、パターンマッチング処理により実施される。
<Person scene detection method>
Hereinafter, with reference to the flowchart of FIG. 11, the operation of the human scene detection process in which the human face is captured will be described.
In step S1101, whether or not there is a face in the image is detected by a generally known pattern matching process for one frame of 12-bit RAW data that has been shot. It is assumed that the face pattern data is recorded in the memory 107 in advance.
In the present embodiment, the face pattern of a person is detected, but it may be configured to detect animals, buildings, vehicles, etc. in addition to the person. In either case, the pattern data of the subject to be detected is recorded in the memory 107, and the pattern matching process is performed.

次にステップS1102で、人物検出されたかどうかの判定を行う。ステップS1101で人物検出されていなければ、人物シーンではないと判断し処理は終了となる。
ステップS1101で人物検出されていた場合、以下に説明するステップS1103〜S1106にて詳細な情報を取得する。
ステップS1103ではまず、検出された顔の大きさと画面内の顔位置座標を算出する。
In step S1102, it is determined whether a person has been detected. If no person is detected in step S1101, it is determined that the scene is not a person scene, and the process ends.
If a person is detected in step S1101, detailed information is acquired in steps S1103 to S1106 described below.
In step S1103, first, the detected face size and face position coordinates in the screen are calculated.

次にステップS1104で12ビットRAWの顔領域に対応した領域内の平均RGB値を算出する。そして、青空検出のステップS802などで行った仮現像処理と同様の手法で、仮現像を実施し顔領域内のYUV値を算出する。
そしてステップS1105で、ステップS1104で算出したYUV値のY値で顔領域の明るさを取得する。
最後にステップS1106で、ステップS1104で算出したYUV値のUV値で顔領域の色を取得する。
以上が画像処理部108で行われる各シーンの検出処理方法である。
尚、例えば青空シーン且つ人物シーンというように、それぞれのシーンは重複して検出される場合もある。
In step S1104, an average RGB value in the area corresponding to the 12-bit RAW face area is calculated. Then, the temporary development is performed and the YUV value in the face area is calculated by the same method as the temporary development processing performed in step S802 for detecting the blue sky.
In step S1105, the brightness of the face area is acquired from the Y value of the YUV value calculated in step S1104.
Finally, in step S1106, the color of the face area is acquired with the UV value of the YUV value calculated in step S1104.
The above is the scene detection processing method performed by the image processing unit 108.
Note that, for example, a blue sky scene and a person scene may be detected in duplicate.

(各機能の自動/固定モードの詳細説明)
次に前述した各機能における自動/固定の2つのモードに関する詳細について説明する。
図4に前述した各機能における自動/固定の2つのモードの選択肢をまとめた表を示した。また、図5に各検出シーンと、各機能が「自動」であった場合に各シーンに特化した処理が行われる機能との対応関係を示した。
図4において明るさ補正(画像処理条件、第2の条件)のユーザ選択肢として「自動」、「しない」がある。
ここで明るさ補正「自動」に設定された場合、撮影された画像に適した明るさやコントラストの補正が画像処理部108で行われる。
明るさやコントラストの補正値は下記の方法で算出される。
(Detailed explanation of automatic / fixed mode of each function)
Next, details regarding the two modes of auto / fix in each function described above will be described.
FIG. 4 shows a table summarizing the choices of the two modes of automatic / fixed in each function described above. FIG. 5 shows the correspondence between each detected scene and a function that performs processing specialized for each scene when each function is “automatic”.
In FIG. 4, there are “automatic” and “no” as user choices for brightness correction (image processing condition, second condition).
Here, when the brightness correction is set to “automatic”, the image processing unit 108 corrects brightness and contrast suitable for the captured image.
Brightness and contrast correction values are calculated by the following method.

まず撮影された画像に対して画像処理部108で輝度ヒストグラムを算出する。このヒストグラムは画像処理部108で現像処理された8ビットYUV画像の各画素に対して、Y値を0〜255の各値毎にカウントして算出する。図6の601に暗めに撮影された画像のヒストグラムの例を示した。このようにヒストグラムが暗い側に偏っていた場合には図7の701に示すコントラスト補正曲線を用いて明るく補正する。尚図7は水平軸に入力Y値、垂直軸に出力Y値を示している。
このようなコントラスト補正曲線を画像に適用することで、画像が明るく補正される。参考までに図6の602に明るさ補正後のヒストグラム形状を示した。
尚本実施形態ではコントラスト補正により明るさを補正する方法を示したが、RGB信号に一律のゲインをかけることで明るさを補正する構成としてもよい。
First, a luminance histogram is calculated by the image processing unit 108 with respect to a photographed image. This histogram is calculated by counting the Y value for each value of 0 to 255 for each pixel of the 8-bit YUV image developed by the image processing unit 108. An example of a histogram of an image photographed dark is shown at 601 in FIG. As described above, when the histogram is biased to the dark side, bright correction is performed using the contrast correction curve 701 in FIG. FIG. 7 shows the input Y value on the horizontal axis and the output Y value on the vertical axis.
By applying such a contrast correction curve to the image, the image is corrected brightly. For reference, the histogram shape after brightness correction is shown at 602 in FIG.
In the present embodiment, the method of correcting the brightness by contrast correction is shown. However, the brightness may be corrected by applying a uniform gain to the RGB signals.

また、このようにして算出された明るさやコントラストの補正値に対して、画像処理部108のシーン検出結果に応じて下記の処理を実施する。
例えば夕景シーン(第1のシーン)が検出された場合、夕景の雰囲気を残す為に、明るさ補正量を弱める又は補正しないようにする。また人物が検出された場合、ヒストグラムから算出した補正に対して、人物の顔領域に対応した明るさが適切になるように更に明るさ補正量を調整する。具体的には、事前に適切な顔のY値の目標値を決定しておき、顔領域に対応したY値がその目標値になるように明るさ補正量を調整する。
青空、自然の緑シーン(第2のシーン、第3のシーン)が検出された場合については、特にシーンに対応した処理は行わず、ヒストグラムを用いて算出された明るさ、コントラスト補正量をそのまま使用する。
The brightness and contrast correction values calculated in this way are subjected to the following processing according to the scene detection result of the image processing unit 108.
For example, when an evening scene (first scene) is detected, the brightness correction amount is reduced or not corrected in order to leave an evening scene atmosphere. When a person is detected, the brightness correction amount is further adjusted so that the brightness corresponding to the face area of the person is appropriate with respect to the correction calculated from the histogram. Specifically, an appropriate target value of the face Y value is determined in advance, and the brightness correction amount is adjusted so that the Y value corresponding to the face area becomes the target value.
When a blue sky or a natural green scene (second scene, third scene) is detected, the processing corresponding to the scene is not performed, and the brightness and contrast correction amount calculated using the histogram are used as they are. use.

これらの関係は図5の明るさ補正の欄に示している。図5において「○」の項目、即ち「夕景シーン」、「人物シーン」は、明るさ補正が「自動」であった場合、明るさ補正値の算出が、全シーン共通で行われるヒストグラムを用いた方法以外にシーンに特化した処理で行われることを示している。
一方図5の明るさ補正「しない」に設定された場合は画像の明るさやコントラストの補正は行わない。
These relationships are shown in the brightness correction column of FIG. In FIG. 5, the item “◯”, that is, “Evening scene” and “Human scene” uses a histogram in which the brightness correction value is calculated for all scenes when the brightness correction is “automatic”. In addition to the conventional method, the scene-specific processing is performed.
On the other hand, when the brightness correction “not performed” in FIG. 5 is set, the brightness and contrast of the image are not corrected.

次に図4においてWB(画像処理条件、第2の条件)のユーザ選択肢として「自動」、「マニュアル」がある。
ここでWB「自動」に設定された場合、例えば撮影画像の画面全体の平均RGBデータから式3で補正値が算出される。
Next, in FIG. 4, there are “automatic” and “manual” as user options for WB (image processing condition, second condition).
When WB “automatic” is set here, for example, the correction value is calculated by Equation 3 from the average RGB data of the entire screen of the captured image.

また、このようにして算出されたWB補正値に対して、画像処理部108のシーン検出結果に応じて下記の処理を実施する。
例えば夕景シーン(第1のシーン)が検出された場合には、夕陽の赤味がより強調されるように、式3の結果に対してさらに式4の補正が行われる。
In addition, the following processing is performed on the WB correction value calculated in this way according to the scene detection result of the image processing unit 108.
For example, when an evening scene (first scene) is detected, correction of Expression 4 is further performed on the result of Expression 3 so that the redness of the sunset is more emphasized.


ここで、Kr=1.0以上の浮動小数点、Kb=1.0以下の浮動小数点である。
式4によればR画素がより大きく、B画素がより小さくなることで、式3で算出したWB補正値を適用するよりも赤味の強い画像が得られる。

Here, a floating point with Kr = 1.0 or more and a floating point with Kb = 1.0 or less.
According to Expression 4, the R pixel is larger and the B pixel is smaller, so that an image having a stronger redness than that obtained by applying the WB correction value calculated by Expression 3 can be obtained.

また、人物が検出された場合には、人物の顔領域に対応した色を検出し、人物の顔色が適切な肌色になるように式1で算出したWB補正値をさらに補正する。
青空、自然の緑シーン(第2のシーン、第3のシーン)が検出された場合については、特にシーンに対応した処理は行わず、式1で算出されたWB補正量をそのまま使用する。
これらの関係は図5のWBの欄に示している。図5において「○」の項目、即ち「夕景シーン」、「人物シーン」が、全シーン共通で行われる式3を用いた方法以外にシーンに特化した方法で行われることを示している。
When a person is detected, a color corresponding to the face area of the person is detected, and the WB correction value calculated by Equation 1 is further corrected so that the face color of the person becomes an appropriate skin color.
When a blue sky and a natural green scene (second scene, third scene) are detected, the processing corresponding to the scene is not performed, and the WB correction amount calculated by Expression 1 is used as it is.
These relationships are shown in the WB column of FIG. FIG. 5 shows that the item “◯”, that is, “Evening scene” and “Human scene” are performed by a method specific to the scene other than the method using Formula 3 performed in common for all scenes.

一方、図5のWB「マニュアル」に設定された場合には、ユーザが設定した(例えば「太陽光」ならば色温度約5200K)光源下で適切なホワイトバランスが得られるような固定の補正値が適用される。尚、ユーザが設定する固定のWB補正値は事前に算出されてメモリ107に記録されている。
次に図4において色補正(画像処理条件、第1の条件)のユーザ選択肢として「自動」、「標準」がある。
ここで色補正「標準」が設定された場合にはシーンによらず固定の色再現となる。具体的には、画像処理部108の色補正処理部で適用される3DLUT処理に固定の3DLUTが適用される。この固定の3DLUTは例えば、入出力が同じ(即ち色変換処理がされない)LUTであってもよい。
ここで色補正「自動」に設定された場合、3DLUTを用いて画像処理部108で検出されたシーンに適した色に補正する。
On the other hand, when the WB “manual” in FIG. 5 is set, a fixed correction value that allows an appropriate white balance to be obtained under a light source set by the user (for example, a color temperature of about 5200 K for “sunlight”). Applies. The fixed WB correction value set by the user is calculated in advance and recorded in the memory 107.
Next, in FIG. 4, there are “automatic” and “standard” as user options for color correction (image processing condition, first condition).
Here, when color correction “standard” is set, fixed color reproduction is performed regardless of the scene. Specifically, a fixed 3DLUT is applied to the 3DLUT processing applied by the color correction processing unit of the image processing unit 108. This fixed 3DLUT may be, for example, an LUT having the same input / output (that is, color conversion processing is not performed).
When the color correction is set to “automatic”, the color is corrected to a color suitable for the scene detected by the image processing unit 108 using a 3DLUT.

例えば青空シーン(第2のシーン)が検出された場合、「標準」設定時よりも青の彩度が高くなるような3DLUTを適用し、青空をより鮮やかに強調する。
自然の緑シーン(第2のシーン)が検出された場合、「標準」設定時よりも緑の彩度が高くなるような3DLUTを適用し、自然の緑をより鮮やかに強調する。
夕景シーン(第1のシーン)が検出された場合、「標準」設定時よりもオレンジの彩度が高くなるような3DLUTを適用し、夕陽のオレンジをより鮮やかに強調する。
人物シーンが検出された場合、「標準」設定時よりも肌色の色相を赤寄りに、明度を高めに、彩度低めになるような3DLUTを適用することで透明感のある肌色に補正する。
これらの関係は図5の色補正の欄に示している。色補正では全項目で「○」が付いているように、色補正「自動」に設定された場合、それぞれのシーンで標準とは異なる固有の処理が行われる。尚、各シーンに適した3DLUTは事前に作成しておきメモリ107に記録しておく。もちろん、シーンが検出された際にその都度生成してもよいが、その分演算負荷が増えてしまうことになる。
For example, when a blue sky scene (second scene) is detected, a 3DLUT is applied so that the blue saturation is higher than when “standard” is set, and the blue sky is more vividly emphasized.
When a natural green scene (second scene) is detected, a 3DLUT is applied so that the green saturation is higher than when “standard” is set, and natural green is emphasized more vividly.
When an evening scene (first scene) is detected, a 3DLUT is applied so that the saturation of the orange is higher than when “standard” is set, and the orange of the sunset is more vividly emphasized.
When a person scene is detected, the skin color is corrected to a translucent skin color by applying a 3DLUT that makes the hue of the skin color closer to red, higher brightness, and lower saturation than when “standard” is set.
These relationships are shown in the column of color correction in FIG. When the color correction is set to “automatic” as indicated by “◯” in all items, unique processing different from the standard is performed in each scene. A 3DLUT suitable for each scene is created in advance and recorded in the memory 107. Of course, it may be generated each time a scene is detected, but the calculation load increases accordingly.

次に図4において露出制御(画像取得条件)のユーザ選択肢として「自動」、「マニュアル」がある。
ここで露出制御「マニュアル」が設定された場合には、ユーザが任意に設定した絞り101、シャッター102の速度で撮影が行われる。
露出制御「自動」が設定された場合には、システム制御部113は画像処理部108で処理された画像の明るさに応じて、画像中央部の明るさが適切になるような露光制御量を決定する。露光制御部110はこの露光制御量に従って絞り101やシャッター102の速度を制御し、撮像素子103に入射する光の露光量を制御する。
尚、シーン検出処理により人物の顔等の検出情報が得られた場合、画像中央部の明るさではなく、検出された顔領域の明るさが適切になるように露光制御量の算出が行われる。
青空、自然の緑、夕景シーンが検出された場合については、特にシーンに対応した処理は行わず、前述したように画像中央部の明るさが適切になるような露出を設定する。
これらの関係は図5の露出の欄に示している。図5において「○」の項目、即ち「人物シーン」では、露出制御「自動」が設定された場合、前述した画像中央部の明るさが適切になるような露出制御ではなくシーンに特化した露出制御となることを示している。
Next, in FIG. 4, there are “automatic” and “manual” as user options for exposure control (image acquisition conditions).
Here, when the exposure control “manual” is set, shooting is performed at the speed of the aperture 101 and the shutter 102 arbitrarily set by the user.
When the exposure control “automatic” is set, the system control unit 113 sets an exposure control amount so that the brightness at the center of the image is appropriate according to the brightness of the image processed by the image processing unit 108. decide. The exposure control unit 110 controls the speed of the diaphragm 101 and the shutter 102 according to the exposure control amount, and controls the exposure amount of light incident on the image sensor 103.
When detection information such as a person's face is obtained by the scene detection process, the exposure control amount is calculated so that the brightness of the detected face area is appropriate, not the brightness of the center of the image. .
When a blue sky, natural green, or sunset scene is detected, the processing corresponding to the scene is not performed, and an exposure is set so that the brightness at the center of the image is appropriate as described above.
These relationships are shown in the exposure column of FIG. In the item of “◯” in FIG. 5, that is, “person scene”, when the exposure control “automatic” is set, the above-described exposure control that optimizes the brightness of the central portion of the image is not a scene specific. It shows that it becomes exposure control.

次に図4においてフォーカス制御(画像取得条件)のユーザ選択肢として「自動」、「マニュアル」がある。
ここでフォーカス制御「マニュアル」が設定された場合には、ユーザが任意に設定したフォーカス位置で撮影が行われる。
フォーカス制御「自動」が設定された場合には、例えば画面中央部の被写体に自動的にピントがあうように、コントラストオートフォーカス(以下コントラストAF)処理によりフォーカスが制御される。
このコントラストAF処理では、画像の着目部分のコントラストが最も高くなるように、測距制御部111によるフォーカス制御が行われる。具体的には、システム制御部113の指示に従い測距制御部111がフォーカスを徐々に変更しながら、画像処理部108で処理された画像のコントラストを解析することで行われる。
尚、シーン検出処理により人物の顔等の検出情報が得られた場合、その顔位置にピントを合わせるようにコントラストAF処理が行われる。
青空、自然の緑、夕景シーンが検出された場合については、特にシーンに対応した処理は行わず、前述したように画像中央部の被写体にピントが合うように制御される。
これらの関係は図5の「フォーカス」の欄に示している。図5において「○」の項目、即ち「人物シーン」では、フォーカス制御「自動」が設定された場合、前述した画像中央部の被写体にピントを合わせる制御ではなくシーンに特化したフォーカス制御となることを示している。
以上が、各機能の自動/固定モードの詳細説明である。
Next, in FIG. 4, there are “automatic” and “manual” as user options for focus control (image acquisition conditions).
Here, when the focus control “manual” is set, shooting is performed at a focus position arbitrarily set by the user.
When the focus control “automatic” is set, for example, the focus is controlled by contrast autofocus (hereinafter referred to as contrast AF) processing so that the subject at the center of the screen is automatically focused.
In this contrast AF processing, focus control is performed by the distance measurement control unit 111 so that the contrast of the target portion of the image becomes the highest. Specifically, the distance measurement control unit 111 analyzes the contrast of the image processed by the image processing unit 108 while gradually changing the focus in accordance with an instruction from the system control unit 113.
When detection information such as a person's face is obtained by scene detection processing, contrast AF processing is performed so that the face position is in focus.
When a blue sky, natural green, or sunset scene is detected, processing corresponding to the scene is not performed, and control is performed so that the subject at the center of the image is in focus as described above.
These relationships are shown in the column “Focus” in FIG. In FIG. 5, in the item “◯”, that is, “person scene”, when the focus control “automatic” is set, the focus control is specialized for the scene, not the control for focusing on the subject at the center of the image described above. It is shown that.
The above is a detailed description of the automatic / fixed mode of each function.

ここで、本実施形態の特徴である、動画撮影時のシーン検出処理全体について説明する。
前述したように、例えばフレームレート30フレーム/秒の動画において、図2に示すように、2フレームに1回「青空シーン」、「自然の緑シーン」、「夕景シーン」の3つのシーンの検出処理を全て行うようにした場合、非常に演算負荷が重くなる。その結果、12フレームの期間内に全ての検出処理が完了できず、最悪の場合動画撮影が強制終了されてしまう。仮に、12フレームにて検出処理が終わるとしても、シーン検出に演算負荷を大きくとられ、他の処理が並行して行えないなどの弊害が出てしまうことが考えられる。
そこで、本実施形態では、明るさ補正、WB、色補正、露出制御、フォーカス制御のそれぞれの機能が自動モード、固定モードのいずれで設定されるかに応じて、シーン検出のシーン検出数を優先するかシーン検出速度を優先するかを選択する。すなわち、検出されるシーン特有の補正処理や制御などが発生する機能が自動設定の場合は、シーン検出数を優先し、そうでない場合は、シーン検出速度を優先する。
図12のフローチャートを参照して、本実施形態における動画撮影時のデジタルカメラ114のシーン検出処理全体の動作フローについて説明する。
尚、各機能の自動/固定処理の設定において、自動設定されている機能については、所定時間の周期(サイクル)で図12のフローチャートの動作とは別タスクとして並列処理されているものとする。具体的には明るさ補正、WB、色補正、露出、フォーカス各機能が自動モードで設定されている時は、各機能が別のタスクで並列処理される。例えばフレームレート30フレーム/秒で動画撮影されている場合、本実施形態では下記のサイクルで補正値の演算が行われるものとする。
Here, the entire scene detection process at the time of moving image shooting, which is a feature of the present embodiment, will be described.
As described above, for example, in a moving image with a frame rate of 30 frames / second, as shown in FIG. 2, detection of three scenes of “blue sky scene”, “natural green scene”, and “evening scene” once every two frames. When all processing is performed, the calculation load becomes very heavy. As a result, not all detection processes can be completed within the 12-frame period, and in the worst case, movie shooting is forcibly terminated. Even if the detection process is completed in 12 frames, it is possible that a large calculation load is imposed on the scene detection and other problems such as the inability to perform other processes in parallel may occur.
Therefore, in this embodiment, priority is given to the number of scene detections for scene detection depending on whether the functions of brightness correction, WB, color correction, exposure control, and focus control are set in either the automatic mode or the fixed mode. Select whether to give priority to scene detection speed. In other words, when the function for generating the correction process or control specific to the detected scene is automatically set, priority is given to the number of scene detections, and otherwise, priority is given to the scene detection speed.
With reference to the flowchart of FIG. 12, an operation flow of the entire scene detection process of the digital camera 114 at the time of moving image shooting in the present embodiment will be described.
In the setting of automatic / fixed processing of each function, it is assumed that the automatically set functions are processed in parallel as tasks different from the operation of the flowchart of FIG. 12 at a predetermined time period (cycle). Specifically, when the brightness correction, WB, color correction, exposure, and focus functions are set in the automatic mode, the functions are processed in parallel in different tasks. For example, when a moving image is shot at a frame rate of 30 frames / second, in this embodiment, the correction value is calculated in the following cycle.

明るさ補正 ・・・12フレームに1回
ホワイトバランス ・・・12フレームに1回
色補正 ・・・12フレームに1回
露出 ・・・4フレームに1回
フォーカス ・・・2フレームに1回
尚、これらの機能の補正値演算は上記サイクルにて実施されるが、撮影時に各フレームに適用される補正量は1フレーム刻みで段階的に変化するように制御される。
例えば明るさ補正を例にあげると、補正する量の目標値は12フレームに1回演算されるが、1回の演算で次の演算までの12フレーム分の補正量が算出されるため、補正量は1フレーム刻みで段階的に変化する。その他の機能についても同様である。ただし、実施の形態としてはこの限りではなく、1フレーム当たりの補正量は適宜調整可能である。
Brightness correction ・ ・ ・ Once in 12 frames White balance ・ ・ ・ Once in 12 frames Color correction ・ ・ ・ Once in 12 frames Exposure ・ ・ ・ Once in 4 frames Focus ・ ・ ・ Once in 2 frames The correction value calculation of these functions is performed in the above cycle, but the correction amount applied to each frame at the time of shooting is controlled so as to change step by step in one frame.
For example, taking brightness correction as an example, the target value of the amount to be corrected is calculated once every 12 frames. However, since the correction amount for 12 frames until the next calculation is calculated in one calculation, The amount changes step by step in 1 frame increments. The same applies to other functions. However, the embodiment is not limited to this, and the correction amount per frame can be appropriately adjusted.

以上のような前提において、図12のシーン検出全体の動作フローを説明する。
まず撮影開始釦112が押下され撮影が開始されると、画像処理部108のシーン検出処理が開始される。
ステップS1201〜S1205は、まず各機能が自動/固定モードのいずれに設定されているかを判定し、その結果に応じてシーン検出処理を異ならせるステップである。ステップS1201で色補正の設定が自動であると判定された場合は、人物検出、青空検出、自然の緑検出、夕景検出全てのシーン検出を行うフローAへ進み、自動でない、すなわち固定であると判定された場合にはステップS1202へ進む。ステップS1202で明るさ補正の設定が自動であると判定された場合は、人物検出、夕景検出に絞ってシーン検出を行うフローBへ進み、自動でないと判定された場合はステップS1203へ進む。ステップS1203でWBの補正の設定が自動であると判定された場合はフローBへ進み、自動でないと判定された場合はステップS1204へ進む。ステップS1204で露出の制御の設定が自動であると判定された場合は、人物検出に絞ってシーン検出を行うフローCへ進み、自動でないと判定された場合は、ステップS1205へ進む。ステップS1205では、フォーカスの制御の設定が自動であると判定された場合はフローCへ進み、自動でないと判定された場合、すなわち5つの機能全てが固定モードであったときには、シーン検出の必要なしとしてシーン検出処理を終了する。
Based on the above assumptions, the operation flow of the entire scene detection of FIG. 12 will be described.
First, when the shooting start button 112 is pressed to start shooting, the scene detection process of the image processing unit 108 is started.
Steps S1201 to S1205 are steps in which it is first determined whether each function is set to the automatic / fixed mode, and the scene detection process is changed according to the result. If it is determined in step S1201 that the color correction setting is automatic, the flow proceeds to a flow A for performing scene detection for all of the person detection, blue sky detection, natural green detection, and sunset scene detection, and is not automatic, that is, fixed. If it is determined, the process proceeds to step S1202. If it is determined in step S1202 that the brightness correction setting is automatic, the process proceeds to a flow B in which scene detection is performed focusing on person detection and sunset scene detection. If it is determined that the brightness correction setting is not automatic, the process proceeds to step S1203. If it is determined in step S1203 that the WB correction setting is automatic, the process proceeds to flow B. If it is determined not to be automatic, the process proceeds to step S1204. If it is determined in step S1204 that the exposure control setting is automatic, the flow proceeds to a flow C in which scene detection is focused on person detection. If it is determined that the exposure control is not automatic, the flow proceeds to step S1205. In step S1205, if it is determined that the focus control setting is automatic, the process proceeds to flow C. If it is determined that the focus control setting is not automatic, that is, if all five functions are in the fixed mode, no scene detection is necessary. Then, the scene detection process is terminated.

人物検出、青空検出、自然の緑検出、夕景検出全てのシーン検出を行うフローAのフローについて説明する。ステップS1206でシーンフラグSに1がセットされる。次にステップS1207でフレーム数が12の倍数かどうかの判定が行われ、12の倍数の場合に次のステップに進む。この処理は12フレームに1回のサイクルで1つのシーンの検出処理を行うことを意味する。   A flow of flow A for performing scene detection for human detection, blue sky detection, natural green detection, and sunset scene detection will be described. In step S1206, 1 is set to the scene flag S. In step S1207, it is determined whether the number of frames is a multiple of 12. If the number of frames is a multiple of 12, the process proceeds to the next step. This process means that one scene is detected in a cycle once every 12 frames.

次にステップS1208でシーンフラグSの判定が行われる。ここでS=1であった場合、ステップS1209に進み人物検出処理を実行する。この人物検出処理方法については既に説明済みであるため、ここでの説明は割愛する。   In step S1208, the scene flag S is determined. If S = 1, the process proceeds to step S1209 to execute a person detection process. Since this person detection processing method has already been described, description thereof is omitted here.

次にステップS1213に進み、シーンフラグSが6かどうかの判定を行う。今回は6ではないのでステップS1214に進み、シーンフラグSに1を加算する。次にステップS1215で撮影終了かどうかの判定が行われる。撮影が終了していなかった場合、再びステップS1207に戻り、フレーム数が12の倍数となるまで待機する。次にステップS1208でシーンフラグSを判定する。今回はシーンフラグSは2となっているので、ステップS1210に進み青空シーンの検出を行う。この青空シーン検出処理方法については既に説明済みであるため、ここでの説明は割愛する。   In step S1213, it is determined whether the scene flag S is six. Since this time is not 6, the process proceeds to step S1214, and 1 is added to the scene flag S. Next, in step S1215, it is determined whether or not shooting is finished. If shooting has not been completed, the process returns to step S1207, and waits until the number of frames becomes a multiple of twelve. In step S1208, the scene flag S is determined. Since the scene flag S is 2 this time, the process advances to step S1210 to detect a blue sky scene. Since this blue sky scene detection processing method has already been described, description thereof is omitted here.

次に再度ステップS1213でシーンフラグSが6かどうかの判定が行われる。ここでシーンフラグSが6となると再びステップS1206に戻りシーンフラグが1にセットされる。このようにステップS1206〜S1215の処理はステップS1215で撮影終了と判定されるまで繰り返される。
尚ステップS1208のシーンフラグ判定処理のみ繰り返される毎に処理が異なるのでステップS1208について詳細に説明する。
ステップS1208ではシーンフラグSが12フレームおきに1加算された数値が判定されることになる。下記にシーンフラグ毎の検出シーンを示した。
Next, in step S1213, it is determined whether or not the scene flag S is 6. When the scene flag S becomes 6, the process returns to step S1206 and the scene flag is set to 1. As described above, the processes in steps S1206 to S1215 are repeated until it is determined in step S1215 that the photographing has been completed.
Since only the scene flag determination process in step S1208 is repeated, the process is different, so step S1208 will be described in detail.
In step S1208, a value obtained by adding 1 to the scene flag S every 12 frames is determined. The detection scene for each scene flag is shown below.

シーンフラグS=1 ・・・人物検出(ステップS1209)
シーンフラグS=2 ・・・青空検出(ステップS1210)
シーンフラグS=3 ・・・人物検出(ステップS1209)
シーンフラグS=4 ・・・自然の緑検出(ステップS1211)
シーンフラグS=5 ・・・人物検出(ステップS1209)
シーンフラグS=6 ・・・夕景検出(ステップS1212)
尚、ステップS1209〜ステップS1212の各シーン検出方法の詳細については既に説明済みであるため、ここでは説明を割愛する。
本フローに従うと、人物シーンについては24フレームに1回、その他のシーンについては72フレームに1回の周期で検出されるようになっている。
Scene flag S = 1 ... person detection (step S1209)
Scene flag S = 2... Blue sky detection (step S1210)
Scene flag S = 3 ... person detection (step S1209)
Scene flag S = 4... Natural green detection (step S1211)
Scene flag S = 5 ... person detection (step S1209)
Scene flag S = 6 ... evening scene detection (step S1212)
Note that the details of each scene detection method in steps S1209 to S1212 have already been described, and a description thereof will be omitted here.
According to this flow, the human scene is detected once every 24 frames, and the other scenes are detected once every 72 frames.

次に人物検出、夕景検出に絞ってシーン検出を行うフローBのフローを説明する。ステップS1216でシーンフラグSに1がセットされる。次にステップS1217でフレーム数が12の倍数かどうかの判定が行われ、12の倍数の場合に次のステップに進む。   Next, a flow of flow B in which scene detection is focused on human detection and sunset scene detection will be described. In step S1216, 1 is set to the scene flag S. Next, in step S1217, it is determined whether or not the number of frames is a multiple of 12. If the number of frames is a multiple of 12, the process proceeds to the next step.

次にステップS1218でシーンフラグSの判定が行われる。ここでS=1であった場合、ステップS1209に進み人物検出処理を実行する。この人物検出処理方法については既に説明済みであるため、ここでの説明は割愛する。   In step S1218, the scene flag S is determined. If S = 1, the process proceeds to step S1209 to execute a person detection process. Since this person detection processing method has already been described, description thereof is omitted here.

次にステップS1219でシーンフラグが2かどうかの判定を行う。この時点では1であるので、ステップS1220に進む。ステップS1220ではシーンフラグSに1を加算する。即ちシーンフラグSは2となる。次にステップS1221で撮影終了釦112が押下され撮影が終了したかどうかの判定が行われる。撮影が終了していなかった場合、再びステップS1217に戻り、フレーム数が12の倍数となるまで待機する。そして再度ステップS1218でシーンフラグSの判定が行われる。今回はシーンフラグが2となっているのでステップS1212の夕景検出処理が実施される。この夕景検出処理方法については既に説明済みであるため、ここでの説明は割愛する。次にステップS1219でシーンフラグが2かどうかの判定が行われる。今回はシーンフラグ2となっているため、ステップS1216に戻る。そして再度ステップS1216でシーンフラグSは1になる。このステップS1216から進んだS1221までの処理がステップS1221で撮影終了と判定されるまで繰り返し実施される。
即ちステップS1216から進んだS1221までの処理によれば、前期色補正の設定が固定であった場合には、人物検出処理と夕景検出処理をそれぞれ24フレームに1回のサイクルで実施する。
In step S1219, it is determined whether the scene flag is 2. Since it is 1 at this time, the process proceeds to step S1220. In step S1220, 1 is added to the scene flag S. That is, the scene flag S is 2. Next, in step S1221, it is determined whether the shooting end button 112 has been pressed and shooting has ended. If shooting has not been completed, the process returns to step S1217 and waits until the number of frames becomes a multiple of twelve. In step S1218, the scene flag S is determined again. Since the scene flag is 2 this time, the evening scene detection process in step S1212 is performed. Since this sunset scene detection processing method has already been described, description thereof is omitted here. Next, in step S1219, it is determined whether or not the scene flag is 2. Since this time it is the scene flag 2, the process returns to step S1216. In step S1216, the scene flag S becomes 1 again. The processing from step S1216 to step S1221 is repeatedly performed until it is determined in step S1221 that photographing has been completed.
That is, according to the processing from step S1216 to step S1221, when the previous color correction setting is fixed, the person detection process and the sunset scene detection process are each performed once every 24 frames.

次に人物検出に絞ってシーン検出を行うフローCのフローを説明する。フローCでは、ステップS1222でフレーム数が12の倍数かどうかの判定が行われ、12の倍数の場合に次のステップS1209に進む。ステップS1209では人物シーンの検出が行われ、次にステップS1223で撮影終了釦112が押下され撮影が終了したかどうかの判定が行われる。撮影が終了していなかった場合、再びステップS1222に戻り、フレーム数が12の倍数となるまで待機する。ステップS1223で撮影終了と判定された場合、シーン検出処理を終了する。
尚、前述したように、ここで説明した図12のフローと並行して、明るさ補正、ホワイトバランス、色補正、露出、フォーカス、の各機能の制御が別タスクとして行われており、図12のフローのシーン検出結果は随時最新の結果が各機能に反映される。
図3に第1の実施形態における図12に示したフローによる検出シーンサイクルをまとめた表を示した。
図3(a)の検出シーンサイクルの表がフローAの処理に対応している。
また、図3(b)の検出シーンサイクルの表がフローBの処理に対応している。
また、図3(c)の検出シーンサイクルの表がフローCの処理に対応している。
図3から分かるように、フローAの場合は、検出速度よりも検出シーン数を優先し、人物、青空、自然の緑、夕景の4つのシーンをそれぞれ72フレームに1回のサイクルで検出している。但し、人物シーンについては、図5に示すように特に応答速度が要求される露出やフォーカスの制御に用いられる為、他のシーンよりも短い24フレームに1回のサイクルで検出するようにしている。
フローBの場合は、検出速度を優先し、人物シーンと夕景シーンのみをそれぞれ24フレームに1回のサイクルで検出している。これは図5に示したように青空と自然の緑シーン検出結果は色補正処理のみで使用されるのでこのような処理が可能となっている。フローBの夕景シーンの検出サイクルは、24フレームに1回と、フローAよりも短くなっている(検出速度が速くなっている)ことがわかる。
フローCの場合も、フローBと同様に検出速度を優先し、人物シーンのみを12フレームに1回のサイクルで検出している。これは図5に示したように人物シーン以外のシーン検出結果は露出制御及びフォーカス制御に使用されないのでこのような処理が可能となっている。フローCの人物シーンの検出サイクルは、12フレームに1回と、フローA、Bよりも短くなっている(検出速度が速くなっている)ことがわかる。
Next, the flow of flow C for performing scene detection focusing on person detection will be described. In the flow C, it is determined whether or not the number of frames is a multiple of 12 in step S1222. If it is a multiple of 12, the process proceeds to the next step S1209. In step S1209, a person scene is detected, and then in step S1223, it is determined whether the shooting end button 112 has been pressed and shooting has ended. If shooting has not been completed, the process returns to step S1222 and waits until the number of frames becomes a multiple of twelve. If it is determined in step S1223 that shooting has ended, the scene detection process ends.
As described above, the functions of brightness correction, white balance, color correction, exposure, and focus are controlled as separate tasks in parallel with the flow of FIG. 12 described here. The latest scene detection result is reflected in each function as needed.
FIG. 3 shows a table summarizing detection scene cycles according to the flow shown in FIG. 12 in the first embodiment.
The detection scene cycle table in FIG. 3A corresponds to the processing of the flow A.
Further, the detection scene cycle table in FIG. 3B corresponds to the processing of the flow B.
Further, the detection scene cycle table in FIG. 3C corresponds to the process of the flow C.
As can be seen from FIG. 3, in the case of Flow A, priority is given to the number of detected scenes over the detection speed, and four scenes of people, blue sky, natural green, and sunset are detected in a cycle of 72 frames each. Yes. However, as shown in FIG. 5, a person scene is used for exposure and focus control that require a particularly high response speed, so that it is detected in one cycle in 24 frames shorter than other scenes. .
In the case of the flow B, priority is given to the detection speed, and only the person scene and the sunset scene are detected in a cycle of once every 24 frames. As shown in FIG. 5, since the blue sky and natural green scene detection results are used only in the color correction process, such a process is possible. It can be seen that the detection cycle of the sunset scene in flow B is shorter than that in flow A, once in 24 frames (the detection speed is faster).
In the case of the flow C, like the flow B, priority is given to the detection speed, and only the person scene is detected in a cycle of 12 frames. As shown in FIG. 5, since the scene detection result other than the human scene is not used for the exposure control and the focus control, such a process is possible. It can be seen that the detection cycle of the human scene in flow C is shorter than that in flows A and B (detection speed is increased) once every 12 frames.

以上のように、本実施形態では、撮影条件に応じてシーン検出の検出速度を優先した処理と検出シーン数を優先した処理を効果的に行うことで、シーン検出による演算負荷を軽減しつつ、より正確なシーン検出に対応した補正処理及び撮影制御を可能にする。
本実施形態では、人物、青空、自然の緑、夕景の4つのシーンを検出候補としているが、本発明はこれに限らず、検出候補とするシーンは本実施形態より多くても少なくても良い。例えば、本実施形態に比べて人物シーンの検出を行わないときの、各シーンの検出シーンサイクルの表を示した。図16に示すように色補正処理が自動設定の場合、検出シーン数を優先し、各シーンが36フレームに1回のサイクルで検出処理される。一方、色補正処理が固定設定の場合、検出速度を優先し、夕景シーンのみが12フレームに1回のサイクルで検出処理される。
As described above, in the present embodiment, by effectively performing the process that prioritizes the detection speed of the scene detection and the process that prioritizes the number of detected scenes according to the shooting conditions, while reducing the calculation load due to the scene detection, Correction processing and shooting control corresponding to more accurate scene detection are enabled.
In this embodiment, four scenes of a person, a blue sky, a natural green, and an evening scene are used as detection candidates. However, the present invention is not limited to this, and the number of scenes that are detection candidates may be more or less than that of this embodiment. . For example, a detection scene cycle table for each scene when a person scene is not detected as compared with the present embodiment is shown. As shown in FIG. 16, when the color correction process is automatically set, priority is given to the number of detected scenes, and each scene is detected in a cycle of 36 frames. On the other hand, when the color correction processing is fixed, priority is given to the detection speed, and only the sunset scene is detected in a cycle of once every 12 frames.

(他の実施形態)
本発明の目的は以下のようにしても達成できる。すなわち、前述した各実施形態の機能を実現するための手順が記述されたソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給する。そしてそのシステムまたは装置のコンピュータ(またはCPU、MPU等)が記憶媒体に格納されたプログラムコードを読み出して実行するのである。
この場合、記憶媒体から読み出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記憶した記憶媒体およびプログラムは本発明を構成することになる。
(Other embodiments)
The object of the present invention can also be achieved as follows. That is, a storage medium in which a program code of software in which a procedure for realizing the functions of the above-described embodiments is described is recorded is supplied to the system or apparatus. The computer (or CPU, MPU, etc.) of the system or apparatus reads out and executes the program code stored in the storage medium.
In this case, the program code itself read from the storage medium realizes the novel function of the present invention, and the storage medium and program storing the program code constitute the present invention.

また、プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスクなどが挙げられる。また、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD−R、磁気テープ、不揮発性のメモリカード、ROM等も用いることができる。
また、コンピュータが読み出したプログラムコードを実行可能とすることにより、前述した各実施形態の機能が実現される。さらに、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した各実施形態の機能が実現される場合も含まれる。
Examples of the storage medium for supplying the program code include a flexible disk, a hard disk, an optical disk, and a magneto-optical disk. Further, a CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD-R, magnetic tape, nonvolatile memory card, ROM, or the like can also be used.
Further, by making the program code read by the computer executable, the functions of the above-described embodiments are realized. Furthermore, when the OS (operating system) running on the computer performs part or all of the actual processing based on the instruction of the program code, the functions of the above-described embodiments are realized by the processing. Is also included.

更に、以下の場合も含まれる。まず記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行う。   Furthermore, the following cases are also included. First, the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing.

100 レンズ
101 絞り
102 シャッター
103 撮像素子
104 A/D変換器
105 タイミング発生部
106 メモリ制御部
107 メモリ
108 画像処理部
109 外部記憶装置
110 露光制御部
111 測距制御部
112 撮影開始釦
113 システム制御部
114 画像処理装置
114 操作部
DESCRIPTION OF SYMBOLS 100 Lens 101 Aperture 102 Shutter 103 Image pick-up element 104 A / D converter 105 Timing generation part 106 Memory control part 107 Memory 108 Image processing part 109 External storage device 110 Exposure control part 111 Distance control part 112 Shooting start button 113 System control part 114 Image processing apparatus 114 Operation unit

Claims (13)

複数フレームの画像データを取得する画像取得手段と、
予め設定された複数のシーンの中から、前記画像データに該当するシーンを特定するシーン検出手段と、
前記シーン検出手段によるシーン特定の結果に応じて複数の画像取得条件または複数の画像処理条件の設定を自動で行う条件設定手段と、
前記条件設定手段によって設定を自動で行う画像取得条件または画像処理条件を指定する指定手段と、を有し、
前記条件設定手段によって設定される条件は、前記予め設定された複数のシーンの中の第1のシーン、第2のシーン、第3のシーンそれぞれで固有の設定がなされる第1の条件と、
前記第1のシーンでは他のシーンとは異なる固有の設定がなされ、前記第2のシーン及び第3のシーンでは同じ設定がなされる第2の条件と、を含み、
前記シーン検出手段は、前記指定手段によって前記第1の条件が指定される場合、前記第1のシーンに該当するか否かを所定の周期で判定し、
前記指定手段によって前記第1の条件が指定されず、かつ前記第2の条件が指定される場合、前記第1のシーンに該当するか否か判定する周期を前記所定の周期よりも短くすることを特徴とする画像処理装置。
Image acquisition means for acquiring image data of a plurality of frames;
A scene detection means for specifying a scene corresponding to the image data from a plurality of preset scenes;
Condition setting means for automatically setting a plurality of image acquisition conditions or a plurality of image processing conditions according to the result of scene specification by the scene detection means;
Specifying means for specifying image acquisition conditions or image processing conditions for automatic setting by the condition setting means,
The condition set by the condition setting means includes a first condition in which a unique setting is made in each of the first scene, the second scene, and the third scene among the plurality of preset scenes,
A unique setting different from the other scenes in the first scene, and a second condition in which the same setting is made in the second scene and the third scene,
The scene detection means determines, in a predetermined cycle, whether or not the first condition is designated when the first condition is designated by the designation means;
The first condition is not specified by said specifying means, and if the second condition is designated, shortens the cycle to determine whether or not corresponding to the first scene than the predetermined period An image processing apparatus.
前記シーン検出手段は、
前記指定手段によって前記第1の条件が指定される場合、前記第2のシーン及び第3のシーンに該当するか否か判定し、
前記指定手段によって前記第1の条件が指定されず、かつ前記第2の条件が指定される場合、前記第2のシーン及び第3のシーンに該当するか否か判定しないことを特徴とする請求項1に記載の画像処理装置。
The scene detection means includes
When the first condition is designated by the designation means, it is determined whether the second scene and the third scene are satisfied,
When the first condition is not specified by the specifying means and the second condition is specified, it is not determined whether or not the second scene and the third scene are satisfied. The image processing apparatus according to claim 1.
前記複数の画像取得条件は、露出制御の条件、フォーカス制御の条件のうち少なくとも1つを含むことを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the plurality of image acquisition conditions include at least one of an exposure control condition and a focus control condition. 前記複数の画像処理条件は、ゲインまたはコントラスト補正曲線による明るさ補正の条件、ホワイトバランス処理の条件、色補正の条件の少なくとも1つを含むことを特徴とする請求項1乃至3のいずれか1つに記載の画像処理装置。   The plurality of image processing conditions include at least one of a brightness correction condition using a gain or contrast correction curve, a white balance process condition, and a color correction condition. The image processing apparatus described in one. 前記第1の条件は色補正の条件であり、
前記第1のシーンは夕景シーン、前記第2のシーンは自然の緑のシーンあるいは青空シーンであることを特徴とする請求項1乃至4のいずれか1つに記載の画像処理装置。
The first condition is a condition for color correction,
5. The image processing apparatus according to claim 1, wherein the first scene is an evening scene and the second scene is a natural green scene or a blue sky scene. 6.
前記色補正の条件は、前記画像データに対して3次元ルックアップテーブルにより色補正が行われる色補正処理において用いられる前記3次元ルックアップテーブルを設定することであることを特徴とする請求項5に記載の画像処理装置。   6. The condition for the color correction is to set the three-dimensional lookup table used in a color correction process in which color correction is performed on the image data using a three-dimensional lookup table. An image processing apparatus according to 1. 前記シーン検出手段は、前記夕景シーンに該当するか否かを、前記画像データをブロック分割し、色空間上で第1の領域の中にあるブロックの、前記画像データの全ブロックに占める割合に基づいて判定することを特徴とする請求項5または6に記載の画像処理装置。 The scene detection means divides the image data into blocks to determine whether it corresponds to the sunset scene , and occupies the ratio of the blocks in the first area in the color space to all the blocks of the image data. The image processing apparatus according to claim 5, wherein the determination is based on the determination. 前記シーン検出手段は、前記自然の緑のシーンに該当するか否かを、前記画像データをブロック分割し、色空間上で第2の領域の中にあるブロックの、前記画像データの全ブロックに占める割合に基づいて判定することを特徴とする請求項5乃至7のいずれか1つに記載の画像処理装置。 The scene detection means divides the image data into blocks to determine whether or not the natural green scene corresponds to all blocks of the image data of blocks in the second area on the color space. The image processing apparatus according to claim 5, wherein the determination is made based on an occupation ratio. 前記シーン検出手段は、前記青空シーンに該当するか否かを、前記画像データをブロック分割し、色空間上で第3の領域の中にあるブロックの、前記画像データの全ブロックに占める割合に基づいて判定することを特徴とする請求項5乃至8のいずれか1つに記載の画像処理装置。 The scene detection means determines whether or not the image corresponds to the blue sky scene by dividing the image data into blocks and occupying a ratio of blocks in the third area in the color space to all blocks of the image data. The image processing apparatus according to claim 5, wherein the determination is based on the determination. 前記第2の条件はゲインまたはコントラスト補正曲線による明るさ補正、あるいはホワイトバランスの処理の設定であることを特徴とする請求項5に記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the second condition is setting of brightness correction using a gain or contrast correction curve, or white balance processing. 複数フレームの画像データを取得する画像取得ステップと、
予め設定された複数のシーンの中から、前記画像データに該当するシーンを特定するシーン検出ステップと、
前記シーン検出ステップによるシーン特定の結果に応じて複数の画像取得条件または複数の画像処理条件の設定を自動で行う条件設定ステップと、
前記条件設定ステップにて設定が自動で行われる画像取得条件または画像処理条件を指定する指定ステップと、を有し、
前記条件設定ステップにて設定される条件は、前記予め設定された複数のシーンの中の第1のシーン、第2のシーン、第3のシーンそれぞれで固有の設定がなされる第1の条件と、
前記第1のシーンでは他のシーンとは異なる固有の設定がなされ、前記第2のシーン及び第3のシーンでは同じ設定がなされる第2の条件と、を含み、
前記シーン検出ステップでは、前記指定ステップにて前記第1の条件が指定される場合、前記第1のシーンに該当するか否かを所定の周期で判定し、
前記指定ステップによって前記第1の条件が指定されず、かつ前記第2の条件が指定される場合、前記第1のシーンに該当するか否か判定する周期を前記所定の周期よりも短くすることを特徴とする画像処理装置の制御方法。
An image acquisition step of acquiring image data of a plurality of frames;
A scene detection step for identifying a scene corresponding to the image data from a plurality of preset scenes;
A condition setting step of automatically setting a plurality of image acquisition conditions or a plurality of image processing conditions in accordance with the scene identification result of the scene detection step;
A designation step for designating an image acquisition condition or an image processing condition in which the setting is automatically performed in the condition setting step,
The conditions set in the condition setting step include a first condition in which a unique setting is made in each of the first scene, the second scene, and the third scene among the plurality of preset scenes. ,
A unique setting different from the other scenes in the first scene, and a second condition in which the same setting is made in the second scene and the third scene,
In the scene detection step, when the first condition is designated in the designation step, it is determined at a predetermined cycle whether or not it corresponds to the first scene,
Wherein the designating step the first condition is not specified, and if the second condition is designated, shortens the cycle to determine whether or not corresponding to the first scene than the predetermined period And a control method for the image processing apparatus.
複数のフレームから構成される動画データを取得する画像取得手段と、
前記動画データについて所定のフレーム周期で予め設定された複数のシーンから所定の順番で選択される1つのシーンに該当するかを判定するシーン判定手段と、
該当するシーンの種類に応じて前記動画データに画像処理を行う画像処理手段と、
前記複数のシーンのそれぞれについて、前記画像処理手段によって自動で実行される画像処理の機能を指定する指定手段と、を備え、
前記シーン判定手段は、前記指定手段によって指定された内容に応じて、シーン判定の候補となるシーンの数を異ならせることを特徴とする画像処理装置。
Image acquisition means for acquiring video data composed of a plurality of frames;
Scene determination means for determining whether the moving image data corresponds to one scene selected in a predetermined order from a plurality of scenes set in advance at a predetermined frame period;
Image processing means for performing image processing on the moving image data according to the type of the corresponding scene;
For each of the plurality of scenes, comprising: designation means for designating a function of image processing that is automatically executed by the image processing means,
The image processing apparatus, wherein the scene determination unit varies the number of scene determination candidates according to the content specified by the specification unit.
複数のフレームから構成される動画データを取得する取得ステップと、
前記動画データについて所定のフレーム周期で予め設定された複数のシーンから所定の順番で選択される1つのシーンに該当するかを判定するシーン判定ステップと、
該当するシーンの種類に応じて前記動画データに画像処理を行う画像処理ステップと、
前記複数のシーンのそれぞれについて、前記画像処理ステップにおいて自動で実行される画像処理の機能を指定する指定ステップと、を含み、
前記シーン判定ステップにおいて、前記指定ステップで指定された内容に応じて、シーン判定の候補となるシーンの数を異なるようにすることを特徴とする画像処理装置の制御方法。
An acquisition step of acquiring video data composed of a plurality of frames;
A scene determination step for determining whether the moving image data corresponds to one scene selected in a predetermined order from a plurality of scenes set in advance at a predetermined frame period;
An image processing step for performing image processing on the moving image data in accordance with the type of the corresponding scene;
A designation step for designating a function of image processing that is automatically executed in the image processing step for each of the plurality of scenes,
In the scene determination step, the number of scene determination candidate scenes varies according to the content specified in the specification step.
JP2011021697A 2011-02-03 2011-02-03 Image processing apparatus and image processing apparatus control method Active JP5836602B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011021697A JP5836602B2 (en) 2011-02-03 2011-02-03 Image processing apparatus and image processing apparatus control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011021697A JP5836602B2 (en) 2011-02-03 2011-02-03 Image processing apparatus and image processing apparatus control method

Publications (2)

Publication Number Publication Date
JP2012165049A JP2012165049A (en) 2012-08-30
JP5836602B2 true JP5836602B2 (en) 2015-12-24

Family

ID=46844051

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011021697A Active JP5836602B2 (en) 2011-02-03 2011-02-03 Image processing apparatus and image processing apparatus control method

Country Status (1)

Country Link
JP (1) JP5836602B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6537323B2 (en) * 2015-04-02 2019-07-03 キヤノン株式会社 Apparatus, method, and program for creating image quality adjustment information

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3468231B2 (en) * 2001-07-02 2003-11-17 ミノルタ株式会社 Image processing apparatus, image quality control method, program, and recording medium
JP4606828B2 (en) * 2003-09-25 2011-01-05 富士フイルム株式会社 Device for selecting an image of a specific scene, program, and recording medium recording the program
JP4492345B2 (en) * 2004-12-28 2010-06-30 カシオ計算機株式会社 Camera device and photographing condition setting method
JP5030883B2 (en) * 2008-07-28 2012-09-19 富士フイルム株式会社 Digital still camera and control method thereof

Also Published As

Publication number Publication date
JP2012165049A (en) 2012-08-30

Similar Documents

Publication Publication Date Title
US8305487B2 (en) Method and apparatus for controlling multiple exposures
JP3918788B2 (en) Imaging apparatus and program
JP4217698B2 (en) Imaging apparatus and image processing method
KR100777496B1 (en) Face detecting apparatus and method
CN101795355B (en) Imaging apparatus and image processing method
JP4861952B2 (en) Image processing apparatus and imaging apparatus
JP5016909B2 (en) Imaging device
CN103581638B (en) Image processing apparatus and image processing method
JP2002354498A (en) Electronic camera
JP2006033241A (en) Image pickup device and image acquiring means
JP4703498B2 (en) Digital camera
CN104702824A (en) Image capturing apparatus and control method of image capturing apparatus
CN102065310A (en) Imaging apparatus and imaging processing method
KR101375988B1 (en) Object detection device, object detection method, and recording medium
CN107231517A (en) Image processing method, image processing apparatus and recording medium
JP6410454B2 (en) Image processing apparatus, image processing method, and program
JP4971785B2 (en) Image processing apparatus and method, and imaging apparatus
JP5836602B2 (en) Image processing apparatus and image processing apparatus control method
JP2003199115A (en) Method for contrast enhancement in color digital image
US6343137B1 (en) Method of processing an image such as a still image
JP2015211233A (en) Image processing apparatus and control method for image processing apparatus
JP6569176B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP7292905B2 (en) Image processing device, image processing method, and imaging device
JP2011135510A (en) Image processing method, image processing device, and imaging device
JPH0630373A (en) Electronic still camera with special effect function and reproducing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140131

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141014

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151104

R151 Written notification of patent or utility model registration

Ref document number: 5836602

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151