JP2010041288A - Image pickup device, image processing apparatus, imaging method and program - Google Patents

Image pickup device, image processing apparatus, imaging method and program Download PDF

Info

Publication number
JP2010041288A
JP2010041288A JP2008200661A JP2008200661A JP2010041288A JP 2010041288 A JP2010041288 A JP 2010041288A JP 2008200661 A JP2008200661 A JP 2008200661A JP 2008200661 A JP2008200661 A JP 2008200661A JP 2010041288 A JP2010041288 A JP 2010041288A
Authority
JP
Japan
Prior art keywords
image
area
unit
scene
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008200661A
Other languages
Japanese (ja)
Other versions
JP5206209B2 (en
Inventor
Junya Suzuki
淳也 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008200661A priority Critical patent/JP5206209B2/en
Publication of JP2010041288A publication Critical patent/JP2010041288A/en
Application granted granted Critical
Publication of JP5206209B2 publication Critical patent/JP5206209B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To make it possible to distinguish imaged scenes with accuracy so as to capture an image subjected to more preferable chroma correction. <P>SOLUTION: A feature amount calculation section 21 separates a shot image captured in an image pickup section 12 into a plurality of areas, and calculates color ratios (R/G) and (B/G) and a luminance for each area as feature amounts. An image identification section 22 identifies the feature amounts as an area indicative of a sky image if the feature amounts are in a range of color ratios indicating the sky image and correspond to a luminance equal to a threshold or higher. The image identification section 22 sets a scene identification area on an upper portion of the shot image, and determines that the imaged scene is a scene obtained by shooting scenery, depending on the fact that the scene identification area includes an area indicative of a sky image. A correction factor setting section 25 sets a correction factor for chroma correction according to a color level of the sky when it is determined that it is a scene obtained by shooting scenery. An image processing section 30 performs image processing suitable for an image of the scenery based on this correction factor. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、撮像装置と画像処理装置と撮像方法およびプログラムに関する。詳しくは、撮像画像から撮像画像に適した撮影モードを正しく判別できるようにするものである。   The present invention relates to an imaging apparatus, an image processing apparatus, an imaging method, and a program. Specifically, it is possible to correctly determine the shooting mode suitable for the captured image from the captured image.

撮像装置例えばディジタルカメラでは、ポートレート、風景、夜景などの撮影に適した撮影モード(シーンモード)が個々に設けられており、撮像する被写体に応じて撮影モードを切り替えることで、それぞれの被写体に対して最適な画像処理が行われるように構成されている。   An imaging device such as a digital camera is provided with shooting modes (scene modes) suitable for shooting portraits, landscapes, night scenes, etc., and each shooting subject can be switched according to the shooting subject. On the other hand, an optimum image processing is performed.

例えば特許文献1では、撮像画像から人物の有無の判断を行い、人物がないときには風景、人物が存在するときには人数や顔の面積等からポートレートあるいは人物の記念写真等であるとシーンの判別を自動的に行い、この判別結果を用いて最適な画作りや色作りが行われている。   For example, in Patent Document 1, the presence / absence of a person is determined from a captured image, and when there is no person, the scene is determined to be a portrait or a commemorative photograph of the person based on the number of people, the area of the face, and the like. It is automatically performed, and optimal image creation and color creation are performed using this discrimination result.

特開2005−173932号公報JP 2005-173932 A

ところで、人物がないとき風景の撮像であると判別した場合、屋内で撮像を行った場合でも人物が含まれていないと、撮像シーンが風景のシーンであると判別されてしまう。ここで、風景のシーンに対して画像処理を行うときに用いられるパラメータは、屋外での撮像を想定して設定されることから、屋内で撮像を行って得られた撮像画像に対して、風景のシーンとして画像処理が行われると、最適な画像処理を行うことができなくなってしまう。   By the way, when it is determined that the scene is captured when there is no person, if the person is not included even when the image is captured indoors, the captured scene is determined to be a landscape scene. Here, the parameters used when performing image processing on a landscape scene are set assuming outdoor imaging, so that a landscape image is obtained with respect to a captured image obtained by imaging indoors. If the image processing is performed as the scene, the optimum image processing cannot be performed.

そこで、この発明では、撮像シーンの判別を精度よく行うことができる撮像装置と画像処理装置と撮像方法およびプログラムを提供するものである。   Therefore, the present invention provides an imaging apparatus, an image processing apparatus, an imaging method, and a program that can accurately determine an imaging scene.

この発明の第1の側面は、
撮像部と、
前記撮像部で得られた撮像画像を複数の領域に区分して、該領域毎に各色の比率と輝度を特徴量として算出する特徴量算出部と、
前記特徴量に基づいて前記複数の領域毎に特定の画像を示す領域であるか否かの判別を行い、前記特定の画像を示す領域が前記撮像画像上に予め設定されているシーン判断領域に含まれることに応じて所定の撮像シーンと判別する画像判別部と、
前記画像判別部のシーン判別結果に応じた画像処理を実行する画像処理部と
を有する撮像装置にある。
The first aspect of the present invention is:
An imaging unit;
A feature amount calculation unit that divides a captured image obtained by the imaging unit into a plurality of regions and calculates a ratio and luminance of each color as a feature amount for each region;
It is determined whether or not each of the plurality of regions is a region indicating a specific image based on the feature amount, and the region indicating the specific image is a scene determination region set in advance on the captured image. An image discriminating unit that discriminates from a predetermined imaging scene according to being included;
And an image processing unit that executes image processing according to a scene determination result of the image determination unit.

この発明においては、撮像部で得られた撮像画像を複数の領域に区分して、該領域毎に各色の比率例えば比率(R/G)(B/G)と輝度が特徴量として算出される。この算出された特徴量が、特定の画像である空の画像を示す各色の比率の範囲であって閾値以上の輝度であることを示しているときは、空の画像を示す領域であると判別される。また、撮像画像の上部となる領域にシーン判断領域が設定されて、このシーン判断領域に、空の画像を示す領域が含まれることに応じて所定の撮像シーンすなわち風景を撮像したシーン判別される。また、撮像シーンの判別は、シーン判断領域に対して領域の位置に応じた重み付けおよび/または空の画像を示す領域に対して色のばらつきに応じた重み付けが行われて、シーン判断領域に含まれる空の画像を示す領域に応じて評価値が算出されて、この評価値と閾値の比較結果に応じて行われる。   In the present invention, the captured image obtained by the imaging unit is divided into a plurality of regions, and the ratio of each color, for example, the ratio (R / G) (B / G) and the luminance are calculated as feature amounts for each region. . When the calculated feature value indicates that the brightness is equal to or higher than a threshold within the range of the ratio of each color indicating the sky image that is the specific image, it is determined that the region is an area indicating the sky image. Is done. In addition, a scene determination area is set in an upper area of the captured image, and a scene that captures a predetermined captured scene, that is, a landscape is determined according to the fact that the scene determination area includes an area indicating an empty image. . In addition, the imaging scene is discriminated by weighting the scene judgment area according to the position of the area and / or weighting the area showing the sky image according to the color variation, and is included in the scene judgment area. An evaluation value is calculated according to the area indicating the empty image to be determined, and is performed according to a comparison result between the evaluation value and the threshold value.

撮像シーンが風景を撮像したシーンと判別されたとき、画像処理部は風景の画像に適した画像処理を行う。さらに、風景を撮像したシーンと判別されたとき、空の色レベルに応じて彩度補正を行うときの補正率が設定されて、この補正率に応じた彩度補正が画像処理部で行われる。   When the captured scene is determined to be a scene capturing a landscape, the image processing unit performs image processing suitable for the landscape image. Furthermore, when it is determined that the scene is a scene captured, a correction rate for performing saturation correction according to the sky color level is set, and saturation correction according to the correction rate is performed by the image processing unit. .

この発明の第2の側面は、
撮像画像を複数の領域に区分して、該領域毎に各色の比率と輝度を特徴量として算出する特徴量算出部と、
前記特徴量に基づいて前記複数の領域毎に特定の画像を示す領域であるか否かの判別を行い、前記特定の画像を示す領域が前記撮像画像上に予め設定されているシーン判断領域に含まれることに応じて所定の画像処理モードと判別する画像判別部と
を有する画像処理装置にある。
The second aspect of the present invention is
A feature amount calculation unit that divides a captured image into a plurality of regions and calculates a ratio and luminance of each color as a feature amount for each region;
It is determined whether or not each of the plurality of regions is a region indicating a specific image based on the feature amount, and the region indicating the specific image is a scene determination region set in advance on the captured image. The image processing apparatus includes an image determination unit that determines a predetermined image processing mode according to the inclusion.

この発明においては、例えばRAW画像である撮像画像が得られており、この撮像画像の画像処理を行う場合、撮像画像から特徴量が算出されて、この特徴量に基づき特定の画像である空の画像が撮像画像に含まれているか否か自動的に判別される。このため、撮像画像に空の画像が含まれているとき、風景の撮像画像に適した画像処理を自動的に行うことが可能となる。   In the present invention, for example, a captured image that is a RAW image is obtained. When image processing is performed on the captured image, a feature amount is calculated from the captured image, and a specific image based on the feature amount It is automatically determined whether or not the image is included in the captured image. For this reason, when a sky image is included in the captured image, it is possible to automatically perform image processing suitable for the captured image of the landscape.

この発明の第3の側面は、
特徴量算出部が、撮像部で得られた撮像画像を複数の領域に区分して、該領域毎に各色の比率と輝度を特徴量として算出するステップと、
画像判別部が、前記特徴量に基づいて前記複数の領域毎に特定の画像を示す領域であるか否かの判別を行い、前記特定の画像を示す領域が前記撮像画像上に予め設定されているシーン判断領域に含まれることに応じて所定の撮像シーンと判別するステップと、
画像処理部が、前記シーン判別結果に応じて前記撮像画像の画像処理を行うステップと
を具備する撮像方法にある。
The third aspect of the present invention is
A feature amount calculating unit that divides a captured image obtained by the imaging unit into a plurality of regions, and calculates a ratio and luminance of each color as a feature amount for each region;
An image determining unit determines whether or not each of the plurality of regions is a region indicating a specific image based on the feature amount, and the region indicating the specific image is preset on the captured image. Determining a predetermined imaging scene according to being included in a scene determination area,
And an image processing unit that performs image processing on the captured image in accordance with the scene determination result.

さらに、この発明の第4の側面は、
コンピュータを、
撮像画像を複数の領域に区分して、該領域毎に各色の比率と輝度を特徴量として算出する特徴量算出手段と、
前記特徴量に基づいて前記複数の領域毎に特定の画像を示す領域であるか否かの判別を行い、前記特定の画像を示す領域が前記撮像画像上に予め設定されているシーン判断領域に含まれることに応じて所定の撮像シーンと判別する画像判別手段と、
前記画像判別手段のシーン判別結果に応じた画像処理を実行する画像処理手段
として機能させるためのコンピュータ・プログラムにある。
Furthermore, the fourth aspect of the present invention is
Computer
A feature amount calculation unit that divides a captured image into a plurality of regions and calculates a ratio and luminance of each color as a feature amount for each region;
It is determined whether or not each of the plurality of regions is a region indicating a specific image based on the feature amount, and the region indicating the specific image is a scene determination region set in advance on the captured image. Image discriminating means for discriminating a predetermined imaging scene according to being included;
A computer program for causing an image processing unit to perform image processing according to a scene determination result of the image determining unit.

なお、本発明のコンピュータ・プログラムは、例えば、様々なプログラム・コードを実行可能な汎用システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータ・システム上でプログラムに応じた処理が実現される。   The computer program of the present invention is a program that can be provided by, for example, a storage medium or a communication medium provided in a computer-readable format for a general-purpose system capable of executing various program codes. By providing such a program in a computer-readable format, processing corresponding to the program is realized on the computer system.

この発明によれば、撮像画像が複数の領域に区分されて、該領域毎に各色の比率と輝度が特徴量として算出される。この特徴量に基づいて複数の領域毎に特定の画像を示す領域であるか否かの判別が行われて、特定の画像を示す領域が撮像画像上に予め設定されているシーン判断領域に含まれることに応じて所定の撮像シーンと判別される。このため、特定の画像として空の画像を示す領域が撮像画像上に予め設定されているシーン判断領域に含まれることに応じて撮像シーンが判別されるため、屋内での撮像画像が屋外での撮像画像と判別されることがなく、撮像シーンの判別を精度よく行うことができる。   According to the present invention, the captured image is divided into a plurality of regions, and the ratio and luminance of each color are calculated as feature amounts for each region. Based on this feature quantity, it is determined whether or not each of the plurality of regions is a region indicating a specific image, and the region indicating the specific image is included in the scene determination region set in advance on the captured image Is determined as a predetermined imaging scene. For this reason, since the captured scene is determined according to the fact that the area indicating the sky image as the specific image is included in the scene determination area set in advance on the captured image, the captured image indoors It is not discriminated as a captured image, and the imaging scene can be discriminated accurately.

以下、図を参照しながら、この発明の実施の一形態について説明する。図1は、撮像装置10の構成の一部を示している。撮像装置10において、被写体光はレンズ部11を介して撮像部12に入射される。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 shows a part of the configuration of the imaging apparatus 10. In the imaging device 10, the subject light is incident on the imaging unit 12 via the lens unit 11.

撮像部12は、例えばCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサを用いて構成されている。撮像部12のイメージセンサは、入射された光の量(光量)に応じた電荷を蓄積して、この蓄積された電荷量に応じた電圧信号を生成して、画像信号としてディジタル信号化部13に供給する。   The imaging unit 12 is configured using, for example, a charge coupled device (CCD) image sensor or a complementary metal oxide semiconductor (CMOS) image sensor. The image sensor of the imaging unit 12 accumulates charges according to the amount of incident light (light amount), generates a voltage signal according to the accumulated amount of charge, and generates a digital signal 13 as an image signal. To supply.

ディジタル信号化部13は、撮像部12から供給された画像信号をディジタルの画像信号に変換して、特徴量算出部21と画像処理部30およびフォーカス制御部40に供給する。   The digital signal converting unit 13 converts the image signal supplied from the imaging unit 12 into a digital image signal and supplies the digital image signal to the feature amount calculating unit 21, the image processing unit 30, and the focus control unit 40.

このディジタル信号化部13で生成されるディジタルの画像信号は、イメージセンサの受光面に設けられたカラーフィルタの色配列に従った信号であり、特定の色信号をモザイク上に配列した信号(モザイク信号)となる。例えば、カラーフィルタがベイヤ(Bayer)配列である場合、画像信号は、図2の(A)に示すようなR,G(Gr,Gb),Bのデータ配列を持ったRAW画像を示す信号となる。また、RAW画像の1画素の信号は、図2の(B)に示すように、R,G(Gr,Gb),Bの画像の信号で構成される。なお、カラーフィルタは、ベイヤ配列に限られるものではなく、ベイヤ配列とは異なる色配列のカラーフィルタを用いるものとしてもよい。   The digital image signal generated by the digital signal converting unit 13 is a signal in accordance with the color arrangement of the color filter provided on the light receiving surface of the image sensor, and is a signal (mosaic that is obtained by arranging specific color signals on the mosaic. Signal). For example, when the color filter is a Bayer array, the image signal is a signal indicating a RAW image having an R, G (Gr, Gb), B data array as shown in FIG. Become. Further, the signal of one pixel of the RAW image is composed of R, G (Gr, Gb), B image signals as shown in FIG. The color filter is not limited to the Bayer arrangement, and a color filter having a color arrangement different from the Bayer arrangement may be used.

図2に示すRAW画像では、各画素がR信号、G(Gr,Gb)信号、B信号の信号値を有しており、出力画像生成の際には、個別の色信号の値に基づくデモザイク処理により各画素の色毎の出力値が決定される。   In the RAW image shown in FIG. 2, each pixel has a signal value of an R signal, a G (Gr, Gb) signal, and a B signal. When an output image is generated, a demosaic based on the values of individual color signals is generated. The output value for each color of each pixel is determined by the processing.

特徴量算出部21は、撮像画像を複数の領域に区分して、該領域毎に各色の比率を特徴量として算出して画像判別部22に供給する。この特徴量算出部21では、区分した領域が特定の画像例えば空の画像を示す領域であるか否かを判別可能とするため例えば特徴量として比率(R/G),(B/G)を算出する。   The feature amount calculation unit 21 divides the captured image into a plurality of regions, calculates the ratio of each color as a feature amount for each region, and supplies the calculated feature amount to the image determination unit 22. In this feature amount calculation unit 21, for example, ratios (R / G) and (B / G) are used as feature amounts in order to be able to determine whether or not the segmented region is a specific image, for example, a region indicating an empty image. calculate.

画像判別部22は、特徴量算出部21で算出された特徴量に基づいて複数の領域毎に空の画像を示す領域であるか否かの判別を行い、空の画像を示す領域が撮像画像上に予め設定されているシーン判断領域に含まれることに応じて所定の撮像シーン、すなわち風景を撮像したシーンと判別する。また、撮像シーンの判別では、後述するフォーカス制御部40から供給された距離情報も用いて所定の撮像シーンであるか否かの判定を行う。さらに、画像判別部22は、撮像シーンが風景を撮像したシーンであると判別したとき、風景の撮像時に風景としての印象を良好とするために後述する画像処理部30で彩度補正を行う場合、彩度補正の補正率を設定するための判断基準となる彩度補正率判別値を算出して補正率設定部25に供給する。   The image discriminating unit 22 discriminates whether or not each of the plurality of areas is an area showing an empty image based on the feature quantity calculated by the feature quantity calculating unit 21, and the area showing the empty image is a captured image. Based on being included in the preset scene determination area above, it is determined as a predetermined imaging scene, that is, a scene capturing a landscape. Further, in the determination of the imaging scene, it is determined whether or not it is a predetermined imaging scene using distance information supplied from a focus control unit 40 described later. Further, when the image determination unit 22 determines that the captured scene is a scene obtained by capturing a landscape, the image processing unit 30 (to be described later) performs saturation correction to improve the impression of the landscape when capturing the landscape. Then, a saturation correction rate discriminant value serving as a determination criterion for setting a saturation correction correction rate is calculated and supplied to the correction rate setting unit 25.

補正率設定部25は、画像判別部22から供給された彩度補正率判別値に基づき彩度補正率を設定して画像処理部30に通知する。   The correction rate setting unit 25 sets the saturation correction rate based on the saturation correction rate determination value supplied from the image determination unit 22 and notifies the image processing unit 30 of it.

画像処理部30は、補正率設定部25で設定された補正率で画像信号に対して彩度補正を行い、彩度補正後の画像信号を記憶部や表示部に供給する。   The image processing unit 30 performs saturation correction on the image signal at the correction rate set by the correction rate setting unit 25, and supplies the image signal after the saturation correction to the storage unit or the display unit.

フォーカス制御部40は、画像信号に基づいて撮像画像が鮮明となるようにレンズ制御信号を生成してレンズ駆動部41に供給する。レンズ駆動部41は、レンズ制御信号に基づいてレンズ部11を駆動する。したがって、レンズ部11は、被写体像が撮像部12の撮像面上に結像されるようにレンズ駆動部41によって駆動されることになる。また、フォーカス制御部40は、撮像画像が鮮明となっている状態のレンズ位置に基づいて被写体までの距離を判別して、判別した距離を示す距離情報を画像判別部22に供給する。   The focus control unit 40 generates a lens control signal based on the image signal and supplies the lens control unit 41 with a lens control signal so that the captured image becomes clear. The lens driving unit 41 drives the lens unit 11 based on the lens control signal. Therefore, the lens unit 11 is driven by the lens driving unit 41 so that the subject image is formed on the imaging surface of the imaging unit 12. The focus control unit 40 also determines the distance to the subject based on the lens position where the captured image is clear, and supplies distance information indicating the determined distance to the image determination unit 22.

次に、撮像装置10におけるシーン判別動作について説明する。特徴量算出部21は、図3に示すように、撮像画像を水平方向と垂直方向にそれぞれ例えば7分割して、49の領域に区分する。また、特徴量算出部21は、区分した領域が空の画像を示す領域であるか否かを判別可能とするため、領域毎にR信号とG(Gr,Gb)信号,B信号の積分値を求め、この積分値から領域毎に比率(R/G),(B/G)を算出して特徴量とする。また、特徴量算出部21は、室内または室外の何れで撮像動作が行われているかの判別を正しく行うため、輝度Yの算出を行う。なお、式(1)は比率(R/G)の算出式、式(2)は比率(B/G)の算出式、式(3)は輝度Yの算出式を示している。また、式(1)〜(3)において、「NR」は領域内の赤色画素数、「NGr+Gb」は領域内の緑色画素数、「NB」は領域内の緑色画素数を示している。
Next, a scene determination operation in the imaging apparatus 10 will be described. As shown in FIG. 3, the feature amount calculation unit 21 divides the captured image into, for example, seven regions in the horizontal direction and the vertical direction, respectively, and divides the image into 49 regions. In addition, the feature amount calculation unit 21 can determine whether or not the segmented region is a region indicating an empty image, so that the integrated value of the R signal, the G (Gr, Gb) signal, and the B signal for each region. And the ratios (R / G) and (B / G) are calculated for each region from the integrated value, and used as the feature amount. In addition, the feature amount calculation unit 21 calculates the luminance Y in order to correctly determine whether the imaging operation is performed indoors or outdoors. Formula (1) is a calculation formula for the ratio (R / G), Formula (2) is a calculation formula for the ratio (B / G), and Formula (3) is a calculation formula for the luminance Y. In equations (1) to (3), “NR” represents the number of red pixels in the region, “NGr + Gb” represents the number of green pixels in the region, and “NB” represents the number of green pixels in the region. .

画像判別部22は、比率(R/G)と比率(B/G)に基づき、区分した各領域が空の画像を示す領域であるか否かを判別する。また、画像判別部22は、風景の撮像を行ったときに空が含まれる可能性の高い領域をシーン判断領域として予め撮像画像上に設定しておき、空の画像を示す領域がシーン判断領域に含まれることに応じて所定の撮像シーンすなわち風景を撮像したシーンと判別する。また、画像判別部22は、特徴量算出部21で算出された輝度Yとフォーカス制御部40から供給された距離情報に基づき、室内または室外の何れで撮像動作が行われているか判別して、室外で撮像動作が行われているとき、撮像シーンが風景を撮像したシーンであるか否かの判別を行う。   The image discriminating unit 22 discriminates whether or not each segmented area is an area showing an empty image based on the ratio (R / G) and the ratio (B / G). In addition, the image determination unit 22 sets in advance a region that is likely to include the sky when capturing a landscape as a scene determination region on the captured image, and the region indicating the sky image is the scene determination region. Is determined to be a predetermined image capturing scene, that is, a scene capturing a landscape. Further, the image determination unit 22 determines whether the imaging operation is performed indoors or outdoors based on the luminance Y calculated by the feature amount calculation unit 21 and the distance information supplied from the focus control unit 40. When an imaging operation is being performed outdoors, it is determined whether or not the imaging scene is a scene that captures a landscape.

図4は、画像判別部22の動作を示すフローチャートである。ステップST1で画像判別部22は、撮像画像の全体の輝度が予め設定されている閾値TH1以上であるか否かを判別する。画像判別部22は、撮像画像全体の輝度の平均値を算出して、平均値が閾値TH1以上であるときは室外で撮像動作が行われているものとしてステップST2に進み、閾値TH1以上でないときは室内で撮像動作が行われているものとして所定モードのシーン判別動作を終了する。画像判別部22は、撮像画像全体の輝度の平均値を算出するとき、例えば領域毎に算出されている輝度を用いて全領域の輝度の平均値を算出して、この平均値を画像全体の輝度とする。   FIG. 4 is a flowchart showing the operation of the image discrimination unit 22. In step ST1, the image determination unit 22 determines whether or not the overall luminance of the captured image is equal to or greater than a preset threshold value TH1. The image discriminating unit 22 calculates the average luminance value of the entire captured image. If the average value is equal to or greater than the threshold value TH1, the image determination unit 22 proceeds to step ST2 assuming that the imaging operation is being performed outdoors. Completes the scene discrimination operation in the predetermined mode, assuming that an imaging operation is being performed indoors. When calculating the average value of the brightness of the entire captured image, the image determination unit 22 calculates the average value of the brightness of all regions using, for example, the brightness calculated for each region, and calculates the average value of the entire image. Let it be luminance.

ステップST2で画像判別部22は、フォーカス制御部40からの距離情報で示された距離が閾値TH2以上であるか否かを判別する。画像判別部22は、距離が閾値TH2以上であるときは遠景の画像を撮影しているものとしてステップST3に進み、閾値TH2以上でないときは近景の画像を撮像しているものとして所定の撮像シーンのシーン判別動作を終了する。   In step ST2, the image determination unit 22 determines whether or not the distance indicated by the distance information from the focus control unit 40 is equal to or greater than the threshold value TH2. When the distance is greater than or equal to the threshold value TH2, the image discriminating unit 22 proceeds to step ST3, assuming that a distant view image is being captured. This completes the scene discrimination operation.

ステップST3で画像判別部22は、撮像画像を区分した領域から1つの領域を選択する。画像判別部22は、撮像画像を「7×7」に区分して得た49の領域から、選択されていない1つの領域を選択してステップST4に進む。   In step ST3, the image determination unit 22 selects one area from the areas into which the captured images are divided. The image discriminating unit 22 selects one unselected region from the 49 regions obtained by dividing the captured image into “7 × 7”, and proceeds to step ST4.

ステップST4で画像判別部22は、選択した領域が空の色を示しているか否か判別する。画像判別部22は、選択した領域が空の色を示すときステップST5に進み、選択した領域が空の色を示していないときステップST7に進む。   In step ST4, the image determination unit 22 determines whether or not the selected region shows a sky color. The image discriminating unit 22 proceeds to step ST5 when the selected area shows a sky color, and proceeds to step ST7 when the selected area does not show the sky color.

図5は、選択した領域が空の色を示しているか否かの判別動作を説明するための図である。画像判別部22は、空の色を示す色領域ARskyを予め設定しておき、選択した領域の比率(R/G),(B/G)で示される座標位置が色領域ARskyの範囲内であるか否かを判別して、範囲内であるとき選択した領域を空の画像を示す領域とする。なお、図5において、黒丸印は領域毎の座標値を例示している。色領域ARskyは、例えば風景を撮像した複数の撮像画像から空を示す画像の比率(R/G),(B/G)を複数求めて、この複数の比率(R/G),(B/G)を統計的に処理して決定する。   FIG. 5 is a diagram for explaining an operation for determining whether or not a selected region shows a sky color. The image discriminating unit 22 presets a color area ARsky indicating the sky color, and the coordinate position indicated by the ratio (R / G), (B / G) of the selected area is within the range of the color area ARsky. It is determined whether or not there is, and the area selected when it is within the range is set as an area indicating an empty image. In FIG. 5, black circles exemplify coordinate values for each region. For the color area ARsky, for example, a plurality of ratios (R / G) and (B / G) of images indicating the sky are obtained from a plurality of captured images obtained by capturing a landscape, and the plurality of ratios (R / G) and (B / G) are obtained. G) is statistically processed and determined.

画像判別部22は、選択した領域の色が空の色を示しているか否かの判別を行う場合、色領域ARskyを示すLUT(Look Up Table)を設けて、比率(R/G),(B/G)を指定したときに空の色であるか否かを示す判別結果を得られるようにする。このようにすれば、色領域ARskyの領域形状にかかわらず、選択した領域の色が空の色を示しているか否かの判別を容易に行うことができる。   When determining whether or not the color of the selected area indicates the sky color, the image determination unit 22 provides an LUT (Look Up Table) indicating the color area ARsky and sets the ratio (R / G), ( When B / G) is designated, a discrimination result indicating whether or not the color is the sky is obtained. In this way, it is possible to easily determine whether or not the color of the selected area indicates a sky color regardless of the area shape of the color area ARsky.

ステップST5で画像判別部22は、選択した領域の輝度が閾値TH3以上であるか否かを判別する。画像判別部22は、複数の空の画像から空の画像の輝度範囲を求めて、この輝度範囲と、この輝度範囲よりも低い輝度を区分できるように予め閾値TH3を設定する。画像判別部22は、選択した領域の輝度が予め設定されている閾値TH3以上であるときステップST6に進み、閾値TH3以上でないときステップST7に進む。   In step ST5, the image determination unit 22 determines whether or not the luminance of the selected region is equal to or higher than the threshold value TH3. The image discriminating unit 22 obtains a brightness range of a sky image from a plurality of sky images, and sets a threshold value TH3 in advance so that the brightness range and a brightness lower than the brightness range can be distinguished. The image discriminating unit 22 proceeds to step ST6 when the luminance of the selected area is equal to or higher than the preset threshold TH3, and proceeds to step ST7 when not higher than the threshold TH3.

ステップST6で画像判別部22は、空の画像を示す領域数をカウントする。画像判別部22は、選択した領域を空の画像を示す領域と判定して、空の画像を示す領域の数をカウントアップする。すなわち、画像判別部22は、ステップST4とステップST5の処理によって、選択した領域の色と輝度から空の画像を示す領域の判別を行い、ステップST6の処理によって、選択した領域を空の画像を示す領域として、この空の画像を示す領域の数をカウントする。   In step ST6, the image determination unit 22 counts the number of areas indicating an empty image. The image determination unit 22 determines that the selected area is an area indicating an empty image, and counts up the number of areas indicating an empty image. In other words, the image discriminating unit 22 discriminates an area indicating an empty image from the color and brightness of the selected area by the processing of step ST4 and step ST5, and the selected area is converted to an empty image by the process of step ST6. As the area to be shown, the number of areas showing this empty image is counted.

ステップST7で画像判別部22は、全ての領域の選択が完了したか否かを判別する。画像判別部22は、選択されていない領域が残っているときステップST3に戻り、まだ選択されていない領域を新たに選択してステップST4からの処理を行う。また、画像判別部22は、全ての領域の選択が完了したときステップST8に進む。   In step ST <b> 7, the image determination unit 22 determines whether or not all areas have been selected. The image discriminating unit 22 returns to step ST3 when an unselected region remains, newly selects an unselected region, and performs the processing from step ST4. Further, the image discriminating unit 22 proceeds to step ST8 when selection of all regions is completed.

ステップST8で画像判別部22は、シーン判断領域に空の画像を示す領域が含まれているか否かを判別する。画像判別部22は、シーン判断領域に空の画像を示す領域が含まれていると判別したときステップST9に進み、空の画像を示す領域が含まれていないと判別したときシーン判別動作を終了する。   In step ST8, the image determination unit 22 determines whether or not the scene determination area includes an area indicating an empty image. The image discriminating unit 22 proceeds to step ST9 when determining that the area indicating the empty image is included in the scene determination area, and ends the scene determining operation when determining that the area indicating the empty image is not included. To do.

ここで、撮像装置10が縦位置とされて縦長の構図である撮像画像や撮像装置10が横位置とされて横長の構図である撮像画像の生成が行われる場合、画像判別部22は、何れの構図の撮像画像が生成されても、撮像画像の上部に空の画像を示す領域が含まれているか否かを判別できるように、シーン判断領域を図6に示すようにコの字状に設ける。このようにシーン判断領域を設けるものとすれば、撮像装置10が縦位置とされたとき、シーン判断領域ASaまたはシーン判断領域AScの何れか一方が撮像画像の上部となる。また、撮像装置10が横位置とされたとき、シーン判断領域ASbが撮像画像の上部となる。したがって、このようにシーン判断領域ASを設けるものとすれば、撮像装置10が縦位置または横位置の何れとされても、シーン判断領域は撮像画像の上部を示すものとなる。   Here, when the imaging device 10 is set to the vertical position and the captured image having the vertically long composition or the imaging device 10 is set to the horizontal position and the captured image having the horizontally long composition is generated, the image determination unit 22 In order to determine whether or not an area indicating an empty image is included in the upper part of the captured image even when a captured image having the composition of FIG. 6 is generated, the scene determination area is formed in a U-shape as shown in FIG. Provide. If the scene determination area is provided in this way, when the imaging device 10 is in the vertical position, either the scene determination area Asa or the scene determination area ASc is the upper part of the captured image. When the imaging device 10 is in the horizontal position, the scene determination area ASb is the upper part of the captured image. Therefore, if the scene determination area AS is provided in this way, the scene determination area indicates the upper part of the captured image regardless of whether the imaging apparatus 10 is in the vertical position or the horizontal position.

図7は、シーン判断領域と空の画像を示す領域の判定結果を例示している。図4に示す処理が画像判別部22で行われると、画像判別部22では、撮像画像における空の画像に対応する領域が斜線で示す空の画像を示す領域として判別されることになる。   FIG. 7 illustrates the determination result of the scene determination area and the area indicating the sky image. When the processing shown in FIG. 4 is performed by the image discrimination unit 22, the image discrimination unit 22 discriminates an area corresponding to an empty image in the captured image as an area showing an empty image indicated by hatching.

ステップST9で画像判別部22は、シーン判断領域に空の画像を示す領域が含まれていることから、風景を撮像したシーンと判別してステップST10に進む。   In step ST <b> 9, the image determination unit 22 determines that the scene determination area is a scene capturing a landscape because the scene determination area includes an area indicating an empty image, and proceeds to step ST <b> 10.

ステップST10で画像判別部22は、補正率判別値を算出する。画像判別部22は、空の青さや木々の緑をより鮮やかとして風景としての印象が良好なものとなるように、彩度補正の補正率を決定するための補正率判別値を算出する。画像判別部22は、補正率判別値として、空の画像を示す領域と判別した領域の青色レベルである比率(B/G)の平均値を算出する。なお、式(4)は、比率(B/G)の平均値である比率(B/G)avgの算出式を示している。また、式(4)において、「Nsky」は空の画像を示す領域と判別された領域の数を示している。
In step ST10, the image determination unit 22 calculates a correction rate determination value. The image determination unit 22 calculates a correction rate determination value for determining a correction rate for saturation correction so that the blueness of the sky and the green of the trees are more vivid and the impression of the landscape is good. The image discriminating unit 22 calculates an average value of the ratio (B / G) that is the blue level of the area discriminated as the area showing the sky image as the correction rate discrimination value. In addition, Formula (4) has shown the calculation formula of ratio (B / G) avg which is an average value of ratio (B / G). In Expression (4), “Nsky” indicates the number of areas determined to be areas indicating an empty image.

このように、画像判別部22は、シーン判定動作を行い撮像画像が判定条件を満たす場合、所定の撮像シーンである風景を撮像したシーンと判別する。また、風景を撮像したシーンと判別したとき補正率判別値を算出して、補正率設定部25に供給する。   As described above, when the scene determination operation is performed and the captured image satisfies the determination condition, the image determination unit 22 determines that the scene that is the predetermined imaging scene is captured. Further, when it is determined that the scene is an imaged scene, a correction rate determination value is calculated and supplied to the correction rate setting unit 25.

補正率設定部25は、画像判別部22で算出された補正率判別値に基づき補正率を設定して画像処理部30に通知する。   The correction rate setting unit 25 sets a correction rate based on the correction rate discrimination value calculated by the image discrimination unit 22 and notifies the image processing unit 30 of the correction rate.

図8は、比率(B/G)avgと補正率の関係を示している。補正率設定部25は、比率(B/G)avgが閾値TH4未満であるとき補正率を0%、比率(B/G)avgが閾値TH5以上であるとき補正率を100%とする。また、補正率設定部25は、比率(B/G)avgが閾値TH4以上で閾値TH5未満であるとき、比率(B/G)avgの値に応じて補正率Kcsを0%〜100%の範囲で可変する。   FIG. 8 shows the relationship between the ratio (B / G) avg and the correction rate. The correction rate setting unit 25 sets the correction rate to 0% when the ratio (B / G) avg is less than the threshold value TH4, and sets the correction rate to 100% when the ratio (B / G) avg is equal to or greater than the threshold value TH5. Further, when the ratio (B / G) avg is equal to or greater than the threshold value TH4 and less than the threshold value TH5, the correction factor setting unit 25 sets the correction factor Kcs to 0% to 100% according to the value of the ratio (B / G) avg. Variable in range.

画像処理部30は、補正率設定部25で設定された補正率Kcsを用いて彩度補正を行う。図9は彩度補正を説明するための図である。座標(r1,b1)について原点0からの距離を大きくして座標(r2,b2)に移動すると彩度が高くなる。また、座標(r1,b1)について角度θだけ回転させて座標(r3,b3)に移動すると色相が変化する。このため、画像処理部30は、風景を撮像したシーンと判別されたとき、色相を変化させることなく彩度のみを補正する。   The image processing unit 30 performs saturation correction using the correction rate Kcs set by the correction rate setting unit 25. FIG. 9 is a diagram for explaining saturation correction. When the distance from the origin 0 is increased with respect to the coordinates (r1, b1) and moved to the coordinates (r2, b2), the saturation increases. Further, when the coordinates (r1, b1) are rotated by the angle θ and moved to the coordinates (r3, b3), the hue changes. For this reason, the image processing unit 30 corrects only the saturation without changing the hue when it is determined that the scene is a scene captured.

式(5)は、彩度の補正式を示している。なお、彩度のみを補正することから式(5)では「θ=0」とする。また、「α」は、予め設定されている補正係数を示している。
Equation (5) represents a saturation correction equation. Since only saturation is corrected, “θ = 0” is set in equation (5). “Α” represents a preset correction coefficient.

画像処理部30は、補正率設定部25で設定された補正率Kcsに応じて補正係数αを補正して、補正後の補正係数を用いて彩度補正を行う。このように彩度補正を行うものとすると、比率(B/G)avgが小さいときには彩度補正が行われることがなく、比率(B/G)avgが大きいときには、補正係数αで彩度補正が行われる。   The image processing unit 30 corrects the correction coefficient α according to the correction rate Kcs set by the correction rate setting unit 25, and performs saturation correction using the corrected correction coefficient. Assuming that saturation correction is performed in this way, saturation correction is not performed when the ratio (B / G) avg is small, and saturation correction is performed with the correction coefficient α when the ratio (B / G) avg is large. Is done.

以上のように、撮像画像を複数の領域に区分して、領域毎に各色の比率と輝度を特徴量として算出して、この特徴量に基づいて領域毎に空の画像を示す領域であるか否かの判別を行い、空の画像を示す領域が撮像画像上に予め設定されているシーン判断領域に含まれることに応じて所定の撮像シーンであると判別すれば、室内で撮影された画像が風景の画像と判別されることがなく正しくシーンの判別を行うことができる。   As described above, the captured image is divided into a plurality of regions, and the ratio and luminance of each color is calculated as a feature amount for each region, and based on this feature amount, the region indicates an empty image for each region. If it is determined whether it is a predetermined shooting scene according to the fact that the area showing the sky image is included in the scene determination area set in advance on the picked-up image, the image taken indoors Can be correctly identified without being identified as a landscape image.

また、空の画像を示す領域の色比率に応じて彩度補正が行われるので、例えば青色の空の下で風景を撮影したときには、空の青さや木々の緑をより鮮やかとして風景としての印象が良好なものとなるように画像処理を行うことができる。また、曇り空の下で風景を撮影したとき、雲や無彩色系の被写体(建物等)が不自然に強調されてしまうことも防止できる。   In addition, since saturation correction is performed according to the color ratio of the area indicating the sky image, for example, when a landscape is photographed under a blue sky, the impression of the landscape is made by making the blueness of the sky and the green of the trees more vivid. Image processing can be performed so as to be favorable. In addition, when a landscape is photographed under a cloudy sky, it is possible to prevent clouds and achromatic subjects (buildings, etc.) from being unnaturally emphasized.

ところで、上述の撮像装置では、撮像装置10が縦位置とされて縦長の構図である撮像画像や撮像装置10が横位置とされて横長の構図である撮像画像の何れが生成されても、撮像画像の上部に空の画像を示す領域が含まれているか否かを判別できるように、シーン判断領域をコの字状に設けた場合について説明した。しかし、撮像装置で縦長の構図である撮像画像あるいは横長の構図である撮像画像の何れを生成するか判別可能である場合、撮像装置は、この判別結果に応じてシーン判断領域を設けるものとすれば、撮像画像に対応させてシーン判断領域を設定できるようになる。   By the way, in the above-described imaging device, the imaging device 10 is set to the vertical position and the captured image having the vertically long composition or the captured image having the horizontal position and the imaging device 10 being the horizontal position is generated. The case has been described where the scene determination area is provided in a U-shape so that it can be determined whether or not an area indicating an empty image is included in the upper part of the image. However, when it is possible to determine whether a captured image having a vertically long composition or a captured image having a horizontally long composition is to be generated by the imaging device, the imaging device should provide a scene determination area according to the determination result. For example, the scene determination area can be set corresponding to the captured image.

図10は、撮像装置の他の構成の一部を示している。この撮像装置10aでは、縦長の構図である撮像画像あるいは横長の構図である撮像画像の何れを生成するか判別可能とされている。   FIG. 10 illustrates a part of another configuration of the imaging apparatus. In the imaging apparatus 10a, it is possible to determine which of a captured image having a vertically long composition or a captured image having a horizontally long composition is to be generated.

撮像装置10aにおいて、被写体光は、上述のように、レンズ部11を介して撮像部12に入射される。撮像部12は、画像信号を生成してディジタル信号化部13に供給する。ディジタル信号化部13は、撮像部12から供給された画像信号をディジタルの画像信号に変換して、特徴量算出部21と画像処理部30およびフォーカス制御部40に供給する。特徴量算出部21は、撮像画像を複数の領域に区分して、領域毎に特徴量を算出して画像判別部22aに供給する。   In the imaging device 10a, the subject light is incident on the imaging unit 12 via the lens unit 11 as described above. The imaging unit 12 generates an image signal and supplies it to the digital signal converting unit 13. The digital signal converting unit 13 converts the image signal supplied from the imaging unit 12 into a digital image signal and supplies the digital image signal to the feature amount calculating unit 21, the image processing unit 30, and the focus control unit 40. The feature amount calculation unit 21 divides the captured image into a plurality of regions, calculates a feature amount for each region, and supplies the calculated feature amount to the image determination unit 22a.

画像判別部22aは、特徴量算出部21で算出された特徴量を用いて、空の画像を示す領域の判別を行い、この判別結果やフォーカス制御部40から供給された距離情報、後述する縦横検出部45から供給された判別信号に基づいて所定の撮像シーンであるか否か判定する。さらに、画像判別部22aは、所定の撮像シーンであると判別したとき補正率判別値を算出して補正率設定部25に供給する。   The image discriminating unit 22a discriminates an area indicating an empty image by using the feature amount calculated by the feature amount calculating unit 21, and the discrimination result, distance information supplied from the focus control unit 40, vertical and horizontal directions to be described later. Based on the determination signal supplied from the detection unit 45, it is determined whether or not it is a predetermined imaging scene. Further, the image discriminating unit 22a calculates a correction rate discriminating value and determines that it is a predetermined imaging scene, and supplies it to the correction rate setting unit 25.

補正率設定部25は、画像判別部22aから供給された補正率判別値に基づき補正率を設定して画像処理部30に通知する。   The correction rate setting unit 25 sets a correction rate based on the correction rate discrimination value supplied from the image discrimination unit 22a and notifies the image processing unit 30 of the correction rate.

画像処理部30は、補正率設定部25で設定された補正率に基づいて画像信号に対して彩度補正を行い、彩度補正後の画像信号を記憶部や表示部に供給する。   The image processing unit 30 performs saturation correction on the image signal based on the correction rate set by the correction rate setting unit 25, and supplies the image signal after the saturation correction to the storage unit or the display unit.

フォーカス制御部40は、画像信号に基づいてレンズ制御信号を生成してレンズ駆動部41に供給することによりレンズ駆動部41でレンズ部11を駆動してオートフォーカス動作を行う。また、フォーカス制御部40は、撮像画像が鮮明となっている状態のレンズ位置に基づいて被写体までの距離を判別して、判別した距離を示す距離情報を画像判別部22に供給する。   The focus control unit 40 generates a lens control signal based on the image signal and supplies the lens control signal to the lens driving unit 41 so that the lens driving unit 41 drives the lens unit 11 to perform an autofocus operation. The focus control unit 40 also determines the distance to the subject based on the lens position where the captured image is clear, and supplies distance information indicating the determined distance to the image determination unit 22.

縦横検出部45は、縦長の構図である撮像画像あるいは横長の構図である撮像画像の何れを生成するか検出して、検出信号を画像判別部22aに供給する。縦横検出部45は、加速度センサまたは傾斜センサあるいはジャイロセンサ等を用いて構成されており、撮像装置10aが縦位置であるか横位置であるか検出する。加速度センサとしては、重力加速度の検出が可能な加速度センサを用いる。このような加速度センサを用いるものとすれば重力方向を判別できるので、撮像装置10aが縦位置であるか横位置であるか検出することが可能となる。傾斜センサを用いる場合、傾斜センサによって撮像装置10aの傾きを検出すれば、撮像装置10aが縦位置であるか横位置であるか検出することが可能となる。また、ジャイロセンサを用いるものとしても、撮像装置10aの傾きを検出することができるので、検出された傾きに基づき、撮像装置10aが縦位置であるか横位置であるか検出することが可能となる。なお、縦横検出部45は、センサを用いて検出信号を生成する場合に限られるものではなく、撮像画像の画像処理を行い、撮像画像が縦長の構図であるか横長の構図であるかを検出して、検出信号を生成するものとしてもよい。   The vertical / horizontal detection unit 45 detects whether a captured image having a vertically long composition or a captured image having a horizontally long composition is generated, and supplies a detection signal to the image determination unit 22a. The vertical / horizontal detection unit 45 is configured using an acceleration sensor, an inclination sensor, a gyro sensor, or the like, and detects whether the imaging device 10a is in the vertical position or the horizontal position. As the acceleration sensor, an acceleration sensor capable of detecting gravitational acceleration is used. If such an acceleration sensor is used, the direction of gravity can be discriminated, so that it is possible to detect whether the imaging device 10a is in the vertical position or the horizontal position. When the tilt sensor is used, if the tilt of the image pickup device 10a is detected by the tilt sensor, it is possible to detect whether the image pickup device 10a is in the vertical position or the horizontal position. In addition, even if a gyro sensor is used, the inclination of the imaging device 10a can be detected. Therefore, based on the detected inclination, it is possible to detect whether the imaging device 10a is in the vertical position or the horizontal position. Become. The vertical / horizontal detection unit 45 is not limited to generating a detection signal using a sensor, and performs image processing of a captured image to detect whether the captured image has a vertically long composition or a horizontally long composition. Thus, the detection signal may be generated.

次に、図11を用いて、他の画像判別部22aの動作について説明する。ステップST21で画像判別部22aは、撮像画像の全体の輝度が予め設定されている輝度の閾値TH1以上であるか否かを判別する。画像判別部22aは、撮像画像の全体の輝度の平均値を算出して、平均値が閾値TH1以上であるときステップST22に進み、閾値TH1以上でないときはシーン判別動作を終了する。   Next, the operation of the other image determination unit 22a will be described with reference to FIG. In step ST <b> 21, the image determination unit 22 a determines whether or not the overall luminance of the captured image is equal to or greater than a preset luminance threshold TH <b> 1. The image discriminating unit 22a calculates the average luminance value of the entire captured image, and proceeds to step ST22 when the average value is greater than or equal to the threshold value TH1, and ends the scene discrimination operation when not greater than or equal to the threshold value TH1.

ステップST22で画像判別部22aは、フォーカス制御部40からの距離情報で示された距離が閾値TH2以上であるか否かを判別する。画像判別部22aは、距離が閾値TH2以上であるときステップST23に進み、閾値TH2以上でないときシーン判別動作を終了する。   In step ST22, the image determination unit 22a determines whether or not the distance indicated by the distance information from the focus control unit 40 is greater than or equal to the threshold value TH2. The image discriminating unit 22a proceeds to step ST23 when the distance is greater than or equal to the threshold value TH2, and ends the scene discrimination operation when not greater than or equal to the threshold value TH2.

ステップST23で画像判別部22aは、撮像画像を区分した領域から1つの領域を選択してステップST24に進む。   In step ST23, the image determination unit 22a selects one area from the areas obtained by dividing the captured image, and proceeds to step ST24.

ステップST24で画像判別部22aは、選択した領域が空の色を示しているか否か判別する。画像判別部22aは、選択した領域が空の色を示すときステップST25に進み、選択した領域が空の色を示していないときステップST27に進む。   In step ST24, the image determination unit 22a determines whether or not the selected area shows a sky color. The image discriminating unit 22a proceeds to step ST25 when the selected area indicates a sky color, and proceeds to step ST27 when the selected area does not indicate the sky color.

ステップST25で画像判別部22aは、選択した領域の輝度が閾値TH3以上であるか否かを判別する。画像判別部22aは、選択した領域の輝度が予め設定されている閾値TH3以上であるときステップST26に進み、閾値TH3以上でないときステップST27に進む。   In step ST25, the image determination unit 22a determines whether or not the luminance of the selected region is equal to or higher than the threshold value TH3. The image discriminating unit 22a proceeds to step ST26 when the luminance of the selected area is equal to or higher than a preset threshold TH3, and proceeds to step ST27 when not higher than the threshold TH3.

ステップST26で画像判別部22aは、空画像の領域数をカウントする。画像判別部22aは、選択した領域を空の画像を示す領域と判定して、空の画像を示す領域の数をカウントアップする。   In step ST26, the image determination unit 22a counts the number of blank image areas. The image determination unit 22a determines that the selected area is an area indicating an empty image, and counts up the number of areas indicating an empty image.

ステップST27で画像判別部22aは、全ての領域の選択が完了したか否かを判別する。画像判別部22aは、選択されていない領域が残っているときステップST23に戻り、まだ選択されていない領域を新たに選択してステップST24からの処理を行う。また、画像判別部22aは、全ての領域の選択が完了したときステップST28に進む。   In step ST <b> 27, the image determination unit 22 a determines whether or not all areas have been selected. The image discriminating unit 22a returns to step ST23 when an unselected region remains, newly selects an unselected region, and performs the processing from step ST24. Further, the image discriminating unit 22a proceeds to step ST28 when selection of all regions is completed.

ステップST28で画像判別部22aは、シーン判断領域の設定を行う。画像判別部22aは、縦横検出部45から供給された検出信号に基づき、撮像画像の上部にシーン判断領域を設定してステップST29に進む。ここで、縦横検出部45からの検出信号によって撮像装置10aが横位置であることが示されているとき、撮像画像は図12の(A)に示すように横長の構図となっている。したがって、画像判別部22aは、横長の構図である撮像画像の上部領域にシーン判断領域を設定する。また、縦横検出部45からの検出信号によって撮像装置10aが縦位置であることが示されているとき、撮像画像は図12の(B)に示すように縦長の構図の画像となっている。したがって、画像判別部22aは、縦長の構図である撮像画像の上部領域にシーン判断領域を設定する。   In step ST28, the image determination unit 22a sets a scene determination area. Based on the detection signal supplied from the vertical / horizontal detection unit 45, the image determination unit 22a sets a scene determination region above the captured image, and proceeds to step ST29. Here, when the detection signal from the vertical / horizontal detection unit 45 indicates that the imaging device 10a is in the horizontal position, the captured image has a horizontally long composition as shown in FIG. Therefore, the image determination unit 22a sets a scene determination area in the upper area of the captured image having a horizontally long composition. When the detection signal from the vertical / horizontal detection unit 45 indicates that the imaging device 10a is in the vertical position, the captured image is an image having a vertically long composition as shown in FIG. Therefore, the image determination unit 22a sets a scene determination area in the upper area of the captured image having a vertically long composition.

ステップST29で画像判別部22aは、シーン判断領域に空の画像を示す領域が含まれているか否かを判別する。画像判別部22aは、シーン判断領域に空の画像を示す領域が含まれていると判別したときステップST30に進み、シーン判断領域に空の画像を示す領域が含まれていないと判別したときシーン判別動作を終了する。   In step ST29, the image determination unit 22a determines whether or not the scene determination area includes an area indicating an empty image. When the image determination unit 22a determines that the scene determination area includes an area indicating an empty image, the image determination unit 22a proceeds to step ST30, and determines that the scene determination area does not include an area indicating an empty image. The discrimination operation is terminated.

ステップST30で画像判別部22aは、シーン判断領域に空の画像を示す領域が含まれていることから、風景を撮像したシーンと判別してステップST31に進む。   In step ST30, the image determination unit 22a determines that the scene determination area is a scene capturing a landscape since the area indicating the sky image is included in the scene determination area, and proceeds to step ST31.

ステップST31で画像判別部22aは、補正率判別値を算出する。画像判別部22aは、補正率判別値として、空の画像を示す領域と判別した領域の青色レベルである比率(B/G)の平均値を算出する。   In step ST31, the image determination unit 22a calculates a correction rate determination value. The image discriminating unit 22a calculates an average value of the ratio (B / G) which is the blue level of the area discriminated as the area showing the sky image as the correction rate discrimination value.

このような処理を撮像装置10aで行うものとすれば、撮像装置10aが縦位置あるいは横位置等に応じてシーン判断領域が設定されることから、コの字状にシーン判断領域を設定する場合に比べて、空領域の判別精度を高めることができる。   If such processing is performed by the imaging apparatus 10a, the scene determination area is set according to the vertical position or the horizontal position of the imaging apparatus 10a. Therefore, the scene determination area is set in a U-shape. Compared to the above, it is possible to improve the discrimination accuracy of the empty area.

また、上述の実施の形態では、シーン判断領域として画像端から1領域分の幅をシーン判断領域とする場合を説明したが、撮像画像を複数の領域に区分する場合、領域サイズを小さくすると、画像端から1領域分の幅をシーン判断領域とした場合にシーン判断領域の領域サイズが小さくなってしまい、撮像画像における空の判定精度の低下を招くおそれがある。また、画像端から複数領域分の幅をシーン判断領域とする場合、幅を広くすると空だけでなく地上の画像が多く含まれるようになってしまう。そこで、画像端から複数領域分の幅をシーン判断領域として設定して、撮影画像の上端側の領域は空である可能性が高く、下端側に位置する領域ほど空である可能性が低くなることから、シーン判断領域に対して上部の重み付けを高くして、撮像画像における空の部分をより確実に判別できるようにする。   Further, in the above-described embodiment, the case where the width of one area from the edge of the image is set as the scene determination area as the scene determination area is described. However, when the captured image is divided into a plurality of areas, the area size is reduced. If the width of one area from the edge of the image is used as the scene determination area, the area size of the scene determination area is reduced, and there is a possibility that the determination accuracy of the sky in the captured image is lowered. In addition, when the width of a plurality of areas from the edge of the image is set as the scene determination area, if the width is increased, not only the sky but also a lot of ground images are included. Therefore, by setting the width of a plurality of areas from the edge of the image as the scene determination area, the area on the upper end side of the captured image is likely to be empty, and the area located on the lower end side is less likely to be empty. For this reason, the upper weighting of the scene determination area is increased so that the empty portion in the captured image can be more reliably determined.

次に、図13を用いて、重み付けを行う場合の画像判別部22aの動作について説明する。ステップST41で画像判別部22aは、撮像画像の全体の輝度が予め設定されている輝度の閾値TH1以上であるか否かを判別する。画像判別部22aは、撮像画像の全体の輝度の平均値を算出して、平均値が閾値TH1以上であるときステップST42に進み、閾値TH1以上でないときはシーン判別動作を終了する。   Next, the operation of the image determination unit 22a when performing weighting will be described with reference to FIG. In step ST41, the image determination unit 22a determines whether or not the overall luminance of the captured image is equal to or greater than a preset luminance threshold TH1. The image discriminating unit 22a calculates the average luminance value of the entire captured image, and proceeds to step ST42 when the average value is greater than or equal to the threshold value TH1, and ends the scene discrimination operation when not greater than or equal to the threshold value TH1.

ステップST42で画像判別部22aは、フォーカス制御部40からの距離情報で示された距離が閾値TH2以上であるか否かを判別する。画像判別部22aは、距離が閾値TH2以上であるときステップST43に進み、閾値TH2以上でないときシーン判別動作を終了する。   In step ST42, the image determination unit 22a determines whether or not the distance indicated by the distance information from the focus control unit 40 is equal to or greater than the threshold value TH2. The image discriminating unit 22a proceeds to step ST43 when the distance is greater than or equal to the threshold value TH2, and ends the scene discrimination operation when it is not greater than or equal to the threshold value TH2.

ステップST43で画像判別部22aは、撮像画像を区分した領域から1つの領域を選択してステップST44に進む。   In step ST43, the image determination unit 22a selects one area from the areas obtained by dividing the captured image, and proceeds to step ST44.

ステップST44で画像判別部22aは、選択した領域が空の色を示しているか否か判別する。画像判別部22aは、選択した領域が空の色を示すときステップST45に進み、選択した領域が空の色を示していないときステップST47に進む。   In step ST44, the image determination unit 22a determines whether or not the selected region shows a sky color. The image discriminating unit 22a proceeds to step ST45 when the selected area indicates a sky color, and proceeds to step ST47 when the selected area does not indicate the sky color.

ステップST45で画像判別部22aは、選択した領域の輝度が閾値TH3以上であるか否かを判別する。画像判別部22aは、選択した領域の輝度が予め設定されている閾値TH3以上であるときステップST46に進み、閾値TH3以上でないときステップST47に進む。   In step ST45, the image determination unit 22a determines whether or not the luminance of the selected region is equal to or higher than the threshold value TH3. The image discriminating unit 22a proceeds to step ST46 when the luminance of the selected area is equal to or higher than a preset threshold TH3, and proceeds to step ST47 when it is not equal to or higher than the threshold TH3.

ステップST46で画像判別部22aは、空の画像を示す領域数をカウントする。画像判別部22aは、選択した領域を空の画像を示す領域と判定して、空の画像を示す領域の数をカウントアップする。   In step ST46, the image determination unit 22a counts the number of areas indicating an empty image. The image determination unit 22a determines that the selected area is an area indicating an empty image, and counts up the number of areas indicating an empty image.

ステップST47で画像判別部22aは、全ての領域の選択が完了したか否かを判別する。画像判別部22aは、選択されていない領域が残っているときステップST43に戻り、まだ選択されていない領域を新たに選択してステップST44からの処理を行う。また、画像判別部22aは、全ての領域の選択が完了したときステップST48に進む。   In step ST <b> 47, the image determination unit 22 a determines whether selection of all areas has been completed. The image discriminating unit 22a returns to step ST43 when an unselected area remains, newly selects an area that has not been selected, and performs the processing from step ST44. Further, the image discriminating unit 22a proceeds to step ST48 when selection of all the regions is completed.

ステップST48で画像判別部22aは、シーン判断領域の設定を行う。画像判別部22aは、縦横検出部45から供給された検出信号に基づき、撮像画像の上部に複数領域幅のシーン判断領域を設定してステップST49に進む。ここで、縦横検出部45からの検出信号によって撮像装置10aが横位置であることが示されているとき、撮像画像は、図14の(A)に示すように横長の構図となっている。したがって、画像判別部22aは、図14の(B)に示すように、横長の構図である撮像画像の上端の領域の重み付けを高くして、下端方向に各領域の重み付けを低くする。また、縦横検出部45からの検出信号によって撮像装置10aが縦位置であることが示されているとき、撮像画像は、図15の(A)に示すように縦長の構図の画像となっている。したがって、画像判別部22aは、図15の(B)に示すように、縦長の構図である撮像画像の上端の領域の重み付けを高くして、下端方向に各領域の重み付けを低くする。このように、シーン判断領域に対して重み付けを行うものとすれば、空が含まれる可能性の高い領域は重み付けが高く、空が含まれる可能性の低い領域は重み付けが低いものとなる。   In step ST48, the image determination unit 22a sets a scene determination area. Based on the detection signal supplied from the vertical / horizontal detection unit 45, the image determination unit 22a sets a scene determination region having a plurality of widths above the captured image, and proceeds to step ST49. Here, when the detection signal from the vertical / horizontal detection unit 45 indicates that the imaging device 10a is in the horizontal position, the captured image has a horizontally long composition as shown in FIG. Therefore, as shown in FIG. 14B, the image determination unit 22a increases the weight of the upper end region of the captured image having a horizontally long composition and decreases the weight of each region in the lower end direction. Further, when the detection signal from the vertical / horizontal detection unit 45 indicates that the imaging device 10a is in the vertical position, the captured image is an image having a vertically long composition as shown in FIG. . Therefore, as shown in FIG. 15B, the image determination unit 22a increases the weight of the upper end region of the captured image having a vertically long composition and decreases the weight of each region in the lower end direction. As described above, if the scene determination area is weighted, an area that is highly likely to contain sky is highly weighted, and an area that is unlikely to contain sky is low in weight.

なお、縦横検出部45が設けられておらず上述の画像判別部22でコの字状にシーン判断領域を設定する場合、画像判別部22は図16に示すように撮影画像の端部側では重み付けを高くして、撮像画像の中央部側で重み付けが低くなるように重み付けを行うものとすればよい。また、コの字状にシーン判断領域を設定する場合、横長の構図である撮像画像の下端の領域は、空が含まれる可能性が少ないので、重み付けを低くする。   If the vertical / horizontal detection unit 45 is not provided and the above-described image determination unit 22 sets a scene determination region in a U-shape, the image determination unit 22 is located on the end side of the captured image as shown in FIG. What is necessary is just to give weighting so that weighting may be made high and weighting may become low at the center part side of a captured image. In addition, when the scene determination area is set in a U-shape, the lower end area of the captured image having a horizontally long composition is less likely to include sky, and thus the weight is reduced.

ステップST49で画像判別部22aは、評価値SCを算出する。画像判別部22aは式(6)を用いて評価値SCを算出する。この式(6)において、「Ki」はi番目の領域が空の画像の領域であるか否かの判定結果を示しており、例えば空の領域と判定されているときには「1」、空の領域と判定されていないときは「0」とする。また、「WPi」はi番目の領域の重みを示している。
In step ST49, the image determination unit 22a calculates an evaluation value SC. The image discriminating unit 22a calculates the evaluation value SC using Expression (6). In this equation (6), “Ki” indicates a determination result as to whether or not the i-th area is an empty image area. For example, when it is determined as an empty area, “1” When it is not determined as an area, it is set to “0”. “WPi” indicates the weight of the i-th region.

ステップST50で画像判別部22aは、評価値SCが閾値TH6以上であるか否かを判別する。画像判別部22aは、評価値SCが閾値TH6以上であると判別したときステップST51に進み、評価値が閾値TH6以上でないと判別したときシーン判別動作を終了する。   In step ST50, the image determination unit 22a determines whether or not the evaluation value SC is greater than or equal to a threshold value TH6. When it is determined that the evaluation value SC is equal to or greater than the threshold value TH6, the image determination unit 22a proceeds to step ST51, and when it is determined that the evaluation value is not equal to or greater than the threshold value TH6, the scene determination operation is terminated.

ステップST51で画像判別部22aは、シーン判定用の評価値が閾値を超えたことから、風景を撮像したシーンと判別してステップST52に進む。   In step ST51, since the evaluation value for scene determination exceeds the threshold value, the image determination unit 22a determines that the scene is a scene captured and proceeds to step ST52.

ステップST52で画像判別部22aは、補正率判別値を算出する。画像判別部22aは、補正率判別値として、空の画像を示す領域と判別した領域の青色レベルである比率(B/G)の平均値を算出する。   In step ST52, the image determination unit 22a calculates a correction rate determination value. The image discriminating unit 22a calculates an average value of the ratio (B / G) which is the blue level of the area discriminated as the area showing the sky image as the correction rate discrimination value.

このようにシーン判断領域に対して重み付けを行い、空の領域の判別結果とシーン判断領域の重み付けに基づいて算出した評価値SCに基づいて、撮影モードを風景モードに設定するか否かを判別すれば、シーン判断領域の領域幅を広くしても、撮像画像に応じて精度よく判別を行うことができる。   In this way, the scene determination area is weighted, and it is determined whether or not the shooting mode is set to the landscape mode based on the empty area determination result and the evaluation value SC calculated based on the weight of the scene determination area. By doing so, even if the area width of the scene determination area is widened, it is possible to accurately determine according to the captured image.

さらに、重み付けは、シーン判断領域に対して行う場合に限られるものではなく、撮像画像を区分した領域毎に重み付けを行うこともできる。ここで、領域の画像が空の画像だけである場合、領域内における色のばらつきは小さいものとなる。また、領域の画像が空の画像だけでなく地上等の画像を含む場合、判定領域内における色のばらつきは、空の画像だけである場合よりも大きくなる。すなわち、空の画像と判別された領域において領域内の色のばらつきが小さいときは空の画像である可能性が高いと考えられる。したがって、画像判別部22aは、色のばらつきが小さい領域の重み付けは高く、色のばらつきが大きい領域の重み付けは低くする。   Furthermore, the weighting is not limited to the case where it is performed on the scene determination area, and the weighting can be performed for each area where the captured image is divided. Here, when the image of the area is only an empty image, the color variation in the area is small. In addition, when the image of the region includes not only a sky image but also an image of the ground or the like, the color variation in the determination region is larger than that in the case of only the sky image. That is, it is considered that there is a high possibility that the image is an empty image when the color variation in the region is small in the region determined to be an empty image. Therefore, the image discriminating unit 22a assigns a higher weight to a region with small color variation and lowers a weight for a region with large color variation.

式(7)〜(9)は色毎のばらつきの算出式、式(10)は重みWCの算出式を示している。なお、式(7)〜(9)は色のばらつきとして色毎の分散を求める算出式を示しており、式(7)における「Ravg」は領域内におけるR信号の平均値、式(8)における「Gavg」は領域内におけるG信号の平均値、式(9)における「Bavg」は領域内におけるB信号の平均値である。また式(10)における「A」は係数である。なおG信号の分散の算出では、例えば1画素内のGrとGbの平均値を用いるものとする。
Expressions (7) to (9) are expressions for calculating the variation for each color, and Expression (10) is an expression for calculating the weight WC. Equations (7) to (9) show calculation formulas for obtaining dispersion for each color as color variations, and “Ravg” in Equation (7) is an average value of R signals in the region, and Equation (8). “Gavg” in FIG. 7 is an average value of G signals in the region, and “Bavg” in Equation (9) is an average value of B signals in the region. “A” in equation (10) is a coefficient. In calculating the variance of the G signal, for example, an average value of Gr and Gb in one pixel is used.

このように、画像判別部22aは、領域毎に重みを算出して、この重みを用いて式(11)から評価値SCを算出する。
As described above, the image determination unit 22a calculates the weight for each region, and calculates the evaluation value SC from Expression (11) using this weight.

さらに、シーン風景判断領域の重み付けも合わせて行う場合、画像判別部22aは、式(6)の「Ki」に換えて、領域に設定した重みWCを用いるものとすれば、色のばらつきに基づいた重み付けとシーン判断領域の重み付けを用いて算出した評価値SCに基づき、撮像シーンの判別をさらに精度よく行うことができる。   Further, when the scene scene determination area is also weighted, the image determination unit 22a is based on color variation if the weight WC set in the area is used instead of “Ki” in Expression (6). On the basis of the evaluation value SC calculated by using the weighting and the weighting of the scene determination area, it is possible to discriminate the captured scene more accurately.

また、空の画像を示すものと判定された領域は、周囲の領域が空の画像を示すものと判定されているとき、空の画像である可能性が高いと考えられる。したがって、画像判別部22aは、領域毎の重みを周囲の領域の重み付け結果に応じて重み付けすることもできる。   In addition, it is considered that an area determined to indicate an empty image is likely to be an empty image when it is determined that the surrounding area indicates an empty image. Therefore, the image discriminating unit 22a can also weight the weight for each area according to the weighting result of the surrounding area.

式(12)は、領域毎の重みを周囲の領域の重み付け結果に応じてさらに重み付けする場合の算出式を示している。
Expression (12) represents a calculation expression when the weight for each area is further weighted according to the weighting result of the surrounding area.

例えば、図17に示すように、上下左右に位置する判定領域の重みが「w1」〜「w4」とされている場合、式(12)に基づいて領域APiの重みWiを算出する。なお、式(11)において、「wn」はn番目の近傍の領域に設定された重み、「N」は周辺に位置する領域の数を示しており、図17に示す場合、Wnは「w1」〜「w4」、Nは4となる。   For example, as shown in FIG. 17, when the weights of the determination regions located on the top, bottom, left, and right are “w1” to “w4”, the weight Wi of the region APi is calculated based on Expression (12). In Equation (11), “wn” represents the weight set for the nth neighboring region, “N” represents the number of regions located in the vicinity, and in the case shown in FIG. 17, Wn is “w1”. ] To "w4", N is 4.

このように、周囲の領域の重み付け結果を用いてさらに重み付けすれば、空の画像を示す領域の重みをより高くすることができる。したがって、このようにして領域毎に設定した重みを式(6)の「Ki」に換えて用いて評価値SCを算出する。このように、周囲の領域の重み付け結果に応じて重み付けを行えば、風景を撮像したシーンであるか否かの判別をさらに精度よく行うことができる。   In this way, if the weighting is further performed using the weighting result of the surrounding area, the weight of the area indicating the empty image can be further increased. Therefore, the evaluation value SC is calculated using the weight set for each region in this way in place of “Ki” in Expression (6). As described above, if weighting is performed according to the weighting result of the surrounding area, it is possible to more accurately determine whether the scene is a scene captured.

ところで、周囲の領域を用いて重み付けを行う場合、周囲の領域に設定されている重みを用いる場合に限られるものではない。例えば、周囲の領域が空の画像を示す領域であるか否かの判定結果を利用して重み付けを行うことができる。   By the way, when weighting is performed using the surrounding area, it is not limited to the case where the weight set in the surrounding area is used. For example, weighting can be performed using the determination result of whether or not the surrounding area is an area indicating an empty image.

式(13)は、周囲の領域の判定結果に基づいて重み付けを行う場合を示している。
Expression (13) shows a case where weighting is performed based on the determination result of the surrounding area.

例えば図18に示すように判定結果が得られており、上下左右に位置する4つの判定領域の判定結果を用いる場合、領域APn1は、左と下の領域が空の画像でないと判定(判定結果「0」)されており、上と右の領域が空の画像であると判定(判定結果「1」)されている場合、周囲の領域の判定結果に基づいて領域APn1の判定結果に重み付けを行い、「1×(2/4)=0.5」とする。また、領域APn2は、上下左右の領域が空の画像を示す領域と判定(判定結果「1」)されていることから、領域APn2の判定結果に重み付けを行い、「1×(4/4)=1」とする。   For example, as shown in FIG. 18, when the determination result is obtained and the determination results of the four determination regions located in the upper, lower, left, and right directions are used, the region APn1 is determined that the left and lower regions are not empty images (determination result). In the case where it is determined that the upper and right areas are empty images (determination result “1”), the determination result of the area APn1 is weighted based on the determination result of the surrounding area. And “1 × (2/4) = 0.5”. In addition, since the area APn2 is determined to be an area in which the upper, lower, left, and right areas indicate an empty image (determination result “1”), the determination result of the area APn2 is weighted and “1 × (4/4) = 1 ”.

このように周囲の領域の判定結果に基づいて重み付けを行い、領域の重み付けされた判定結果を用いて式(12)から評価値SCを算出する。また、シーン判断領域の重み付けも合わせて行う場合、画像判別部22aは、式(6)の「Ki」に換えて、重み付け後の判定結果を用いるものとする。このようにすれば、領域内の色のばらつきに基づいて重みの設定が行われていなくとも、周囲の領域の判定結果を利用した重み付けが行われている評価値SCを算出できる。   In this manner, weighting is performed based on the determination result of the surrounding area, and the evaluation value SC is calculated from the equation (12) using the weighted determination result of the area. When the scene determination area is also weighted, the image determination unit 22a uses the determination result after weighting instead of “Ki” in Expression (6). In this way, it is possible to calculate the evaluation value SC that is weighted using the determination result of the surrounding area, even if the weight is not set based on the color variation in the area.

このように、画像判別部22aは、撮像装置が縦位置や横位置等であることを示す検出信号に基づいたシーン判断領域の設定や領域の重み付け等を行って評価値SCを算出する。さらに、画像判別部22aは、評価値SCに基づき撮影シーンが風景を撮像したシーンであるか否かの判定を行い、風景を撮像したシーンと判別したとき彩度補正率判別値を算出して、補正率設定部25に供給する。   As described above, the image determination unit 22a calculates the evaluation value SC by setting the scene determination region, weighting the region, and the like based on the detection signal indicating that the imaging device is in the vertical position, the horizontal position, or the like. Further, the image determination unit 22a determines whether or not the shooting scene is a scene capturing a landscape based on the evaluation value SC, and calculates a saturation correction rate determination value when determining that the scene is a scene capturing a landscape. , And supplied to the correction rate setting unit 25.

補正率設定部25は、画像判別部22aで算出された彩度補正率判別値に基づき補正率を上述のように決定して画像処理部30に供給する。画像処理部30は、補正率設定部25で設定された補正率Kcsを用いて彩度補正を行う。   The correction rate setting unit 25 determines the correction rate as described above based on the saturation correction rate determination value calculated by the image determination unit 22a and supplies the correction rate to the image processing unit 30. The image processing unit 30 performs saturation correction using the correction rate Kcs set by the correction rate setting unit 25.

このように、撮像装置10aでは、撮像装置が縦位置や横位置等であることを示す検出信号に基づいたシーン判断領域の設定、シーン判断領域の重み付け、撮像画像を区分した領域毎の色のばらつきに基づく重み付け、隣接する領域を利用した重み付けの何れかの処理、または複数の処理が組み合わせて行われるので、撮像画像から空の領域の検出を精度よく行うことが可能となり、風景を撮像したシーンを正しく判別することができる。   As described above, in the imaging apparatus 10a, the setting of the scene determination area based on the detection signal indicating that the imaging apparatus is in the vertical position, the horizontal position, etc., the weighting of the scene determination area, and the color of each area obtained by dividing the captured image Since either weighting based on variation, weighting using adjacent areas, or a combination of multiple processes is performed, it is possible to accurately detect an empty area from a captured image and capture a landscape. The scene can be correctly identified.

また、風景を撮像したシーンと判別されたときは、空の画像を示す領域の色に応じて彩度補正の補正率が制御されるので、上述のように最適な彩度補正を行うことができるようになる。   Also, when it is determined that the scene is a scene captured, the saturation correction correction rate is controlled according to the color of the area indicating the sky image, so that the optimum saturation correction can be performed as described above. become able to.

なお、上述の実施の形態は、撮像装置で撮影モードの設定および彩度補正を行う場合について説明したが、記録媒体に記録された撮像画像の画像処理を画像処理装置で行う場合にも適用できる。例えば記録媒体にRAW画像が記録されており、このRAW画像の画像処理を画像処理装置で行う場合、画像処理装置は、上述のように撮像画像を複数の領域に区分して領域毎に特徴量を算出して、この特徴量に基づき空の画像を示す領域であるか否かを判別して、シーン判断領域に空の画像を示す領域が含まれることに応じて所定の撮像シーンと判別する。さらに、画像処理装置は、判別した撮像シーンの画像に適した画像処理モードとして、例えば上述のような彩度補正を自動的に行うようにする。このようにすれば、記録媒体に記録されている画像がRAW画像であっても、表示部等に供給される画像は、風景を撮像したシーンの画像に適した画像処理モードで画像処理が行われた画像となる。したがって、ユーザが撮像画像毎に画像処理の設定操作等を行う必要がなく、容易に良好な風景画像の表示等を行えるようになる。   The above-described embodiment has been described with respect to the case where the shooting mode is set and the saturation correction is performed by the imaging device. . For example, when a RAW image is recorded on a recording medium and image processing of the RAW image is performed by the image processing device, the image processing device divides the captured image into a plurality of regions as described above, and the feature amount for each region. Is determined based on the feature amount to determine whether or not it is a region indicating a sky image, and is determined as a predetermined imaging scene according to the fact that a region indicating a sky image is included in the scene determination region. . Furthermore, the image processing apparatus automatically performs, for example, the above-described saturation correction as an image processing mode suitable for the image of the determined imaging scene. In this way, even if the image recorded on the recording medium is a RAW image, the image supplied to the display unit or the like is subjected to image processing in an image processing mode suitable for a scene image capturing a landscape. It becomes a broken image. Therefore, it is not necessary for the user to perform an image processing setting operation or the like for each captured image, and a good landscape image can be easily displayed.

また、上述の処理すなわち撮像画像から撮影モードや画像処理モードを判別する処理や補正率をさらに設定する処理は、ハードウェアだけでなくソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したコンピュータ・プログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにコンピュータ・プログラムをインストールして実行させることが可能である。   In addition, the above-described processing, that is, the processing for determining the shooting mode and the image processing mode from the captured image, and the processing for further setting the correction factor can be executed not only by hardware but also by software or a combined configuration of both. When executing processing by software, a computer program recording a processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or a general-purpose computer capable of executing various types of processing is used. A computer program can be installed and executed.

コンピュータ・プログラムは、記録媒体としてのハードディスクやROM(Read Only Memory)に予め記録しておくことができる。あるいは、コンピュータ・プログラムはフレキシブルディスク、CD−ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておく。   The computer program can be recorded in advance on a hard disk or ROM (Read Only Memory) as a recording medium. Alternatively, the computer program can be temporarily or permanently stored on a removable recording medium such as a flexible disk, a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto optical) disk, a DVD (Digital Versatile Disc), a magnetic disk, or a semiconductor memory. Stored (recorded).

なお、コンピュータ・プログラムは、上述したようなリムーバブル記録媒体からコンピュータにインストールする他、ダウンロードサイトから、コンピュータに無線転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるコンピュータ・プログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。   The computer program is installed on the computer from the removable recording medium as described above, or is wirelessly transferred from the download site to the computer, or is wired to the computer via a network such as a LAN (Local Area Network) or the Internet. Then, the computer can receive the computer program transferred in this manner and install it in a recording medium such as a built-in hard disk.

また、本願発明は、上述の実施の形態に限られるものではなく、本発明の要旨を逸脱しない範囲で当業者が該実施の形態の修正や代用を成し得ることは自明である。すなわち、本発明の要旨を判断するためには、特許請求の範囲を参酌すべきである。   The present invention is not limited to the above-described embodiment, and it is obvious that those skilled in the art can make modifications and substitutions of the embodiment without departing from the gist of the present invention. That is, in order to determine the gist of the present invention, the claims should be taken into consideration.

この発明は、撮像画像を複数の領域に区分して、該領域毎に各色の比率と輝度を特徴量として算出して、この特徴量に基づいて複数の領域毎に空の画像を示す領域であるか否かの判別を行い、空の画像を示す領域が撮像画像上に予め設定されているシーン判断領域に含まれることに応じて所定の撮影モードに設定するものである。このため、撮像画像から撮像画像に適した撮影モードを正しく判別できるようになり、例えば屋内での撮像画像が屋外での撮像画像と判別されることがなくなる。したがって、静止画や動画の撮像画像を得る撮像装置や、撮像画像の画像処理を行う画像処理装置に適するものである。   In the present invention, a captured image is divided into a plurality of regions, and the ratio and luminance of each color is calculated as a feature amount for each region, and an empty image is shown for each of the plurality of regions based on the feature amount. It is determined whether or not there is an image, and a predetermined shooting mode is set in accordance with the fact that an area showing an empty image is included in a scene determination area set in advance on the captured image. For this reason, it becomes possible to correctly determine the shooting mode suitable for the captured image from the captured image, and for example, an indoor captured image is not determined to be an outdoor captured image. Therefore, the present invention is suitable for an imaging device that obtains a captured image of a still image or a moving image or an image processing device that performs image processing of a captured image.

撮像装置の構成の一部を示す図である。It is a figure which shows a part of structure of an imaging device. RAW画像を示す図である。It is a figure which shows a RAW image. 特徴量算出部の動作を説明するための図である。It is a figure for demonstrating operation | movement of the feature-value calculation part. 画像判別部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of an image discrimination | determination part. 選択した領域が空の色を示しているか否かの判別動作を説明するための図である。It is a figure for demonstrating the discrimination | determination operation | movement of whether the selected area | region has shown the sky color. シーン判断領域を例示した図である。It is the figure which illustrated the scene judgment area. シーン判断領域と空の画像を示す領域の判定結果を例示した図である。It is the figure which illustrated the determination result of the area | region which shows a scene determination area | region and an empty image. 比率(B/G)avgと補正率の関係を示す図である。It is a figure which shows the relationship between ratio (B / G) avg and a correction factor. 彩度補正を説明するための図である。It is a figure for demonstrating saturation correction. 撮像装置の他の構成の一部を示す図である。It is a figure which shows a part of other structure of an imaging device. 他の画像判別部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of another image discrimination | determination part. 縦横検出結果に応じて設定されたシーン判断領域を示す図である。It is a figure which shows the scene judgment area | region set according to the vertical / horizontal detection result. 重み付けを行う場合の画像判別部の動作を示すフローチャートである。S 示す図である。It is a flowchart which shows operation | movement of the image discrimination | determination part in the case of performing weighting. FIG. 横長の構図である撮像画像におけるシーン判断領域の重み付けを示す図である。It is a figure which shows the weighting of the scene determination area | region in the captured image which is a landscape composition. 縦長の構図である撮像画像におけるシーン判断領域の重み付けを示す図である。It is a figure which shows the weighting of the scene judgment area | region in the captured image which is a vertically long composition. コの字状のシーン判断領域に対する重み付けを示す図である。It is a figure which shows the weighting with respect to a U-shaped scene determination area | region. 隣接する領域の重みを利用した重み付けを説明するための図である。It is a figure for demonstrating the weighting using the weight of an adjacent area | region. 隣接する領域の判別結果を利用した重み付けを説明するための図である。It is a figure for demonstrating the weighting using the discrimination | determination result of an adjacent area | region.

符号の説明Explanation of symbols

10,10a・・・撮像装置、11・・・レンズ部、12・・・撮像部、13・・・ディジタル信号化部、21・・・特徴量算出部、22,22a・・・画像判別部、25・・・補正率設定部、30・・・画像処理部、40・・・フォーカス制御部、41・・・レンズ駆動部、45・・・縦横検出部   DESCRIPTION OF SYMBOLS 10,10a ... Imaging device, 11 ... Lens part, 12 ... Imaging part, 13 ... Digital signal conversion part, 21 ... Feature-value calculation part, 22, 22a ... Image discrimination | determination part 25 ... Correction rate setting unit, 30 ... Image processing unit, 40 ... Focus control unit, 41 ... Lens drive unit, 45 ... Vertical / horizontal detection unit

Claims (15)

撮像部と、
前記撮像部で得られた撮像画像を複数の領域に区分して、該領域毎に各色の比率と輝度を特徴量として算出する特徴量算出部と、
前記特徴量に基づいて前記複数の領域毎に特定の画像を示す領域であるか否かの判別を行い、前記特定の画像を示す領域が前記撮像画像上に予め設定されているシーン判断領域に含まれることに応じて所定の撮像シーンと判別する画像判別部と、
前記画像判別部のシーン判別結果に応じた画像処理を実行する画像処理部と
を有する撮像装置。
An imaging unit;
A feature amount calculation unit that divides a captured image obtained by the imaging unit into a plurality of regions and calculates a ratio and luminance of each color as a feature amount for each region;
It is determined whether or not each of the plurality of regions is a region indicating a specific image based on the feature amount, and the region indicating the specific image is a scene determination region set in advance on the captured image. An image discriminating unit that discriminates from a predetermined imaging scene according to being included;
And an image processing unit that executes image processing according to a scene determination result of the image determination unit.
前記画像判別部は、前記シーン判断領域に対して領域の位置に応じた重み付けおよび/または前記特定の画像を示す領域に対して色のばらつきに応じた重み付けを行ったのち、前記シーン判断領域に含まれる前記特定の画像を示す領域に応じて評価値を算出して、該評価値が予め設定した閾値よりも高いとき前記所定の撮像シーンと判別する
請求項1記載の撮像装置。
The image discriminating unit weights the scene determination area according to the position of the area and / or weights the area indicating the specific image according to color variation, and then applies the weight to the scene determination area. The imaging apparatus according to claim 1, wherein an evaluation value is calculated according to an area indicating the specific image included, and the predetermined imaging scene is determined when the evaluation value is higher than a preset threshold value.
前記特定の画像の領域は空の画像を示す領域であり、
前記画像判別部は、撮影画像の上部に前記シーン判断領域を設定する
請求項2記載の撮像装置。
The area of the specific image is an area indicating an empty image;
The imaging apparatus according to claim 2, wherein the image determination unit sets the scene determination area above the captured image.
前記画像判別部は、前記判断領域に対して前記撮影画像の上部の重み付けを高くする
請求項3記載の撮像装置。
The imaging apparatus according to claim 3, wherein the image determination unit increases the weight of the upper part of the captured image with respect to the determination region.
前記画像判別部は、前記空の画像を示す領域における色の分散が少ない領域の重み付けを高くする
請求項3記載の撮像装置。
The imaging apparatus according to claim 3, wherein the image determination unit increases the weighting of an area where color dispersion is small in an area indicating the sky image.
前記画像判別部は、前記空の画像を示す領域に対して、該領域と隣接する領域の前記空の画像を示す領域であるか否かの判別結果または前記色のばらつきに応じた重み付け結果に基づいた重み付けを行う
請求項3記載の撮像装置。
The image discriminating unit determines whether the area indicating the sky image is an area indicating the sky image in an area adjacent to the area or a weighting result according to the color variation. The imaging device according to claim 3, wherein weighting based on the imaging device is performed.
撮像装置が縦位置か横位置か検出して検出信号を生成する縦横検出部を備え、
前記画像判別部は、前記検出信号に基づいて前記シーン判断領域を設定する
請求項1ないし6記載の撮像装置。
A vertical / horizontal detection unit that detects whether the imaging device is vertical or horizontal and generates a detection signal,
The imaging apparatus according to claim 1, wherein the image determination unit sets the scene determination area based on the detection signal.
前記画像判別部は、前記空の画像を示す各色の比率の範囲を予め定めておき、該範囲に前記比率が含まれ、前記輝度が予め設定されている閾値以上であるとき空の画像を示す領域であると判別する
請求項3記載の撮像装置。
The image determination unit predetermines a ratio range of each color indicating the sky image, and indicates the sky image when the ratio is included in the range and the luminance is equal to or greater than a preset threshold value. The imaging device according to claim 3, wherein the imaging device is determined to be a region.
前記画像判別部は、撮像画像の輝度と被写体までの距離が予め定められている閾値以上であるとき、前記所定の撮像シーンと判別する
請求項3記載の撮像装置。
The imaging apparatus according to claim 3, wherein the image discrimination unit discriminates the predetermined imaging scene when the luminance of the captured image and the distance to the subject are equal to or greater than a predetermined threshold.
前記所定の撮像シーンは、風景を撮像したシーンである
請求項3記載の撮像装置。
The imaging apparatus according to claim 3, wherein the predetermined imaging scene is a scene obtained by imaging a landscape.
撮像画像に対して前記画像処理部で彩度補正を行うときの補正率を設定する補正率設定部を有し、
前記画像処理部は、前記空の画像を示すものと判別された領域の色から前記空の色レベルを算出し、
前記補正率設定部は、前記空の色レベルが高いとき彩度が高くなるように前記補正率を設定する
請求項3記載の撮像装置。
A correction rate setting unit that sets a correction rate when performing saturation correction on the captured image in the image processing unit;
The image processing unit calculates the sky color level from a color of an area determined to represent the sky image;
The imaging apparatus according to claim 3, wherein the correction rate setting unit sets the correction rate so that saturation is high when the sky color level is high.
前記空の色レベルは、前記空の画像を示すものと判別された判別領域の青色レベルの平均値である
請求項11記載の撮像装置。
The image pickup apparatus according to claim 11, wherein the sky color level is an average value of blue levels of a determination area determined to indicate the sky image.
撮像画像を複数の領域に区分して、該領域毎に各色の比率と輝度を特徴量として算出する特徴量算出部と、
前記特徴量に基づいて前記複数の領域毎に特定の画像を示す領域であるか否かの判別を行い、前記特定の画像を示す領域が前記撮像画像上に予め設定されているシーン判断領域に含まれることに応じて所定の画像処理モードと判別する画像判別部と
を有する画像処理装置。
A feature amount calculation unit that divides a captured image into a plurality of regions and calculates a ratio and luminance of each color as a feature amount for each region;
It is determined whether or not each of the plurality of regions is a region indicating a specific image based on the feature amount, and the region indicating the specific image is a scene determination region set in advance on the captured image. An image processing apparatus having an image determination unit that determines a predetermined image processing mode according to being included.
特徴量算出部が、撮像部で得られた撮像画像を複数の領域に区分して、該領域毎に各色の比率と輝度を特徴量として算出するステップと、
画像判別部が、前記特徴量に基づいて前記複数の領域毎に特定の画像を示す領域であるか否かの判別を行い、前記特定の画像を示す領域が前記撮像画像上に予め設定されているシーン判断領域に含まれることに応じて所定の撮像シーンと判別するステップと、
画像処理部が、前記シーン判別結果に応じて前記撮像画像の画像処理を行うステップと
を具備する撮像方法。
A feature amount calculating unit that divides a captured image obtained by the imaging unit into a plurality of regions, and calculates a ratio and luminance of each color as a feature amount for each region;
An image determining unit determines whether or not each of the plurality of regions is a region indicating a specific image based on the feature amount, and the region indicating the specific image is preset on the captured image. Determining a predetermined imaging scene according to being included in a scene determination area,
An imaging method comprising: an image processing unit performing image processing of the captured image in accordance with the scene determination result.
コンピュータを、
撮像画像を複数の領域に区分して、該領域毎に各色の比率と輝度を特徴量として算出する特徴量算出手段と、
前記特徴量に基づいて前記複数の領域毎に特定の画像を示す領域であるか否かの判別を行い、前記特定の画像を示す領域が前記撮像画像上に予め設定されているシーン判断領域に含まれることに応じて所定の撮像シーンと判別する画像判別手段と、
前記画像判別手段のシーン判別結果に応じた画像処理を実行する画像処理手段
として機能させるためのコンピュータ・プログラム。
Computer
A feature amount calculation unit that divides a captured image into a plurality of regions and calculates a ratio and luminance of each color as a feature amount for each region;
It is determined whether or not each of the plurality of regions is a region indicating a specific image based on the feature amount, and the region indicating the specific image is a scene determination region set in advance on the captured image. Image discriminating means for discriminating a predetermined imaging scene according to being included;
A computer program for causing an image processing unit to perform image processing according to a scene determination result of the image determining unit.
JP2008200661A 2008-08-04 2008-08-04 Imaging apparatus, image processing apparatus, imaging method, and program Expired - Fee Related JP5206209B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008200661A JP5206209B2 (en) 2008-08-04 2008-08-04 Imaging apparatus, image processing apparatus, imaging method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008200661A JP5206209B2 (en) 2008-08-04 2008-08-04 Imaging apparatus, image processing apparatus, imaging method, and program

Publications (2)

Publication Number Publication Date
JP2010041288A true JP2010041288A (en) 2010-02-18
JP5206209B2 JP5206209B2 (en) 2013-06-12

Family

ID=42013375

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008200661A Expired - Fee Related JP5206209B2 (en) 2008-08-04 2008-08-04 Imaging apparatus, image processing apparatus, imaging method, and program

Country Status (1)

Country Link
JP (1) JP5206209B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011182147A (en) * 2010-03-01 2011-09-15 Fujitsu Semiconductor Ltd Photographing scene determining device
JP2012049709A (en) * 2010-08-25 2012-03-08 Ricoh Co Ltd Imaging apparatus, empty region determination method, and program
JP2021528784A (en) * 2018-07-03 2021-10-21 影石創新科技股▲ふん▼有限公司Arashi Vision Inc. Sky filter method for panoramic images and mobile terminals

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11326983A (en) * 1998-05-18 1999-11-26 Canon Inc Camera
JP2006023383A (en) * 2004-07-06 2006-01-26 Konica Minolta Photo Imaging Inc Imaging apparatus
JP2006086758A (en) * 2004-09-15 2006-03-30 Nikon Corp Electronic camera
JP2008147978A (en) * 2006-12-08 2008-06-26 Canon Inc Image processor and image processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11326983A (en) * 1998-05-18 1999-11-26 Canon Inc Camera
JP2006023383A (en) * 2004-07-06 2006-01-26 Konica Minolta Photo Imaging Inc Imaging apparatus
JP2006086758A (en) * 2004-09-15 2006-03-30 Nikon Corp Electronic camera
JP2008147978A (en) * 2006-12-08 2008-06-26 Canon Inc Image processor and image processing method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011182147A (en) * 2010-03-01 2011-09-15 Fujitsu Semiconductor Ltd Photographing scene determining device
JP2012049709A (en) * 2010-08-25 2012-03-08 Ricoh Co Ltd Imaging apparatus, empty region determination method, and program
JP2021528784A (en) * 2018-07-03 2021-10-21 影石創新科技股▲ふん▼有限公司Arashi Vision Inc. Sky filter method for panoramic images and mobile terminals
JP7247236B2 (en) 2018-07-03 2023-03-28 影石創新科技股▲ふん▼有限公司 Panoramic image sky filter method and mobile terminal
US11887362B2 (en) 2018-07-03 2024-01-30 Arashi Vision Inc. Sky filter method for panoramic images and portable terminal

Also Published As

Publication number Publication date
JP5206209B2 (en) 2013-06-12

Similar Documents

Publication Publication Date Title
JP4861952B2 (en) Image processing apparatus and imaging apparatus
US20120133797A1 (en) Imaging apparatus, imaging method and computer program
KR101906316B1 (en) Image processing device that performs white balance control, method of controlling the same, and image pickup apparatus
US8472671B2 (en) Tracking apparatus, tracking method, and computer-readable storage medium
KR101155406B1 (en) Image processing apparatus, image processing method and computer readable-medium
US20090153695A1 (en) Camera performing photographing in accordance with photographing mode depending on object scene
US7957633B2 (en) Focus adjusting apparatus and focus adjusting method
KR101548183B1 (en) Image processing apparatus and method for controlling same
JP2008042617A (en) Digital camera
JP2009177271A (en) Imaging apparatus, and control method and program thereof
CN1756309A (en) Image-capturing device, image-processing device, method for controlling image-capturing device, and program for causing computer to execute the method
KR20060112663A (en) Image discriminating method and image processing apparatus
JP2016151955A (en) Image processing apparatus, imaging device, distance measuring device, and image processing method
CN101242494B (en) Digital photographing apparatus and method for controlling the same
JP5206209B2 (en) Imaging apparatus, image processing apparatus, imaging method, and program
JP6410454B2 (en) Image processing apparatus, image processing method, and program
CN107809601A (en) Imaging sensor
JP5956844B2 (en) Image processing apparatus and control method thereof
JP5202375B2 (en) Imaging apparatus, image processing method, and program
JP2006074498A (en) Image processor and imaging apparatus
CN113691794A (en) Image processing apparatus, image processing method, and storage medium
JP2009239772A (en) Imaging device, image processing device, image processing method, and program
JP2008270983A (en) Camera shake correction device and camera shake correction method
JP2014068279A (en) Imaging apparatus
JP5818571B2 (en) Imaging device, control method thereof, and control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110705

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130204

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160301

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5206209

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160301

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees