JP2006333205A - Imaging apparatus, image processing method and image processing program - Google Patents

Imaging apparatus, image processing method and image processing program Download PDF

Info

Publication number
JP2006333205A
JP2006333205A JP2005155578A JP2005155578A JP2006333205A JP 2006333205 A JP2006333205 A JP 2006333205A JP 2005155578 A JP2005155578 A JP 2005155578A JP 2005155578 A JP2005155578 A JP 2005155578A JP 2006333205 A JP2006333205 A JP 2006333205A
Authority
JP
Japan
Prior art keywords
index
class
image
shooting
divided
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005155578A
Other languages
Japanese (ja)
Inventor
Daisuke Sato
大輔 佐藤
Jo Nakajima
丈 中嶋
Hiroaki Takano
博明 高野
Tsukasa Ito
司 伊藤
Motoyuki Yamaguchi
基志 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Photo Imaging Inc
Original Assignee
Konica Minolta Photo Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Photo Imaging Inc filed Critical Konica Minolta Photo Imaging Inc
Priority to JP2005155578A priority Critical patent/JP2006333205A/en
Priority to PCT/JP2006/308276 priority patent/WO2006126347A1/en
Publication of JP2006333205A publication Critical patent/JP2006333205A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3876Recombination of partial images to recreate the original image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/407Control or modification of tonal gradation or of extreme levels, e.g. background level
    • H04N1/4072Control or modification of tonal gradation or of extreme levels, e.g. background level dependent on the contents of the original
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To obtain desirable photographed image data on the basis of a calculated index by calculating the index representing a photographing scene from divided photometric data with high accuracy. <P>SOLUTION: A processor 31 of this imaging apparatus 1 is provided with a whole image acquisition part 101 for acquiring the whole image obtained by preliminary photographing as a divided image composed of a plurality of divided areas; a color information acquisition part 102 for acquiring color information about each divided area of the whole image; an occupancy ratio calculating part 103 for dividing each divided area into prescribed classes constituted of a combination of lightness and hue on the basis of the acquired color information and calculating a first occupancy ratio showing a ratio at which a divided area belonging to each divided class occupies the whole image for the divided class; and an index calculating part 104 for calculating a first index and a second index for specifying a photographic scene by multiplying the first occupancy ratio by two types of different coefficients preset in accordance with a photographing condition. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、撮像装置、画像処理方法及び画像処理プログラムに関する。   The present invention relates to an imaging apparatus, an image processing method, and an image processing program.

近年、デジタルカメラ(携帯電話やラップトップパソコン等の機器に組み込まれたものも含む。)による撮影で得られた撮影画像データを、パーソナルコンピュータ等を介さずに、直接インクジェットプリンタ等に伝送して出力を行う、PictBridgeと称する規格(CIPA DC-001)が提案されている。しかしながら、一般のデジタルカメラでの撮影で得られた撮影画像データが、逆光画像やアンダー画像等の好ましくない画像データである場合、そのままプリント出力を行っても、好ましいプリントを得ることはできない。そのため、デジタルカメラ内において適切な露出制御や階調補正を行うことが切望されている。そのため、デジタルカメラ内で、分割された測光データを用いて撮影シーンの状況を判別し、その判別結果に基づいて露出レベルの調節や階調変換特性を変更し、適切な画像データを得る方法が提案されている。   In recent years, photographed image data obtained by photographing with a digital camera (including those incorporated in devices such as mobile phones and laptop computers) is directly transmitted to an inkjet printer or the like without using a personal computer or the like. A standard (CIPA DC-001) called PictBridge that performs output has been proposed. However, when the captured image data obtained by photographing with a general digital camera is unfavorable image data such as a backlight image or an under image, a favorable print cannot be obtained even if the print output is performed as it is. Therefore, it is desired to perform appropriate exposure control and gradation correction in the digital camera. For this reason, there is a method in which the situation of the shooting scene is determined using the divided photometric data in the digital camera, and the exposure level is adjusted and the gradation conversion characteristics are changed based on the determination result to obtain appropriate image data. Proposed.

例えば、特許文献1に記載された方法では、測光手段により得られた分割領域毎の輝度情報を行方向および列方向のうち少なくとも一方に平均化した複数の平均輝度情報を得て、撮影範囲内の明るさ変化の傾向を算出することで逆光判別を行い、撮影範囲内の平均輝度値の傾きから露出補正量を算出している。また、特許文献2に記載される方法では、分割測光結果から、画面内コントラストの強弱や輝度分布状態などの被写体情報を得て、この被写体情報から画像データの階調変換特性を適正化している。
特開2002−296635号公報 特開2001−54014号公報
For example, in the method described in Patent Document 1, a plurality of average luminance information obtained by averaging the luminance information for each divided region obtained by the photometric means in at least one of the row direction and the column direction is obtained, Backlight discrimination is performed by calculating the brightness change tendency, and the exposure correction amount is calculated from the slope of the average luminance value within the shooting range. Further, in the method described in Patent Document 2, subject information such as in-screen contrast strength and luminance distribution state is obtained from the divided photometry results, and tone conversion characteristics of image data are optimized from the subject information. .
JP 2002-296635 A JP 2001-54014 A

しかしながら、特許文献1に記載された方法では、典型的な逆光撮影の場合には正しく逆光判別することができるが、輝度情報のみを用いているため、典型的な構図に当てはまらないと正しく撮影シーンを判別できないという問題があった。また、特許文献1では、平均輝度値の傾きから露出補正量を算出しているが、必ずしも主要被写体の明るさを考慮しているものではなく、撮影シーンを定量的に表したものではないという問題があった。また、特許文献2に記載された方法では、コントラストの強弱によって階調変換特性を変更しているが、撮影シーンを高精度に判別できないため、撮影シーンに応じて適切な階調を選択できないという問題があった。   However, in the method described in Patent Document 1, it is possible to correctly determine backlight in the case of typical backlight shooting, but since only luminance information is used, the shooting scene is correctly corrected unless the typical composition is applied. There was a problem that could not be determined. In Patent Document 1, the exposure correction amount is calculated from the slope of the average luminance value, but it does not necessarily take into account the brightness of the main subject, and does not quantitatively represent the shooting scene. There was a problem. Further, in the method described in Patent Document 2, the tone conversion characteristics are changed depending on the contrast strength. However, since the shooting scene cannot be determined with high accuracy, an appropriate tone cannot be selected according to the shooting scene. There was a problem.

本発明の課題は、分割された測光データから高精度に撮影シーンを表す指標を算出し、その算出された指標に基づいて好ましい撮影画像データを得ることである。   An object of the present invention is to calculate an index representing a shooting scene with high accuracy from divided photometric data, and to obtain preferable captured image data based on the calculated index.

上記課題を解決するため、請求項1に記載の発明は、予備撮影によって得られる全体画像を複数の分割領域からなる分割画像として取得する取得手段と、
前記全体画像の各分割領域について、色情報を取得する色情報取得手段と、
前記色情報取得手段により取得された色情報に基づいて、前記各分割領域を、明度と色相の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第1占有率を算出する占有率算出手段と、
前記第1の占有率に、撮影条件に応じて予め設定された2種類の異なる係数を乗算することにより、撮影シーンを特定するための第1の指標(指標1)及び第2の指標(指標2)を算出する指標算出手段と、を備える。
In order to solve the above-described problem, the invention according to claim 1 is an acquisition unit that acquires an entire image obtained by preliminary shooting as a divided image composed of a plurality of divided regions;
Color information acquisition means for acquiring color information for each divided region of the entire image;
Based on the color information acquired by the color information acquisition means, each of the divided areas is classified into a predetermined class composed of a combination of lightness and hue, and for each classified class, the divided areas belonging to the class are An occupancy ratio calculating means for calculating a first occupancy ratio indicating a ratio of the entire image;
A first index (index 1) and a second index (index) for specifying a shooting scene are obtained by multiplying the first occupation ratio by two different coefficients set in advance according to shooting conditions. And an index calculating means for calculating 2).

請求項2に記載の発明は、予備撮影によって得られる全体画像を複数の分割領域からなる分割画像として取得する取得手段と、
前記全体画像の各分割領域について、色情報を取得する色情報取得手段と、
前記色情報取得手段により取得された色情報に基づいて、前記各分割領域を、明度と色相の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第1の占有率を算出するとともに、前記各分割領域を、前記全体画像の画面の外縁からの距離と明度の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第2の占有率を算出する占有率算出手段と、
前記第1の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第1の指標(指標1、指標2)を算出するとともに、前記第2の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第2の指標(指標3)を算出する指標算出手段と、を備えることを特徴としている。
The invention according to claim 2 is an acquisition means for acquiring the whole image obtained by the preliminary photographing as a divided image composed of a plurality of divided regions;
Color information acquisition means for acquiring color information for each divided region of the entire image;
Based on the color information acquired by the color information acquisition means, each of the divided areas is classified into a predetermined class composed of a combination of lightness and hue, and for each classified class, the divided areas belonging to the class are A first occupancy ratio indicating a ratio of the entire image is calculated, and each of the divided regions is classified into a predetermined class composed of a combination of a distance from the outer edge of the screen of the entire image and brightness, and the classified class An occupancy ratio calculating means for calculating a second occupancy ratio indicating the ratio of the divided area belonging to the class to the entire image for each time;
The first occupancy is multiplied by a coefficient set in advance according to shooting conditions to calculate a first index (index 1, index 2) for specifying a shooting scene, and the second And an index calculation means for calculating a second index (index 3) for specifying the shooting scene by multiplying the occupation rate of the image by a coefficient set in advance according to the shooting conditions. Yes.

請求項3に記載の発明は、請求項1又は2に記載の撮像装置において、前記全体画像の画面中央部における肌色の平均輝度値と、前記全体画像の最大輝度値と平均輝度値との差分値のそれぞれに、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第3の指標(指標4)を算出する第3指標算出手段を備えることを特徴としている。   A third aspect of the present invention is the imaging apparatus according to the first or second aspect, wherein the difference between the average luminance value of the skin color at the center of the screen of the whole image and the maximum luminance value and the average luminance value of the whole image. It is characterized by comprising third index calculating means for calculating a third index (index 4) for specifying a shooting scene by multiplying each value by a coefficient set in advance according to the shooting conditions. Yes.

請求項4に記載の発明は、請求項1〜3の何れか一項に記載の撮像装置において、前記算出された各指標のうち、少なくとも前記第1の指標及び前記第2の指標に基づいて露出レベルの調節を行い、当該調節された露出レベルで本撮影を行う撮影制御手段を備えることを特徴としている。   According to a fourth aspect of the present invention, in the imaging apparatus according to any one of the first to third aspects, based on at least the first index and the second index among the calculated indices. It is characterized by comprising a photographing control means for adjusting the exposure level and performing actual photographing at the adjusted exposure level.

請求項5に記載の発明は、請求項1〜4の何れか一項に記載の撮像装置において、前記算出された各指標のうち、少なくとも前記第1の指標及び前記第2の指標に基づいて、本撮影で得られる撮影画像データに対する階調調整方法を決定する階調調整決定手段を備えることを特徴としている。   According to a fifth aspect of the present invention, in the imaging device according to any one of the first to fourth aspects, based on at least the first index and the second index among the calculated indices. Further, the image processing apparatus is characterized by comprising gradation adjustment determining means for determining a gradation adjustment method for photographed image data obtained by actual photographing.

請求項6に記載の発明は、請求項1〜5の何れか一項に記載の撮像装置において、前記算出された各指標のうち、少なくとも前記第1の指標及び前記第2の指標に基づいて、前記全体画像の撮影シーンを判別する判別手段を備えることを特徴としている。   According to a sixth aspect of the present invention, in the imaging apparatus according to any one of the first to fifth aspects, based on at least the first index and the second index among the calculated indices. And a discriminating means for discriminating a photographing scene of the whole image.

請求項7に記載の発明は、請求項1〜6の何れか一項に記載の撮像装置において、前記所定の階級は、最も低明度の階級における明度の範囲よりも、最も高明度の階級における明度の範囲の方が広いことを特徴としている。   According to a seventh aspect of the present invention, in the imaging apparatus according to any one of the first to sixth aspects, the predetermined class is in the highest lightness class than the lightness range in the lowest lightness class. It is characterized by a wider range of brightness.

請求項8に記載の発明は、請求項7に記載の撮像装置において、前記所定の階級は、最大の明度値の1割の値以内に、少なくとも3つの階級を有することを特徴としている。   According to an eighth aspect of the present invention, in the imaging apparatus according to the seventh aspect, the predetermined class has at least three classes within 10% of the maximum brightness value.

請求項9に記載の発明は、予備撮影によって得られる全体画像を複数の分割領域からなる分割画像として取得する取得工程と、
前記全体画像の各分割領域について、色情報を取得する色情報取得工程と、
前記色情報取得工程により取得された色情報に基づいて、前記各分割領域を、明度と色相の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第1占有率を算出する占有率算出工程と、
前記第1の占有率に、撮影条件に応じて予め設定された2種類の異なる係数を乗算することにより、撮影シーンを特定するための第1の指標(指標1)及び第2の指標(指標2)を算出する指標算出工程と、を含むことを特徴としている。
The invention according to claim 9 is an acquisition step of acquiring the whole image obtained by the preliminary shooting as a divided image composed of a plurality of divided regions;
For each divided region of the entire image, a color information acquisition step for acquiring color information;
Based on the color information acquired by the color information acquisition step, the divided areas are classified into predetermined classes composed of combinations of brightness and hue, and for each classified class, the divided areas belonging to the class are An occupancy ratio calculating step of calculating a first occupancy ratio indicating the ratio of the entire image;
A first index (index 1) and a second index (index) for specifying a shooting scene are obtained by multiplying the first occupation ratio by two different coefficients set in advance according to shooting conditions. And 2) an index calculation step for calculating (2).

請求項10に記載の発明は、予備撮影によって得られる全体画像を複数の分割領域からなる分割画像として取得する取得工程と、
前記全体画像の各分割領域について、色情報を取得する色情報取得工程と、
前記色情報取得工程により取得された色情報に基づいて、前記各分割領域を、明度と色相の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第1の占有率を算出するとともに、前記各分割領域を、前記全体画像の画面の外縁からの距離と明度の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第2の占有率を算出する占有率算出工程と、
前記第1の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第1の指標(指標1、指標2)を算出するとともに、前記第2の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第2の指標(指標3)を算出する指標算出工程と、を含むことを特徴としている。
The invention according to claim 10 is an acquisition step of acquiring an entire image obtained by preliminary shooting as a divided image composed of a plurality of divided regions;
For each divided region of the entire image, a color information acquisition step for acquiring color information;
Based on the color information acquired by the color information acquisition step, the divided areas are classified into predetermined classes composed of combinations of brightness and hue, and for each classified class, the divided areas belonging to the class are A first occupancy ratio indicating a ratio of the entire image is calculated, and each of the divided regions is classified into a predetermined class composed of a combination of a distance from the outer edge of the screen of the entire image and brightness, and the classified class An occupancy ratio calculating step for calculating a second occupancy ratio indicating the ratio of the divided area belonging to the class to the entire image for each time;
The first occupancy is multiplied by a coefficient set in advance according to shooting conditions to calculate a first index (index 1, index 2) for specifying a shooting scene, and the second And an index calculation step of calculating a second index (index 3) for specifying the shooting scene by multiplying the occupation rate of the image by a coefficient set in advance according to the shooting conditions. Yes.

請求項11に記載の発明は、請求項9又は10に記載の画像処理方法において、前記全体画像の画面中央部における肌色の平均輝度値と、前記全体画像の最大輝度値と平均輝度値との差分値のそれぞれに、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第3の指標(指標4)を算出する第3指標算出工程を含むことを特徴としている。   The invention according to claim 11 is the image processing method according to claim 9 or 10, wherein the average luminance value of the skin color at the center of the screen of the whole image, and the maximum luminance value and the average luminance value of the whole image. A third index calculating step of calculating a third index (index 4) for specifying a shooting scene by multiplying each of the difference values by a coefficient set in advance according to the shooting conditions; It is said.

請求項12に記載の発明は、請求項9〜11の何れか一項に記載の画像処理方法において、前記算出された各指標のうち、少なくとも前記第1の指標及び前記第2の指標に基づいて露出レベルの調節を行い、当該調節された露出レベルで本撮影を行う撮影制御工程を含むことを特徴としている。   The invention according to claim 12 is the image processing method according to any one of claims 9 to 11, based on at least the first index and the second index among the calculated indices. A shooting control step of adjusting the exposure level and performing actual shooting at the adjusted exposure level.

請求項13に記載の発明は、請求項9〜12の何れか一項に記載の画像処理方法において、前記算出された各指標のうち、少なくとも前記第1の指標及び前記第2の指標に基づいて、本撮影で得られる撮影画像データに対する階調調整方法を決定する階調調整決定工程を含むことを特徴としている。   The invention according to claim 13 is the image processing method according to any one of claims 9 to 12, based on at least the first index and the second index among the calculated indices. And a gradation adjustment determining step for determining a gradation adjustment method for the captured image data obtained by the actual photographing.

請求項14に記載の発明は、請求項9〜13の何れか一項に記載の画像処理方法において、前記算出された各指標のうち、少なくとも前記第1の指標及び前記第2の指標に基づいて、前記全体画像の撮影シーンを判別する判別工程を含むことを特徴としている。   The invention according to claim 14 is the image processing method according to any one of claims 9 to 13, based on at least the first index and the second index among the calculated indices. And a discriminating step for discriminating a photographing scene of the whole image.

請求項15に記載の発明は、請求項9〜14の何れか一項に記載の画像処理方法において、前記所定の階級は、最も低明度の階級における明度の範囲よりも、最も高明度の階級における明度の範囲の方が広いことを特徴としている。   The invention according to claim 15 is the image processing method according to any one of claims 9 to 14, wherein the predetermined class is a class having the highest brightness than a range of brightness in the class having the lowest brightness. It is characterized by a wider range of brightness.

請求項16に記載の発明は、請求項15に記載の画像処理方法において、前記所定の階級は、最大の明度値の1割の値以内に、少なくとも3つの階級を有することを特徴としている。   According to a sixteenth aspect of the present invention, in the image processing method according to the fifteenth aspect, the predetermined class has at least three classes within 10% of the maximum brightness value.

請求項17に記載の発明は、画像処理を実行するためのコンピュータに、
予備撮影によって得られる全体画像を複数の分割領域からなる分割画像として取得する取得機能と、
前記全体画像の各分割領域について、色情報を取得する色情報取得機能と、
前記色情報取得機能により取得された色情報に基づいて、前記各分割領域を、明度と色相の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第1占有率を算出する占有率算出機能と、
前記第1の占有率に、撮影条件に応じて予め設定された2種類の異なる係数を乗算することにより、撮影シーンを特定するための第1の指標(指標1)及び第2の指標(指標2)を算出する指標算出機能と、を実現させるための画像処理プログラムである。
The invention according to claim 17 is a computer for executing image processing.
An acquisition function for acquiring an entire image obtained by preliminary shooting as a divided image composed of a plurality of divided areas;
For each divided area of the entire image, a color information acquisition function for acquiring color information;
Based on the color information acquired by the color information acquisition function, each of the divided areas is classified into a predetermined class consisting of a combination of lightness and hue, and for each classified class, the divided areas belonging to the class are An occupancy ratio calculation function for calculating a first occupancy ratio indicating the ratio of the entire image;
A first index (index 1) and a second index (index) for specifying a shooting scene are obtained by multiplying the first occupation ratio by two different coefficients set in advance according to shooting conditions. 2 is an image processing program for realizing an index calculation function for calculating 2).

請求項18に記載の発明は、画像処理を実行するためのコンピュータに、
予備撮影によって得られる全体画像を複数の分割領域からなる分割画像として取得する取得機能と、
前記全体画像の各分割領域について、色情報を取得する色情報取得機能と、
前記色情報取得機能により取得された色情報に基づいて、前記各分割領域を、明度と色相の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第1の占有率を算出するとともに、前記各分割領域を、前記全体画像の画面の外縁からの距離と明度の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第2の占有率を算出する占有率算出機能と、
前記第1の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第1の指標(指標1、指標2)を算出するとともに、前記第2の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第2の指標(指標3)を算出する指標算出機能と、を実現させるための画像処理プログラムである。
The invention according to claim 18 is a computer for executing image processing.
An acquisition function for acquiring an entire image obtained by preliminary shooting as a divided image composed of a plurality of divided areas;
For each divided area of the entire image, a color information acquisition function for acquiring color information;
Based on the color information acquired by the color information acquisition function, each of the divided areas is classified into a predetermined class consisting of a combination of lightness and hue, and for each classified class, the divided areas belonging to the class are A first occupancy ratio indicating a ratio of the entire image is calculated, and each of the divided regions is classified into a predetermined class composed of a combination of a distance from the outer edge of the screen of the entire image and brightness, and the classified class An occupancy ratio calculation function for calculating a second occupancy ratio indicating the ratio of the divided area belonging to the class to the entire image for each time;
The first occupancy is multiplied by a coefficient set in advance according to shooting conditions to calculate a first index (index 1, index 2) for specifying a shooting scene, and the second An image for realizing an index calculation function for calculating a second index (index 3) for specifying a shooting scene by multiplying the occupation rate of the image by a coefficient set in advance according to shooting conditions It is a processing program.

請求項19に記載の発明は、請求項17又は18に記載の画像処理プログラムにおいて、前記全体画像の画面中央部における肌色の平均輝度値と、前記全体画像の最大輝度値と平均輝度値との差分値のそれぞれに、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第3の指標(指標4)を算出する第3指標算出機能を有することを特徴としている。   The invention according to claim 19 is the image processing program according to claim 17 or 18, wherein an average luminance value of a skin color in a central portion of the screen of the whole image, a maximum luminance value and an average luminance value of the whole image are obtained. It has a third index calculation function for calculating a third index (index 4) for specifying a shooting scene by multiplying each difference value by a coefficient set in advance according to shooting conditions. It is said.

請求項20に記載の発明は、請求項17〜19の何れか一項に記載の画像処理プログラムにおいて、前記算出された各指標のうち、少なくとも前記第1の指標及び前記第2の指標に基づいて露出レベルの調節を行い、当該調節された露出レベルで本撮影を行う撮影制御機能を有することを特徴としている。   The invention according to claim 20 is the image processing program according to any one of claims 17 to 19, based on at least the first index and the second index among the calculated indices. It is characterized by having a shooting control function for adjusting the exposure level and performing actual shooting at the adjusted exposure level.

請求項21に記載の発明は、請求項17〜20の何れか一項に記載の画像処理プログラムにおいて、前記算出された各指標のうち、少なくとも前記第1の指標及び前記第2の指標に基づいて、本撮影で得られる撮影画像データに対する階調調整方法を決定する階調調整決定機能を有することを特徴としている。   The invention according to claim 21 is the image processing program according to any one of claims 17 to 20, based on at least the first index and the second index among the calculated indices. Thus, it has a gradation adjustment determination function for determining a gradation adjustment method for photographed image data obtained by actual photographing.

請求項22に記載の発明は、請求項17〜21の何れか一項に記載の画像処理プログラムにおいて、前記算出された各指標のうち、少なくとも前記第1の指標及び前記第2の指標に基づいて、前記全体画像の撮影シーンを判別する判別機能を有することを特徴としている。   According to a twenty-second aspect of the present invention, in the image processing program according to any one of the seventeenth to twenty-first aspects, based on at least the first index and the second index among the calculated indices. And having a discrimination function for discriminating the shooting scene of the whole image.

請求項23に記載の発明は、請求項17〜22の何れか一項に記載の画像処理プログラムにおいて、前記所定の階級は、最も低明度の階級における明度の範囲よりも、最も高明度の階級における明度の範囲の方が広いことを特徴としている。   The invention according to claim 23 is the image processing program according to any one of claims 17 to 22, wherein the predetermined class is a class having the highest brightness than the range of brightness in the class having the lowest brightness. It is characterized by a wider range of brightness.

請求項24に記載の発明は、請求項23に記載の画像処理プログラムにおいて、前記所定の階級は、最大の明度値の1割の値以内に、少なくとも3つの階級を有することを特徴としている。   According to a twenty-fourth aspect of the present invention, in the image processing program according to the twenty-third aspect, the predetermined class has at least three classes within 10% of the maximum brightness value.

請求項1〜3,9〜11,17〜19に記載の発明によれば、予備撮影によって得られる全体画像から撮影シーンを高精度に表す指標を算出することができる。   According to the invention described in claims 1 to 3, 9 to 11, and 17 to 19, it is possible to calculate an index that represents a shooting scene with high accuracy from an entire image obtained by preliminary shooting.

請求項4,12,20に記載の発明によれば、撮影シーンを高精度に表す指標を用いているため、本撮影のための露出の調整を的確に行うことができる。   According to the fourth, twelfth, and twentieth aspects of the present invention, since the index that represents the shooting scene with high accuracy is used, the exposure for the main shooting can be adjusted accurately.

請求項5,13,21に記載の発明によれば、撮影シーンを高精度に表す指標を用いているため、本撮影によって得られた撮影画像データに対する階調調整方法を的確に決定することができる。   According to the inventions of the fifth, thirteenth and twenty-first aspects, since the index representing the shooting scene with high accuracy is used, the gradation adjustment method for the shot image data obtained by the main shooting can be accurately determined. it can.

請求項6,14,22に記載の発明によれば、予備撮影によって得られる全体画像から撮影シーンを高精度に判別することができる。   According to the invention described in claims 6, 14, and 22, it is possible to discriminate the shooting scene with high accuracy from the whole image obtained by the preliminary shooting.

請求項7,8,15,16、23,24に記載の発明によれば、リニアな画像データであっても低明度側の階級の分離がよくなり、高精度に撮影シーンを判別できる。   According to the seventh, eighth, fifteenth, sixteenth, twenty-third, and twenty-fourth aspects of the present invention, even in the case of linear image data, the separation of the lower lightness class is improved, and the photographic scene can be determined with high accuracy.

以下、図面を参照して、本発明の実施形態を説明する。
まず、本実施形態における構成について説明する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
First, the configuration in the present embodiment will be described.

図1(a)に、本発明の実施形態に係る撮像装置1の前面図を示し、図1(b)に、撮像装置1の背面図を示す。撮像装置1は、例えば、デジタルカメラであり、金属又は合成樹脂等の材料で構成された筐体21の内部又は表面に、十字キー22、撮影光学系23、フラッシュ24、ファインダ25、電源スイッチ26、表示部27、レリーズボタン28が設けられている。   FIG. 1A shows a front view of the imaging apparatus 1 according to the embodiment of the present invention, and FIG. 1B shows a rear view of the imaging apparatus 1. The imaging device 1 is, for example, a digital camera, and has a cross key 22, a photographing optical system 23, a flash 24, a viewfinder 25, and a power switch 26 on or inside a housing 21 made of a material such as metal or synthetic resin. A display unit 27 and a release button 28 are provided.

図2に、撮像装置1の内部構成を示す。撮像装置1は、図2に示すように、プロセッサ31、メモリ32、CCD(Charge Coupled Device)等の撮像素子33、シャッタユニット34、絞りユニット35、表示部27により構成される。   FIG. 2 shows an internal configuration of the imaging apparatus 1. As shown in FIG. 2, the imaging apparatus 1 includes a processor 31, a memory 32, an imaging element 33 such as a CCD (Charge Coupled Device), a shutter unit 34, an aperture unit 35, and a display unit 27.

十字キー22は、上下左右の4方向のボタンからなり、ユーザが種々のモードを選択又は設定するためのものである。   The cross key 22 is made up of buttons in four directions, up, down, left, and right, and is for the user to select or set various modes.

撮影光学系23は、複数のレンズ、鏡胴等によって構成され、ズーム機能を有している。撮影光学系23は、レンズが受光した光を撮像素子33に結像させる。フラッシュ24は、被写体輝度が低い時に、プロセッサ31からの制御信号により補助光を照射する。   The photographing optical system 23 includes a plurality of lenses, a lens barrel, and the like, and has a zoom function. The photographing optical system 23 causes the light received by the lens to form an image on the image sensor 33. The flash 24 emits auxiliary light by a control signal from the processor 31 when the subject brightness is low.

ファインダ25は、ユーザが接眼して撮影対象及び撮影領域を確認するためのものである。電源スイッチ26は、撮像装置1における動作のON/OFFを操作するためのスイッチである。   The viewfinder 25 is used for the user to check the shooting target and shooting area by eye contact. The power switch 26 is a switch for operating ON / OFF of the operation in the imaging apparatus 1.

表示部27は、液晶パネルにより構成され、プロセッサ31から入力される表示制御信号に従って、撮像素子33に現在写っている画像、過去に撮影した画像、メニュー画面、設定画面等を表示する。   The display unit 27 includes a liquid crystal panel, and displays an image currently captured on the image sensor 33, an image captured in the past, a menu screen, a setting screen, and the like according to a display control signal input from the processor 31.

レリーズボタン28は、筐体21の上面に設けられており、ユーザによる半押し状態(予備撮影)と全押し状態(本撮影)とを区別して検出可能な2段階押し込みスイッチである。   The release button 28 is a two-stage push-in switch that is provided on the upper surface of the housing 21 and can detect a half-pressed state (preliminary shooting) and a fully-pressed state (main shooting) by the user.

図3に、プロセッサ31の内部構成を示す。プロセッサ31は、撮像装置1の各部の動作を制御するものであり、図3に示すように、全体画像取得部101、色情報取得部102、占有率算出部103、指標算出部104、撮影シーン判別部105、撮影制御部106、階調調整決定部107により構成される。   FIG. 3 shows the internal configuration of the processor 31. The processor 31 controls the operation of each unit of the imaging apparatus 1, and as shown in FIG. 3, the whole image acquisition unit 101, the color information acquisition unit 102, the occupation rate calculation unit 103, the index calculation unit 104, the shooting scene The determination unit 105, the imaging control unit 106, and the gradation adjustment determination unit 107 are configured.

全体画像取得部101は、レリーズボタン28が半押しされたタイミングで、撮像素子33に写った最新の全体画像(予備撮影によって得られる全体画像)の画像データを取得する。そして、その全体画像を、N×M個の矩形の領域(垂直方向にM個および水平方向にN個に等分された領域)に分割する。図4(a)に、全体画像の一例を示し、図4(b)に、当該全体画像が11×7個の領域に分割された例を示す。なお、分割領域の数は特に限定されない。本実施形態では、分割によって得られた各領域を「セル」と呼ぶことにする。   The entire image acquisition unit 101 acquires image data of the latest entire image (entire image obtained by preliminary shooting) captured on the image sensor 33 at the timing when the release button 28 is half-pressed. Then, the entire image is divided into N × M rectangular regions (regions equally divided into M pieces in the vertical direction and N pieces in the horizontal direction). FIG. 4A shows an example of the entire image, and FIG. 4B shows an example in which the entire image is divided into 11 × 7 areas. The number of divided areas is not particularly limited. In the present embodiment, each region obtained by the division is referred to as a “cell”.

色情報取得部102は、各セルの色情報を取得する。色情報取得部102による色情報の取得方法については、後に図7及び図8を参照して詳細に説明する。   The color information acquisition unit 102 acquires color information of each cell. A method of acquiring color information by the color information acquisition unit 102 will be described in detail later with reference to FIGS.

占有率算出部103は、色情報取得部102で取得された色情報に基づいて、全体画像の各セルを、明度と色相の組み合わせからなる所定の階級に分類し(図10参照)、分類された階級毎に、当該階級に属するセルが全体画像に占める割合を示す第1の占有率を算出する。また、占有率算出部103は、各セルを、全体画像の画面の外縁からの距離と明度の組み合わせからなる所定の階級に分類し(図11参照)、分類された階級毎に、当該階級に属するセルが全体画像に占める割合を示す第2の占有率を算出する。占有率算出部103において実行される占有率算出処理については、後に図9を参照して詳細に説明する。   Based on the color information acquired by the color information acquisition unit 102, the occupancy rate calculation unit 103 classifies each cell of the entire image into a predetermined class consisting of a combination of brightness and hue (see FIG. 10) and is classified. For each class, a first occupation ratio indicating a ratio of cells belonging to the class to the entire image is calculated. Further, the occupancy rate calculation unit 103 classifies each cell into a predetermined class composed of a combination of the distance from the outer edge of the screen of the entire image and the brightness (see FIG. 11), and assigns each cell to the class. A second occupancy ratio indicating the ratio of the cell to which the cell belongs to the entire image is calculated. The occupation rate calculation process executed in the occupation rate calculation unit 103 will be described in detail later with reference to FIG.

指標算出部104は、占有率算出部103で算出された第1の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第1の指標(指標1、指標2)を算出する。また、指標算出部104は、占有率算出部103で算出された第2の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第2の指標(指標3)を算出する。更に、指標算出部104は、全体画像の画面中央部における平均輝度値と、最大輝度値と平均輝度値との差分値のそれぞれに、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第3の指標(指標4)を算出する。   The index calculation unit 104 multiplies the first occupancy calculated by the occupancy calculation unit 103 by a coefficient set in advance according to the shooting conditions, thereby specifying a first index ( Index 1 and index 2) are calculated. In addition, the index calculation unit 104 multiplies the second occupancy calculated by the occupancy rate calculation unit 103 by a coefficient set in advance according to the shooting conditions, thereby specifying a second photographic scene. An index (index 3) is calculated. Further, the index calculation unit 104 multiplies the average luminance value in the central portion of the entire image and the difference value between the maximum luminance value and the average luminance value by a coefficient set in advance according to the shooting conditions. Then, a third index (index 4) for specifying the shooting scene is calculated.

また、指標算出部104は、全体画像の画面中央部における肌色領域の平均輝度値(指標4’)と、指標1及び指標3に、それぞれ、撮影条件に応じて予め設定された係数を乗算して和をとることにより、新たな指標5を算出する。また、指標算出部104は、当該平均輝度値と、指標2及び指標3に、それぞれ、撮影条件に応じて予め設定された係数を乗算して和をとることにより、新たな指標6を算出する。指標算出部104において実行される指標算出処理については、後に図12を参照して詳細に説明する。   In addition, the index calculation unit 104 multiplies the average luminance value (index 4 ′) of the skin color area in the center of the entire image screen by the coefficients set in advance according to the shooting conditions. Then, a new index 5 is calculated by calculating the sum. Further, the index calculation unit 104 calculates a new index 6 by multiplying the average luminance value, the index 2 and the index 3 by a coefficient set in advance according to the shooting conditions, and taking the sum. . The index calculation process executed in the index calculation unit 104 will be described in detail later with reference to FIG.

撮影シーン判別部105は、指標算出部104で算出された各指標に基づいて、予備撮影で得られた全体画像の撮影シーンを判別する。ここで、撮影シーンとは、順光、逆光、近接フラッシュ等の被写体を撮影する時の光源条件を示しており、主要被写体(主に人物のことを指すが、これに限るものではない。)のオーバー度、アンダー度などもこれに含まれる。撮影シーン判別の方法については、後に詳細に説明する。   The shooting scene determination unit 105 determines the shooting scene of the entire image obtained by the preliminary shooting based on each index calculated by the index calculation unit 104. Here, the shooting scene indicates a light source condition when shooting a subject such as a follow light, a backlight, a proximity flash, and the like, and is a main subject (mainly a person, but is not limited thereto). This includes the over and under degrees. The method for determining the shooting scene will be described later in detail.

撮影制御部106は、指標算出部104で算出された各指標(指標4〜6)と、撮影シーン判別部105における判別結果に基づいて、本撮影のために必要な露出レベルの調節を行う(図18参照)。   The shooting control unit 106 adjusts the exposure level necessary for the actual shooting based on each index (indexes 4 to 6) calculated by the index calculation unit 104 and the determination result in the shooting scene determination unit 105 ( FIG. 18).

階調調整決定部107は、撮影シーン判別部105で判別された撮影シーンに基づいて、本撮影で得られた撮影画像データに対する階調調整方法(図20参照)を決定する。また、階調調整決定部107は、指標算出部104で算出された各指標に基づいて、本撮影で得られた撮影画像データに対する階調調整のための階調調整量を決定する。階調調整量の決定方法については、後に詳細に説明する。   The gradation adjustment determination unit 107 determines a gradation adjustment method (see FIG. 20) for the captured image data obtained by the actual shooting based on the shooting scene determined by the shooting scene determination unit 105. In addition, the gradation adjustment determination unit 107 determines a gradation adjustment amount for gradation adjustment with respect to the captured image data obtained by the actual photographing based on each index calculated by the index calculation unit 104. A method for determining the gradation adjustment amount will be described in detail later.

プロセッサ31における各部の処理は、基本的にハードウェア処理によって行われるが、一部についてはメモリ32に記憶(保存)されているプログラムを実行するなどしてソフトウェア処理によって行われる。   The processing of each unit in the processor 31 is basically performed by hardware processing, but a part thereof is performed by software processing such as executing a program stored (saved) in the memory 32.

図2に戻り、メモリ32は、撮影によって得られた画像データを記憶(保存)する。また、メモリ32は、撮像装置1において実行される各種処理プログラム及び当該処理プログラムで利用されるデータ等を記憶する。   Returning to FIG. 2, the memory 32 stores (saves) image data obtained by photographing. In addition, the memory 32 stores various processing programs executed in the imaging apparatus 1, data used in the processing programs, and the like.

撮像素子33は、結像された光を電荷に変換する。これにより、例えば、図4(a)に示すような画像データが得られる。この画像には、撮像範囲(撮影範囲)にある物、即ち、撮影対象物(撮影の目標物)とそれ以外の物(背景)とが含まれている。以下、このような撮影範囲全体の画像を「全体画像」と記載する。この全体画像の各画素のRGB値は、例えば、256階調で表される。   The image sensor 33 converts the imaged light into electric charges. Thereby, for example, image data as shown in FIG. 4A is obtained. This image includes an object in the imaging range (imaging range), that is, an imaging object (imaging target) and other objects (background). Hereinafter, such an image of the entire photographing range is referred to as an “entire image”. The RGB value of each pixel of the entire image is represented by, for example, 256 gradations.

シャッタユニット34は、レリーズボタン28によって検出された状態(半押し状態又は全押し状態)に基づいて撮像素子33をリセットするタイミングおよび電荷変換を行うタイミングなどを制御する。撮像素子33が受光する光量の調節は、絞りユニット35及び/又はシャッタユニット34によって行われる。   The shutter unit 34 controls the timing of resetting the image sensor 33 and the timing of charge conversion based on the state (half-pressed state or fully-pressed state) detected by the release button 28. Adjustment of the amount of light received by the image sensor 33 is performed by the aperture unit 35 and / or the shutter unit 34.

次に、本実施形態における動作について説明する。
以下では、撮影対象物を「主要被写体」と呼ぶことにする。
まず、図5のフローチャートを参照して、撮像装置1で実行される処理の全体の流れを説明する。
Next, the operation in this embodiment will be described.
Hereinafter, the photographing object is referred to as “main subject”.
First, the overall flow of processing executed by the imaging apparatus 1 will be described with reference to the flowchart of FIG.

まず、電源スイッチ26がONに操作されると(電源が投入されると)、メモリ32のリセット等の前処理が行われる(ステップS1)。ユーザは、主要被写体が撮像装置1の被写界に入るように撮像装置1をその主要被写体の方に向け、撮影のための操作を開始する。レリーズボタン28が半押し状態になると(ステップS2;YES)、予備撮影が行われ、予備撮影により得られた全体画像の画像データが、複数の分割領域からなる分割画像として取得される(ステップS3)。   First, when the power switch 26 is turned on (when the power is turned on), preprocessing such as resetting of the memory 32 is performed (step S1). The user directs the imaging device 1 toward the main subject so that the main subject enters the field of the imaging device 1, and starts an operation for photographing. When the release button 28 is pressed halfway (step S2; YES), preliminary shooting is performed, and image data of the entire image obtained by the preliminary shooting is acquired as a divided image composed of a plurality of divided regions (step S3). ).

次いで、レンズに関する情報が取得され(ステップS4)、更に、モードやスイッチの設定などのスイッチ情報が取得される(ステップS5)。次いで、ステップS3〜S5で取得されたデータ(情報)に基づいて、全体画像の撮影シーンを判別する撮影シーン判別処理が行われる(ステップS6)。ステップS6における撮影シーン判別処理については、後に図6を参照して説明する。   Next, information about the lens is acquired (step S4), and switch information such as mode and switch setting is acquired (step S5). Next, based on the data (information) acquired in steps S3 to S5, a shooting scene determination process for determining the shooting scene of the entire image is performed (step S6). The shooting scene determination process in step S6 will be described later with reference to FIG.

次いで、ステップS6の撮影シーン判別処理で得られた各指標及び撮影シーンの判別結果に基づいて、本撮影のために必要な露出レベルを調節する露出レベル調節処理が行われる(ステップS7)。ステップS7の露出レベル調節処理については、後に図18を参照して説明する。   Next, an exposure level adjustment process for adjusting an exposure level necessary for the actual photographing is performed based on each index obtained in the photographing scene discrimination process of step S6 and the discrimination result of the photographing scene (step S7). The exposure level adjustment process in step S7 will be described later with reference to FIG.

ステップS4〜S7の処理と並行して、ステップS3で取得した全体画像が、表示部27に表示される(ステップS8)。本撮影のための他の条件が揃ってスタンバイが完了し(S9;YES)、且つレリーズボタン28が全押し状態になると(ステップS10;YES)、本撮影の動作処理が行われる(ステップS11)。ステップS11では、レリーズボタン28が全押し状態になったときの全体画像の画像データ(撮影画像データ)が取得され、保存用の記録媒体(SDメモリカードまたはマルチメディアカード(MMC)等)に記録される。また、本撮影で得られた撮影画像データは表示部27に表示される。   In parallel with the processes in steps S4 to S7, the entire image acquired in step S3 is displayed on the display unit 27 (step S8). When other conditions for main shooting are met and standby is completed (S9; YES), and the release button 28 is fully pressed (step S10; YES), operation processing for main shooting is performed (step S11). . In step S11, image data (captured image data) of the entire image when the release button 28 is fully pressed is acquired and recorded on a storage recording medium (such as an SD memory card or a multimedia card (MMC)). Is done. Also, the captured image data obtained by the actual photographing is displayed on the display unit 27.

次いで、撮影画像データに対する階調変換処理が行われる(ステップS12)。電源スイッチ26がONである間は、ステップS1に戻り、ユーザによって再度、レリーズボタン28が半押し状態になると、ステップS3〜S12の処理が繰り返される。一方、電源スイッチ26がOFFに操作されると(ステップS13;YES)、撮像装置1における動作は終了する。   Next, gradation conversion processing is performed on the captured image data (step S12). While the power switch 26 is ON, the process returns to step S1, and when the release button 28 is pressed halfway again by the user, the processes of steps S3 to S12 are repeated. On the other hand, when the power switch 26 is turned off (step S13; YES), the operation in the imaging device 1 is finished.

次に、図6のフローチャート及び図7〜図17を参照して、撮影シーン判別処理(図5のステップS6)について説明する。   Next, with reference to the flowchart of FIG. 6 and FIGS. 7 to 17, the photographing scene determination process (step S6 of FIG. 5) will be described.

撮影シーン判別処理は、図6に示すように、色空間変換処理(ステップS20)、占有率算出処理(ステップS21)、指標算出処理(ステップS22)、撮影シーン判別(ステップS23)の各処理により構成される。以下、図7〜図17を参照して、図6に示す各処理について詳細に説明する。   As shown in FIG. 6, the shooting scene determination process includes a color space conversion process (step S20), an occupation ratio calculation process (step S21), an index calculation process (step S22), and a shooting scene determination (step S23). Composed. Hereinafter, each process illustrated in FIG. 6 will be described in detail with reference to FIGS.

まず、図7のフローチャートを参照して、色空間変換処理(図6のステップS20)について説明する。   First, the color space conversion process (step S20 in FIG. 6) will be described with reference to the flowchart in FIG.

まず、予備撮影で得られた全体画像の各セルのRGB値、輝度値及びホワイトバランスを示す情報が取得される(ステップS25)。これらの値は、そのセルに含まれる各画素のRGB値、輝度値などの平均的な値であり、公知のハードウェア処理によって容易に取得できる。なお、輝度値として、RGB値を公知の変換式に代入して算出した値を用いてもよい。   First, information indicating the RGB value, luminance value, and white balance of each cell of the entire image obtained by preliminary shooting is acquired (step S25). These values are average values such as the RGB value and the luminance value of each pixel included in the cell, and can be easily obtained by a known hardware process. As the luminance value, a value calculated by substituting RGB values into a known conversion formula may be used.

次いで、ステップS25で取得されたRGB値がHSV表色系に変換され、全体画像の色情報が取得される(ステップS26)。HSV表色系とは、画像データを色相(Hue)、彩度(Saturation)、明度(Value又はBrightness)の3つの要素を表すものであり、マンセルにより提案された表色体系を元にして考案されたものである。   Next, the RGB values acquired in step S25 are converted into the HSV color system, and color information of the entire image is acquired (step S26). The HSV color system represents the three elements of image data: Hue, Saturation, and Lightness (Value or Brightness), and was devised based on the color system proposed by Munsell. It has been done.

図8は、RGBからHSV表色系に変換することにより色相、彩度、明度を得る変換プログラム(HSV変換プログラム)の一例を、プログラムコード(c言語)により示したものである。図8に示すHSV変換プログラムでは、入力画像データであるデジタル画像データの値を、InR,InG,InBと定義し、算出された色相値をOutHとし、スケールを0〜360と定義し、彩度値をOutS、明度値をOutVとし、単位を0〜255と定義している。   FIG. 8 shows an example of a conversion program (HSV conversion program) that obtains hue, saturation, and lightness by converting from RGB to the HSV color system in program code (c language). In the HSV conversion program shown in FIG. 8, the values of digital image data as input image data are defined as InR, InG, and InB, the calculated hue value is defined as OutH, the scale is defined as 0 to 360, and the saturation The value is OutS, the brightness value is OutV, and the unit is defined as 0 to 255.

なお、本実施形態において、「明度」は特に注釈を設けない限り一般に用いられる「明るさ」の意味である。以下の記載において、HSV表色系のV(0〜255)を「明度」として用いるが、他の如何なる表色系の明るさを表す単位系を用いてもよい。その際、本実施形態で記載する各種係数等の数値を、改めて算出し直すことは言うまでもない。   In this embodiment, “brightness” means “brightness” generally used unless otherwise noted. In the following description, V (0 to 255) of the HSV color system is used as “brightness”, but a unit system representing the brightness of any other color system may be used. At that time, it goes without saying that numerical values such as various coefficients described in the present embodiment are recalculated.

また、本実施形態において、「色相」は特に注釈を設けない限り一般に用いられる「色」の意味である。以下の記載において、HSV表色系のH(0〜360)を「色相」として用いるが、例えば赤色差値(Cr)や青色差値(Cb)によって表現される色を用いてもよい。その際、本実施形態で記載する各種係数等の数値を、改めて算出し直すことは言うまでもない。色情報取得部102では、上記のようにして求められたH、S、Vの値が色情報として取得される。   In the present embodiment, “hue” means “color” that is generally used unless otherwise noted. In the following description, H (0 to 360) of the HSV color system is used as “hue”, but for example, a color represented by a red difference value (Cr) or a blue difference value (Cb) may be used. At that time, it goes without saying that numerical values such as various coefficients described in the present embodiment are recalculated. In the color information acquisition unit 102, the values of H, S, and V obtained as described above are acquired as color information.

次に、図9のフローチャートを参照して、占有率算出処理(図6のステップS21)について説明する。   Next, the occupation rate calculation process (step S21 in FIG. 6) will be described with reference to the flowchart in FIG.

まず、色空間変換処理で算出されたHSV値に基づいて、全体画像の各セルが、色相と明度の組み合わせからなる所定の階級に分類され、分類された階級毎に累積セル数を算出することによって2次元ヒストグラムが作成される(ステップS30)。   First, based on the HSV value calculated in the color space conversion process, each cell of the entire image is classified into a predetermined class composed of a combination of hue and brightness, and the cumulative number of cells is calculated for each classified class. Thus, a two-dimensional histogram is created (step S30).

図10に、明度と色相の組み合わせからなる階級を示す。ステップS30では、明度(V)は、明度値が0〜5(v1),6〜12(v2),13〜24(v3),25〜76(v4),77〜109(v5),110〜149(v6),150〜255(v7)の7つの領域に分割される。図10に示すように、最も低明度の階級における明度の範囲よりも、最も高明度の階級における明度の範囲の方が広い。   FIG. 10 shows a class composed of a combination of brightness and hue. In step S30, the lightness (V) has lightness values of 0 to 5 (v1), 6 to 12 (v2), 13 to 24 (v3), 25 to 76 (v4), 77 to 109 (v5), 110 to It is divided into seven areas 149 (v6) and 150 to 255 (v7). As shown in FIG. 10, the brightness range in the highest brightness class is wider than the brightness range in the lowest brightness class.

色相(H)は、色相値が0〜39,330〜359の肌色色相領域(H1及びH2)、色相値が40〜160の緑色色相領域(H3)、色相値が161〜250の青色色相領域(H4)、赤色色相領域(H5)の4つの領域に分割される。なお、赤色色相領域(H5)は、撮影シーンの判別への寄与が少ないとの知見から、以下の計算では用いていない。肌色色相領域は、更に、肌色領域(H1)と、それ以外の領域(H2)に分割される。以下、肌色色相領域(H=0〜39,330〜359)のうち、下記の式(1)を満たす色相’(H)を肌色領域(H1)とし、式(1)を満たさない領域を(H2)とする。
10 < 彩度(S) <175;
色相'(H) = 色相(H) + 60 (0 ≦ 色相(H) < 300のとき);
色相'(H) = 色相(H) - 300 (300 ≦ 色相(H) < 360のとき).
輝度(Y) = InR × 0.30 + InG × 0.59 + InB × 0.11 (A)
として、
色相’(H)/輝度(Y) < 3.0 ×(彩度(S)/255)+0.7 (1)
Hue (H) is a skin hue hue area (H1 and H2) with a hue value of 0 to 39, 330 to 359, a green hue area (H3) with a hue value of 40 to 160, and a blue hue area with a hue value of 161 to 250 It is divided into four areas (H4) and a red hue area (H5). Note that the red hue region (H5) is not used in the following calculation because it is found that the contribution to the discrimination of the shooting scene is small. The flesh-color hue area is further divided into a flesh-color area (H1) and other areas (H2). Hereinafter, among the flesh-colored hue areas (H = 0 to 39, 330 to 359), the hue '(H) that satisfies the following formula (1) is defined as the flesh-colored area (H1), H2).
10 <Saturation (S) <175;
Hue '(H) = Hue (H) + 60 (when 0 ≤ Hue (H) <300);
Hue '(H) = Hue (H)-300 (when 300 ≤ Hue (H) <360).
Luminance (Y) = InR x 0.30 + InG x 0.59 + InB x 0.11 (A)
As
Hue '(H) / Luminance (Y) <3.0 × (Saturation (S) / 255) +0.7 (1)

従って、全体画像における階級の数は4×7=28個となる。また、最大の明度値(255)の1割の値以内に、少なくとも3つの階級(v1,v2,v3)を有する。なお、式(A)及び式(1)において明度(V)を用いることも可能である。   Therefore, the number of classes in the entire image is 4 × 7 = 28. Further, it has at least three classes (v1, v2, v3) within 10% of the maximum brightness value (255). In addition, it is also possible to use the brightness (V) in Formula (A) and Formula (1).

ステップS30の後、全体画像の各セルが、画面の外縁からの距離と明度の組み合わせからなる所定の階級に分類され、分類された階級毎に累積セル数を算出することによって2次元ヒストグラムが作成される(ステップS31)。   After step S30, each cell of the entire image is classified into a predetermined class composed of a combination of the distance from the outer edge of the screen and the brightness, and a two-dimensional histogram is created by calculating the cumulative number of cells for each classified class. (Step S31).

図11(a)に、ステップS31において、全体画像の画面の外縁からの距離に応じて分割された3つの領域n1〜n3を示す。領域n1が外枠であり、領域n2が、外枠の内側の領域であり、領域n3が、全体画像の中央部の領域である。また、ステップS31において、明度は、上述のようにv1〜v7の7つの領域に分割するものとする。図11(b)に、3つの領域n1〜n3と明度の組み合わせからなる階級を示す。図11(b)に示すように、全体画像を画面の外縁からの距離と明度の組み合わせからなる階級に分類した場合の階級の数は3×7=21個となる。   FIG. 11A shows three regions n1 to n3 divided in step S31 according to the distance from the outer edge of the screen of the entire image. The region n1 is an outer frame, the region n2 is a region inside the outer frame, and the region n3 is a central region of the entire image. In step S31, the brightness is divided into seven regions v1 to v7 as described above. FIG. 11B shows a class composed of combinations of three regions n1 to n3 and brightness. As shown in FIG. 11B, the number of classes when the entire image is classified into classes composed of combinations of the distance from the outer edge of the screen and the brightness is 3 × 7 = 21.

ステップS30において2次元ヒストグラムが作成されると、明度と色相の組み合わせからなる所定の階級毎に算出された累積セル数の全セル数(N×M個)に占める割合を示す第1の占有率が算出される(ステップS32)。明度領域vi、色相領域Hjの組み合わせからなる階級において算出された第1の占有率をRijとすると、各階級における第1の占有率は表1のように表される。

Figure 2006333205
When a two-dimensional histogram is created in step S30, a first occupancy ratio indicating a ratio of the cumulative cell number calculated for each predetermined class composed of a combination of brightness and hue to the total cell number (N × M cells) Is calculated (step S32). If the first occupancy calculated in the class composed of the combination of the brightness area vi and the hue area Hj is Rij, the first occupancy in each class is expressed as shown in Table 1.
Figure 2006333205

ステップS31において2次元ヒストグラムが作成されると、画面の外縁からの距離と明度の組み合わせからなる所定の階級毎に算出された累積セル数の全セル数に占める割合を示す第2占有率が算出され(ステップS33)、本占有率算出処理が終了する。明度領域vi、画面領域njの組み合わせからなる各階級において算出された第2の占有率をQijとすると、各階級における第2の占有率は表2のように表される。

Figure 2006333205
なお、各セルを画面の外縁からの距離、明度及び色相からなる階級に分類し、分類された階級毎に累積セル数を算出することによって3次元ヒストグラムを作成してもよい。以下では、2次元ヒストグラムを用いる方式を採用するものとする。 When the two-dimensional histogram is created in step S31, the second occupancy ratio indicating the ratio of the cumulative cell number calculated for each predetermined class composed of the combination of the distance from the outer edge of the screen and the brightness to the total cell number is calculated. (Step S33), the occupancy rate calculation process ends. If the second occupancy calculated in each class composed of the combination of the brightness area vi and the screen area nj is Qij, the second occupancy in each class is expressed as shown in Table 2.
Figure 2006333205
Note that a three-dimensional histogram may be created by classifying each cell into a class composed of the distance from the outer edge of the screen, brightness, and hue, and calculating the cumulative number of cells for each class. Hereinafter, a method using a two-dimensional histogram is adopted.

次に、図12のフローチャートを参照して、指標算出処理(図6のステップS22)について説明する。   Next, the index calculation process (step S22 in FIG. 6) will be described with reference to the flowchart in FIG.

まず、占有率算出処理において階級毎に算出された第1の占有率に、撮影条件に応じて予め設定された2種類の異なる係数(第1の係数、第2の係数)を乗算して和をとることにより、撮影シーンを特定するための指標1、指標2が算出される(ステップS40)。指標1は、主要被写体のオーバー度を表す指標であり、「主要被写体がオーバー」と判別されるべき画像のみを他の撮影シーンから分離するためのものである。指標2は、空色高明度、顔色低明度等の逆光撮影時の特徴を複合的に表す指標であり、「逆光」、「主要被写体がアンダー」と判別されるべき画像のみを他の撮影シーンから分離するためのものである。   First, the first occupancy ratio calculated for each class in the occupancy ratio calculation process is multiplied by two different coefficients (first coefficient and second coefficient) set in advance according to the shooting conditions. By taking the above, index 1 and index 2 for specifying the shooting scene are calculated (step S40). The index 1 is an index representing the degree of overshoot of the main subject, and is for separating only the image that should be determined as “the main subject is over” from other shooting scenes. The index 2 is an index that compositely represents the characteristics at the time of backlight shooting such as sky blue high brightness and low face color brightness, and only images that should be determined as “backlight” and “main subject is under” are taken from other shooting scenes. It is for separation.

以下、指標1及び指標2の算出方法について詳細に説明する。
表3に、指標1を算出するために必要な第1の係数を階級別に示す。表3に示された各階級の係数は、表1に示した各階級の第1の占有率Rijに乗算する重み係数であり、撮影条件に応じて予め設定されている。

Figure 2006333205
Hereinafter, the calculation method of the index 1 and the index 2 will be described in detail.
Table 3 shows the first coefficient necessary for calculating the index 1 by class. The coefficient of each class shown in Table 3 is a weighting coefficient by which the first occupation ratio Rij of each class shown in Table 1 is multiplied, and is set in advance according to the shooting conditions.
Figure 2006333205

表3によると、高明度(v6)の肌色色相領域(H1)に分布する領域から算出される第1の占有率には、正(+)の係数が用いられ、それ以外の色相である青色色相領域から算出される第1の占有率には、負(-)の係数が用いられる。図13は、肌色領域(H1)における第1の係数と、その他の領域(緑色色相領域(H3))における第1の係数を、明度全体に渡って連続的に変化する曲線(係数曲線)として示したものである。表3及び図13によると、高明度(V=77〜150)の領域では、肌色領域(H1)における第1の係数の符号は正(+)であり、その他の領域(例えば、緑色色相領域(H3))における第1の係数の符号は負(-)であり、両者の符号が異なっていることがわかる。   According to Table 3, a positive (+) coefficient is used for the first occupancy calculated from the area distributed in the skin color hue area (H1) of high brightness (v6), and the other hue is blue. A negative (−) coefficient is used for the first occupation ratio calculated from the hue region. FIG. 13 shows the first coefficient in the skin color area (H1) and the first coefficient in the other area (green hue area (H3)) as a curve (coefficient curve) that changes continuously over the entire brightness. It is shown. According to Table 3 and FIG. 13, in the region of high brightness (V = 77 to 150), the sign of the first coefficient in the skin color region (H1) is positive (+), and other regions (for example, the green hue region) The sign of the first coefficient in (H3)) is negative (-), and it can be seen that the signs of the two are different.

明度領域vi、色相領域Hjにおける第1の係数をCijとすると、指標1を算出するためのHk領域の和は、式(2)のように定義される。

Figure 2006333205
従って、H1〜H4領域の和は、下記の式(2-1)〜(2-4)のように表される。
H1領域の和=R11×0+R21×0+(中略)...+R71×(-8) (2-1)
H2領域の和=R12×(-2)+R22×(-1)+(中略)... +R72×(-10) (2-2)
H3領域の和=R13×5+R23×(-2)+(中略)...+R73×(-12) (2-3)
H4領域の和=R14×0+R24×(-1)+(中略)...+R74×(-12) (2-4) When the first coefficient in the lightness region vi and the hue region Hj is Cij, the sum of the Hk regions for calculating the index 1 is defined as in Expression (2).
Figure 2006333205
Accordingly, the sum of the H1 to H4 regions is expressed by the following formulas (2-1) to (2-4).
H1 area sum = R11 x 0 + R21 x 0 + (omitted) ... + R71 x (-8) (2-1)
Sum of H2 area = R12 x (-2) + R22 x (-1) + (omitted) ... + R72 x (-10) (2-2)
Sum of H3 area = R13 x 5 + R23 x (-2) + (omitted) ... + R73 x (-12) (2-3)
Sum of H4 area = R14 x 0 + R24 x (-1) + (omitted) ... + R74 x (-12) (2-4)

指標1は、式(2-1)〜(2-4)で示されたH1〜H4領域の和を用いて、式(3)のように定義される。
指標1=H1領域の和+H2領域の和+H3領域の和+H4領域の和+1.5 (3)
The index 1 is defined as Expression (3) using the sum of the H1 to H4 regions shown in Expressions (2-1) to (2-4).
Index 1 = sum of H1 area + sum of H2 area + sum of H3 area + sum of H4 area + 1.5 (3)

表4に、指標2を算出するために必要な第2の係数を階級別に示す。表4に示された各階級の係数は、表1に示した各階級の第1の占有率Rijに乗算する重み係数であり、撮影条件に応じて予め設定されている。

Figure 2006333205
Table 4 shows the second coefficient necessary for calculating the index 2 by class. The coefficient of each class shown in Table 4 is a weighting coefficient by which the first occupation ratio Rij of each class shown in Table 1 is multiplied, and is set in advance according to the shooting conditions.
Figure 2006333205

表4によると、肌色色相領域(H1)の中間明度に分布する領域(v4, v5)から算出される占有率には負(-)の係数が用いられ、肌色色相領域(H1)の低明度(シャドー)領域(v2, v3)から算出される占有率には係数0が用いられる。図14は、肌色領域(H1)における第2の係数を、明度全体にわたって連続的に変化する曲線(係数曲線)として示したものである。表4及び図14によると、肌色色相領域の、明度値が25〜150の中間明度領域の第2の係数の符号は負(-)であり、明度値6〜24の低明度(シャドー)領域の第2の係数は0であり、両領域での係数に大きな違いがあることがわかる。   According to Table 4, a negative (-) coefficient is used for the occupancy calculated from the areas (v4, v5) distributed in the intermediate brightness of the flesh hue area (H1), and the low brightness of the flesh hue area (H1). A coefficient of 0 is used for the occupation ratio calculated from the (shadow) region (v2, v3). FIG. 14 shows the second coefficient in the skin color region (H1) as a curve (coefficient curve) that continuously changes over the entire brightness. According to Table 4 and FIG. 14, the sign of the second coefficient of the intermediate lightness region having a lightness value of 25 to 150 in the flesh color hue region is negative (−), and the low lightness (shadow) region having a lightness value of 6 to 24 The second coefficient is 0, and it can be seen that there is a large difference between the coefficients in both regions.

明度領域vi、色相領域Hjにおける第2の係数をDijとすると、指標2を算出するためのHk領域の和は、式(4)のように定義される。

Figure 2006333205
従って、H1〜H4領域の和は、下記の式(4-1)〜(4-4)のように表される。
H1領域の和=R11×0+R21×0+(中略)...+R71×2 (4-1)
H2領域の和=R12×(-2)+R22×(-1)+(中略)... +R72×2 (4-2)
H3領域の和=R13×2+R23×1+(中略)...+R73×3 (4-3)
H4領域の和=R14×0+R24×(-1)+(中略)...+R74×3 (4-4) When the second coefficient in the lightness area vi and the hue area Hj is Dij, the sum of the Hk areas for calculating the index 2 is defined as in Expression (4).
Figure 2006333205
Therefore, the sum of the H1 to H4 regions is expressed by the following equations (4-1) to (4-4).
H1 area sum = R11 x 0 + R21 x 0 + (omitted) ... + R71 x 2 (4-1)
Sum of H2 area = R12 x (-2) + R22 x (-1) + (omitted) ... + R72 x 2 (4-2)
Sum of H3 area = R13 x 2 + R23 x 1 + (omitted) ... + R73 x 3 (4-3)
H4 area sum = R14 x 0 + R24 x (-1) + (omitted) ... + R74 x 3 (4-4)

指標2は、式(4-1)〜(4-4)で示されたH1〜H4領域の和を用いて、式(5)のように定義される。
指標2=H1領域の和+H2領域の和+H3領域の和+H4領域の和+1.7 (5)
指標1及び指標2は、全体画像の明度と色相の分布量に基づいて算出されるため、全体画像がカラー画像である場合の撮影シーンの判別に有効である。
The index 2 is defined as in Expression (5) using the sum of the H1 to H4 regions shown in Expressions (4-1) to (4-4).
Index 2 = sum of H1 area + sum of H2 area + sum of H3 area + sum of H4 area + 1.7 (5)
Since the index 1 and the index 2 are calculated based on the brightness of the entire image and the distribution amount of the hue, they are effective for determining a shooting scene when the entire image is a color image.

指標1及び指標2が算出されると、占有率算出処理において階級毎に算出された第2の占有率に、撮影条件に応じて予め設定された第3の係数(第1の係数、第2の係数とは異なる係数)を乗算して和をとることにより、撮影シーンを特定するための指標3が算出される(ステップS41)。指標3は、主要被写体がアンダーな逆光と主要被写体がオーバーな画像間における、画像データの画面の中心と外側の明暗関係の差異を示すものである。   When the index 1 and the index 2 are calculated, the third factor (first factor, second factor) set in advance according to the shooting condition is added to the second occupancy rate calculated for each class in the occupancy rate calculation process. The index 3 for specifying the photographic scene is calculated by multiplying the sum by multiplying by a coefficient different from the coefficient (step S41). The index 3 indicates a difference in contrast between the center and the outside of the screen of the image data between the backlight with the main subject under and the image with the main subject over.

以下、指標3の算出方法について説明する。
表5に、指標3を算出するために必要な第3の係数を階級別に示す。表5に示された各階級の係数は、表2に示した各階級の第2の占有率Qijに乗算する重み係数であり、撮影条件に応じて予め設定されている。

Figure 2006333205
図15は、画面領域n1〜n3における第3の係数を、明度全体に渡って連続的に変化する曲線(係数曲線)として示したものである。 Hereinafter, a method for calculating the index 3 will be described.
Table 5 shows the third coefficient necessary for calculating the index 3 by class. The coefficient of each class shown in Table 5 is a weighting coefficient by which the second occupation ratio Qij of each class shown in Table 2 is multiplied, and is set in advance according to the shooting conditions.
Figure 2006333205
FIG. 15 shows the third coefficient in the screen areas n1 to n3 as a curve (coefficient curve) that continuously changes over the entire brightness.

明度領域vi、画面領域njにおける第3の係数をEijとすると、指標3を算出するためのnk領域(画面領域nk)の和は、式(6)のように定義される。

Figure 2006333205
従って、n1〜n3領域の和は、下記の式(6-1)〜(6-3)のように表される。
n1領域の和=Q11×12+Q21×10+(中略)...+Q71×0 (6-1)
n2領域の和=Q12×5+Q22×3+(中略)...+Q72×0 (6-2)
n3領域の和=Q13×(-1)+Q23×(-4)+(中略)...+Q73×(-8) (6-3) If the third coefficient in the brightness area vi and the screen area nj is Eij, the sum of the nk area (screen area nk) for calculating the index 3 is defined as in Expression (6).
Figure 2006333205
Accordingly, the sum of the n1 to n3 regions is expressed by the following formulas (6-1) to (6-3).
n1 area sum = Q11 x 12 + Q21 x 10 + (omitted) ... + Q71 x 0 (6-1)
n2 area sum = Q12 x 5 + Q22 x 3 + (omitted) ... + Q72 x 0 (6-2)
n3 area sum = Q13 x (-1) + Q23 x (-4) + (omitted) ... + Q73 x (-8) (6-3)

指標3は、式(6-1)〜(6-3)で示されたn1〜n3領域の和を用いて、式(7)のように定義される。
指標3=n1領域の和+n2領域の和+n3領域の和+0.7 (7)
指標3は、全体画像の明度の分布位置による構図的な特徴(全体画像の画面の外縁からの距離)に基づいて算出されるため、カラー画像だけでなくモノクロ画像の撮影シーンを判別するのにも有効である。
The index 3 is defined as in Expression (7) using the sum of the n1 to n3 regions shown in Expressions (6-1) to (6-3).
Index 3 = sum of n1 area + sum of n2 area + sum of n3 area + 0.7 (7)
The index 3 is calculated on the basis of the compositional characteristic (distance from the outer edge of the screen of the entire image) based on the distribution position of the brightness of the entire image, so that it can be used to discriminate not only a color image but also a monochrome image shooting scene. Is also effective.

また、例えば公知の方法によって検出された焦点検出領域に応じて、画面の外縁からの距離と明度の所定の階級から算出される第2占有率に対して乗算される第3の係数の重みを変えることで、より高精度にシーンを判別する指標を算出することが可能である。   Further, for example, according to the focus detection area detected by a known method, the weight of the third coefficient multiplied by the second occupancy calculated from the distance from the outer edge of the screen and the predetermined class of brightness is set. By changing, it is possible to calculate an index for discriminating a scene with higher accuracy.

指標1〜3が算出されると、予備撮影で得られた全体画像の画面中央部における肌色の平均輝度値と、全体画像の最大輝度値と平均輝度値との差分値のそれぞれに、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための指標4が算出される(ステップS42)。   When the indices 1 to 3 are calculated, the imaging condition is determined for each of the average luminance value of the skin color in the central portion of the screen of the entire image obtained by preliminary shooting and the difference value between the maximum luminance value and the average luminance value of the entire image. The index 4 for specifying the shooting scene is calculated by multiplying a coefficient set in advance according to (step S42).

以下、図16のフローチャートを参照して、指標4の算出処理について詳細に説明する。   Hereinafter, the calculation process of the index 4 will be described in detail with reference to the flowchart of FIG.

まず、全体画像の画像データのRGB(Red,Green,Blue)値から、式(A)を用いて輝度Yが算出される。次いで、全体画像の画面中央部における肌色領域の平均輝度値x1が算出される(ステップS50)。ここで、画面中央部とは、例えば図11(a)に示した領域n3により構成される領域である。次いで、全体画像の最大輝度値と平均輝度値との差分値x2=最大輝度値−平均輝度値が算出される(ステップS51)。   First, the luminance Y is calculated from the RGB (Red, Green, Blue) values of the image data of the entire image using the equation (A). Next, the average luminance value x1 of the skin color area at the center of the screen of the entire image is calculated (step S50). Here, the center of the screen is an area constituted by, for example, the area n3 shown in FIG. Next, the difference value x2 between the maximum luminance value and the average luminance value of the entire image is calculated (step S51).

次いで、全体画像の輝度の標準偏差x3が算出され(ステップS52)、画面中央部における平均輝度値x4が算出される(ステップS53)。次いで、全体画像における肌色領域の最大輝度値Yskin_maxと最小輝度値Yskin_minの差分値と、肌色領域の平均輝度値Yskin_aveとの比較値x5が算出される(ステップS54)。この比較値x5は、下記の式(8-1)のように表される。
x5=(Yskin_max−Yskin_min)/2 −Yskin_ave (8-1)
Next, the standard deviation x3 of the luminance of the entire image is calculated (step S52), and the average luminance value x4 at the center of the screen is calculated (step S53). Next, a comparison value x5 between the difference value between the maximum luminance value Yskin_max and the minimum luminance value Yskin_min of the skin color area in the whole image and the average luminance value Yskin_ave of the skin color area is calculated (step S54). This comparison value x5 is expressed as the following equation (8-1).
x5 = (Yskin_max−Yskin_min) / 2 −Yskin_ave (8-1)

次いで、ステップS50〜S54で算出された値x1〜x5の値の各々に、撮影条件に応じて予め設定された第4の係数を乗算して和をとることにより、指標4が算出され(ステップS55)、指標4算出処理が終了する。指標4は、下記の式(8-2)のように定義される。
指標4=0.05×x1+1.41×x2+(−0.01)×x3+(−0.01)×x4+0.01×x5−5.34 (8-2)
この指標4は、予備撮影で得られた全体画像の画面の構図的な特徴だけでなく、輝度ヒストグラム分布情報を持ち合わせており、特に、主要被写体がオーバーである撮影シーンとアンダー撮影シーンの判別に有効である。
Next, the index 4 is calculated by multiplying each of the values x1 to x5 calculated in steps S50 to S54 by a fourth coefficient set in advance according to the shooting conditions to obtain a sum (step 4). S55), the index 4 calculation process ends. The index 4 is defined as the following formula (8-2).
Index 4 = 0.05 × x1 + 1.41 × x2 + (− 0.01) × x3 + (− 0.01) × x4 + 0.01 × x5−5.34 (8-2)
This index 4 has not only the compositional characteristics of the screen of the whole image obtained by the preliminary shooting but also the luminance histogram distribution information. In particular, this index 4 is used for discriminating a shooting scene from which the main subject is over and an under shooting scene. It is valid.

指標4が算出されると、指標1〜3及び全体画像の画面中央部における肌色領域の平均輝度値に、撮影条件に応じて予め設定された重み係数を乗算することにより、指標5及び指標6が算出され(ステップS43)、本指標算出処理が終了する。   When the index 4 is calculated, the average luminance value of the skin color area in the center of the screen of the indices 1 to 3 and the entire image is multiplied by a weighting factor set in advance according to the shooting conditions, thereby the indices 5 and 6 Is calculated (step S43), and the index calculation process is terminated.

以下、指標5及び指標6の算出方法について詳細に説明する。
予備撮影で得られた全体画像の画面中央部における肌色領域の平均輝度値を指標4'とする。ここでの画面中央部とは、例えば、図11(a)の領域n2及び領域n3から構成される領域である。このとき、指標5は、指標1、指標3、指標4'を用いて式(9)のように定義され、指標6は、指標2、指標3、指標4'を用いて式(10)のように定義される。
指標5=0.54×指標1+0.50×指標3+0.01×指標4'−0.65 (9)
指標6=0.83×指標2+0.23×指標3+0.01×指標4'−1.17 (10)
Hereinafter, the calculation method of the index 5 and the index 6 will be described in detail.
The average luminance value of the skin color area at the center of the screen of the entire image obtained by the preliminary shooting is defined as an index 4 ′. Here, the central portion of the screen is, for example, a region composed of the region n2 and the region n3 in FIG. At this time, the index 5 is defined as shown in the formula (9) using the index 1, the index 3, and the index 4 ′, and the index 6 is expressed by the formula (10) using the index 2, the index 3, and the index 4 ′. Is defined as
Index 5 = 0.54 × Index 1 + 0.50 × Index 3 + 0.01 × Index 4′−0.65 (9)
Indicator 6 = 0.83 x Indicator 2 + 0.23 x Indicator 3 + 0.01 x Indicator 4'-1.17 (10)

なお、図16における平均輝度値(例えば、全体平均輝度値)の算出方法としては、撮像装置1の各受光部から得られた個別輝度データの単純な加算平均値を求めてもよいし、撮像装置1の測光方式としてよく用いられる中央重点平均測光に類似した、画面中心付近の受光部より得られた輝度データに重み付けを高く、画面の周辺付近の受光部より得られた輝度データに重み付けを低くして加算平均値を求める手法を用いてもよい。また、焦点検出領域に対応した受光部付近より得られた輝度データに重み付けを高くし、焦点検出位置から離れた受光部より得られた輝度データに重み付けを低くして加算平均値を求める手法等を用いてもよい。   Note that, as a method of calculating the average luminance value (for example, the overall average luminance value) in FIG. 16, a simple addition average value of individual luminance data obtained from each light receiving unit of the imaging device 1 may be obtained, or imaging may be performed. Similar to the center-weighted average metering that is often used as the metering method of the apparatus 1, the luminance data obtained from the light receiving unit near the center of the screen is highly weighted, and the luminance data obtained from the light receiving unit near the periphery of the screen is weighted. A method of obtaining the average value by lowering may be used. In addition, the luminance data obtained from the vicinity of the light receiving unit corresponding to the focus detection area is increased in weight, and the luminance data obtained from the light receiving unit distant from the focus detection position is reduced in weight to obtain an average value, etc. May be used.

指標4〜6が算出されると、これらの指標の値に基づいて撮影シーンが判別される(ステップS23)。表6に、指標4、指標5及び指標6の値による撮影シーンの判別内容を示す。

Figure 2006333205
図17は、表6に示した判別内容を、指標4〜6の座標系を用いて表した判別マップである。 When the indices 4 to 6 are calculated, the shooting scene is determined based on the values of these indices (step S23). Table 6 shows the details of the shooting scene discrimination based on the values of index 4, index 5, and index 6.
Figure 2006333205
FIG. 17 is a discrimination map representing the discrimination contents shown in Table 6 using the coordinate system of the indices 4-6.

次に、図18のフローチャートを参照して、指標4〜6、判別された撮影シーンに基づいて、本撮影における露出レベルの調節を行う露出レベル調節処理(図5のステップS7)について説明する。   Next, the exposure level adjustment process (step S7 in FIG. 5) for adjusting the exposure level in the main shooting based on the indices 4 to 6 and the determined shooting scene will be described with reference to the flowchart of FIG.

まず、指標4〜6及び判別された撮影シーンに基づいて、本撮影において適性露出となるように露出調節値が算出される(ステップS60)。露出調節値は式(11)のように定義される。
露出調節値=調節値×{(指標4/6)×指標4の重み+(指標5/6)×指標5の重み+(指標6/6)×指標6の重み} (11)
表7に、式(11)における調節値、指標4の重み、指標5の重み、指標6の重みを示す。表7に示すように、調節値及び各指標の重みは、判別された撮影シーンに応じて設定されている。なお、露出補正値の算出方法は、特に式(11)に限ったものではなく、例えば、肌色と判定されたセルの平均輝度値と指標値に基づいて算出されてもよい。

Figure 2006333205
First, based on the indices 4 to 6 and the determined shooting scene, an exposure adjustment value is calculated so that proper exposure is obtained in the main shooting (step S60). The exposure adjustment value is defined as in Expression (11).
Exposure adjustment value = adjustment value × {(index 4/6) × weight of index 4+ (index 5/6) × weight of index 5+ (index 6/6) × weight of index 6} (11)
Table 7 shows the adjustment value, the weight of the index 4, the weight of the index 5, and the weight of the index 6 in Expression (11). As shown in Table 7, the adjustment value and the weight of each index are set according to the determined shooting scene. Note that the method of calculating the exposure correction value is not particularly limited to Expression (11), and may be calculated based on, for example, the average luminance value and the index value of the cell determined to be skin color.
Figure 2006333205

次いで、ステップS60で算出された露出調節値に基づいて、絞りユニット35(又はシャッタユニット34)が制御され(ステップS61)、本露出レベル調節処理が終了する。なお、図18の露出レベル調節処理と並行して、撮影制御部106によって、焦点の調節を行ってもよい。例えば、公知の方法を用いて焦点領域を検出し、見つかったその領域が合焦領域となるように、図1の撮影光学系23などの制御(AF)をおこなってもよい。また、判別された撮影シーンに応じてフラッシュ発光の有無を決定してもよい。例えば、シーンが逆光と判別された場合は、フラッシュ発光を行って主要被写体を適正な明るさにすることが可能である。   Next, based on the exposure adjustment value calculated in step S60, the aperture unit 35 (or shutter unit 34) is controlled (step S61), and the main exposure level adjustment process ends. In parallel with the exposure level adjustment process of FIG. 18, the photographing control unit 106 may adjust the focus. For example, a focus area may be detected using a known method, and control (AF) of the imaging optical system 23 shown in FIG. 1 may be performed so that the found area becomes the in-focus area. Further, the presence or absence of flash emission may be determined according to the determined shooting scene. For example, when the scene is determined to be backlit, it is possible to make the main subject have an appropriate brightness by performing flash emission.

次に、図19のフローチャートを参照して、本撮影で得られた撮影画像データに対する階調変換処理(図5のステップS12)について説明する。   Next, with reference to the flowchart of FIG. 19, the gradation conversion process (step S12 of FIG. 5) for the captured image data obtained by the actual photographing will be described.

まず、判別された撮影シーンに応じて、本撮影で得られた撮影画像データに対する階調調整の方法と階調調整量が決定される(ステップS70)。なお、本実施形態では、ステップS70において階調調整方法と階調調整量の双方を決定する場合を示すが、どちらか一方でもよい。   First, the gradation adjustment method and gradation adjustment amount for the captured image data obtained in the actual photographing are determined according to the determined photographing scene (step S70). In the present embodiment, a case where both the gradation adjustment method and the gradation adjustment amount are determined in step S70 is shown, but either one may be used.

階調調整方法を決定する場合、図20に示すように、撮影シーンが順光である場合は階調調整方法A(図20(a))が選択され、逆光である場合は階調調整方法B(図20(b))が選択され、主要被写体がオーバーである場合は階調調整方法C(図20(c))が選択され、アンダーである場合は、階調調整方法B(図20(b))が選択される。   When determining the gradation adjustment method, as shown in FIG. 20, the gradation adjustment method A (FIG. 20 (a)) is selected when the shooting scene is a continuous light, and the gradation adjustment method is selected when the photographing scene is a backlight. When B (FIG. 20B) is selected and the main subject is over, the tone adjustment method C (FIG. 20C) is selected, and when it is under, the tone adjustment method B (FIG. 20) is selected. (B)) is selected.

階調調整方法が決定されると、指標算出処理で算出された各指標に基づいて、階調調整に必要なパラメータが算出される。以下、階調調整パラメータの算出方法について説明する。なお、以下では、8bitの撮影画像データは16bitへと事前に変換されているものとし、撮影画像データの値の単位は16bitであるものとする。   When the gradation adjustment method is determined, parameters necessary for gradation adjustment are calculated based on each index calculated in the index calculation process. Hereinafter, a method for calculating the gradation adjustment parameter will be described. In the following description, it is assumed that the 8-bit captured image data is converted in advance to 16 bits, and the unit of the value of the captured image data is 16 bits.

階調調整に必要なパラメータ(階調調整パラメータ)として、下記のP1〜P9のパラメータが算出される。
P1:撮影画面全体の平均輝度
P2:ブロック分割平均輝度
P3:肌色領域(H1)の平均輝度
P4:輝度補正値1=P1−P2
P5:再現目標修正値=輝度再現目標値(30360)−P4
P6:オフセット値1=P5−P1
P7:キー補正値
P7’:キー補正値2
P8:輝度補正値2
P9:オフセット値2=P5−P8−P1
As parameters necessary for gradation adjustment (gradation adjustment parameters), the following parameters P1 to P9 are calculated.
P1: Average brightness of the entire shooting screen
P2: Block division average brightness
P3: Average brightness of skin tone area (H1)
P4: Brightness correction value 1 = P1-P2
P5: Reproduction target correction value = Brightness reproduction target value (30360)-P4
P6: Offset value 1 = P5-P1
P7: Key correction value
P7 ': Key correction value 2
P8: Brightness correction value 2
P9: Offset value 2 = P5-P8-P1

ここで、図21及び図22を参照して、パラメータP2(ブロック分割平均輝度)の算出方法について説明する。
まず、撮影画像データを正規化するために、CDF(累積密度関数)を作成する。次いで、得られたCDFから最大値と最小値を決定する。この最大値と最小値は、RGB毎に求める。ここで、求められたRGB毎の最大値と最小値を、それぞれ、Rmax、Rmin、Gmax、Gmin、Bmax、Bminとする。
Here, a calculation method of the parameter P2 (block division average luminance) will be described with reference to FIGS.
First, a CDF (cumulative density function) is created in order to normalize captured image data. Next, the maximum value and the minimum value are determined from the obtained CDF. The maximum value and the minimum value are obtained for each RGB. Here, the maximum value and the minimum value obtained for each RGB are Rmax, Rmin, Gmax, Gmin, Bmax, and Bmin, respectively.

次いで、撮影画像データの任意の画素(Rx,Gx,Bx)に対する正規化画像データを算出する。RプレーンにおけるRxの正規化データをRpoint、GプレーンにおけるGxの正規化データをGpoint、BプレーンにおけるBxの正規化データをBpointとすると、正規化データRpoint、Gpoint、Bpointは、それぞれ、式(12)〜式(14)のように表される。
point={(Rx−Rmin)/(Rmax−Rmin)}×65535 (12);
point={(Gx−Gmin)/(Gmax−Gmin)}×65535 (13);
point={(Bx−Bmin)/(Bmax−Bmin)}×65535 (14).
次いで、式(15)により画素(Rx,Gx,Bx)の輝度Npointを算出する。
point=(Bpoint+Gpoint+Rpoint)/3 (15)
Next, normalized image data for any pixel (Rx, Gx, Bx) of the captured image data is calculated. When Rx normalization data in the R plane is R point , Gx normalization data in the G plane is G point , and Bx normalization data in the B plane is B point , the normalization data R point , G point , B point are , Respectively, are expressed as in Expression (12) to Expression (14).
R point = {(Rx−Rmin) / (Rmax−Rmin)} × 65535 (12);
G point = {(Gx−Gmin) / (Gmax−Gmin)} × 65535 (13);
B point = {(Bx−Bmin) / (Bmax−Bmin)} × 65535 (14).
Next, the luminance N point of the pixel (Rx, Gx, Bx) is calculated by Expression (15).
N point = (B point + G point + R point ) / 3 (15)

図21(a)は、正規化する前のRGB画素の輝度の度数分布(ヒストグラム)である。図21(a)において、横軸は輝度、縦軸は画素の頻度である。このヒストグラムは、RGB毎に作成する。輝度のヒストグラムが作成されると、式(12)〜式(14)により、撮影画像データに対し、プレーン毎に正規化を行う。図21(b)は、式(15)により算出された輝度のヒストグラムを示す。撮影画像データが65535で正規化されているため、各画素は、最大値が65535で最小値が0の間で任意の値をとる。   FIG. 21A shows a frequency distribution (histogram) of luminance of RGB pixels before normalization. In FIG. 21A, the horizontal axis represents luminance, and the vertical axis represents pixel frequency. This histogram is created for each RGB. When the luminance histogram is created, normalization is performed for each plane with respect to the photographed image data by Expressions (12) to (14). FIG. 21B shows a histogram of luminance calculated by the equation (15). Since the captured image data is normalized by 65535, each pixel takes an arbitrary value between the maximum value 65535 and the minimum value 0.

図21(b)に示す輝度ヒストグラムを所定の範囲で区切ってブロックに分割すると、図21(c)に示すような度数分布が得られる。図21(c)において、横軸はブロック番号(輝度)、縦軸は頻度である。   When the luminance histogram shown in FIG. 21B is divided into blocks divided by a predetermined range, a frequency distribution as shown in FIG. 21C is obtained. In FIG. 21C, the horizontal axis is the block number (luminance), and the vertical axis is the frequency.

次いで、図21(c)に示された輝度ヒストグラムから、ハイライト、シャドー領域を削除する処理を行う。これは、白壁や雪上シーンでは、平均輝度が非常に高くなり、暗闇のシーンでは平均輝度は非常に低くなっているため、ハイライト、シャドー領域は、平均輝度制御に悪影響を与えてしまうことによる。そこで、図21(c)に示した輝度ヒストグラムのハイライト領域、シャドー領域を制限することによって、両領域の影響を減少させる。図22(a)(又は図21(c))に示す輝度ヒストグラムにおいて、高輝度領域(ハイライト領域)及び低輝度領域(シャドー領域)を削除すると、図22(b)のようになる。   Next, processing for deleting highlight and shadow areas is performed from the luminance histogram shown in FIG. This is because the average brightness is very high in white walls and snow scenes, and the average brightness is very low in dark scenes, so highlights and shadow areas adversely affect average brightness control. . Therefore, by limiting the highlight area and shadow area of the luminance histogram shown in FIG. 21C, the influence of both areas is reduced. If the high luminance region (highlight region) and the low luminance region (shadow region) are deleted from the luminance histogram shown in FIG. 22A (or FIG. 21C), the result is as shown in FIG.

次いで、図22(c)に示すように、輝度ヒストグラムにおいて、頻度が所定の閾値より大きい領域を削除する。これは、頻度が極端に多い部分が存在すると、この部分のデータが、撮影画像全体の平均輝度に強く影響を与えてしまうため、誤補正が生じやすいことによる。そこで、図22(c)に示すように、輝度ヒストグラムにおいて、閾値以上の画素数を制限する。図22(d)は、画素数の制限処理を行った後の輝度ヒストグラムである。   Next, as shown in FIG. 22 (c), in the luminance histogram, an area whose frequency is larger than a predetermined threshold is deleted. This is because if there is a part having an extremely high frequency, the data in this part strongly affects the average luminance of the entire captured image, and thus erroneous correction is likely to occur. Therefore, as shown in FIG. 22C, the number of pixels equal to or greater than the threshold is limited in the luminance histogram. FIG. 22D is a luminance histogram after the pixel number limiting process is performed.

正規化された輝度ヒストグラムから、高輝度領域及び低輝度領域を削除し、更に、累積画素数を制限することによって得られた輝度ヒストグラム(図22(d))の各ブロック番号と、それぞれの頻度に基づいて、輝度の平均値を算出したものがパラメータP2である。   Each block number of the luminance histogram (FIG. 22 (d)) obtained by deleting the high luminance region and the low luminance region from the normalized luminance histogram and further limiting the number of accumulated pixels, and the respective frequencies The parameter P2 is obtained by calculating the average luminance based on the above.

パラメータP1は、撮影画像データ全体の輝度の平均値であり、パラメータP3は、撮影画像データのうち肌色領域(H1)の輝度の平均値である。パラメータP7のキー補正値、パラメータP7’のキー補正値2、パラメータP8の輝度補正値2は、それぞれ、式(16)、式(17)、式(18)のように定義される。
P7(キー補正値)={P3 −((指標6/ 6)×18000+22000)}/24.78 (16)
P7’(キー補正値2)={P3−((指標4/ 6)×10000+30000)}/24.78 (17)
P8(輝度補正値2)=(指標5/ 6)×17500 (18)
The parameter P1 is an average value of the luminance of the entire captured image data, and the parameter P3 is an average value of the luminance of the skin color region (H1) in the captured image data. The key correction value of the parameter P7, the key correction value 2 of the parameter P7 ′, and the luminance correction value 2 of the parameter P8 are respectively defined as Expression (16), Expression (17), and Expression (18).
P7 (key correction value) = {P3-((index 6/6) x 18000 + 22000)} / 24.78 (16)
P7 '(key correction value 2) = {P3-((index 4/6) x 10000 + 30000)} / 24.78 (17)
P8 (Luminance correction value 2) = (Indicator 5/6) x 17500 (18)

階調調整パラメータが算出されると、その算出された階調調整パラメータに基づいて、撮影画像データに対する階調調整量が算出される。具体的には、決定された階調調整方法に対応して予め設定された複数の階調変換曲線の中から、算出された階調調整パラメータに対応する階調変換曲線が選択(決定)される。なお、階調調整パラメータに基づいて、階調変換曲線(階調調整量)を算出するようにしてもよい。階調変換曲線が決定されると、その決定された階調変換曲線に従い、撮影画像データに対して階調変換処理が施され(ステップS71)、本階調変換処理が終了する。   When the gradation adjustment parameter is calculated, a gradation adjustment amount for the captured image data is calculated based on the calculated gradation adjustment parameter. Specifically, a gradation conversion curve corresponding to the calculated gradation adjustment parameter is selected (determined) from a plurality of gradation conversion curves set in advance corresponding to the determined gradation adjustment method. The Note that the gradation conversion curve (gradation adjustment amount) may be calculated based on the gradation adjustment parameter. When the gradation conversion curve is determined, gradation conversion processing is performed on the photographic image data according to the determined gradation conversion curve (step S71), and the gradation conversion processing ends.

以下、各撮影シーン(光源条件及び露出条件)の階調変換曲線の決定方法について説明する。
〈順光の場合〉
撮影シーンが順光である場合、パラメータP1をP5と一致させるオフセット補正(8bit値の平行シフト)を下記の式(19)により行う。
出力画像のRGB値=入力画像のRGB値+P6 (19)
従って、撮影シーンが順光の場合、図20(a)に示す複数の階調変換曲線の中から、式(19)に対応する階調変換曲線が選択される。又は、式(19)に基づいて階調変換曲線を算出(決定)してもよい。
Hereinafter, a method for determining a gradation conversion curve for each shooting scene (light source condition and exposure condition) will be described.
<For direct light>
When the shooting scene is front light, offset correction (parallel shift of 8-bit value) for matching the parameter P1 with P5 is performed by the following equation (19).
RGB value of output image = RGB value of input image + P6 (19)
Therefore, when the photographic scene is front light, a gradation conversion curve corresponding to Expression (19) is selected from a plurality of gradation conversion curves shown in FIG. Alternatively, the gradation conversion curve may be calculated (determined) based on Expression (19).

〈逆光の場合〉
撮影シーンが逆光である場合、図20(b)に示す複数の階調変換曲線の中から、式(16)に示すパラメータP7(キー補正値)に対応する階調変換曲線が選択される。図20(b)の階調変換曲線の具体例を図23に示す。パラメータP7の値と、選択される階調変換曲線の対応関係を以下に示す。
−50 < P7 < +50 の場合→L3
+50 ≦ P7 < +150 の場合→L4
+150 ≦ P7 < +250 の場合→L5
−150 < P7 ≦ −50 の場合→L2
−250 < P7 ≦ −150 の場合→L1
なお、撮影シーンが逆光の場合、この階調変換処理とともに、覆い焼き処理を併せて行うことが好ましい。この場合、逆光度を示す指標6に応じて覆い焼き処理の程度も調整されることが望ましい。
<Backlight>
When the shooting scene is backlit, a gradation conversion curve corresponding to the parameter P7 (key correction value) shown in Expression (16) is selected from the plurality of gradation conversion curves shown in FIG. FIG. 23 shows a specific example of the gradation conversion curve in FIG. The correspondence between the value of parameter P7 and the selected gradation conversion curve is shown below.
When -50 <P7 <+50 → L3
When +50 ≤ P7 <+150 → L4
When +150 ≤ P7 <+250 → L5
When -150 <P7 ≤ -50 → L2
When -250 <P7 ≤ -150 → L1
When the shooting scene is backlit, it is preferable to perform a dodging process together with the gradation conversion process. In this case, it is desirable to adjust the degree of dodging processing according to the index 6 indicating the backlight intensity.

〈アンダーの場合〉
撮影シーンがアンダーである場合、図20(b)に示す複数の階調変換曲線の中から、式(17)に示すパラメータP7’(キー補正値2)に対応する階調変換曲線が選択される。具体的には、撮影シーンが逆光の場合の階調変換曲線の選択方法と同様に、図23に示す階調変換曲線の中から、パラメータP7’の値に対応した階調変換曲線が選択される。なお、撮影シーンがアンダーである場合は、逆光の場合に示したような覆い焼き処理は行わない。
<In case of under>
When the shooting scene is under, a gradation conversion curve corresponding to the parameter P7 ′ (key correction value 2) shown in Expression (17) is selected from the plurality of gradation conversion curves shown in FIG. The Specifically, the gradation conversion curve corresponding to the value of the parameter P7 ′ is selected from the gradation conversion curves shown in FIG. 23 in the same manner as the method for selecting the gradation conversion curve when the shooting scene is backlit. The When the shooting scene is under, the dodging process as shown in the case of backlight is not performed.

〈主要被写体がオーバーの場合〉
主要被写体がオーバーである場合、オフセット補正(8bit値の平行シフト)を式(20)により行う。
出力画像のRGB値=入力画像のRGB値+P9 (20)
従って、主要被写体がオーバーの場合、図20(c)に示す複数の階調変換曲線の中から、式(20)に対応する階調変換曲線が選択される。又は、式(20)に基づいて階調変換曲線を算出(決定)してもよい。なお、式(20)のパラメータP9の値が、予め設定された所定値αを上回った場合、図23に示す曲線L1〜L5の中から、キー補正値がP9−αに対応する曲線が選択される。
<When the main subject is over>
When the main subject is over, offset correction (parallel shift of 8-bit value) is performed by Expression (20).
RGB value of output image = RGB value of input image + P9 (20)
Therefore, when the main subject is over, a gradation conversion curve corresponding to Expression (20) is selected from the plurality of gradation conversion curves shown in FIG. Alternatively, the gradation conversion curve may be calculated (determined) based on Expression (20). When the value of the parameter P9 in the equation (20) exceeds a preset predetermined value α, a curve corresponding to the key correction value P9-α is selected from the curves L1 to L5 shown in FIG. Is done.

なお、本実施形態では、実際に撮影画像データに対して階調変換処理を施す場合、上述の階調変換処理条件を16bitから8bitへ変更するものとする。   In the present embodiment, when the gradation conversion process is actually performed on the captured image data, the above-described gradation conversion process condition is changed from 16 bits to 8 bits.

以上のように、本実施形態の撮像装置1によれば、予備撮影によって得られる全体画像から撮影シーンを高精度に表す指標を算出することができる。また、撮影シーンを高精度に表す指標を用いているため、本撮影のための露出の調整を的確に行うことができる。   As described above, according to the imaging apparatus 1 of the present embodiment, it is possible to calculate an index that represents a shooting scene with high accuracy from an entire image obtained by preliminary shooting. In addition, since an index representing the shooting scene with high accuracy is used, it is possible to accurately adjust the exposure for the main shooting.

更に、撮影シーンを高精度に表す指標を用いているため、本撮影によって得られた撮影画像データに対する階調調整方法を的確に決定することができる。また、明度の階級において、最大の明度値の1割の値以内に、少なくとも3つの階級を有することで、リニアな画像データであっても低明度側の階級の分離がよくなり、高精度に撮影シーンを判別できる。   Furthermore, since an index that represents the shooting scene with high accuracy is used, it is possible to accurately determine the gradation adjustment method for the shot image data obtained by the actual shooting. In addition, in the brightness class, having at least three classes within 10% of the maximum brightness value, the separation of the low brightness side class is improved even with linear image data, and high accuracy is achieved. The shooting scene can be determined.

本発明の実施形態に係る撮像装置の外観構成を示す図。1 is a diagram illustrating an external configuration of an imaging apparatus according to an embodiment of the present invention. 本実施形態の撮像装置の内部構成を示すブロック図。1 is a block diagram showing an internal configuration of an imaging apparatus according to an embodiment. プロセッサの内部構成を示すブロック図。The block diagram which shows the internal structure of a processor. 予備撮影で得られる全体画像(a)と、当該全体画像をM×N個のセルに分割した図(b)。The whole image (a) obtained by preliminary photography, and the figure (b) which divided the whole image into MxN cells. 撮像装置において実行される処理の全体の流れを示すフローチャート。3 is a flowchart showing an overall flow of processing executed in the imaging apparatus. 撮影シーン判別処理を示すフローチャート。The flowchart which shows a photography scene discrimination | determination process. 色空間変換処理を示すフローチャート。6 is a flowchart showing color space conversion processing. RGBからHSV表色系に変換するプログラムの一例を示す図。The figure which shows an example of the program which converts from RGB to HSV color system. 占有率算出処理を示すフローチャート。The flowchart which shows an occupation rate calculation process. 明度と色相からなる階級を示す図。The figure which shows the class which consists of brightness and hue. 予備撮影で得られた全体画像の画面の外縁からの距離に応じて決定される領域n1〜n3を示す図(a)と、領域n1〜n3と明度からなる階級を示す図(b)。The figure which shows the area | region n1-n3 determined according to the distance from the outer edge of the screen of the whole image obtained by preliminary photography, and the figure which shows the class which consists of the area | region n1-n3 and the brightness (b). 指標算出処理を示すフローチャート。The flowchart which shows an index calculation process. 指標1を算出するための、第1の占有率に乗算する第1の係数を表す曲線を示す図。The figure which shows the curve showing the 1st coefficient by which the 1st occupation rate for calculating the parameter | index 1 is multiplied. 指標2を算出するための、第1の占有率に乗算する第2の係数を表す曲線を示す図。The figure which shows the curve showing the 2nd coefficient by which the 1st occupation rate for calculating the parameter | index 2 is multiplied. 指標3を算出するための、第2の占有率に乗算する第3の係数を表す曲線を領域別(n1〜n3)に示す図。The figure which shows the curve showing the 3rd coefficient by which the 2nd occupation rate for calculating the parameter | index 3 is multiplied for every area | region (n1-n3). 指標4算出処理を示すフローチャート。The flowchart which shows the parameter | index 4 calculation process. 指標と撮影シーンとの関係を示す図。The figure which shows the relationship between a parameter | index and an imaging | photography scene. 露出レベル調節処理を示すフローチャート。The flowchart which shows an exposure level adjustment process. 階調変換処理を示すフローチャート。The flowchart which shows a gradation conversion process. 各階調調整方法に対応する階調変換曲線を示す図。The figure which shows the gradation conversion curve corresponding to each gradation adjustment method. 輝度の度数分布(ヒストグラム)(a)、正規化されたヒストグラム(b)及びブロック分割されたヒストグラム(c)を示す図。The figure which shows the frequency distribution (histogram) (a) of brightness | luminance, the normalized histogram (b), and the block-divided histogram (c). 輝度のヒストグラムからの低輝度領域及び高輝度領域の削除を説明する図((a)及び(b))と、輝度の頻度の制限を説明する図((c)及び(d))。The figure ((a) and (b)) explaining deletion of the low-intensity area | region and the high-intensity area | region from the brightness | luminance histogram, and the figure ((c) and (d)) explaining the restriction | limiting of the frequency of a brightness | luminance. 撮影シーンが逆光又はアンダーである場合の階調変換条件を表す階調変換曲線を示す図。The figure which shows the gradation conversion curve showing the gradation conversion conditions in case an imaging | photography scene is backlight or under.

符号の説明Explanation of symbols

1 撮像装置
21 筐体
22 十字キー
23 撮影光学系
24 フラッシュ
25 ファインダ
26 電源スイッチ
27 表示部
28 レリーズボタン
31 プロセッサ
32 メモリ
33 撮像素子
34 シャッタユニット
35 絞りユニット
101 全体画像取得部
102 色情報取得部
103 占有率算出部
104 指標算出部
105 撮影シーン判別部
106 撮影制御部
107 階調調整決定部
DESCRIPTION OF SYMBOLS 1 Image pick-up device 21 Case 22 Cross key 23 Shooting optical system 24 Flash 25 Finder 26 Power switch 27 Display part 28 Release button 31 Processor 32 Memory 33 Image sensor 34 Shutter unit 35 Aperture unit 101 Whole image acquisition part 102 Color information acquisition part 103 Occupancy rate calculation unit 104 Index calculation unit 105 Shooting scene determination unit 106 Shooting control unit 107 Tone adjustment determination unit

Claims (24)

予備撮影によって得られる全体画像を複数の分割領域からなる分割画像として取得する取得手段と、
前記全体画像の各分割領域について、色情報を取得する色情報取得手段と、
前記色情報取得手段により取得された色情報に基づいて、前記各分割領域を、明度と色相の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第1占有率を算出する占有率算出手段と、
前記第1の占有率に、撮影条件に応じて予め設定された2種類の異なる係数を乗算することにより、撮影シーンを特定するための第1の指標及び第2の指標を算出する指標算出手段と、
を備えることを特徴とする撮像装置。
Acquisition means for acquiring a whole image obtained by preliminary shooting as a divided image composed of a plurality of divided regions;
Color information acquisition means for acquiring color information for each divided region of the entire image;
Based on the color information acquired by the color information acquisition means, each of the divided areas is classified into a predetermined class composed of a combination of lightness and hue, and for each classified class, the divided areas belonging to the class are An occupancy ratio calculating means for calculating a first occupancy ratio indicating a ratio of the entire image;
An index calculation means for calculating a first index and a second index for specifying a shooting scene by multiplying the first occupancy by two different coefficients set in advance according to shooting conditions. When,
An imaging apparatus comprising:
予備撮影によって得られる全体画像を複数の分割領域からなる分割画像として取得する取得手段と、
前記全体画像の各分割領域について、色情報を取得する色情報取得手段と、
前記色情報取得手段により取得された色情報に基づいて、前記各分割領域を、明度と色相の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第1の占有率を算出するとともに、前記各分割領域を、前記全体画像の画面の外縁からの距離と明度の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第2の占有率を算出する占有率算出手段と、
前記第1の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第1の指標を算出するとともに、前記第2の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第2の指標を算出する指標算出手段と、
を備えることを特徴とする撮像装置。
Acquisition means for acquiring a whole image obtained by preliminary shooting as a divided image composed of a plurality of divided regions;
Color information acquisition means for acquiring color information for each divided region of the entire image;
Based on the color information acquired by the color information acquisition means, each of the divided areas is classified into a predetermined class composed of a combination of lightness and hue, and for each classified class, the divided areas belonging to the class are A first occupancy ratio indicating a ratio of the entire image is calculated, and each of the divided regions is classified into a predetermined class composed of a combination of a distance from the outer edge of the screen of the entire image and brightness, and the classified class An occupancy ratio calculating means for calculating a second occupancy ratio indicating the ratio of the divided area belonging to the class to the entire image for each time;
The first occupancy is multiplied by a coefficient set in advance according to the shooting condition to calculate a first index for specifying the shooting scene, and the second occupancy is set to the shooting condition. Index calculating means for calculating a second index for specifying a shooting scene by multiplying a coefficient set in advance according to
An imaging apparatus comprising:
前記全体画像の画面中央部における肌色の平均輝度値と、前記全体画像の最大輝度値と平均輝度値との差分値のそれぞれに、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第3の指標を算出する第3指標算出手段を備えることを特徴とする請求項1又は2に記載の撮像装置。   By multiplying each of the average luminance value of the skin color in the screen central portion of the whole image and the difference value between the maximum luminance value and the average luminance value of the whole image by a coefficient set in advance according to the shooting conditions, The imaging apparatus according to claim 1, further comprising a third index calculation unit that calculates a third index for specifying a shooting scene. 前記算出された各指標のうち、少なくとも前記第1の指標及び前記第2の指標に基づいて露出レベルの調節を行い、当該調節された露出レベルで本撮影を行う撮影制御手段を備えることを特徴とする請求項1〜3の何れか一項に記載の撮像装置。   A photographing control unit is provided that adjusts an exposure level based on at least the first index and the second index among the calculated indices, and performs actual photographing at the adjusted exposure level. The imaging device according to any one of claims 1 to 3. 前記算出された各指標のうち、少なくとも前記第1の指標及び前記第2の指標に基づいて、本撮影で得られる撮影画像データに対する階調調整方法を決定する階調調整決定手段を備えることを特徴とする請求項1〜4の何れか一項に記載の撮像装置。   A gradation adjustment determining unit that determines a gradation adjustment method for captured image data obtained by actual imaging based on at least the first index and the second index among the calculated indices. The imaging apparatus according to claim 1, wherein the imaging apparatus is characterized. 前記算出された各指標のうち、少なくとも前記第1の指標及び前記第2の指標に基づいて、前記全体画像の撮影シーンを判別する判別手段を備えることを特徴とする請求項1〜5の何れか一項に記載の撮像装置。   6. The apparatus according to claim 1, further comprising: a determination unit configured to determine a shooting scene of the entire image based on at least the first index and the second index among the calculated indices. The imaging device according to claim 1. 前記所定の階級は、最も低明度の階級における明度の範囲よりも、最も高明度の階級における明度の範囲の方が広いことを特徴とする請求項1〜6の何れか一項に記載の撮像装置。   The imaging according to any one of claims 1 to 6, wherein the predetermined class has a brightness range in the highest brightness class wider than a brightness range in the lowest brightness class. apparatus. 前記所定の階級は、最大の明度値の1割の値以内に、少なくとも3つの階級を有することを特徴とする請求項7に記載の撮像装置。   The image pickup apparatus according to claim 7, wherein the predetermined class has at least three classes within a value of 10% of a maximum brightness value. 予備撮影によって得られる全体画像を複数の分割領域からなる分割画像として取得する取得工程と、
前記全体画像の各分割領域について、色情報を取得する色情報取得工程と、
前記色情報取得工程により取得された色情報に基づいて、前記各分割領域を、明度と色相の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第1占有率を算出する占有率算出工程と、
前記第1の占有率に、撮影条件に応じて予め設定された2種類の異なる係数を乗算することにより、撮影シーンを特定するための第1の指標及び第2の指標を算出する指標算出工程と、
を含むことを特徴とする画像処理方法。
An acquisition step of acquiring the entire image obtained by the preliminary shooting as a divided image composed of a plurality of divided regions;
For each divided region of the entire image, a color information acquisition step for acquiring color information;
Based on the color information acquired by the color information acquisition step, the divided areas are classified into predetermined classes composed of combinations of brightness and hue, and for each classified class, the divided areas belonging to the class are An occupancy ratio calculating step of calculating a first occupancy ratio indicating the ratio of the entire image;
An index calculation step of calculating a first index and a second index for specifying a shooting scene by multiplying the first occupation ratio by two different coefficients set in advance according to shooting conditions. When,
An image processing method comprising:
予備撮影によって得られる全体画像を複数の分割領域からなる分割画像として取得する取得工程と、
前記全体画像の各分割領域について、色情報を取得する色情報取得工程と、
前記色情報取得工程により取得された色情報に基づいて、前記各分割領域を、明度と色相の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第1の占有率を算出するとともに、前記各分割領域を、前記全体画像の画面の外縁からの距離と明度の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第2の占有率を算出する占有率算出工程と、
前記第1の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第1の指標を算出するとともに、前記第2の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第2の指標を算出する指標算出工程と、
を含むことを特徴とする画像処理方法。
An acquisition step of acquiring the entire image obtained by the preliminary shooting as a divided image composed of a plurality of divided regions;
For each divided region of the entire image, a color information acquisition step for acquiring color information;
Based on the color information acquired by the color information acquisition step, the divided areas are classified into predetermined classes composed of combinations of brightness and hue, and for each classified class, the divided areas belonging to the class are A first occupancy ratio indicating a ratio of the entire image is calculated, and each of the divided regions is classified into a predetermined class composed of a combination of a distance from the outer edge of the screen of the entire image and brightness, and the classified class An occupancy ratio calculating step for calculating a second occupancy ratio indicating the ratio of the divided area belonging to the class to the entire image for each time;
The first occupancy is multiplied by a coefficient set in advance according to the shooting condition to calculate a first index for specifying the shooting scene, and the second occupancy is set to the shooting condition. An index calculation step of calculating a second index for specifying the shooting scene by multiplying a coefficient set in advance according to
An image processing method comprising:
前記全体画像の画面中央部における肌色の平均輝度値と、前記全体画像の最大輝度値と平均輝度値との差分値のそれぞれに、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第3の指標を算出する第3指標算出工程を含むことを特徴とする請求項9又は10に記載の画像処理方法。   By multiplying each of the average luminance value of the skin color in the screen central portion of the whole image and the difference value between the maximum luminance value and the average luminance value of the whole image by a coefficient set in advance according to the shooting conditions, 11. The image processing method according to claim 9, further comprising a third index calculation step of calculating a third index for specifying a shooting scene. 前記算出された各指標のうち、少なくとも前記第1の指標及び前記第2の指標に基づいて露出レベルの調節を行い、当該調節された露出レベルで本撮影を行う撮影制御工程を含むことを特徴とする請求項9〜11の何れか一項に記載の画像処理方法。   And a shooting control step of adjusting an exposure level based on at least the first index and the second index among the calculated indexes and performing actual shooting at the adjusted exposure level. The image processing method according to any one of claims 9 to 11. 前記算出された各指標のうち、少なくとも前記第1の指標及び前記第2の指標に基づいて、本撮影で得られる撮影画像データに対する階調調整方法を決定する階調調整決定工程を含むことを特徴とする請求項9〜12の何れか一項に記載の画像処理方法。   Including a gradation adjustment determining step of determining a gradation adjustment method for captured image data obtained by actual imaging based on at least the first index and the second index among the calculated indices. The image processing method according to claim 9, wherein the image processing method is characterized in that 前記算出された各指標のうち、少なくとも前記第1の指標及び前記第2の指標に基づいて、前記全体画像の撮影シーンを判別する判別工程を含むことを特徴とする請求項9〜13の何れか一項に記載の画像処理方法。   14. The method according to claim 9, further comprising: a determination step of determining a shooting scene of the entire image based on at least the first index and the second index among the calculated indices. An image processing method according to claim 1. 前記所定の階級は、最も低明度の階級における明度の範囲よりも、最も高明度の階級における明度の範囲の方が広いことを特徴とする請求項9〜14の何れか一項に記載の画像処理方法。   The image according to any one of claims 9 to 14, wherein the predetermined class has a brightness range in the highest brightness class wider than a brightness range in the lowest brightness class. Processing method. 前記所定の階級は、最大の明度値の1割の値以内に、少なくとも3つの階級を有することを特徴とする請求項15に記載の画像処理方法。   16. The image processing method according to claim 15, wherein the predetermined class has at least three classes within a value of 10% of the maximum brightness value. 画像処理を実行するためのコンピュータに、
予備撮影によって得られる全体画像を複数の分割領域からなる分割画像として取得する取得機能と、
前記全体画像の各分割領域について、色情報を取得する色情報取得機能と、
前記色情報取得機能により取得された色情報に基づいて、前記各分割領域を、明度と色相の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第1占有率を算出する占有率算出機能と、
前記第1の占有率に、撮影条件に応じて予め設定された2種類の異なる係数を乗算することにより、撮影シーンを特定するための第1の指標及び第2の指標を算出する指標算出機能と、
を実現させるための画像処理プログラム。
In the computer for executing image processing,
An acquisition function for acquiring an entire image obtained by preliminary shooting as a divided image composed of a plurality of divided areas;
For each divided area of the entire image, a color information acquisition function for acquiring color information;
Based on the color information acquired by the color information acquisition function, each of the divided areas is classified into a predetermined class consisting of a combination of lightness and hue, and for each classified class, the divided areas belonging to the class are An occupancy ratio calculation function for calculating a first occupancy ratio indicating the ratio of the entire image;
An index calculation function for calculating a first index and a second index for specifying a shooting scene by multiplying the first occupation ratio by two different coefficients set in advance according to shooting conditions. When,
An image processing program for realizing
画像処理を実行するためのコンピュータに、
予備撮影によって得られる全体画像を複数の分割領域からなる分割画像として取得する取得機能と、
前記全体画像の各分割領域について、色情報を取得する色情報取得機能と、
前記色情報取得機能により取得された色情報に基づいて、前記各分割領域を、明度と色相の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第1の占有率を算出するとともに、前記各分割領域を、前記全体画像の画面の外縁からの距離と明度の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第2の占有率を算出する占有率算出機能と、
前記第1の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第1の指標を算出するとともに、前記第2の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第2の指標を算出する指標算出機能と、
を実現させるための画像処理プログラム。
In the computer for executing image processing,
An acquisition function for acquiring an entire image obtained by preliminary shooting as a divided image composed of a plurality of divided areas;
For each divided area of the entire image, a color information acquisition function for acquiring color information;
Based on the color information acquired by the color information acquisition function, each of the divided areas is classified into a predetermined class consisting of a combination of lightness and hue, and for each classified class, the divided areas belonging to the class are A first occupancy ratio indicating a ratio of the entire image is calculated, and each of the divided regions is classified into a predetermined class composed of a combination of a distance from the outer edge of the screen of the entire image and brightness, and the classified class An occupancy ratio calculation function for calculating a second occupancy ratio indicating the ratio of the divided area belonging to the class to the entire image for each time;
The first occupancy is multiplied by a coefficient set in advance according to the shooting condition to calculate a first index for specifying the shooting scene, and the second occupancy is set to the shooting condition. An index calculation function for calculating a second index for specifying a shooting scene by multiplying a coefficient set in advance according to
An image processing program for realizing
前記全体画像の画面中央部における肌色の平均輝度値と、前記全体画像の最大輝度値と平均輝度値との差分値のそれぞれに、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第3の指標を算出する第3指標算出機能を有することを特徴とする請求項17又は18に記載の画像処理プログラム。   By multiplying each of the average luminance value of the skin color in the screen central portion of the whole image and the difference value between the maximum luminance value and the average luminance value of the whole image by a coefficient set in advance according to the shooting conditions, The image processing program according to claim 17 or 18, further comprising a third index calculation function for calculating a third index for specifying a shooting scene. 前記算出された各指標のうち、少なくとも前記第1の指標及び前記第2の指標に基づいて露出レベルの調節を行い、当該調節された露出レベルで本撮影を行う撮影制御機能を有することを特徴とする請求項17〜19の何れか一項に記載の画像処理プログラム。   Of the calculated indexes, the camera has a shooting control function that adjusts an exposure level based on at least the first index and the second index, and performs actual shooting at the adjusted exposure level. The image processing program according to any one of claims 17 to 19. 前記算出された各指標のうち、少なくとも前記第1の指標及び前記第2の指標に基づいて、本撮影で得られる撮影画像データに対する階調調整方法を決定する階調調整決定機能を有することを特徴とする請求項17〜20の何れか一項に記載の画像処理プログラム。   A gradation adjustment determination function for determining a gradation adjustment method for captured image data obtained by actual photographing based on at least the first index and the second index among the calculated indices; The image processing program according to any one of claims 17 to 20, wherein 前記算出された各指標のうち、少なくとも前記第1の指標及び前記第2の指標に基づいて、前記全体画像の撮影シーンを判別する判別機能を有することを特徴とする請求項17〜21の何れか一項に記載の画像処理プログラム。   The discrimination function of discriminating a photographing scene of the whole image based on at least the first index and the second index among the calculated indices. The image processing program according to claim 1. 前記所定の階級は、最も低明度の階級における明度の範囲よりも、最も高明度の階級における明度の範囲の方が広いことを特徴とする請求項17〜22の何れか一項に記載の画像処理プログラム。   The image according to any one of claims 17 to 22, wherein the predetermined class has a range of brightness in the class of highest brightness rather than a range of brightness in the class of lowest brightness. Processing program. 前記所定の階級は、最大の明度値の1割の値以内に、少なくとも3つの階級を有することを特徴とする請求項23に記載の画像処理プログラム。   The image processing program according to claim 23, wherein the predetermined class includes at least three classes within a value of 10% of a maximum brightness value.
JP2005155578A 2005-05-27 2005-05-27 Imaging apparatus, image processing method and image processing program Pending JP2006333205A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005155578A JP2006333205A (en) 2005-05-27 2005-05-27 Imaging apparatus, image processing method and image processing program
PCT/JP2006/308276 WO2006126347A1 (en) 2005-05-27 2006-04-20 Imaging device, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005155578A JP2006333205A (en) 2005-05-27 2005-05-27 Imaging apparatus, image processing method and image processing program

Publications (1)

Publication Number Publication Date
JP2006333205A true JP2006333205A (en) 2006-12-07

Family

ID=37451776

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005155578A Pending JP2006333205A (en) 2005-05-27 2005-05-27 Imaging apparatus, image processing method and image processing program

Country Status (2)

Country Link
JP (1) JP2006333205A (en)
WO (1) WO2006126347A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007228201A (en) * 2006-02-23 2007-09-06 Fujifilm Corp Imaging apparatus and method of controlling same
JP2008160704A (en) * 2006-12-26 2008-07-10 Noritsu Koki Co Ltd Density correction curve generation method and density correction curve generation module
JP2009296359A (en) * 2008-06-05 2009-12-17 Canon Inc Image processor, method for processing image, and program therefor
JP2014064313A (en) * 2013-11-26 2014-04-10 Canon Inc Image processing apparatus, image processing method, and program
US11521327B2 (en) * 2017-11-10 2022-12-06 Beijing Boe Technology Development Co., Ltd. Detection target positioning device, detection target positioning method, and sight tracking device

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111709957A (en) * 2020-06-22 2020-09-25 河南理工大学 Medical image segmentation method based on two-dimensional maximum entropy threshold C-V model
CN111681255B (en) * 2020-08-17 2020-11-13 腾讯科技(深圳)有限公司 Object identification method and related device
CN118134219B (en) * 2024-05-08 2024-08-06 中航国际金网(北京)科技有限公司 Production early warning method, system, device and nonvolatile storage medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11196324A (en) * 1997-12-26 1999-07-21 Fuji Photo Film Co Ltd Method and device for outputting image
JP4154128B2 (en) * 2001-02-14 2008-09-24 株式会社リコー Image processing apparatus, image processing method, and recording medium on which program for executing the method is recorded
JP3792555B2 (en) * 2001-09-28 2006-07-05 三菱電機株式会社 Brightness adjustment method and imaging apparatus

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007228201A (en) * 2006-02-23 2007-09-06 Fujifilm Corp Imaging apparatus and method of controlling same
JP4567618B2 (en) * 2006-02-23 2010-10-20 富士フイルム株式会社 Imaging apparatus and control method thereof
US7848632B2 (en) 2006-02-23 2010-12-07 Fujifilm Corporation Image sensing apparatus and method of controlling same
JP2008160704A (en) * 2006-12-26 2008-07-10 Noritsu Koki Co Ltd Density correction curve generation method and density correction curve generation module
JP2009296359A (en) * 2008-06-05 2009-12-17 Canon Inc Image processor, method for processing image, and program therefor
JP2014064313A (en) * 2013-11-26 2014-04-10 Canon Inc Image processing apparatus, image processing method, and program
US11521327B2 (en) * 2017-11-10 2022-12-06 Beijing Boe Technology Development Co., Ltd. Detection target positioning device, detection target positioning method, and sight tracking device

Also Published As

Publication number Publication date
WO2006126347A1 (en) 2006-11-30

Similar Documents

Publication Publication Date Title
AU2016200002B2 (en) High dynamic range transition
KR101698876B1 (en) Generation of ghost-free high dynamic range images
JP2006333205A (en) Imaging apparatus, image processing method and image processing program
JP2006325015A (en) Image processing method, image processing apparatus, imaging apparatus, and image processing program
JP5782311B2 (en) Imaging apparatus and control method thereof
JP2007184888A (en) Imaging apparatus, image processor, image processing method, and image processing program
CN111434104B (en) Image processing apparatus, image capturing apparatus, image processing method, and recording medium
JP2007228221A (en) Imaging apparatus, image processing apparatus, image processing method and image processing program
JP2007221678A (en) Imaging apparatus, image processor, image processing method and image processing program
JP2007311895A (en) Imaging apparatus, image processor, image processing method and image processing program
JP2007243542A (en) Imaging apparatus, image processing apparatus, image processing method, and image processing program
JP2007288245A (en) Imaging apparatus, image processing method, and image processing program
JP2007293686A (en) Imaging apparatus, image processing apparatus, image processing method and image processing program
US11405598B2 (en) Image processing apparatus, image processing method, and storage medium
JP2007312294A (en) Imaging apparatus, image processor, method for processing image, and image processing program
JP2007184887A (en) Image pickup device, image processor, image processing method and image processing program
JP2006197460A (en) Image processing method, image processor, image processing program and image pickup device
JP2007243556A (en) Imaging apparatus, image processing method, and image processing program
JP2007201679A (en) Imaging apparatus, image processing method, and image processing program
JP2006190154A (en) Image processing method, image processor, image processing program and imaging device
JP2007235369A (en) Imaging apparatus, and unit, method, and program for processing image
JP2007300348A (en) Imaging apparatus, and image processing method, and image processing program
JP2007081550A (en) Imaging apparatus, and image processing unit, method, and program
JP2007235365A (en) Imaging apparatus, and method and program for processing image
JP2007228132A (en) Imaging apparatus, image processing apparatus, image processing method and image processing program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20070827

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20080221