JP2006333205A - Imaging apparatus, image processing method and image processing program - Google Patents
Imaging apparatus, image processing method and image processing program Download PDFInfo
- Publication number
- JP2006333205A JP2006333205A JP2005155578A JP2005155578A JP2006333205A JP 2006333205 A JP2006333205 A JP 2006333205A JP 2005155578 A JP2005155578 A JP 2005155578A JP 2005155578 A JP2005155578 A JP 2005155578A JP 2006333205 A JP2006333205 A JP 2006333205A
- Authority
- JP
- Japan
- Prior art keywords
- index
- class
- image
- shooting
- divided
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 47
- 238000003672 processing method Methods 0.000 title claims description 17
- 238000000034 method Methods 0.000 claims description 83
- 238000004364 calculation method Methods 0.000 claims description 56
- 238000012545 processing Methods 0.000 claims description 18
- 238000006243 chemical reaction Methods 0.000 description 41
- 230000014509 gene expression Effects 0.000 description 26
- 238000012937 correction Methods 0.000 description 21
- 230000006870 function Effects 0.000 description 16
- 230000001186 cumulative effect Effects 0.000 description 6
- 238000010606 normalization Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- BYJQAPYDPPKJGH-UHFFFAOYSA-N 3-(2-carboxyethyl)-1h-indole-2-carboxylic acid Chemical compound C1=CC=C2C(CCC(=O)O)=C(C(O)=O)NC2=C1 BYJQAPYDPPKJGH-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 241000723369 Cocculus trilobus Species 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 235000012736 patent blue V Nutrition 0.000 description 1
- 238000005375 photometry Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 229920003002 synthetic resin Polymers 0.000 description 1
- 239000000057 synthetic resin Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/387—Composing, repositioning or otherwise geometrically modifying originals
- H04N1/3876—Recombination of partial images to recreate the original image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5838—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/40—Picture signal circuits
- H04N1/407—Control or modification of tonal gradation or of extreme levels, e.g. background level
- H04N1/4072—Control or modification of tonal gradation or of extreme levels, e.g. background level dependent on the contents of the original
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/46—Colour picture communication systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/46—Colour picture communication systems
- H04N1/56—Processing of colour picture signals
- H04N1/60—Colour correction or control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Library & Information Science (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
- Color Television Image Signal Generators (AREA)
- Editing Of Facsimile Originals (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
Abstract
Description
本発明は、撮像装置、画像処理方法及び画像処理プログラムに関する。 The present invention relates to an imaging apparatus, an image processing method, and an image processing program.
近年、デジタルカメラ(携帯電話やラップトップパソコン等の機器に組み込まれたものも含む。)による撮影で得られた撮影画像データを、パーソナルコンピュータ等を介さずに、直接インクジェットプリンタ等に伝送して出力を行う、PictBridgeと称する規格(CIPA DC-001)が提案されている。しかしながら、一般のデジタルカメラでの撮影で得られた撮影画像データが、逆光画像やアンダー画像等の好ましくない画像データである場合、そのままプリント出力を行っても、好ましいプリントを得ることはできない。そのため、デジタルカメラ内において適切な露出制御や階調補正を行うことが切望されている。そのため、デジタルカメラ内で、分割された測光データを用いて撮影シーンの状況を判別し、その判別結果に基づいて露出レベルの調節や階調変換特性を変更し、適切な画像データを得る方法が提案されている。 In recent years, photographed image data obtained by photographing with a digital camera (including those incorporated in devices such as mobile phones and laptop computers) is directly transmitted to an inkjet printer or the like without using a personal computer or the like. A standard (CIPA DC-001) called PictBridge that performs output has been proposed. However, when the captured image data obtained by photographing with a general digital camera is unfavorable image data such as a backlight image or an under image, a favorable print cannot be obtained even if the print output is performed as it is. Therefore, it is desired to perform appropriate exposure control and gradation correction in the digital camera. For this reason, there is a method in which the situation of the shooting scene is determined using the divided photometric data in the digital camera, and the exposure level is adjusted and the gradation conversion characteristics are changed based on the determination result to obtain appropriate image data. Proposed.
例えば、特許文献1に記載された方法では、測光手段により得られた分割領域毎の輝度情報を行方向および列方向のうち少なくとも一方に平均化した複数の平均輝度情報を得て、撮影範囲内の明るさ変化の傾向を算出することで逆光判別を行い、撮影範囲内の平均輝度値の傾きから露出補正量を算出している。また、特許文献2に記載される方法では、分割測光結果から、画面内コントラストの強弱や輝度分布状態などの被写体情報を得て、この被写体情報から画像データの階調変換特性を適正化している。
しかしながら、特許文献1に記載された方法では、典型的な逆光撮影の場合には正しく逆光判別することができるが、輝度情報のみを用いているため、典型的な構図に当てはまらないと正しく撮影シーンを判別できないという問題があった。また、特許文献1では、平均輝度値の傾きから露出補正量を算出しているが、必ずしも主要被写体の明るさを考慮しているものではなく、撮影シーンを定量的に表したものではないという問題があった。また、特許文献2に記載された方法では、コントラストの強弱によって階調変換特性を変更しているが、撮影シーンを高精度に判別できないため、撮影シーンに応じて適切な階調を選択できないという問題があった。
However, in the method described in
本発明の課題は、分割された測光データから高精度に撮影シーンを表す指標を算出し、その算出された指標に基づいて好ましい撮影画像データを得ることである。 An object of the present invention is to calculate an index representing a shooting scene with high accuracy from divided photometric data, and to obtain preferable captured image data based on the calculated index.
上記課題を解決するため、請求項1に記載の発明は、予備撮影によって得られる全体画像を複数の分割領域からなる分割画像として取得する取得手段と、
前記全体画像の各分割領域について、色情報を取得する色情報取得手段と、
前記色情報取得手段により取得された色情報に基づいて、前記各分割領域を、明度と色相の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第1占有率を算出する占有率算出手段と、
前記第1の占有率に、撮影条件に応じて予め設定された2種類の異なる係数を乗算することにより、撮影シーンを特定するための第1の指標(指標1)及び第2の指標(指標2)を算出する指標算出手段と、を備える。
In order to solve the above-described problem, the invention according to
Color information acquisition means for acquiring color information for each divided region of the entire image;
Based on the color information acquired by the color information acquisition means, each of the divided areas is classified into a predetermined class composed of a combination of lightness and hue, and for each classified class, the divided areas belonging to the class are An occupancy ratio calculating means for calculating a first occupancy ratio indicating a ratio of the entire image;
A first index (index 1) and a second index (index) for specifying a shooting scene are obtained by multiplying the first occupation ratio by two different coefficients set in advance according to shooting conditions. And an index calculating means for calculating 2).
請求項2に記載の発明は、予備撮影によって得られる全体画像を複数の分割領域からなる分割画像として取得する取得手段と、
前記全体画像の各分割領域について、色情報を取得する色情報取得手段と、
前記色情報取得手段により取得された色情報に基づいて、前記各分割領域を、明度と色相の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第1の占有率を算出するとともに、前記各分割領域を、前記全体画像の画面の外縁からの距離と明度の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第2の占有率を算出する占有率算出手段と、
前記第1の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第1の指標(指標1、指標2)を算出するとともに、前記第2の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第2の指標(指標3)を算出する指標算出手段と、を備えることを特徴としている。
The invention according to
Color information acquisition means for acquiring color information for each divided region of the entire image;
Based on the color information acquired by the color information acquisition means, each of the divided areas is classified into a predetermined class composed of a combination of lightness and hue, and for each classified class, the divided areas belonging to the class are A first occupancy ratio indicating a ratio of the entire image is calculated, and each of the divided regions is classified into a predetermined class composed of a combination of a distance from the outer edge of the screen of the entire image and brightness, and the classified class An occupancy ratio calculating means for calculating a second occupancy ratio indicating the ratio of the divided area belonging to the class to the entire image for each time;
The first occupancy is multiplied by a coefficient set in advance according to shooting conditions to calculate a first index (
請求項3に記載の発明は、請求項1又は2に記載の撮像装置において、前記全体画像の画面中央部における肌色の平均輝度値と、前記全体画像の最大輝度値と平均輝度値との差分値のそれぞれに、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第3の指標(指標4)を算出する第3指標算出手段を備えることを特徴としている。 A third aspect of the present invention is the imaging apparatus according to the first or second aspect, wherein the difference between the average luminance value of the skin color at the center of the screen of the whole image and the maximum luminance value and the average luminance value of the whole image. It is characterized by comprising third index calculating means for calculating a third index (index 4) for specifying a shooting scene by multiplying each value by a coefficient set in advance according to the shooting conditions. Yes.
請求項4に記載の発明は、請求項1〜3の何れか一項に記載の撮像装置において、前記算出された各指標のうち、少なくとも前記第1の指標及び前記第2の指標に基づいて露出レベルの調節を行い、当該調節された露出レベルで本撮影を行う撮影制御手段を備えることを特徴としている。 According to a fourth aspect of the present invention, in the imaging apparatus according to any one of the first to third aspects, based on at least the first index and the second index among the calculated indices. It is characterized by comprising a photographing control means for adjusting the exposure level and performing actual photographing at the adjusted exposure level.
請求項5に記載の発明は、請求項1〜4の何れか一項に記載の撮像装置において、前記算出された各指標のうち、少なくとも前記第1の指標及び前記第2の指標に基づいて、本撮影で得られる撮影画像データに対する階調調整方法を決定する階調調整決定手段を備えることを特徴としている。 According to a fifth aspect of the present invention, in the imaging device according to any one of the first to fourth aspects, based on at least the first index and the second index among the calculated indices. Further, the image processing apparatus is characterized by comprising gradation adjustment determining means for determining a gradation adjustment method for photographed image data obtained by actual photographing.
請求項6に記載の発明は、請求項1〜5の何れか一項に記載の撮像装置において、前記算出された各指標のうち、少なくとも前記第1の指標及び前記第2の指標に基づいて、前記全体画像の撮影シーンを判別する判別手段を備えることを特徴としている。 According to a sixth aspect of the present invention, in the imaging apparatus according to any one of the first to fifth aspects, based on at least the first index and the second index among the calculated indices. And a discriminating means for discriminating a photographing scene of the whole image.
請求項7に記載の発明は、請求項1〜6の何れか一項に記載の撮像装置において、前記所定の階級は、最も低明度の階級における明度の範囲よりも、最も高明度の階級における明度の範囲の方が広いことを特徴としている。 According to a seventh aspect of the present invention, in the imaging apparatus according to any one of the first to sixth aspects, the predetermined class is in the highest lightness class than the lightness range in the lowest lightness class. It is characterized by a wider range of brightness.
請求項8に記載の発明は、請求項7に記載の撮像装置において、前記所定の階級は、最大の明度値の1割の値以内に、少なくとも3つの階級を有することを特徴としている。 According to an eighth aspect of the present invention, in the imaging apparatus according to the seventh aspect, the predetermined class has at least three classes within 10% of the maximum brightness value.
請求項9に記載の発明は、予備撮影によって得られる全体画像を複数の分割領域からなる分割画像として取得する取得工程と、
前記全体画像の各分割領域について、色情報を取得する色情報取得工程と、
前記色情報取得工程により取得された色情報に基づいて、前記各分割領域を、明度と色相の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第1占有率を算出する占有率算出工程と、
前記第1の占有率に、撮影条件に応じて予め設定された2種類の異なる係数を乗算することにより、撮影シーンを特定するための第1の指標(指標1)及び第2の指標(指標2)を算出する指標算出工程と、を含むことを特徴としている。
The invention according to claim 9 is an acquisition step of acquiring the whole image obtained by the preliminary shooting as a divided image composed of a plurality of divided regions;
For each divided region of the entire image, a color information acquisition step for acquiring color information;
Based on the color information acquired by the color information acquisition step, the divided areas are classified into predetermined classes composed of combinations of brightness and hue, and for each classified class, the divided areas belonging to the class are An occupancy ratio calculating step of calculating a first occupancy ratio indicating the ratio of the entire image;
A first index (index 1) and a second index (index) for specifying a shooting scene are obtained by multiplying the first occupation ratio by two different coefficients set in advance according to shooting conditions. And 2) an index calculation step for calculating (2).
請求項10に記載の発明は、予備撮影によって得られる全体画像を複数の分割領域からなる分割画像として取得する取得工程と、
前記全体画像の各分割領域について、色情報を取得する色情報取得工程と、
前記色情報取得工程により取得された色情報に基づいて、前記各分割領域を、明度と色相の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第1の占有率を算出するとともに、前記各分割領域を、前記全体画像の画面の外縁からの距離と明度の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第2の占有率を算出する占有率算出工程と、
前記第1の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第1の指標(指標1、指標2)を算出するとともに、前記第2の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第2の指標(指標3)を算出する指標算出工程と、を含むことを特徴としている。
The invention according to
For each divided region of the entire image, a color information acquisition step for acquiring color information;
Based on the color information acquired by the color information acquisition step, the divided areas are classified into predetermined classes composed of combinations of brightness and hue, and for each classified class, the divided areas belonging to the class are A first occupancy ratio indicating a ratio of the entire image is calculated, and each of the divided regions is classified into a predetermined class composed of a combination of a distance from the outer edge of the screen of the entire image and brightness, and the classified class An occupancy ratio calculating step for calculating a second occupancy ratio indicating the ratio of the divided area belonging to the class to the entire image for each time;
The first occupancy is multiplied by a coefficient set in advance according to shooting conditions to calculate a first index (
請求項11に記載の発明は、請求項9又は10に記載の画像処理方法において、前記全体画像の画面中央部における肌色の平均輝度値と、前記全体画像の最大輝度値と平均輝度値との差分値のそれぞれに、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第3の指標(指標4)を算出する第3指標算出工程を含むことを特徴としている。 The invention according to claim 11 is the image processing method according to claim 9 or 10, wherein the average luminance value of the skin color at the center of the screen of the whole image, and the maximum luminance value and the average luminance value of the whole image. A third index calculating step of calculating a third index (index 4) for specifying a shooting scene by multiplying each of the difference values by a coefficient set in advance according to the shooting conditions; It is said.
請求項12に記載の発明は、請求項9〜11の何れか一項に記載の画像処理方法において、前記算出された各指標のうち、少なくとも前記第1の指標及び前記第2の指標に基づいて露出レベルの調節を行い、当該調節された露出レベルで本撮影を行う撮影制御工程を含むことを特徴としている。 The invention according to claim 12 is the image processing method according to any one of claims 9 to 11, based on at least the first index and the second index among the calculated indices. A shooting control step of adjusting the exposure level and performing actual shooting at the adjusted exposure level.
請求項13に記載の発明は、請求項9〜12の何れか一項に記載の画像処理方法において、前記算出された各指標のうち、少なくとも前記第1の指標及び前記第2の指標に基づいて、本撮影で得られる撮影画像データに対する階調調整方法を決定する階調調整決定工程を含むことを特徴としている。 The invention according to claim 13 is the image processing method according to any one of claims 9 to 12, based on at least the first index and the second index among the calculated indices. And a gradation adjustment determining step for determining a gradation adjustment method for the captured image data obtained by the actual photographing.
請求項14に記載の発明は、請求項9〜13の何れか一項に記載の画像処理方法において、前記算出された各指標のうち、少なくとも前記第1の指標及び前記第2の指標に基づいて、前記全体画像の撮影シーンを判別する判別工程を含むことを特徴としている。 The invention according to claim 14 is the image processing method according to any one of claims 9 to 13, based on at least the first index and the second index among the calculated indices. And a discriminating step for discriminating a photographing scene of the whole image.
請求項15に記載の発明は、請求項9〜14の何れか一項に記載の画像処理方法において、前記所定の階級は、最も低明度の階級における明度の範囲よりも、最も高明度の階級における明度の範囲の方が広いことを特徴としている。
The invention according to
請求項16に記載の発明は、請求項15に記載の画像処理方法において、前記所定の階級は、最大の明度値の1割の値以内に、少なくとも3つの階級を有することを特徴としている。 According to a sixteenth aspect of the present invention, in the image processing method according to the fifteenth aspect, the predetermined class has at least three classes within 10% of the maximum brightness value.
請求項17に記載の発明は、画像処理を実行するためのコンピュータに、
予備撮影によって得られる全体画像を複数の分割領域からなる分割画像として取得する取得機能と、
前記全体画像の各分割領域について、色情報を取得する色情報取得機能と、
前記色情報取得機能により取得された色情報に基づいて、前記各分割領域を、明度と色相の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第1占有率を算出する占有率算出機能と、
前記第1の占有率に、撮影条件に応じて予め設定された2種類の異なる係数を乗算することにより、撮影シーンを特定するための第1の指標(指標1)及び第2の指標(指標2)を算出する指標算出機能と、を実現させるための画像処理プログラムである。
The invention according to claim 17 is a computer for executing image processing.
An acquisition function for acquiring an entire image obtained by preliminary shooting as a divided image composed of a plurality of divided areas;
For each divided area of the entire image, a color information acquisition function for acquiring color information;
Based on the color information acquired by the color information acquisition function, each of the divided areas is classified into a predetermined class consisting of a combination of lightness and hue, and for each classified class, the divided areas belonging to the class are An occupancy ratio calculation function for calculating a first occupancy ratio indicating the ratio of the entire image;
A first index (index 1) and a second index (index) for specifying a shooting scene are obtained by multiplying the first occupation ratio by two different coefficients set in advance according to shooting conditions. 2 is an image processing program for realizing an index calculation function for calculating 2).
請求項18に記載の発明は、画像処理を実行するためのコンピュータに、
予備撮影によって得られる全体画像を複数の分割領域からなる分割画像として取得する取得機能と、
前記全体画像の各分割領域について、色情報を取得する色情報取得機能と、
前記色情報取得機能により取得された色情報に基づいて、前記各分割領域を、明度と色相の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第1の占有率を算出するとともに、前記各分割領域を、前記全体画像の画面の外縁からの距離と明度の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第2の占有率を算出する占有率算出機能と、
前記第1の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第1の指標(指標1、指標2)を算出するとともに、前記第2の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第2の指標(指標3)を算出する指標算出機能と、を実現させるための画像処理プログラムである。
The invention according to claim 18 is a computer for executing image processing.
An acquisition function for acquiring an entire image obtained by preliminary shooting as a divided image composed of a plurality of divided areas;
For each divided area of the entire image, a color information acquisition function for acquiring color information;
Based on the color information acquired by the color information acquisition function, each of the divided areas is classified into a predetermined class consisting of a combination of lightness and hue, and for each classified class, the divided areas belonging to the class are A first occupancy ratio indicating a ratio of the entire image is calculated, and each of the divided regions is classified into a predetermined class composed of a combination of a distance from the outer edge of the screen of the entire image and brightness, and the classified class An occupancy ratio calculation function for calculating a second occupancy ratio indicating the ratio of the divided area belonging to the class to the entire image for each time;
The first occupancy is multiplied by a coefficient set in advance according to shooting conditions to calculate a first index (
請求項19に記載の発明は、請求項17又は18に記載の画像処理プログラムにおいて、前記全体画像の画面中央部における肌色の平均輝度値と、前記全体画像の最大輝度値と平均輝度値との差分値のそれぞれに、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第3の指標(指標4)を算出する第3指標算出機能を有することを特徴としている。 The invention according to claim 19 is the image processing program according to claim 17 or 18, wherein an average luminance value of a skin color in a central portion of the screen of the whole image, a maximum luminance value and an average luminance value of the whole image are obtained. It has a third index calculation function for calculating a third index (index 4) for specifying a shooting scene by multiplying each difference value by a coefficient set in advance according to shooting conditions. It is said.
請求項20に記載の発明は、請求項17〜19の何れか一項に記載の画像処理プログラムにおいて、前記算出された各指標のうち、少なくとも前記第1の指標及び前記第2の指標に基づいて露出レベルの調節を行い、当該調節された露出レベルで本撮影を行う撮影制御機能を有することを特徴としている。
The invention according to
請求項21に記載の発明は、請求項17〜20の何れか一項に記載の画像処理プログラムにおいて、前記算出された各指標のうち、少なくとも前記第1の指標及び前記第2の指標に基づいて、本撮影で得られる撮影画像データに対する階調調整方法を決定する階調調整決定機能を有することを特徴としている。
The invention according to
請求項22に記載の発明は、請求項17〜21の何れか一項に記載の画像処理プログラムにおいて、前記算出された各指標のうち、少なくとも前記第1の指標及び前記第2の指標に基づいて、前記全体画像の撮影シーンを判別する判別機能を有することを特徴としている。 According to a twenty-second aspect of the present invention, in the image processing program according to any one of the seventeenth to twenty-first aspects, based on at least the first index and the second index among the calculated indices. And having a discrimination function for discriminating the shooting scene of the whole image.
請求項23に記載の発明は、請求項17〜22の何れか一項に記載の画像処理プログラムにおいて、前記所定の階級は、最も低明度の階級における明度の範囲よりも、最も高明度の階級における明度の範囲の方が広いことを特徴としている。
The invention according to
請求項24に記載の発明は、請求項23に記載の画像処理プログラムにおいて、前記所定の階級は、最大の明度値の1割の値以内に、少なくとも3つの階級を有することを特徴としている。 According to a twenty-fourth aspect of the present invention, in the image processing program according to the twenty-third aspect, the predetermined class has at least three classes within 10% of the maximum brightness value.
請求項1〜3,9〜11,17〜19に記載の発明によれば、予備撮影によって得られる全体画像から撮影シーンを高精度に表す指標を算出することができる。
According to the invention described in
請求項4,12,20に記載の発明によれば、撮影シーンを高精度に表す指標を用いているため、本撮影のための露出の調整を的確に行うことができる。 According to the fourth, twelfth, and twentieth aspects of the present invention, since the index that represents the shooting scene with high accuracy is used, the exposure for the main shooting can be adjusted accurately.
請求項5,13,21に記載の発明によれば、撮影シーンを高精度に表す指標を用いているため、本撮影によって得られた撮影画像データに対する階調調整方法を的確に決定することができる。 According to the inventions of the fifth, thirteenth and twenty-first aspects, since the index representing the shooting scene with high accuracy is used, the gradation adjustment method for the shot image data obtained by the main shooting can be accurately determined. it can.
請求項6,14,22に記載の発明によれば、予備撮影によって得られる全体画像から撮影シーンを高精度に判別することができる。
According to the invention described in
請求項7,8,15,16、23,24に記載の発明によれば、リニアな画像データであっても低明度側の階級の分離がよくなり、高精度に撮影シーンを判別できる。 According to the seventh, eighth, fifteenth, sixteenth, twenty-third, and twenty-fourth aspects of the present invention, even in the case of linear image data, the separation of the lower lightness class is improved, and the photographic scene can be determined with high accuracy.
以下、図面を参照して、本発明の実施形態を説明する。
まず、本実施形態における構成について説明する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
First, the configuration in the present embodiment will be described.
図1(a)に、本発明の実施形態に係る撮像装置1の前面図を示し、図1(b)に、撮像装置1の背面図を示す。撮像装置1は、例えば、デジタルカメラであり、金属又は合成樹脂等の材料で構成された筐体21の内部又は表面に、十字キー22、撮影光学系23、フラッシュ24、ファインダ25、電源スイッチ26、表示部27、レリーズボタン28が設けられている。
FIG. 1A shows a front view of the
図2に、撮像装置1の内部構成を示す。撮像装置1は、図2に示すように、プロセッサ31、メモリ32、CCD(Charge Coupled Device)等の撮像素子33、シャッタユニット34、絞りユニット35、表示部27により構成される。
FIG. 2 shows an internal configuration of the
十字キー22は、上下左右の4方向のボタンからなり、ユーザが種々のモードを選択又は設定するためのものである。 The cross key 22 is made up of buttons in four directions, up, down, left, and right, and is for the user to select or set various modes.
撮影光学系23は、複数のレンズ、鏡胴等によって構成され、ズーム機能を有している。撮影光学系23は、レンズが受光した光を撮像素子33に結像させる。フラッシュ24は、被写体輝度が低い時に、プロセッサ31からの制御信号により補助光を照射する。
The photographing
ファインダ25は、ユーザが接眼して撮影対象及び撮影領域を確認するためのものである。電源スイッチ26は、撮像装置1における動作のON/OFFを操作するためのスイッチである。
The
表示部27は、液晶パネルにより構成され、プロセッサ31から入力される表示制御信号に従って、撮像素子33に現在写っている画像、過去に撮影した画像、メニュー画面、設定画面等を表示する。
The
レリーズボタン28は、筐体21の上面に設けられており、ユーザによる半押し状態(予備撮影)と全押し状態(本撮影)とを区別して検出可能な2段階押し込みスイッチである。
The
図3に、プロセッサ31の内部構成を示す。プロセッサ31は、撮像装置1の各部の動作を制御するものであり、図3に示すように、全体画像取得部101、色情報取得部102、占有率算出部103、指標算出部104、撮影シーン判別部105、撮影制御部106、階調調整決定部107により構成される。
FIG. 3 shows the internal configuration of the
全体画像取得部101は、レリーズボタン28が半押しされたタイミングで、撮像素子33に写った最新の全体画像(予備撮影によって得られる全体画像)の画像データを取得する。そして、その全体画像を、N×M個の矩形の領域(垂直方向にM個および水平方向にN個に等分された領域)に分割する。図4(a)に、全体画像の一例を示し、図4(b)に、当該全体画像が11×7個の領域に分割された例を示す。なお、分割領域の数は特に限定されない。本実施形態では、分割によって得られた各領域を「セル」と呼ぶことにする。
The entire
色情報取得部102は、各セルの色情報を取得する。色情報取得部102による色情報の取得方法については、後に図7及び図8を参照して詳細に説明する。
The color
占有率算出部103は、色情報取得部102で取得された色情報に基づいて、全体画像の各セルを、明度と色相の組み合わせからなる所定の階級に分類し(図10参照)、分類された階級毎に、当該階級に属するセルが全体画像に占める割合を示す第1の占有率を算出する。また、占有率算出部103は、各セルを、全体画像の画面の外縁からの距離と明度の組み合わせからなる所定の階級に分類し(図11参照)、分類された階級毎に、当該階級に属するセルが全体画像に占める割合を示す第2の占有率を算出する。占有率算出部103において実行される占有率算出処理については、後に図9を参照して詳細に説明する。
Based on the color information acquired by the color
指標算出部104は、占有率算出部103で算出された第1の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第1の指標(指標1、指標2)を算出する。また、指標算出部104は、占有率算出部103で算出された第2の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第2の指標(指標3)を算出する。更に、指標算出部104は、全体画像の画面中央部における平均輝度値と、最大輝度値と平均輝度値との差分値のそれぞれに、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第3の指標(指標4)を算出する。
The
また、指標算出部104は、全体画像の画面中央部における肌色領域の平均輝度値(指標4’)と、指標1及び指標3に、それぞれ、撮影条件に応じて予め設定された係数を乗算して和をとることにより、新たな指標5を算出する。また、指標算出部104は、当該平均輝度値と、指標2及び指標3に、それぞれ、撮影条件に応じて予め設定された係数を乗算して和をとることにより、新たな指標6を算出する。指標算出部104において実行される指標算出処理については、後に図12を参照して詳細に説明する。
In addition, the
撮影シーン判別部105は、指標算出部104で算出された各指標に基づいて、予備撮影で得られた全体画像の撮影シーンを判別する。ここで、撮影シーンとは、順光、逆光、近接フラッシュ等の被写体を撮影する時の光源条件を示しており、主要被写体(主に人物のことを指すが、これに限るものではない。)のオーバー度、アンダー度などもこれに含まれる。撮影シーン判別の方法については、後に詳細に説明する。
The shooting
撮影制御部106は、指標算出部104で算出された各指標(指標4〜6)と、撮影シーン判別部105における判別結果に基づいて、本撮影のために必要な露出レベルの調節を行う(図18参照)。
The
階調調整決定部107は、撮影シーン判別部105で判別された撮影シーンに基づいて、本撮影で得られた撮影画像データに対する階調調整方法(図20参照)を決定する。また、階調調整決定部107は、指標算出部104で算出された各指標に基づいて、本撮影で得られた撮影画像データに対する階調調整のための階調調整量を決定する。階調調整量の決定方法については、後に詳細に説明する。
The gradation
プロセッサ31における各部の処理は、基本的にハードウェア処理によって行われるが、一部についてはメモリ32に記憶(保存)されているプログラムを実行するなどしてソフトウェア処理によって行われる。
The processing of each unit in the
図2に戻り、メモリ32は、撮影によって得られた画像データを記憶(保存)する。また、メモリ32は、撮像装置1において実行される各種処理プログラム及び当該処理プログラムで利用されるデータ等を記憶する。
Returning to FIG. 2, the
撮像素子33は、結像された光を電荷に変換する。これにより、例えば、図4(a)に示すような画像データが得られる。この画像には、撮像範囲(撮影範囲)にある物、即ち、撮影対象物(撮影の目標物)とそれ以外の物(背景)とが含まれている。以下、このような撮影範囲全体の画像を「全体画像」と記載する。この全体画像の各画素のRGB値は、例えば、256階調で表される。
The
シャッタユニット34は、レリーズボタン28によって検出された状態(半押し状態又は全押し状態)に基づいて撮像素子33をリセットするタイミングおよび電荷変換を行うタイミングなどを制御する。撮像素子33が受光する光量の調節は、絞りユニット35及び/又はシャッタユニット34によって行われる。
The
次に、本実施形態における動作について説明する。
以下では、撮影対象物を「主要被写体」と呼ぶことにする。
まず、図5のフローチャートを参照して、撮像装置1で実行される処理の全体の流れを説明する。
Next, the operation in this embodiment will be described.
Hereinafter, the photographing object is referred to as “main subject”.
First, the overall flow of processing executed by the
まず、電源スイッチ26がONに操作されると(電源が投入されると)、メモリ32のリセット等の前処理が行われる(ステップS1)。ユーザは、主要被写体が撮像装置1の被写界に入るように撮像装置1をその主要被写体の方に向け、撮影のための操作を開始する。レリーズボタン28が半押し状態になると(ステップS2;YES)、予備撮影が行われ、予備撮影により得られた全体画像の画像データが、複数の分割領域からなる分割画像として取得される(ステップS3)。
First, when the
次いで、レンズに関する情報が取得され(ステップS4)、更に、モードやスイッチの設定などのスイッチ情報が取得される(ステップS5)。次いで、ステップS3〜S5で取得されたデータ(情報)に基づいて、全体画像の撮影シーンを判別する撮影シーン判別処理が行われる(ステップS6)。ステップS6における撮影シーン判別処理については、後に図6を参照して説明する。 Next, information about the lens is acquired (step S4), and switch information such as mode and switch setting is acquired (step S5). Next, based on the data (information) acquired in steps S3 to S5, a shooting scene determination process for determining the shooting scene of the entire image is performed (step S6). The shooting scene determination process in step S6 will be described later with reference to FIG.
次いで、ステップS6の撮影シーン判別処理で得られた各指標及び撮影シーンの判別結果に基づいて、本撮影のために必要な露出レベルを調節する露出レベル調節処理が行われる(ステップS7)。ステップS7の露出レベル調節処理については、後に図18を参照して説明する。 Next, an exposure level adjustment process for adjusting an exposure level necessary for the actual photographing is performed based on each index obtained in the photographing scene discrimination process of step S6 and the discrimination result of the photographing scene (step S7). The exposure level adjustment process in step S7 will be described later with reference to FIG.
ステップS4〜S7の処理と並行して、ステップS3で取得した全体画像が、表示部27に表示される(ステップS8)。本撮影のための他の条件が揃ってスタンバイが完了し(S9;YES)、且つレリーズボタン28が全押し状態になると(ステップS10;YES)、本撮影の動作処理が行われる(ステップS11)。ステップS11では、レリーズボタン28が全押し状態になったときの全体画像の画像データ(撮影画像データ)が取得され、保存用の記録媒体(SDメモリカードまたはマルチメディアカード(MMC)等)に記録される。また、本撮影で得られた撮影画像データは表示部27に表示される。
In parallel with the processes in steps S4 to S7, the entire image acquired in step S3 is displayed on the display unit 27 (step S8). When other conditions for main shooting are met and standby is completed (S9; YES), and the
次いで、撮影画像データに対する階調変換処理が行われる(ステップS12)。電源スイッチ26がONである間は、ステップS1に戻り、ユーザによって再度、レリーズボタン28が半押し状態になると、ステップS3〜S12の処理が繰り返される。一方、電源スイッチ26がOFFに操作されると(ステップS13;YES)、撮像装置1における動作は終了する。
Next, gradation conversion processing is performed on the captured image data (step S12). While the
次に、図6のフローチャート及び図7〜図17を参照して、撮影シーン判別処理(図5のステップS6)について説明する。 Next, with reference to the flowchart of FIG. 6 and FIGS. 7 to 17, the photographing scene determination process (step S6 of FIG. 5) will be described.
撮影シーン判別処理は、図6に示すように、色空間変換処理(ステップS20)、占有率算出処理(ステップS21)、指標算出処理(ステップS22)、撮影シーン判別(ステップS23)の各処理により構成される。以下、図7〜図17を参照して、図6に示す各処理について詳細に説明する。 As shown in FIG. 6, the shooting scene determination process includes a color space conversion process (step S20), an occupation ratio calculation process (step S21), an index calculation process (step S22), and a shooting scene determination (step S23). Composed. Hereinafter, each process illustrated in FIG. 6 will be described in detail with reference to FIGS.
まず、図7のフローチャートを参照して、色空間変換処理(図6のステップS20)について説明する。 First, the color space conversion process (step S20 in FIG. 6) will be described with reference to the flowchart in FIG.
まず、予備撮影で得られた全体画像の各セルのRGB値、輝度値及びホワイトバランスを示す情報が取得される(ステップS25)。これらの値は、そのセルに含まれる各画素のRGB値、輝度値などの平均的な値であり、公知のハードウェア処理によって容易に取得できる。なお、輝度値として、RGB値を公知の変換式に代入して算出した値を用いてもよい。 First, information indicating the RGB value, luminance value, and white balance of each cell of the entire image obtained by preliminary shooting is acquired (step S25). These values are average values such as the RGB value and the luminance value of each pixel included in the cell, and can be easily obtained by a known hardware process. As the luminance value, a value calculated by substituting RGB values into a known conversion formula may be used.
次いで、ステップS25で取得されたRGB値がHSV表色系に変換され、全体画像の色情報が取得される(ステップS26)。HSV表色系とは、画像データを色相(Hue)、彩度(Saturation)、明度(Value又はBrightness)の3つの要素を表すものであり、マンセルにより提案された表色体系を元にして考案されたものである。 Next, the RGB values acquired in step S25 are converted into the HSV color system, and color information of the entire image is acquired (step S26). The HSV color system represents the three elements of image data: Hue, Saturation, and Lightness (Value or Brightness), and was devised based on the color system proposed by Munsell. It has been done.
図8は、RGBからHSV表色系に変換することにより色相、彩度、明度を得る変換プログラム(HSV変換プログラム)の一例を、プログラムコード(c言語)により示したものである。図8に示すHSV変換プログラムでは、入力画像データであるデジタル画像データの値を、InR,InG,InBと定義し、算出された色相値をOutHとし、スケールを0〜360と定義し、彩度値をOutS、明度値をOutVとし、単位を0〜255と定義している。 FIG. 8 shows an example of a conversion program (HSV conversion program) that obtains hue, saturation, and lightness by converting from RGB to the HSV color system in program code (c language). In the HSV conversion program shown in FIG. 8, the values of digital image data as input image data are defined as InR, InG, and InB, the calculated hue value is defined as OutH, the scale is defined as 0 to 360, and the saturation The value is OutS, the brightness value is OutV, and the unit is defined as 0 to 255.
なお、本実施形態において、「明度」は特に注釈を設けない限り一般に用いられる「明るさ」の意味である。以下の記載において、HSV表色系のV(0〜255)を「明度」として用いるが、他の如何なる表色系の明るさを表す単位系を用いてもよい。その際、本実施形態で記載する各種係数等の数値を、改めて算出し直すことは言うまでもない。 In this embodiment, “brightness” means “brightness” generally used unless otherwise noted. In the following description, V (0 to 255) of the HSV color system is used as “brightness”, but a unit system representing the brightness of any other color system may be used. At that time, it goes without saying that numerical values such as various coefficients described in the present embodiment are recalculated.
また、本実施形態において、「色相」は特に注釈を設けない限り一般に用いられる「色」の意味である。以下の記載において、HSV表色系のH(0〜360)を「色相」として用いるが、例えば赤色差値(Cr)や青色差値(Cb)によって表現される色を用いてもよい。その際、本実施形態で記載する各種係数等の数値を、改めて算出し直すことは言うまでもない。色情報取得部102では、上記のようにして求められたH、S、Vの値が色情報として取得される。
In the present embodiment, “hue” means “color” that is generally used unless otherwise noted. In the following description, H (0 to 360) of the HSV color system is used as “hue”, but for example, a color represented by a red difference value (Cr) or a blue difference value (Cb) may be used. At that time, it goes without saying that numerical values such as various coefficients described in the present embodiment are recalculated. In the color
次に、図9のフローチャートを参照して、占有率算出処理(図6のステップS21)について説明する。 Next, the occupation rate calculation process (step S21 in FIG. 6) will be described with reference to the flowchart in FIG.
まず、色空間変換処理で算出されたHSV値に基づいて、全体画像の各セルが、色相と明度の組み合わせからなる所定の階級に分類され、分類された階級毎に累積セル数を算出することによって2次元ヒストグラムが作成される(ステップS30)。 First, based on the HSV value calculated in the color space conversion process, each cell of the entire image is classified into a predetermined class composed of a combination of hue and brightness, and the cumulative number of cells is calculated for each classified class. Thus, a two-dimensional histogram is created (step S30).
図10に、明度と色相の組み合わせからなる階級を示す。ステップS30では、明度(V)は、明度値が0〜5(v1),6〜12(v2),13〜24(v3),25〜76(v4),77〜109(v5),110〜149(v6),150〜255(v7)の7つの領域に分割される。図10に示すように、最も低明度の階級における明度の範囲よりも、最も高明度の階級における明度の範囲の方が広い。 FIG. 10 shows a class composed of a combination of brightness and hue. In step S30, the lightness (V) has lightness values of 0 to 5 (v1), 6 to 12 (v2), 13 to 24 (v3), 25 to 76 (v4), 77 to 109 (v5), 110 to It is divided into seven areas 149 (v6) and 150 to 255 (v7). As shown in FIG. 10, the brightness range in the highest brightness class is wider than the brightness range in the lowest brightness class.
色相(H)は、色相値が0〜39,330〜359の肌色色相領域(H1及びH2)、色相値が40〜160の緑色色相領域(H3)、色相値が161〜250の青色色相領域(H4)、赤色色相領域(H5)の4つの領域に分割される。なお、赤色色相領域(H5)は、撮影シーンの判別への寄与が少ないとの知見から、以下の計算では用いていない。肌色色相領域は、更に、肌色領域(H1)と、それ以外の領域(H2)に分割される。以下、肌色色相領域(H=0〜39,330〜359)のうち、下記の式(1)を満たす色相’(H)を肌色領域(H1)とし、式(1)を満たさない領域を(H2)とする。
10 < 彩度(S) <175;
色相'(H) = 色相(H) + 60 (0 ≦ 色相(H) < 300のとき);
色相'(H) = 色相(H) - 300 (300 ≦ 色相(H) < 360のとき).
輝度(Y) = InR × 0.30 + InG × 0.59 + InB × 0.11 (A)
として、
色相’(H)/輝度(Y) < 3.0 ×(彩度(S)/255)+0.7 (1)
Hue (H) is a skin hue hue area (H1 and H2) with a hue value of 0 to 39, 330 to 359, a green hue area (H3) with a hue value of 40 to 160, and a blue hue area with a hue value of 161 to 250 It is divided into four areas (H4) and a red hue area (H5). Note that the red hue region (H5) is not used in the following calculation because it is found that the contribution to the discrimination of the shooting scene is small. The flesh-color hue area is further divided into a flesh-color area (H1) and other areas (H2). Hereinafter, among the flesh-colored hue areas (H = 0 to 39, 330 to 359), the hue '(H) that satisfies the following formula (1) is defined as the flesh-colored area (H1), H2).
10 <Saturation (S) <175;
Hue '(H) = Hue (H) + 60 (when 0 ≤ Hue (H) <300);
Hue '(H) = Hue (H)-300 (when 300 ≤ Hue (H) <360).
Luminance (Y) = InR x 0.30 + InG x 0.59 + InB x 0.11 (A)
As
Hue '(H) / Luminance (Y) <3.0 × (Saturation (S) / 255) +0.7 (1)
従って、全体画像における階級の数は4×7=28個となる。また、最大の明度値(255)の1割の値以内に、少なくとも3つの階級(v1,v2,v3)を有する。なお、式(A)及び式(1)において明度(V)を用いることも可能である。 Therefore, the number of classes in the entire image is 4 × 7 = 28. Further, it has at least three classes (v1, v2, v3) within 10% of the maximum brightness value (255). In addition, it is also possible to use the brightness (V) in Formula (A) and Formula (1).
ステップS30の後、全体画像の各セルが、画面の外縁からの距離と明度の組み合わせからなる所定の階級に分類され、分類された階級毎に累積セル数を算出することによって2次元ヒストグラムが作成される(ステップS31)。 After step S30, each cell of the entire image is classified into a predetermined class composed of a combination of the distance from the outer edge of the screen and the brightness, and a two-dimensional histogram is created by calculating the cumulative number of cells for each classified class. (Step S31).
図11(a)に、ステップS31において、全体画像の画面の外縁からの距離に応じて分割された3つの領域n1〜n3を示す。領域n1が外枠であり、領域n2が、外枠の内側の領域であり、領域n3が、全体画像の中央部の領域である。また、ステップS31において、明度は、上述のようにv1〜v7の7つの領域に分割するものとする。図11(b)に、3つの領域n1〜n3と明度の組み合わせからなる階級を示す。図11(b)に示すように、全体画像を画面の外縁からの距離と明度の組み合わせからなる階級に分類した場合の階級の数は3×7=21個となる。 FIG. 11A shows three regions n1 to n3 divided in step S31 according to the distance from the outer edge of the screen of the entire image. The region n1 is an outer frame, the region n2 is a region inside the outer frame, and the region n3 is a central region of the entire image. In step S31, the brightness is divided into seven regions v1 to v7 as described above. FIG. 11B shows a class composed of combinations of three regions n1 to n3 and brightness. As shown in FIG. 11B, the number of classes when the entire image is classified into classes composed of combinations of the distance from the outer edge of the screen and the brightness is 3 × 7 = 21.
ステップS30において2次元ヒストグラムが作成されると、明度と色相の組み合わせからなる所定の階級毎に算出された累積セル数の全セル数(N×M個)に占める割合を示す第1の占有率が算出される(ステップS32)。明度領域vi、色相領域Hjの組み合わせからなる階級において算出された第1の占有率をRijとすると、各階級における第1の占有率は表1のように表される。
ステップS31において2次元ヒストグラムが作成されると、画面の外縁からの距離と明度の組み合わせからなる所定の階級毎に算出された累積セル数の全セル数に占める割合を示す第2占有率が算出され(ステップS33)、本占有率算出処理が終了する。明度領域vi、画面領域njの組み合わせからなる各階級において算出された第2の占有率をQijとすると、各階級における第2の占有率は表2のように表される。
次に、図12のフローチャートを参照して、指標算出処理(図6のステップS22)について説明する。 Next, the index calculation process (step S22 in FIG. 6) will be described with reference to the flowchart in FIG.
まず、占有率算出処理において階級毎に算出された第1の占有率に、撮影条件に応じて予め設定された2種類の異なる係数(第1の係数、第2の係数)を乗算して和をとることにより、撮影シーンを特定するための指標1、指標2が算出される(ステップS40)。指標1は、主要被写体のオーバー度を表す指標であり、「主要被写体がオーバー」と判別されるべき画像のみを他の撮影シーンから分離するためのものである。指標2は、空色高明度、顔色低明度等の逆光撮影時の特徴を複合的に表す指標であり、「逆光」、「主要被写体がアンダー」と判別されるべき画像のみを他の撮影シーンから分離するためのものである。
First, the first occupancy ratio calculated for each class in the occupancy ratio calculation process is multiplied by two different coefficients (first coefficient and second coefficient) set in advance according to the shooting conditions. By taking the above,
以下、指標1及び指標2の算出方法について詳細に説明する。
表3に、指標1を算出するために必要な第1の係数を階級別に示す。表3に示された各階級の係数は、表1に示した各階級の第1の占有率Rijに乗算する重み係数であり、撮影条件に応じて予め設定されている。
Table 3 shows the first coefficient necessary for calculating the
表3によると、高明度(v6)の肌色色相領域(H1)に分布する領域から算出される第1の占有率には、正(+)の係数が用いられ、それ以外の色相である青色色相領域から算出される第1の占有率には、負(-)の係数が用いられる。図13は、肌色領域(H1)における第1の係数と、その他の領域(緑色色相領域(H3))における第1の係数を、明度全体に渡って連続的に変化する曲線(係数曲線)として示したものである。表3及び図13によると、高明度(V=77〜150)の領域では、肌色領域(H1)における第1の係数の符号は正(+)であり、その他の領域(例えば、緑色色相領域(H3))における第1の係数の符号は負(-)であり、両者の符号が異なっていることがわかる。 According to Table 3, a positive (+) coefficient is used for the first occupancy calculated from the area distributed in the skin color hue area (H1) of high brightness (v6), and the other hue is blue. A negative (−) coefficient is used for the first occupation ratio calculated from the hue region. FIG. 13 shows the first coefficient in the skin color area (H1) and the first coefficient in the other area (green hue area (H3)) as a curve (coefficient curve) that changes continuously over the entire brightness. It is shown. According to Table 3 and FIG. 13, in the region of high brightness (V = 77 to 150), the sign of the first coefficient in the skin color region (H1) is positive (+), and other regions (for example, the green hue region) The sign of the first coefficient in (H3)) is negative (-), and it can be seen that the signs of the two are different.
明度領域vi、色相領域Hjにおける第1の係数をCijとすると、指標1を算出するためのHk領域の和は、式(2)のように定義される。
H1領域の和=R11×0+R21×0+(中略)...+R71×(-8) (2-1)
H2領域の和=R12×(-2)+R22×(-1)+(中略)... +R72×(-10) (2-2)
H3領域の和=R13×5+R23×(-2)+(中略)...+R73×(-12) (2-3)
H4領域の和=R14×0+R24×(-1)+(中略)...+R74×(-12) (2-4)
When the first coefficient in the lightness region vi and the hue region Hj is Cij, the sum of the Hk regions for calculating the
H1 area sum = R11 x 0 + R21 x 0 + (omitted) ... + R71 x (-8) (2-1)
Sum of H2 area = R12 x (-2) + R22 x (-1) + (omitted) ... + R72 x (-10) (2-2)
Sum of H3 area = R13 x 5 + R23 x (-2) + (omitted) ... + R73 x (-12) (2-3)
Sum of H4 area = R14 x 0 + R24 x (-1) + (omitted) ... + R74 x (-12) (2-4)
指標1は、式(2-1)〜(2-4)で示されたH1〜H4領域の和を用いて、式(3)のように定義される。
指標1=H1領域の和+H2領域の和+H3領域の和+H4領域の和+1.5 (3)
The
表4に、指標2を算出するために必要な第2の係数を階級別に示す。表4に示された各階級の係数は、表1に示した各階級の第1の占有率Rijに乗算する重み係数であり、撮影条件に応じて予め設定されている。
表4によると、肌色色相領域(H1)の中間明度に分布する領域(v4, v5)から算出される占有率には負(-)の係数が用いられ、肌色色相領域(H1)の低明度(シャドー)領域(v2, v3)から算出される占有率には係数0が用いられる。図14は、肌色領域(H1)における第2の係数を、明度全体にわたって連続的に変化する曲線(係数曲線)として示したものである。表4及び図14によると、肌色色相領域の、明度値が25〜150の中間明度領域の第2の係数の符号は負(-)であり、明度値6〜24の低明度(シャドー)領域の第2の係数は0であり、両領域での係数に大きな違いがあることがわかる。 According to Table 4, a negative (-) coefficient is used for the occupancy calculated from the areas (v4, v5) distributed in the intermediate brightness of the flesh hue area (H1), and the low brightness of the flesh hue area (H1). A coefficient of 0 is used for the occupation ratio calculated from the (shadow) region (v2, v3). FIG. 14 shows the second coefficient in the skin color region (H1) as a curve (coefficient curve) that continuously changes over the entire brightness. According to Table 4 and FIG. 14, the sign of the second coefficient of the intermediate lightness region having a lightness value of 25 to 150 in the flesh color hue region is negative (−), and the low lightness (shadow) region having a lightness value of 6 to 24 The second coefficient is 0, and it can be seen that there is a large difference between the coefficients in both regions.
明度領域vi、色相領域Hjにおける第2の係数をDijとすると、指標2を算出するためのHk領域の和は、式(4)のように定義される。
H1領域の和=R11×0+R21×0+(中略)...+R71×2 (4-1)
H2領域の和=R12×(-2)+R22×(-1)+(中略)... +R72×2 (4-2)
H3領域の和=R13×2+R23×1+(中略)...+R73×3 (4-3)
H4領域の和=R14×0+R24×(-1)+(中略)...+R74×3 (4-4)
When the second coefficient in the lightness area vi and the hue area Hj is Dij, the sum of the Hk areas for calculating the
H1 area sum = R11 x 0 + R21 x 0 + (omitted) ... + R71 x 2 (4-1)
Sum of H2 area = R12 x (-2) + R22 x (-1) + (omitted) ... + R72 x 2 (4-2)
Sum of H3 area = R13 x 2 + R23 x 1 + (omitted) ... + R73 x 3 (4-3)
H4 area sum = R14 x 0 + R24 x (-1) + (omitted) ... + R74 x 3 (4-4)
指標2は、式(4-1)〜(4-4)で示されたH1〜H4領域の和を用いて、式(5)のように定義される。
指標2=H1領域の和+H2領域の和+H3領域の和+H4領域の和+1.7 (5)
指標1及び指標2は、全体画像の明度と色相の分布量に基づいて算出されるため、全体画像がカラー画像である場合の撮影シーンの判別に有効である。
The
Since the
指標1及び指標2が算出されると、占有率算出処理において階級毎に算出された第2の占有率に、撮影条件に応じて予め設定された第3の係数(第1の係数、第2の係数とは異なる係数)を乗算して和をとることにより、撮影シーンを特定するための指標3が算出される(ステップS41)。指標3は、主要被写体がアンダーな逆光と主要被写体がオーバーな画像間における、画像データの画面の中心と外側の明暗関係の差異を示すものである。
When the
以下、指標3の算出方法について説明する。
表5に、指標3を算出するために必要な第3の係数を階級別に示す。表5に示された各階級の係数は、表2に示した各階級の第2の占有率Qijに乗算する重み係数であり、撮影条件に応じて予め設定されている。
Table 5 shows the third coefficient necessary for calculating the index 3 by class. The coefficient of each class shown in Table 5 is a weighting coefficient by which the second occupation ratio Qij of each class shown in Table 2 is multiplied, and is set in advance according to the shooting conditions.
明度領域vi、画面領域njにおける第3の係数をEijとすると、指標3を算出するためのnk領域(画面領域nk)の和は、式(6)のように定義される。
n1領域の和=Q11×12+Q21×10+(中略)...+Q71×0 (6-1)
n2領域の和=Q12×5+Q22×3+(中略)...+Q72×0 (6-2)
n3領域の和=Q13×(-1)+Q23×(-4)+(中略)...+Q73×(-8) (6-3)
If the third coefficient in the brightness area vi and the screen area nj is Eij, the sum of the nk area (screen area nk) for calculating the index 3 is defined as in Expression (6).
n1 area sum = Q11 x 12 + Q21 x 10 + (omitted) ... + Q71 x 0 (6-1)
n2 area sum = Q12 x 5 + Q22 x 3 + (omitted) ... + Q72 x 0 (6-2)
n3 area sum = Q13 x (-1) + Q23 x (-4) + (omitted) ... + Q73 x (-8) (6-3)
指標3は、式(6-1)〜(6-3)で示されたn1〜n3領域の和を用いて、式(7)のように定義される。
指標3=n1領域の和+n2領域の和+n3領域の和+0.7 (7)
指標3は、全体画像の明度の分布位置による構図的な特徴(全体画像の画面の外縁からの距離)に基づいて算出されるため、カラー画像だけでなくモノクロ画像の撮影シーンを判別するのにも有効である。
The index 3 is defined as in Expression (7) using the sum of the n1 to n3 regions shown in Expressions (6-1) to (6-3).
Index 3 = sum of n1 area + sum of n2 area + sum of n3 area + 0.7 (7)
The index 3 is calculated on the basis of the compositional characteristic (distance from the outer edge of the screen of the entire image) based on the distribution position of the brightness of the entire image, so that it can be used to discriminate not only a color image but also a monochrome image shooting scene. Is also effective.
また、例えば公知の方法によって検出された焦点検出領域に応じて、画面の外縁からの距離と明度の所定の階級から算出される第2占有率に対して乗算される第3の係数の重みを変えることで、より高精度にシーンを判別する指標を算出することが可能である。 Further, for example, according to the focus detection area detected by a known method, the weight of the third coefficient multiplied by the second occupancy calculated from the distance from the outer edge of the screen and the predetermined class of brightness is set. By changing, it is possible to calculate an index for discriminating a scene with higher accuracy.
指標1〜3が算出されると、予備撮影で得られた全体画像の画面中央部における肌色の平均輝度値と、全体画像の最大輝度値と平均輝度値との差分値のそれぞれに、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための指標4が算出される(ステップS42)。
When the
以下、図16のフローチャートを参照して、指標4の算出処理について詳細に説明する。 Hereinafter, the calculation process of the index 4 will be described in detail with reference to the flowchart of FIG.
まず、全体画像の画像データのRGB(Red,Green,Blue)値から、式(A)を用いて輝度Yが算出される。次いで、全体画像の画面中央部における肌色領域の平均輝度値x1が算出される(ステップS50)。ここで、画面中央部とは、例えば図11(a)に示した領域n3により構成される領域である。次いで、全体画像の最大輝度値と平均輝度値との差分値x2=最大輝度値−平均輝度値が算出される(ステップS51)。 First, the luminance Y is calculated from the RGB (Red, Green, Blue) values of the image data of the entire image using the equation (A). Next, the average luminance value x1 of the skin color area at the center of the screen of the entire image is calculated (step S50). Here, the center of the screen is an area constituted by, for example, the area n3 shown in FIG. Next, the difference value x2 between the maximum luminance value and the average luminance value of the entire image is calculated (step S51).
次いで、全体画像の輝度の標準偏差x3が算出され(ステップS52)、画面中央部における平均輝度値x4が算出される(ステップS53)。次いで、全体画像における肌色領域の最大輝度値Yskin_maxと最小輝度値Yskin_minの差分値と、肌色領域の平均輝度値Yskin_aveとの比較値x5が算出される(ステップS54)。この比較値x5は、下記の式(8-1)のように表される。
x5=(Yskin_max−Yskin_min)/2 −Yskin_ave (8-1)
Next, the standard deviation x3 of the luminance of the entire image is calculated (step S52), and the average luminance value x4 at the center of the screen is calculated (step S53). Next, a comparison value x5 between the difference value between the maximum luminance value Yskin_max and the minimum luminance value Yskin_min of the skin color area in the whole image and the average luminance value Yskin_ave of the skin color area is calculated (step S54). This comparison value x5 is expressed as the following equation (8-1).
x5 = (Yskin_max−Yskin_min) / 2 −Yskin_ave (8-1)
次いで、ステップS50〜S54で算出された値x1〜x5の値の各々に、撮影条件に応じて予め設定された第4の係数を乗算して和をとることにより、指標4が算出され(ステップS55)、指標4算出処理が終了する。指標4は、下記の式(8-2)のように定義される。
指標4=0.05×x1+1.41×x2+(−0.01)×x3+(−0.01)×x4+0.01×x5−5.34 (8-2)
この指標4は、予備撮影で得られた全体画像の画面の構図的な特徴だけでなく、輝度ヒストグラム分布情報を持ち合わせており、特に、主要被写体がオーバーである撮影シーンとアンダー撮影シーンの判別に有効である。
Next, the index 4 is calculated by multiplying each of the values x1 to x5 calculated in steps S50 to S54 by a fourth coefficient set in advance according to the shooting conditions to obtain a sum (step 4). S55), the index 4 calculation process ends. The index 4 is defined as the following formula (8-2).
Index 4 = 0.05 × x1 + 1.41 × x2 + (− 0.01) × x3 + (− 0.01) × x4 + 0.01 × x5−5.34 (8-2)
This index 4 has not only the compositional characteristics of the screen of the whole image obtained by the preliminary shooting but also the luminance histogram distribution information. In particular, this index 4 is used for discriminating a shooting scene from which the main subject is over and an under shooting scene. It is valid.
指標4が算出されると、指標1〜3及び全体画像の画面中央部における肌色領域の平均輝度値に、撮影条件に応じて予め設定された重み係数を乗算することにより、指標5及び指標6が算出され(ステップS43)、本指標算出処理が終了する。
When the index 4 is calculated, the average luminance value of the skin color area in the center of the screen of the
以下、指標5及び指標6の算出方法について詳細に説明する。
予備撮影で得られた全体画像の画面中央部における肌色領域の平均輝度値を指標4'とする。ここでの画面中央部とは、例えば、図11(a)の領域n2及び領域n3から構成される領域である。このとき、指標5は、指標1、指標3、指標4'を用いて式(9)のように定義され、指標6は、指標2、指標3、指標4'を用いて式(10)のように定義される。
指標5=0.54×指標1+0.50×指標3+0.01×指標4'−0.65 (9)
指標6=0.83×指標2+0.23×指標3+0.01×指標4'−1.17 (10)
Hereinafter, the calculation method of the index 5 and the index 6 will be described in detail.
The average luminance value of the skin color area at the center of the screen of the entire image obtained by the preliminary shooting is defined as an index 4 ′. Here, the central portion of the screen is, for example, a region composed of the region n2 and the region n3 in FIG. At this time, the index 5 is defined as shown in the formula (9) using the
Index 5 = 0.54 ×
Indicator 6 = 0.83 x
なお、図16における平均輝度値(例えば、全体平均輝度値)の算出方法としては、撮像装置1の各受光部から得られた個別輝度データの単純な加算平均値を求めてもよいし、撮像装置1の測光方式としてよく用いられる中央重点平均測光に類似した、画面中心付近の受光部より得られた輝度データに重み付けを高く、画面の周辺付近の受光部より得られた輝度データに重み付けを低くして加算平均値を求める手法を用いてもよい。また、焦点検出領域に対応した受光部付近より得られた輝度データに重み付けを高くし、焦点検出位置から離れた受光部より得られた輝度データに重み付けを低くして加算平均値を求める手法等を用いてもよい。
Note that, as a method of calculating the average luminance value (for example, the overall average luminance value) in FIG. 16, a simple addition average value of individual luminance data obtained from each light receiving unit of the
指標4〜6が算出されると、これらの指標の値に基づいて撮影シーンが判別される(ステップS23)。表6に、指標4、指標5及び指標6の値による撮影シーンの判別内容を示す。
次に、図18のフローチャートを参照して、指標4〜6、判別された撮影シーンに基づいて、本撮影における露出レベルの調節を行う露出レベル調節処理(図5のステップS7)について説明する。 Next, the exposure level adjustment process (step S7 in FIG. 5) for adjusting the exposure level in the main shooting based on the indices 4 to 6 and the determined shooting scene will be described with reference to the flowchart of FIG.
まず、指標4〜6及び判別された撮影シーンに基づいて、本撮影において適性露出となるように露出調節値が算出される(ステップS60)。露出調節値は式(11)のように定義される。
露出調節値=調節値×{(指標4/6)×指標4の重み+(指標5/6)×指標5の重み+(指標6/6)×指標6の重み} (11)
表7に、式(11)における調節値、指標4の重み、指標5の重み、指標6の重みを示す。表7に示すように、調節値及び各指標の重みは、判別された撮影シーンに応じて設定されている。なお、露出補正値の算出方法は、特に式(11)に限ったものではなく、例えば、肌色と判定されたセルの平均輝度値と指標値に基づいて算出されてもよい。
Exposure adjustment value = adjustment value × {(index 4/6) × weight of index 4+ (index 5/6) × weight of index 5+ (index 6/6) × weight of index 6} (11)
Table 7 shows the adjustment value, the weight of the index 4, the weight of the index 5, and the weight of the index 6 in Expression (11). As shown in Table 7, the adjustment value and the weight of each index are set according to the determined shooting scene. Note that the method of calculating the exposure correction value is not particularly limited to Expression (11), and may be calculated based on, for example, the average luminance value and the index value of the cell determined to be skin color.
次いで、ステップS60で算出された露出調節値に基づいて、絞りユニット35(又はシャッタユニット34)が制御され(ステップS61)、本露出レベル調節処理が終了する。なお、図18の露出レベル調節処理と並行して、撮影制御部106によって、焦点の調節を行ってもよい。例えば、公知の方法を用いて焦点領域を検出し、見つかったその領域が合焦領域となるように、図1の撮影光学系23などの制御(AF)をおこなってもよい。また、判別された撮影シーンに応じてフラッシュ発光の有無を決定してもよい。例えば、シーンが逆光と判別された場合は、フラッシュ発光を行って主要被写体を適正な明るさにすることが可能である。
Next, based on the exposure adjustment value calculated in step S60, the aperture unit 35 (or shutter unit 34) is controlled (step S61), and the main exposure level adjustment process ends. In parallel with the exposure level adjustment process of FIG. 18, the photographing
次に、図19のフローチャートを参照して、本撮影で得られた撮影画像データに対する階調変換処理(図5のステップS12)について説明する。 Next, with reference to the flowchart of FIG. 19, the gradation conversion process (step S12 of FIG. 5) for the captured image data obtained by the actual photographing will be described.
まず、判別された撮影シーンに応じて、本撮影で得られた撮影画像データに対する階調調整の方法と階調調整量が決定される(ステップS70)。なお、本実施形態では、ステップS70において階調調整方法と階調調整量の双方を決定する場合を示すが、どちらか一方でもよい。 First, the gradation adjustment method and gradation adjustment amount for the captured image data obtained in the actual photographing are determined according to the determined photographing scene (step S70). In the present embodiment, a case where both the gradation adjustment method and the gradation adjustment amount are determined in step S70 is shown, but either one may be used.
階調調整方法を決定する場合、図20に示すように、撮影シーンが順光である場合は階調調整方法A(図20(a))が選択され、逆光である場合は階調調整方法B(図20(b))が選択され、主要被写体がオーバーである場合は階調調整方法C(図20(c))が選択され、アンダーである場合は、階調調整方法B(図20(b))が選択される。 When determining the gradation adjustment method, as shown in FIG. 20, the gradation adjustment method A (FIG. 20 (a)) is selected when the shooting scene is a continuous light, and the gradation adjustment method is selected when the photographing scene is a backlight. When B (FIG. 20B) is selected and the main subject is over, the tone adjustment method C (FIG. 20C) is selected, and when it is under, the tone adjustment method B (FIG. 20) is selected. (B)) is selected.
階調調整方法が決定されると、指標算出処理で算出された各指標に基づいて、階調調整に必要なパラメータが算出される。以下、階調調整パラメータの算出方法について説明する。なお、以下では、8bitの撮影画像データは16bitへと事前に変換されているものとし、撮影画像データの値の単位は16bitであるものとする。 When the gradation adjustment method is determined, parameters necessary for gradation adjustment are calculated based on each index calculated in the index calculation process. Hereinafter, a method for calculating the gradation adjustment parameter will be described. In the following description, it is assumed that the 8-bit captured image data is converted in advance to 16 bits, and the unit of the value of the captured image data is 16 bits.
階調調整に必要なパラメータ(階調調整パラメータ)として、下記のP1〜P9のパラメータが算出される。
P1:撮影画面全体の平均輝度
P2:ブロック分割平均輝度
P3:肌色領域(H1)の平均輝度
P4:輝度補正値1=P1−P2
P5:再現目標修正値=輝度再現目標値(30360)−P4
P6:オフセット値1=P5−P1
P7:キー補正値
P7’:キー補正値2
P8:輝度補正値2
P9:オフセット値2=P5−P8−P1
As parameters necessary for gradation adjustment (gradation adjustment parameters), the following parameters P1 to P9 are calculated.
P1: Average brightness of the entire shooting screen
P2: Block division average brightness
P3: Average brightness of skin tone area (H1)
P4:
P5: Reproduction target correction value = Brightness reproduction target value (30360)-P4
P6: Offset
P7: Key correction value
P7 ':
P8:
P9: Offset
ここで、図21及び図22を参照して、パラメータP2(ブロック分割平均輝度)の算出方法について説明する。
まず、撮影画像データを正規化するために、CDF(累積密度関数)を作成する。次いで、得られたCDFから最大値と最小値を決定する。この最大値と最小値は、RGB毎に求める。ここで、求められたRGB毎の最大値と最小値を、それぞれ、Rmax、Rmin、Gmax、Gmin、Bmax、Bminとする。
Here, a calculation method of the parameter P2 (block division average luminance) will be described with reference to FIGS.
First, a CDF (cumulative density function) is created in order to normalize captured image data. Next, the maximum value and the minimum value are determined from the obtained CDF. The maximum value and the minimum value are obtained for each RGB. Here, the maximum value and the minimum value obtained for each RGB are Rmax, Rmin, Gmax, Gmin, Bmax, and Bmin, respectively.
次いで、撮影画像データの任意の画素(Rx,Gx,Bx)に対する正規化画像データを算出する。RプレーンにおけるRxの正規化データをRpoint、GプレーンにおけるGxの正規化データをGpoint、BプレーンにおけるBxの正規化データをBpointとすると、正規化データRpoint、Gpoint、Bpointは、それぞれ、式(12)〜式(14)のように表される。
Rpoint={(Rx−Rmin)/(Rmax−Rmin)}×65535 (12);
Gpoint={(Gx−Gmin)/(Gmax−Gmin)}×65535 (13);
Bpoint={(Bx−Bmin)/(Bmax−Bmin)}×65535 (14).
次いで、式(15)により画素(Rx,Gx,Bx)の輝度Npointを算出する。
Npoint=(Bpoint+Gpoint+Rpoint)/3 (15)
Next, normalized image data for any pixel (Rx, Gx, Bx) of the captured image data is calculated. When Rx normalization data in the R plane is R point , Gx normalization data in the G plane is G point , and Bx normalization data in the B plane is B point , the normalization data R point , G point , B point are , Respectively, are expressed as in Expression (12) to Expression (14).
R point = {(Rx−Rmin) / (Rmax−Rmin)} × 65535 (12);
G point = {(Gx−Gmin) / (Gmax−Gmin)} × 65535 (13);
B point = {(Bx−Bmin) / (Bmax−Bmin)} × 65535 (14).
Next, the luminance N point of the pixel (Rx, Gx, Bx) is calculated by Expression (15).
N point = (B point + G point + R point ) / 3 (15)
図21(a)は、正規化する前のRGB画素の輝度の度数分布(ヒストグラム)である。図21(a)において、横軸は輝度、縦軸は画素の頻度である。このヒストグラムは、RGB毎に作成する。輝度のヒストグラムが作成されると、式(12)〜式(14)により、撮影画像データに対し、プレーン毎に正規化を行う。図21(b)は、式(15)により算出された輝度のヒストグラムを示す。撮影画像データが65535で正規化されているため、各画素は、最大値が65535で最小値が0の間で任意の値をとる。
FIG. 21A shows a frequency distribution (histogram) of luminance of RGB pixels before normalization. In FIG. 21A, the horizontal axis represents luminance, and the vertical axis represents pixel frequency. This histogram is created for each RGB. When the luminance histogram is created, normalization is performed for each plane with respect to the photographed image data by Expressions (12) to (14). FIG. 21B shows a histogram of luminance calculated by the equation (15). Since the captured image data is normalized by 65535, each pixel takes an arbitrary value between the maximum value 65535 and the
図21(b)に示す輝度ヒストグラムを所定の範囲で区切ってブロックに分割すると、図21(c)に示すような度数分布が得られる。図21(c)において、横軸はブロック番号(輝度)、縦軸は頻度である。 When the luminance histogram shown in FIG. 21B is divided into blocks divided by a predetermined range, a frequency distribution as shown in FIG. 21C is obtained. In FIG. 21C, the horizontal axis is the block number (luminance), and the vertical axis is the frequency.
次いで、図21(c)に示された輝度ヒストグラムから、ハイライト、シャドー領域を削除する処理を行う。これは、白壁や雪上シーンでは、平均輝度が非常に高くなり、暗闇のシーンでは平均輝度は非常に低くなっているため、ハイライト、シャドー領域は、平均輝度制御に悪影響を与えてしまうことによる。そこで、図21(c)に示した輝度ヒストグラムのハイライト領域、シャドー領域を制限することによって、両領域の影響を減少させる。図22(a)(又は図21(c))に示す輝度ヒストグラムにおいて、高輝度領域(ハイライト領域)及び低輝度領域(シャドー領域)を削除すると、図22(b)のようになる。 Next, processing for deleting highlight and shadow areas is performed from the luminance histogram shown in FIG. This is because the average brightness is very high in white walls and snow scenes, and the average brightness is very low in dark scenes, so highlights and shadow areas adversely affect average brightness control. . Therefore, by limiting the highlight area and shadow area of the luminance histogram shown in FIG. 21C, the influence of both areas is reduced. If the high luminance region (highlight region) and the low luminance region (shadow region) are deleted from the luminance histogram shown in FIG. 22A (or FIG. 21C), the result is as shown in FIG.
次いで、図22(c)に示すように、輝度ヒストグラムにおいて、頻度が所定の閾値より大きい領域を削除する。これは、頻度が極端に多い部分が存在すると、この部分のデータが、撮影画像全体の平均輝度に強く影響を与えてしまうため、誤補正が生じやすいことによる。そこで、図22(c)に示すように、輝度ヒストグラムにおいて、閾値以上の画素数を制限する。図22(d)は、画素数の制限処理を行った後の輝度ヒストグラムである。 Next, as shown in FIG. 22 (c), in the luminance histogram, an area whose frequency is larger than a predetermined threshold is deleted. This is because if there is a part having an extremely high frequency, the data in this part strongly affects the average luminance of the entire captured image, and thus erroneous correction is likely to occur. Therefore, as shown in FIG. 22C, the number of pixels equal to or greater than the threshold is limited in the luminance histogram. FIG. 22D is a luminance histogram after the pixel number limiting process is performed.
正規化された輝度ヒストグラムから、高輝度領域及び低輝度領域を削除し、更に、累積画素数を制限することによって得られた輝度ヒストグラム(図22(d))の各ブロック番号と、それぞれの頻度に基づいて、輝度の平均値を算出したものがパラメータP2である。 Each block number of the luminance histogram (FIG. 22 (d)) obtained by deleting the high luminance region and the low luminance region from the normalized luminance histogram and further limiting the number of accumulated pixels, and the respective frequencies The parameter P2 is obtained by calculating the average luminance based on the above.
パラメータP1は、撮影画像データ全体の輝度の平均値であり、パラメータP3は、撮影画像データのうち肌色領域(H1)の輝度の平均値である。パラメータP7のキー補正値、パラメータP7’のキー補正値2、パラメータP8の輝度補正値2は、それぞれ、式(16)、式(17)、式(18)のように定義される。
P7(キー補正値)={P3 −((指標6/ 6)×18000+22000)}/24.78 (16)
P7’(キー補正値2)={P3−((指標4/ 6)×10000+30000)}/24.78 (17)
P8(輝度補正値2)=(指標5/ 6)×17500 (18)
The parameter P1 is an average value of the luminance of the entire captured image data, and the parameter P3 is an average value of the luminance of the skin color region (H1) in the captured image data. The key correction value of the parameter P7, the
P7 (key correction value) = {P3-((index 6/6) x 18000 + 22000)} / 24.78 (16)
P7 '(key correction value 2) = {P3-((index 4/6) x 10000 + 30000)} / 24.78 (17)
P8 (Luminance correction value 2) = (Indicator 5/6) x 17500 (18)
階調調整パラメータが算出されると、その算出された階調調整パラメータに基づいて、撮影画像データに対する階調調整量が算出される。具体的には、決定された階調調整方法に対応して予め設定された複数の階調変換曲線の中から、算出された階調調整パラメータに対応する階調変換曲線が選択(決定)される。なお、階調調整パラメータに基づいて、階調変換曲線(階調調整量)を算出するようにしてもよい。階調変換曲線が決定されると、その決定された階調変換曲線に従い、撮影画像データに対して階調変換処理が施され(ステップS71)、本階調変換処理が終了する。 When the gradation adjustment parameter is calculated, a gradation adjustment amount for the captured image data is calculated based on the calculated gradation adjustment parameter. Specifically, a gradation conversion curve corresponding to the calculated gradation adjustment parameter is selected (determined) from a plurality of gradation conversion curves set in advance corresponding to the determined gradation adjustment method. The Note that the gradation conversion curve (gradation adjustment amount) may be calculated based on the gradation adjustment parameter. When the gradation conversion curve is determined, gradation conversion processing is performed on the photographic image data according to the determined gradation conversion curve (step S71), and the gradation conversion processing ends.
以下、各撮影シーン(光源条件及び露出条件)の階調変換曲線の決定方法について説明する。
〈順光の場合〉
撮影シーンが順光である場合、パラメータP1をP5と一致させるオフセット補正(8bit値の平行シフト)を下記の式(19)により行う。
出力画像のRGB値=入力画像のRGB値+P6 (19)
従って、撮影シーンが順光の場合、図20(a)に示す複数の階調変換曲線の中から、式(19)に対応する階調変換曲線が選択される。又は、式(19)に基づいて階調変換曲線を算出(決定)してもよい。
Hereinafter, a method for determining a gradation conversion curve for each shooting scene (light source condition and exposure condition) will be described.
<For direct light>
When the shooting scene is front light, offset correction (parallel shift of 8-bit value) for matching the parameter P1 with P5 is performed by the following equation (19).
RGB value of output image = RGB value of input image + P6 (19)
Therefore, when the photographic scene is front light, a gradation conversion curve corresponding to Expression (19) is selected from a plurality of gradation conversion curves shown in FIG. Alternatively, the gradation conversion curve may be calculated (determined) based on Expression (19).
〈逆光の場合〉
撮影シーンが逆光である場合、図20(b)に示す複数の階調変換曲線の中から、式(16)に示すパラメータP7(キー補正値)に対応する階調変換曲線が選択される。図20(b)の階調変換曲線の具体例を図23に示す。パラメータP7の値と、選択される階調変換曲線の対応関係を以下に示す。
−50 < P7 < +50 の場合→L3
+50 ≦ P7 < +150 の場合→L4
+150 ≦ P7 < +250 の場合→L5
−150 < P7 ≦ −50 の場合→L2
−250 < P7 ≦ −150 の場合→L1
なお、撮影シーンが逆光の場合、この階調変換処理とともに、覆い焼き処理を併せて行うことが好ましい。この場合、逆光度を示す指標6に応じて覆い焼き処理の程度も調整されることが望ましい。
<Backlight>
When the shooting scene is backlit, a gradation conversion curve corresponding to the parameter P7 (key correction value) shown in Expression (16) is selected from the plurality of gradation conversion curves shown in FIG. FIG. 23 shows a specific example of the gradation conversion curve in FIG. The correspondence between the value of parameter P7 and the selected gradation conversion curve is shown below.
When -50 <P7 <+50 → L3
When +50 ≤ P7 <+150 → L4
When +150 ≤ P7 <+250 → L5
When -150 <P7 ≤ -50 → L2
When -250 <P7 ≤ -150 → L1
When the shooting scene is backlit, it is preferable to perform a dodging process together with the gradation conversion process. In this case, it is desirable to adjust the degree of dodging processing according to the index 6 indicating the backlight intensity.
〈アンダーの場合〉
撮影シーンがアンダーである場合、図20(b)に示す複数の階調変換曲線の中から、式(17)に示すパラメータP7’(キー補正値2)に対応する階調変換曲線が選択される。具体的には、撮影シーンが逆光の場合の階調変換曲線の選択方法と同様に、図23に示す階調変換曲線の中から、パラメータP7’の値に対応した階調変換曲線が選択される。なお、撮影シーンがアンダーである場合は、逆光の場合に示したような覆い焼き処理は行わない。
<In case of under>
When the shooting scene is under, a gradation conversion curve corresponding to the parameter P7 ′ (key correction value 2) shown in Expression (17) is selected from the plurality of gradation conversion curves shown in FIG. The Specifically, the gradation conversion curve corresponding to the value of the parameter P7 ′ is selected from the gradation conversion curves shown in FIG. 23 in the same manner as the method for selecting the gradation conversion curve when the shooting scene is backlit. The When the shooting scene is under, the dodging process as shown in the case of backlight is not performed.
〈主要被写体がオーバーの場合〉
主要被写体がオーバーである場合、オフセット補正(8bit値の平行シフト)を式(20)により行う。
出力画像のRGB値=入力画像のRGB値+P9 (20)
従って、主要被写体がオーバーの場合、図20(c)に示す複数の階調変換曲線の中から、式(20)に対応する階調変換曲線が選択される。又は、式(20)に基づいて階調変換曲線を算出(決定)してもよい。なお、式(20)のパラメータP9の値が、予め設定された所定値αを上回った場合、図23に示す曲線L1〜L5の中から、キー補正値がP9−αに対応する曲線が選択される。
<When the main subject is over>
When the main subject is over, offset correction (parallel shift of 8-bit value) is performed by Expression (20).
RGB value of output image = RGB value of input image + P9 (20)
Therefore, when the main subject is over, a gradation conversion curve corresponding to Expression (20) is selected from the plurality of gradation conversion curves shown in FIG. Alternatively, the gradation conversion curve may be calculated (determined) based on Expression (20). When the value of the parameter P9 in the equation (20) exceeds a preset predetermined value α, a curve corresponding to the key correction value P9-α is selected from the curves L1 to L5 shown in FIG. Is done.
なお、本実施形態では、実際に撮影画像データに対して階調変換処理を施す場合、上述の階調変換処理条件を16bitから8bitへ変更するものとする。 In the present embodiment, when the gradation conversion process is actually performed on the captured image data, the above-described gradation conversion process condition is changed from 16 bits to 8 bits.
以上のように、本実施形態の撮像装置1によれば、予備撮影によって得られる全体画像から撮影シーンを高精度に表す指標を算出することができる。また、撮影シーンを高精度に表す指標を用いているため、本撮影のための露出の調整を的確に行うことができる。
As described above, according to the
更に、撮影シーンを高精度に表す指標を用いているため、本撮影によって得られた撮影画像データに対する階調調整方法を的確に決定することができる。また、明度の階級において、最大の明度値の1割の値以内に、少なくとも3つの階級を有することで、リニアな画像データであっても低明度側の階級の分離がよくなり、高精度に撮影シーンを判別できる。 Furthermore, since an index that represents the shooting scene with high accuracy is used, it is possible to accurately determine the gradation adjustment method for the shot image data obtained by the actual shooting. In addition, in the brightness class, having at least three classes within 10% of the maximum brightness value, the separation of the low brightness side class is improved even with linear image data, and high accuracy is achieved. The shooting scene can be determined.
1 撮像装置
21 筐体
22 十字キー
23 撮影光学系
24 フラッシュ
25 ファインダ
26 電源スイッチ
27 表示部
28 レリーズボタン
31 プロセッサ
32 メモリ
33 撮像素子
34 シャッタユニット
35 絞りユニット
101 全体画像取得部
102 色情報取得部
103 占有率算出部
104 指標算出部
105 撮影シーン判別部
106 撮影制御部
107 階調調整決定部
DESCRIPTION OF
Claims (24)
前記全体画像の各分割領域について、色情報を取得する色情報取得手段と、
前記色情報取得手段により取得された色情報に基づいて、前記各分割領域を、明度と色相の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第1占有率を算出する占有率算出手段と、
前記第1の占有率に、撮影条件に応じて予め設定された2種類の異なる係数を乗算することにより、撮影シーンを特定するための第1の指標及び第2の指標を算出する指標算出手段と、
を備えることを特徴とする撮像装置。 Acquisition means for acquiring a whole image obtained by preliminary shooting as a divided image composed of a plurality of divided regions;
Color information acquisition means for acquiring color information for each divided region of the entire image;
Based on the color information acquired by the color information acquisition means, each of the divided areas is classified into a predetermined class composed of a combination of lightness and hue, and for each classified class, the divided areas belonging to the class are An occupancy ratio calculating means for calculating a first occupancy ratio indicating a ratio of the entire image;
An index calculation means for calculating a first index and a second index for specifying a shooting scene by multiplying the first occupancy by two different coefficients set in advance according to shooting conditions. When,
An imaging apparatus comprising:
前記全体画像の各分割領域について、色情報を取得する色情報取得手段と、
前記色情報取得手段により取得された色情報に基づいて、前記各分割領域を、明度と色相の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第1の占有率を算出するとともに、前記各分割領域を、前記全体画像の画面の外縁からの距離と明度の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第2の占有率を算出する占有率算出手段と、
前記第1の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第1の指標を算出するとともに、前記第2の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第2の指標を算出する指標算出手段と、
を備えることを特徴とする撮像装置。 Acquisition means for acquiring a whole image obtained by preliminary shooting as a divided image composed of a plurality of divided regions;
Color information acquisition means for acquiring color information for each divided region of the entire image;
Based on the color information acquired by the color information acquisition means, each of the divided areas is classified into a predetermined class composed of a combination of lightness and hue, and for each classified class, the divided areas belonging to the class are A first occupancy ratio indicating a ratio of the entire image is calculated, and each of the divided regions is classified into a predetermined class composed of a combination of a distance from the outer edge of the screen of the entire image and brightness, and the classified class An occupancy ratio calculating means for calculating a second occupancy ratio indicating the ratio of the divided area belonging to the class to the entire image for each time;
The first occupancy is multiplied by a coefficient set in advance according to the shooting condition to calculate a first index for specifying the shooting scene, and the second occupancy is set to the shooting condition. Index calculating means for calculating a second index for specifying a shooting scene by multiplying a coefficient set in advance according to
An imaging apparatus comprising:
前記全体画像の各分割領域について、色情報を取得する色情報取得工程と、
前記色情報取得工程により取得された色情報に基づいて、前記各分割領域を、明度と色相の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第1占有率を算出する占有率算出工程と、
前記第1の占有率に、撮影条件に応じて予め設定された2種類の異なる係数を乗算することにより、撮影シーンを特定するための第1の指標及び第2の指標を算出する指標算出工程と、
を含むことを特徴とする画像処理方法。 An acquisition step of acquiring the entire image obtained by the preliminary shooting as a divided image composed of a plurality of divided regions;
For each divided region of the entire image, a color information acquisition step for acquiring color information;
Based on the color information acquired by the color information acquisition step, the divided areas are classified into predetermined classes composed of combinations of brightness and hue, and for each classified class, the divided areas belonging to the class are An occupancy ratio calculating step of calculating a first occupancy ratio indicating the ratio of the entire image;
An index calculation step of calculating a first index and a second index for specifying a shooting scene by multiplying the first occupation ratio by two different coefficients set in advance according to shooting conditions. When,
An image processing method comprising:
前記全体画像の各分割領域について、色情報を取得する色情報取得工程と、
前記色情報取得工程により取得された色情報に基づいて、前記各分割領域を、明度と色相の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第1の占有率を算出するとともに、前記各分割領域を、前記全体画像の画面の外縁からの距離と明度の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第2の占有率を算出する占有率算出工程と、
前記第1の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第1の指標を算出するとともに、前記第2の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第2の指標を算出する指標算出工程と、
を含むことを特徴とする画像処理方法。 An acquisition step of acquiring the entire image obtained by the preliminary shooting as a divided image composed of a plurality of divided regions;
For each divided region of the entire image, a color information acquisition step for acquiring color information;
Based on the color information acquired by the color information acquisition step, the divided areas are classified into predetermined classes composed of combinations of brightness and hue, and for each classified class, the divided areas belonging to the class are A first occupancy ratio indicating a ratio of the entire image is calculated, and each of the divided regions is classified into a predetermined class composed of a combination of a distance from the outer edge of the screen of the entire image and brightness, and the classified class An occupancy ratio calculating step for calculating a second occupancy ratio indicating the ratio of the divided area belonging to the class to the entire image for each time;
The first occupancy is multiplied by a coefficient set in advance according to the shooting condition to calculate a first index for specifying the shooting scene, and the second occupancy is set to the shooting condition. An index calculation step of calculating a second index for specifying the shooting scene by multiplying a coefficient set in advance according to
An image processing method comprising:
予備撮影によって得られる全体画像を複数の分割領域からなる分割画像として取得する取得機能と、
前記全体画像の各分割領域について、色情報を取得する色情報取得機能と、
前記色情報取得機能により取得された色情報に基づいて、前記各分割領域を、明度と色相の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第1占有率を算出する占有率算出機能と、
前記第1の占有率に、撮影条件に応じて予め設定された2種類の異なる係数を乗算することにより、撮影シーンを特定するための第1の指標及び第2の指標を算出する指標算出機能と、
を実現させるための画像処理プログラム。 In the computer for executing image processing,
An acquisition function for acquiring an entire image obtained by preliminary shooting as a divided image composed of a plurality of divided areas;
For each divided area of the entire image, a color information acquisition function for acquiring color information;
Based on the color information acquired by the color information acquisition function, each of the divided areas is classified into a predetermined class consisting of a combination of lightness and hue, and for each classified class, the divided areas belonging to the class are An occupancy ratio calculation function for calculating a first occupancy ratio indicating the ratio of the entire image;
An index calculation function for calculating a first index and a second index for specifying a shooting scene by multiplying the first occupation ratio by two different coefficients set in advance according to shooting conditions. When,
An image processing program for realizing
予備撮影によって得られる全体画像を複数の分割領域からなる分割画像として取得する取得機能と、
前記全体画像の各分割領域について、色情報を取得する色情報取得機能と、
前記色情報取得機能により取得された色情報に基づいて、前記各分割領域を、明度と色相の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第1の占有率を算出するとともに、前記各分割領域を、前記全体画像の画面の外縁からの距離と明度の組み合わせからなる所定の階級に分類し、分類された階級毎に、当該階級に属する分割領域が前記全体画像に占める割合を示す第2の占有率を算出する占有率算出機能と、
前記第1の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第1の指標を算出するとともに、前記第2の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための第2の指標を算出する指標算出機能と、
を実現させるための画像処理プログラム。 In the computer for executing image processing,
An acquisition function for acquiring an entire image obtained by preliminary shooting as a divided image composed of a plurality of divided areas;
For each divided area of the entire image, a color information acquisition function for acquiring color information;
Based on the color information acquired by the color information acquisition function, each of the divided areas is classified into a predetermined class consisting of a combination of lightness and hue, and for each classified class, the divided areas belonging to the class are A first occupancy ratio indicating a ratio of the entire image is calculated, and each of the divided regions is classified into a predetermined class composed of a combination of a distance from the outer edge of the screen of the entire image and brightness, and the classified class An occupancy ratio calculation function for calculating a second occupancy ratio indicating the ratio of the divided area belonging to the class to the entire image for each time;
The first occupancy is multiplied by a coefficient set in advance according to the shooting condition to calculate a first index for specifying the shooting scene, and the second occupancy is set to the shooting condition. An index calculation function for calculating a second index for specifying a shooting scene by multiplying a coefficient set in advance according to
An image processing program for realizing
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005155578A JP2006333205A (en) | 2005-05-27 | 2005-05-27 | Imaging apparatus, image processing method and image processing program |
PCT/JP2006/308276 WO2006126347A1 (en) | 2005-05-27 | 2006-04-20 | Imaging device, image processing method, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005155578A JP2006333205A (en) | 2005-05-27 | 2005-05-27 | Imaging apparatus, image processing method and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006333205A true JP2006333205A (en) | 2006-12-07 |
Family
ID=37451776
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005155578A Pending JP2006333205A (en) | 2005-05-27 | 2005-05-27 | Imaging apparatus, image processing method and image processing program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2006333205A (en) |
WO (1) | WO2006126347A1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007228201A (en) * | 2006-02-23 | 2007-09-06 | Fujifilm Corp | Imaging apparatus and method of controlling same |
JP2008160704A (en) * | 2006-12-26 | 2008-07-10 | Noritsu Koki Co Ltd | Density correction curve generation method and density correction curve generation module |
JP2009296359A (en) * | 2008-06-05 | 2009-12-17 | Canon Inc | Image processor, method for processing image, and program therefor |
JP2014064313A (en) * | 2013-11-26 | 2014-04-10 | Canon Inc | Image processing apparatus, image processing method, and program |
US11521327B2 (en) * | 2017-11-10 | 2022-12-06 | Beijing Boe Technology Development Co., Ltd. | Detection target positioning device, detection target positioning method, and sight tracking device |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111709957A (en) * | 2020-06-22 | 2020-09-25 | 河南理工大学 | Medical image segmentation method based on two-dimensional maximum entropy threshold C-V model |
CN111681255B (en) * | 2020-08-17 | 2020-11-13 | 腾讯科技(深圳)有限公司 | Object identification method and related device |
CN118134219B (en) * | 2024-05-08 | 2024-08-06 | 中航国际金网(北京)科技有限公司 | Production early warning method, system, device and nonvolatile storage medium |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11196324A (en) * | 1997-12-26 | 1999-07-21 | Fuji Photo Film Co Ltd | Method and device for outputting image |
JP4154128B2 (en) * | 2001-02-14 | 2008-09-24 | 株式会社リコー | Image processing apparatus, image processing method, and recording medium on which program for executing the method is recorded |
JP3792555B2 (en) * | 2001-09-28 | 2006-07-05 | 三菱電機株式会社 | Brightness adjustment method and imaging apparatus |
-
2005
- 2005-05-27 JP JP2005155578A patent/JP2006333205A/en active Pending
-
2006
- 2006-04-20 WO PCT/JP2006/308276 patent/WO2006126347A1/en active Application Filing
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007228201A (en) * | 2006-02-23 | 2007-09-06 | Fujifilm Corp | Imaging apparatus and method of controlling same |
JP4567618B2 (en) * | 2006-02-23 | 2010-10-20 | 富士フイルム株式会社 | Imaging apparatus and control method thereof |
US7848632B2 (en) | 2006-02-23 | 2010-12-07 | Fujifilm Corporation | Image sensing apparatus and method of controlling same |
JP2008160704A (en) * | 2006-12-26 | 2008-07-10 | Noritsu Koki Co Ltd | Density correction curve generation method and density correction curve generation module |
JP2009296359A (en) * | 2008-06-05 | 2009-12-17 | Canon Inc | Image processor, method for processing image, and program therefor |
JP2014064313A (en) * | 2013-11-26 | 2014-04-10 | Canon Inc | Image processing apparatus, image processing method, and program |
US11521327B2 (en) * | 2017-11-10 | 2022-12-06 | Beijing Boe Technology Development Co., Ltd. | Detection target positioning device, detection target positioning method, and sight tracking device |
Also Published As
Publication number | Publication date |
---|---|
WO2006126347A1 (en) | 2006-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2016200002B2 (en) | High dynamic range transition | |
KR101698876B1 (en) | Generation of ghost-free high dynamic range images | |
JP2006333205A (en) | Imaging apparatus, image processing method and image processing program | |
JP2006325015A (en) | Image processing method, image processing apparatus, imaging apparatus, and image processing program | |
JP5782311B2 (en) | Imaging apparatus and control method thereof | |
JP2007184888A (en) | Imaging apparatus, image processor, image processing method, and image processing program | |
CN111434104B (en) | Image processing apparatus, image capturing apparatus, image processing method, and recording medium | |
JP2007228221A (en) | Imaging apparatus, image processing apparatus, image processing method and image processing program | |
JP2007221678A (en) | Imaging apparatus, image processor, image processing method and image processing program | |
JP2007311895A (en) | Imaging apparatus, image processor, image processing method and image processing program | |
JP2007243542A (en) | Imaging apparatus, image processing apparatus, image processing method, and image processing program | |
JP2007288245A (en) | Imaging apparatus, image processing method, and image processing program | |
JP2007293686A (en) | Imaging apparatus, image processing apparatus, image processing method and image processing program | |
US11405598B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2007312294A (en) | Imaging apparatus, image processor, method for processing image, and image processing program | |
JP2007184887A (en) | Image pickup device, image processor, image processing method and image processing program | |
JP2006197460A (en) | Image processing method, image processor, image processing program and image pickup device | |
JP2007243556A (en) | Imaging apparatus, image processing method, and image processing program | |
JP2007201679A (en) | Imaging apparatus, image processing method, and image processing program | |
JP2006190154A (en) | Image processing method, image processor, image processing program and imaging device | |
JP2007235369A (en) | Imaging apparatus, and unit, method, and program for processing image | |
JP2007300348A (en) | Imaging apparatus, and image processing method, and image processing program | |
JP2007081550A (en) | Imaging apparatus, and image processing unit, method, and program | |
JP2007235365A (en) | Imaging apparatus, and method and program for processing image | |
JP2007228132A (en) | Imaging apparatus, image processing apparatus, image processing method and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20070827 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20080221 |