JP2007312005A - Image processor, image processing method, and image processing program - Google Patents

Image processor, image processing method, and image processing program Download PDF

Info

Publication number
JP2007312005A
JP2007312005A JP2006137865A JP2006137865A JP2007312005A JP 2007312005 A JP2007312005 A JP 2007312005A JP 2006137865 A JP2006137865 A JP 2006137865A JP 2006137865 A JP2006137865 A JP 2006137865A JP 2007312005 A JP2007312005 A JP 2007312005A
Authority
JP
Japan
Prior art keywords
scene
index
color conversion
correction
conversion definition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006137865A
Other languages
Japanese (ja)
Inventor
Hideyuki Kobayashi
英幸 小林
Toru Kawabe
徹 川邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Photo Imaging Inc
Original Assignee
Konica Minolta Photo Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Photo Imaging Inc filed Critical Konica Minolta Photo Imaging Inc
Priority to JP2006137865A priority Critical patent/JP2007312005A/en
Publication of JP2007312005A publication Critical patent/JP2007312005A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To achieve efficient and highly-accurate color reproduction that reduces color distortion while improving color reproducibility of image output corresponding to a photographed scene. <P>SOLUTION: A part 719 for deciding a color-conversion-definition correction method selects a saturation compression correction when the photographed scene discriminated by a scene discrimination part 718 is a photographed scene of scenery, and also, the part 719 selects a hue compression correction when it is a photographed scene of a person so as to decide a correction method for a reference-color conversion definition. A correction proportion calculator 720 calculates correction proportions showing that at which level the correction executed by the decided correction method is added to the reference-color conversion definition. A color-conversion-definition corrector 723 corrects color-reproduction characteristics of the reference-color conversion definition with the decided correction method. When the correction of the color-reproduction characteristics is executed; a color conversion definition for each scene is selected corresponding to the correction method, so as to execute the correction while allowing the color-reproduction characteristics of the color conversion definition for each scene to work on the reference-color conversion definition at the level of the correction proportions. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像データを色変換定義データに基づいて色変換して出力する画像処理装置、画像処理方法及び画像処理プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program that perform color conversion on image data based on color conversion definition data and output the image data.

近年、コンピュータの発達、通信ネットワークの整備、大容量の記憶媒体の出現等に加えて、スキャナやデジタルカメラ等が普及するに伴い、デジタルの画像データを高画質でプリントアウトしたいという要求が高まってきている。   In recent years, in addition to the development of computers, the development of communication networks, the emergence of large-capacity storage media, etc., the demand for printing out digital image data with high image quality has increased with the spread of scanners and digital cameras. ing.

一方で、従来の銀塩フィルムからのプリントや、フィルムスキャンによって得られるプリントでは、画像全体の平均輝度をユーザが希望に合わせて補正した後に、視覚的に好ましい明るさ若しくは濃度になるよう、プリント出力の際に、露光時間の調整や画像処理を行って対応してきた。   On the other hand, with conventional silver halide film prints and prints obtained by film scanning, the average brightness of the entire image is corrected as desired by the user so that the desired brightness or density is achieved visually. At the time of output, adjustment of exposure time and image processing have been performed.

同様に一般デジタルスチルカメラ(以下「DSC」という)等で撮影された画像に何の画像処理も施さずに出力を行っても、好ましい画像を得ることはできないため、DSC内で適切な画像処理を行うことが切望されている。   Similarly, even if an image shot with a general digital still camera (hereinafter referred to as “DSC”) is output without any image processing, a preferable image cannot be obtained. Is eager to do.

視覚的に好ましくない明るさの画像データが発生する原因は、通常の撮影では、順光、逆光、ストロボ等の光源条件が様々に変動し、画像中に輝度の偏りの大きい大面積の領域が生じるためである。このため、平均輝度の補正に加えて、判別分析、重回帰分析により算出される値を用いた追加補正が必要であった。しかし、判別回帰分析方法では、ストロボ撮影シーンと逆光シーンから算出されるパラメータが非常に類似しているため、撮影シーンの判別が困難である。   The reason why image data with visually unfavorable brightness is generated is that in normal shooting, the light source conditions such as forward light, backlight, strobe, etc. fluctuate variously, and there is a large area with large luminance deviation in the image. This is because it occurs. For this reason, in addition to correction of the average luminance, additional correction using values calculated by discriminant analysis and multiple regression analysis is necessary. However, in the discriminant regression analysis method, the parameters calculated from the strobe shooting scene and the backlight scene are very similar, and thus it is difficult to discriminate the shooting scene.

そこで、特許文献1の技術では、輝度の累積画素数(頻度数)を示す輝度ヒストグラムから、高輝度領域と抵輝度領域を削除し、更に、頻度数を制限したものを用いて、輝度の平均値を算出し、この平均値と基準輝度との差分を補正値として求めている。   Therefore, in the technique of Patent Document 1, the luminance average is obtained by deleting the high luminance region and the sub luminance region from the luminance histogram indicating the cumulative number of luminance pixels (frequency number) and further limiting the frequency number. A value is calculated, and a difference between the average value and the reference luminance is obtained as a correction value.

また、特許文献2の技術では、抽出した顔候補領域の平均輝度の画像全体に対する偏りを算出し、偏倚量が大きい場合に、撮影シーン(逆光撮影かストロボ近接撮影か)の判別を行って、顔領域としての判断基準の許容幅を調整している。   Further, in the technique of Patent Document 2, the average brightness of the extracted face candidate region is calculated with respect to the entire image, and when the amount of deviation is large, the shooting scene (backlight shooting or flash close-up shooting) is determined, The permissible width of the judgment criterion as a face area is adjusted.

また、特許文献3には、画像データのシーン判別を行い明度の補正をとしてフラッシュ撮影画像かを判別し明るさを変えることで所望のプリントを得る技術が開示されている。更に、特許文献4には、画像データの解析を行い、そのヒストグラムからシャドー、ハイライト及び露出を算出しそれに基づいて補正用のルックアップテーブルを作成して画像補正をする技術が開示されている。   Japanese Patent Application Laid-Open No. 2004-228561 discloses a technique for obtaining a desired print by determining a scene of image data, determining brightness and correcting the brightness, and changing the brightness. Furthermore, Patent Document 4 discloses a technique for performing image correction by analyzing image data, calculating shadows, highlights, and exposure from the histogram, and creating a correction lookup table based on the shadows, highlights, and exposures. .

また、撮影されたデジタルの画像データをプリントする場合、アナログ出力とは異なり、画像処理を行うことにより、画像中の特徴的な色領域となる人間の肌の色、空の青、草の緑というような記憶色の部分を、視覚的に好ましい明るさや所望の色に再現したいという高画質化の要求がある。   Also, when printing digital image data that has been shot, unlike analog output, by performing image processing, the human skin color, sky blue, grass green, which are characteristic color regions in the image, are processed. There is a demand for higher image quality in order to reproduce such a memory color portion with visually desirable brightness and a desired color.

これに対し、特許文献5には、画像データをプリントする場合に抽出した記憶色の領域について、マスキング処理を行うことで、他の領域と異なった色補正処理を行って、記憶色を視覚的に好ましい色に再現する技術が開示されている。
特開2002−247393号公報 特開2000−148980号公報 特開2004−343809号公報 特開2006−018739号公報 特開平6−121159号公報
On the other hand, in Patent Document 5, a memory color region extracted when printing image data is subjected to a masking process, thereby performing a color correction process different from other areas, and visually storing the memory color. Discloses a technique for reproducing a preferable color.
JP 2002-247393 A JP 2000-148980 A JP 2004-343809 A JP 2006-018739 A JP-A-6-121159

しかし、フィルムを用いた撮影では、人物撮影用のフィルムや風景撮影用のフィルムを用いて写真撮影することで、撮影シーンに応じた色再現特性で画像出力されたが、デジタルの画像データを画像出力する場合に、撮影シーンに応じた色再現特性で画像出力することは困難であった。   However, in film shooting, images are output with color reproduction characteristics according to the shooting scene by taking a picture using a film for portrait shooting or a film for landscape shooting. When outputting, it has been difficult to output an image with color reproduction characteristics according to the shooting scene.

即ち、特許文献1の技術は、逆光やストロボ撮影シーンでの、輝度の偏りの大きい領域の影響を低減することはできるが、人物を主要被写体とする撮影シーンでは、顔領域の明度が不適切になってしまうと共に、明度変化に伴う彩度や色相の変化が大きく、色歪が発生し実用に耐えなかった。また、特許文献2の技術は、逆光やストロボ近接の撮影により得られた画像データが、典型的な構図に当てはまらない場合に、顔領域の特定を補償する効果が得られなくなるという問題があった。   That is, although the technique of Patent Document 1 can reduce the influence of a region with a large luminance deviation in a backlight or strobe shooting scene, the brightness of the face region is inappropriate in a shooting scene having a person as a main subject. In addition, the change in saturation and hue due to the change in lightness was large, and color distortion occurred and was not practical. In addition, the technique of Patent Document 2 has a problem in that the effect of compensating for the identification of a face area cannot be obtained when image data obtained by shooting in backlight or near a strobe is not applicable to a typical composition. .

また、特許文献3の技術は、画像処理後にカラープリンタ等の色を扱う色処理装置において出力を行うと、人物の肌色の明るいところから陰周りへの色相のつながりが劣化し、所望のプリントを得ることが困難であった。これはカラープリンタ等の画像処理装置において出力を行う際、基準になる色空間を定義して、各画像処理装置をその色空間へ合わせるといった方法がとられているが、画像処理装置固有の特性によってローカルな色空間を持つので、その固有特性に合わせた補正を各装置で行う必要があり、またカラープリンタの出力特性には、強い非線型性があり正確な写像は困難であるためである。   Further, in the technique of Patent Document 3, when output is performed in a color processing apparatus that handles colors such as a color printer after image processing, the hue connection from the bright skin color of the person to the shadows deteriorates, and a desired print can be obtained. It was difficult to get. This is a method of defining a reference color space when performing output in an image processing apparatus such as a color printer, and adjusting each image processing apparatus to the color space. Because there is a local color space, it is necessary to make corrections according to the specific characteristics of each device, and the output characteristics of color printers have strong nonlinearity, making accurate mapping difficult. .

そこで最近は、デジタル化したカラー画像データを正確に再現するためおよび異なるデバイス間の色情報を相互に変換するために、3次元ルックアップテーブル(以下「3D−LUT」という)やカラープロファイルといった色変換定義データを用いた色変換がよく用いられている。この色変換定義データを用いて色変換を行うことにより、撮影シーンに応じた階調調整を行うことが可能になる。しかし、実際の画像は色々なシチュエーションで撮影され様々な露光条件が存在するため、そのシチュエーションの明るさに合わせた色変換を行わなければならず、全ての条件に対応するような色変換定義データを作成して用いることは非現実的であった。   Therefore, recently, in order to accurately reproduce digitized color image data and to mutually convert color information between different devices, a color such as a three-dimensional lookup table (hereinafter referred to as “3D-LUT”) or a color profile is used. Color conversion using conversion definition data is often used. By performing color conversion using this color conversion definition data, it is possible to perform gradation adjustment according to the shooting scene. However, since actual images are taken in various situations and there are various exposure conditions, color conversion must be performed according to the brightness of the situations, and color conversion definition data corresponding to all conditions Creating and using was unrealistic.

そのため、ヒストグラムからシャドー、ハイライト及び露出を算出し、その算出結果に基づいて補正用のルックアップテーブルを作成して画像補正をするという特許文献4の技術によっても、色相のつながりが劣化して実用に耐えられる画質ではなかった。   Therefore, even in the technique of Patent Document 4 in which shadow, highlight, and exposure are calculated from the histogram, and a correction lookup table is created based on the calculation result to correct the image, the hue connection deteriorates. The image quality was not practical.

一方、プリントアウトする場合に記憶色を視覚的に好ましい色に再現する特許文献5の技術においても、抽出した記憶色の画像領域について他の領域と異なった色補正処理を行うために、記憶色の画像領域と他の色の画像領域との間に不連続が生じて擬似輪郭が発生してしまい、実用に耐えなかった。   On the other hand, in the technique of Patent Document 5 in which the memory color is visually reproduced as a preferable color when printing out, the memory color is used in order to perform color correction processing different from the other areas for the image area of the extracted memory color. A discontinuity occurs between the image area and the image area of another color and a pseudo contour is generated, which is not practical.

本発明は、上述した課題に鑑みて為されたものであり、その目的は、撮影シーンに応じた画像出力の色再現性の向上と、色歪みの低減を図ることのできる効率的且つ高精度な色再現を実現することである。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide efficient and high-precision that can improve color reproducibility of image output according to a shooting scene and reduce color distortion. It is to realize proper color reproduction.

以上の課題を解決するために、請求項1に記載の発明は、
画像データを色変換定義データに基づいて色変換して出力する画像処理装置において、
前記画像データにシーン判別処理を施して撮影シーンを判別する判別手段と、
前記判別手段により判別された撮影シーンに基づいて補正割合を算出する算出手段と、
前記色変換定義データが有する色再現特性に対する前記撮影シーンに応じた補正を、前記補正割合に基づいた度合いで加える補正手段と、
前記補正手段により補正が加えられた色変換定義データに基づいて前記画像データを色変換する色変換手段と、
を備えることを特徴としている。
In order to solve the above problems, the invention described in claim 1
In an image processing apparatus that outputs image data by performing color conversion based on color conversion definition data,
Discriminating means for discriminating a shooting scene by performing a scene discrimination process on the image data;
Calculating means for calculating a correction ratio based on the shooting scene determined by the determining means;
Correction means for adding a correction according to the shooting scene for the color reproduction characteristics of the color conversion definition data to a degree based on the correction ratio;
Color conversion means for color-converting the image data based on the color conversion definition data corrected by the correction means;
It is characterized by having.

請求項2に記載の発明は、請求項1に記載の発明において、
色再現特性が相異なる複数の色変換定義データを記憶する記憶手段を更に備え、
前記補正手段は、
予め規定された前記色変換定義データの色再現特性に、前記撮影シーンに応じた色変換定義データの色再現特性を前記補正割合に基づいた度合いで作用させることで前記規定された色変換定義データの色再現特性を補正することを特徴としている。
The invention according to claim 2 is the invention according to claim 1,
A storage means for storing a plurality of color conversion definition data having different color reproduction characteristics;
The correction means includes
The specified color conversion definition data by causing the color reproduction characteristics of the color conversion definition data corresponding to the shooting scene to act on the color reproduction characteristics of the color conversion definition data specified in advance to a degree based on the correction ratio. It is characterized by correcting the color reproduction characteristics.

請求項3に記載の発明は、請求項2に記載の発明において、
前記補正手段は、
前記判別手段により判別された撮影シーンの被写体の構成要件が所定の基準シーンと異なる場合、色相圧縮率の高い色変換定義データを前記規定された色変換定義データに作用させることで補正することを特徴としている。
The invention according to claim 3 is the invention according to claim 2,
The correction means includes
When the constituent requirements of the subject of the photographic scene determined by the determining means are different from a predetermined reference scene, correction is performed by applying color conversion definition data having a high hue compression ratio to the specified color conversion definition data. It is a feature.

請求項4に記載の発明は、請求項2又は3に記載の発明において、
前記補正手段は、
前記判別手段により判別された撮影シーンの輝度構成が所定の基準シーンと異なる場合、彩度圧縮率の高い色変換定義データを前記規定された色変換定義データに作用させることで補正することを特徴としている。
The invention according to claim 4 is the invention according to claim 2 or 3,
The correction means includes
When the luminance configuration of the photographic scene determined by the determining unit is different from a predetermined reference scene, correction is performed by applying color conversion definition data having a high saturation compression rate to the specified color conversion definition data. It is said.

請求項5に記載の発明は、請求項1〜4の何れか一項に記載の発明において、
前記判別手段は、
所定の明度と色相の組み合わせからなる領域に前記画像データを分割し、当該分割した領域が当該画像データ全体に占める割合を占有率として当該領域毎に算出する占有率算出手段と、
前記占有率算出手段により算出された領域毎の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための指標を算出する指標算出手段と、
前記指標算出手段により算出された指標に基づいて、前記画像データの撮影シーンを判別するシーン判別手段と、
を有することを特徴としている。
The invention according to claim 5 is the invention according to any one of claims 1 to 4,
The discrimination means includes
An occupancy ratio calculating unit that divides the image data into an area composed of a combination of predetermined brightness and hue, and calculates, for each area, the ratio of the divided area to the entire image data as an occupancy ratio;
An index calculation means for calculating an index for specifying a shooting scene by multiplying the occupation ratio for each area calculated by the occupation ratio calculation means by a coefficient set in advance according to shooting conditions;
Scene discriminating means for discriminating a shooting scene of the image data based on the index calculated by the index calculating means;
It is characterized by having.

請求項6に記載の発明は、請求項5に記載の発明において、
前記指標算出手段は、前記撮影シーンを特定するための指標を複数算出し、
前記シーン判別手段は、
前記算出された複数の指標毎に前記画像データの撮影シーンの判別を行うことを特徴としている。
The invention according to claim 6 is the invention according to claim 5,
The index calculation means calculates a plurality of indexes for specifying the shooting scene,
The scene discrimination means includes
The imaging scene of the image data is determined for each of the plurality of calculated indexes.

請求項7に記載の発明は、請求項6又は7に記載の発明において、
前記指標算出手段は、
前記撮影シーンがストロボ撮影シーンであることを定量的に示す第1の指標を算出する第1指標算出手段と、
前記撮影シーンが逆光シーンであることを定量的に示す第2の指標を算出する第2指標算出手段と、
前記撮影シーンが人物撮影シーンであることを定量的に示す第3の指標を算出する第3指標算出手段と、
を有し、
前記シーン判別手段は、
前記第1の指標、第2の指標及び第3の指標に基づいて、前記画像データの撮影シーンを判別することを特徴としている。
The invention according to claim 7 is the invention according to claim 6 or 7,
The index calculating means includes
First index calculation means for calculating a first index that quantitatively indicates that the shooting scene is a flash shooting scene;
Second index calculating means for calculating a second index quantitatively indicating that the shooting scene is a backlight scene;
Third index calculating means for calculating a third index quantitatively indicating that the shooting scene is a person shooting scene;
Have
The scene discrimination means includes
A shooting scene of the image data is determined based on the first index, the second index, and the third index.

請求項8に記載の発明は、
画像データを色変換定義データに基づいて色変換して出力する画像処理方法において、
前記画像データにシーン判別処理を施して撮影シーンを判別する判別工程と、
前記判別工程において判別された撮影シーンに基づいて補正割合を算出する算出工程と、
前記色変換定義データが有する色再現特性に対する前記撮影シーンに応じた補正を、前記補正割合に基づいた度合いで加える補正工程と、
前記補正工程において補正が加えられた色変換定義データに基づいて前記画像データを色変換する色変換工程と、
を含むことを特徴としている。
The invention according to claim 8 provides:
In an image processing method for color-converting and outputting image data based on color conversion definition data,
A determination step of determining a shooting scene by performing a scene determination process on the image data;
A calculation step of calculating a correction ratio based on the shooting scene determined in the determination step;
A correction step of adding correction according to the shooting scene with respect to the color reproduction characteristics of the color conversion definition data to a degree based on the correction ratio;
A color conversion step of color-converting the image data based on the color conversion definition data corrected in the correction step;
It is characterized by including.

請求項9に記載の発明は、請求項8に記載の発明において、
前記補正工程は、
予め規定された前記色変換定義データの色再現特性に、前記撮影シーンに応じた色変換定義データの色再現特性を前記補正割合に基づいた度合いで作用させることで前記規定された色変換定義データの色再現特性を補正することを特徴としている。
The invention according to claim 9 is the invention according to claim 8,
The correction step includes
The specified color conversion definition data by causing the color reproduction characteristics of the color conversion definition data corresponding to the shooting scene to act on the color reproduction characteristics of the color conversion definition data specified in advance to a degree based on the correction ratio. It is characterized by correcting the color reproduction characteristics.

請求項10に記載の発明は、請求項9に記載の発明において、
前記補正工程は、
前記判別工程において判別された撮影シーンの被写体の構成要件が所定の基準シーンと異なる場合、色相圧縮率の高い色変換定義データを前記規定された色変換定義データに作用させることで補正することを特徴としている。
The invention according to claim 10 is the invention according to claim 9,
The correction step includes
When the constituent requirements of the subject of the shooting scene determined in the determination step are different from a predetermined reference scene, correction is performed by applying color conversion definition data having a high hue compression rate to the specified color conversion definition data. It is a feature.

請求項11に記載の発明は、請求項9又は10に記載の発明において、
前記補正工程は、
前記判別工程において判別された撮影シーンの輝度構成が所定の基準シーンと異なる場合、彩度圧縮率の高い色変換定義データを前記規定された色変換定義データに作用させることで補正することを特徴としている。
The invention according to claim 11 is the invention according to claim 9 or 10,
The correction step includes
When the luminance configuration of the photographic scene determined in the determination step is different from a predetermined reference scene, correction is performed by causing color conversion definition data having a high saturation compression rate to act on the specified color conversion definition data. It is said.

請求項12に記載の発明は、請求項8〜11の何れか一項に記載の発明において、
前記判別工程は、
所定の明度と色相の組み合わせからなる領域に前記画像データを分割し、当該分割した領域が当該画像データ全体に占める割合を占有率として当該領域毎に算出する占有率算出工程と、
前記占有率算出工程において算出された領域毎の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための指標を算出する指標算出工程と、
前記指標算出工程において算出された指標に基づいて、前記画像データの撮影シーンを判別するシーン判別工程と、
を含むことを特徴としている。
The invention according to claim 12 is the invention according to any one of claims 8 to 11,
The discrimination step includes
An occupancy ratio calculating step of dividing the image data into an area composed of a combination of predetermined brightness and hue, and calculating the ratio of the divided area in the entire image data as an occupancy ratio for each area;
An index calculation step of calculating an index for identifying a shooting scene by multiplying the occupation rate for each area calculated in the occupation rate calculation step by a coefficient set in advance according to the shooting conditions;
A scene determination step of determining a shooting scene of the image data based on the index calculated in the index calculation step;
It is characterized by including.

請求項13に記載の発明は、請求項12に記載の発明において、
前記指標算出工程は、前記撮影シーンを特定するための指標を複数算出し、
前記シーン判別工程は、
前記算出された複数の指標毎に前記画像データの撮影シーンの判別を行うことを特徴としている。
The invention according to claim 13 is the invention according to claim 12,
The index calculating step calculates a plurality of indices for specifying the shooting scene,
The scene discrimination step includes
The imaging scene of the image data is determined for each of the plurality of calculated indexes.

請求項14に記載の発明は、請求項12又は13に記載の発明において、
前記指標算出工程は、
前記撮影シーンがストロボ撮影シーンであることを定量的に示す第1の指標を算出する第1指標算出工程と、
前記撮影シーンが逆光シーンであることを定量的に示す第2の指標を算出する第2指標算出工程と、
前記撮影シーンが人物撮影シーンであることを定量的に示す第3の指標を算出する第3指標算出工程と、
を有し、
前記シーン判別工程は、
前記第1の指標、第2の指標及び第3の指標に基づいて、前記画像データの撮影シーンを判別することを特徴としている。
The invention according to claim 14 is the invention according to claim 12 or 13,
The index calculation step includes
A first index calculating step for calculating a first index quantitatively indicating that the shooting scene is a flash shooting scene;
A second index calculating step for calculating a second index quantitatively indicating that the shooting scene is a backlight scene;
A third index calculating step of calculating a third index quantitatively indicating that the shooting scene is a person shooting scene;
Have
The scene discrimination step includes
A shooting scene of the image data is determined based on the first index, the second index, and the third index.

請求項15に記載の発明は、コンピュータを、
画像データにシーン判別処理を施して撮影シーンを判別する判別手段、
前記判別手段により判別された撮影シーンに基づいて補正割合を算出する算出手段、
前記画像データの色変換に用いる色変換定義データが有する色再現特性に対する前記撮影シーンに応じた補正を、前記補正割合に基づいた度合いで加える補正手段、
前記補正手段により補正が加えられた色変換定義データに基づいて前記画像データを色変換する色変換手段、
として機能させることを特徴としている。
The invention according to claim 15 provides a computer,
Discriminating means for discriminating a shooting scene by performing scene discrimination processing on image data,
Calculating means for calculating a correction ratio based on the photographic scene determined by the determining means;
Correction means for adding correction according to the shooting scene to the color reproduction characteristics of the color conversion definition data used for color conversion of the image data in a degree based on the correction ratio,
Color conversion means for color-converting the image data based on the color conversion definition data corrected by the correction means;
It is characterized by making it function as.

請求項16に記載の発明は、請求項15に記載の発明において、
色再現特性が相異なる複数の色変換定義データを記憶する記憶手段として更に機能させ、
前記補正手段は、
予め規定された前記色変換定義データの色再現特性に、前記撮影シーンに応じた色変換定義データの色再現特性を前記補正割合に基づいた度合いで作用させることで前記規定された色変換定義データの色再現特性を補正することを特徴としている。
The invention according to claim 16 is the invention according to claim 15,
Further function as storage means for storing a plurality of color conversion definition data having different color reproduction characteristics,
The correction means includes
The specified color conversion definition data by causing the color reproduction characteristics of the color conversion definition data corresponding to the shooting scene to act on the color reproduction characteristics of the color conversion definition data specified in advance to a degree based on the correction ratio. It is characterized by correcting the color reproduction characteristics.

請求項17に記載の発明は、請求項16に記載の発明において、
前記補正手段は、
前記判別手段により判別された撮影シーンの被写体の構成要件が所定の基準シーンと異なる場合、色相圧縮率の高い色変換定義データを前記規定された色変換定義データに作用させることで補正することを特徴としている。
The invention according to claim 17 is the invention according to claim 16,
The correction means includes
When the constituent requirements of the subject of the photographic scene determined by the determining means are different from a predetermined reference scene, correction is performed by applying color conversion definition data having a high hue compression ratio to the specified color conversion definition data. It is a feature.

請求項18に記載の発明は、請求項16又は17に記載の発明において、
前記補正手段は、
前記判別手段により判別された撮影シーンの輝度構成が所定の基準シーンと異なる場合、彩度圧縮率の高い色変換定義データを前記規定された色変換定義データに作用させることで補正することを特徴としている。
The invention according to claim 18 is the invention according to claim 16 or 17,
The correction means includes
When the luminance configuration of the photographic scene determined by the determining unit is different from a predetermined reference scene, correction is performed by applying color conversion definition data having a high saturation compression rate to the specified color conversion definition data. It is said.

請求項19に記載の発明は、請求項15〜18の何れか一項に記載の発明において、
前記判別手段は、
所定の明度と色相の組み合わせからなる領域に前記画像データを分割し、当該分割した領域が当該画像データ全体に占める割合を占有率として当該領域毎に算出する占有率算出手段と、
前記占有率算出手段により算出された領域毎の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための指標を算出する指標算出手段と、
前記指標算出手段により算出された指標に基づいて、前記画像データの撮影シーンを判別するシーン判別手段と、
を有することを特徴としている。
The invention according to claim 19 is the invention according to any one of claims 15 to 18,
The discrimination means includes
An occupancy ratio calculating unit that divides the image data into an area composed of a combination of predetermined brightness and hue, and calculates, for each area, the ratio of the divided area to the entire image data as an occupancy ratio;
An index calculation means for calculating an index for specifying a shooting scene by multiplying the occupation ratio for each area calculated by the occupation ratio calculation means by a coefficient set in advance according to shooting conditions;
Scene discriminating means for discriminating a shooting scene of the image data based on the index calculated by the index calculating means;
It is characterized by having.

請求項20に記載の発明は、請求項19に記載の発明において、
前記指標算出手段は、前記撮影シーンを特定するための指標を複数算出し、
前記シーン判別手段は、
前記算出された複数の指標毎に前記画像データの撮影シーンの判別を行うことを特徴としている。
The invention according to claim 20 is the invention according to claim 19,
The index calculation means calculates a plurality of indexes for specifying the shooting scene,
The scene discrimination means includes
The imaging scene of the image data is determined for each of the plurality of calculated indexes.

請求項21に記載の発明は、請求項19又は20に記載の発明において、
前記指標算出手段は、
前記撮影シーンがストロボ撮影シーンであることを定量的に示す第1の指標を算出する第1指標算出手段と、
前記撮影シーンが逆光シーンであることを定量的に示す第2の指標を算出する第2指標算出手段と、
前記撮影シーンが人物撮影シーンであることを定量的に示す第3の指標を算出する第3指標算出手段と、
を有し、
前記シーン判別手段は、
前記第1の指標、第2の指標及び第3の指標に基づいて、前記画像データの撮影シーンを判別することを特徴としている。
The invention according to claim 21 is the invention according to claim 19 or 20,
The index calculating means includes
First index calculation means for calculating a first index that quantitatively indicates that the shooting scene is a flash shooting scene;
Second index calculating means for calculating a second index quantitatively indicating that the shooting scene is a backlight scene;
Third index calculating means for calculating a third index quantitatively indicating that the shooting scene is a person shooting scene;
Have
The scene discrimination means includes
A shooting scene of the image data is determined based on the first index, the second index, and the third index.

本発明によれば、撮影シーンに基づいて算出した補正割合の度合いで、色変換定義データが有する色変換特性に当該撮影シーンに応じた補正を加えるため、色変換定義データの色再現特性を撮影シーンに応じて変動的に調整することができる。このため、撮影シーンに応じた画像出力の色再現性の向上を図ることができる。   According to the present invention, the color reproduction characteristics of the color conversion definition data are photographed in order to add correction according to the photographing scene to the color conversion characteristics of the color conversion definition data with the degree of the correction ratio calculated based on the photographing scene. It can be variably adjusted according to the scene. For this reason, it is possible to improve the color reproducibility of the image output according to the shooting scene.

また、被写体の構成要件が基準シーンと異なる場合は、予め規定された色変換定義データに、色相圧縮率の高い色変換定義データを作用させるため、例えば、主要な被写体が人物の撮影シーンである場合には、肌色領域の色相を圧縮した色変換を行う。また、輝度構成が基準シーンと異なる場合は、彩度圧縮率の高い色変換定義データを作用させるため、例えば、輝度の高い風景が主要な被写体の撮影シーンである場合には、記憶色の青色や緑色の領域の彩度を圧縮した色変換を行う。このため、被写体のカラーバランスの変化を抑制することができる。   In addition, when the constituent requirements of the subject are different from the reference scene, color conversion definition data having a high hue compression rate is applied to the color conversion definition data defined in advance. For example, the main subject is a shooting scene of a person. In this case, color conversion is performed by compressing the hue of the skin color area. In addition, when the luminance configuration is different from the reference scene, color conversion definition data with a high saturation compression rate is applied. For example, when a scene with high luminance is a shooting scene of a main subject, the memory color blue Or color conversion that compresses the saturation of the green area. For this reason, a change in the color balance of the subject can be suppressed.

また、撮影シーンに応じて色再現特性を補正して色変換定義データを作成するため、撮影シーン毎の色変換定義データを予め設ける必要がなくなる。従って、効率的且つ高精度の色再現を実現することができる。   In addition, since color conversion definition data is created by correcting the color reproduction characteristics according to the shooting scene, it is not necessary to provide color conversion definition data for each shooting scene in advance. Therefore, efficient and highly accurate color reproduction can be realized.

以下、本発明の画像処理装置の実施形態について図1〜図22を参照して詳細に説明する。先ず、本実施形態における画像処理装置の構成について説明する。   Hereinafter, an embodiment of an image processing apparatus according to the present invention will be described in detail with reference to FIGS. First, the configuration of the image processing apparatus in the present embodiment will be described.

図1は、画像処理装置1の外観の一例を示す斜視図である。画像処理装置1は、図1に示すように、筐体2の一側面に、感光材料を装填するためのマガジン装填部3が備えられている。筐体2の内側には、感光材料に露光する露光処理部4と、露光された感光材料を現像処理して乾燥し、プリントを作成するためのプリント作成部5とが備えられている。筐体2の他側面には、プリント作成部5で作成されたプリントを排出するためのトレー6が備えられている。   FIG. 1 is a perspective view showing an example of the appearance of the image processing apparatus 1. As shown in FIG. 1, the image processing apparatus 1 is provided with a magazine loading unit 3 for loading a photosensitive material on one side of a housing 2. Inside the housing 2 are provided an exposure processing unit 4 for exposing the photosensitive material, and a print creating unit 5 for developing and drying the exposed photosensitive material to create a print. On the other side surface of the housing 2, a tray 6 for discharging the print created by the print creation unit 5 is provided.

また、筐体2の上部には、表示部としてのCRT(Cathode Ray Tube)8、透過原稿を読み込む装置であるフィルムスキャナ部9、反射原稿入力部10、操作部11が設けられている。CRT8は、プリントを作成しようとする画像データを表示画像上に再生表示する。更に、筐体2には、各種デジタル記録媒体に記録された画像データの読み取り可能な画像読込部14と、各種デジタル記録媒体に画像データの書き込み(出力)が可能な画像書込部15とが設けられている。   In addition, a CRT (Cathode Ray Tube) 8 as a display unit, a film scanner unit 9 that is a device for reading a transparent original, a reflective original input unit 10, and an operation unit 11 are provided on the upper portion of the housing 2. The CRT 8 reproduces and displays image data to be printed on a display image. Further, the housing 2 includes an image reading unit 14 capable of reading image data recorded on various digital recording media, and an image writing unit 15 capable of writing (outputting) image data on various digital recording media. Is provided.

画像読込部14には、PCカード用アダプタ14a、フロッピー(登録商標)ディスク用アダプタ14bが備えられ、PCカード13aやフロッピーディスク13bが差し込み可能になっている。PCカード13a及びフロッピーディスク13bは、デジタルカメラで撮像された複数の駒画像データが記録される。   The image reading unit 14 includes a PC card adapter 14a and a floppy (registered trademark) disk adapter 14b, and a PC card 13a and a floppy disk 13b can be inserted therein. The PC card 13a and the floppy disk 13b record a plurality of frame image data captured by a digital camera.

画像書込部15には、フロッピーディスク用アダプタ15a、MO用アダプタ15b、光ディスク用アダプタ15cが備えられ、フロッピーディスク16a、MO16b、CD−R、DVD−R等の光ディスク16cがそれぞれ装填可能に構成されている。尚、図1では、感光材料に露光して現像してプリントを作成する画像処理装置1を一例として上げているが、そのプリント作成方式はこれに限定されず、例えば、インクジェット方式、電子写真方式、感熱方式、昇華方式等の方式を用いてもよい。   The image writing unit 15 includes a floppy disk adapter 15a, an MO adapter 15b, and an optical disk adapter 15c, and can be loaded with an optical disk 16c such as a floppy disk 16a, MO 16b, CD-R, or DVD-R. Has been. In FIG. 1, an image processing apparatus 1 that creates a print by exposing and developing a photosensitive material is taken as an example. However, the print creation method is not limited to this, and for example, an inkjet method, an electrophotographic method, or the like. A heat sensitive method, a sublimation method, or the like may be used.

<画像処理装置1の主要部構成>
図2に、画像処理装置1の主要部構成を示す。画像処理装置1は、図2に示すように、制御部7、露光処理部4、プリント作成部5、フィルムスキャナ部9、反射原稿入力部10、画像読込部14、通信部(入力)32、画像書込部15、データ蓄積部71、操作部11、表示部8及び通信部(出力)33を備えて構成される。
<Configuration of Main Parts of Image Processing Apparatus 1>
FIG. 2 shows a main part configuration of the image processing apparatus 1. As shown in FIG. 2, the image processing apparatus 1 includes a control unit 7, an exposure processing unit 4, a print creation unit 5, a film scanner unit 9, a reflection original input unit 10, an image reading unit 14, a communication unit (input) 32, The image writing unit 15, the data storage unit 71, the operation unit 11, the display unit 8, and the communication unit (output) 33 are configured.

制御部7は、マイクロコンピュータにより構成され、ROM(Read Only Memory)等の記憶部に記憶されている各種制御プログラムと、CPU(Central Processing Unit)との協働により、画像処理装置1を構成する各部の動作を制御する。   The control unit 7 is configured by a microcomputer, and configures the image processing apparatus 1 by cooperation of various control programs stored in a storage unit such as a ROM (Read Only Memory) and a CPU (Central Processing Unit). Control the operation of each part.

制御部7は、操作部11からの入力信号に基づいて、フィルムスキャナ部9や反射原稿入力部10から読み取られた画像データ、画像読込部14から読み込まれた画像データ、外部機器から通信部32を介して入力された画像データに対して、画像処理を施して露光用画像データを生成し、露光処理部4に出力する。また、画像処理部70は、画像処理された画像データに対して出力形態に応じた変換処理を施して出力する。   Based on the input signal from the operation unit 11, the control unit 7 reads the image data read from the film scanner unit 9 and the reflective document input unit 10, the image data read from the image reading unit 14, and the communication unit 32 from an external device. The image data input via the above is subjected to image processing to generate exposure image data, which is output to the exposure processing unit 4. Further, the image processing unit 70 performs a conversion process corresponding to the output form on the image processed image data, and outputs the converted image data.

露光処理部4は、感光材料に画像の露光を行い、この感光材料をプリント作成部5に出力する。プリント作成部5は、露光された感光材料を現像処理して乾燥して、サービスサイズ、ハイビジョンサイズ、パノラマサイズ等のプリントP1や、A4サイズのプリントP2、名刺サイズのプリントP3を作成する。   The exposure processing unit 4 exposes an image to the photosensitive material and outputs the photosensitive material to the print creating unit 5. The print creating unit 5 develops the exposed photosensitive material and dries it to create a service size, high-vision size, panorama size print P1, A4 size print P2, and business card size print P3.

フィルムスキャナ部9は、アナログカメラにより撮像された現像済みのネガフィルムN、リバーサルフィルム等の透過原稿に記録された駒画像を読み取り、駒画像のデジタル画像データに変換する。反射原稿入力部10は、フラットベットスキャナによってプリントP上の画像を読み取り、デジタル画像データに変換する。   The film scanner unit 9 reads a frame image recorded on a transparent original such as a developed negative film N or a reversal film imaged by an analog camera and converts it into digital image data of the frame image. The reflection original input unit 10 reads an image on the print P by a flat bed scanner and converts it into digital image data.

画像読込部14は、PCカード13aやフロッピーディスク13bに記録された駒画像情報を読み出して制御部7に転送する。この画像読込部14は、画像転送部30として、PCカード用アダプタ14a、フロッピーディスク用アダプタ14b等を有する。画像読込部14は、PCカード13aやフロッピーディスク13bに記録された駒画像データを読み取り、制御部7に転送する。   The image reading unit 14 reads frame image information recorded on the PC card 13 a and the floppy disk 13 b and transfers the frame image information to the control unit 7. The image reading unit 14 includes, as the image transfer unit 30, a PC card adapter 14a, a floppy disk adapter 14b, and the like. The image reading unit 14 reads frame image data recorded on the PC card 13 a and the floppy disk 13 b and transfers the frame image data to the control unit 7.

画像書込部15は、画像搬送部31として、フロッピーディスク用アダプタ15a、MO用アダプタ15b、光ディスク用アダプタ15cを備えて構成され、制御部7からの指示に従って、フロッピーディスク16aやMO16b、光ディスク16cに画像データを書き込む。   The image writing unit 15 includes a floppy disk adapter 15a, an MO adapter 15b, and an optical disk adapter 15c as the image transport unit 31, and according to instructions from the control unit 7, the floppy disk 16a, the MO 16b, and the optical disk 16c. Write image data to.

データ蓄積部71は、画像データとそれに対応する注文情報(どの駒の画像から何枚プリントを作成するかを示す情報、プリントサイズの情報等)とを記憶し、順次蓄積する。   The data storage unit 71 stores and sequentially stores image data and order information (information indicating how many prints are to be created from images of which frames, information on print sizes, etc.).

操作部11は、例えば、キーボードやマウス、タッチパネル等を備えて構成され、押下されたキーや指定された表示部8上の座標位置に対応する信号を入力信号として制御部7に出力する。表示部8は、制御部7から入力された表示制御信号に従って、画像情報等を表示する。   The operation unit 11 includes, for example, a keyboard, a mouse, a touch panel, and the like, and outputs a signal corresponding to a pressed key or a designated coordinate position on the display unit 8 to the control unit 7 as an input signal. The display unit 8 displays image information and the like according to the display control signal input from the control unit 7.

通信部(入力)32は、外部機器から撮像画像を表す画像データやプリント命令信号等を受信し、通信部(出力)33は、画像処理を施した後の撮影画像を表す画像データと、それに付帯する注文情報を、外部機器に送信する。   A communication unit (input) 32 receives image data representing a captured image, a print command signal, and the like from an external device, and a communication unit (output) 33 receives image data representing a captured image after image processing, Attached order information is transmitted to the external device.

<画像処理部70の内部構成>
図3に、画像処理部70の内部構成を示す。画像処理部70は、図3に示すように、画像調整処理部701、フィルムスキャンデータ処理部702、反射原稿スキャンデータ処理部703、画像データ書式解読処理部704、CRT固有処理部706、プリンタ固有処理部A707、プリンタ固有処理部B708及び画像データ書式作成処理部709を備えて構成される。
<Internal Configuration of Image Processing Unit 70>
FIG. 3 shows an internal configuration of the image processing unit 70. As shown in FIG. 3, the image processing unit 70 includes an image adjustment processing unit 701, a film scan data processing unit 702, a reflection original scan data processing unit 703, an image data format decoding processing unit 704, a CRT specific processing unit 706, a printer specific A processing unit A707, a printer specific processing unit B708, and an image data format creation processing unit 709 are provided.

フィルムスキャンデータ処理部702及び反射原稿スキャンデータ処理部703は、フィルムスキャナ部9及び反射原稿入力部10からそれぞれ入力された画像データに対し、フィルムスキャナ部9固有の校正操作、ネガポジ反転(ネガ原稿の場合)、ゴミキズ除去、コントラスト調整、粒状ノイズ除去、鮮鋭化強調等の処理を施し、処理済の画像データを画像調整処理部701に出力する。また、フィルムサイズ、ネガポジ種別、フィルムに光学的或いは磁気的に記録された主要被写体に関わる情報、撮影条件に関する情報(例えば、APSの記載情報内容)等も併せて画像調整処理部701に出力する。   A film scan data processing unit 702 and a reflection document scan data processing unit 703 perform a calibration operation unique to the film scanner unit 9 and negative / positive reversal (negative document) for the image data input from the film scanner unit 9 and the reflection document input unit 10, respectively. In this case, processing such as dust flaw removal, contrast adjustment, granular noise removal, and sharpening enhancement is performed, and processed image data is output to the image adjustment processing unit 701. In addition, the film size, the negative / positive type, information relating to the main subject optically or magnetically recorded on the film, information relating to the photographing conditions (for example, information content described in APS), and the like are also output to the image adjustment processing unit 701. .

画像データ書式解読処理部704は、画像転送部30や通信部(入力)32から入力された画像データに対し、その画像データのデータ書式に従って、必要に応じた圧縮符号の復元、色データの表現方法の変換等の処理を施して、画像処理部70内の演算に適したデータ形式に変換し、画像調整処理部701に出力する。   The image data format decoding processing unit 704 restores a compression code and expresses color data according to the data format of the image data input from the image transfer unit 30 or the communication unit (input) 32 according to the data format of the image data. By performing processing such as method conversion, the data is converted into a data format suitable for calculation in the image processing unit 70, and output to the image adjustment processing unit 701.

画像調整処理部701は、入力された画像データに対し、後述の画像処理を施して、出力デバイス上での鑑賞に最適化された画像形成用のデジタル画像データを生成して、CRT固有処理部706、プリンタ固有処理部A707、プリンタ固有処理部B708、画像データ書式作成処理部709、データ蓄積部71に出力する。   The image adjustment processing unit 701 performs image processing to be described later on the input image data to generate digital image data for image formation optimized for viewing on the output device, and a CRT specific processing unit 706, printer specific processing unit A 707, printer specific processing unit B 708, image data format creation processing unit 709, and data storage unit 71.

最適化処理においては、例えば、sRGB規格に準拠したCRTディスプレイモニタへの表示を前提とした場合、sRGB規格の色域内で最適な色再現が得られるように処理される。また、銀塩印画紙への出力を前提とした場合、銀塩印画紙の色域内で最適な色再現が得られるように処理される。また、色域の圧縮の以外にも、16bitから8bitへの階調圧縮、出力画素数の低減及び出力デバイスの色再現特性への対応処理等も含まれる。更に、ノイズ抑制、鮮鋭化、グレーバランス調整、彩度調整、或いは覆い焼き処理等の階調圧縮処理が行われることは言うまでもない。   In the optimization process, for example, when display on a CRT display monitor compliant with the sRGB standard is assumed, the optimal color reproduction is performed within the color gamut of the sRGB standard. Also, assuming output to silver salt photographic paper, processing is performed so that optimum color reproduction is obtained within the color gamut of the silver salt photographic paper. In addition to color gamut compression, gradation compression from 16 bits to 8 bits, reduction of the number of output pixels, and processing to cope with the color reproduction characteristics of the output device are also included. Furthermore, it goes without saying that tone compression processing such as noise suppression, sharpening, gray balance adjustment, saturation adjustment, or dodging processing is performed.

CRT固有処理部706は、画像調整処理部701から入力された画像データに対して、必要に応じて画素数変更やカラーマッチング等の処理を施し、制御情報等表示が必要な情報と合成した表示用の画像データをCRT8に出力する。   The CRT specific processing unit 706 performs a process such as changing the number of pixels and color matching on the image data input from the image adjustment processing unit 701 as necessary, and combines the information with information that needs to be displayed, such as control information. Image data is output to the CRT 8.

プリンタ固有処理部A707は、必要に応じてプリンタ固有の校正処理、カラーマッチング、画素数変更等の処理を行い、処理済の画像データを露光処理部4に出力する。また、画像処理装置1に、大判インクジェットプリンタ等の外部プリンタ51が接続可能な場合には、その接続するプリンタ装置毎にプリンタ固有処理部B708が備えられている。このプリンタ固有処理部B708は、プリンタ固有の校正処理、カラーマッチング、画素数変更等の処理を施し、処理済の画像データを外部プリンタ51に出力する。   The printer-specific processing unit A707 performs printer-specific calibration processing, color matching, pixel number change processing, and the like as necessary, and outputs processed image data to the exposure processing unit 4. When an external printer 51 such as a large-format ink jet printer can be connected to the image processing apparatus 1, a printer specific processing unit B708 is provided for each connected printer apparatus. The printer-specific processing unit B708 performs printer-specific calibration processing, color matching, pixel number change, and the like, and outputs processed image data to the external printer 51.

画像データ書式作成処理部709は、画像調整処理部701から入力された画像データに対して、必要に応じてJPEG、TIFF、Exif等に代表される各種の汎用画像フォーマットへの変換を施し、処理済の画像データを画像搬送部31や通信部(出力)33に出力する。   An image data format creation processing unit 709 converts the image data input from the image adjustment processing unit 701 into various general-purpose image formats represented by JPEG, TIFF, Exif, and the like as necessary. The completed image data is output to the image transport unit 31 and the communication unit (output) 33.

尚、図3に示したフィルムスキャンデータ処理部702、反射原稿スキャンデータ処理部703、画像データ書式解読処理部704、画像調整処理部701、CRT固有処理部706、プリンタ固有処理部A707、プリンタ固有処理部B708、画像データ書式作成処理部709、という区分は、画像処理部70の機能の理解を助けるために設けた区分であり、必ずしも物理的に独立したデバイスとして実現される必要はなく、例えば、単一のCPUによるソフトウエア処理の種類の区分として実現されてもよい。   It should be noted that the film scan data processing unit 702, the reflected original scan data processing unit 703, the image data format decoding processing unit 704, the image adjustment processing unit 701, the CRT specific processing unit 706, the printer specific processing unit A707, and the printer specific shown in FIG. The divisions of the processing unit B708 and the image data format creation processing unit 709 are provided to assist understanding of the functions of the image processing unit 70, and are not necessarily realized as physically independent devices. Alternatively, it may be realized as a type of software processing performed by a single CPU.

画像調整処理部701は、図3に示すように、シーン解析部710と、色変換定義作成部711と、色変換定義記憶部730とを備えて構成される。色変換定義記憶部730は、HDDや半導体メモリ等の読み書き可能なメモリ領域を備えて構成され、後述する標準色変換定義作成部721やシーン別色変換定義作成部722により作成された3D−LUTや、予め設定された3D−LUTを記憶する。尚、本実施形態において、色変換定義作成部711は、3D−LUTを作成・補正することとして説明するが、カラープロファイルを色変換定義データとして作成することとしてもよい。   As illustrated in FIG. 3, the image adjustment processing unit 701 includes a scene analysis unit 710, a color conversion definition creation unit 711, and a color conversion definition storage unit 730. The color conversion definition storage unit 730 includes a readable / writable memory area such as an HDD or a semiconductor memory. The color conversion definition storage unit 730 includes a 3D-LUT created by a standard color conversion definition creation unit 721 and a scene-specific color conversion definition creation unit 722 to be described later. Or, a preset 3D-LUT is stored. In the present embodiment, the color conversion definition creating unit 711 is described as creating and correcting a 3D-LUT, but a color profile may be created as color conversion definition data.

図4(a)に、シーン解析部710の内部構成を示す。シーン解析部710は、図4(a)に示すように、割合算出部712、指標算出部713及び画像処理条件算出部714を備えて構成される。割合算出部712は、図4(b)に示すように、表色系変換部715、ヒストグラム作成部716及び占有率演算部717を備えて構成される。   FIG. 4A shows the internal configuration of the scene analysis unit 710. As shown in FIG. 4A, the scene analysis unit 710 includes a ratio calculation unit 712, an index calculation unit 713, and an image processing condition calculation unit 714. As shown in FIG. 4B, the ratio calculation unit 712 includes a color system conversion unit 715, a histogram creation unit 716, and an occupation rate calculation unit 717.

表色系変換部715は、撮影画像データのRGB値をHSV表色系に変換する。HSV表色系とは、画像データを、色相、彩度及び明度の3つの要素で表すものである。尚、本実施形態において、「明度」は特に注釈を設けない限り一般に用いられる「明るさ」を表す。また、以下の説明では、HSV表色系のV(0〜255)を「明度」として用いるが、他の如何なる表色系の明るさを表す単位系を用いてもよい。   The color system conversion unit 715 converts the RGB values of the captured image data into the HSV color system. The HSV color system represents image data with three elements of hue, saturation, and brightness. In the present embodiment, “brightness” represents “brightness” that is generally used unless otherwise noted. In the following description, V (0 to 255) of the HSV color system is used as “lightness”, but a unit system representing the brightness of any other color system may be used.

ヒストグラム作成部716は、撮影画像データを、所定の色相と明度の組み合わせからなる領域に分割し、分割された領域毎に累積画素数を算出することによって2次元ヒストグラムを作成する。また、ヒストグラム作成部716は、撮影画像データを、当該撮影画像データの画像の外縁からの距離と明度との組み合わせからなる所定の領域に分割し、分割された領域毎に累積画素数を算出することによって2次元ヒストグラムを作成する。尚、撮影画像データを、画像の外縁からの距離、明度及び色相の組み合わせからなる領域に分割し、その領域毎に累積画素数を算出することで、3次元ヒストグラムを作成するようにしてもよい。   The histogram creation unit 716 creates a two-dimensional histogram by dividing the photographed image data into regions composed of a predetermined combination of hue and brightness, and calculating the cumulative number of pixels for each of the divided regions. In addition, the histogram creation unit 716 divides the captured image data into predetermined regions including a combination of the distance from the outer edge of the captured image data and the brightness, and calculates the cumulative number of pixels for each of the divided regions. Thus, a two-dimensional histogram is created. Note that the photographed image data may be divided into regions composed of combinations of distance from the outer edge of the image, brightness, and hue, and a cumulative pixel count may be calculated for each region to create a three-dimensional histogram. .

占有率演算部717は、明度と色相の組み合わせによって分割された領域毎に算出された累積画素数の全画素数(撮影画像データ全体)に占める割合を示す第1の占有率(表1参照)を算出する。また、占有率演算部717は、撮影画像データの画像の外縁からの距離と明度の組み合わせによって分割された領域毎に算出された累積画素数の全画素数に占める割合を示す第2の占有率(表4参照)を算出する。   The occupancy ratio calculation unit 717 is a first occupancy ratio (see Table 1) that indicates the ratio of the cumulative number of pixels calculated for each region divided by the combination of brightness and hue to the total number of pixels (the entire captured image data). Is calculated. The occupation ratio calculation unit 717 also displays a second occupation ratio indicating the ratio of the cumulative number of pixels calculated for each region divided by the combination of the distance from the outer edge of the captured image data and the brightness to the total number of pixels. (See Table 4).

指標算出部713は、領域毎に算出された第1の占有率に、撮影条件に応じて予め(例えば、判別分析によって)設定された第1の係数(表2参照)を乗算して和をとることにより、撮影シーンを特定するための指標1を算出する。ここで、撮影シーンとは、順光、逆光、ストロボ等の、被写体を撮影する時の光源条件及びアンダー撮影等の露出条件を示す。   The index calculation unit 713 multiplies the first occupancy calculated for each region by a first coefficient (see Table 2) set in advance (for example, by discriminant analysis) according to the shooting conditions. As a result, the index 1 for specifying the shooting scene is calculated. Here, the shooting scene indicates a light source condition when shooting a subject, such as direct light, backlight, strobe light, and exposure conditions such as under shooting.

第1の指標としての指標1は、撮影シーンとして「ストロボ撮影シーン」と判別されるべき画像を他の撮影シーンから分離するためのものである。ストロボを用いた撮影は、光源の不足する屋内での撮影や近接撮影といった場合に行われることが多い。また、ストロボを用いた撮影が行われると、撮影画像中の人物の顔等の主要な被写体が背景よりも明るくなるという輝度構成を有することが多い。このため、指標1は、ストロボ撮影シーンでの撮影固有の特徴を複合的に示す指針となる。   The index 1 as the first index is for separating an image that should be determined as a “flash shooting scene” as a shooting scene from other shooting scenes. Shooting using a strobe is often performed when shooting indoors or in close proximity, where the light source is insufficient. Further, when photographing using a strobe is performed, a luminance structure is often obtained in which a main subject such as a person's face in a photographed image becomes brighter than the background. For this reason, the index 1 serves as a guideline indicating composite characteristics unique to shooting in a flash shooting scene.

指標1の算出の際、指標算出部713は、所定の高明度の肌色色相領域と、当該高明度の肌色色相領域以外の色相領域とで、異なる符号の係数を用いる。ここで、所定の高明度の肌色色相領域には、HSV表色系の明度値で170〜224の領域が含まれる。また、所定の高明度の肌色色相領域以外の色相領域には、青色色相領域(色相値161〜250)、緑色色相領域(色相値40〜160)の少なくとも一方の高明度領域が含まれる。   When calculating the index 1, the index calculation unit 713 uses coefficients of different signs for a predetermined high brightness skin color hue area and a hue area other than the high brightness skin color hue area. Here, the predetermined high lightness skin color hue region includes regions 170 to 224 in the lightness value of the HSV color system. Further, the hue area other than the predetermined high brightness skin color hue area includes at least one high brightness area of the blue hue area (hue values 161 to 250) and the green hue area (hue values 40 to 160).

また、指標算出部713は、領域毎に算出された第1の占有率に、撮影条件に応じて予め設定された第2の係数(表3参照)を乗算して和をとることにより、撮影シーンを特定するための指標2を算出する。   In addition, the index calculation unit 713 multiplies the first occupancy calculated for each region by a second coefficient (see Table 3) set in advance according to the shooting conditions to obtain the sum, An index 2 for specifying the scene is calculated.

第2の指標としての指標2は、撮影シーンとして「逆光シーン」と判別されるべき画像を他の撮影シーンから分離するためのものである。また、逆光時の撮影は、屋外での撮影が多い。また、逆光時の撮影により得られた画像は、空等の背景の色が明るく撮影されたり、人物の顔等の主要な被写体が背景より暗く撮影されるといった輝度構成を有することが多い。このため、指標2は、逆光シーンでの撮影固有の特徴を複合的に示す指針となる。   The index 2 as the second index is for separating an image that should be determined as a “backlight scene” from other shooting scenes. In addition, shooting in the backlight is often performed outdoors. Further, an image obtained by shooting during backlighting often has a luminance configuration such that the background color such as the sky is photographed brightly, and main subjects such as human faces are photographed darker than the background. For this reason, the index 2 serves as a guideline indicating composite characteristics unique to photographing in a backlight scene.

指標2の算出の際、指標算出部713は、肌色色相領域(色相値0〜39、330〜359)の中間明度領域と、当該中間明度領域以外の明度領域とで、異なる符号の係数を用いる。この肌色色相領域の中間明度領域には、明度値85〜169の領域が含まれる。また、当該中間明度領域以外の明度領域には、例えば、シャドー領域(明度値26〜84)が含まれる。   When calculating the index 2, the index calculation unit 713 uses coefficients of different signs in the intermediate brightness area of the flesh color hue area (hue values 0 to 39, 330 to 359) and the brightness areas other than the intermediate brightness area. . The intermediate lightness area of the flesh color hue area includes lightness values of 85 to 169. The brightness area other than the intermediate brightness area includes, for example, a shadow area (brightness values 26 to 84).

更に、指標算出部713は、領域毎に算出された第2の占有率に、撮影条件に応じて予め設定された第3の係数(表5参照)を乗算して和をとることにより、撮影シーンを特定するための指標3を算出する。   Further, the index calculation unit 713 multiplies the second occupancy calculated for each region by a third coefficient (see Table 5) set in advance according to the shooting conditions to obtain the sum, An index 3 for specifying the scene is calculated.

指標3は、撮影シーンとして「ストロボ撮影シーン」又は「逆光シーン」と判別されるべき画像のみを定量的に示すものである。また、指標3は、逆光時の撮影とストロボ撮影との間における、撮影画像の中心と外縁側との明暗の差異を示す。指標3の算出の際、指標算出部713は、撮影画像の画像の外縁側からの距離に応じて異なる値の係数を用いる。   The index 3 quantitatively indicates only an image that should be determined as a “strobe shooting scene” or a “backlight scene” as a shooting scene. In addition, the index 3 indicates the difference in brightness between the center of the captured image and the outer edge side between the back-light shooting and the strobe shooting. When calculating the index 3, the index calculation unit 713 uses coefficients having different values depending on the distance from the outer edge side of the captured image.

また、指標算出部713は、少なくとも、撮影画像データの全画像領域の中央付近における肌色の平均輝度値に、撮影条件に応じて予め設定された第4の係数を乗算して和をとることにより、撮影シーンを特定するための指標4を算出する。より好ましくは、撮影画像データの画像中央部における肌色の平均輝度値だけでなく、撮影画像データの最大輝度値と平均輝度値との差分値、輝度標準偏差、画像中央部における平均輝度値、画像の肌色最大輝度値と肌色最小輝度値の差分値と肌色平均輝度値との比較値(後述の式(8)参照)の各々に、撮影条件に応じて予め設定された第4の係数を乗算して和をとることにより、指標4を算出する。   In addition, the index calculation unit 713 multiplies the average luminance value of the skin color in the vicinity of the center of the entire image area of the photographed image data by a fourth coefficient set in advance according to the photographing condition to obtain a sum. Then, an index 4 for specifying the shooting scene is calculated. More preferably, not only the average brightness value of the skin color in the image center portion of the captured image data, but also the difference value between the maximum brightness value and the average brightness value of the captured image data, the brightness standard deviation, the average brightness value in the image center portion, the image Each of the comparison values (see equation (8) described later) between the difference value between the skin color maximum brightness value and the skin color minimum brightness value and the skin color average brightness value is multiplied by a fourth coefficient set in advance according to the shooting conditions. Then, the index 4 is calculated by taking the sum.

指標4は、撮影シーンとして「ストロボ撮影シーン」又は「アンダー撮影シーン」と判別されるべき画像のみを定量的に示すものである。また、指標4は、ストロボ撮影とアンダー撮影との間における、撮影画像の中心と外縁側の明暗関係の差異を示すと共に、輝度ヒストグラムにおける分布情報を示す。   The index 4 quantitatively indicates only an image that should be determined as a “strobe shooting scene” or “under shooting scene” as a shooting scene. In addition, the index 4 indicates the difference in light-dark relationship between the center of the captured image and the outer edge side between strobe shooting and under shooting, and distribution information in a luminance histogram.

指標4を算出する際、指標算出部713では、撮影画像データの画像中央部における肌色の平均輝度値、画像の最大輝度値と平均輝度値との差分値、輝度標準偏差、画像中央部における平均輝度値、画像の肌色最大輝度値と肌色最小輝度値の差分値と肌色平均輝度値との比較値を用いているが、ここでいう輝度値とは、明るさを表す指標であり、他の明るさを表す指標(例えば、HSV表色系の明度値等)を用いてもよい。   When calculating the index 4, the index calculation unit 713 calculates the average brightness value of the skin color at the center of the captured image data, the difference value between the maximum brightness value and the average brightness value of the image, the brightness standard deviation, and the average at the center of the image. The comparison value of the brightness value, the difference value between the flesh color maximum brightness value and the flesh color minimum brightness value and the flesh color average brightness value is used. The brightness value here is an index representing brightness, An index representing brightness (for example, a brightness value of the HSV color system) may be used.

また、指標算出部713は、撮影画像データの全画像領域中の人物の顔に相当すると推定される領域(顔候補領域)を抽出する顔候補領域抽出処理を行って、その顔候補領域の全画像領域に占める割合を指標5として算出する。顔候補領域抽出方式の例としては、人物の各部に特有の形状パターン(例えば、頭部の輪郭や顔の輪郭等を表す形状パターン)を撮影画像データに基づいて探索し、検出した形状パターンの大きさ、向き、当該形状パターンが表す人物の各部と人物の顔との位置関係に応じて、人物の顔に相当すると推定される領域を設定する。   In addition, the index calculation unit 713 performs a face candidate region extraction process that extracts a region (face candidate region) that is estimated to correspond to the face of a person in the entire image region of the captured image data. The ratio occupied in the image area is calculated as index 5. As an example of the face candidate region extraction method, a shape pattern peculiar to each part of a person (for example, a shape pattern representing a head outline, a face outline, etc.) is searched based on captured image data, and the detected shape pattern An area estimated to correspond to a person's face is set according to the size, orientation, and the positional relationship between each part of the person represented by the shape pattern and the person's face.

また、検出した形状パターンと異なる他の形状パターンを探索し、先に検出した領域の人物の顔としての整合性を求め、顔画像の候補となる領域を抽出して、当該顔画像の撮影画像の全領域に対する比率を算出する。尚、撮影画像データから顔画像を抽出する顔画像抽出方式の他に、撮影画像データから背景画像を除去する背景除去方式を用いて顔画像と推定される領域を抽出することとしてもよい。尚、撮影画像データの全画像領域内の少なくとも中心部分における肌色の平均輝度値を指標5として算出することとしてもよい。   In addition, another shape pattern different from the detected shape pattern is searched, the consistency of the previously detected region as the face of the person is obtained, the region that is a candidate for the face image is extracted, and the captured image of the face image is extracted The ratio to the entire area is calculated. In addition to the face image extraction method for extracting a face image from captured image data, a region estimated as a face image may be extracted using a background removal method for removing a background image from captured image data. Note that the average brightness value of the skin color in at least the central portion in the entire image area of the photographed image data may be calculated as the index 5.

第3の指標としての指標5は、撮影シーンとして「人物撮影シーン」、「風景撮影シーン」又は「人物+風景撮影シーン」と判別されるべき画像のみを定量的に示すものである。例えば、指標5が0.8以上であれば、「人物撮影シーン」であると判別し、0.2〜0.8であれば、「人物+風景撮影シーン」、0.2未満であれば「風景撮影シーン」と判別する。ここで、撮影画像を構成する被写体や背景等の撮影対象を本実施形態では「オブジェクト」という。   The index 5 as the third index quantitatively indicates only an image that should be discriminated as “portrait shooting scene”, “landscape shooting scene” or “person + landscape shooting scene” as a shooting scene. For example, if the index 5 is 0.8 or more, it is determined that the scene is a “portrait shooting scene”. If the index 5 is 0.2 to 0.8, it is “person + landscape shooting scene”. It is determined as “landscape shooting scene”. Here, a subject to be photographed and a subject to be photographed such as a background are referred to as “object” in the present embodiment.

指標算出部713は、指標1及び指標3それぞれに、撮影条件に応じて予め設定された係数を乗算して和をとることにより指標6を算出してもよく、より好ましくは指標1、指標3及び指標5それぞれに、撮影条件に応じて予め設定された係数を乗算して和をとることにより指標6を算出してもよい(式(10)参照)。   The index calculation unit 713 may calculate the index 6 by multiplying each of the index 1 and the index 3 by a coefficient set in advance according to the shooting condition, and more preferably, the index 1 and the index 3 are calculated. In addition, the index 6 may be calculated by multiplying each of the indices 5 by a coefficient set in advance according to the shooting conditions and taking the sum (see Expression (10)).

更に、指標算出部713は、指標2及び指標3それぞれに、撮影条件に応じて予め設定された係数を乗算して和をとることにより指標7を算出してもよく、より好ましくは指標2、指標3及び指標5それぞれに、撮影条件に応じて予め設定された係数を乗算して和をとることにより指標7を算出してもよい(式(11)参照)。   Furthermore, the index calculation unit 713 may calculate the index 7 by multiplying each of the index 2 and the index 3 by a coefficient set in advance according to the shooting condition, and more preferably, the index 2 The index 7 may be calculated by multiplying each of the index 3 and the index 5 by a coefficient set in advance according to the shooting condition to obtain a sum (see Expression (11)).

図4(c)に、画像処理条件算出部714の内部構成を示す。画像処理条件算出部714は、図4(c)に示すように、シーン判別部718、色変換定義補正方法決定部719及び補正割合算出部720を備えて構成される。   FIG. 4C shows the internal configuration of the image processing condition calculation unit 714. As illustrated in FIG. 4C, the image processing condition calculation unit 714 includes a scene determination unit 718, a color conversion definition correction method determination unit 719, and a correction ratio calculation unit 720.

シーン判別部718は、指標算出部713において算出された指標1〜7に基づいて、撮影画像データの撮影シーン(光源条件及び露出条件の輝度構成、人物や風景のオブジェクト構成)を判別する。   The scene discrimination unit 718 discriminates a shooting scene (luminance configuration of light source condition and exposure condition, object configuration of person or landscape) based on the indexes 1 to 7 calculated by the index calculation unit 713.

色変換定義補正方法決定部719は、シーン判別部718において判別された撮影シーンに応じて、色変換定義記憶部730に記憶された3D−LUT(色変換定義データ)の補正方法を決定する。ここで、色再現特性とは、出力デバイスの再現出力可能な色空間の明度及び彩度の特性であり、同種の出力デバイスであっても、出力媒体が異なればその色再現特性に差異が生じてくる。   The color conversion definition correction method determination unit 719 determines a correction method for the 3D-LUT (color conversion definition data) stored in the color conversion definition storage unit 730 according to the shooting scene determined by the scene determination unit 718. Here, the color reproduction characteristics are the brightness and saturation characteristics of the color space that can be reproduced and output by the output device. Even if the output device is the same type, the color reproduction characteristics will differ if the output medium is different. Come.

出力デバイスが有する色再現特性に対応した3D−LUTは、後述する標準色変換定義作成部721により作成される。また、後述するシーン別色変換定義作成部722により、撮影シーン別の3D−LUTが作成される。以下、標準色変換定義作成部721が作成する3D−LUTを「標準色変換定義」、シーン別色変換定義作成部722が作成する3D−LUTを撮影シーン毎に「人物用色変換定義」、「風景用色変換定義」等という。   A 3D-LUT corresponding to the color reproduction characteristics of the output device is created by a standard color conversion definition creation unit 721 described later. Further, a 3D-LUT for each shooting scene is created by a color conversion definition creation unit for each scene 722 described later. Hereinafter, the 3D-LUT created by the standard color conversion definition creation unit 721 is “standard color conversion definition”, and the 3D-LUT created by the scene-specific color conversion definition creation unit 722 is “personal color conversion definition” for each shooting scene. This is called “landscape color conversion definition”.

このような各種3D−LUTは、色変換定義記憶部730に記憶されており、ユーザ設定や初期設定等により、撮影時の基準となる3D−LUT(以下、「基準色変換定義」という)が予め設定される。例えば、人物を被写体とする撮影が多いユーザであれば、人物用色変換定義が基準色変換定義として設定され、風景の撮影が多いユーザであれば、風景用色変換定義が設定される。   Such various 3D-LUTs are stored in the color conversion definition storage unit 730, and a 3D-LUT (hereinafter referred to as “reference color conversion definition”) serving as a reference at the time of shooting is determined by user settings, initial settings, and the like. It is set in advance. For example, the color conversion definition for a person is set as the reference color conversion definition for a user who frequently shoots a person as a subject, and the color conversion definition for a landscape is set for a user who frequently shoots a landscape.

色変換定義補正方法決定部719は、撮影シーンに応じて基準色変換定義の補正方法を決定する。 具体的には、例えば、人物の顔候補領域が撮影画像全体に対して狭く、風景を中心とした撮影画像である、即ち、「風景撮影シーン」であると判別された場合、基準色変換定義の彩度を圧縮する彩度圧縮補正をLUTの補正方法として選択する。また、人物の顔候補領域が撮影画像全体に対して広いく「人物撮影シーン」であると判別された場合には、基準色変換定義の色相を圧縮する色相圧縮補正を補正方法として選択する。   A color conversion definition correction method determination unit 719 determines a correction method for the reference color conversion definition according to the shooting scene. Specifically, for example, when it is determined that a human face candidate area is narrow with respect to the entire captured image and is a captured image centered on a landscape, that is, a “landscape captured scene”, the reference color conversion definition The saturation compression correction for compressing the saturation of the LUT is selected as the LUT correction method. If it is determined that the human face candidate region is wide and “person photographed scene” with respect to the entire photographed image, hue compression correction for compressing the hue of the reference color conversion definition is selected as the correction method.

また、色変換定義補正方法決定部719は、シーン判別部718において判別された撮影シーンに応じて、撮影画像データに対する階調変換の方法を決定する。例えば、順光シーンであると判別した場合は、入力された撮影画像データの画素値を平行移動(オフセット)補正する階調変換方法Aを選択する。また、逆光シーン又はアンダー撮影シーンであると判別した場合は、入力された撮影画像データの画素値をガンマ補正する階調変換方法Bを選択する。また、ストロボ撮影シーンであると判別した場合、入力された撮影画像データの画素値をガンマ補正及び平行移動補正する階調変換方法Cを選択する。   Further, the color conversion definition correction method determination unit 719 determines a gradation conversion method for the captured image data in accordance with the captured scene determined by the scene determination unit 718. For example, when it is determined that the scene is a front light scene, the gradation conversion method A for correcting the translation (offset) of the pixel value of the input captured image data is selected. If it is determined that the scene is a backlight scene or an undershoot scene, a gradation conversion method B that performs gamma correction on the pixel value of the input captured image data is selected. Further, when it is determined that the scene is a flash photography scene, a gradation conversion method C for selecting gamma correction and parallel movement correction for the pixel value of the inputted photographed image data is selected.

画像調整処理部701は、予め設定された複数の階調変換曲線(1D−LUT)の中から、決定した階調変換方法に対応する階調変換曲線を選択して、その階調変換曲線に従って撮影画像データに階調変換を施す。尚、階調変換の方法については、公知技術であるためその説明は省略する。   The image adjustment processing unit 701 selects a gradation conversion curve corresponding to the determined gradation conversion method from a plurality of gradation conversion curves (1D-LUT) set in advance, and follows the gradation conversion curve. Tone conversion is performed on photographed image data. Since the gradation conversion method is a known technique, the description thereof is omitted.

補正割合算出部720は、色変換定義補正方法決定部719において選択・決定された補正方法での補正を、基準色変換定義に対してどの程度の度合いで加えるかを示す補正割合を撮影シーンに基づいて算出する。   The correction ratio calculation unit 720 adds a correction ratio indicating to what degree the correction by the correction method selected and determined by the color conversion definition correction method determination unit 719 is added to the reference color conversion definition in the shooting scene. Calculate based on

図4(d)に、色変換定義作成部711の内部構成を示す。色変換定義作成部711は、図4(4)に示すように、標準色変換定義作成部721、シーン別色変換定義作成部722及び色変換定義補正部723を備えて構成される。   FIG. 4D shows the internal configuration of the color conversion definition creation unit 711. The color conversion definition creation unit 711 includes a standard color conversion definition creation unit 721, a scene-specific color conversion definition creation unit 722, and a color conversion definition correction unit 723, as shown in FIG.

標準色変換定義作成部721は、CRT8や外部プリンタ51等の出力デバイスの色再現特性に対応した3D−LUTを作成する機能部であり、色度を測定する測色計や濃度計等を備えて構成される。標準色変換定義作成部721は、CRT8に表示される色パッチや、外部プリンタ51によりプリントされた色パッチを測色し、その測色結果と、そのカラーパッチの元となる画像データとに基づいて標準色変換定義を作成する(図20の標準色変換定義作成処理)。   The standard color conversion definition creation unit 721 is a functional unit that creates a 3D-LUT corresponding to the color reproduction characteristics of an output device such as the CRT 8 or the external printer 51, and includes a colorimeter, a densitometer, and the like that measure chromaticity. Configured. The standard color conversion definition creation unit 721 measures the color patch displayed on the CRT 8 or the color patch printed by the external printer 51, and based on the color measurement result and the image data that is the basis of the color patch. The standard color conversion definition is created (standard color conversion definition creation processing in FIG. 20).

この標準色変換定義は、露出条件の変化の少ない良好な環境化での作成が可能であるため、撮影シーンが順光シーン且つ人物+風景撮影シーンであり、適切な露出で撮影された撮影画像データの色変換に用いられる。標準色変換定義には、指標1〜6を予め設定しておく。   Since this standard color conversion definition can be created in a favorable environment with little change in exposure conditions, the shooting scene is a front light scene and a person + landscape shooting scene, and the shot image is shot at an appropriate exposure. Used for data color conversion. Indicators 1 to 6 are set in advance in the standard color conversion definition.

シーン別色変換定義作成部722は、標準色変換定義作成部721により作成された標準色変換定義に、各種調整処理を施すことにより、シーン別色変換定義を作成する。例えば、人物撮影シーンに対応する人物用色変換定義は、被写体(オブジェクト)である人物の肌色が明度変化に応じて視覚的に好ましい肌色で色再現されるような調整が予め施されている。また、風景撮影シーンに対応する風景用色変換定義は、空の青色や、草木の緑色等の風景画像に占める割合の大きいオブジェクトの色が明度変化に応じて視覚的に好ましい色で色再現されるような調整が予め施されている。   The scene-specific color conversion definition creation unit 722 creates a scene-specific color conversion definition by performing various adjustment processes on the standard color conversion definition created by the standard color conversion definition creation unit 721. For example, the color conversion definition for a person corresponding to a person photographing scene is previously adjusted so that the skin color of a person who is a subject (object) is reproduced with a visually preferable skin color according to a change in brightness. In addition, the color conversion definition for landscape corresponding to a landscape shooting scene reproduces the color of an object that accounts for a large proportion of the landscape image, such as the sky blue or the green color of plants, in a visually preferred color according to the change in brightness. Such adjustments are made in advance.

尚、標準色変換定義作成部721及びシーン別色変換定義作成部722が3D−LUTを作成するタイミングは、特に限定はされず、例えば、撮影画像データが入力される以前に作成しておくことが望ましい。   The timing at which the standard color conversion definition creation unit 721 and the scene-specific color conversion definition creation unit 722 create the 3D-LUT is not particularly limited. For example, the standard color conversion definition creation unit 721 creates the 3D-LUT before inputting captured image data. Is desirable.

色変換定義補正部723は、色変換定義補正方法決定部719において決定された補正方法で、基準色変換定義の色再現特性を補正する。この補正の際に、補正方法に従ってシーン別色変換定義を選択し、そのシーン別色変換定義の色再現特性を補正割合算出部720により算出された補正割合の度合いで基準色変換定義に作用させるように補正する。このため、色変換定義補正部723により補正されて新たに作成された補正色変換定義は、出力デバイスの色再現特性を有していると共に、撮影画像に合わせた色再現特性が撮影シーンに応じた割合で反映されることとなる。   The color conversion definition correction unit 723 corrects the color reproduction characteristics of the reference color conversion definition by the correction method determined by the color conversion definition correction method determination unit 719. In this correction, a scene-specific color conversion definition is selected according to the correction method, and the color reproduction characteristics of the scene-specific color conversion definition are applied to the reference color conversion definition with the degree of the correction ratio calculated by the correction ratio calculation unit 720. Correct as follows. For this reason, the corrected color conversion definition newly created by correction by the color conversion definition correcting unit 723 has the color reproduction characteristics of the output device, and the color reproduction characteristics according to the photographed image correspond to the photographing scene. It will be reflected in the proportion.

画像調整処理部701は、色変換定義補正部723により作成された補正色変換定義、即ち、入力される撮影画像データの撮影シーンに基づいて色再現特性を補正した補正色変換定義に基づいて当該撮影画像データの色変換を行って出力する。   The image adjustment processing unit 701 performs the correction color conversion definition created by the color conversion definition correction unit 723, that is, based on the correction color conversion definition in which the color reproduction characteristics are corrected based on the shooting scene of the input shooting image data. Performs color conversion of the captured image data and outputs it.

<画像処理装置の具体的な動作>
次に、画像処理装置1の具体的な動作について図5〜22を参照して説明する。図5は、画像調整処理部701が実行するシーン判別処理の処理内容を示すフローチャートである。
<Specific operation of image processing apparatus>
Next, specific operations of the image processing apparatus 1 will be described with reference to FIGS. FIG. 5 is a flowchart showing the processing content of the scene determination processing executed by the image adjustment processing unit 701.

図5に示すように、画像調整処理部701は、先ず、撮影画像データが所定の画像領域に分割し、その分割領域が撮影画像データ全体に占める割合を示す第1及び第2の占有率を算出する占有率算出処理を行う(ステップS1)。   As shown in FIG. 5, the image adjustment processing unit 701 first divides the captured image data into predetermined image areas, and sets the first and second occupancy ratios indicating the ratio of the divided areas to the entire captured image data. An occupancy ratio calculation process is performed (step S1).

そして、割合算出部712において算出された占有率と、少なくとも、撮影画像データの画像中央部における肌色の平均輝度値と、撮影条件に応じて予め設定された係数に基づいて、撮影シーンを特定する指標1〜7が算出する(ステップS2)。次いで、ステップS2において算出された指標に基づいて撮影シーンを判別し、判別結果に応じて撮影画像データに対する画像処理条件を決定する(ステップS3)。   Then, based on the occupation rate calculated by the ratio calculation unit 712, at least the average luminance value of the skin color at the center of the image of the captured image data, and a coefficient set in advance according to the shooting conditions, the shooting scene is specified. The indices 1 to 7 are calculated (step S2). Next, a shooting scene is determined based on the index calculated in step S2, and an image processing condition for the shot image data is determined according to the determination result (step S3).

図6及び図11は、ステップS1において実行される占有率算出処理の処理内容を示すフローチャートである。   6 and 11 are flowcharts showing the processing contents of the occupation ratio calculation processing executed in step S1.

先ず、図6の第1の占有率算出処理において、入力された撮影画像データのRGB値がHSV表色系に変換される(ステップS10)。次いで、撮影画像データが、所定の明度と色相の組み合わせからなる領域に分割され、分割領域毎に累積画素数を算出することにより2次元ヒストグラムが作成される(ステップS11)。ここで、撮影画像データの領域分割について詳細に説明する。   First, in the first occupancy rate calculation process of FIG. 6, the RGB values of the input captured image data are converted into the HSV color system (step S10). Next, the photographed image data is divided into regions composed of combinations of predetermined brightness and hue, and a two-dimensional histogram is created by calculating the cumulative number of pixels for each divided region (step S11). Here, the area division of the captured image data will be described in detail.

明度(V)は、明度値が0〜25(v1)、26〜50(v2)、51〜84(v3)、85〜169(v4)、170〜199(v5)、200〜224(v6)、225〜225(v7)の7つの領域に分割される。色相(H)は、色相値が0〜39、330〜359の肌色色相領域(H1及びH2)、色相値が40〜160の緑色色相領域(H3)、色相値が161〜250の青色色相領域(H4)、赤色色相領域(H5)の4つの領域に分割される。   The lightness (V) is 0-25 (v1), 26-50 (v2), 51-84 (v3), 85-169 (v4), 170-199 (v5), 200-224 (v6). , 225 to 225 (v7). Hue (H) is a flesh color hue region (H1 and H2) having a hue value of 0 to 39 and 330 to 359, a green hue region (H3) having a hue value of 40 to 160, and a blue hue region having a hue value of 161 to 250. It is divided into four areas (H4) and a red hue area (H5).

尚、赤色色相領域(H5)は、撮影シーンの判別への寄与が少ないとの知見から、以下の計算で用いていない。肌色色相領域は、更に、肌色領域(H1)と、それ以外の領域(H2)に分割される。以下、肌色色相領域(H=0〜39、330〜359)のうち、下記の式(1)を満たす色相'(H)を肌色領域(H1)とし、式(1)を満たさない領域を(H2)とする。   Note that the red hue region (H5) is not used in the following calculation because it is found that the contribution to the determination of the shooting scene is small. The flesh color hue area is further divided into a flesh color area (H1) and other areas (H2). Hereinafter, among the flesh-colored hue regions (H = 0 to 39, 330 to 359), the hue ′ (H) that satisfies the following formula (1) is defined as the flesh-colored region (H1), and the region that does not satisfy the formula (1) is ( H2).

10 < 彩度(S) <175、
色相'(H) = 色相(H) + 60 (0 ≦ 色相(H) < 300のとき)、
色相'(H) = 色相(H) -300 (300 ≦ 色相(H) < 360のとき)、
輝度(Y) = InR × 0.30 + InG × 0.59 + InB × 0.11 ・・・(A)
として、
色相'(H)/輝度(Y) < 3.0 ×(彩度(S)/255)+0.7 ・・・(1)
従って、撮影画像データの分割領域の数は4×7=28個となる。尚、式(A)及び(1)において明度(V)を用いることも可能である。また、InR、InG、InBは、入力画像データのRGB値である。
10 <Saturation (S) <175,
Hue '(H) = Hue (H) + 60 (when 0 ≤ Hue (H) <300),
Hue '(H) = Hue (H) -300 (when 300 ≤ Hue (H) <360),
Luminance (Y) = InR x 0.30 + InG x 0.59 + InB x 0.11 (A)
As
Hue '(H) / Luminance (Y) <3.0 × (Saturation (S) / 255) +0.7 (1)
Therefore, the number of divided areas of the captured image data is 4 × 7 = 28. In addition, it is also possible to use the brightness (V) in the formulas (A) and (1). InR, InG, and InB are RGB values of the input image data.

ヒストグラム作成部716により2次元ヒストグラムが作成されると、占有率演算部717は、第1の占有率を算出する(ステップS12)。明度領域vi、色相領域Hjの組み合わせからなる分割領域において算出された第1の占有率をRijとすると、各分割領域における第1の占有率は表1のように表される。

Figure 2007312005
When the two-dimensional histogram is created by the histogram creation unit 716, the occupation rate calculation unit 717 calculates a first occupation rate (step S12). Assuming that the first occupancy calculated in the divided area composed of the combination of the lightness area vi and the hue area Hj is Rij, the first occupancy in each divided area is expressed as shown in Table 1.
Figure 2007312005

<指標1及び指標2の算出方法>
次に、指標1及び指標2の算出方法について説明する。表2に、ストロボ撮影としての確度、即ち、ストロボ撮影時の顔候補領域の明度状態を定量的に示す指標1を算出するために必要な第1の係数を分割領域別に示す。表2に示された各分割領域の係数は、表1に示した各分割領域の第1の占有率Rijに乗算する重み係数であり、撮影条件に応じて予め設定されている。

Figure 2007312005
<Calculation method of index 1 and index 2>
Next, a method for calculating the index 1 and the index 2 will be described. Table 2 shows the first coefficient necessary for calculating the index 1 that quantitatively indicates the accuracy of strobe shooting, that is, the brightness state of the face candidate area at the time of strobe shooting, for each divided area. The coefficient of each divided area shown in Table 2 is a weighting coefficient by which the first occupancy rate Rij of each divided area shown in Table 1 is multiplied, and is set in advance according to the shooting conditions.
Figure 2007312005

図7に、明度(V)−色相(H)平面を示す。表2によると、図7において高明度の肌色色相領域に分布する領域(r1)から算出される第1の占有率には、正の係数が用いられ、それ以外の色相である青色色相領域(r2)から算出される第1の占有率には、負の係数が用いられる。   FIG. 7 shows a lightness (V) -hue (H) plane. According to Table 2, a positive coefficient is used for the first occupancy calculated from the region (r1) distributed in the high brightness skin color hue region in FIG. 7, and the blue hue region (hue other than that) A negative coefficient is used for the first occupancy calculated from r2).

図9は、肌色領域(H1)における第1の係数と、その他の領域(緑色色相領域(H2))における第1の係数を、明度全体に渡って連続的に変化する係数曲線として示したものである。表2及び図9によると、高明度領域(V=170〜224)では、肌色領域(H1)における第1の係数の符号は正であり、その他の領域における符号は負であり、両者の符号が異なっていることがわかる。   FIG. 9 shows the first coefficient in the skin color region (H1) and the first coefficient in the other region (green hue region (H2)) as a coefficient curve that continuously changes over the entire brightness. It is. According to Table 2 and FIG. 9, in the high brightness region (V = 170 to 224), the sign of the first coefficient in the skin color region (H1) is positive, and the sign in the other region is negative. Is different.

明度領域vi、色相領域Hjにおける第1の係数をCijとすると、指標1を算出するためのHk領域の和は、式(2)のように定義される。

Figure 2007312005
If the first coefficient in the lightness region vi and the hue region Hj is Cij, the sum of the Hk regions for calculating the index 1 is defined as in Expression (2).
Figure 2007312005

従って、H1〜H4領域の和は、下記の式(2−1)〜(2−4)のように表される。
H1領域の和=R11×(-44.0)+R21×(-16.0)+・・・+R71×(-11.3) ・・・(2−1)
H2領域の和=R12×0.0+R22×8.6+・・・+R72×(-11.1) ・・・(2−2)
H3領域の和=R13×0.0+R23×(-6.3)+・・・+R73×(-10.0) ・・・(2−3)
H4領域の和=R14×0.0+R24×(-1.8)+・・・+R74×(-14.6) ・・・(2−4)
Accordingly, the sum of the H1 to H4 regions is expressed by the following formulas (2-1) to (2-4).
Sum of H1 regions = R11 x (-44.0) + R21 x (-16.0) + ... + R71 x (-11.3) (2-1)
Sum of H2 regions = R12 x 0.0 + R22 x 8.6 + ... + R72 x (-11.1) (2-2)
Sum of H3 regions = R13 x 0.0 + R23 x (-6.3) + ... + R73 x (-10.0) (2-3)
Sum of H4 region = R14 x 0.0 + R24 x (-1.8) + ... + R74 x (-14.6) (2-4)

指標1は、式(2−1)〜(2−4)で示されたH1〜H4領域の和を用いて、式(3)のように定義される。
指標1=H1領域の和+H2領域の和+H3領域の和+H4領域の和+4.424 ・・・(3)
The index 1 is defined as in Expression (3) using the sum of the H1 to H4 regions shown in Expressions (2-1) to (2-4).
Index 1 = sum of H1 region + sum of H2 region + sum of H3 region + sum of H4 region + 4.424 (3)

表3に、逆光撮影としての確度、即ち、逆光撮影時の顔候補領域の明度状態を定量的に示す指標2を算出するために必要な第2の係数を分割領域別に示す。表3に示された各分割領域の係数は、表1に示した各分割領域の第1の占有率Rijに乗算する重み係数であり、撮影条件に応じて予め設定されている。

Figure 2007312005
Table 3 shows, for each divided region, the second coefficient necessary for calculating the index 2 that quantitatively indicates the accuracy as backlight photographing, that is, the brightness state of the face candidate region at the time of backlight photographing. The coefficient of each divided area shown in Table 3 is a weighting coefficient by which the first occupancy rate Rij of each divided area shown in Table 1 is multiplied, and is set in advance according to the shooting conditions.
Figure 2007312005

図8に、明度(V)−色相(H)平面を示す。表3によると、図8において肌色色相領域の中間明度に分布する領域(r4)から算出される占有率には負の係数が用いられ、肌色色相領域の低明度(シャドー)領域(r3)から算出される占有率には正の係数が用いられる。図10は、肌色領域(H1)における第2の係数を、明度全体に渡って連続的に変化する係数曲線として示したものである。表3及び図10によると、肌色色相領域の、明度値が85〜169(v4)の中間明度領域の第2の係数の符号は負であり、明度値が26〜84(v2,v3)の低明度領域の符号は正であり、両領域での係数の符号が異なっていることがわかる。   FIG. 8 shows a lightness (V) -hue (H) plane. According to Table 3, a negative coefficient is used for the occupancy calculated from the region (r4) distributed in the intermediate lightness of the flesh color hue region in FIG. 8, and from the low lightness (shadow) region (r3) of the flesh color hue region. A positive coefficient is used for the calculated occupation ratio. FIG. 10 shows the second coefficient in the skin color region (H1) as a coefficient curve that continuously changes over the entire brightness. According to Table 3 and FIG. 10, the sign of the second coefficient of the intermediate lightness region of the skin color hue region with the lightness value of 85 to 169 (v4) is negative, and the lightness value of 26 to 84 (v2, v3). It can be seen that the sign of the low brightness area is positive, and the signs of the coefficients in both areas are different.

明度領域vi、色相領域Hjにおける第2の係数をDijとすると、指標2を算出するためのHk領域の和は、式(4)のように定義される。

Figure 2007312005
When the second coefficient in the lightness area vi and the hue area Hj is Dij, the sum of the Hk areas for calculating the index 2 is defined as in Expression (4).
Figure 2007312005

従って、H1〜H4領域の和は、下記の式(4−1)〜(4−4)のように表される。
H1領域の和=R11×(-27.0)+R21×4.5+・・・+R71×(-24.0) ・・・(4−1)
H2領域の和=R12×0.0+R22×4.7+・・・ +R72×(-8.5) ・・・(4−2)
H3領域の和=R13×0.0+R23×0.0+・・・+R73×0.0 ・・・(4−3)
H4領域の和=R14×0.0+R24×(-5.1)+・・・+R74×7.2 ・・・(4−4)
Accordingly, the sum of the H1 to H4 regions is expressed by the following formulas (4-1) to (4-4).
Sum of H1 regions = R11 x (-27.0) + R21 x 4.5 + ... + R71 x (-24.0) (4-1)
Sum of H2 regions = R12 x 0.0 + R22 x 4.7 + ... + R72 x (-8.5) (4-2)
Sum of H3 regions = R13 x 0.0 + R23 x 0.0 + ... + R73 x 0.0 (4-3)
Sum of H4 region = R14 x 0.0 + R24 x (-5.1) + ... + R74 x 7.2 (4-4)

指標2は、式(4−1)〜(4−4)で示されたH1〜H4領域の和を用いて、式(5)のように定義される。
指標2=H1領域の和+H2領域の和+H3領域の和+H4領域の和+1.554 ・・・(5)
指標1及び指標2は、撮影画像データの明度と色相の分布量に基づいて算出されるため、撮影画像データがカラー画像である場合の撮影シーンの判別に有効である。
The index 2 is defined as in Expression (5) using the sum of the H1 to H4 regions shown in Expressions (4-1) to (4-4).
Index 2 = sum of H1 area + sum of H2 area + sum of H3 area + sum of H4 area + 1.554 (5)
Since the index 1 and the index 2 are calculated based on the brightness and hue distribution amount of the captured image data, the index 1 and the index 2 are effective for determining a captured scene when the captured image data is a color image.

<指標3の算出方法>
次に、指標3の算出方法について説明する。指標3の算出においては、図11のフローチャートに従った第2の占有率算出処理が行われる。
<Calculation method for index 3>
Next, a method for calculating the index 3 will be described. In calculating the index 3, second occupancy rate calculation processing according to the flowchart of FIG. 11 is performed.

先ず、撮影画像データのRGB値がHSV表色系に変換され(ステップS20)、当該撮影画像データが、撮影画像の外縁からの距離と明度の組み合わせからなる領域に分割され、その分割領域毎に累積画素数を算出することにより2次元ヒストグラムが作成される(ステップS21)。   First, the RGB values of the photographed image data are converted into the HSV color system (step S20), and the photographed image data is divided into regions each composed of a combination of the distance from the outer edge of the photographed image and the brightness, and for each divided region. A two-dimensional histogram is created by calculating the cumulative number of pixels (step S21).

図12(a)〜(d)に、撮影画像データの画像の外縁からの距離に応じて分割された4つの領域n1〜n4を示す。図12(a)に示す領域n1が外枠であり、図12(b)に示す領域n2が、外枠の内側の領域であり、図12(c)に示す領域n3が、領域n2の更に内側の領域であり、図12(d)に示す領域n4が、撮影画像の中心部の領域である。また、明度は、上述のようにv1〜v7の7つの領域に分割するものとする。従って、撮影画像データを、撮影画像の外縁からの距離と明度の組み合わせからなる領域に分割した場合の分割領域の数は4×7=28個となる。   FIGS. 12A to 12D show four regions n1 to n4 divided according to the distance from the outer edge of the image of the captured image data. A region n1 shown in FIG. 12A is an outer frame, a region n2 shown in FIG. 12B is a region inside the outer frame, and a region n3 shown in FIG. A region n4 shown in FIG. 12D is an inner region and is a central region of the captured image. In addition, the brightness is divided into seven regions v1 to v7 as described above. Therefore, when the captured image data is divided into regions composed of combinations of the distance from the outer edge of the captured image and the brightness, the number of divided regions is 4 × 7 = 28.

2次元ヒストグラムが作成されると、占有率演算部717は、第2の占有率を算出する(ステップS22)。明度領域vi、画像領域njの組み合わせからなる分割領域において算出された第2の占有率をQijとすると、各分割領域における第2の占有率は表4のように表される。

Figure 2007312005
When the two-dimensional histogram is created, the occupation ratio calculation unit 717 calculates a second occupation ratio (step S22). If the second occupancy calculated in the divided area composed of the combination of the brightness area vi and the image area nj is Qij, the second occupancy in each divided area is expressed as shown in Table 4.
Figure 2007312005

表5に、指標3を算出するために必要な第3の係数を分割領域別に示す。表5に示された各分割領域の係数は、表4に示した各分割領域の第2の占有率Qijに乗算する重み係数であり、撮影条件に応じて予め設定されている。

Figure 2007312005
Table 5 shows the third coefficient necessary for calculating the index 3 for each divided region. The coefficient of each divided area shown in Table 5 is a weighting coefficient that is multiplied by the second occupancy rate Qij of each divided area shown in Table 4, and is set in advance according to the shooting conditions.
Figure 2007312005

図13は、画像領域n1〜n4における第3の係数を、明度全体に渡って連続的に変化する係数曲線として示したものである。明度領域vi、画像領域njにおける第3の係数をEijとすると、指標3を算出するための画像領域nkの和は、式(6)のように定義される。

Figure 2007312005
FIG. 13 shows the third coefficient in the image areas n1 to n4 as a coefficient curve that continuously changes over the entire brightness. If the third coefficient in the brightness area vi and the image area nj is Eij, the sum of the image area nk for calculating the index 3 is defined as in Expression (6).
Figure 2007312005

従って、n1〜n4領域の和は、下記の式(6−1)〜(6−4)のように表される。
n1領域の和=Q11×40.1+Q21×37.0+・・・+Q71×22.0 ・・・(6−1)
n2領域の和=Q12×(-14.8)+Q22×(-10.5)+・・・+Q72×0.0 ・・・(6−1)
n3領域の和=Q13×24.6+Q23×12.1+・・・+Q73×10.1 ・・・(6−1)
n4領域の和=Q14×1.5+Q24×(-32.9)+・・・+Q74×(-52.2) ・・・(6−1)
Accordingly, the sum of the n1 to n4 regions is represented by the following formulas (6-1) to (6-4).
Sum of n1 region = Q11 × 40.1 + Q21 × 37.0 + ... + Q71 × 22.0 (6-1)
Sum of n2 regions = Q12 × (-14.8) + Q22 × (-10.5) +... + Q72 × 0.0 (6-1)
n3 area sum = Q13 × 24.6 + Q23 × 12.1 +... + Q73 × 10.1 (6-1)
Sum of n4 regions = Q14 x 1.5 + Q24 x (-32.9) + ... + Q74 x (-52.2) ... (6-1)

指標3は、式(6−1)〜(6−4)で示されたn1〜n4領域の和を用いて、式(7)のように定義される。
指標3=n1領域の和+n2領域の和+n3領域の和+n4領域の和−12.6201・・・(7)
指標3は、撮影画像データの明度の分布位置による構図的な特徴(撮影画像データの画像の外縁からの距離)に基づいて算出されるため、カラー画像だけでなくモノクロ画像の撮影シーンを判別するのにも有効である。
The index 3 is defined as in Expression (7) using the sum of the n1 to n4 regions shown in Expressions (6-1) to (6-4).
Index 3 = sum of n1 regions + sum of n2 regions + sum of n3 regions + sum of n4 regions−12.6201 (7)
The index 3 is calculated based on a compositional feature (distance from the outer edge of the image of the photographed image data) according to the lightness distribution position of the photographed image data, and therefore, the photographing scene of the monochrome image as well as the color image is discriminated. It is also effective.

<指標4の算出方法>
次に、図14のフローチャートを参照して、指標算出部713において実行される指標4の算出処理について説明する。
<Calculation method of index 4>
Next, the index 4 calculation process executed in the index calculation unit 713 will be described with reference to the flowchart of FIG.

先ず、撮影画像データのRGB値から、式(A)を用いて輝度Yが算出され、当該撮影画像データの画像中央部における肌色領域の平均輝度値x1が算出される(ステップS23)。ここで、画像中央部とは、例えば、図12において、領域n3及び領域n4により構成される領域である。次いで、撮影画像データの最大輝度値と平均輝度値との差分値x2が算出される(ステップS24)。   First, the luminance Y is calculated from the RGB values of the photographed image data using the formula (A), and the average luminance value x1 of the skin color area in the center of the image of the photographed image data is calculated (step S23). Here, the central portion of the image is, for example, a region composed of a region n3 and a region n4 in FIG. Next, a difference value x2 between the maximum luminance value and the average luminance value of the captured image data is calculated (step S24).

次いで、撮影画像データの輝度の標準偏差x3が算出され(ステップS25)、画像中央部における平均輝度値x4が算出される(ステップS26)。次いで、撮影画像データにおける肌色領域の最大輝度値Yskin_maxと最小輝度値Yskin_minの差分値と、肌色領域の平均輝度値Yskin_aveとの比較値x5が算出される(ステップS27)。この比較値x5は、下記の式(8)のように表される。
x5=(Yskin_max−Yskin_min)/2 −Yskin_ave ・・・(8)
Next, the standard deviation x3 of the luminance of the photographed image data is calculated (step S25), and the average luminance value x4 at the center of the image is calculated (step S26). Next, a comparison value x5 between the difference value between the maximum luminance value Yskin_max and the minimum luminance value Yskin_min of the skin color area in the photographed image data and the average luminance value Yskin_ave of the skin color area is calculated (step S27). This comparison value x5 is expressed as the following equation (8).
x5 = (Yskin_max−Yskin_min) / 2−Yskin_ave (8)

次いで、ステップS23〜S27で算出された値x1〜x5の各々に、撮影条件に応じて予め設定された第4の係数を乗算し、和をとることにより、指標4が算出される(ステップS28)。指標4は、下記の式(9)のように定義される。
指標4=0.06×x1+1.13×x2+0.02×x3+(-0.01)×x4+0.03×x5−6.50・・・(9)
この指標4は、撮影画像データの画像の構図的な特徴だけでなく、輝度ヒストグラム分布情報を持ち合わせており、特にストロボ撮影シーンとアンダー撮影シーンの判別に有効である。
Next, the index 4 is calculated by multiplying each of the values x1 to x5 calculated in steps S23 to S27 by a fourth coefficient set in advance according to the shooting condition and taking the sum (step S28). ). The index 4 is defined as the following formula (9).
Index 4 = 0.06 x x 1 + 1.13 x x 2 + 0.02 x x 3 + (-0.01) x x 4 + 0.03 x x 5-6.50 (9)
The index 4 has not only compositional characteristics of the image of the captured image data but also luminance histogram distribution information, and is particularly effective for distinguishing between a strobe shooting scene and an under shooting scene.

<指標5〜7の算出方法>
また、指標算出部713は、上述したように撮影画像の全領域中の人物の顔に相当すると推定される顔候補領域の占める割合を指標5として算出する。また、指標6を、指標1、指標3、指標5を用いて式(10)のように定義し、指標7を、指標2、指標3、指標5を用いて式(11)のように定義してそれぞれ算出する。
指標6=0.46×指標1+0.61×指標3+0.01×指標5−0.79 ・・・(10)
指標7=0.58×指標2+0.18×指標3+(-0.03)×指標5+3.34 ・・・(11)
ここで、式(10)及び式(11)において各指標に乗算される重み係数は、撮影条件に応じて予め設定されている。
<Calculation method of indicators 5-7>
In addition, as described above, the index calculation unit 713 calculates the ratio of the face candidate area estimated to correspond to the face of the person in the entire area of the captured image as the index 5. In addition, the index 6 is defined as the formula (10) using the index 1, the index 3, and the index 5, and the index 7 is defined as the formula (11) using the index 2, the index 3, and the index 5. To calculate each.
Index 6 = 0.46 × Index 1 + 0.61 × Index 3 + 0.01 × Index 5-0.79 (10)
Index 7 = 0.58 x Index 2 + 0.18 x Index 3 + (-0.03) x Index 5 + 3.34 (11)
Here, the weighting coefficient by which each index is multiplied in Expression (10) and Expression (11) is set in advance according to the shooting conditions.

<画像処理条件の決定>
次に、図15のフローチャートを参照して、画像処理条件算出部714において実行される画像処理条件決定処理(図5のステップS3)について説明する。
<Determination of image processing conditions>
Next, the image processing condition determination process (step S3 in FIG. 5) executed in the image processing condition calculation unit 714 will be described with reference to the flowchart in FIG.

先ず、指標算出部713において算出された指標1〜7の値に基づいて、撮影画像データの撮影シーンが判別される(ステップS30)。ここで、撮影シーンの判別方法について説明する。   First, based on the values of indexes 1 to 7 calculated by the index calculation unit 713, the shooting scene of the captured image data is determined (step S30). Here, a method of discriminating the shooting scene will be described.

図16(a)は、順光、逆光、ストロボの各光源条件で60枚ずつ撮影し、合計180枚のデジタル画像データについて、指標6及び指標7を算出し、各光源条件での指標6及び指標7の値をプロットしたものである。図16(a)によれば、指標5の値が0.5より大きい場合、ストロボ撮影シーンが多く、指標5の値が0.5以下で、指標6の値が−0.5より大きい場合、逆光シーンが多いことがわかる。このように指標6及び指標7の値により撮影シーンを定量的に判別することができる。   In FIG. 16A, 60 images are taken under each light source condition of forward light, backlight, and strobe, and index 6 and index 7 are calculated for a total of 180 digital image data. The value of index 7 is plotted. According to FIG. 16A, when the value of index 5 is greater than 0.5, there are many flash photography scenes, the value of index 5 is 0.5 or less, and the value of index 6 is greater than −0.5. It can be seen that there are many backlight scenes. In this way, the shooting scene can be quantitatively determined based on the values of the index 6 and the index 7.

更に、順光、逆光、ストロボの各撮影シーンを判別できる指標5及び指標6に、指標4を加えることで、3次元的に撮影シーンが判別可能となり、撮影シーンの判別精度を一層向上させることが可能となる。指標4は、特に、画像全体を暗くする色変換調整が行われるストロボ撮影シーンと、画像全体を明るくする色変換調整が行われるアンダー撮影シーンとを判別するのに有効である。   Furthermore, by adding the index 4 to the index 5 and the index 6 that can discriminate each shooting scene of the front light, the backlight, and the strobe, the shooting scene can be discriminated three-dimensionally, and the discrimination accuracy of the shooting scene is further improved. Is possible. The index 4 is particularly effective for discriminating between a strobe shooting scene in which color conversion adjustment for darkening the entire image is performed and an under shooting scene in which color conversion adjustment for brightening the entire image is performed.

図16(b)は、ストロボ撮影シーンとアンダー撮影シーンの撮影画像各60枚のうち、指標6が0.5より大きい画像の指標4及び指標6を算出し、プロットしたものである。図16(b)によれば、指標4の値が0より大きい場合、ストロボ撮影シーンが多く、指標4の値が0以下の場合、アンダー撮影シーンが多いことがわかる。表6に、指標4、指標6及び指標7の値による撮影シーンの判別内容を示す。

Figure 2007312005
FIG. 16B is a graph in which the index 4 and the index 6 of an image in which the index 6 is larger than 0.5 are calculated and plotted among 60 captured images of the strobe shooting scene and the under shooting scene. According to FIG. 16B, it can be seen that when the value of index 4 is greater than 0, there are many flash shooting scenes, and when the value of index 4 is 0 or less, there are many under shooting scenes. Table 6 shows the contents of determination of the shooting scene according to the values of the index 4, the index 6, and the index 7.
Figure 2007312005

ストロボ撮影シーンで撮影された撮影画像は、被写体にストロボ光は照射されるため、被写体の画像領域が背景よりも輝度が高くなる。また、逆光シーンやアンダー撮影シーンでの撮影画像は、その画像内で輝度の低い領域が生じる。このため、ストロボ撮影シーンや逆光シーン、アンダー撮影シーンで撮影された撮影画像は、その画像領域内で輝度の変動が高い画像となる。 In a photographic image taken in a stroboscopic scene, the subject is irradiated with stroboscopic light, so that the brightness of the image area of the subject is higher than that of the background. In addition, in a captured image in a backlight scene or an under-photographed scene, a low-luminance region occurs in the image. For this reason, a photographed image photographed in a flash photography scene, a backlight scene, or an under photography scene is an image having a high luminance variation within the image area.

このように、画像領域内には、撮影シーンに応じて輝度の高低差のある領域が生ずる。本実施形態において、撮影画像データが有する輝度の高低差がある画像領域の分布を「輝度構成」といい、この輝度構成が予め定めた基準の撮影シーン(以下「基準シーン」という)と異なる場合には、3D−LUT等の色変換定義データの補正を行う。   As described above, an area with a difference in brightness is generated in the image area according to the shooting scene. In this embodiment, the distribution of the image area having the difference in brightness of the captured image data is referred to as “luminance configuration”, and this luminance configuration is different from a predetermined reference shooting scene (hereinafter referred to as “reference scene”). The color conversion definition data such as 3D-LUT is corrected.

また、指標5の値が例えば、0.2以下であれば、撮影画像に対する顔候補領域が狭く、風景を主な被写体とした風景撮影シーンであると判別し、0.8以上でれば、顔候補領域が広く、人物を主な被写体とした人物シーンであると判別する。また、指標5が0.2〜0.8の間であれば、主な被写体として人物と風景が混在する人物+風景撮影シーンであると判別することができる。このように、指標5から、撮影画像内に含まれる被写体の画像領域の広さにより撮影シーンを判別することができる。   For example, if the value of the index 5 is 0.2 or less, it is determined that the face candidate area for the photographed image is narrow and the scene is a landscape shooting scene with a landscape as a main subject. It is determined that the face candidate area is wide and the person scene is mainly a person. If the index 5 is between 0.2 and 0.8, it can be determined that the person is a person and a landscape shooting scene in which a person and a landscape are mixed as a main subject. As described above, from the index 5, it is possible to determine the shooting scene based on the size of the image area of the subject included in the shot image.

撮影シーンを判別することにより、撮影画像を構成する被写体の色や分布が判定可能になる。この被写体の画像領域の色や分布を本実施形態において「被写体の構成要件」という。この被写体の構成要件が基準シーンと異なる場合には、色変換定義データの補正を行う。   By discriminating the shooting scene, it is possible to determine the color and distribution of the subject constituting the shot image. In this embodiment, the color and distribution of the image area of the subject are referred to as “subject constituent requirements”. When the constituent requirements of the subject are different from the reference scene, the color conversion definition data is corrected.

ステップS30において撮影シーンが判別されると、その判別された撮影シーンに応じて、上述したように撮影画像データに対する階調変換の方法が決定される(ステップS31)。そして、撮影シーンに応じて基準色変換定義の補正方法を決定する。   When the photographic scene is determined in step S30, the gradation conversion method for the photographic image data is determined as described above according to the determined photographic scene (step S31). Then, a correction method for the reference color conversion definition is determined according to the shooting scene.

具体的には、シーン判別部718により判別された撮影シーンが風景撮影シーンである場合には、彩度圧縮補正を選択する。彩度圧縮補正は、基準色変換定義が有する彩度特性を彩度方向及び明度方向に圧縮する補正である。図17に彩度特性の一例を図示する。図17は、L*C*h表色系における明度(L*)を縦軸に、彩度(C*)を横軸にとったグラフである。   Specifically, when the shooting scene determined by the scene determination unit 718 is a landscape shooting scene, saturation compression correction is selected. The saturation compression correction is a correction for compressing the saturation characteristic of the reference color conversion definition in the saturation direction and the brightness direction. FIG. 17 illustrates an example of saturation characteristics. FIG. 17 is a graph with lightness (L *) in the L * C * h color system on the vertical axis and saturation (C *) on the horizontal axis.

例えば、基準色変換定義が図17に示す彩度特性c1を有している場合、この彩度特性c1を彩度方向に所定レベル低めると共に、彩度特性c1が最高彩度をとる高彩度ポイントc10を明度方向に所定レベル低める。これにより、基準色変換定義の彩度特性c1は、彩度方向及び明度方向に圧縮した彩度特性c2に補正され、彩度圧縮率の異なる補正色変換定義が作成される。また、風景を主な被写体とした撮影画像は、中明度領域が彩度の高い画像に色変換されるようになり、高明度領域で色が飛んでしまうことが防止される。   For example, if the reference color conversion definition has the saturation characteristic c1 shown in FIG. 17, the saturation characteristic c1 is lowered by a predetermined level in the saturation direction, and the high saturation point c10 at which the saturation characteristic c1 takes the maximum saturation. Is lowered by a predetermined level in the brightness direction. Thus, the saturation characteristic c1 of the reference color conversion definition is corrected to the saturation characteristic c2 compressed in the saturation direction and the lightness direction, and corrected color conversion definitions having different saturation compression rates are created. In addition, a photographed image whose main subject is a landscape is color-converted into an image with a high saturation in the middle lightness area, so that the color is prevented from jumping in the high lightness area.

また、シーン判別部718により判別された撮影シーンが人物撮影シーンである場合には、色相圧縮補正を選択する。色相圧縮補正は、基準色変換定義が有する色相特性を圧縮する補正である。図18に色相特性の一例を図示する。図18は、L*a*b*表色系における色度a*及びb*を横軸及び縦軸それぞれにとったグラフである。   If the shooting scene determined by the scene determination unit 718 is a person shooting scene, hue compression correction is selected. Hue compression correction is correction for compressing the hue characteristics of the reference color conversion definition. FIG. 18 illustrates an example of hue characteristics. FIG. 18 is a graph in which chromaticity a * and b * in the L * a * b * color system are plotted on the horizontal axis and the vertical axis, respectively.

例えば、基準色変換定義のオレンジ色(5YR)の色相特性c3と、赤色(5R)の色相特性c4とが図18のようになったとする。この色相特性c3及びc4は、一次直線によって表されるため、人間の肌色を含むオレンジ色〜赤色の一定色相を有する撮影画像データは、そのデータの色相を忠実にそのまま色再現することを示している。   For example, it is assumed that the orange (5YR) hue characteristic c3 and the red (5R) hue characteristic c4 of the reference color conversion definition are as shown in FIG. Since the hue characteristics c3 and c4 are represented by a linear line, it is shown that captured image data having a constant hue of orange to red including human skin color faithfully reproduces the hue of the data as it is. Yes.

図18の破線BLは、a*軸及びb*軸の角二等分線を示しており、色相圧縮補正では、色相特性c3及びc4とを破線BL側に向けて圧縮する。このとき、彩度が低い低彩度領域においては、色相特性c3及びc4を圧縮する度合いを高める。これにより、基準色変換定義の色相特性c3及びc4は、破線BL方向に圧縮した彩度特性c4及びc5に補正され、色相圧縮率の異なる補正色変換定義が作成される。また、人物を主な被写体とした撮影画像は、肌色領域の画像の濃度が高められて色変換されるようになり、顔画像をより鮮明にすることができる。   A broken line BL in FIG. 18 indicates an angle bisector of the a * axis and the b * axis. In the hue compression correction, the hue characteristics c3 and c4 are compressed toward the broken line BL side. At this time, in the low saturation region where the saturation is low, the degree of compression of the hue characteristics c3 and c4 is increased. Thereby, the hue characteristics c3 and c4 of the reference color conversion definition are corrected to the saturation characteristics c4 and c5 compressed in the direction of the broken line BL, and corrected color conversion definitions having different hue compression rates are created. In addition, a photographed image with a person as the main subject is subjected to color conversion by increasing the density of the skin color region image, and the face image can be made clearer.

尚、彩度圧縮補正及び色相圧縮補正における圧縮の度合いは、人間がカラーバランスの変化を許容できる度合いに応じて定めることが望ましく、実験的又は経験的に具体的な値が求められる。   It should be noted that the degree of compression in the saturation compression correction and the hue compression correction is preferably determined according to the degree to which a human can tolerate a change in color balance, and a specific value is obtained experimentally or empirically.

ステップS32において基準色変換定義の補正方法が決定されると、次にその基準色変換定義にシーン別色変換定義の色再現特性をどの程度作用させるかを示す補正割合が算出される(ステップS33)。補正割合は、基準シーンに対するシーン判別部718により判別された撮影シーンの被写体の構成要件の差異及び輝度構成の差異とから算出する。   When the correction method for the reference color conversion definition is determined in step S32, a correction ratio indicating how much the color reproduction characteristics of the scene-specific color conversion definition are applied to the reference color conversion definition is calculated (step S33). ). The correction ratio is calculated from the difference in the constituent requirements of the subject of the photographic scene and the difference in the luminance configuration determined by the scene determination unit 718 with respect to the reference scene.

補正割合は、基準シー及び撮影シーン毎に図19(a)に示すような曲線f1及びf2で予め設定しておく。曲線f2は、シーン判別部718により判別された撮影シーンのオブジェクト構成及び輝度構成が、基準シーンに対して大きく異なる場合は、補正割合を大きくし、基準シーンに近いほど補正割合を小さく遷移させることを示している。一方、曲線f1は、基準シーンのオブジェクト構成及び輝度構成が撮影シーンに対して大きく異なる場合は、補正割合を大きくし、基準シーンに近いほど補正割合を小さく遷移させることを示している。   The correction ratio is set in advance by curves f1 and f2 as shown in FIG. The curve f2 indicates that when the object configuration and the luminance configuration of the shooting scene determined by the scene determination unit 718 are greatly different from the reference scene, the correction ratio is increased, and the correction ratio is decreased as the reference scene is closer. Is shown. On the other hand, the curve f1 indicates that the correction ratio is increased when the object configuration and the luminance configuration of the reference scene are significantly different from the shooting scene, and the correction ratio is decreased as the reference scene is closer.

補正割合算出部720は、基準シーンに対する撮影シーンのオブジェクト構成及び輝度構成の差異の度合いに対応する曲線f1及びf2上の値から補正割合F1及びF2を算出する。この補正割合F1及びF2は、次の式(12)により算出する。

Figure 2007312005
The correction ratio calculation unit 720 calculates the correction ratios F1 and F2 from the values on the curves f1 and f2 corresponding to the degree of difference between the object configuration and the luminance configuration of the shooting scene with respect to the reference scene. The correction ratios F1 and F2 are calculated by the following equation (12).
Figure 2007312005

例えば、基準色変換定義として人物用色変換定義が設定されている場合に、撮影シーンが逆光シーン、ストロボ撮影シーン又はアンダー撮影シーンであって風景撮影シーンであると判別された場合、撮影画像内のオブジェクト構成の差異を数値化する。この値は、基準色変換定義に設定された指標5を基準として、上述したように撮影画像データから算出した指標5との差異から算出する。即ち、人物用色変換定義の指標5が1であり、算出した指標5が0.2であった場合は、その差異は0.8と算出される。   For example, when the person color conversion definition is set as the reference color conversion definition, if it is determined that the shooting scene is a backlight scene, a strobe shooting scene, or an under shooting scene and is a landscape shooting scene, Quantify the difference in object composition. This value is calculated from the difference from the index 5 calculated from the captured image data as described above with the index 5 set in the reference color conversion definition as a reference. That is, when the index 5 of the person color conversion definition is 1 and the calculated index 5 is 0.2, the difference is calculated as 0.8.

そして、図19(a)の基準シーンと撮影シーンとの間を4:1(0.8:0.2)で分割する境界上の曲線f1及びf2の値から補正割合F1及びF2を算出する。このとき、補正割合F1が0.25、補正割合F2が0.75と算出されたとすると、基準色変換定義には風景用色変換定義に加えられている彩度圧縮補正を75%の割合で作用させて、補正色変換定義を作成することとなる。このため、補正色変換定義には、基準色変換定義の彩度特性が25%分残したまま、彩度圧縮補正が75%加えられることとなる。   Then, the correction ratios F1 and F2 are calculated from the values of the curves f1 and f2 on the boundary that divides the reference scene and the shooting scene of FIG. 19A by 4: 1 (0.8: 0.2). . At this time, assuming that the correction ratio F1 is calculated as 0.25 and the correction ratio F2 is 0.75, the reference color conversion definition includes the saturation compression correction added to the landscape color conversion definition at a ratio of 75%. In effect, a correction color conversion definition is created. For this reason, 75% of the saturation compression correction is added to the correction color conversion definition while leaving the saturation characteristics of the reference color conversion definition by 25%.

また、基準色変換定義として標準色変換定義が設定されている場合に、撮影シーンが人物撮影シーンであると判別された場合、撮影画像内のオブジェクト構成の差異の度合いを数値化する。即ち、標準色変換定義の指標5が0.5であり、算出した人物撮影シーンの指標5が0.9であった場合は、その差異は0.8((0.9−0.5)/(1−0.5))と算出される。   Further, when the standard color conversion definition is set as the reference color conversion definition and the shooting scene is determined to be a person shooting scene, the degree of difference in object configuration in the shot image is quantified. That is, when the standard color conversion definition index 5 is 0.5 and the calculated human photographing scene index 5 is 0.9, the difference is 0.8 ((0.9−0.5). /(1-0.5)).

このとき、上述例と同様に補正割合F1が0.25、補正割合F2が0.75と算出されたとすると、基準色変換定義には人物用色変換定義に加えられている色相圧縮補正を75%分作用させて、補正色変換定義を作成することとなる。このため、補正色変換定義には、基準色変換定義の色相特性を25%分残したまま、色相圧縮補正が75%加えられることとなる。   At this time, if the correction ratio F1 is calculated as 0.25 and the correction ratio F2 is calculated as 0.75 as in the above example, the hue compression correction added to the person color conversion definition is set to 75 in the reference color conversion definition. The correction color conversion definition is created by operating for%. For this reason, 75% of hue compression correction is added to the correction color conversion definition while leaving the hue characteristics of the reference color conversion definition by 25%.

図19(b)に色相圧縮補正を75%分加えた際の、補正色変換定義の色相特性c7の一例を示している。図19(b)に示すように、補正色変換定義の色相特性c7は、人物用色変換定義の色相特性c6に近い特性を有している一方で、基準色変換定義の色相特性c7側の特性も有するようになり、2つの色相特性が混合したものになっている。   FIG. 19B shows an example of the hue characteristic c7 of the corrected color conversion definition when the hue compression correction is added by 75%. As shown in FIG. 19B, the hue characteristic c7 of the correction color conversion definition has a characteristic close to the hue characteristic c6 of the person color conversion definition, but on the side of the hue characteristic c7 of the reference color conversion definition. It also has a characteristic, and two hue characteristics are mixed.

また、例えば、撮影シーンが逆光シーン、人物撮影シーン且つアンダー撮影シーンであると判別された場合は、肌色の色相圧縮をすると共に背景の緑色等の領域には彩度圧縮する補正色変換定義が作成される。また、ストロボ撮影シーン、人物撮影シーン且つアンダー撮影シーンであると判別された場合は、肌色の色相圧縮をすると共に、背景の部分の彩度圧縮は抑えた補正色変換定義が作成される。   Also, for example, when it is determined that the shooting scene is a backlight scene, a person shooting scene, and an under shooting scene, there is a correction color conversion definition that compresses the hue of the skin color and compresses the saturation of the area such as green in the background. Created. When it is determined that the scene is a strobe shooting scene, a person shooting scene, or an under shooting scene, a correction color conversion definition is created that compresses the hue of the skin color and suppresses the saturation compression of the background portion.

このように、基準色変換定義と、撮影シーンに応じたシーン別色変換定義との組み合わせから補正色変換定義を作成することで、少なくとも2つ以上の3D−LUTの色再現特性を有する補正色変換定義が作成される。 As described above, the correction color conversion definition is created from the combination of the reference color conversion definition and the scene-specific color conversion definition corresponding to the shooting scene, so that the correction color having at least two or more 3D-LUT color reproduction characteristics is obtained. A conversion definition is created.

尚、補正割合は、基準色変換定義と、それに対するシーン別色変換定義の割合を、一次線形の割合で設定して、新たな補正用LUTを作成してもよく、その割合は滑らかさを損ねないようにして設定することが望ましい。また、補正割合の算出を図19(a)の曲線f1及びf2から行うこととして説明したが、一次線形の直線を予め設定しておき、この直線に基づいて算出することとしてもよい。   Note that the correction ratio may be set by setting the ratio of the reference color conversion definition and the scene-specific color conversion definition to a linear linear ratio, and a new correction LUT may be created. It is desirable to set so as not to damage. Further, although the correction ratio is calculated from the curves f1 and f2 in FIG. 19A, a linear linear line may be set in advance and calculated based on the straight line.

<LUT作成>
次に、色変換定義作成部711の具体的な動作について図20〜図23を参照して説明する。図20は、標準色変換定義作成部721が実行する標準色変換定義作成処理の処理内容を示すフローチャートである。
<LUT creation>
Next, a specific operation of the color conversion definition creation unit 711 will be described with reference to FIGS. FIG. 20 is a flowchart showing the processing contents of the standard color conversion definition creating process executed by the standard color conversion definition creating unit 721.

先ず、標準色変換定義作成部721は、図20のフローチャートの処理を開始するに当たって、図21に示すカラーパッチCPをCRT8や外部プリンタ51に表示及び印刷出力させる。具体的には、図21に示すような9x9x9の均等分割され、32bit刻みのRGBから構成された729点の格子点データを有するパッチ画像データ(sRGB)を作成して、当該パッチ画像データに基づいてカラーパッチCPを出力させる。   First, the standard color conversion definition creating unit 721 displays and prints out the color patch CP shown in FIG. 21 on the CRT 8 or the external printer 51 before starting the processing of the flowchart of FIG. Specifically, as shown in FIG. 21, patch image data (sRGB) having 729 points of grid point data that is divided into 9 × 9 × 9 equal parts and composed of RGB of 32 bits is created, and based on the patch image data To output a color patch CP.

標準色変換定義作成部721は、パッチ画像データに対応する一次独立な3色についての入力信号値(R,G,B,(j=1〜N))を取得する(ステップS40)。そして、カラーパッチP2の測色を行い(ステップS41)、その測色結果をxyz色空間の出力信号値として取得する(ステップS42)。 The standard color conversion definition creation unit 721 acquires input signal values (R j , G j , B j , (j = 1 to N)) for three primary independent colors corresponding to the patch image data (step S40). . Then, color measurement of the color patch P2 is performed (step S41), and the color measurement result is acquired as an output signal value in the xyz color space (step S42).

次いで、パッチ画像データの入力信号値(r,g,b、(i=1〜N))と、測色して得られた出力信号値(R,G,B,(j=1〜N))とを対応付けて3D−LUT24を作成する(ステップS43)。 Next, the input signal values (r i , g i , b i , (i = 1 to N)) of the patch image data and the output signal values (R j , G j , B j , ( j = 1 to N)) is created to create the 3D-LUT 24 (step S43).

続いて、標準色変換定義作成部721は、N×N×N段の3D−LUTを体積補間やスプライン補間等の3次元補間によって補間して、各色相についての分割レベル数をN段からM段(M>N)に増大させる。このM段は、M=(N−1)×L+1によって求められ、例えば、分割レベル数を9段から33段に増大させて3D−LUTを作成する。   Subsequently, the standard color conversion definition creation unit 721 interpolates an N × N × N stage 3D-LUT by three-dimensional interpolation such as volume interpolation or spline interpolation, and the number of division levels for each hue is changed from N to M. Increase to stage (M> N). The M stages are obtained by M = (N−1) × L + 1. For example, the number of division levels is increased from 9 to 33 to create a 3D-LUT.

ここで、3D−LUT24の補完方法としては、公知技術の3次元補間や線型補間、面積補間、体積補間等が適用可能であり、体積補間がより好ましい。体積補間としては、例えば、四面体補間、三角柱(プリズム)補間、六面体(立方体)補間、ピラミッド補間及びスプライン補間等が採用可能であり、色再現性の精度の点から、スプライン補間がより好ましい。   Here, as a complementing method of the 3D-LUT 24, three-dimensional interpolation, linear interpolation, area interpolation, volume interpolation, or the like of a known technique can be applied, and volume interpolation is more preferable. As volume interpolation, for example, tetrahedral interpolation, triangular prism (prism) interpolation, hexahedron (cube) interpolation, pyramid interpolation, spline interpolation, and the like can be adopted, and spline interpolation is more preferable in terms of accuracy of color reproducibility.

この標準色変換定義作成処理により得られた3D−LUTを標準色変換定義として色変換定義記憶部730に記憶する。尚、標準色変換定義の作成方法は、特に限定されるわけではなく公知の方法を用いて作成してよい。   The 3D-LUT obtained by this standard color conversion definition creation processing is stored in the color conversion definition storage unit 730 as a standard color conversion definition. The standard color conversion definition creation method is not particularly limited, and may be created using a known method.

シーン別色変換定義作成部722は、標準色変換定義作成部721により作成された標準色変換定義の色再現特性を撮影シーンに応じて調整して、撮影シーン別の3D−LUTを作成して色変換定義記憶部730に記憶する。   The scene-specific color conversion definition creation unit 722 adjusts the color reproduction characteristics of the standard color conversion definition created by the standard color conversion definition creation unit 721 according to the shooting scene, and creates a 3D-LUT for each shooting scene. Stored in the color conversion definition storage unit 730.

次に、補正色変換定義作成部711の具体的な動作について説明する。補正色変換定義作成部711は、補正方法に応じたシーン別色変換定義と、基準色変換定義との組み合わせから補正色変換定義を作成する。例えば、基準色変換定義が図23に示す入力信号値240と、出力信号値242とを対応付けて記憶しているとする。   Next, a specific operation of the correction color conversion definition creation unit 711 will be described. The correction color conversion definition creating unit 711 creates a correction color conversion definition from a combination of the color conversion definition for each scene corresponding to the correction method and the reference color conversion definition. For example, it is assumed that the reference color conversion definition stores the input signal value 240 and the output signal value 242 shown in FIG.

このとき、図22に示すように上述した色相圧縮補正を行う場合、例えば、肌色〜赤色領域ARにおいて、基準色変換定義の出力信号値をL*a*b*表色系の色度データに換算する(出力信号値244)。そして、色味のない無彩度色に近い色度データの色相を圧縮して、出力信号値246を得る。次いで、その出力信号値246の色度データをxyz値に戻す。   At this time, when the above-described hue compression correction is performed as shown in FIG. 22, for example, the output signal value of the reference color conversion definition is converted into chromaticity data of the L * a * b * color system in the flesh color to red region AR. Conversion is performed (output signal value 244). Then, the hue of chromaticity data close to an achromatic color having no color is compressed to obtain an output signal value 246. Next, the chromaticity data of the output signal value 246 is returned to the xyz value.

そして、その出力信号値246に補正割合F2を乗算した信号値と、基準色変換定義の出力信号値242に補正割合F1を乗算した信号値とを加算することで、補正色変換定義の出力信号値248を生成する。そして、当該出力信号値248と、入力信号値240とを対応付けて補正色変換定義を作成する。   Then, by adding the signal value obtained by multiplying the output signal value 246 by the correction ratio F2 and the signal value obtained by multiplying the output signal value 242 of the reference color conversion definition by the correction ratio F1, an output signal of the correction color conversion definition The value 248 is generated. Then, a correction color conversion definition is created by associating the output signal value 248 with the input signal value 240.

尚、色再現に必要な色域を得るために、人物の肌色や空の青色、木々の緑色といった重要色の入力信号として色域の境界、シーン別色変換定義のグレー出力値の値を正確に算出するために、当該重要色を調整データとして用いて、補正色変換定義を作成してもよい。   In order to obtain the color gamut necessary for color reproduction, the color output of the color gamut boundary and the color conversion definition for each scene are accurately used as input signals for important colors such as human skin color, sky blue, and trees green. Therefore, a correction color conversion definition may be created using the important color as adjustment data.

また、シーン別色変換定義は、基準色変換定義をスプライン補間等の3次元補間で再補間して、各色相についてそれぞれ分割レベル数をNからM(M>N、例えばM=(N−1)×L+1)に増大させた高精度(M×M×M段)の3D−LUTを作成後に、求めるシーン別色変換定義の出力信号値になるように色修正を行って作成することとしてもよい。   Further, the color conversion definition for each scene is obtained by re-interpolating the reference color conversion definition by three-dimensional interpolation such as spline interpolation, and dividing the number of division levels for each hue from N to M (M> N, for example, M = (N−1). ) × L + 1) After creating a highly accurate (M × M × M stage) 3D-LUT, color correction may be performed so that the output signal value of the color conversion definition for each scene is obtained. Good.

以上、本実施形態によれば、撮影画像データから判別した撮影シーンに基づいて補正割合を算出し、シーン別色変換定義の色相特性や彩度特性を当該補正割合で基準色変換定義に対して作用させることで、補正色変換定義を作成する。このため、標準色変換定義やシーン別色変換定義を撮影シーンに応じて補正することができるため、人物の顔や風景等の被写体の色再現性の向上を図ることができる。   As described above, according to the present embodiment, the correction ratio is calculated based on the photographic scene determined from the photographic image data, and the hue characteristic and the saturation characteristic of the color conversion definition for each scene are compared with the reference color conversion definition at the correction ratio. By making it act, a correction color conversion definition is created. For this reason, since the standard color conversion definition and the color conversion definition for each scene can be corrected according to the shooting scene, it is possible to improve the color reproducibility of a subject such as a person's face or landscape.

また、撮影シーンに応じて予め記憶・設定された3D−LUTを補正して新たな補正色変換定義を作成するため、膨大な数の3D−LUTを設定しておく必要がない。また、色再現特性を補正した一つの補正色変換定義を用いて色変換を行うため、撮影画像内の色相の繋がりや、顔画像と背景画像との間に不連続が生じてしまうことを防止できる。従って、効率的且つ高精度な色再現を実現することができる。   In addition, since a new correction color conversion definition is created by correcting a 3D-LUT stored and set in advance according to the shooting scene, it is not necessary to set a huge number of 3D-LUTs. In addition, since color conversion is performed using one corrected color conversion definition that corrects the color reproduction characteristics, it is possible to prevent connection of hues in the captured image and discontinuity between the face image and the background image. it can. Therefore, efficient and highly accurate color reproduction can be realized.

尚、上述した実施形態は、本発明を適用した一例であり、その適用可能な範囲は上述したものに限られない。例えば、入力された撮影画像データに縮小処理を施して作成した縮小画像から指標1〜7を求めることとしてもよい。画像サイズを縮小する方法としては、公知の方法(例えば、バイリニア法、バイキュービック法、ニアレストネ−バー法等)を用いることができる。縮小率としては特に限定はないが、処理速度の観点及びシーン判別工程の精度の観点で、元画像の1/2〜1/10程度が好ましい。このように画像サイズを縮小してシーン判別を行うことにより、元画像データを用いてシーン判別を行う場合より、処理時間を短縮することが可能である。   In addition, embodiment mentioned above is an example to which this invention is applied, The applicable range is not restricted to what was mentioned above. For example, the indices 1 to 7 may be obtained from a reduced image created by performing reduction processing on input captured image data. As a method for reducing the image size, a known method (for example, a bilinear method, a bicubic method, a nearest neighbor method, or the like) can be used. The reduction ratio is not particularly limited, but is preferably about 1/2 to 1/10 of the original image from the viewpoint of processing speed and the accuracy of the scene discrimination process. By performing scene discrimination by reducing the image size in this way, the processing time can be shortened compared to the case where scene discrimination is performed using original image data.

画像処理装置の外観例を示す斜視図。The perspective view which shows the example of an external appearance of an image processing apparatus. 画像処理装置の内部構成例を示すブロック図。The block diagram which shows the internal structural example of an image processing apparatus. 画像処理部の主要部構成の一例を示すブロック図。The block diagram which shows an example of a principal part structure of an image process part. シーン解析部(a)、割合算出部(b)、画像処理条件算出部(c)及び色変換定義作成部(d)それぞれの内部構成の一例を示す図。The figure which shows an example of each internal structure of a scene analysis part (a), a ratio calculation part (b), an image processing condition calculation part (c), and a color conversion definition preparation part (d). 画像調整処理部において実行される処理内容を示すフローチャート。The flowchart which shows the processing content performed in an image adjustment process part. 第1の占有率算出処理の処理内容を示すフローチャート。The flowchart which shows the processing content of a 1st occupation rate calculation process. 明度−色相平面と、領域r1及び領域r2とを示す図。The figure which shows the lightness-hue plane, the area | region r1, and the area | region r2. 明度−色相平面と、領域r3及び領域r4とを示す図。The figure which shows the brightness-hue plane and the area | region r3 and the area | region r4. 第1の係数の一例を表す曲線を示す図。The figure which shows the curve showing an example of a 1st coefficient. 第2の係数の一例を表す曲線を示す図。The figure which shows the curve showing an example of a 2nd coefficient. 第2の占有率算出処理の処理内容を説明するためのフローチャート。The flowchart for demonstrating the processing content of a 2nd occupation rate calculation process. 撮影画像データの画像の外縁からの距離に応じて決定される領域を示す図。The figure which shows the area | region determined according to the distance from the outer edge of the image of picked-up image data. 第3の係数の一例を表す曲線を領域別に示す図。The figure which shows the curve showing an example of a 3rd coefficient according to area | region. 指標4算出処理の処理内容を示すフローチャート。The flowchart which shows the processing content of the parameter | index 4 calculation process. 画像処理条件決定処理の処理内容を示すフローチャート。The flowchart which shows the processing content of image processing condition determination processing. 撮影シーンと指標4〜7の関係を示すプロット図。The plot figure which shows the relationship between an imaging | photography scene and the indexes 4-7. 彩度圧縮方法を説明するための図。The figure for demonstrating the saturation compression method. 色相圧縮方法を説明するための図。The figure for demonstrating the hue compression method. (a)補正割合の算出方法を説明するための図、(b)補正色変換定義の彩度特性の一例を示す図。(A) The figure for demonstrating the calculation method of a correction ratio, (b) The figure which shows an example of the saturation characteristic of a correction color conversion definition. 標準色変換定義作成処理の処理内容を説明するためのフローチャート。10 is a flowchart for explaining the processing content of standard color conversion definition creation processing. カラーパッチの一例を示す図。The figure which shows an example of a color patch. 基準色変換定義の補正工程を説明するための図。The figure for demonstrating the correction process of a reference color conversion definition.

符号の説明Explanation of symbols

1 画像処理装置
5 プリント作成部
8 表示部
51 外部プリンタ
70 画像処理部
701 画像調整処理部
710 シーン解析部
711 色変換定義作成部
712 割合算出部
713 指標算出部
714 画像処理条件算出部
715 表色系変換部
716 ヒストグラム作成部
717 占有率演算部
718 シーン判別部
719 補正方法決定部
720 補正割合算出部
721 標準色変換定義作成部
722 シーン別作成部
723 色変換定義補正部
730 色変換定義記憶部
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 5 Print preparation part 8 Display part 51 External printer 70 Image processing part 701 Image adjustment process part 710 Scene analysis part 711 Color conversion definition preparation part 712 Ratio calculation part 713 Index calculation part 714 Image processing condition calculation part 715 System conversion unit 716 Histogram creation unit 717 Occupancy calculation unit 718 Scene determination unit 719 Correction method determination unit 720 Correction ratio calculation unit 721 Standard color conversion definition creation unit 722 Scene-specific creation unit 723 Color conversion definition correction unit 730 Color conversion definition storage unit

Claims (21)

画像データを色変換定義データに基づいて色変換して出力する画像処理装置において、
前記画像データにシーン判別処理を施して撮影シーンを判別する判別手段と、
前記判別手段により判別された撮影シーンに基づいて補正割合を算出する算出手段と、
前記色変換定義データが有する色再現特性に対する前記撮影シーンに応じた補正を、前記補正割合に基づいた度合いで加える補正手段と、
前記補正手段により補正が加えられた色変換定義データに基づいて前記画像データを色変換する色変換手段と、
を備えることを特徴とする画像処理装置。
In an image processing apparatus that outputs image data by performing color conversion based on color conversion definition data,
Discriminating means for discriminating a shooting scene by performing a scene discrimination process on the image data;
Calculating means for calculating a correction ratio based on the shooting scene determined by the determining means;
Correction means for adding a correction according to the shooting scene for the color reproduction characteristics of the color conversion definition data to a degree based on the correction ratio;
Color conversion means for color-converting the image data based on the color conversion definition data corrected by the correction means;
An image processing apparatus comprising:
色再現特性が相異なる複数の色変換定義データを記憶する記憶手段を更に備え、
前記補正手段は、
予め規定された前記色変換定義データの色再現特性に、前記撮影シーンに応じた色変換定義データの色再現特性を前記補正割合に基づいた度合いで作用させることで前記規定された色変換定義データの色再現特性を補正することを特徴とする請求項1に記載の画像処理装置。
A storage means for storing a plurality of color conversion definition data having different color reproduction characteristics;
The correction means includes
The specified color conversion definition data by causing the color reproduction characteristics of the color conversion definition data corresponding to the shooting scene to act on the color reproduction characteristics of the color conversion definition data specified in advance to a degree based on the correction ratio. The image processing apparatus according to claim 1, wherein the color reproduction characteristics of the image processing apparatus are corrected.
前記補正手段は、
前記判別手段により判別された撮影シーンの被写体の構成要件が所定の基準シーンと異なる場合、色相圧縮率の高い色変換定義データを前記規定された色変換定義データに作用させることで補正することを特徴とする請求項2に記載の画像処理装置。
The correction means includes
When the constituent requirements of the subject of the photographic scene determined by the determining means are different from a predetermined reference scene, correction is performed by applying color conversion definition data having a high hue compression ratio to the specified color conversion definition data. The image processing apparatus according to claim 2.
前記補正手段は、
前記判別手段により判別された撮影シーンの輝度構成が所定の基準シーンと異なる場合、彩度圧縮率の高い色変換定義データを前記規定された色変換定義データに作用させることで補正することを特徴とする請求項2又は3に記載の画像処理装置。
The correction means includes
When the luminance configuration of the photographic scene determined by the determining unit is different from a predetermined reference scene, correction is performed by applying color conversion definition data having a high saturation compression rate to the specified color conversion definition data. The image processing apparatus according to claim 2 or 3.
前記判別手段は、
所定の明度と色相の組み合わせからなる領域に前記画像データを分割し、当該分割した領域が当該画像データ全体に占める割合を占有率として当該領域毎に算出する占有率算出手段と、
前記占有率算出手段により算出された領域毎の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための指標を算出する指標算出手段と、
前記指標算出手段により算出された指標に基づいて、前記画像データの撮影シーンを判別するシーン判別手段と、
を有することを特徴とする請求項1〜4の何れか一項に記載の画像処理装置。
The discrimination means includes
An occupancy ratio calculating unit that divides the image data into an area composed of a combination of predetermined brightness and hue, and calculates, for each area, the ratio of the divided area to the entire image data as an occupancy ratio;
An index calculation means for calculating an index for specifying a shooting scene by multiplying the occupation ratio for each area calculated by the occupation ratio calculation means by a coefficient set in advance according to shooting conditions;
Scene discriminating means for discriminating a shooting scene of the image data based on the index calculated by the index calculating means;
The image processing apparatus according to claim 1, further comprising:
前記指標算出手段は、前記撮影シーンを特定するための指標を複数算出し、
前記シーン判別手段は、
前記算出された複数の指標毎に前記画像データの撮影シーンの判別を行うことを特徴とする請求項5に記載の画像処理装置。
The index calculation means calculates a plurality of indexes for specifying the shooting scene,
The scene discrimination means includes
The image processing apparatus according to claim 5, wherein a shooting scene of the image data is determined for each of the plurality of calculated indexes.
前記指標算出手段は、
前記撮影シーンがストロボ撮影シーンであることを定量的に示す第1の指標を算出する第1指標算出手段と、
前記撮影シーンが逆光シーンであることを定量的に示す第2の指標を算出する第2指標算出手段と、
前記撮影シーンが人物撮影シーンであることを定量的に示す第3の指標を算出する第3指標算出手段と、
を有し、
前記シーン判別手段は、
前記第1の指標、第2の指標及び第3の指標に基づいて、前記画像データの撮影シーンを判別することを特徴とする請求項6又は7に記載の画像処理装置。
The index calculating means includes
First index calculation means for calculating a first index that quantitatively indicates that the shooting scene is a flash shooting scene;
Second index calculating means for calculating a second index quantitatively indicating that the shooting scene is a backlight scene;
Third index calculating means for calculating a third index quantitatively indicating that the shooting scene is a person shooting scene;
Have
The scene discrimination means includes
The image processing apparatus according to claim 6, wherein a shooting scene of the image data is determined based on the first index, the second index, and the third index.
画像データを色変換定義データに基づいて色変換して出力する画像処理方法において、
前記画像データにシーン判別処理を施して撮影シーンを判別する判別工程と、
前記判別工程において判別された撮影シーンに基づいて補正割合を算出する算出工程と、
前記色変換定義データが有する色再現特性に対する前記撮影シーンに応じた補正を、前記補正割合に基づいた度合いで加える補正工程と、
前記補正工程において補正が加えられた色変換定義データに基づいて前記画像データを色変換する色変換工程と、
を含むことを特徴とする画像処理方法。
In an image processing method for color-converting and outputting image data based on color conversion definition data,
A determination step of determining a shooting scene by performing a scene determination process on the image data;
A calculation step of calculating a correction ratio based on the shooting scene determined in the determination step;
A correction step of adding correction according to the shooting scene with respect to the color reproduction characteristics of the color conversion definition data to a degree based on the correction ratio;
A color conversion step of color-converting the image data based on the color conversion definition data corrected in the correction step;
An image processing method comprising:
前記補正工程は、
予め規定された前記色変換定義データの色再現特性に、前記撮影シーンに応じた色変換定義データの色再現特性を前記補正割合に基づいた度合いで作用させることで前記規定された色変換定義データの色再現特性を補正することを特徴とする請求項8に記載の画像処理方法。
The correction step includes
The specified color conversion definition data by causing the color reproduction characteristics of the color conversion definition data corresponding to the shooting scene to act on the color reproduction characteristics of the color conversion definition data specified in advance to a degree based on the correction ratio. The image processing method according to claim 8, wherein the color reproduction characteristics of the image are corrected.
前記補正工程は、
前記判別工程において判別された撮影シーンの被写体の構成要件が所定の基準シーンと異なる場合、色相圧縮率の高い色変換定義データを前記規定された色変換定義データに作用させることで補正することを特徴とする請求項9に記載の画像処理方法。
The correction step includes
When the constituent requirements of the subject of the shooting scene determined in the determination step are different from a predetermined reference scene, correction is performed by applying color conversion definition data having a high hue compression rate to the specified color conversion definition data. The image processing method according to claim 9, wherein:
前記補正工程は、
前記判別工程において判別された撮影シーンの輝度構成が所定の基準シーンと異なる場合、彩度圧縮率の高い色変換定義データを前記規定された色変換定義データに作用させることで補正することを特徴とする請求項9又は10に記載の画像処理方法。
The correction step includes
When the luminance configuration of the photographic scene determined in the determination step is different from a predetermined reference scene, correction is performed by causing color conversion definition data having a high saturation compression rate to act on the specified color conversion definition data. The image processing method according to claim 9 or 10.
前記判別工程は、
所定の明度と色相の組み合わせからなる領域に前記画像データを分割し、当該分割した領域が当該画像データ全体に占める割合を占有率として当該領域毎に算出する占有率算出工程と、
前記占有率算出工程において算出された領域毎の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための指標を算出する指標算出工程と、
前記指標算出工程において算出された指標に基づいて、前記画像データの撮影シーンを判別するシーン判別工程と、
を含むことを特徴とする請求項8〜11の何れか一項に記載の画像処理方法。
The discrimination step includes
An occupancy ratio calculating step of dividing the image data into an area composed of a combination of predetermined brightness and hue, and calculating the ratio of the divided area in the entire image data as an occupancy ratio for each area;
An index calculation step of calculating an index for identifying a shooting scene by multiplying the occupation rate for each area calculated in the occupation rate calculation step by a coefficient set in advance according to the shooting conditions;
A scene determination step of determining a shooting scene of the image data based on the index calculated in the index calculation step;
The image processing method according to claim 8, comprising:
前記指標算出工程は、前記撮影シーンを特定するための指標を複数算出し、
前記シーン判別工程は、
前記算出された複数の指標毎に前記画像データの撮影シーンの判別を行うことを特徴とする請求項12に記載の画像処理方法。
The index calculating step calculates a plurality of indices for specifying the shooting scene,
The scene discrimination step includes
The image processing method according to claim 12, wherein a shooting scene of the image data is determined for each of the plurality of calculated indexes.
前記指標算出工程は、
前記撮影シーンがストロボ撮影シーンであることを定量的に示す第1の指標を算出する第1指標算出工程と、
前記撮影シーンが逆光シーンであることを定量的に示す第2の指標を算出する第2指標算出工程と、
前記撮影シーンが人物撮影シーンであることを定量的に示す第3の指標を算出する第3指標算出工程と、
を有し、
前記シーン判別工程は、
前記第1の指標、第2の指標及び第3の指標に基づいて、前記画像データの撮影シーンを判別することを特徴とする請求項12又は13に記載の画像処理方法。
The index calculation step includes
A first index calculating step for calculating a first index quantitatively indicating that the shooting scene is a flash shooting scene;
A second index calculating step for calculating a second index quantitatively indicating that the shooting scene is a backlight scene;
A third index calculating step of calculating a third index quantitatively indicating that the shooting scene is a person shooting scene;
Have
The scene discrimination step includes
The image processing method according to claim 12 or 13, wherein a shooting scene of the image data is determined based on the first index, the second index, and the third index.
コンピュータを、
画像データにシーン判別処理を施して撮影シーンを判別する判別手段、
前記判別手段により判別された撮影シーンに基づいて補正割合を算出する算出手段、
前記画像データの色変換に用いる色変換定義データが有する色再現特性に対する前記撮影シーンに応じた補正を、前記補正割合に基づいた度合いで加える補正手段、
前記補正手段により補正が加えられた色変換定義データに基づいて前記画像データを色変換する色変換手段、
として機能させるための画像処理プログラム。
Computer
Discriminating means for discriminating a shooting scene by performing scene discrimination processing on image data,
Calculating means for calculating a correction ratio based on the photographic scene determined by the determining means;
Correction means for adding correction according to the shooting scene to the color reproduction characteristics of the color conversion definition data used for color conversion of the image data in a degree based on the correction ratio,
Color conversion means for color-converting the image data based on the color conversion definition data corrected by the correction means;
Image processing program to function as
色再現特性が相異なる複数の色変換定義データを記憶する記憶手段として更に機能させ、
前記補正手段は、
予め規定された前記色変換定義データの色再現特性に、前記撮影シーンに応じた色変換定義データの色再現特性を前記補正割合に基づいた度合いで作用させることで前記規定された色変換定義データの色再現特性を補正することを特徴とする請求項15に記載の画像処理プログラム。
Further function as storage means for storing a plurality of color conversion definition data having different color reproduction characteristics,
The correction means includes
The specified color conversion definition data by causing the color reproduction characteristics of the color conversion definition data corresponding to the shooting scene to act on the color reproduction characteristics of the color conversion definition data specified in advance to a degree based on the correction ratio. The image processing program according to claim 15, wherein the color reproduction characteristic is corrected.
前記補正手段は、
前記判別手段により判別された撮影シーンの被写体の構成要件が所定の基準シーンと異なる場合、色相圧縮率の高い色変換定義データを前記規定された色変換定義データに作用させることで補正することを特徴とする請求項16に記載の画像処理プログラム。
The correction means includes
When the constituent requirements of the subject of the photographic scene determined by the determining means are different from a predetermined reference scene, correction is performed by applying color conversion definition data having a high hue compression ratio to the specified color conversion definition data. The image processing program according to claim 16, wherein
前記補正手段は、
前記判別手段により判別された撮影シーンの輝度構成が所定の基準シーンと異なる場合、彩度圧縮率の高い色変換定義データを前記規定された色変換定義データに作用させることで補正することを特徴とする請求項16又は17に記載の画像処理プログラム。
The correction means includes
When the luminance configuration of the photographic scene determined by the determining unit is different from a predetermined reference scene, correction is performed by applying color conversion definition data having a high saturation compression rate to the specified color conversion definition data. The image processing program according to claim 16 or 17.
前記判別手段は、
所定の明度と色相の組み合わせからなる領域に前記画像データを分割し、当該分割した領域が当該画像データ全体に占める割合を占有率として当該領域毎に算出する占有率算出手段と、
前記占有率算出手段により算出された領域毎の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための指標を算出する指標算出手段と、
前記指標算出手段により算出された指標に基づいて、前記画像データの撮影シーンを判別するシーン判別手段と、
を有することを特徴とする請求項15〜18の何れか一項に記載の画像処理プログラム。
The discrimination means includes
An occupancy ratio calculating unit that divides the image data into an area composed of a combination of predetermined brightness and hue, and calculates, for each area, the ratio of the divided area to the entire image data as an occupancy ratio;
An index calculation means for calculating an index for specifying a shooting scene by multiplying the occupation ratio for each area calculated by the occupation ratio calculation means by a coefficient set in advance according to shooting conditions;
Scene discriminating means for discriminating a shooting scene of the image data based on the index calculated by the index calculating means;
The image processing program according to claim 15, further comprising:
前記指標算出手段は、前記撮影シーンを特定するための指標を複数算出し、
前記シーン判別手段は、
前記算出された複数の指標毎に前記画像データの撮影シーンの判別を行うことを特徴とする請求項19に記載の画像処理プログラム。
The index calculation means calculates a plurality of indexes for specifying the shooting scene,
The scene discrimination means includes
The image processing program according to claim 19, wherein a shooting scene of the image data is determined for each of the plurality of calculated indexes.
前記指標算出手段は、
前記撮影シーンがストロボ撮影シーンであることを定量的に示す第1の指標を算出する第1指標算出手段と、
前記撮影シーンが逆光シーンであることを定量的に示す第2の指標を算出する第2指標算出手段と、
前記撮影シーンが人物撮影シーンであることを定量的に示す第3の指標を算出する第3指標算出手段と、
を有し、
前記シーン判別手段は、
前記第1の指標、第2の指標及び第3の指標に基づいて、前記画像データの撮影シーンを判別することを特徴とする請求項19又は20に記載の画像処理プログラム。
The index calculating means includes
First index calculation means for calculating a first index that quantitatively indicates that the shooting scene is a flash shooting scene;
Second index calculating means for calculating a second index quantitatively indicating that the shooting scene is a backlight scene;
Third index calculating means for calculating a third index quantitatively indicating that the shooting scene is a person shooting scene;
Have
The scene discrimination means includes
The image processing program according to claim 19 or 20, wherein a shooting scene of the image data is determined based on the first index, the second index, and the third index.
JP2006137865A 2006-05-17 2006-05-17 Image processor, image processing method, and image processing program Pending JP2007312005A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006137865A JP2007312005A (en) 2006-05-17 2006-05-17 Image processor, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006137865A JP2007312005A (en) 2006-05-17 2006-05-17 Image processor, image processing method, and image processing program

Publications (1)

Publication Number Publication Date
JP2007312005A true JP2007312005A (en) 2007-11-29

Family

ID=38844466

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006137865A Pending JP2007312005A (en) 2006-05-17 2006-05-17 Image processor, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP2007312005A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113495709A (en) * 2020-03-20 2021-10-12 华为技术有限公司 Color correction method, AP chip, terminal and storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113495709A (en) * 2020-03-20 2021-10-12 华为技术有限公司 Color correction method, AP chip, terminal and storage medium
CN113495709B (en) * 2020-03-20 2024-04-23 华为技术有限公司 Color correction method, AP chip, terminal and storage medium

Similar Documents

Publication Publication Date Title
JP4725057B2 (en) Generation of image quality adjustment information and image quality adjustment using image quality adjustment information
US20010035989A1 (en) Method, apparatus and recording medium for color correction
JP4978378B2 (en) Image processing device
JP2005190435A (en) Image processing method, image processing apparatus and image recording apparatus
US7333136B2 (en) Image processing apparatus for carrying out tone conversion processing and color correction processing using a three-dimensional look-up table
JP2006319714A (en) Method, apparatus, and program for processing image
JP2002344989A (en) Output image adjustment apparatus for image files
JP2005210370A (en) Image processor, photographic device, image processing method, image processing program
WO2006123492A1 (en) Image processing method, image processing device, imaging device and image processing program
JPWO2005112428A1 (en) Image processing method, image processing apparatus, image recording apparatus, and image processing program
US20040036899A1 (en) Image forming method, image processing apparatus, print producing apparatus and memory medium
JP2005192162A (en) Image processing method, image processing apparatus, and image recording apparatus
JP2006318255A (en) Image processing method, image processor and image processing program
WO2006033235A1 (en) Image processing method, image processing device, imaging device, and image processing program
JP2005192158A (en) Image processing method, image processing apparatus, and image recording apparatus
JP2002368982A (en) Picture processor, picture processing method and recording medium
JP2007312125A (en) Image processor, image processing method, and image processing program
JP2007293686A (en) Imaging apparatus, image processing apparatus, image processing method and image processing program
WO2006033236A1 (en) Image processing method, image processing device, imaging device, and image processing program
JP2007221678A (en) Imaging apparatus, image processor, image processing method and image processing program
JP2007312005A (en) Image processor, image processing method, and image processing program
JP2006203571A (en) Imaging apparatus, image processing apparatus, and image recording apparatus
JP2006094000A (en) Image processing method, image processing apparatus, and image processing program
JP3817371B2 (en) Image processing method, apparatus, and recording medium
JP4402041B2 (en) Image processing method and apparatus, and storage medium

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20070827

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20080221