JP2007312005A - Image processor, image processing method, and image processing program - Google Patents
Image processor, image processing method, and image processing program Download PDFInfo
- Publication number
- JP2007312005A JP2007312005A JP2006137865A JP2006137865A JP2007312005A JP 2007312005 A JP2007312005 A JP 2007312005A JP 2006137865 A JP2006137865 A JP 2006137865A JP 2006137865 A JP2006137865 A JP 2006137865A JP 2007312005 A JP2007312005 A JP 2007312005A
- Authority
- JP
- Japan
- Prior art keywords
- scene
- index
- color conversion
- correction
- conversion definition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像データを色変換定義データに基づいて色変換して出力する画像処理装置、画像処理方法及び画像処理プログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and an image processing program that perform color conversion on image data based on color conversion definition data and output the image data.
近年、コンピュータの発達、通信ネットワークの整備、大容量の記憶媒体の出現等に加えて、スキャナやデジタルカメラ等が普及するに伴い、デジタルの画像データを高画質でプリントアウトしたいという要求が高まってきている。 In recent years, in addition to the development of computers, the development of communication networks, the emergence of large-capacity storage media, etc., the demand for printing out digital image data with high image quality has increased with the spread of scanners and digital cameras. ing.
一方で、従来の銀塩フィルムからのプリントや、フィルムスキャンによって得られるプリントでは、画像全体の平均輝度をユーザが希望に合わせて補正した後に、視覚的に好ましい明るさ若しくは濃度になるよう、プリント出力の際に、露光時間の調整や画像処理を行って対応してきた。 On the other hand, with conventional silver halide film prints and prints obtained by film scanning, the average brightness of the entire image is corrected as desired by the user so that the desired brightness or density is achieved visually. At the time of output, adjustment of exposure time and image processing have been performed.
同様に一般デジタルスチルカメラ(以下「DSC」という)等で撮影された画像に何の画像処理も施さずに出力を行っても、好ましい画像を得ることはできないため、DSC内で適切な画像処理を行うことが切望されている。 Similarly, even if an image shot with a general digital still camera (hereinafter referred to as “DSC”) is output without any image processing, a preferable image cannot be obtained. Is eager to do.
視覚的に好ましくない明るさの画像データが発生する原因は、通常の撮影では、順光、逆光、ストロボ等の光源条件が様々に変動し、画像中に輝度の偏りの大きい大面積の領域が生じるためである。このため、平均輝度の補正に加えて、判別分析、重回帰分析により算出される値を用いた追加補正が必要であった。しかし、判別回帰分析方法では、ストロボ撮影シーンと逆光シーンから算出されるパラメータが非常に類似しているため、撮影シーンの判別が困難である。 The reason why image data with visually unfavorable brightness is generated is that in normal shooting, the light source conditions such as forward light, backlight, strobe, etc. fluctuate variously, and there is a large area with large luminance deviation in the image. This is because it occurs. For this reason, in addition to correction of the average luminance, additional correction using values calculated by discriminant analysis and multiple regression analysis is necessary. However, in the discriminant regression analysis method, the parameters calculated from the strobe shooting scene and the backlight scene are very similar, and thus it is difficult to discriminate the shooting scene.
そこで、特許文献1の技術では、輝度の累積画素数(頻度数)を示す輝度ヒストグラムから、高輝度領域と抵輝度領域を削除し、更に、頻度数を制限したものを用いて、輝度の平均値を算出し、この平均値と基準輝度との差分を補正値として求めている。 Therefore, in the technique of Patent Document 1, the luminance average is obtained by deleting the high luminance region and the sub luminance region from the luminance histogram indicating the cumulative number of luminance pixels (frequency number) and further limiting the frequency number. A value is calculated, and a difference between the average value and the reference luminance is obtained as a correction value.
また、特許文献2の技術では、抽出した顔候補領域の平均輝度の画像全体に対する偏りを算出し、偏倚量が大きい場合に、撮影シーン(逆光撮影かストロボ近接撮影か)の判別を行って、顔領域としての判断基準の許容幅を調整している。
Further, in the technique of
また、特許文献3には、画像データのシーン判別を行い明度の補正をとしてフラッシュ撮影画像かを判別し明るさを変えることで所望のプリントを得る技術が開示されている。更に、特許文献4には、画像データの解析を行い、そのヒストグラムからシャドー、ハイライト及び露出を算出しそれに基づいて補正用のルックアップテーブルを作成して画像補正をする技術が開示されている。
Japanese Patent Application Laid-Open No. 2004-228561 discloses a technique for obtaining a desired print by determining a scene of image data, determining brightness and correcting the brightness, and changing the brightness. Furthermore,
また、撮影されたデジタルの画像データをプリントする場合、アナログ出力とは異なり、画像処理を行うことにより、画像中の特徴的な色領域となる人間の肌の色、空の青、草の緑というような記憶色の部分を、視覚的に好ましい明るさや所望の色に再現したいという高画質化の要求がある。 Also, when printing digital image data that has been shot, unlike analog output, by performing image processing, the human skin color, sky blue, grass green, which are characteristic color regions in the image, are processed. There is a demand for higher image quality in order to reproduce such a memory color portion with visually desirable brightness and a desired color.
これに対し、特許文献5には、画像データをプリントする場合に抽出した記憶色の領域について、マスキング処理を行うことで、他の領域と異なった色補正処理を行って、記憶色を視覚的に好ましい色に再現する技術が開示されている。
しかし、フィルムを用いた撮影では、人物撮影用のフィルムや風景撮影用のフィルムを用いて写真撮影することで、撮影シーンに応じた色再現特性で画像出力されたが、デジタルの画像データを画像出力する場合に、撮影シーンに応じた色再現特性で画像出力することは困難であった。 However, in film shooting, images are output with color reproduction characteristics according to the shooting scene by taking a picture using a film for portrait shooting or a film for landscape shooting. When outputting, it has been difficult to output an image with color reproduction characteristics according to the shooting scene.
即ち、特許文献1の技術は、逆光やストロボ撮影シーンでの、輝度の偏りの大きい領域の影響を低減することはできるが、人物を主要被写体とする撮影シーンでは、顔領域の明度が不適切になってしまうと共に、明度変化に伴う彩度や色相の変化が大きく、色歪が発生し実用に耐えなかった。また、特許文献2の技術は、逆光やストロボ近接の撮影により得られた画像データが、典型的な構図に当てはまらない場合に、顔領域の特定を補償する効果が得られなくなるという問題があった。
That is, although the technique of Patent Document 1 can reduce the influence of a region with a large luminance deviation in a backlight or strobe shooting scene, the brightness of the face region is inappropriate in a shooting scene having a person as a main subject. In addition, the change in saturation and hue due to the change in lightness was large, and color distortion occurred and was not practical. In addition, the technique of
また、特許文献3の技術は、画像処理後にカラープリンタ等の色を扱う色処理装置において出力を行うと、人物の肌色の明るいところから陰周りへの色相のつながりが劣化し、所望のプリントを得ることが困難であった。これはカラープリンタ等の画像処理装置において出力を行う際、基準になる色空間を定義して、各画像処理装置をその色空間へ合わせるといった方法がとられているが、画像処理装置固有の特性によってローカルな色空間を持つので、その固有特性に合わせた補正を各装置で行う必要があり、またカラープリンタの出力特性には、強い非線型性があり正確な写像は困難であるためである。
Further, in the technique of
そこで最近は、デジタル化したカラー画像データを正確に再現するためおよび異なるデバイス間の色情報を相互に変換するために、3次元ルックアップテーブル(以下「3D−LUT」という)やカラープロファイルといった色変換定義データを用いた色変換がよく用いられている。この色変換定義データを用いて色変換を行うことにより、撮影シーンに応じた階調調整を行うことが可能になる。しかし、実際の画像は色々なシチュエーションで撮影され様々な露光条件が存在するため、そのシチュエーションの明るさに合わせた色変換を行わなければならず、全ての条件に対応するような色変換定義データを作成して用いることは非現実的であった。 Therefore, recently, in order to accurately reproduce digitized color image data and to mutually convert color information between different devices, a color such as a three-dimensional lookup table (hereinafter referred to as “3D-LUT”) or a color profile is used. Color conversion using conversion definition data is often used. By performing color conversion using this color conversion definition data, it is possible to perform gradation adjustment according to the shooting scene. However, since actual images are taken in various situations and there are various exposure conditions, color conversion must be performed according to the brightness of the situations, and color conversion definition data corresponding to all conditions Creating and using was unrealistic.
そのため、ヒストグラムからシャドー、ハイライト及び露出を算出し、その算出結果に基づいて補正用のルックアップテーブルを作成して画像補正をするという特許文献4の技術によっても、色相のつながりが劣化して実用に耐えられる画質ではなかった。
Therefore, even in the technique of
一方、プリントアウトする場合に記憶色を視覚的に好ましい色に再現する特許文献5の技術においても、抽出した記憶色の画像領域について他の領域と異なった色補正処理を行うために、記憶色の画像領域と他の色の画像領域との間に不連続が生じて擬似輪郭が発生してしまい、実用に耐えなかった。
On the other hand, in the technique of
本発明は、上述した課題に鑑みて為されたものであり、その目的は、撮影シーンに応じた画像出力の色再現性の向上と、色歪みの低減を図ることのできる効率的且つ高精度な色再現を実現することである。 The present invention has been made in view of the above-described problems, and an object of the present invention is to provide efficient and high-precision that can improve color reproducibility of image output according to a shooting scene and reduce color distortion. It is to realize proper color reproduction.
以上の課題を解決するために、請求項1に記載の発明は、
画像データを色変換定義データに基づいて色変換して出力する画像処理装置において、
前記画像データにシーン判別処理を施して撮影シーンを判別する判別手段と、
前記判別手段により判別された撮影シーンに基づいて補正割合を算出する算出手段と、
前記色変換定義データが有する色再現特性に対する前記撮影シーンに応じた補正を、前記補正割合に基づいた度合いで加える補正手段と、
前記補正手段により補正が加えられた色変換定義データに基づいて前記画像データを色変換する色変換手段と、
を備えることを特徴としている。
In order to solve the above problems, the invention described in claim 1
In an image processing apparatus that outputs image data by performing color conversion based on color conversion definition data,
Discriminating means for discriminating a shooting scene by performing a scene discrimination process on the image data;
Calculating means for calculating a correction ratio based on the shooting scene determined by the determining means;
Correction means for adding a correction according to the shooting scene for the color reproduction characteristics of the color conversion definition data to a degree based on the correction ratio;
Color conversion means for color-converting the image data based on the color conversion definition data corrected by the correction means;
It is characterized by having.
請求項2に記載の発明は、請求項1に記載の発明において、
色再現特性が相異なる複数の色変換定義データを記憶する記憶手段を更に備え、
前記補正手段は、
予め規定された前記色変換定義データの色再現特性に、前記撮影シーンに応じた色変換定義データの色再現特性を前記補正割合に基づいた度合いで作用させることで前記規定された色変換定義データの色再現特性を補正することを特徴としている。
The invention according to
A storage means for storing a plurality of color conversion definition data having different color reproduction characteristics;
The correction means includes
The specified color conversion definition data by causing the color reproduction characteristics of the color conversion definition data corresponding to the shooting scene to act on the color reproduction characteristics of the color conversion definition data specified in advance to a degree based on the correction ratio. It is characterized by correcting the color reproduction characteristics.
請求項3に記載の発明は、請求項2に記載の発明において、
前記補正手段は、
前記判別手段により判別された撮影シーンの被写体の構成要件が所定の基準シーンと異なる場合、色相圧縮率の高い色変換定義データを前記規定された色変換定義データに作用させることで補正することを特徴としている。
The invention according to
The correction means includes
When the constituent requirements of the subject of the photographic scene determined by the determining means are different from a predetermined reference scene, correction is performed by applying color conversion definition data having a high hue compression ratio to the specified color conversion definition data. It is a feature.
請求項4に記載の発明は、請求項2又は3に記載の発明において、
前記補正手段は、
前記判別手段により判別された撮影シーンの輝度構成が所定の基準シーンと異なる場合、彩度圧縮率の高い色変換定義データを前記規定された色変換定義データに作用させることで補正することを特徴としている。
The invention according to
The correction means includes
When the luminance configuration of the photographic scene determined by the determining unit is different from a predetermined reference scene, correction is performed by applying color conversion definition data having a high saturation compression rate to the specified color conversion definition data. It is said.
請求項5に記載の発明は、請求項1〜4の何れか一項に記載の発明において、
前記判別手段は、
所定の明度と色相の組み合わせからなる領域に前記画像データを分割し、当該分割した領域が当該画像データ全体に占める割合を占有率として当該領域毎に算出する占有率算出手段と、
前記占有率算出手段により算出された領域毎の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための指標を算出する指標算出手段と、
前記指標算出手段により算出された指標に基づいて、前記画像データの撮影シーンを判別するシーン判別手段と、
を有することを特徴としている。
The invention according to
The discrimination means includes
An occupancy ratio calculating unit that divides the image data into an area composed of a combination of predetermined brightness and hue, and calculates, for each area, the ratio of the divided area to the entire image data as an occupancy ratio;
An index calculation means for calculating an index for specifying a shooting scene by multiplying the occupation ratio for each area calculated by the occupation ratio calculation means by a coefficient set in advance according to shooting conditions;
Scene discriminating means for discriminating a shooting scene of the image data based on the index calculated by the index calculating means;
It is characterized by having.
請求項6に記載の発明は、請求項5に記載の発明において、
前記指標算出手段は、前記撮影シーンを特定するための指標を複数算出し、
前記シーン判別手段は、
前記算出された複数の指標毎に前記画像データの撮影シーンの判別を行うことを特徴としている。
The invention according to
The index calculation means calculates a plurality of indexes for specifying the shooting scene,
The scene discrimination means includes
The imaging scene of the image data is determined for each of the plurality of calculated indexes.
請求項7に記載の発明は、請求項6又は7に記載の発明において、
前記指標算出手段は、
前記撮影シーンがストロボ撮影シーンであることを定量的に示す第1の指標を算出する第1指標算出手段と、
前記撮影シーンが逆光シーンであることを定量的に示す第2の指標を算出する第2指標算出手段と、
前記撮影シーンが人物撮影シーンであることを定量的に示す第3の指標を算出する第3指標算出手段と、
を有し、
前記シーン判別手段は、
前記第1の指標、第2の指標及び第3の指標に基づいて、前記画像データの撮影シーンを判別することを特徴としている。
The invention according to
The index calculating means includes
First index calculation means for calculating a first index that quantitatively indicates that the shooting scene is a flash shooting scene;
Second index calculating means for calculating a second index quantitatively indicating that the shooting scene is a backlight scene;
Third index calculating means for calculating a third index quantitatively indicating that the shooting scene is a person shooting scene;
Have
The scene discrimination means includes
A shooting scene of the image data is determined based on the first index, the second index, and the third index.
請求項8に記載の発明は、
画像データを色変換定義データに基づいて色変換して出力する画像処理方法において、
前記画像データにシーン判別処理を施して撮影シーンを判別する判別工程と、
前記判別工程において判別された撮影シーンに基づいて補正割合を算出する算出工程と、
前記色変換定義データが有する色再現特性に対する前記撮影シーンに応じた補正を、前記補正割合に基づいた度合いで加える補正工程と、
前記補正工程において補正が加えられた色変換定義データに基づいて前記画像データを色変換する色変換工程と、
を含むことを特徴としている。
The invention according to
In an image processing method for color-converting and outputting image data based on color conversion definition data,
A determination step of determining a shooting scene by performing a scene determination process on the image data;
A calculation step of calculating a correction ratio based on the shooting scene determined in the determination step;
A correction step of adding correction according to the shooting scene with respect to the color reproduction characteristics of the color conversion definition data to a degree based on the correction ratio;
A color conversion step of color-converting the image data based on the color conversion definition data corrected in the correction step;
It is characterized by including.
請求項9に記載の発明は、請求項8に記載の発明において、
前記補正工程は、
予め規定された前記色変換定義データの色再現特性に、前記撮影シーンに応じた色変換定義データの色再現特性を前記補正割合に基づいた度合いで作用させることで前記規定された色変換定義データの色再現特性を補正することを特徴としている。
The invention according to
The correction step includes
The specified color conversion definition data by causing the color reproduction characteristics of the color conversion definition data corresponding to the shooting scene to act on the color reproduction characteristics of the color conversion definition data specified in advance to a degree based on the correction ratio. It is characterized by correcting the color reproduction characteristics.
請求項10に記載の発明は、請求項9に記載の発明において、
前記補正工程は、
前記判別工程において判別された撮影シーンの被写体の構成要件が所定の基準シーンと異なる場合、色相圧縮率の高い色変換定義データを前記規定された色変換定義データに作用させることで補正することを特徴としている。
The invention according to
The correction step includes
When the constituent requirements of the subject of the shooting scene determined in the determination step are different from a predetermined reference scene, correction is performed by applying color conversion definition data having a high hue compression rate to the specified color conversion definition data. It is a feature.
請求項11に記載の発明は、請求項9又は10に記載の発明において、
前記補正工程は、
前記判別工程において判別された撮影シーンの輝度構成が所定の基準シーンと異なる場合、彩度圧縮率の高い色変換定義データを前記規定された色変換定義データに作用させることで補正することを特徴としている。
The invention according to
The correction step includes
When the luminance configuration of the photographic scene determined in the determination step is different from a predetermined reference scene, correction is performed by causing color conversion definition data having a high saturation compression rate to act on the specified color conversion definition data. It is said.
請求項12に記載の発明は、請求項8〜11の何れか一項に記載の発明において、
前記判別工程は、
所定の明度と色相の組み合わせからなる領域に前記画像データを分割し、当該分割した領域が当該画像データ全体に占める割合を占有率として当該領域毎に算出する占有率算出工程と、
前記占有率算出工程において算出された領域毎の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための指標を算出する指標算出工程と、
前記指標算出工程において算出された指標に基づいて、前記画像データの撮影シーンを判別するシーン判別工程と、
を含むことを特徴としている。
The invention according to
The discrimination step includes
An occupancy ratio calculating step of dividing the image data into an area composed of a combination of predetermined brightness and hue, and calculating the ratio of the divided area in the entire image data as an occupancy ratio for each area;
An index calculation step of calculating an index for identifying a shooting scene by multiplying the occupation rate for each area calculated in the occupation rate calculation step by a coefficient set in advance according to the shooting conditions;
A scene determination step of determining a shooting scene of the image data based on the index calculated in the index calculation step;
It is characterized by including.
請求項13に記載の発明は、請求項12に記載の発明において、
前記指標算出工程は、前記撮影シーンを特定するための指標を複数算出し、
前記シーン判別工程は、
前記算出された複数の指標毎に前記画像データの撮影シーンの判別を行うことを特徴としている。
The invention according to claim 13 is the invention according to
The index calculating step calculates a plurality of indices for specifying the shooting scene,
The scene discrimination step includes
The imaging scene of the image data is determined for each of the plurality of calculated indexes.
請求項14に記載の発明は、請求項12又は13に記載の発明において、
前記指標算出工程は、
前記撮影シーンがストロボ撮影シーンであることを定量的に示す第1の指標を算出する第1指標算出工程と、
前記撮影シーンが逆光シーンであることを定量的に示す第2の指標を算出する第2指標算出工程と、
前記撮影シーンが人物撮影シーンであることを定量的に示す第3の指標を算出する第3指標算出工程と、
を有し、
前記シーン判別工程は、
前記第1の指標、第2の指標及び第3の指標に基づいて、前記画像データの撮影シーンを判別することを特徴としている。
The invention according to
The index calculation step includes
A first index calculating step for calculating a first index quantitatively indicating that the shooting scene is a flash shooting scene;
A second index calculating step for calculating a second index quantitatively indicating that the shooting scene is a backlight scene;
A third index calculating step of calculating a third index quantitatively indicating that the shooting scene is a person shooting scene;
Have
The scene discrimination step includes
A shooting scene of the image data is determined based on the first index, the second index, and the third index.
請求項15に記載の発明は、コンピュータを、
画像データにシーン判別処理を施して撮影シーンを判別する判別手段、
前記判別手段により判別された撮影シーンに基づいて補正割合を算出する算出手段、
前記画像データの色変換に用いる色変換定義データが有する色再現特性に対する前記撮影シーンに応じた補正を、前記補正割合に基づいた度合いで加える補正手段、
前記補正手段により補正が加えられた色変換定義データに基づいて前記画像データを色変換する色変換手段、
として機能させることを特徴としている。
The invention according to
Discriminating means for discriminating a shooting scene by performing scene discrimination processing on image data,
Calculating means for calculating a correction ratio based on the photographic scene determined by the determining means;
Correction means for adding correction according to the shooting scene to the color reproduction characteristics of the color conversion definition data used for color conversion of the image data in a degree based on the correction ratio,
Color conversion means for color-converting the image data based on the color conversion definition data corrected by the correction means;
It is characterized by making it function as.
請求項16に記載の発明は、請求項15に記載の発明において、
色再現特性が相異なる複数の色変換定義データを記憶する記憶手段として更に機能させ、
前記補正手段は、
予め規定された前記色変換定義データの色再現特性に、前記撮影シーンに応じた色変換定義データの色再現特性を前記補正割合に基づいた度合いで作用させることで前記規定された色変換定義データの色再現特性を補正することを特徴としている。
The invention according to claim 16 is the invention according to
Further function as storage means for storing a plurality of color conversion definition data having different color reproduction characteristics,
The correction means includes
The specified color conversion definition data by causing the color reproduction characteristics of the color conversion definition data corresponding to the shooting scene to act on the color reproduction characteristics of the color conversion definition data specified in advance to a degree based on the correction ratio. It is characterized by correcting the color reproduction characteristics.
請求項17に記載の発明は、請求項16に記載の発明において、
前記補正手段は、
前記判別手段により判別された撮影シーンの被写体の構成要件が所定の基準シーンと異なる場合、色相圧縮率の高い色変換定義データを前記規定された色変換定義データに作用させることで補正することを特徴としている。
The invention according to claim 17 is the invention according to claim 16,
The correction means includes
When the constituent requirements of the subject of the photographic scene determined by the determining means are different from a predetermined reference scene, correction is performed by applying color conversion definition data having a high hue compression ratio to the specified color conversion definition data. It is a feature.
請求項18に記載の発明は、請求項16又は17に記載の発明において、
前記補正手段は、
前記判別手段により判別された撮影シーンの輝度構成が所定の基準シーンと異なる場合、彩度圧縮率の高い色変換定義データを前記規定された色変換定義データに作用させることで補正することを特徴としている。
The invention according to claim 18 is the invention according to claim 16 or 17,
The correction means includes
When the luminance configuration of the photographic scene determined by the determining unit is different from a predetermined reference scene, correction is performed by applying color conversion definition data having a high saturation compression rate to the specified color conversion definition data. It is said.
請求項19に記載の発明は、請求項15〜18の何れか一項に記載の発明において、
前記判別手段は、
所定の明度と色相の組み合わせからなる領域に前記画像データを分割し、当該分割した領域が当該画像データ全体に占める割合を占有率として当該領域毎に算出する占有率算出手段と、
前記占有率算出手段により算出された領域毎の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための指標を算出する指標算出手段と、
前記指標算出手段により算出された指標に基づいて、前記画像データの撮影シーンを判別するシーン判別手段と、
を有することを特徴としている。
The invention according to claim 19 is the invention according to any one of
The discrimination means includes
An occupancy ratio calculating unit that divides the image data into an area composed of a combination of predetermined brightness and hue, and calculates, for each area, the ratio of the divided area to the entire image data as an occupancy ratio;
An index calculation means for calculating an index for specifying a shooting scene by multiplying the occupation ratio for each area calculated by the occupation ratio calculation means by a coefficient set in advance according to shooting conditions;
Scene discriminating means for discriminating a shooting scene of the image data based on the index calculated by the index calculating means;
It is characterized by having.
請求項20に記載の発明は、請求項19に記載の発明において、
前記指標算出手段は、前記撮影シーンを特定するための指標を複数算出し、
前記シーン判別手段は、
前記算出された複数の指標毎に前記画像データの撮影シーンの判別を行うことを特徴としている。
The invention according to
The index calculation means calculates a plurality of indexes for specifying the shooting scene,
The scene discrimination means includes
The imaging scene of the image data is determined for each of the plurality of calculated indexes.
請求項21に記載の発明は、請求項19又は20に記載の発明において、
前記指標算出手段は、
前記撮影シーンがストロボ撮影シーンであることを定量的に示す第1の指標を算出する第1指標算出手段と、
前記撮影シーンが逆光シーンであることを定量的に示す第2の指標を算出する第2指標算出手段と、
前記撮影シーンが人物撮影シーンであることを定量的に示す第3の指標を算出する第3指標算出手段と、
を有し、
前記シーン判別手段は、
前記第1の指標、第2の指標及び第3の指標に基づいて、前記画像データの撮影シーンを判別することを特徴としている。
The invention according to claim 21 is the invention according to claim 19 or 20,
The index calculating means includes
First index calculation means for calculating a first index that quantitatively indicates that the shooting scene is a flash shooting scene;
Second index calculating means for calculating a second index quantitatively indicating that the shooting scene is a backlight scene;
Third index calculating means for calculating a third index quantitatively indicating that the shooting scene is a person shooting scene;
Have
The scene discrimination means includes
A shooting scene of the image data is determined based on the first index, the second index, and the third index.
本発明によれば、撮影シーンに基づいて算出した補正割合の度合いで、色変換定義データが有する色変換特性に当該撮影シーンに応じた補正を加えるため、色変換定義データの色再現特性を撮影シーンに応じて変動的に調整することができる。このため、撮影シーンに応じた画像出力の色再現性の向上を図ることができる。 According to the present invention, the color reproduction characteristics of the color conversion definition data are photographed in order to add correction according to the photographing scene to the color conversion characteristics of the color conversion definition data with the degree of the correction ratio calculated based on the photographing scene. It can be variably adjusted according to the scene. For this reason, it is possible to improve the color reproducibility of the image output according to the shooting scene.
また、被写体の構成要件が基準シーンと異なる場合は、予め規定された色変換定義データに、色相圧縮率の高い色変換定義データを作用させるため、例えば、主要な被写体が人物の撮影シーンである場合には、肌色領域の色相を圧縮した色変換を行う。また、輝度構成が基準シーンと異なる場合は、彩度圧縮率の高い色変換定義データを作用させるため、例えば、輝度の高い風景が主要な被写体の撮影シーンである場合には、記憶色の青色や緑色の領域の彩度を圧縮した色変換を行う。このため、被写体のカラーバランスの変化を抑制することができる。 In addition, when the constituent requirements of the subject are different from the reference scene, color conversion definition data having a high hue compression rate is applied to the color conversion definition data defined in advance. For example, the main subject is a shooting scene of a person. In this case, color conversion is performed by compressing the hue of the skin color area. In addition, when the luminance configuration is different from the reference scene, color conversion definition data with a high saturation compression rate is applied. For example, when a scene with high luminance is a shooting scene of a main subject, the memory color blue Or color conversion that compresses the saturation of the green area. For this reason, a change in the color balance of the subject can be suppressed.
また、撮影シーンに応じて色再現特性を補正して色変換定義データを作成するため、撮影シーン毎の色変換定義データを予め設ける必要がなくなる。従って、効率的且つ高精度の色再現を実現することができる。 In addition, since color conversion definition data is created by correcting the color reproduction characteristics according to the shooting scene, it is not necessary to provide color conversion definition data for each shooting scene in advance. Therefore, efficient and highly accurate color reproduction can be realized.
以下、本発明の画像処理装置の実施形態について図1〜図22を参照して詳細に説明する。先ず、本実施形態における画像処理装置の構成について説明する。 Hereinafter, an embodiment of an image processing apparatus according to the present invention will be described in detail with reference to FIGS. First, the configuration of the image processing apparatus in the present embodiment will be described.
図1は、画像処理装置1の外観の一例を示す斜視図である。画像処理装置1は、図1に示すように、筐体2の一側面に、感光材料を装填するためのマガジン装填部3が備えられている。筐体2の内側には、感光材料に露光する露光処理部4と、露光された感光材料を現像処理して乾燥し、プリントを作成するためのプリント作成部5とが備えられている。筐体2の他側面には、プリント作成部5で作成されたプリントを排出するためのトレー6が備えられている。
FIG. 1 is a perspective view showing an example of the appearance of the image processing apparatus 1. As shown in FIG. 1, the image processing apparatus 1 is provided with a
また、筐体2の上部には、表示部としてのCRT(Cathode Ray Tube)8、透過原稿を読み込む装置であるフィルムスキャナ部9、反射原稿入力部10、操作部11が設けられている。CRT8は、プリントを作成しようとする画像データを表示画像上に再生表示する。更に、筐体2には、各種デジタル記録媒体に記録された画像データの読み取り可能な画像読込部14と、各種デジタル記録媒体に画像データの書き込み(出力)が可能な画像書込部15とが設けられている。
In addition, a CRT (Cathode Ray Tube) 8 as a display unit, a
画像読込部14には、PCカード用アダプタ14a、フロッピー(登録商標)ディスク用アダプタ14bが備えられ、PCカード13aやフロッピーディスク13bが差し込み可能になっている。PCカード13a及びフロッピーディスク13bは、デジタルカメラで撮像された複数の駒画像データが記録される。
The
画像書込部15には、フロッピーディスク用アダプタ15a、MO用アダプタ15b、光ディスク用アダプタ15cが備えられ、フロッピーディスク16a、MO16b、CD−R、DVD−R等の光ディスク16cがそれぞれ装填可能に構成されている。尚、図1では、感光材料に露光して現像してプリントを作成する画像処理装置1を一例として上げているが、そのプリント作成方式はこれに限定されず、例えば、インクジェット方式、電子写真方式、感熱方式、昇華方式等の方式を用いてもよい。
The
<画像処理装置1の主要部構成>
図2に、画像処理装置1の主要部構成を示す。画像処理装置1は、図2に示すように、制御部7、露光処理部4、プリント作成部5、フィルムスキャナ部9、反射原稿入力部10、画像読込部14、通信部(入力)32、画像書込部15、データ蓄積部71、操作部11、表示部8及び通信部(出力)33を備えて構成される。
<Configuration of Main Parts of Image Processing Apparatus 1>
FIG. 2 shows a main part configuration of the image processing apparatus 1. As shown in FIG. 2, the image processing apparatus 1 includes a
制御部7は、マイクロコンピュータにより構成され、ROM(Read Only Memory)等の記憶部に記憶されている各種制御プログラムと、CPU(Central Processing Unit)との協働により、画像処理装置1を構成する各部の動作を制御する。
The
制御部7は、操作部11からの入力信号に基づいて、フィルムスキャナ部9や反射原稿入力部10から読み取られた画像データ、画像読込部14から読み込まれた画像データ、外部機器から通信部32を介して入力された画像データに対して、画像処理を施して露光用画像データを生成し、露光処理部4に出力する。また、画像処理部70は、画像処理された画像データに対して出力形態に応じた変換処理を施して出力する。
Based on the input signal from the
露光処理部4は、感光材料に画像の露光を行い、この感光材料をプリント作成部5に出力する。プリント作成部5は、露光された感光材料を現像処理して乾燥して、サービスサイズ、ハイビジョンサイズ、パノラマサイズ等のプリントP1や、A4サイズのプリントP2、名刺サイズのプリントP3を作成する。
The
フィルムスキャナ部9は、アナログカメラにより撮像された現像済みのネガフィルムN、リバーサルフィルム等の透過原稿に記録された駒画像を読み取り、駒画像のデジタル画像データに変換する。反射原稿入力部10は、フラットベットスキャナによってプリントP上の画像を読み取り、デジタル画像データに変換する。
The
画像読込部14は、PCカード13aやフロッピーディスク13bに記録された駒画像情報を読み出して制御部7に転送する。この画像読込部14は、画像転送部30として、PCカード用アダプタ14a、フロッピーディスク用アダプタ14b等を有する。画像読込部14は、PCカード13aやフロッピーディスク13bに記録された駒画像データを読み取り、制御部7に転送する。
The
画像書込部15は、画像搬送部31として、フロッピーディスク用アダプタ15a、MO用アダプタ15b、光ディスク用アダプタ15cを備えて構成され、制御部7からの指示に従って、フロッピーディスク16aやMO16b、光ディスク16cに画像データを書き込む。
The
データ蓄積部71は、画像データとそれに対応する注文情報(どの駒の画像から何枚プリントを作成するかを示す情報、プリントサイズの情報等)とを記憶し、順次蓄積する。
The
操作部11は、例えば、キーボードやマウス、タッチパネル等を備えて構成され、押下されたキーや指定された表示部8上の座標位置に対応する信号を入力信号として制御部7に出力する。表示部8は、制御部7から入力された表示制御信号に従って、画像情報等を表示する。
The
通信部(入力)32は、外部機器から撮像画像を表す画像データやプリント命令信号等を受信し、通信部(出力)33は、画像処理を施した後の撮影画像を表す画像データと、それに付帯する注文情報を、外部機器に送信する。 A communication unit (input) 32 receives image data representing a captured image, a print command signal, and the like from an external device, and a communication unit (output) 33 receives image data representing a captured image after image processing, Attached order information is transmitted to the external device.
<画像処理部70の内部構成>
図3に、画像処理部70の内部構成を示す。画像処理部70は、図3に示すように、画像調整処理部701、フィルムスキャンデータ処理部702、反射原稿スキャンデータ処理部703、画像データ書式解読処理部704、CRT固有処理部706、プリンタ固有処理部A707、プリンタ固有処理部B708及び画像データ書式作成処理部709を備えて構成される。
<Internal Configuration of
FIG. 3 shows an internal configuration of the
フィルムスキャンデータ処理部702及び反射原稿スキャンデータ処理部703は、フィルムスキャナ部9及び反射原稿入力部10からそれぞれ入力された画像データに対し、フィルムスキャナ部9固有の校正操作、ネガポジ反転(ネガ原稿の場合)、ゴミキズ除去、コントラスト調整、粒状ノイズ除去、鮮鋭化強調等の処理を施し、処理済の画像データを画像調整処理部701に出力する。また、フィルムサイズ、ネガポジ種別、フィルムに光学的或いは磁気的に記録された主要被写体に関わる情報、撮影条件に関する情報(例えば、APSの記載情報内容)等も併せて画像調整処理部701に出力する。
A film scan
画像データ書式解読処理部704は、画像転送部30や通信部(入力)32から入力された画像データに対し、その画像データのデータ書式に従って、必要に応じた圧縮符号の復元、色データの表現方法の変換等の処理を施して、画像処理部70内の演算に適したデータ形式に変換し、画像調整処理部701に出力する。
The image data format
画像調整処理部701は、入力された画像データに対し、後述の画像処理を施して、出力デバイス上での鑑賞に最適化された画像形成用のデジタル画像データを生成して、CRT固有処理部706、プリンタ固有処理部A707、プリンタ固有処理部B708、画像データ書式作成処理部709、データ蓄積部71に出力する。
The image
最適化処理においては、例えば、sRGB規格に準拠したCRTディスプレイモニタへの表示を前提とした場合、sRGB規格の色域内で最適な色再現が得られるように処理される。また、銀塩印画紙への出力を前提とした場合、銀塩印画紙の色域内で最適な色再現が得られるように処理される。また、色域の圧縮の以外にも、16bitから8bitへの階調圧縮、出力画素数の低減及び出力デバイスの色再現特性への対応処理等も含まれる。更に、ノイズ抑制、鮮鋭化、グレーバランス調整、彩度調整、或いは覆い焼き処理等の階調圧縮処理が行われることは言うまでもない。 In the optimization process, for example, when display on a CRT display monitor compliant with the sRGB standard is assumed, the optimal color reproduction is performed within the color gamut of the sRGB standard. Also, assuming output to silver salt photographic paper, processing is performed so that optimum color reproduction is obtained within the color gamut of the silver salt photographic paper. In addition to color gamut compression, gradation compression from 16 bits to 8 bits, reduction of the number of output pixels, and processing to cope with the color reproduction characteristics of the output device are also included. Furthermore, it goes without saying that tone compression processing such as noise suppression, sharpening, gray balance adjustment, saturation adjustment, or dodging processing is performed.
CRT固有処理部706は、画像調整処理部701から入力された画像データに対して、必要に応じて画素数変更やカラーマッチング等の処理を施し、制御情報等表示が必要な情報と合成した表示用の画像データをCRT8に出力する。
The CRT
プリンタ固有処理部A707は、必要に応じてプリンタ固有の校正処理、カラーマッチング、画素数変更等の処理を行い、処理済の画像データを露光処理部4に出力する。また、画像処理装置1に、大判インクジェットプリンタ等の外部プリンタ51が接続可能な場合には、その接続するプリンタ装置毎にプリンタ固有処理部B708が備えられている。このプリンタ固有処理部B708は、プリンタ固有の校正処理、カラーマッチング、画素数変更等の処理を施し、処理済の画像データを外部プリンタ51に出力する。
The printer-specific processing unit A707 performs printer-specific calibration processing, color matching, pixel number change processing, and the like as necessary, and outputs processed image data to the
画像データ書式作成処理部709は、画像調整処理部701から入力された画像データに対して、必要に応じてJPEG、TIFF、Exif等に代表される各種の汎用画像フォーマットへの変換を施し、処理済の画像データを画像搬送部31や通信部(出力)33に出力する。
An image data format
尚、図3に示したフィルムスキャンデータ処理部702、反射原稿スキャンデータ処理部703、画像データ書式解読処理部704、画像調整処理部701、CRT固有処理部706、プリンタ固有処理部A707、プリンタ固有処理部B708、画像データ書式作成処理部709、という区分は、画像処理部70の機能の理解を助けるために設けた区分であり、必ずしも物理的に独立したデバイスとして実現される必要はなく、例えば、単一のCPUによるソフトウエア処理の種類の区分として実現されてもよい。
It should be noted that the film scan
画像調整処理部701は、図3に示すように、シーン解析部710と、色変換定義作成部711と、色変換定義記憶部730とを備えて構成される。色変換定義記憶部730は、HDDや半導体メモリ等の読み書き可能なメモリ領域を備えて構成され、後述する標準色変換定義作成部721やシーン別色変換定義作成部722により作成された3D−LUTや、予め設定された3D−LUTを記憶する。尚、本実施形態において、色変換定義作成部711は、3D−LUTを作成・補正することとして説明するが、カラープロファイルを色変換定義データとして作成することとしてもよい。
As illustrated in FIG. 3, the image
図4(a)に、シーン解析部710の内部構成を示す。シーン解析部710は、図4(a)に示すように、割合算出部712、指標算出部713及び画像処理条件算出部714を備えて構成される。割合算出部712は、図4(b)に示すように、表色系変換部715、ヒストグラム作成部716及び占有率演算部717を備えて構成される。
FIG. 4A shows the internal configuration of the
表色系変換部715は、撮影画像データのRGB値をHSV表色系に変換する。HSV表色系とは、画像データを、色相、彩度及び明度の3つの要素で表すものである。尚、本実施形態において、「明度」は特に注釈を設けない限り一般に用いられる「明るさ」を表す。また、以下の説明では、HSV表色系のV(0〜255)を「明度」として用いるが、他の如何なる表色系の明るさを表す単位系を用いてもよい。
The color
ヒストグラム作成部716は、撮影画像データを、所定の色相と明度の組み合わせからなる領域に分割し、分割された領域毎に累積画素数を算出することによって2次元ヒストグラムを作成する。また、ヒストグラム作成部716は、撮影画像データを、当該撮影画像データの画像の外縁からの距離と明度との組み合わせからなる所定の領域に分割し、分割された領域毎に累積画素数を算出することによって2次元ヒストグラムを作成する。尚、撮影画像データを、画像の外縁からの距離、明度及び色相の組み合わせからなる領域に分割し、その領域毎に累積画素数を算出することで、3次元ヒストグラムを作成するようにしてもよい。
The
占有率演算部717は、明度と色相の組み合わせによって分割された領域毎に算出された累積画素数の全画素数(撮影画像データ全体)に占める割合を示す第1の占有率(表1参照)を算出する。また、占有率演算部717は、撮影画像データの画像の外縁からの距離と明度の組み合わせによって分割された領域毎に算出された累積画素数の全画素数に占める割合を示す第2の占有率(表4参照)を算出する。
The occupancy
指標算出部713は、領域毎に算出された第1の占有率に、撮影条件に応じて予め(例えば、判別分析によって)設定された第1の係数(表2参照)を乗算して和をとることにより、撮影シーンを特定するための指標1を算出する。ここで、撮影シーンとは、順光、逆光、ストロボ等の、被写体を撮影する時の光源条件及びアンダー撮影等の露出条件を示す。
The
第1の指標としての指標1は、撮影シーンとして「ストロボ撮影シーン」と判別されるべき画像を他の撮影シーンから分離するためのものである。ストロボを用いた撮影は、光源の不足する屋内での撮影や近接撮影といった場合に行われることが多い。また、ストロボを用いた撮影が行われると、撮影画像中の人物の顔等の主要な被写体が背景よりも明るくなるという輝度構成を有することが多い。このため、指標1は、ストロボ撮影シーンでの撮影固有の特徴を複合的に示す指針となる。 The index 1 as the first index is for separating an image that should be determined as a “flash shooting scene” as a shooting scene from other shooting scenes. Shooting using a strobe is often performed when shooting indoors or in close proximity, where the light source is insufficient. Further, when photographing using a strobe is performed, a luminance structure is often obtained in which a main subject such as a person's face in a photographed image becomes brighter than the background. For this reason, the index 1 serves as a guideline indicating composite characteristics unique to shooting in a flash shooting scene.
指標1の算出の際、指標算出部713は、所定の高明度の肌色色相領域と、当該高明度の肌色色相領域以外の色相領域とで、異なる符号の係数を用いる。ここで、所定の高明度の肌色色相領域には、HSV表色系の明度値で170〜224の領域が含まれる。また、所定の高明度の肌色色相領域以外の色相領域には、青色色相領域(色相値161〜250)、緑色色相領域(色相値40〜160)の少なくとも一方の高明度領域が含まれる。
When calculating the index 1, the
また、指標算出部713は、領域毎に算出された第1の占有率に、撮影条件に応じて予め設定された第2の係数(表3参照)を乗算して和をとることにより、撮影シーンを特定するための指標2を算出する。
In addition, the
第2の指標としての指標2は、撮影シーンとして「逆光シーン」と判別されるべき画像を他の撮影シーンから分離するためのものである。また、逆光時の撮影は、屋外での撮影が多い。また、逆光時の撮影により得られた画像は、空等の背景の色が明るく撮影されたり、人物の顔等の主要な被写体が背景より暗く撮影されるといった輝度構成を有することが多い。このため、指標2は、逆光シーンでの撮影固有の特徴を複合的に示す指針となる。
The
指標2の算出の際、指標算出部713は、肌色色相領域(色相値0〜39、330〜359)の中間明度領域と、当該中間明度領域以外の明度領域とで、異なる符号の係数を用いる。この肌色色相領域の中間明度領域には、明度値85〜169の領域が含まれる。また、当該中間明度領域以外の明度領域には、例えば、シャドー領域(明度値26〜84)が含まれる。
When calculating the
更に、指標算出部713は、領域毎に算出された第2の占有率に、撮影条件に応じて予め設定された第3の係数(表5参照)を乗算して和をとることにより、撮影シーンを特定するための指標3を算出する。
Further, the
指標3は、撮影シーンとして「ストロボ撮影シーン」又は「逆光シーン」と判別されるべき画像のみを定量的に示すものである。また、指標3は、逆光時の撮影とストロボ撮影との間における、撮影画像の中心と外縁側との明暗の差異を示す。指標3の算出の際、指標算出部713は、撮影画像の画像の外縁側からの距離に応じて異なる値の係数を用いる。
The
また、指標算出部713は、少なくとも、撮影画像データの全画像領域の中央付近における肌色の平均輝度値に、撮影条件に応じて予め設定された第4の係数を乗算して和をとることにより、撮影シーンを特定するための指標4を算出する。より好ましくは、撮影画像データの画像中央部における肌色の平均輝度値だけでなく、撮影画像データの最大輝度値と平均輝度値との差分値、輝度標準偏差、画像中央部における平均輝度値、画像の肌色最大輝度値と肌色最小輝度値の差分値と肌色平均輝度値との比較値(後述の式(8)参照)の各々に、撮影条件に応じて予め設定された第4の係数を乗算して和をとることにより、指標4を算出する。
In addition, the
指標4は、撮影シーンとして「ストロボ撮影シーン」又は「アンダー撮影シーン」と判別されるべき画像のみを定量的に示すものである。また、指標4は、ストロボ撮影とアンダー撮影との間における、撮影画像の中心と外縁側の明暗関係の差異を示すと共に、輝度ヒストグラムにおける分布情報を示す。
The
指標4を算出する際、指標算出部713では、撮影画像データの画像中央部における肌色の平均輝度値、画像の最大輝度値と平均輝度値との差分値、輝度標準偏差、画像中央部における平均輝度値、画像の肌色最大輝度値と肌色最小輝度値の差分値と肌色平均輝度値との比較値を用いているが、ここでいう輝度値とは、明るさを表す指標であり、他の明るさを表す指標(例えば、HSV表色系の明度値等)を用いてもよい。
When calculating the
また、指標算出部713は、撮影画像データの全画像領域中の人物の顔に相当すると推定される領域(顔候補領域)を抽出する顔候補領域抽出処理を行って、その顔候補領域の全画像領域に占める割合を指標5として算出する。顔候補領域抽出方式の例としては、人物の各部に特有の形状パターン(例えば、頭部の輪郭や顔の輪郭等を表す形状パターン)を撮影画像データに基づいて探索し、検出した形状パターンの大きさ、向き、当該形状パターンが表す人物の各部と人物の顔との位置関係に応じて、人物の顔に相当すると推定される領域を設定する。
In addition, the
また、検出した形状パターンと異なる他の形状パターンを探索し、先に検出した領域の人物の顔としての整合性を求め、顔画像の候補となる領域を抽出して、当該顔画像の撮影画像の全領域に対する比率を算出する。尚、撮影画像データから顔画像を抽出する顔画像抽出方式の他に、撮影画像データから背景画像を除去する背景除去方式を用いて顔画像と推定される領域を抽出することとしてもよい。尚、撮影画像データの全画像領域内の少なくとも中心部分における肌色の平均輝度値を指標5として算出することとしてもよい。
In addition, another shape pattern different from the detected shape pattern is searched, the consistency of the previously detected region as the face of the person is obtained, the region that is a candidate for the face image is extracted, and the captured image of the face image is extracted The ratio to the entire area is calculated. In addition to the face image extraction method for extracting a face image from captured image data, a region estimated as a face image may be extracted using a background removal method for removing a background image from captured image data. Note that the average brightness value of the skin color in at least the central portion in the entire image area of the photographed image data may be calculated as the
第3の指標としての指標5は、撮影シーンとして「人物撮影シーン」、「風景撮影シーン」又は「人物+風景撮影シーン」と判別されるべき画像のみを定量的に示すものである。例えば、指標5が0.8以上であれば、「人物撮影シーン」であると判別し、0.2〜0.8であれば、「人物+風景撮影シーン」、0.2未満であれば「風景撮影シーン」と判別する。ここで、撮影画像を構成する被写体や背景等の撮影対象を本実施形態では「オブジェクト」という。
The
指標算出部713は、指標1及び指標3それぞれに、撮影条件に応じて予め設定された係数を乗算して和をとることにより指標6を算出してもよく、より好ましくは指標1、指標3及び指標5それぞれに、撮影条件に応じて予め設定された係数を乗算して和をとることにより指標6を算出してもよい(式(10)参照)。
The
更に、指標算出部713は、指標2及び指標3それぞれに、撮影条件に応じて予め設定された係数を乗算して和をとることにより指標7を算出してもよく、より好ましくは指標2、指標3及び指標5それぞれに、撮影条件に応じて予め設定された係数を乗算して和をとることにより指標7を算出してもよい(式(11)参照)。
Furthermore, the
図4(c)に、画像処理条件算出部714の内部構成を示す。画像処理条件算出部714は、図4(c)に示すように、シーン判別部718、色変換定義補正方法決定部719及び補正割合算出部720を備えて構成される。
FIG. 4C shows the internal configuration of the image processing
シーン判別部718は、指標算出部713において算出された指標1〜7に基づいて、撮影画像データの撮影シーン(光源条件及び露出条件の輝度構成、人物や風景のオブジェクト構成)を判別する。
The
色変換定義補正方法決定部719は、シーン判別部718において判別された撮影シーンに応じて、色変換定義記憶部730に記憶された3D−LUT(色変換定義データ)の補正方法を決定する。ここで、色再現特性とは、出力デバイスの再現出力可能な色空間の明度及び彩度の特性であり、同種の出力デバイスであっても、出力媒体が異なればその色再現特性に差異が生じてくる。
The color conversion definition correction
出力デバイスが有する色再現特性に対応した3D−LUTは、後述する標準色変換定義作成部721により作成される。また、後述するシーン別色変換定義作成部722により、撮影シーン別の3D−LUTが作成される。以下、標準色変換定義作成部721が作成する3D−LUTを「標準色変換定義」、シーン別色変換定義作成部722が作成する3D−LUTを撮影シーン毎に「人物用色変換定義」、「風景用色変換定義」等という。
A 3D-LUT corresponding to the color reproduction characteristics of the output device is created by a standard color conversion
このような各種3D−LUTは、色変換定義記憶部730に記憶されており、ユーザ設定や初期設定等により、撮影時の基準となる3D−LUT(以下、「基準色変換定義」という)が予め設定される。例えば、人物を被写体とする撮影が多いユーザであれば、人物用色変換定義が基準色変換定義として設定され、風景の撮影が多いユーザであれば、風景用色変換定義が設定される。
Such various 3D-LUTs are stored in the color conversion
色変換定義補正方法決定部719は、撮影シーンに応じて基準色変換定義の補正方法を決定する。 具体的には、例えば、人物の顔候補領域が撮影画像全体に対して狭く、風景を中心とした撮影画像である、即ち、「風景撮影シーン」であると判別された場合、基準色変換定義の彩度を圧縮する彩度圧縮補正をLUTの補正方法として選択する。また、人物の顔候補領域が撮影画像全体に対して広いく「人物撮影シーン」であると判別された場合には、基準色変換定義の色相を圧縮する色相圧縮補正を補正方法として選択する。
A color conversion definition correction
また、色変換定義補正方法決定部719は、シーン判別部718において判別された撮影シーンに応じて、撮影画像データに対する階調変換の方法を決定する。例えば、順光シーンであると判別した場合は、入力された撮影画像データの画素値を平行移動(オフセット)補正する階調変換方法Aを選択する。また、逆光シーン又はアンダー撮影シーンであると判別した場合は、入力された撮影画像データの画素値をガンマ補正する階調変換方法Bを選択する。また、ストロボ撮影シーンであると判別した場合、入力された撮影画像データの画素値をガンマ補正及び平行移動補正する階調変換方法Cを選択する。
Further, the color conversion definition correction
画像調整処理部701は、予め設定された複数の階調変換曲線(1D−LUT)の中から、決定した階調変換方法に対応する階調変換曲線を選択して、その階調変換曲線に従って撮影画像データに階調変換を施す。尚、階調変換の方法については、公知技術であるためその説明は省略する。
The image
補正割合算出部720は、色変換定義補正方法決定部719において選択・決定された補正方法での補正を、基準色変換定義に対してどの程度の度合いで加えるかを示す補正割合を撮影シーンに基づいて算出する。
The correction
図4(d)に、色変換定義作成部711の内部構成を示す。色変換定義作成部711は、図4(4)に示すように、標準色変換定義作成部721、シーン別色変換定義作成部722及び色変換定義補正部723を備えて構成される。
FIG. 4D shows the internal configuration of the color conversion
標準色変換定義作成部721は、CRT8や外部プリンタ51等の出力デバイスの色再現特性に対応した3D−LUTを作成する機能部であり、色度を測定する測色計や濃度計等を備えて構成される。標準色変換定義作成部721は、CRT8に表示される色パッチや、外部プリンタ51によりプリントされた色パッチを測色し、その測色結果と、そのカラーパッチの元となる画像データとに基づいて標準色変換定義を作成する(図20の標準色変換定義作成処理)。
The standard color conversion
この標準色変換定義は、露出条件の変化の少ない良好な環境化での作成が可能であるため、撮影シーンが順光シーン且つ人物+風景撮影シーンであり、適切な露出で撮影された撮影画像データの色変換に用いられる。標準色変換定義には、指標1〜6を予め設定しておく。 Since this standard color conversion definition can be created in a favorable environment with little change in exposure conditions, the shooting scene is a front light scene and a person + landscape shooting scene, and the shot image is shot at an appropriate exposure. Used for data color conversion. Indicators 1 to 6 are set in advance in the standard color conversion definition.
シーン別色変換定義作成部722は、標準色変換定義作成部721により作成された標準色変換定義に、各種調整処理を施すことにより、シーン別色変換定義を作成する。例えば、人物撮影シーンに対応する人物用色変換定義は、被写体(オブジェクト)である人物の肌色が明度変化に応じて視覚的に好ましい肌色で色再現されるような調整が予め施されている。また、風景撮影シーンに対応する風景用色変換定義は、空の青色や、草木の緑色等の風景画像に占める割合の大きいオブジェクトの色が明度変化に応じて視覚的に好ましい色で色再現されるような調整が予め施されている。
The scene-specific color conversion
尚、標準色変換定義作成部721及びシーン別色変換定義作成部722が3D−LUTを作成するタイミングは、特に限定はされず、例えば、撮影画像データが入力される以前に作成しておくことが望ましい。
The timing at which the standard color conversion
色変換定義補正部723は、色変換定義補正方法決定部719において決定された補正方法で、基準色変換定義の色再現特性を補正する。この補正の際に、補正方法に従ってシーン別色変換定義を選択し、そのシーン別色変換定義の色再現特性を補正割合算出部720により算出された補正割合の度合いで基準色変換定義に作用させるように補正する。このため、色変換定義補正部723により補正されて新たに作成された補正色変換定義は、出力デバイスの色再現特性を有していると共に、撮影画像に合わせた色再現特性が撮影シーンに応じた割合で反映されることとなる。
The color conversion
画像調整処理部701は、色変換定義補正部723により作成された補正色変換定義、即ち、入力される撮影画像データの撮影シーンに基づいて色再現特性を補正した補正色変換定義に基づいて当該撮影画像データの色変換を行って出力する。
The image
<画像処理装置の具体的な動作>
次に、画像処理装置1の具体的な動作について図5〜22を参照して説明する。図5は、画像調整処理部701が実行するシーン判別処理の処理内容を示すフローチャートである。
<Specific operation of image processing apparatus>
Next, specific operations of the image processing apparatus 1 will be described with reference to FIGS. FIG. 5 is a flowchart showing the processing content of the scene determination processing executed by the image
図5に示すように、画像調整処理部701は、先ず、撮影画像データが所定の画像領域に分割し、その分割領域が撮影画像データ全体に占める割合を示す第1及び第2の占有率を算出する占有率算出処理を行う(ステップS1)。
As shown in FIG. 5, the image
そして、割合算出部712において算出された占有率と、少なくとも、撮影画像データの画像中央部における肌色の平均輝度値と、撮影条件に応じて予め設定された係数に基づいて、撮影シーンを特定する指標1〜7が算出する(ステップS2)。次いで、ステップS2において算出された指標に基づいて撮影シーンを判別し、判別結果に応じて撮影画像データに対する画像処理条件を決定する(ステップS3)。
Then, based on the occupation rate calculated by the
図6及び図11は、ステップS1において実行される占有率算出処理の処理内容を示すフローチャートである。 6 and 11 are flowcharts showing the processing contents of the occupation ratio calculation processing executed in step S1.
先ず、図6の第1の占有率算出処理において、入力された撮影画像データのRGB値がHSV表色系に変換される(ステップS10)。次いで、撮影画像データが、所定の明度と色相の組み合わせからなる領域に分割され、分割領域毎に累積画素数を算出することにより2次元ヒストグラムが作成される(ステップS11)。ここで、撮影画像データの領域分割について詳細に説明する。 First, in the first occupancy rate calculation process of FIG. 6, the RGB values of the input captured image data are converted into the HSV color system (step S10). Next, the photographed image data is divided into regions composed of combinations of predetermined brightness and hue, and a two-dimensional histogram is created by calculating the cumulative number of pixels for each divided region (step S11). Here, the area division of the captured image data will be described in detail.
明度(V)は、明度値が0〜25(v1)、26〜50(v2)、51〜84(v3)、85〜169(v4)、170〜199(v5)、200〜224(v6)、225〜225(v7)の7つの領域に分割される。色相(H)は、色相値が0〜39、330〜359の肌色色相領域(H1及びH2)、色相値が40〜160の緑色色相領域(H3)、色相値が161〜250の青色色相領域(H4)、赤色色相領域(H5)の4つの領域に分割される。 The lightness (V) is 0-25 (v1), 26-50 (v2), 51-84 (v3), 85-169 (v4), 170-199 (v5), 200-224 (v6). , 225 to 225 (v7). Hue (H) is a flesh color hue region (H1 and H2) having a hue value of 0 to 39 and 330 to 359, a green hue region (H3) having a hue value of 40 to 160, and a blue hue region having a hue value of 161 to 250. It is divided into four areas (H4) and a red hue area (H5).
尚、赤色色相領域(H5)は、撮影シーンの判別への寄与が少ないとの知見から、以下の計算で用いていない。肌色色相領域は、更に、肌色領域(H1)と、それ以外の領域(H2)に分割される。以下、肌色色相領域(H=0〜39、330〜359)のうち、下記の式(1)を満たす色相'(H)を肌色領域(H1)とし、式(1)を満たさない領域を(H2)とする。 Note that the red hue region (H5) is not used in the following calculation because it is found that the contribution to the determination of the shooting scene is small. The flesh color hue area is further divided into a flesh color area (H1) and other areas (H2). Hereinafter, among the flesh-colored hue regions (H = 0 to 39, 330 to 359), the hue ′ (H) that satisfies the following formula (1) is defined as the flesh-colored region (H1), and the region that does not satisfy the formula (1) is ( H2).
10 < 彩度(S) <175、
色相'(H) = 色相(H) + 60 (0 ≦ 色相(H) < 300のとき)、
色相'(H) = 色相(H) -300 (300 ≦ 色相(H) < 360のとき)、
輝度(Y) = InR × 0.30 + InG × 0.59 + InB × 0.11 ・・・(A)
として、
色相'(H)/輝度(Y) < 3.0 ×(彩度(S)/255)+0.7 ・・・(1)
従って、撮影画像データの分割領域の数は4×7=28個となる。尚、式(A)及び(1)において明度(V)を用いることも可能である。また、InR、InG、InBは、入力画像データのRGB値である。
10 <Saturation (S) <175,
Hue '(H) = Hue (H) + 60 (when 0 ≤ Hue (H) <300),
Hue '(H) = Hue (H) -300 (when 300 ≤ Hue (H) <360),
Luminance (Y) = InR x 0.30 + InG x 0.59 + InB x 0.11 (A)
As
Hue '(H) / Luminance (Y) <3.0 × (Saturation (S) / 255) +0.7 (1)
Therefore, the number of divided areas of the captured image data is 4 × 7 = 28. In addition, it is also possible to use the brightness (V) in the formulas (A) and (1). InR, InG, and InB are RGB values of the input image data.
ヒストグラム作成部716により2次元ヒストグラムが作成されると、占有率演算部717は、第1の占有率を算出する(ステップS12)。明度領域vi、色相領域Hjの組み合わせからなる分割領域において算出された第1の占有率をRijとすると、各分割領域における第1の占有率は表1のように表される。
<指標1及び指標2の算出方法>
次に、指標1及び指標2の算出方法について説明する。表2に、ストロボ撮影としての確度、即ち、ストロボ撮影時の顔候補領域の明度状態を定量的に示す指標1を算出するために必要な第1の係数を分割領域別に示す。表2に示された各分割領域の係数は、表1に示した各分割領域の第1の占有率Rijに乗算する重み係数であり、撮影条件に応じて予め設定されている。
Next, a method for calculating the index 1 and the
図7に、明度(V)−色相(H)平面を示す。表2によると、図7において高明度の肌色色相領域に分布する領域(r1)から算出される第1の占有率には、正の係数が用いられ、それ以外の色相である青色色相領域(r2)から算出される第1の占有率には、負の係数が用いられる。 FIG. 7 shows a lightness (V) -hue (H) plane. According to Table 2, a positive coefficient is used for the first occupancy calculated from the region (r1) distributed in the high brightness skin color hue region in FIG. 7, and the blue hue region (hue other than that) A negative coefficient is used for the first occupancy calculated from r2).
図9は、肌色領域(H1)における第1の係数と、その他の領域(緑色色相領域(H2))における第1の係数を、明度全体に渡って連続的に変化する係数曲線として示したものである。表2及び図9によると、高明度領域(V=170〜224)では、肌色領域(H1)における第1の係数の符号は正であり、その他の領域における符号は負であり、両者の符号が異なっていることがわかる。 FIG. 9 shows the first coefficient in the skin color region (H1) and the first coefficient in the other region (green hue region (H2)) as a coefficient curve that continuously changes over the entire brightness. It is. According to Table 2 and FIG. 9, in the high brightness region (V = 170 to 224), the sign of the first coefficient in the skin color region (H1) is positive, and the sign in the other region is negative. Is different.
明度領域vi、色相領域Hjにおける第1の係数をCijとすると、指標1を算出するためのHk領域の和は、式(2)のように定義される。
従って、H1〜H4領域の和は、下記の式(2−1)〜(2−4)のように表される。
H1領域の和=R11×(-44.0)+R21×(-16.0)+・・・+R71×(-11.3) ・・・(2−1)
H2領域の和=R12×0.0+R22×8.6+・・・+R72×(-11.1) ・・・(2−2)
H3領域の和=R13×0.0+R23×(-6.3)+・・・+R73×(-10.0) ・・・(2−3)
H4領域の和=R14×0.0+R24×(-1.8)+・・・+R74×(-14.6) ・・・(2−4)
Accordingly, the sum of the H1 to H4 regions is expressed by the following formulas (2-1) to (2-4).
Sum of H1 regions = R11 x (-44.0) + R21 x (-16.0) + ... + R71 x (-11.3) (2-1)
Sum of H2 regions = R12 x 0.0 + R22 x 8.6 + ... + R72 x (-11.1) (2-2)
Sum of H3 regions = R13 x 0.0 + R23 x (-6.3) + ... + R73 x (-10.0) (2-3)
Sum of H4 region = R14 x 0.0 + R24 x (-1.8) + ... + R74 x (-14.6) (2-4)
指標1は、式(2−1)〜(2−4)で示されたH1〜H4領域の和を用いて、式(3)のように定義される。
指標1=H1領域の和+H2領域の和+H3領域の和+H4領域の和+4.424 ・・・(3)
The index 1 is defined as in Expression (3) using the sum of the H1 to H4 regions shown in Expressions (2-1) to (2-4).
Index 1 = sum of H1 region + sum of H2 region + sum of H3 region + sum of H4 region + 4.424 (3)
表3に、逆光撮影としての確度、即ち、逆光撮影時の顔候補領域の明度状態を定量的に示す指標2を算出するために必要な第2の係数を分割領域別に示す。表3に示された各分割領域の係数は、表1に示した各分割領域の第1の占有率Rijに乗算する重み係数であり、撮影条件に応じて予め設定されている。
図8に、明度(V)−色相(H)平面を示す。表3によると、図8において肌色色相領域の中間明度に分布する領域(r4)から算出される占有率には負の係数が用いられ、肌色色相領域の低明度(シャドー)領域(r3)から算出される占有率には正の係数が用いられる。図10は、肌色領域(H1)における第2の係数を、明度全体に渡って連続的に変化する係数曲線として示したものである。表3及び図10によると、肌色色相領域の、明度値が85〜169(v4)の中間明度領域の第2の係数の符号は負であり、明度値が26〜84(v2,v3)の低明度領域の符号は正であり、両領域での係数の符号が異なっていることがわかる。 FIG. 8 shows a lightness (V) -hue (H) plane. According to Table 3, a negative coefficient is used for the occupancy calculated from the region (r4) distributed in the intermediate lightness of the flesh color hue region in FIG. 8, and from the low lightness (shadow) region (r3) of the flesh color hue region. A positive coefficient is used for the calculated occupation ratio. FIG. 10 shows the second coefficient in the skin color region (H1) as a coefficient curve that continuously changes over the entire brightness. According to Table 3 and FIG. 10, the sign of the second coefficient of the intermediate lightness region of the skin color hue region with the lightness value of 85 to 169 (v4) is negative, and the lightness value of 26 to 84 (v2, v3). It can be seen that the sign of the low brightness area is positive, and the signs of the coefficients in both areas are different.
明度領域vi、色相領域Hjにおける第2の係数をDijとすると、指標2を算出するためのHk領域の和は、式(4)のように定義される。
従って、H1〜H4領域の和は、下記の式(4−1)〜(4−4)のように表される。
H1領域の和=R11×(-27.0)+R21×4.5+・・・+R71×(-24.0) ・・・(4−1)
H2領域の和=R12×0.0+R22×4.7+・・・ +R72×(-8.5) ・・・(4−2)
H3領域の和=R13×0.0+R23×0.0+・・・+R73×0.0 ・・・(4−3)
H4領域の和=R14×0.0+R24×(-5.1)+・・・+R74×7.2 ・・・(4−4)
Accordingly, the sum of the H1 to H4 regions is expressed by the following formulas (4-1) to (4-4).
Sum of H1 regions = R11 x (-27.0) + R21 x 4.5 + ... + R71 x (-24.0) (4-1)
Sum of H2 regions = R12 x 0.0 + R22 x 4.7 + ... + R72 x (-8.5) (4-2)
Sum of H3 regions = R13 x 0.0 + R23 x 0.0 + ... + R73 x 0.0 (4-3)
Sum of H4 region = R14 x 0.0 + R24 x (-5.1) + ... + R74 x 7.2 (4-4)
指標2は、式(4−1)〜(4−4)で示されたH1〜H4領域の和を用いて、式(5)のように定義される。
指標2=H1領域の和+H2領域の和+H3領域の和+H4領域の和+1.554 ・・・(5)
指標1及び指標2は、撮影画像データの明度と色相の分布量に基づいて算出されるため、撮影画像データがカラー画像である場合の撮影シーンの判別に有効である。
The
Since the index 1 and the
<指標3の算出方法>
次に、指標3の算出方法について説明する。指標3の算出においては、図11のフローチャートに従った第2の占有率算出処理が行われる。
<Calculation method for
Next, a method for calculating the
先ず、撮影画像データのRGB値がHSV表色系に変換され(ステップS20)、当該撮影画像データが、撮影画像の外縁からの距離と明度の組み合わせからなる領域に分割され、その分割領域毎に累積画素数を算出することにより2次元ヒストグラムが作成される(ステップS21)。 First, the RGB values of the photographed image data are converted into the HSV color system (step S20), and the photographed image data is divided into regions each composed of a combination of the distance from the outer edge of the photographed image and the brightness, and for each divided region. A two-dimensional histogram is created by calculating the cumulative number of pixels (step S21).
図12(a)〜(d)に、撮影画像データの画像の外縁からの距離に応じて分割された4つの領域n1〜n4を示す。図12(a)に示す領域n1が外枠であり、図12(b)に示す領域n2が、外枠の内側の領域であり、図12(c)に示す領域n3が、領域n2の更に内側の領域であり、図12(d)に示す領域n4が、撮影画像の中心部の領域である。また、明度は、上述のようにv1〜v7の7つの領域に分割するものとする。従って、撮影画像データを、撮影画像の外縁からの距離と明度の組み合わせからなる領域に分割した場合の分割領域の数は4×7=28個となる。 FIGS. 12A to 12D show four regions n1 to n4 divided according to the distance from the outer edge of the image of the captured image data. A region n1 shown in FIG. 12A is an outer frame, a region n2 shown in FIG. 12B is a region inside the outer frame, and a region n3 shown in FIG. A region n4 shown in FIG. 12D is an inner region and is a central region of the captured image. In addition, the brightness is divided into seven regions v1 to v7 as described above. Therefore, when the captured image data is divided into regions composed of combinations of the distance from the outer edge of the captured image and the brightness, the number of divided regions is 4 × 7 = 28.
2次元ヒストグラムが作成されると、占有率演算部717は、第2の占有率を算出する(ステップS22)。明度領域vi、画像領域njの組み合わせからなる分割領域において算出された第2の占有率をQijとすると、各分割領域における第2の占有率は表4のように表される。
表5に、指標3を算出するために必要な第3の係数を分割領域別に示す。表5に示された各分割領域の係数は、表4に示した各分割領域の第2の占有率Qijに乗算する重み係数であり、撮影条件に応じて予め設定されている。
図13は、画像領域n1〜n4における第3の係数を、明度全体に渡って連続的に変化する係数曲線として示したものである。明度領域vi、画像領域njにおける第3の係数をEijとすると、指標3を算出するための画像領域nkの和は、式(6)のように定義される。
従って、n1〜n4領域の和は、下記の式(6−1)〜(6−4)のように表される。
n1領域の和=Q11×40.1+Q21×37.0+・・・+Q71×22.0 ・・・(6−1)
n2領域の和=Q12×(-14.8)+Q22×(-10.5)+・・・+Q72×0.0 ・・・(6−1)
n3領域の和=Q13×24.6+Q23×12.1+・・・+Q73×10.1 ・・・(6−1)
n4領域の和=Q14×1.5+Q24×(-32.9)+・・・+Q74×(-52.2) ・・・(6−1)
Accordingly, the sum of the n1 to n4 regions is represented by the following formulas (6-1) to (6-4).
Sum of n1 region = Q11 × 40.1 + Q21 × 37.0 + ... + Q71 × 22.0 (6-1)
Sum of n2 regions = Q12 × (-14.8) + Q22 × (-10.5) +... + Q72 × 0.0 (6-1)
n3 area sum = Q13 × 24.6 + Q23 × 12.1 +... + Q73 × 10.1 (6-1)
Sum of n4 regions = Q14 x 1.5 + Q24 x (-32.9) + ... + Q74 x (-52.2) ... (6-1)
指標3は、式(6−1)〜(6−4)で示されたn1〜n4領域の和を用いて、式(7)のように定義される。
指標3=n1領域の和+n2領域の和+n3領域の和+n4領域の和−12.6201・・・(7)
指標3は、撮影画像データの明度の分布位置による構図的な特徴(撮影画像データの画像の外縁からの距離)に基づいて算出されるため、カラー画像だけでなくモノクロ画像の撮影シーンを判別するのにも有効である。
The
The
<指標4の算出方法>
次に、図14のフローチャートを参照して、指標算出部713において実行される指標4の算出処理について説明する。
<Calculation method of
Next, the
先ず、撮影画像データのRGB値から、式(A)を用いて輝度Yが算出され、当該撮影画像データの画像中央部における肌色領域の平均輝度値x1が算出される(ステップS23)。ここで、画像中央部とは、例えば、図12において、領域n3及び領域n4により構成される領域である。次いで、撮影画像データの最大輝度値と平均輝度値との差分値x2が算出される(ステップS24)。 First, the luminance Y is calculated from the RGB values of the photographed image data using the formula (A), and the average luminance value x1 of the skin color area in the center of the image of the photographed image data is calculated (step S23). Here, the central portion of the image is, for example, a region composed of a region n3 and a region n4 in FIG. Next, a difference value x2 between the maximum luminance value and the average luminance value of the captured image data is calculated (step S24).
次いで、撮影画像データの輝度の標準偏差x3が算出され(ステップS25)、画像中央部における平均輝度値x4が算出される(ステップS26)。次いで、撮影画像データにおける肌色領域の最大輝度値Yskin_maxと最小輝度値Yskin_minの差分値と、肌色領域の平均輝度値Yskin_aveとの比較値x5が算出される(ステップS27)。この比較値x5は、下記の式(8)のように表される。
x5=(Yskin_max−Yskin_min)/2 −Yskin_ave ・・・(8)
Next, the standard deviation x3 of the luminance of the photographed image data is calculated (step S25), and the average luminance value x4 at the center of the image is calculated (step S26). Next, a comparison value x5 between the difference value between the maximum luminance value Yskin_max and the minimum luminance value Yskin_min of the skin color area in the photographed image data and the average luminance value Yskin_ave of the skin color area is calculated (step S27). This comparison value x5 is expressed as the following equation (8).
x5 = (Yskin_max−Yskin_min) / 2−Yskin_ave (8)
次いで、ステップS23〜S27で算出された値x1〜x5の各々に、撮影条件に応じて予め設定された第4の係数を乗算し、和をとることにより、指標4が算出される(ステップS28)。指標4は、下記の式(9)のように定義される。
指標4=0.06×x1+1.13×x2+0.02×x3+(-0.01)×x4+0.03×x5−6.50・・・(9)
この指標4は、撮影画像データの画像の構図的な特徴だけでなく、輝度ヒストグラム分布情報を持ち合わせており、特にストロボ撮影シーンとアンダー撮影シーンの判別に有効である。
Next, the
The
<指標5〜7の算出方法>
また、指標算出部713は、上述したように撮影画像の全領域中の人物の顔に相当すると推定される顔候補領域の占める割合を指標5として算出する。また、指標6を、指標1、指標3、指標5を用いて式(10)のように定義し、指標7を、指標2、指標3、指標5を用いて式(11)のように定義してそれぞれ算出する。
指標6=0.46×指標1+0.61×指標3+0.01×指標5−0.79 ・・・(10)
指標7=0.58×指標2+0.18×指標3+(-0.03)×指標5+3.34 ・・・(11)
ここで、式(10)及び式(11)において各指標に乗算される重み係数は、撮影条件に応じて予め設定されている。
<Calculation method of indicators 5-7>
In addition, as described above, the
Here, the weighting coefficient by which each index is multiplied in Expression (10) and Expression (11) is set in advance according to the shooting conditions.
<画像処理条件の決定>
次に、図15のフローチャートを参照して、画像処理条件算出部714において実行される画像処理条件決定処理(図5のステップS3)について説明する。
<Determination of image processing conditions>
Next, the image processing condition determination process (step S3 in FIG. 5) executed in the image processing
先ず、指標算出部713において算出された指標1〜7の値に基づいて、撮影画像データの撮影シーンが判別される(ステップS30)。ここで、撮影シーンの判別方法について説明する。
First, based on the values of indexes 1 to 7 calculated by the
図16(a)は、順光、逆光、ストロボの各光源条件で60枚ずつ撮影し、合計180枚のデジタル画像データについて、指標6及び指標7を算出し、各光源条件での指標6及び指標7の値をプロットしたものである。図16(a)によれば、指標5の値が0.5より大きい場合、ストロボ撮影シーンが多く、指標5の値が0.5以下で、指標6の値が−0.5より大きい場合、逆光シーンが多いことがわかる。このように指標6及び指標7の値により撮影シーンを定量的に判別することができる。
In FIG. 16A, 60 images are taken under each light source condition of forward light, backlight, and strobe, and
更に、順光、逆光、ストロボの各撮影シーンを判別できる指標5及び指標6に、指標4を加えることで、3次元的に撮影シーンが判別可能となり、撮影シーンの判別精度を一層向上させることが可能となる。指標4は、特に、画像全体を暗くする色変換調整が行われるストロボ撮影シーンと、画像全体を明るくする色変換調整が行われるアンダー撮影シーンとを判別するのに有効である。
Furthermore, by adding the
図16(b)は、ストロボ撮影シーンとアンダー撮影シーンの撮影画像各60枚のうち、指標6が0.5より大きい画像の指標4及び指標6を算出し、プロットしたものである。図16(b)によれば、指標4の値が0より大きい場合、ストロボ撮影シーンが多く、指標4の値が0以下の場合、アンダー撮影シーンが多いことがわかる。表6に、指標4、指標6及び指標7の値による撮影シーンの判別内容を示す。
ストロボ撮影シーンで撮影された撮影画像は、被写体にストロボ光は照射されるため、被写体の画像領域が背景よりも輝度が高くなる。また、逆光シーンやアンダー撮影シーンでの撮影画像は、その画像内で輝度の低い領域が生じる。このため、ストロボ撮影シーンや逆光シーン、アンダー撮影シーンで撮影された撮影画像は、その画像領域内で輝度の変動が高い画像となる。 In a photographic image taken in a stroboscopic scene, the subject is irradiated with stroboscopic light, so that the brightness of the image area of the subject is higher than that of the background. In addition, in a captured image in a backlight scene or an under-photographed scene, a low-luminance region occurs in the image. For this reason, a photographed image photographed in a flash photography scene, a backlight scene, or an under photography scene is an image having a high luminance variation within the image area.
このように、画像領域内には、撮影シーンに応じて輝度の高低差のある領域が生ずる。本実施形態において、撮影画像データが有する輝度の高低差がある画像領域の分布を「輝度構成」といい、この輝度構成が予め定めた基準の撮影シーン(以下「基準シーン」という)と異なる場合には、3D−LUT等の色変換定義データの補正を行う。 As described above, an area with a difference in brightness is generated in the image area according to the shooting scene. In this embodiment, the distribution of the image area having the difference in brightness of the captured image data is referred to as “luminance configuration”, and this luminance configuration is different from a predetermined reference shooting scene (hereinafter referred to as “reference scene”). The color conversion definition data such as 3D-LUT is corrected.
また、指標5の値が例えば、0.2以下であれば、撮影画像に対する顔候補領域が狭く、風景を主な被写体とした風景撮影シーンであると判別し、0.8以上でれば、顔候補領域が広く、人物を主な被写体とした人物シーンであると判別する。また、指標5が0.2〜0.8の間であれば、主な被写体として人物と風景が混在する人物+風景撮影シーンであると判別することができる。このように、指標5から、撮影画像内に含まれる被写体の画像領域の広さにより撮影シーンを判別することができる。
For example, if the value of the
撮影シーンを判別することにより、撮影画像を構成する被写体の色や分布が判定可能になる。この被写体の画像領域の色や分布を本実施形態において「被写体の構成要件」という。この被写体の構成要件が基準シーンと異なる場合には、色変換定義データの補正を行う。 By discriminating the shooting scene, it is possible to determine the color and distribution of the subject constituting the shot image. In this embodiment, the color and distribution of the image area of the subject are referred to as “subject constituent requirements”. When the constituent requirements of the subject are different from the reference scene, the color conversion definition data is corrected.
ステップS30において撮影シーンが判別されると、その判別された撮影シーンに応じて、上述したように撮影画像データに対する階調変換の方法が決定される(ステップS31)。そして、撮影シーンに応じて基準色変換定義の補正方法を決定する。 When the photographic scene is determined in step S30, the gradation conversion method for the photographic image data is determined as described above according to the determined photographic scene (step S31). Then, a correction method for the reference color conversion definition is determined according to the shooting scene.
具体的には、シーン判別部718により判別された撮影シーンが風景撮影シーンである場合には、彩度圧縮補正を選択する。彩度圧縮補正は、基準色変換定義が有する彩度特性を彩度方向及び明度方向に圧縮する補正である。図17に彩度特性の一例を図示する。図17は、L*C*h表色系における明度(L*)を縦軸に、彩度(C*)を横軸にとったグラフである。
Specifically, when the shooting scene determined by the
例えば、基準色変換定義が図17に示す彩度特性c1を有している場合、この彩度特性c1を彩度方向に所定レベル低めると共に、彩度特性c1が最高彩度をとる高彩度ポイントc10を明度方向に所定レベル低める。これにより、基準色変換定義の彩度特性c1は、彩度方向及び明度方向に圧縮した彩度特性c2に補正され、彩度圧縮率の異なる補正色変換定義が作成される。また、風景を主な被写体とした撮影画像は、中明度領域が彩度の高い画像に色変換されるようになり、高明度領域で色が飛んでしまうことが防止される。 For example, if the reference color conversion definition has the saturation characteristic c1 shown in FIG. 17, the saturation characteristic c1 is lowered by a predetermined level in the saturation direction, and the high saturation point c10 at which the saturation characteristic c1 takes the maximum saturation. Is lowered by a predetermined level in the brightness direction. Thus, the saturation characteristic c1 of the reference color conversion definition is corrected to the saturation characteristic c2 compressed in the saturation direction and the lightness direction, and corrected color conversion definitions having different saturation compression rates are created. In addition, a photographed image whose main subject is a landscape is color-converted into an image with a high saturation in the middle lightness area, so that the color is prevented from jumping in the high lightness area.
また、シーン判別部718により判別された撮影シーンが人物撮影シーンである場合には、色相圧縮補正を選択する。色相圧縮補正は、基準色変換定義が有する色相特性を圧縮する補正である。図18に色相特性の一例を図示する。図18は、L*a*b*表色系における色度a*及びb*を横軸及び縦軸それぞれにとったグラフである。
If the shooting scene determined by the
例えば、基準色変換定義のオレンジ色(5YR)の色相特性c3と、赤色(5R)の色相特性c4とが図18のようになったとする。この色相特性c3及びc4は、一次直線によって表されるため、人間の肌色を含むオレンジ色〜赤色の一定色相を有する撮影画像データは、そのデータの色相を忠実にそのまま色再現することを示している。 For example, it is assumed that the orange (5YR) hue characteristic c3 and the red (5R) hue characteristic c4 of the reference color conversion definition are as shown in FIG. Since the hue characteristics c3 and c4 are represented by a linear line, it is shown that captured image data having a constant hue of orange to red including human skin color faithfully reproduces the hue of the data as it is. Yes.
図18の破線BLは、a*軸及びb*軸の角二等分線を示しており、色相圧縮補正では、色相特性c3及びc4とを破線BL側に向けて圧縮する。このとき、彩度が低い低彩度領域においては、色相特性c3及びc4を圧縮する度合いを高める。これにより、基準色変換定義の色相特性c3及びc4は、破線BL方向に圧縮した彩度特性c4及びc5に補正され、色相圧縮率の異なる補正色変換定義が作成される。また、人物を主な被写体とした撮影画像は、肌色領域の画像の濃度が高められて色変換されるようになり、顔画像をより鮮明にすることができる。 A broken line BL in FIG. 18 indicates an angle bisector of the a * axis and the b * axis. In the hue compression correction, the hue characteristics c3 and c4 are compressed toward the broken line BL side. At this time, in the low saturation region where the saturation is low, the degree of compression of the hue characteristics c3 and c4 is increased. Thereby, the hue characteristics c3 and c4 of the reference color conversion definition are corrected to the saturation characteristics c4 and c5 compressed in the direction of the broken line BL, and corrected color conversion definitions having different hue compression rates are created. In addition, a photographed image with a person as the main subject is subjected to color conversion by increasing the density of the skin color region image, and the face image can be made clearer.
尚、彩度圧縮補正及び色相圧縮補正における圧縮の度合いは、人間がカラーバランスの変化を許容できる度合いに応じて定めることが望ましく、実験的又は経験的に具体的な値が求められる。 It should be noted that the degree of compression in the saturation compression correction and the hue compression correction is preferably determined according to the degree to which a human can tolerate a change in color balance, and a specific value is obtained experimentally or empirically.
ステップS32において基準色変換定義の補正方法が決定されると、次にその基準色変換定義にシーン別色変換定義の色再現特性をどの程度作用させるかを示す補正割合が算出される(ステップS33)。補正割合は、基準シーンに対するシーン判別部718により判別された撮影シーンの被写体の構成要件の差異及び輝度構成の差異とから算出する。
When the correction method for the reference color conversion definition is determined in step S32, a correction ratio indicating how much the color reproduction characteristics of the scene-specific color conversion definition are applied to the reference color conversion definition is calculated (step S33). ). The correction ratio is calculated from the difference in the constituent requirements of the subject of the photographic scene and the difference in the luminance configuration determined by the
補正割合は、基準シー及び撮影シーン毎に図19(a)に示すような曲線f1及びf2で予め設定しておく。曲線f2は、シーン判別部718により判別された撮影シーンのオブジェクト構成及び輝度構成が、基準シーンに対して大きく異なる場合は、補正割合を大きくし、基準シーンに近いほど補正割合を小さく遷移させることを示している。一方、曲線f1は、基準シーンのオブジェクト構成及び輝度構成が撮影シーンに対して大きく異なる場合は、補正割合を大きくし、基準シーンに近いほど補正割合を小さく遷移させることを示している。
The correction ratio is set in advance by curves f1 and f2 as shown in FIG. The curve f2 indicates that when the object configuration and the luminance configuration of the shooting scene determined by the
補正割合算出部720は、基準シーンに対する撮影シーンのオブジェクト構成及び輝度構成の差異の度合いに対応する曲線f1及びf2上の値から補正割合F1及びF2を算出する。この補正割合F1及びF2は、次の式(12)により算出する。
例えば、基準色変換定義として人物用色変換定義が設定されている場合に、撮影シーンが逆光シーン、ストロボ撮影シーン又はアンダー撮影シーンであって風景撮影シーンであると判別された場合、撮影画像内のオブジェクト構成の差異を数値化する。この値は、基準色変換定義に設定された指標5を基準として、上述したように撮影画像データから算出した指標5との差異から算出する。即ち、人物用色変換定義の指標5が1であり、算出した指標5が0.2であった場合は、その差異は0.8と算出される。
For example, when the person color conversion definition is set as the reference color conversion definition, if it is determined that the shooting scene is a backlight scene, a strobe shooting scene, or an under shooting scene and is a landscape shooting scene, Quantify the difference in object composition. This value is calculated from the difference from the
そして、図19(a)の基準シーンと撮影シーンとの間を4:1(0.8:0.2)で分割する境界上の曲線f1及びf2の値から補正割合F1及びF2を算出する。このとき、補正割合F1が0.25、補正割合F2が0.75と算出されたとすると、基準色変換定義には風景用色変換定義に加えられている彩度圧縮補正を75%の割合で作用させて、補正色変換定義を作成することとなる。このため、補正色変換定義には、基準色変換定義の彩度特性が25%分残したまま、彩度圧縮補正が75%加えられることとなる。 Then, the correction ratios F1 and F2 are calculated from the values of the curves f1 and f2 on the boundary that divides the reference scene and the shooting scene of FIG. 19A by 4: 1 (0.8: 0.2). . At this time, assuming that the correction ratio F1 is calculated as 0.25 and the correction ratio F2 is 0.75, the reference color conversion definition includes the saturation compression correction added to the landscape color conversion definition at a ratio of 75%. In effect, a correction color conversion definition is created. For this reason, 75% of the saturation compression correction is added to the correction color conversion definition while leaving the saturation characteristics of the reference color conversion definition by 25%.
また、基準色変換定義として標準色変換定義が設定されている場合に、撮影シーンが人物撮影シーンであると判別された場合、撮影画像内のオブジェクト構成の差異の度合いを数値化する。即ち、標準色変換定義の指標5が0.5であり、算出した人物撮影シーンの指標5が0.9であった場合は、その差異は0.8((0.9−0.5)/(1−0.5))と算出される。
Further, when the standard color conversion definition is set as the reference color conversion definition and the shooting scene is determined to be a person shooting scene, the degree of difference in object configuration in the shot image is quantified. That is, when the standard color
このとき、上述例と同様に補正割合F1が0.25、補正割合F2が0.75と算出されたとすると、基準色変換定義には人物用色変換定義に加えられている色相圧縮補正を75%分作用させて、補正色変換定義を作成することとなる。このため、補正色変換定義には、基準色変換定義の色相特性を25%分残したまま、色相圧縮補正が75%加えられることとなる。 At this time, if the correction ratio F1 is calculated as 0.25 and the correction ratio F2 is calculated as 0.75 as in the above example, the hue compression correction added to the person color conversion definition is set to 75 in the reference color conversion definition. The correction color conversion definition is created by operating for%. For this reason, 75% of hue compression correction is added to the correction color conversion definition while leaving the hue characteristics of the reference color conversion definition by 25%.
図19(b)に色相圧縮補正を75%分加えた際の、補正色変換定義の色相特性c7の一例を示している。図19(b)に示すように、補正色変換定義の色相特性c7は、人物用色変換定義の色相特性c6に近い特性を有している一方で、基準色変換定義の色相特性c7側の特性も有するようになり、2つの色相特性が混合したものになっている。 FIG. 19B shows an example of the hue characteristic c7 of the corrected color conversion definition when the hue compression correction is added by 75%. As shown in FIG. 19B, the hue characteristic c7 of the correction color conversion definition has a characteristic close to the hue characteristic c6 of the person color conversion definition, but on the side of the hue characteristic c7 of the reference color conversion definition. It also has a characteristic, and two hue characteristics are mixed.
また、例えば、撮影シーンが逆光シーン、人物撮影シーン且つアンダー撮影シーンであると判別された場合は、肌色の色相圧縮をすると共に背景の緑色等の領域には彩度圧縮する補正色変換定義が作成される。また、ストロボ撮影シーン、人物撮影シーン且つアンダー撮影シーンであると判別された場合は、肌色の色相圧縮をすると共に、背景の部分の彩度圧縮は抑えた補正色変換定義が作成される。 Also, for example, when it is determined that the shooting scene is a backlight scene, a person shooting scene, and an under shooting scene, there is a correction color conversion definition that compresses the hue of the skin color and compresses the saturation of the area such as green in the background. Created. When it is determined that the scene is a strobe shooting scene, a person shooting scene, or an under shooting scene, a correction color conversion definition is created that compresses the hue of the skin color and suppresses the saturation compression of the background portion.
このように、基準色変換定義と、撮影シーンに応じたシーン別色変換定義との組み合わせから補正色変換定義を作成することで、少なくとも2つ以上の3D−LUTの色再現特性を有する補正色変換定義が作成される。 As described above, the correction color conversion definition is created from the combination of the reference color conversion definition and the scene-specific color conversion definition corresponding to the shooting scene, so that the correction color having at least two or more 3D-LUT color reproduction characteristics is obtained. A conversion definition is created.
尚、補正割合は、基準色変換定義と、それに対するシーン別色変換定義の割合を、一次線形の割合で設定して、新たな補正用LUTを作成してもよく、その割合は滑らかさを損ねないようにして設定することが望ましい。また、補正割合の算出を図19(a)の曲線f1及びf2から行うこととして説明したが、一次線形の直線を予め設定しておき、この直線に基づいて算出することとしてもよい。 Note that the correction ratio may be set by setting the ratio of the reference color conversion definition and the scene-specific color conversion definition to a linear linear ratio, and a new correction LUT may be created. It is desirable to set so as not to damage. Further, although the correction ratio is calculated from the curves f1 and f2 in FIG. 19A, a linear linear line may be set in advance and calculated based on the straight line.
<LUT作成>
次に、色変換定義作成部711の具体的な動作について図20〜図23を参照して説明する。図20は、標準色変換定義作成部721が実行する標準色変換定義作成処理の処理内容を示すフローチャートである。
<LUT creation>
Next, a specific operation of the color conversion
先ず、標準色変換定義作成部721は、図20のフローチャートの処理を開始するに当たって、図21に示すカラーパッチCPをCRT8や外部プリンタ51に表示及び印刷出力させる。具体的には、図21に示すような9x9x9の均等分割され、32bit刻みのRGBから構成された729点の格子点データを有するパッチ画像データ(sRGB)を作成して、当該パッチ画像データに基づいてカラーパッチCPを出力させる。
First, the standard color conversion
標準色変換定義作成部721は、パッチ画像データに対応する一次独立な3色についての入力信号値(Rj,Gj,Bj,(j=1〜N))を取得する(ステップS40)。そして、カラーパッチP2の測色を行い(ステップS41)、その測色結果をxyz色空間の出力信号値として取得する(ステップS42)。
The standard color conversion
次いで、パッチ画像データの入力信号値(ri,gi,bi、(i=1〜N))と、測色して得られた出力信号値(Rj,Gj,Bj,(j=1〜N))とを対応付けて3D−LUT24を作成する(ステップS43)。 Next, the input signal values (r i , g i , b i , (i = 1 to N)) of the patch image data and the output signal values (R j , G j , B j , ( j = 1 to N)) is created to create the 3D-LUT 24 (step S43).
続いて、標準色変換定義作成部721は、N×N×N段の3D−LUTを体積補間やスプライン補間等の3次元補間によって補間して、各色相についての分割レベル数をN段からM段(M>N)に増大させる。このM段は、M=(N−1)×L+1によって求められ、例えば、分割レベル数を9段から33段に増大させて3D−LUTを作成する。
Subsequently, the standard color conversion
ここで、3D−LUT24の補完方法としては、公知技術の3次元補間や線型補間、面積補間、体積補間等が適用可能であり、体積補間がより好ましい。体積補間としては、例えば、四面体補間、三角柱(プリズム)補間、六面体(立方体)補間、ピラミッド補間及びスプライン補間等が採用可能であり、色再現性の精度の点から、スプライン補間がより好ましい。 Here, as a complementing method of the 3D-LUT 24, three-dimensional interpolation, linear interpolation, area interpolation, volume interpolation, or the like of a known technique can be applied, and volume interpolation is more preferable. As volume interpolation, for example, tetrahedral interpolation, triangular prism (prism) interpolation, hexahedron (cube) interpolation, pyramid interpolation, spline interpolation, and the like can be adopted, and spline interpolation is more preferable in terms of accuracy of color reproducibility.
この標準色変換定義作成処理により得られた3D−LUTを標準色変換定義として色変換定義記憶部730に記憶する。尚、標準色変換定義の作成方法は、特に限定されるわけではなく公知の方法を用いて作成してよい。
The 3D-LUT obtained by this standard color conversion definition creation processing is stored in the color conversion
シーン別色変換定義作成部722は、標準色変換定義作成部721により作成された標準色変換定義の色再現特性を撮影シーンに応じて調整して、撮影シーン別の3D−LUTを作成して色変換定義記憶部730に記憶する。
The scene-specific color conversion
次に、補正色変換定義作成部711の具体的な動作について説明する。補正色変換定義作成部711は、補正方法に応じたシーン別色変換定義と、基準色変換定義との組み合わせから補正色変換定義を作成する。例えば、基準色変換定義が図23に示す入力信号値240と、出力信号値242とを対応付けて記憶しているとする。
Next, a specific operation of the correction color conversion
このとき、図22に示すように上述した色相圧縮補正を行う場合、例えば、肌色〜赤色領域ARにおいて、基準色変換定義の出力信号値をL*a*b*表色系の色度データに換算する(出力信号値244)。そして、色味のない無彩度色に近い色度データの色相を圧縮して、出力信号値246を得る。次いで、その出力信号値246の色度データをxyz値に戻す。
At this time, when the above-described hue compression correction is performed as shown in FIG. 22, for example, the output signal value of the reference color conversion definition is converted into chromaticity data of the L * a * b * color system in the flesh color to red region AR. Conversion is performed (output signal value 244). Then, the hue of chromaticity data close to an achromatic color having no color is compressed to obtain an
そして、その出力信号値246に補正割合F2を乗算した信号値と、基準色変換定義の出力信号値242に補正割合F1を乗算した信号値とを加算することで、補正色変換定義の出力信号値248を生成する。そして、当該出力信号値248と、入力信号値240とを対応付けて補正色変換定義を作成する。
Then, by adding the signal value obtained by multiplying the
尚、色再現に必要な色域を得るために、人物の肌色や空の青色、木々の緑色といった重要色の入力信号として色域の境界、シーン別色変換定義のグレー出力値の値を正確に算出するために、当該重要色を調整データとして用いて、補正色変換定義を作成してもよい。 In order to obtain the color gamut necessary for color reproduction, the color output of the color gamut boundary and the color conversion definition for each scene are accurately used as input signals for important colors such as human skin color, sky blue, and trees green. Therefore, a correction color conversion definition may be created using the important color as adjustment data.
また、シーン別色変換定義は、基準色変換定義をスプライン補間等の3次元補間で再補間して、各色相についてそれぞれ分割レベル数をNからM(M>N、例えばM=(N−1)×L+1)に増大させた高精度(M×M×M段)の3D−LUTを作成後に、求めるシーン別色変換定義の出力信号値になるように色修正を行って作成することとしてもよい。 Further, the color conversion definition for each scene is obtained by re-interpolating the reference color conversion definition by three-dimensional interpolation such as spline interpolation, and dividing the number of division levels for each hue from N to M (M> N, for example, M = (N−1). ) × L + 1) After creating a highly accurate (M × M × M stage) 3D-LUT, color correction may be performed so that the output signal value of the color conversion definition for each scene is obtained. Good.
以上、本実施形態によれば、撮影画像データから判別した撮影シーンに基づいて補正割合を算出し、シーン別色変換定義の色相特性や彩度特性を当該補正割合で基準色変換定義に対して作用させることで、補正色変換定義を作成する。このため、標準色変換定義やシーン別色変換定義を撮影シーンに応じて補正することができるため、人物の顔や風景等の被写体の色再現性の向上を図ることができる。 As described above, according to the present embodiment, the correction ratio is calculated based on the photographic scene determined from the photographic image data, and the hue characteristic and the saturation characteristic of the color conversion definition for each scene are compared with the reference color conversion definition at the correction ratio. By making it act, a correction color conversion definition is created. For this reason, since the standard color conversion definition and the color conversion definition for each scene can be corrected according to the shooting scene, it is possible to improve the color reproducibility of a subject such as a person's face or landscape.
また、撮影シーンに応じて予め記憶・設定された3D−LUTを補正して新たな補正色変換定義を作成するため、膨大な数の3D−LUTを設定しておく必要がない。また、色再現特性を補正した一つの補正色変換定義を用いて色変換を行うため、撮影画像内の色相の繋がりや、顔画像と背景画像との間に不連続が生じてしまうことを防止できる。従って、効率的且つ高精度な色再現を実現することができる。 In addition, since a new correction color conversion definition is created by correcting a 3D-LUT stored and set in advance according to the shooting scene, it is not necessary to set a huge number of 3D-LUTs. In addition, since color conversion is performed using one corrected color conversion definition that corrects the color reproduction characteristics, it is possible to prevent connection of hues in the captured image and discontinuity between the face image and the background image. it can. Therefore, efficient and highly accurate color reproduction can be realized.
尚、上述した実施形態は、本発明を適用した一例であり、その適用可能な範囲は上述したものに限られない。例えば、入力された撮影画像データに縮小処理を施して作成した縮小画像から指標1〜7を求めることとしてもよい。画像サイズを縮小する方法としては、公知の方法(例えば、バイリニア法、バイキュービック法、ニアレストネ−バー法等)を用いることができる。縮小率としては特に限定はないが、処理速度の観点及びシーン判別工程の精度の観点で、元画像の1/2〜1/10程度が好ましい。このように画像サイズを縮小してシーン判別を行うことにより、元画像データを用いてシーン判別を行う場合より、処理時間を短縮することが可能である。 In addition, embodiment mentioned above is an example to which this invention is applied, The applicable range is not restricted to what was mentioned above. For example, the indices 1 to 7 may be obtained from a reduced image created by performing reduction processing on input captured image data. As a method for reducing the image size, a known method (for example, a bilinear method, a bicubic method, a nearest neighbor method, or the like) can be used. The reduction ratio is not particularly limited, but is preferably about 1/2 to 1/10 of the original image from the viewpoint of processing speed and the accuracy of the scene discrimination process. By performing scene discrimination by reducing the image size in this way, the processing time can be shortened compared to the case where scene discrimination is performed using original image data.
1 画像処理装置
5 プリント作成部
8 表示部
51 外部プリンタ
70 画像処理部
701 画像調整処理部
710 シーン解析部
711 色変換定義作成部
712 割合算出部
713 指標算出部
714 画像処理条件算出部
715 表色系変換部
716 ヒストグラム作成部
717 占有率演算部
718 シーン判別部
719 補正方法決定部
720 補正割合算出部
721 標準色変換定義作成部
722 シーン別作成部
723 色変換定義補正部
730 色変換定義記憶部
DESCRIPTION OF SYMBOLS 1
Claims (21)
前記画像データにシーン判別処理を施して撮影シーンを判別する判別手段と、
前記判別手段により判別された撮影シーンに基づいて補正割合を算出する算出手段と、
前記色変換定義データが有する色再現特性に対する前記撮影シーンに応じた補正を、前記補正割合に基づいた度合いで加える補正手段と、
前記補正手段により補正が加えられた色変換定義データに基づいて前記画像データを色変換する色変換手段と、
を備えることを特徴とする画像処理装置。 In an image processing apparatus that outputs image data by performing color conversion based on color conversion definition data,
Discriminating means for discriminating a shooting scene by performing a scene discrimination process on the image data;
Calculating means for calculating a correction ratio based on the shooting scene determined by the determining means;
Correction means for adding a correction according to the shooting scene for the color reproduction characteristics of the color conversion definition data to a degree based on the correction ratio;
Color conversion means for color-converting the image data based on the color conversion definition data corrected by the correction means;
An image processing apparatus comprising:
前記補正手段は、
予め規定された前記色変換定義データの色再現特性に、前記撮影シーンに応じた色変換定義データの色再現特性を前記補正割合に基づいた度合いで作用させることで前記規定された色変換定義データの色再現特性を補正することを特徴とする請求項1に記載の画像処理装置。 A storage means for storing a plurality of color conversion definition data having different color reproduction characteristics;
The correction means includes
The specified color conversion definition data by causing the color reproduction characteristics of the color conversion definition data corresponding to the shooting scene to act on the color reproduction characteristics of the color conversion definition data specified in advance to a degree based on the correction ratio. The image processing apparatus according to claim 1, wherein the color reproduction characteristics of the image processing apparatus are corrected.
前記判別手段により判別された撮影シーンの被写体の構成要件が所定の基準シーンと異なる場合、色相圧縮率の高い色変換定義データを前記規定された色変換定義データに作用させることで補正することを特徴とする請求項2に記載の画像処理装置。 The correction means includes
When the constituent requirements of the subject of the photographic scene determined by the determining means are different from a predetermined reference scene, correction is performed by applying color conversion definition data having a high hue compression ratio to the specified color conversion definition data. The image processing apparatus according to claim 2.
前記判別手段により判別された撮影シーンの輝度構成が所定の基準シーンと異なる場合、彩度圧縮率の高い色変換定義データを前記規定された色変換定義データに作用させることで補正することを特徴とする請求項2又は3に記載の画像処理装置。 The correction means includes
When the luminance configuration of the photographic scene determined by the determining unit is different from a predetermined reference scene, correction is performed by applying color conversion definition data having a high saturation compression rate to the specified color conversion definition data. The image processing apparatus according to claim 2 or 3.
所定の明度と色相の組み合わせからなる領域に前記画像データを分割し、当該分割した領域が当該画像データ全体に占める割合を占有率として当該領域毎に算出する占有率算出手段と、
前記占有率算出手段により算出された領域毎の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための指標を算出する指標算出手段と、
前記指標算出手段により算出された指標に基づいて、前記画像データの撮影シーンを判別するシーン判別手段と、
を有することを特徴とする請求項1〜4の何れか一項に記載の画像処理装置。 The discrimination means includes
An occupancy ratio calculating unit that divides the image data into an area composed of a combination of predetermined brightness and hue, and calculates, for each area, the ratio of the divided area to the entire image data as an occupancy ratio;
An index calculation means for calculating an index for specifying a shooting scene by multiplying the occupation ratio for each area calculated by the occupation ratio calculation means by a coefficient set in advance according to shooting conditions;
Scene discriminating means for discriminating a shooting scene of the image data based on the index calculated by the index calculating means;
The image processing apparatus according to claim 1, further comprising:
前記シーン判別手段は、
前記算出された複数の指標毎に前記画像データの撮影シーンの判別を行うことを特徴とする請求項5に記載の画像処理装置。 The index calculation means calculates a plurality of indexes for specifying the shooting scene,
The scene discrimination means includes
The image processing apparatus according to claim 5, wherein a shooting scene of the image data is determined for each of the plurality of calculated indexes.
前記撮影シーンがストロボ撮影シーンであることを定量的に示す第1の指標を算出する第1指標算出手段と、
前記撮影シーンが逆光シーンであることを定量的に示す第2の指標を算出する第2指標算出手段と、
前記撮影シーンが人物撮影シーンであることを定量的に示す第3の指標を算出する第3指標算出手段と、
を有し、
前記シーン判別手段は、
前記第1の指標、第2の指標及び第3の指標に基づいて、前記画像データの撮影シーンを判別することを特徴とする請求項6又は7に記載の画像処理装置。 The index calculating means includes
First index calculation means for calculating a first index that quantitatively indicates that the shooting scene is a flash shooting scene;
Second index calculating means for calculating a second index quantitatively indicating that the shooting scene is a backlight scene;
Third index calculating means for calculating a third index quantitatively indicating that the shooting scene is a person shooting scene;
Have
The scene discrimination means includes
The image processing apparatus according to claim 6, wherein a shooting scene of the image data is determined based on the first index, the second index, and the third index.
前記画像データにシーン判別処理を施して撮影シーンを判別する判別工程と、
前記判別工程において判別された撮影シーンに基づいて補正割合を算出する算出工程と、
前記色変換定義データが有する色再現特性に対する前記撮影シーンに応じた補正を、前記補正割合に基づいた度合いで加える補正工程と、
前記補正工程において補正が加えられた色変換定義データに基づいて前記画像データを色変換する色変換工程と、
を含むことを特徴とする画像処理方法。 In an image processing method for color-converting and outputting image data based on color conversion definition data,
A determination step of determining a shooting scene by performing a scene determination process on the image data;
A calculation step of calculating a correction ratio based on the shooting scene determined in the determination step;
A correction step of adding correction according to the shooting scene with respect to the color reproduction characteristics of the color conversion definition data to a degree based on the correction ratio;
A color conversion step of color-converting the image data based on the color conversion definition data corrected in the correction step;
An image processing method comprising:
予め規定された前記色変換定義データの色再現特性に、前記撮影シーンに応じた色変換定義データの色再現特性を前記補正割合に基づいた度合いで作用させることで前記規定された色変換定義データの色再現特性を補正することを特徴とする請求項8に記載の画像処理方法。 The correction step includes
The specified color conversion definition data by causing the color reproduction characteristics of the color conversion definition data corresponding to the shooting scene to act on the color reproduction characteristics of the color conversion definition data specified in advance to a degree based on the correction ratio. The image processing method according to claim 8, wherein the color reproduction characteristics of the image are corrected.
前記判別工程において判別された撮影シーンの被写体の構成要件が所定の基準シーンと異なる場合、色相圧縮率の高い色変換定義データを前記規定された色変換定義データに作用させることで補正することを特徴とする請求項9に記載の画像処理方法。 The correction step includes
When the constituent requirements of the subject of the shooting scene determined in the determination step are different from a predetermined reference scene, correction is performed by applying color conversion definition data having a high hue compression rate to the specified color conversion definition data. The image processing method according to claim 9, wherein:
前記判別工程において判別された撮影シーンの輝度構成が所定の基準シーンと異なる場合、彩度圧縮率の高い色変換定義データを前記規定された色変換定義データに作用させることで補正することを特徴とする請求項9又は10に記載の画像処理方法。 The correction step includes
When the luminance configuration of the photographic scene determined in the determination step is different from a predetermined reference scene, correction is performed by causing color conversion definition data having a high saturation compression rate to act on the specified color conversion definition data. The image processing method according to claim 9 or 10.
所定の明度と色相の組み合わせからなる領域に前記画像データを分割し、当該分割した領域が当該画像データ全体に占める割合を占有率として当該領域毎に算出する占有率算出工程と、
前記占有率算出工程において算出された領域毎の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための指標を算出する指標算出工程と、
前記指標算出工程において算出された指標に基づいて、前記画像データの撮影シーンを判別するシーン判別工程と、
を含むことを特徴とする請求項8〜11の何れか一項に記載の画像処理方法。 The discrimination step includes
An occupancy ratio calculating step of dividing the image data into an area composed of a combination of predetermined brightness and hue, and calculating the ratio of the divided area in the entire image data as an occupancy ratio for each area;
An index calculation step of calculating an index for identifying a shooting scene by multiplying the occupation rate for each area calculated in the occupation rate calculation step by a coefficient set in advance according to the shooting conditions;
A scene determination step of determining a shooting scene of the image data based on the index calculated in the index calculation step;
The image processing method according to claim 8, comprising:
前記シーン判別工程は、
前記算出された複数の指標毎に前記画像データの撮影シーンの判別を行うことを特徴とする請求項12に記載の画像処理方法。 The index calculating step calculates a plurality of indices for specifying the shooting scene,
The scene discrimination step includes
The image processing method according to claim 12, wherein a shooting scene of the image data is determined for each of the plurality of calculated indexes.
前記撮影シーンがストロボ撮影シーンであることを定量的に示す第1の指標を算出する第1指標算出工程と、
前記撮影シーンが逆光シーンであることを定量的に示す第2の指標を算出する第2指標算出工程と、
前記撮影シーンが人物撮影シーンであることを定量的に示す第3の指標を算出する第3指標算出工程と、
を有し、
前記シーン判別工程は、
前記第1の指標、第2の指標及び第3の指標に基づいて、前記画像データの撮影シーンを判別することを特徴とする請求項12又は13に記載の画像処理方法。 The index calculation step includes
A first index calculating step for calculating a first index quantitatively indicating that the shooting scene is a flash shooting scene;
A second index calculating step for calculating a second index quantitatively indicating that the shooting scene is a backlight scene;
A third index calculating step of calculating a third index quantitatively indicating that the shooting scene is a person shooting scene;
Have
The scene discrimination step includes
The image processing method according to claim 12 or 13, wherein a shooting scene of the image data is determined based on the first index, the second index, and the third index.
画像データにシーン判別処理を施して撮影シーンを判別する判別手段、
前記判別手段により判別された撮影シーンに基づいて補正割合を算出する算出手段、
前記画像データの色変換に用いる色変換定義データが有する色再現特性に対する前記撮影シーンに応じた補正を、前記補正割合に基づいた度合いで加える補正手段、
前記補正手段により補正が加えられた色変換定義データに基づいて前記画像データを色変換する色変換手段、
として機能させるための画像処理プログラム。 Computer
Discriminating means for discriminating a shooting scene by performing scene discrimination processing on image data,
Calculating means for calculating a correction ratio based on the photographic scene determined by the determining means;
Correction means for adding correction according to the shooting scene to the color reproduction characteristics of the color conversion definition data used for color conversion of the image data in a degree based on the correction ratio,
Color conversion means for color-converting the image data based on the color conversion definition data corrected by the correction means;
Image processing program to function as
前記補正手段は、
予め規定された前記色変換定義データの色再現特性に、前記撮影シーンに応じた色変換定義データの色再現特性を前記補正割合に基づいた度合いで作用させることで前記規定された色変換定義データの色再現特性を補正することを特徴とする請求項15に記載の画像処理プログラム。 Further function as storage means for storing a plurality of color conversion definition data having different color reproduction characteristics,
The correction means includes
The specified color conversion definition data by causing the color reproduction characteristics of the color conversion definition data corresponding to the shooting scene to act on the color reproduction characteristics of the color conversion definition data specified in advance to a degree based on the correction ratio. The image processing program according to claim 15, wherein the color reproduction characteristic is corrected.
前記判別手段により判別された撮影シーンの被写体の構成要件が所定の基準シーンと異なる場合、色相圧縮率の高い色変換定義データを前記規定された色変換定義データに作用させることで補正することを特徴とする請求項16に記載の画像処理プログラム。 The correction means includes
When the constituent requirements of the subject of the photographic scene determined by the determining means are different from a predetermined reference scene, correction is performed by applying color conversion definition data having a high hue compression ratio to the specified color conversion definition data. The image processing program according to claim 16, wherein
前記判別手段により判別された撮影シーンの輝度構成が所定の基準シーンと異なる場合、彩度圧縮率の高い色変換定義データを前記規定された色変換定義データに作用させることで補正することを特徴とする請求項16又は17に記載の画像処理プログラム。 The correction means includes
When the luminance configuration of the photographic scene determined by the determining unit is different from a predetermined reference scene, correction is performed by applying color conversion definition data having a high saturation compression rate to the specified color conversion definition data. The image processing program according to claim 16 or 17.
所定の明度と色相の組み合わせからなる領域に前記画像データを分割し、当該分割した領域が当該画像データ全体に占める割合を占有率として当該領域毎に算出する占有率算出手段と、
前記占有率算出手段により算出された領域毎の占有率に、撮影条件に応じて予め設定された係数を乗算することにより、撮影シーンを特定するための指標を算出する指標算出手段と、
前記指標算出手段により算出された指標に基づいて、前記画像データの撮影シーンを判別するシーン判別手段と、
を有することを特徴とする請求項15〜18の何れか一項に記載の画像処理プログラム。 The discrimination means includes
An occupancy ratio calculating unit that divides the image data into an area composed of a combination of predetermined brightness and hue, and calculates, for each area, the ratio of the divided area to the entire image data as an occupancy ratio;
An index calculation means for calculating an index for specifying a shooting scene by multiplying the occupation ratio for each area calculated by the occupation ratio calculation means by a coefficient set in advance according to shooting conditions;
Scene discriminating means for discriminating a shooting scene of the image data based on the index calculated by the index calculating means;
The image processing program according to claim 15, further comprising:
前記シーン判別手段は、
前記算出された複数の指標毎に前記画像データの撮影シーンの判別を行うことを特徴とする請求項19に記載の画像処理プログラム。 The index calculation means calculates a plurality of indexes for specifying the shooting scene,
The scene discrimination means includes
The image processing program according to claim 19, wherein a shooting scene of the image data is determined for each of the plurality of calculated indexes.
前記撮影シーンがストロボ撮影シーンであることを定量的に示す第1の指標を算出する第1指標算出手段と、
前記撮影シーンが逆光シーンであることを定量的に示す第2の指標を算出する第2指標算出手段と、
前記撮影シーンが人物撮影シーンであることを定量的に示す第3の指標を算出する第3指標算出手段と、
を有し、
前記シーン判別手段は、
前記第1の指標、第2の指標及び第3の指標に基づいて、前記画像データの撮影シーンを判別することを特徴とする請求項19又は20に記載の画像処理プログラム。 The index calculating means includes
First index calculation means for calculating a first index that quantitatively indicates that the shooting scene is a flash shooting scene;
Second index calculating means for calculating a second index quantitatively indicating that the shooting scene is a backlight scene;
Third index calculating means for calculating a third index quantitatively indicating that the shooting scene is a person shooting scene;
Have
The scene discrimination means includes
The image processing program according to claim 19 or 20, wherein a shooting scene of the image data is determined based on the first index, the second index, and the third index.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006137865A JP2007312005A (en) | 2006-05-17 | 2006-05-17 | Image processor, image processing method, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006137865A JP2007312005A (en) | 2006-05-17 | 2006-05-17 | Image processor, image processing method, and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007312005A true JP2007312005A (en) | 2007-11-29 |
Family
ID=38844466
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006137865A Pending JP2007312005A (en) | 2006-05-17 | 2006-05-17 | Image processor, image processing method, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007312005A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113495709A (en) * | 2020-03-20 | 2021-10-12 | 华为技术有限公司 | Color correction method, AP chip, terminal and storage medium |
-
2006
- 2006-05-17 JP JP2006137865A patent/JP2007312005A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113495709A (en) * | 2020-03-20 | 2021-10-12 | 华为技术有限公司 | Color correction method, AP chip, terminal and storage medium |
CN113495709B (en) * | 2020-03-20 | 2024-04-23 | 华为技术有限公司 | Color correction method, AP chip, terminal and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4725057B2 (en) | Generation of image quality adjustment information and image quality adjustment using image quality adjustment information | |
US20010035989A1 (en) | Method, apparatus and recording medium for color correction | |
JP4978378B2 (en) | Image processing device | |
JP2005190435A (en) | Image processing method, image processing apparatus and image recording apparatus | |
US7333136B2 (en) | Image processing apparatus for carrying out tone conversion processing and color correction processing using a three-dimensional look-up table | |
JP2006319714A (en) | Method, apparatus, and program for processing image | |
JP2002344989A (en) | Output image adjustment apparatus for image files | |
JP2005210370A (en) | Image processor, photographic device, image processing method, image processing program | |
WO2006123492A1 (en) | Image processing method, image processing device, imaging device and image processing program | |
JPWO2005112428A1 (en) | Image processing method, image processing apparatus, image recording apparatus, and image processing program | |
US20040036899A1 (en) | Image forming method, image processing apparatus, print producing apparatus and memory medium | |
JP2005192162A (en) | Image processing method, image processing apparatus, and image recording apparatus | |
JP2006318255A (en) | Image processing method, image processor and image processing program | |
WO2006033235A1 (en) | Image processing method, image processing device, imaging device, and image processing program | |
JP2005192158A (en) | Image processing method, image processing apparatus, and image recording apparatus | |
JP2002368982A (en) | Picture processor, picture processing method and recording medium | |
JP2007312125A (en) | Image processor, image processing method, and image processing program | |
JP2007293686A (en) | Imaging apparatus, image processing apparatus, image processing method and image processing program | |
WO2006033236A1 (en) | Image processing method, image processing device, imaging device, and image processing program | |
JP2007221678A (en) | Imaging apparatus, image processor, image processing method and image processing program | |
JP2007312005A (en) | Image processor, image processing method, and image processing program | |
JP2006203571A (en) | Imaging apparatus, image processing apparatus, and image recording apparatus | |
JP2006094000A (en) | Image processing method, image processing apparatus, and image processing program | |
JP3817371B2 (en) | Image processing method, apparatus, and recording medium | |
JP4402041B2 (en) | Image processing method and apparatus, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20070827 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20080221 |