JP2011205275A - Image processor, image processing program, imager, and image display device - Google Patents

Image processor, image processing program, imager, and image display device Download PDF

Info

Publication number
JP2011205275A
JP2011205275A JP2010069171A JP2010069171A JP2011205275A JP 2011205275 A JP2011205275 A JP 2011205275A JP 2010069171 A JP2010069171 A JP 2010069171A JP 2010069171 A JP2010069171 A JP 2010069171A JP 2011205275 A JP2011205275 A JP 2011205275A
Authority
JP
Japan
Prior art keywords
image
adaptation
degree
image processing
observation environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010069171A
Other languages
Japanese (ja)
Other versions
JP5598045B2 (en
Inventor
Erika Koishi
えりか 小石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010069171A priority Critical patent/JP5598045B2/en
Publication of JP2011205275A publication Critical patent/JP2011205275A/en
Application granted granted Critical
Publication of JP5598045B2 publication Critical patent/JP5598045B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image processor capable of reproducing an output image in consideration of an influence by a scene of an image or recognition of an object.SOLUTION: The image processor includes an acquisition portion, an adjustment portion, an input portion, and a reproduction portion. The acquisition portion acquires features of an object imaged in an input image. The adjustment portion adjusts the degree of adaptation for an observation environment of the input image and an observation environment of an output image based on the acquired features. The input portion inputs information about the observation environment of the input image and the observation environment of the output image. The reproduction portion reproduces the appearance of the output image based on the degree of adaptation and the information.

Description

本発明は、画像処理装置、画像処理プログラム、撮像装置及び画像表示装置に関するものである。   The present invention relates to an image processing device, an image processing program, an imaging device, and an image display device.

入力画像データに対して、観察環境における照明の明るさ及び白色点を考慮したカラーマッチング処理を行う画像処理方法が提案されている(例えば、特許文献1参照)。   There has been proposed an image processing method for performing color matching processing on input image data in consideration of illumination brightness and white point in an observation environment (see, for example, Patent Document 1).

特開2001−143065号公報JP 2001-143065 A

ところで、上述の特許文献1記載の画像処理方法では、画像としての見えを再現する際、該画像の色等の視覚による影響のみが考慮され、該画像のシーンや被写体の認識による影響が考慮されていなかった。   By the way, in the image processing method described in Patent Document 1 described above, when the appearance of an image is reproduced, only the visual influence such as the color of the image is considered, and the influence of recognition of the scene and subject of the image is taken into consideration. It wasn't.

本発明の目的は、画像のシーンや被写体の認識による影響が考慮された該画像としての見えを再現可能な画像処理装置、画像処理プログラム、撮像装置及び画像表示装置を提供することである。   An object of the present invention is to provide an image processing device, an image processing program, an imaging device, and an image display device that can reproduce the appearance of an image in consideration of the influence of recognition of an image scene and a subject.

本発明の画像処理装置は、入力画像に写っている被写体の特徴を取得する取得部と、前記特徴に基づいて前記入力画像の観察環境及び出力画像の観察環境への順応度合いを調整する調整部と、前記入力画像及び前記出力画像の観察環境に関する情報を入力する入力部と、前記順応度合い及び前記情報に基づいて前記出力画像の見えを再現する再現部とを備えることを特徴とする。   An image processing apparatus according to the present invention includes an acquisition unit that acquires a feature of a subject in an input image, and an adjustment unit that adjusts the degree of adaptation to the observation environment of the input image and the observation environment of the output image based on the feature. And an input unit that inputs information about the observation environment of the input image and the output image, and a reproduction unit that reproduces the appearance of the output image based on the degree of adaptation and the information.

また、本発明の画像処理プログラムは、コンピュータを、画像の見えを再現する画像処理装置として機能させる画像処理プログラムであって、入力画像に写っている被写体の特徴を取得するステップと、前記特徴に基づいて前記入力画像の観察環境及び出力画像の観察環境への順応度合いを調整するステップと、前記入力画像及び前記出力画像の観察環境に関する情報を入力するステップと、前記順応度合い及び前記情報に基づいて前記出力画像の見えを再現するステップとを含むことを特徴とする。   An image processing program according to the present invention is an image processing program that causes a computer to function as an image processing device that reproduces the appearance of an image, the step of acquiring a feature of a subject in an input image, Based on the step of adjusting the observation environment of the input image and the degree of adaptation of the output image to the observation environment, the step of inputting information on the observation environment of the input image and the output image, the degree of adaptation and the information And reproducing the appearance of the output image.

また、本発明の撮像装置は、被写体を撮像する撮像装置であって、本発明の画像処理装置を備えることを特徴とする。また、本発明の画像表示装置は、画像を表示する画像表示装置であって、本発明の画像処理装置を備えることを特徴とする。   An imaging apparatus according to the present invention is an imaging apparatus that captures an image of a subject, and includes the image processing apparatus according to the present invention. The image display device of the present invention is an image display device that displays an image, and includes the image processing device of the present invention.

本発明の画像処理装置、画像処理プログラム、撮像装置及び画像表示装置によれば、画像のシーンや被写体の認識による影響が考慮された該画像としての見えを良好に再現することができる。   According to the image processing device, the image processing program, the imaging device, and the image display device of the present invention, it is possible to satisfactorily reproduce the appearance of the image in consideration of the influence of the recognition of the scene and subject of the image.

実施の形態に係る画像処理装置の概略構成を模式的に示した図である。1 is a diagram schematically illustrating a schematic configuration of an image processing apparatus according to an embodiment. 実施の形態に係る画像処理装置のシステム構成を示すブロック図である。1 is a block diagram showing a system configuration of an image processing apparatus according to an embodiment. 実施の形態に係る画像処理装置において入力画像データに対して実行される画像処理について説明するためのフローチャートである。5 is a flowchart for explaining image processing executed on input image data in the image processing apparatus according to the embodiment.

以下、図面を参照して、本発明の実施の形態に係る画像処理装置について説明する。画像処理装置とは、例えばパーソナルコンピュータ(PC)、デジタルカメラ等の撮像装置、画像データに基づく画像を液晶画面等に表示するための画像表示装置等、画像データに対して色変換処理等の画像処理を行うことができる装置のことである。この実施の形態では、画像処理装置としてPCを例に挙げて説明する。   Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings. The image processing apparatus is an image such as a personal computer (PC), an imaging apparatus such as a digital camera, an image display apparatus for displaying an image based on the image data on a liquid crystal screen, etc. A device that can perform processing. In this embodiment, a PC will be described as an example of the image processing apparatus.

図1は、この実施の形態に係る画像処理装置としてのPCの概略構成を模式的に示した図である。PC1は、デジタルカメラ2、CD−ROM等により構成される記録媒体3、及びインターネットやその他の電気通信回線5を経由して他のコンピュータ4と接続されている。したがって、PC1は、デジタルカメラ2、記録媒体3及び他のコンピュータ4等から各種の画像データを取得可能かつ取得した画像データに基づく画像をディスプレイ20に表示可能に構成されている。図2は、この実施の形態に係る画像処置装置としてのPC1のシステム構成を示すブロック図である。図2に示すように、PC1の各部を統括的に制御するCPU10には、記録媒体3、USBポート14、ネットワーク端子16、メモリ18、ディスプレイ6、及び操作部22が接続されている。   FIG. 1 is a diagram schematically showing a schematic configuration of a PC as an image processing apparatus according to this embodiment. The PC 1 is connected to another computer 4 via a digital camera 2, a recording medium 3 constituted by a CD-ROM and the like, and the Internet and other electric communication lines 5. Therefore, the PC 1 is configured to be able to acquire various image data from the digital camera 2, the recording medium 3, another computer 4, and the like and to display an image based on the acquired image data on the display 20. FIG. 2 is a block diagram showing a system configuration of the PC 1 as the image processing apparatus according to this embodiment. As shown in FIG. 2, a recording medium 3, a USB port 14, a network terminal 16, a memory 18, a display 6, and an operation unit 22 are connected to the CPU 10 that comprehensively controls each unit of the PC 1.

USBポート12は、USB機器を接続するためのものであり、この実施の形態では、デジタルカメラ2がUSBポート12を介してPC1に接続されている。ネットワーク端子14は、インターネット等のネットワークに接続するために用いられ、この実施の形態では、他のコンピュータ4がネットワーク端子14を介してPC1に接続されている。メモリ18には、CPU10に実行させるための制御プログラム等が記憶されている。ディスプレイ6には、デジタルカメラ2、記録媒体3、他のコンピュータ4等から入力される入力画像データに対してCPU10により画像処理が施された出力画像データに基づく出力画像を表示する。操作部22は、ユーザーにより操作される操作部材、例えば、キーボードやポインティングデバイス等を備えて構成されている。   The USB port 12 is for connecting a USB device. In this embodiment, the digital camera 2 is connected to the PC 1 via the USB port 12. The network terminal 14 is used to connect to a network such as the Internet. In this embodiment, another computer 4 is connected to the PC 1 via the network terminal 14. The memory 18 stores a control program for causing the CPU 10 to execute. The display 6 displays an output image based on output image data obtained by performing image processing by the CPU 10 on input image data input from the digital camera 2, the recording medium 3, another computer 4, or the like. The operation unit 22 includes an operation member operated by a user, such as a keyboard and a pointing device.

この実施の形態に係るPC1では、デジタルカメラ2、記録媒体3、他のコンピュータ4等から入力された入力画像データに対して画像処理が施される。なお、PC1が画像処理のために実行する画像処理プログラムは、記録媒体3、インターネットやその他の電気通信回線を経由した他のコンピュータ4等からダウンロードされ、メモリ18に記憶され、PC1にインストールされる。以下、図3に示すフローチャートを参照して、この実施の形態に係るPC1において入力画像データに対して実行される画像処理について説明する。   In the PC 1 according to this embodiment, image processing is performed on input image data input from the digital camera 2, the recording medium 3, another computer 4, and the like. An image processing program executed by the PC 1 for image processing is downloaded from the recording medium 3, another computer 4 via the Internet or other electric communication line, etc., stored in the memory 18, and installed in the PC 1. . Hereinafter, with reference to the flowchart shown in FIG. 3, the image processing executed on the input image data in the PC 1 according to this embodiment will be described.

まず、CPU10は、入力画像データを取得する(ステップS10)。この実施の形態では、デジタルカメラ2により撮影された撮影画像の画像データを、入力画像データとして取得するものとする。ステップS10において取得した入力画像データは、カメラの分光感度に固有の色空間RGBにより構成されている。   First, the CPU 10 acquires input image data (step S10). In this embodiment, it is assumed that image data of a photographed image photographed by the digital camera 2 is acquired as input image data. The input image data acquired in step S10 is composed of a color space RGB unique to the spectral sensitivity of the camera.

次に、CPU10は、入力画像の観察環境に関する情報を取得する(ステップS11)。具体的には、入力画像の観察環境に関する情報として、入力画像がデジタルカメラ2により撮影された際における撮影シーンの照明に関する情報を取得する。即ち、撮影シーンの照明白色点(X,Y,Z)、輝度YW0、及び周囲輝度YSW0を取得する。例えば、ユーザー(観察者)が分光放射輝度計などを用いて白色点及び輝度を測定し、測定結果をキーボードから入力した値を読み込む。または、デジタルカメラ2に設けられているオートホワイトバランス機能を用いて撮影時の照明白色点(X,Y,Z)を算出し、露出(AE)の自動調整に用いる測光機能の結果を解析することにより撮影時の照明輝度YW0を算出し、測光機能の測光範囲を広げて測光した結果を用いて周囲輝度YSW0を算出することもできる。または、撮影時に入力画像データに付加された情報をデジタルカメラ2から取得し、またはユーザーに操作部22を介して入力させ、付加された情報から照明白色点(X,Y,Z)、輝度YW0、及び周囲輝度YSW0を取得することもできる。 Next, the CPU 10 acquires information related to the observation environment of the input image (step S11). Specifically, as information related to the observation environment of the input image, information related to illumination of the shooting scene when the input image is captured by the digital camera 2 is acquired. That is, the illumination white point (X W , Y W , Z W ), luminance Y W0 , and ambient luminance Y SW0 of the shooting scene are acquired. For example, a user (observer) measures a white point and luminance using a spectral radiance meter or the like, and reads a value obtained by inputting a measurement result from a keyboard. Alternatively, the result of the photometric function used for automatically adjusting the exposure (AE) by calculating the illumination white point (X W , Y W , Z W ) at the time of shooting using the auto white balance function provided in the digital camera 2 The illumination brightness YW0 at the time of photographing can be calculated by analyzing the above, and the ambient brightness YSW0 can be calculated using the result of photometry with the photometry range of the photometry function expanded. Alternatively, information added to the input image data at the time of shooting is acquired from the digital camera 2 or is input by the user via the operation unit 22, and the illumination white point (X W , Y W , Z W ) is determined from the added information. , Luminance Y W0 , and ambient luminance Y SW0 can also be acquired.

次に、CPU10は、出力画像を観察する際の観察環境に関する情報を取得する(ステップS12)。この実施の形態では、ディスプレイ6に表示される出力画像を視認することによりユーザーは出力画像を観察する。したがって、CPU10は、例えば標準観察環境下においてディスプレイ6に出力画像を表示させるものとして、sRGB標準観察環境に関する情報(白色点=D65、輝度Ydevice0´=80Cd/m2、周囲輝度YSW0´=4.1Cd/m2)を取得する。なお、sRGB標準観察環境と異なる観察環境下において出力画像を観察する場合、プリントアウトした印刷物で出力画像を観察する場合等には、CPU10は、まず、ユーザーにより操作部22を介して入力される周囲照明白色点(XSW´,YSW´,ZSW´)、周囲照明輝度YSW0´、出力画像観察に用いられるデバイスの白色点(Xdevice´,Ydevice´,Zdevice´)、及び該デバイスの輝度Ydevice0´、を読み込む。そして、周囲照明白色点とデバイスの白色点とを混合させたものを、出力画像を観察する際の観察環境での照明白色点(X´,Y´,Z´)、周囲照明輝度とデバイスの輝度とを混合させたものを、輝度YW0´として用いることもできる。 Next, CPU10 acquires the information regarding the observation environment at the time of observing an output image (step S12). In this embodiment, the user observes the output image by visually recognizing the output image displayed on the display 6. Therefore, for example, the CPU 10 displays an output image on the display 6 under the standard observation environment. Information regarding the sRGB standard observation environment (white point = D65, luminance Y device0 ′ = 80Cd / m2, ambient luminance Y SW0 ′ = 4 .1Cd / m2). When the output image is observed under an observation environment different from the sRGB standard observation environment, or when the output image is observed with a printed matter printed out, the CPU 10 is first input by the user via the operation unit 22. Ambient illumination white point (X SW ′, Y SW ′, Z SW ′), ambient illumination luminance Y SW0 ′, white point of the device used for output image observation (X device ′, Y device ′, Z device ′), and The brightness Y device0 ′ of the device is read. Then, a mixture of the ambient illumination white point and the device white point is used as an illumination white point (X W ′, Y W ′, Z W ′) and ambient illumination brightness in the observation environment when observing the output image. Can be used as the luminance Y W0 ′.

次に、CPU10は、入力画像の特徴を取得する(ステップS13)。この実施の形態では、入力画像の特徴として、入力画像の撮影シーンや主要被写体情報を取得する。具体的には、デジタルカメラ2に設けられているシーン認識機能により認識される海やポートレート等の撮影シーンに関する情報(例えば、入力画像データに付加されている)をデジタルカメラ2から取得する。また、デジタルカメラ2に設けられている顔認識機能により認識される人物を主要被写体とする場合の主要被写体情報(例えば、入力画像データに付加されている)をデジタルカメラ2から取得することもできる。また、撮影時に撮影者により入力された撮影シーンや主要被写体情報をデジタルカメラ2から取得してもよく、ユーザーにより操作部22を介して入力される撮影シーンや主要被写体情報を取得してもよい。   Next, the CPU 10 acquires the characteristics of the input image (step S13). In this embodiment, the shooting scene of the input image and main subject information are acquired as features of the input image. Specifically, information relating to a photographic scene such as the sea and portrait recognized by the scene recognition function provided in the digital camera 2 (for example, added to the input image data) is acquired from the digital camera 2. Also, main subject information (for example, added to input image data) when a person recognized by the face recognition function provided in the digital camera 2 is a main subject can be acquired from the digital camera 2. . Further, the shooting scene and main subject information input by the photographer at the time of shooting may be acquired from the digital camera 2, and the shooting scene and main subject information input by the user via the operation unit 22 may be acquired. .

次に、CPU10は、ステップS13において取得した入力画像の撮影シーンや主要被写体情報に基づいて、入力画像の観察環境及び出力画像の観察環境への順応度合いα(0.0≦α≦1.0)を調整する(ステップS14)。具体的には、海、ポートレート(肌の色)、バナナ等の色が特徴的な被写体の情報及び各被写体に対応する順応度合いαをテーブル形式で予め登録し、メモリ18等に保存する。そして、入力画像中に色が特徴的な被写体が存在するか否かを判別し、色が特徴的な被写体が存在する場合には、登録されている被写体の情報の中からその被写体と一致する被写体の情報を読込み、予め登録されている順応度合いαに設定する。即ち、色が特徴的な被写体が存在する場合には、順応度合いαを上げる(例えばα=0.9に設定する)。   Next, the CPU 10 adjusts the degree α of adaptation to the observation environment of the input image and the observation environment of the output image based on the shooting scene and main subject information of the input image acquired in step S13 (0.0 ≦ α ≦ 1.0). ) Is adjusted (step S14). Specifically, information on subjects having a characteristic color such as sea, portrait (skin color), banana, and the like, and the degree of adaptation α corresponding to each subject are registered in advance in a table format and stored in the memory 18 or the like. Then, it is determined whether or not there is a subject with a characteristic color in the input image. If there is a subject with a characteristic color, it matches the subject from the registered subject information. The information of the subject is read and the adaptation degree α registered in advance is set. That is, when there is a subject with a characteristic color, the adaptation degree α is increased (for example, α = 0.9 is set).

また、色が特徴的な被写体の撮影画面に対する大きさ、位置、及び合焦度の少なくとも一つに基づいて、順応度合いαを調整することもできる。例えば、被写体の撮影画面に対する大きさが大きい場合には、小さい場合と比較して順応度合いαを上げる。同様に、被写体の撮影画面に対する位置が中心の場合には、端の場合と比較して順応度合いαを上げ、被写体の合焦度が高い場合には、低い場合と比較して順応度合いαを上げる。   In addition, the adaptation degree α can be adjusted based on at least one of the size, position, and degree of focus of the subject with a characteristic color on the shooting screen. For example, when the size of the subject with respect to the shooting screen is large, the degree of adaptation α is increased compared to the case where the size is small. Similarly, when the position of the subject with respect to the shooting screen is the center, the degree of adaptation α is increased as compared to the case of the edge, and when the degree of focus of the subject is high, the degree of adaptation α is compared with the case of low. increase.

また、色が特徴的な被写体が複数存在する場合には、登録されている各被写体の順応度合いを読込み、各順応度合いの平均値を算出し、算出された平均値を順応度合いαとして設定する。また、複数の被写体の撮影画面に対する大きさ、位置及び合焦度の少なくとも一つに応じて、各被写体の順応度合いの重み付けを行い、各順応度合いの重み付け平均値を算出し、算出された重み付け平均値を順応度合いαとして設定することもできる。また、色が特徴的な被写体が複数存在する場合には、登録されている各被写体に対応する順応度合いを読込み、一の被写体に対応する順応度合いから他の被写体に対応する順応度合いへと段階的に変化するように順応度合いαを設定することもできる。また、被写体を照明する照明条件と背景を照明する照明条件とが異なる場合には、被写体に対応する順応度合いから背景に対応する順応度合いへと段階的に変化するように順応度合いを設定することもできる。一方、色が特徴的な被写体が存在しない場合には、順応度合いαを0.0に設定する。   When there are a plurality of subjects with characteristic colors, the degree of adaptation of each registered subject is read, the average value of each degree of adaptation is calculated, and the calculated average value is set as the degree of adaptation α. . In addition, according to at least one of the size, position, and degree of focus of a plurality of subjects on the shooting screen, weighting of the degree of adaptation of each subject is performed, a weighted average value of each degree of adaptation is calculated, and the calculated weighting The average value can also be set as the adaptation degree α. In addition, when there are a plurality of subjects with distinctive colors, the degree of adaptation corresponding to each registered subject is read, and the degree of adaptation corresponding to one subject is gradually changed to the degree of adaptation corresponding to another subject. It is also possible to set the adaptation degree α so as to change. In addition, if the lighting conditions for illuminating the subject and the lighting conditions for illuminating the background are different, the degree of adaptation should be set so as to gradually change from the degree of adaptation corresponding to the subject to the degree of adaptation corresponding to the background. You can also. On the other hand, when there is no subject with a characteristic color, the adaptation degree α is set to 0.0.

次に、CPU10は、ステップS14において調整された順応度合いαに基づいて、色順応変換処理を行う(ステップS15)。具体的には、ステップS14において調整された順応度合いαを考慮しつつ、入力画像の観察環境への順応度合いを示す順応ファクタDを、及び出力画像の観察環境への順応度合いを示す順応ファクタD´を各観察環境における照明輝度及び周囲の明るさから算出する(数1及び数2参照)。

Figure 2011205275
Figure 2011205275
Next, the CPU 10 performs chromatic adaptation conversion processing based on the adaptation degree α adjusted in step S14 (step S15). Specifically, the adaptation factor D indicating the degree of adaptation of the input image to the observation environment and the adaptation factor D indicating the degree of adaptation of the output image to the observation environment while considering the degree of adaptation α adjusted in step S14. 'Is calculated from the illumination brightness and ambient brightness in each observation environment (see Equations 1 and 2).
Figure 2011205275
Figure 2011205275

ここで、LA、LA´は順応輝度を示し、順応輝度LA、LA´は入力画像、出力画像の観察環境において順応している輝度のことであり、通常照明輝度の約1/5である。また、F、F´は、入力画像、出力画像の観察環境における照明輝度と周囲輝度の比に応じて決まるパラメータである。   Here, LA and LA ′ indicate the adaptation luminance, and the adaptation luminances LA and LA ′ are the luminances that are adapted in the observation environment of the input image and the output image, and are about 1/5 of the normal illumination luminance. F and F ′ are parameters determined according to the ratio of the illumination luminance and the ambient luminance in the observation environment of the input image and the output image.

入力画像はデバイス依存の色空間RGBで記述されているので、デバイスに依存しない色空間であるCIE 1931 XYZ色空間へ色変換する。この実施の形態では、入力画像は、デジタルカメラ2で撮影された撮影画像であるため、カメラの分光感度で決まる固有の色空間RGBで記述されている。したがって、予め決まっているカメラRGB→XYZマトリックスMRGB→XYZ を使用して、デバイスに依存しないXYZ色空間へ色変換する。または、入力画像が標準の色空間(例えばsRGB等)にエンコーディングされている場合には、標準の色変換マトリックスMRGB→XYZを使用して、デバイスに依存しないXYZ色空間へ色変換する。更にXYZから錐体応答LMSへマトリックスMCAT02を用いて色変換する。LMS空間で入力画像、出力画像の観察環境における照明白色点(X,Y,Z)、(X´,Y´,Z´)と順応ファクタD、D´を用いてvon Kriesの色順応変換を行い、LMSからXYZ、XYZから出力機器のRGBへ逆変換を行う。即ち、次式(数3〜数7参照)に示すような色変換を各画素について行う。

Figure 2011205275
Since the input image is described in the device-dependent color space RGB, color conversion is performed into the CIE 1931 XYZ color space, which is a device-independent color space. In this embodiment, since the input image is a captured image captured by the digital camera 2, it is described in a specific color space RGB determined by the spectral sensitivity of the camera. Therefore, color conversion is performed to a device-independent XYZ color space using a predetermined camera RGB → XYZ matrix M RGB → XYZ . Alternatively, when the input image is encoded in a standard color space (for example, sRGB), the standard color conversion matrix M RGB → XYZ is used to perform color conversion into an XYZ color space that does not depend on the device. Further, color conversion is performed from XYZ to cone response LMS using matrix MCAT02 . Using the illumination white points (X W , Y W , Z W ), (X W ′, Y W ′, Z W ′) and the adaptation factors D, D ′ in the observation environment of the input image and the output image in the LMS space Kries color adaptation conversion is performed, and LMS is converted to XYZ, and XYZ is converted back to RGB of the output device. That is, color conversion as shown in the following equation (see Equations 3 to 7) is performed for each pixel.
Figure 2011205275

但し、

Figure 2011205275
Figure 2011205275
Figure 2011205275
Figure 2011205275
Figure 2011205275
However,
Figure 2011205275
Figure 2011205275
Figure 2011205275
Figure 2011205275
Figure 2011205275

なお、上記の説明では、出力画像の観察環境における照明白色点として(X´,Y´,Z´)を用いたが、出力画像観察時のデバイスの白色点(Xdevice´,Ydevice´,Zdevice´)と周囲照明白色点(XSW´,YSW´,ZSW´)とが異なっている場合、デバイス白色点と周囲照明白色点の混合として出力画像の観察環境における照明白色点 (X´,Y´,Z´)と照明輝度Ywo´を決定する。具体的には、デバイス輝度Ydevice0´、周囲照明輝度YSW0´、画像観察に使用するデバイス光源と周囲照明光源の影響の比率Rmixを用いて、次式(数9〜数11参照)に示すように算出する。

Figure 2011205275
Figure 2011205275
Figure 2011205275
In the above description, (X W ′, Y W ′, Z W ′) is used as the illumination white point in the output image observation environment. However, the device white point (X device ′, Y at the time of output image observation) is used. If the device ', Z device ') and the ambient illumination white point (X SW ', Y SW ', Z SW ') are different, the illumination in the viewing environment of the output image as a mixture of the device white point and the ambient illumination white point The white point (X W ′, Y W ′, Z W ′) and the illumination brightness Y wo ′ are determined. Specifically, using the device luminance Y device0 ′, the ambient illumination luminance Y SW0 ′, and the ratio R mix of the influence of the device light source used for image observation and the ambient illumination light source, the following equation (see Equations 9 to 11) is given. Calculate as shown.
Figure 2011205275
Figure 2011205275
Figure 2011205275

次に、CPU10は、出力画像の見えを再現する(ステップS16)。この実施の形態では、出力画像をディスプレイ6に表示する。   Next, the CPU 10 reproduces the appearance of the output image (step S16). In this embodiment, the output image is displayed on the display 6.

この実施の形態に係る画像処理装置としてのPC1によれば、入力画像の特徴、即ち撮影シーンや主要被写体情報を取得し、色が特徴的な被写体が存在する場合には、入力画像の観察環境及び出力画像の観察環境への順応度合いを上げる。したがって、入力画像の撮影シーンや被写体の認識による影響を考慮した出力画像を良好に再現することができる。   According to the PC 1 as the image processing apparatus according to the present embodiment, the features of the input image, that is, the shooting scene and main subject information are acquired. In addition, the degree of adaptation of the output image to the observation environment is increased. Therefore, it is possible to satisfactorily reproduce the output image in consideration of the effect of the input image shooting scene and subject recognition.

従来では、照明の白色点、輝度及び周囲の明るさ等の観察環境が異なる条件下においては、色の見えが異なり、このような観察環境を考慮した色の見えモデルとしてCIECAM97sやCIECAM02などがあった。例えば、モニタの観察条件として、モニタの白やモニタ輝度に依存する値として三刺激値XYZや順応輝度Laなどを算出し、色の見えモデルに適用していた。視覚は、輝度が高ければ高い程、その観察環境の白色点に順応するため、その観察環境の白色点が「白」に近く見えるようになる。そして、CIECAM02等の色の見えモデルにおいては、このような視覚特性を反映させて、観察環境の白色点に順応している度合いを示す順応ファクタを、その観察環境における照明輝度、周囲の明るさの関数で算出していた。   Conventionally, the color appearance is different under different observation environments such as the white point of illumination, brightness, and ambient brightness, and CIECAM97s and CIECAM02 are examples of color appearance models that take into account such an observation environment. It was. For example, tristimulus values XYZ, adaptation luminance La, and the like are calculated as the monitor viewing conditions as values depending on the monitor white and monitor luminance, and are applied to the color appearance model. The higher the luminance, the more the white point of the observation environment adapts to the white point of the observation environment, so that the white point of the observation environment appears closer to “white”. In a color appearance model such as CIECAM02, an adaptation factor indicating the degree of adaptation to the white point of the observation environment, reflecting such visual characteristics, is set as illumination luminance and ambient brightness in the observation environment. It was calculated by the function of

即ち、上述の従来の色の見えモデルでは、視覚による影響(色順応など)のみを考慮しているため、色パッチの見えに対しては近い見えを再現していた。しかしながら、本来人は、画像や実シーン等を、視覚が取得した信号を脳で処理した結果として見ており、そのような画像や実シーン等を見ている場合のシーンや被写体の認識による影響を考慮していないため、画像や実シーン等の見えに対して近い見えを再現できない場合があった。即ち、海や空、人の肌やバナナの色等、これらのシーンやモノの色に対する情報が予め人の脳にインプットされており、従来の色の見えモデルにおいては、これら認識が考慮されていなかったが、この実施の形態においては、これら認識が考慮されているため、画像や実シーン等の見えに対して近い見えを再現することができる。   That is, in the above-described conventional color appearance model, only the visual influence (such as chromatic adaptation) is taken into consideration, so that the appearance close to the appearance of the color patch is reproduced. However, humans originally view images, actual scenes, etc. as a result of visual processing of signals acquired by vision, and the effects of recognition of scenes and subjects when viewing such images, actual scenes, etc. In view of this, there is a case where an appearance close to the appearance of an image or an actual scene cannot be reproduced. In other words, information on the colors of these scenes and objects, such as the sea, sky, human skin, and banana color, is input to the human brain in advance, and these recognitions are taken into consideration in the conventional color appearance model. However, in this embodiment, since these recognitions are taken into consideration, it is possible to reproduce an appearance close to the appearance of an image or an actual scene.

なお、上述の実施の形態においては、入力画像の観察環境及び出力画像の観察環境への順応度合いαを、入力画像の撮影シーンや主要被写体情報に基づいて調整しているが、出力画像を視認するユーザーにとっての見えに応じて順応度合いαを調整してもよい。この場合には、調整後の順応度合いαをユーザーにより変更することができる機能を設け、ユーザーにより順応度合いαが変更された場合には、CPU10は、その変更に関する情報をメモリ18に記憶させる。そして、CPU10は、過去に変更された回数や、変更前と変更後との差等を考慮し、順応度合いαを調整する。例えば、赤い照明下で撮影した入力画像に対して、出力画像の見えが赤過ぎると感じるユーザーに対しては、順応度合いαを上げて、赤い照明下で撮影した入力画像に対して、出力画像の見えに赤が足りないと感じるユーザーに対しては、順応度合いαを下げる。   In the above-described embodiment, the degree α of adaptation to the observation environment of the input image and the observation environment of the output image is adjusted based on the shooting scene of the input image and main subject information. The degree of adaptation α may be adjusted according to the appearance to the user. In this case, a function is provided that allows the user to change the adjusted adaptation degree α. When the adaptation degree α is changed by the user, the CPU 10 stores information related to the change in the memory 18. Then, the CPU 10 adjusts the degree of adaptation α in consideration of the number of changes in the past, the difference between before and after the change, and the like. For example, for a user who feels that the output image looks too red for an input image taken under red illumination, the adaptation level α is increased and the output image is taken against an input image taken under red illumination. If the user feels red is not enough, the degree of adaptation α is lowered.

また、上述の実施の形態においては、入力画像がデジタルカメラ2により撮影された撮影画像である場合を例に挙げて説明したが、入力画像が撮影画像以外の画像である場合においても本発明を適用することができる。例えば、モニタによる入力画像の見えを印刷による出力画像の見えに再現するような場合、即ち、入力画像観察時の入力画像の見えを出力画像観察時の出力画像の見えに再現する場合においても本発明を適用することができる。この場合には、図3に示すステップS10において、撮影画像の代わりに入力画像観察時の画像を取得し、ステップS11において、撮影時の観察環境の代わりに、入力画像観察時の観察環境を取得する。   In the above-described embodiment, the case where the input image is a captured image captured by the digital camera 2 has been described as an example. However, the present invention can be applied to a case where the input image is an image other than the captured image. Can be applied. For example, when the appearance of the input image on the monitor is reproduced to the appearance of the output image by printing, that is, when the appearance of the input image at the time of observing the input image is reproduced as the appearance of the output image at the time of observing the output image. The invention can be applied. In this case, in step S10 shown in FIG. 3, an image at the time of observing the input image is obtained instead of the photographed image, and at step S11, an observation environment at the time of observing the input image is obtained instead of the observation environment at the time of photographing. To do.

また、上述の実施の形態においては、本発明の画像処理装置としてPCを例に挙げて説明したが、デジタルカメラ等の撮像装置においても本発明を適用することができる。この場合には、デジタルカメラに設けられているCPUが、ユーザー指定の出力画像観察時の観察環境を取得し、取得した出力画像観察時の観察環境、デジタルカメラにおいて撮影した撮影画像、及び撮影画像の撮影シーンにより指定される観察環境に基づいて出力画像を作成し、作成された出力画像をデジタルカメラに設けられているメモリ等に保存する。なお、ユーザーが出力画像観察時の観察環境を指定しない場合には、sRGB観察環境等の標準観察環境を用いる。   In the above-described embodiment, the PC is described as an example of the image processing apparatus of the present invention. However, the present invention can also be applied to an imaging apparatus such as a digital camera. In this case, the CPU provided in the digital camera acquires the observation environment at the time of observing the output image specified by the user, the acquired observation environment at the time of observing the output image, the captured image captured by the digital camera, and the captured image An output image is created based on the observation environment specified by the shooting scene, and the created output image is stored in a memory or the like provided in the digital camera. When the user does not designate an observation environment for observing the output image, a standard observation environment such as an sRGB observation environment is used.

また、デジタルカメラがオートホワイトバランス機能を備えている場合において、デジタルカメラにおいてホワイトバランスを合わせる際に本発明を適用することができる。具体的には、撮影する撮影シーンや被写体の特徴を取得し、取得した特徴に応じて順応度合いαを調整し、調整された順応度合いαをホワイトバランスのゲイン値に反映させる。順応度合いαをホワイトバランスのゲイン値に反映させることにより、色が特徴的な撮影シーンや被写体等、撮影する撮影シーンや被写体の認識による影響を考慮した撮影画像を得ることができる。   In addition, when the digital camera has an auto white balance function, the present invention can be applied when white balance is adjusted in the digital camera. Specifically, the characteristics of the shooting scene and subject to be photographed are acquired, the adaptation degree α is adjusted according to the acquired characteristics, and the adjusted adaptation degree α is reflected in the gain value of the white balance. By reflecting the adaptation degree α on the gain value of the white balance, it is possible to obtain a photographed image that takes into consideration the influence of recognition of the photographed scene and subject such as a photographed scene and subject having a characteristic color.

また、上述の実施の形態においては、色の見えモデルにおける色順応変換処理としてvon Kriesの色順応変換処理を例に挙げて説明したが、他の色の見えモデルにおける色順応変換処理においても本発明を適用することができる。   In the above-described embodiment, the von Kries chromatic adaptation conversion process has been described as an example of the chromatic adaptation conversion process in the color appearance model. The invention can be applied.

また、上述の実施の形態においては、メモリ18等からPC1に画像処理を実行させる画像処理プログラムを読み込んで実行している。即ち、上述の実施の形態で用いられている画像処理プログラムは、PC1を、画像の見えを再現する画像処理装置として機能させる画像処理プログラムであって、入力画像の特徴を取得するステップと、取得した入力画像の特徴に基づいて入力画像の観察環境及び出力画像の観察環境への順応度合いを調整するステップと、入力画像の観察環境に関する情報及び出力画像の観察環境に関する情報を入力するステップと、調整された入力画像の観察環境及び出力画像の観察環境への順応度合い、及び入力された入力画像の観察環境に関する情報及び出力画像の観察環境に関する情報に基づいて出力画像の見えを再現するステップとを実行させている。したがって、上述の実施の形態で用いられている画像処理プログラムによれば、入力画像のシーンや被写体の認識による影響を考慮した出力画像を良好に再現することができる。   In the above-described embodiment, an image processing program for causing the PC 1 to execute image processing is read from the memory 18 or the like and executed. In other words, the image processing program used in the above-described embodiment is an image processing program that causes the PC 1 to function as an image processing device that reproduces the appearance of an image. Adjusting the degree of adaptation to the observation environment of the input image and the observation environment of the output image based on the characteristics of the input image, inputting information regarding the observation environment of the input image and information regarding the observation environment of the output image, Reproducing the appearance of the output image based on the adjusted degree of adaptation of the input image to the observation environment and the output image to the observation environment, information on the input environment of the input image and information on the observation environment of the output image; Is running. Therefore, according to the image processing program used in the above-described embodiment, it is possible to satisfactorily reproduce the output image in consideration of the influence of the recognition of the scene and subject of the input image.

また、本発明は、上述の実施の形態において説明した内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。   Further, the present invention is not limited to the contents described in the above embodiment. Other embodiments conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention.

1…パーソナルコンピュータ(PC)、2…デジタルカメラ、3…記録媒体、4…他のコンピュータ、6…ディスプレイ、10…CPU。   DESCRIPTION OF SYMBOLS 1 ... Personal computer (PC), 2 ... Digital camera, 3 ... Recording medium, 4 ... Other computer, 6 ... Display, 10 ... CPU.

Claims (9)

入力画像に写っている被写体の特徴を取得する取得部と、
前記特徴に基づいて前記入力画像の観察環境及び出力画像の観察環境への順応度合いを調整する調整部と、
前記入力画像及び前記出力画像の観察環境に関する情報を入力する入力部と、
前記順応度合い及び前記情報に基づいて前記出力画像の見えを再現する再現部と、
を備えることを特徴とする画像処理装置。
An acquisition unit that acquires the characteristics of the subject in the input image;
An adjustment unit that adjusts the degree of adaptation to the observation environment of the input image and the observation environment of the output image based on the characteristics;
An input unit for inputting information regarding an observation environment of the input image and the output image;
A reproduction unit that reproduces the appearance of the output image based on the degree of adaptation and the information;
An image processing apparatus comprising:
前記調整部は、前記順応度合いを上げることを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the adjustment unit increases the degree of adaptation. 前記調整部は、前記入力画像における主要被写体の大きさ、位置、及び合焦度の少なくとも1つに基づいて前記順応度合いを調整することを特徴とする請求項1または請求項2記載の画像処理装置。   The image processing according to claim 1, wherein the adjustment unit adjusts the degree of adaptation based on at least one of a size, a position, and a focus degree of a main subject in the input image. apparatus. 前記順応度合いを変更可能な変更部を備え、
前記調整部は、前記変更部による過去の変更結果に基づいて、前記順応度合いを調整することを特徴とする請求項1〜請求項3の何れか一項に記載の画像処理装置。
A changing unit capable of changing the degree of adaptation;
The image processing apparatus according to claim 1, wherein the adjustment unit adjusts the degree of adaptation based on a past change result by the change unit.
前記取得部は、複数の前記特徴を取得し、
前記調整部は、各特徴に基づく各順応度合いの平均順応度合いを調整することを特徴とする請求項1〜請求項4の何れか一項に記載の画像処理装置。
The acquisition unit acquires a plurality of the features,
The image processing apparatus according to any one of claims 1 to 4, wherein the adjustment unit adjusts an average adaptation degree of each adaptation degree based on each feature.
前記取得部は、前記特徴として第1特徴及び第2特徴を取得し、
前記調整部は、前記第1特徴に基づく第1順応度合いから、前記第2特徴に基づく第2順応度合いへと段階的に変化するように前記順応度合いを調整することを特徴とする請求項1〜請求項4の何れか一項に記載の画像処理装置。
The acquisition unit acquires the first feature and the second feature as the feature,
The adjustment unit adjusts the adaptation degree so as to gradually change from a first adaptation degree based on the first feature to a second adaptation degree based on the second feature. The image processing apparatus according to claim 4.
コンピュータを、画像の見えを再現する画像処理装置として機能させる画像処理プログラムであって、
入力画像に写っている被写体の特徴を取得するステップと、
前記特徴に基づいて前記入力画像の観察環境及び出力画像の観察環境への順応度合いを調整するステップと、
前記入力画像及び前記出力画像の観察環境に関する情報を入力するステップと、
前記順応度合い及び前記情報に基づいて前記出力画像の見えを再現するステップと、
を含むことを特徴とする画像処理プログラム。
An image processing program that causes a computer to function as an image processing device that reproduces the appearance of an image,
Obtaining the characteristics of the subject in the input image;
Adjusting the degree of adaptation to the observation environment of the input image and the observation environment of the output image based on the characteristics;
Inputting information relating to the observation environment of the input image and the output image;
Reproducing the appearance of the output image based on the adaptation degree and the information;
An image processing program comprising:
被写体を撮像する撮像装置であって、
請求項1〜請求項6の何れか一項に記載の画像処理装置を備えることを特徴とする撮像装置。
An imaging device for imaging a subject,
An imaging apparatus comprising the image processing apparatus according to any one of claims 1 to 6.
画像を表示する画像表示装置であって、
請求項1〜請求項6の何れか一項に記載の画像処理装置を備えることを特徴とする画像表示装置。
An image display device for displaying an image,
An image display device comprising the image processing device according to any one of claims 1 to 6.
JP2010069171A 2010-03-25 2010-03-25 Image processing apparatus, image processing program, imaging apparatus, and image display apparatus Active JP5598045B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010069171A JP5598045B2 (en) 2010-03-25 2010-03-25 Image processing apparatus, image processing program, imaging apparatus, and image display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010069171A JP5598045B2 (en) 2010-03-25 2010-03-25 Image processing apparatus, image processing program, imaging apparatus, and image display apparatus

Publications (2)

Publication Number Publication Date
JP2011205275A true JP2011205275A (en) 2011-10-13
JP5598045B2 JP5598045B2 (en) 2014-10-01

Family

ID=44881477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010069171A Active JP5598045B2 (en) 2010-03-25 2010-03-25 Image processing apparatus, image processing program, imaging apparatus, and image display apparatus

Country Status (1)

Country Link
JP (1) JP5598045B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016095487A (en) * 2014-11-17 2016-05-26 アップル インコーポレイテッド Ambient light adaptive displays
US9530362B2 (en) 2014-12-23 2016-12-27 Apple Inc. Ambient light adaptive displays with paper-like appearance
KR20220053936A (en) * 2020-10-23 2022-05-02 엘아이지넥스원 주식회사 Method for simulating image sensor

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002281332A (en) * 2001-03-16 2002-09-27 Ricoh Co Ltd Color transformation device and method, and program and recording medium therefor
JP2002281338A (en) * 2001-12-26 2002-09-27 Canon Inc Image processor and image processing method
WO2008050761A1 (en) * 2006-10-23 2008-05-02 Nikon Corporation Image processing method, image processing program, image processing device, and camera

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002281332A (en) * 2001-03-16 2002-09-27 Ricoh Co Ltd Color transformation device and method, and program and recording medium therefor
JP2002281338A (en) * 2001-12-26 2002-09-27 Canon Inc Image processor and image processing method
WO2008050761A1 (en) * 2006-10-23 2008-05-02 Nikon Corporation Image processing method, image processing program, image processing device, and camera

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016095487A (en) * 2014-11-17 2016-05-26 アップル インコーポレイテッド Ambient light adaptive displays
US9478157B2 (en) 2014-11-17 2016-10-25 Apple Inc. Ambient light adaptive displays
US9947259B2 (en) 2014-11-17 2018-04-17 Apple Inc. Ambient light adaptive displays
US9530362B2 (en) 2014-12-23 2016-12-27 Apple Inc. Ambient light adaptive displays with paper-like appearance
US10192519B2 (en) 2014-12-23 2019-01-29 Apple Inc. Ambient light adaptive displays with paper-like appearance
US10867578B2 (en) 2014-12-23 2020-12-15 Apple Inc. Ambient light adaptive displays with paper-like appearance
KR20220053936A (en) * 2020-10-23 2022-05-02 엘아이지넥스원 주식회사 Method for simulating image sensor
KR102507277B1 (en) 2020-10-23 2023-03-07 엘아이지넥스원 주식회사 Method for simulating image sensor

Also Published As

Publication number Publication date
JP5598045B2 (en) 2014-10-01

Similar Documents

Publication Publication Date Title
US8502881B2 (en) Image processing apparatus, image processing method, and electronic camera
JP5195430B2 (en) Image processing method, image processing program, image processing apparatus, camera
JP4935822B2 (en) Image processing apparatus, image processing method, and image processing program
JP2005117612A (en) Image processing method and apparatus
US8665348B2 (en) Image processing apparatus and method using forward and inverse local adaptation processing and dynamic range processing
JP2006319534A (en) Imaging apparatus, method and program
JP2007166456A (en) Image adjusting apparatus, image adjusting method and program
US8861849B2 (en) Image processing
JP4687673B2 (en) Monotone processing of color image
JP2005210495A (en) Image processing apparatus, method, and program
JP4672587B2 (en) Image output method, apparatus and program
JP5598045B2 (en) Image processing apparatus, image processing program, imaging apparatus, and image display apparatus
JP5127638B2 (en) Image processing apparatus and method
JP2011004091A (en) Image processor and image processing method
JP5725271B2 (en) Color correction system
Nikkanen et al. Subjective effects of white-balancing errors in digital photography
JPH1155688A (en) Image color conversion method and its system
JP5458776B2 (en) Image processing apparatus and image processing program
Fairchild et al. Matching image color from different cameras
JP3690470B2 (en) Image processing apparatus, image forming apparatus, and image processing method
WO2022250146A1 (en) Information processing device and information processing method
JP5842940B2 (en) Image processing apparatus and electronic camera
JP4989401B2 (en) Video signal processing apparatus, method and program thereof
JP2001057680A (en) Method and device for adjusting white balance and recording medium
WO2020017638A1 (en) Image generation device and imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140715

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140728

R150 Certificate of patent or registration of utility model

Ref document number: 5598045

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250