JP5369751B2 - Image processing apparatus, imaging apparatus, and image processing program - Google Patents

Image processing apparatus, imaging apparatus, and image processing program Download PDF

Info

Publication number
JP5369751B2
JP5369751B2 JP2009038076A JP2009038076A JP5369751B2 JP 5369751 B2 JP5369751 B2 JP 5369751B2 JP 2009038076 A JP2009038076 A JP 2009038076A JP 2009038076 A JP2009038076 A JP 2009038076A JP 5369751 B2 JP5369751 B2 JP 5369751B2
Authority
JP
Japan
Prior art keywords
subject
image processing
processing apparatus
image
appearance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009038076A
Other languages
Japanese (ja)
Other versions
JP2010193375A (en
Inventor
麻理 杉原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009038076A priority Critical patent/JP5369751B2/en
Publication of JP2010193375A publication Critical patent/JP2010193375A/en
Application granted granted Critical
Publication of JP5369751B2 publication Critical patent/JP5369751B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

本発明は、互いに異なる2つの視環境の間での画像の見えを一致させる見え変換処理に関する。   The present invention relates to an appearance conversion process for matching the appearance of an image between two different viewing environments.

従来、互いに異なる2つの視環境の間での画像の見えが一致するように、その画像へ見え変換処理を施す技術が種々提案されている。特に、CIECAM97sやCIECAM02に代表される見えモデルを利用した見え変換処理は、引用文献1、2、3などに開示されている。これら見え変換処理の変換式は、色票に対するヒトの知覚の実験データに基づいている(特許文献1〜5等を参照)。   Conventionally, various techniques have been proposed for performing an appearance conversion process on an image so that the appearances of the images match between two different viewing environments. In particular, appearance conversion processing using an appearance model typified by CIECAM97s and CIECAM02 is disclosed in cited documents 1, 2, 3, and the like. The conversion formulas of the appearance conversion processing are based on experimental data of human perception with respect to the color chart (see Patent Documents 1 to 5).

しかしながら、実際にカメラで撮影された画像に対して従来の見え変換処理を施してみると、ユーザーの期待した見えにできないことのあることが判明した。   However, when conventional appearance conversion processing is performed on an image actually captured by a camera, it has been found that the appearance expected by the user may not be achieved.

そこで本発明は、変換の対象がカメラで撮影された画像であったとしても適切な見え変換処理を行うことのできる画像処理装置、撮像装置、画像処理プログラムを提供することを目的とする。   Therefore, an object of the present invention is to provide an image processing apparatus, an imaging apparatus, and an image processing program capable of performing appropriate appearance conversion processing even if the conversion target is an image captured by a camera.

本発明の画像処理装置は、第1の視環境下で観察される撮影画像に対して見え変換処理を施すことにより、1の視環境とは異なる第2の視環境下での撮影画像の見えを、第1の視環境下での撮影画像の見えと同じにする変換手段と、前記撮影画像から被写体の存在する被写体領域を検出すると共に、前記被写体領域に存在する被写体の被写体属性を検出する検出手段と、見え変換処理のパラメータを前記撮影画像内の前記被写体領域ごと、かつ前記被写体属性ごとに設定する設定手段とを備えたものである。 The image processing apparatus of the present invention performs appearance conversion processing on a captured image observed under the first viewing environment, thereby allowing the captured image to be viewed under a second viewing environment different from the first viewing environment. Conversion means for making the same as the appearance of the photographed image in the first viewing environment, and a subject area where the subject exists from the photographed image, and a subject attribute of the subject present in the subject area is detected. Detection means and setting means for setting appearance conversion processing parameters for each subject area and each subject attribute in the photographed image are provided.

なお、見え変換処理には、色順応変換処理が含まれ、設定されるパラメータには、色順応変換処理で使用される順応度のパラメータが含まれてもよい。   The appearance conversion process may include a chromatic adaptation conversion process, and the set parameter may include a parameter of the adaptation level used in the chromatic adaptation conversion process.

また、設定手段は、被写体属性が非人工物であった場合には、被写体属性が人工物であった場合と比較して順応度を高めに設定してもよい。 The setting unit, when the subject attribute was non artifacts, subject attribute may be set to a higher adaptability as compared with the case was an artifact.

また、設定手段は、被写体属性が食物であった場合には、順応度を最高値に設定してもよい。 The setting means may set the adaptability to the maximum value when the subject attribute is food.

また、見え変換処理には、彩度変換処理が含まれ、設定手段が設定するパラメータには、彩度変換処理で使用される彩度ゲインのパラメータが含まれてもよい。   The appearance conversion process may include a saturation conversion process, and the parameters set by the setting unit may include a saturation gain parameter used in the saturation conversion process.

また、設定手段は、被写体属性が人物であった場合には、被写体属性が人物以外であった場合と比較して彩度ゲインを低めに設定してもよい。 The setting unit, when the subject attribute was person may be set as compared to when the subject attribute is other than the person the saturation gain to be low.

また、設定手段は、被写体属性が屋外の物体であった場合には、被写体属性が室内の物体であった場合と比較して彩度ゲインを高めに設定してもよい。 The setting means may set the saturation gain higher when the subject attribute is an outdoor object than when the subject attribute is an indoor object.

また、見え変換処理には、コントラスト変換処理が含まれ、設定手段が設定するパラメータには、コントラスト変換処理で使用されるコントラスト関数のパラメータが含まれてもよい。   The appearance conversion process may include a contrast conversion process, and the parameter set by the setting unit may include a parameter of a contrast function used in the contrast conversion process.

また、設定手段は、被写体属性が室内の物体であった場合には、被写体属性が屋外の物体であった場合と比較してコントラスト関数を高めに設定してもよい。 The setting means may set the contrast function higher when the subject attribute is an indoor object than when the subject attribute is an outdoor object.

また、本発明の画像処理装置は、第1の視環境下で観察される撮影画像に対して見え変換処理を施すことにより、前記第1の視環境とは異なる第2の視環境下での前記撮影画像の見えを、前記第1の視環境下での前記撮影画像の見えと同じにする変換手段と、前記撮影画像から被写体の存在する被写体領域を検出すると共に、前記被写体領域に存在する被写体の被写体属性を検出する検出手段と、前記被写体属性が食物であった場合には、前記見え変換処理の順応度パラメータを、前記第1の視環境及び前記第2の視環境に拘わらず、最高値に設定する設定手段とを備える。  In addition, the image processing apparatus of the present invention performs appearance conversion processing on a captured image observed under the first viewing environment, so that the second viewing environment is different from the first viewing environment. Conversion means for making the appearance of the photographed image the same as the appearance of the photographed image in the first viewing environment, and a subject area where a subject is present is detected from the photographed image and is present in the subject area Detection means for detecting the subject attribute of the subject, and when the subject attribute is food, the adaptation parameter of the appearance conversion process is set regardless of the first visual environment and the second visual environment. Setting means for setting the maximum value.

また、本発明の撮像装置は、被写体の像を撮像して画像を生成する撮像手段と、本発明の何れかの画像処理装置とを備えたものである。   The imaging apparatus of the present invention includes an imaging unit that captures an image of a subject and generates an image, and any one of the image processing apparatuses of the present invention.

また、本発明の画像処理プログラムは、第1の視環境下で観察される撮影画像に対して見え変換処理を施すことにより、1の視環境とは異なる第2の視環境下での撮影画像の見えを、第1の視環境下での画像の見えと同じにする変換手順と、前記撮影画像から被写体の存在する被写体領域を検出すると共に、前記被写体領域に存在する被写体の被写体属性を検出する検出手順と、見え変換処理のパラメータを、前記撮影画像内の前記被写体領域ごと、かつ前記被写体属性ごとに設定する設定手順とをコンピュータに実行させるものである。 In addition, the image processing program of the present invention performs an appearance conversion process on a captured image observed under the first viewing environment, thereby capturing the captured image under a second viewing environment different from the first viewing environment. Conversion procedure for making the appearance of the subject the same as the appearance of the image in the first viewing environment, and detecting the subject area where the subject is present from the captured image and detecting the subject attribute of the subject existing in the subject region And a setting procedure for setting a parameter for appearance conversion processing for each subject area in the photographed image and for each subject attribute .

また、本発明の画像処理プログラムは、第1の視環境下で観察される撮影画像に対して見え変換処理を施すことにより、前記第1の視環境とは異なる第2の視環境下での前記撮影画像の見えを、前記第1の視環境下での前記撮影画像の見えと同じにする変換手順と、前記撮影画像から被写体の存在する被写体領域を検出すると共に、前記被写体領域に存在する被写体の被写体属性を検出する検出手順と、前記被写体属性が食物であった場合には、前記見え変換処理の順応度パラメータを、前記第1の視環境及び前記第2の視環境に拘わらず、最高値に設定する設定手順とをコンピュータに実行させる。  In addition, the image processing program of the present invention performs appearance conversion processing on a captured image observed under the first viewing environment, so that the second viewing environment is different from the first viewing environment. A conversion procedure for making the appearance of the photographed image the same as the appearance of the photographed image in the first viewing environment, and detecting a subject area where a subject is present from the photographed image and existing in the subject area If the detection procedure for detecting the subject attribute of the subject and the subject attribute is food, the adaptation parameter of the appearance conversion process is set regardless of the first visual environment and the second visual environment. Let the computer execute the setting procedure to set the maximum value.

本発明によると、変換の対象がカメラで撮影された画像であったとしても適切な見え変換処理を行うことのできる画像処理装置、撮像装置、画像処理プログラムが実現する。   According to the present invention, an image processing apparatus, an imaging apparatus, and an image processing program capable of performing appropriate appearance conversion processing even when the conversion target is an image captured by a camera are realized.

電子カメラの概略構成を示すブロック図Block diagram showing schematic configuration of electronic camera CPU18による見え変換処理を説明するフローチャートFlowchart for explaining appearance conversion processing by CPU 18 領域分割を説明する図Diagram explaining area division

[実施形態]
以下、本発明の一の実施形態を説明する。図1は、電子カメラの概略構成を示すブロック図である。図1に示すとおり、電子カメラ11は、撮像光学系12と、レンズ駆動部13と、絞り14と、絞り駆動部15と、カラーの撮像素子16と、AFE17と、CPU18と、第1メモリ19と、第2メモリ20と、メディアI/F21と、通信I/F22と、モニタ23と、レリーズ釦24と、測光センサ30と、環境センサ31とを有している。ここで、レンズ駆動部13、絞り駆動部15、AFE17、第1メモリ19、第2メモリ20、メディアI/F21、通信I/F22、モニタ23、レリーズ釦24、測光センサ30、環境センサ31は、それぞれCPU18と接続されている。
[Embodiment]
Hereinafter, an embodiment of the present invention will be described. FIG. 1 is a block diagram showing a schematic configuration of an electronic camera. As shown in FIG. 1, the electronic camera 11 includes an imaging optical system 12, a lens driving unit 13, a diaphragm 14, a diaphragm driving unit 15, a color imaging device 16, an AFE 17, a CPU 18, and a first memory 19. A second memory 20, a media I / F 21, a communication I / F 22, a monitor 23, a release button 24, a photometric sensor 30, and an environment sensor 31. Here, the lens driving unit 13, the aperture driving unit 15, the AFE 17, the first memory 19, the second memory 20, the media I / F 21, the communication I / F 22, the monitor 23, the release button 24, the photometric sensor 30, and the environment sensor 31 are Are respectively connected to the CPU 18.

撮像光学系12は、フォーカシングレンズを含む複数のレンズで構成されている。撮像光学系12の焦点位置は、レンズ駆動部13によって光軸方向に調整される。なお、簡単のため、図1では撮像光学系12を1枚のレンズとして図示する。また、絞り14は、撮像素子16に入射する単位時間当たりの光量を調節する。この絞り14の開口量は、CPU18からの指示に応じて絞り駆動部15が調整する。   The imaging optical system 12 includes a plurality of lenses including a focusing lens. The focal position of the imaging optical system 12 is adjusted in the optical axis direction by the lens driving unit 13. For simplicity, the imaging optical system 12 is illustrated as a single lens in FIG. The diaphragm 14 adjusts the amount of light per unit time incident on the image sensor 16. The aperture of the aperture 14 is adjusted by the aperture drive unit 15 in accordance with an instruction from the CPU 18.

撮像素子16は、撮影時、撮像光学系12が形成する被写体像を撮像して撮像画像の画像信号を生成する。この撮像素子16から出力された画像信号はAFE17に入力される。   The imaging element 16 captures a subject image formed by the imaging optical system 12 during shooting and generates an image signal of the captured image. The image signal output from the image sensor 16 is input to the AFE 17.

AFE17は、撮像素子16から出力される画像信号に対してアナログ信号処理を施すアナログフロントエンド回路である。このアナログ信号処理には、相関二重サンプリングや、画像信号のゲインの調整や、画像信号のA/D変換などが含まれる。このAFE17から出力されたデジタルの画像信号はCPU18に入力される。   The AFE 17 is an analog front end circuit that performs analog signal processing on the image signal output from the image sensor 16. This analog signal processing includes correlated double sampling, image signal gain adjustment, A / D conversion of the image signal, and the like. The digital image signal output from the AFE 17 is input to the CPU 18.

CPU18は、電子カメラ11の動作を統括的に制御するプロセッサである。また、CPU18は、撮影時、A/D変換後の画像信号に対して各種の画像処理(色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整、色変換処理など)を施す画像処理部25として機能する。なお、CPU18は、画像処理部25による全ての画像処理が施された撮像画像のデータ(通常形式の撮像画像データ)と、画像処理部25による色補間処理のみが施された撮像画像のデータ(RAW形式の撮像画像データ)との双方を取得する。   The CPU 18 is a processor that comprehensively controls the operation of the electronic camera 11. Further, the CPU 18 performs various image processing (color interpolation processing, gradation conversion processing, contour enhancement processing, white balance adjustment, color conversion processing, etc.) on the image signal after A / D conversion at the time of shooting. The unit 25 functions. Note that the CPU 18 captures image data that has undergone all image processing by the image processing unit 25 (captured image data in a normal format) and data of captured image that has undergone only color interpolation processing by the image processing unit 25 ( RAW format captured image data).

また、CPU18は、撮像画像に対してパターンマッチングなどの認識処理を施す認識処理部26として機能する。   The CPU 18 functions as a recognition processing unit 26 that performs recognition processing such as pattern matching on the captured image.

また、CPU18は、画像処理部25及び認識処理部26を利用し、記憶媒体28に書き込まれたRAW形式の撮像画像データに対して見え変換処理を施すことができる。見え変換処理の詳細は、後述する。   Further, the CPU 18 can perform appearance conversion processing on the RAW-format captured image data written in the storage medium 28 using the image processing unit 25 and the recognition processing unit 26. Details of the appearance conversion process will be described later.

第1メモリ19は、揮発性の記憶媒体(SDRAMなど)で構成されており、CPU18による画像処理の前工程や後工程で撮像画像を一時的に記憶する。また、第2メモリ20は、フラッシュメモリ等の不揮発性の記憶媒体で構成される。この第2メモリ20には、CPU18によって実行されるプログラムが記憶される。   The first memory 19 is composed of a volatile storage medium (SDRAM or the like), and temporarily stores a captured image in a pre-process or post-process of image processing by the CPU 18. The second memory 20 is configured by a non-volatile storage medium such as a flash memory. The second memory 20 stores a program executed by the CPU 18.

メディアI/F21は、不揮発性の記憶媒体28を着脱可能に接続できる。また、メデイアI/F21は、記憶媒体28に対し、画像処理後の撮像画像のデータ(ここでは、通常形式の撮像画像データ及びRAW形式の撮像画像データ)を書き込んだり、記憶媒体28から撮像画像のデータ(ここでは、通常形式の撮像画像データ及びRAW形式の撮像画像データ)を読み込んだりする。   The media I / F 21 can removably connect a nonvolatile storage medium 28. The media I / F 21 writes captured image data after image processing (here, captured image data in the normal format and captured image data in the RAW format) to the storage medium 28, or captures the captured image from the storage medium 28. (In this case, the captured image data in the normal format and the captured image data in the RAW format) are read.

記憶媒体28は、ハードディスクや、半導体メモリを内蔵したメモリカードなどで構成される。なお、図1に示したのは、記憶媒体28の一例としてのメモリカードである。   The storage medium 28 is configured by a hard disk, a memory card incorporating a semiconductor memory, or the like. Note that a memory card as an example of the storage medium 28 is shown in FIG.

通信I/F22は、有線または無線の公知の通信回線を介して接続された外部装置とのデータ送受信を、所定の通信規格に準拠して制御する。   The communication I / F 22 controls data transmission / reception with an external device connected via a known wired or wireless communication line in accordance with a predetermined communication standard.

モニタ23は、CPU18の制御下で、記憶媒体28に書き込まれた撮像画像の再生表示を行う。モニタ23の表示輝度、表示色バランスの各々は、ユーザーによって任意に設定することが可能であり、ユーザーによるモニタ23の設定内容は、CPU18によって適宜に検出される。   The monitor 23 reproduces and displays the captured image written in the storage medium 28 under the control of the CPU 18. Each of the display brightness and display color balance of the monitor 23 can be arbitrarily set by the user, and the setting contents of the monitor 23 by the user are appropriately detected by the CPU 18.

測光センサ30は、撮影時、電子カメラの被写界の明るさ(撮影シーンの明るさ)を検出し、その明るさを示す信号(被写界測光値)をCPU18へ送出する。この被写界測光値は、撮影で取得された撮像画像のデータ(ここでは、通常形式の撮像画像データ及びRAW形式の撮像画像データ)と共に、撮像画像データの付加情報として記憶媒体28へ書き込まれる。   The photometric sensor 30 detects the brightness of the scene of the electronic camera (brightness of the shooting scene) at the time of shooting, and sends a signal indicating the brightness (photometric value of the scene) to the CPU 18. This field metering value is written to the storage medium 28 as additional information of the captured image data together with captured image data (here, captured image data in the normal format and captured image data in the RAW format) acquired by capturing. .

環境センサ31は、撮影時、電子カメラの周囲の明るさ(ユーザーの周囲の明るさ)を検出し、その明るさを示す信号(環境測光値)をCPU18へ送出する。この環境測光値は、撮像で取得された撮像画像のデータ(ここでは、通常形式の撮像画像データ及びRAW形式の撮像画像データ)と共に、撮像画像データの付加情報として記憶媒体28へ書き込まれる。   The environment sensor 31 detects brightness around the electronic camera (brightness around the user) at the time of shooting, and sends a signal (environment photometric value) indicating the brightness to the CPU 18. This environmental photometric value is written into the storage medium 28 as additional information of the captured image data together with captured image data (here, captured image data in the normal format and captured image data in the RAW format) acquired by imaging.

操作釦24は、撮影時、AF動作開始の指示入力と、撮像動作開始の指示入力とをユーザーから受け付ける。また、操作釦24は、撮像画像に関する見え変換処理の開始指示をユーザーから受け付ける。また、見え変換処理に当たり、操作釦24は、その見え変換処理に必要な情報の入力をユーザーから受け付ける。なお、見え変換処理に必要な情報には、見た側の視環境条件(入力側の視環境条件)と、見せる側の視環境条件(出力側の視環境条件)とがある。   The operation button 24 receives an instruction input for starting an AF operation and an instruction input for starting an imaging operation from a user during shooting. In addition, the operation button 24 receives an instruction to start the appearance conversion process regarding the captured image from the user. In the appearance conversion process, the operation button 24 receives input of information necessary for the appearance conversion process from the user. Information necessary for the appearance conversion process includes viewing-side viewing environment conditions (input-side viewing environment conditions) and viewing-side viewing environment conditions (output-side viewing environment conditions).

ここで、本実施形態の見え変換処理は、「ユーザーが過去に或る視環境下で撮影した撮像画像を、別の或る視環境下でモニタ23に再生表示させるときに、撮影時に感じた被写界の見えと同じに見せるための見え変換処理」であると仮定する。この場合、入力側の視環境条件(撮影時における視環境条件)と、出力側の視環境条件(再生時における視環境条件)との双方を電子カメラが自動取得することができる。   Here, the appearance conversion process of the present embodiment is “feeling at the time of shooting when a user picks up an image captured in a past viewing environment on a monitor 23 under another viewing environment. It is assumed that this is an “appearance conversion process to make it look the same as the appearance of the object scene”. In this case, the electronic camera can automatically acquire both the input-side visual environment condition (the visual environment condition at the time of photographing) and the output-side visual environment condition (the visual environment condition at the time of reproduction).

そこで本実施形態では、入力側の視環境条件及び出力側の視環境条件の双方を電子カメラが自動取得することとする。   Therefore, in this embodiment, the electronic camera automatically acquires both the input-side visual environment condition and the output-side visual environment condition.

図2は、CPU18による見え変換処理を説明するフローチャートである。なお、この見え変換処理は、撮像画像の再生表示中に見え変換処理の開始指示が入力されたときに、CPU18がプログラムに従って実行する。また、ここでは、見え変換処理の見えモデル(視環境に依存しない色の見えモデル)として、CIECAM02が使用されるものとする。   FIG. 2 is a flowchart for explaining the appearance conversion process by the CPU 18. The appearance conversion process is executed by the CPU 18 according to a program when an instruction to start the appearance conversion process is input during reproduction display of the captured image. In this example, CIECAM02 is used as an appearance model for appearance conversion processing (color appearance model independent of the viewing environment).

ステップS11:CPU18は、再生表示中の撮像画像に関するRAW形式の撮像画像データと、その撮像画像の付加情報(被写界測光値及び環境測光値)とを記憶媒体28から読み出し、その撮像画像データ及び付加情報に基づき、入力側の視環境条件、すなわち、入力側の順応白色点(Xwi、Ywi、Zwi)、入力側の順応輝度La、入力側の周囲条件Fを算出する。 Step S11: The CPU 18 reads out the RAW-format captured image data relating to the captured image being reproduced and displayed, and additional information (field metering value and environmental metering value) of the captured image from the storage medium 28, and the captured image data. And the input side visual environment condition, that is, the input side adaptation white point (X wi , Y wi , Z wi ), the input side adaptation luminance La i , and the input side ambient condition F i are calculated. .

また、CPU18は、現時点におけるモニタ23の設定内容(表示輝度及び表示色バランス)と、現時点で環境センサ31が検出する環境測光値とを参照し、その設定内容(表示輝度及び表示色バランス)及び環境測光値に基づき、出力側の視環境条件、すなわち出力側の順応白色点(Xwo、Ywo、Zwo)、出力側の順応輝度La、出力側の周囲条件Fを算出する。 Further, the CPU 18 refers to the setting contents (display luminance and display color balance) of the monitor 23 at the present time and the environmental photometric values detected by the environment sensor 31 at the present time, and the setting contents (display luminance and display color balance) and Based on the environment photometric value, the visual environment condition on the output side, that is, the adaptation white point (X wo , Y wo , Z wo ) on the output side, the adaptation luminance La o on the output side, and the ambient condition F o on the output side are calculated.

ここで、順応白色点(Xwi、Ywi、Zwi)、順応輝度La、周囲条件F、順応白色点(Xwo、Ywo、Zwo)、順応輝度La、周囲条件Fは、それぞれ以下のとおり定義される。 Here, the adaptation white point (X wi , Y wi , Z wi ), adaptation luminance La i , ambient condition F i , adaptation white point (X wo , Y wo , Z wo ), adaptation luminance La o , ambient condition F o Are defined as follows:

・順応白色点(Xwi、Ywi、Zwi)…撮影時における被写界の光源色である。その光源色は、再生表示中の撮像画像(RAW形式の撮像画像データ)に基づき推定される。なお、その推定には、カメラのオートホワイトバランス制御に採用される公知の何れかの光源判定方法を採用することができる。 Adaptation white point (X wi , Y wi , Z wi ): a light source color of the object scene at the time of shooting. The light source color is estimated based on the captured image (RAW-format captured image data) being reproduced and displayed. For the estimation, any known light source determination method employed in camera auto white balance control can be employed.

・順応輝度La…撮影時における被写界の明るさである。ここでは、撮像画像に付加された被写界測光値のうち、前述した順応白色点(Xwi、Ywi、Zwi)に対応する部分の被写界測光値の1/5倍とする。 Adaptation luminance La i is the brightness of the object scene at the time of shooting. Here, out of the field metering value added to the captured image, the field metering value of the portion corresponding to the adaptive white point (X wi , Y wi , Z wi ) described above is set to 1/5 times.

・周囲条件F…撮影時におけるユーザーの周囲の明るさである。ここでは、撮像画像に付加された環境測光値とする。 Ambient condition F i is the brightness around the user at the time of shooting. Here, it is set as the environmental photometric value added to the captured image.

・順応白色点(Xwo、Ywo、Zwo)…再生時にモニタ23が白として表示する色である。ここでは、現時点でモニタ23に設定されている表示色バランスとする。 Adapting white point (X wo , Y wo , Z wo ): A color that the monitor 23 displays as white during reproduction. Here, the display color balance currently set on the monitor 23 is used.

・順応輝度La…再生時におけるモニタ23の明るさである。ここでは、現時点でモニタ23に設定されている表示輝度の1/5倍とする。 Adaptation luminance La o is the brightness of the monitor 23 during reproduction. Here, it is set to 1/5 times the display luminance currently set on the monitor 23.

・周囲条件F…再生時におけるユーザーの周囲の明るさである。ここでは、現時点で環境センサ31が検出する環境測光値とする。 Ambient condition F o is the brightness around the user during playback. Here, it is set as the environmental photometric value detected by the environmental sensor 31 at the present time.

ステップS12:CPU18は、ステップS11で算出した順応輝度La及び周囲条件Fを式(1)へ当てはめることにより、入力側の視環境に対するヒトの順応度Dを算出する。但し、ここで算出される順応度Dは暫定値であって、後で補正される可能性がある。 Step S12: The CPU 18 calculates the human adaptation D i with respect to the visual environment on the input side by applying the adaptation luminance La i and the ambient condition F i calculated in step S11 to the equation (1). However, adaptability D i calculated here is a provisional value and may be corrected later.

Figure 0005369751
Figure 0005369751

因みに、式(1)で算出される順応度Dは、従来の見え変換処理おける入力側の色順応変換処理で使用されていた順応度と同じである。 Incidentally, adaptability D i calculated by Equation (1) is the same as the adaptability that was used in the color adaptation conversion process of a conventional appearance conversion definitive input.

また、CPU18は、ステップS11で算出した順応輝度La及び周囲条件Fを式(2)へ当てはめることにより、出力側の視環境に対するヒトの順応度Dを算出する。但し、ここで算出される順応度Dは暫定値であって、後で補正される可能性がある。 Further, the CPU 18 calculates the human adaptation degree Do with respect to the visual environment on the output side by applying the adaptation luminance La o and the ambient condition F o calculated in step S11 to the expression (2). However, adaptability D o calculated here is a provisional value and may be corrected later.

Figure 0005369751
Figure 0005369751

因みに、式(2)で算出される順応度Dは、従来の見え変換処理における出力側の色順応変換処理(色順応逆変換処理)で使用されていた順応度と同じである。 Incidentally, adaptability D o calculated by the equation (2) is the same as the adaptability that was used in the color adaptation conversion process on the output side of the conventional appearance conversion processing (color adaptation inverse transform process).

また、CPU18は、ステップS11で算出した順応輝度La、Laを式(3)へ当てはめることにより、彩度変換処理で使用されるべき彩度ゲインGを算出する。但し、ここで算出される彩度ゲインGは暫定値であって、後で補正される可能性がある。 Further, the CPU 18 calculates the saturation gain G to be used in the saturation conversion processing by applying the adaptation luminances La i and La o calculated in step S11 to the equation (3). However, the saturation gain G calculated here is a provisional value and may be corrected later.

Figure 0005369751
Figure 0005369751

因みに、式(3)で算出される彩度ゲインGは、従来の見え変換処理における彩度変換処理で使用されていた彩度ゲインと同じである。   Incidentally, the saturation gain G calculated by Expression (3) is the same as the saturation gain used in the saturation conversion processing in the conventional appearance conversion processing.

また、CPU18は、ステップS11で算出した順応輝度La及び周囲条件Fを所定の式に当てはめることにより、式(4)で表されるコントラスト関数Tを算出する。但し、ここで算出されるコントラスト関数Tは暫定の関数であって、後で補正される可能性がある。 Further, the CPU 18 calculates the contrast function T expressed by the equation (4) by applying the adaptation luminance La i and the ambient condition F i calculated in step S11 to a predetermined equation. However, the contrast function T calculated here is a provisional function and may be corrected later.

Figure 0005369751
Figure 0005369751

因みに、式(4)のコントラスト関数Tは、従来の見え変換処理において入力側のコントラスト変換処理で使用されていたコントラスト関数と同じである。   Incidentally, the contrast function T in Expression (4) is the same as the contrast function used in the contrast conversion process on the input side in the conventional appearance conversion process.

また、CPU18は、ステップS11で算出した順応輝度La及び周囲条件Fを所定の式に当てはめることにより、式(5)で表されるコントラスト関数T−1を算出する。但し、ここで算出されるコントラスト関数T−1は、暫定の関数であって、後で補正される可能性がある。 Further, the CPU 18 calculates the contrast function T −1 represented by the equation (5) by applying the adaptation luminance La o and the ambient condition F o calculated in step S11 to a predetermined equation. However, the contrast function T −1 calculated here is a provisional function and may be corrected later.

Figure 0005369751
Figure 0005369751

なお、式(5)のコントラスト関数T−1は、従来の見え変換処理において出力側のコントラスト変換処理(コントラスト逆変換処理)で使用されていたコントラスト関数と同じである。 Note that the contrast function T −1 in Expression (5) is the same as the contrast function used in the contrast conversion process on the output side (contrast reverse conversion process) in the conventional appearance conversion process.

ステップS13:CPU18は、再生表示中の撮像画像(RAW形式の撮像画像データ)に対して被写体抽出処理を施し、その撮像画像を1又は複数の被写体領域と背景領域とに領域分割し、分割後の領域数Nを認識すると共に、それらN個の領域に対して1〜Nの値を有した領域ラベルを個別に付与する。   Step S13: The CPU 18 performs subject extraction processing on the captured image (RAW format captured image data) being reproduced and displayed, and divides the captured image into one or more subject regions and a background region, and after the division Are recognized, and region labels having values of 1 to N are individually assigned to the N regions.

なお、本ステップにおける領域分割には、特許文献4、5に記載された領域分割方法や、グラフカット理論に基づく領域分割方法の少なくとも1つを採用することができる。   It should be noted that at least one of the area dividing methods described in Patent Documents 4 and 5 and the area dividing method based on the graph cut theory can be adopted for the area division in this step.

例えば、図3(A)に示すとおり撮像画像中に、人物からなる第1の被写体41と、大根(食物の一種である。)からなる第2の被写体42と、トラック(人工物の一種である。)からなる第3の被写体43とが存在していたとすると、図3(B)に示すとおり、撮像画像は、第1の被写体(人物)の存在領域A1と、第2の被写体(大根)の存在領域A2と、第3の被写体(トラック)の存在領域A3と、背景の領域A4とに分割される。この場合、領域数Nは4となる。また、例えば、領域A1に付与された領域ラベルの値が1となり、領域A2に付与された領域ラベルの値が2となり、領域A3に付与された領域ラベルの値が3となり、領域A4に付与された領域ラベルの値が4となる。   For example, as shown in FIG. 3A, in a captured image, a first subject 41 made of a person, a second subject 42 made of a radish (a kind of food), and a track (a kind of artifact). As shown in FIG. 3B, the captured image includes the presence area A1 of the first subject (person) and the second subject (radish). ) Existing area A 2, third subject (track) existing area A 3, and background area A 4. In this case, the number N of regions is 4. Further, for example, the value of the area label given to the area A1 is 1, the value of the area label given to the area A2 is 2, the value of the area label given to the area A3 is 3, and is given to the area A4. The value of the assigned region label is 4.

ステップS14:CPU18は、処理対象となる領域ラベルL(以下、「処理対象ラベルL」と称す。)の値を初期値(1)に設定する。   Step S14: The CPU 18 sets the value of the region label L to be processed (hereinafter referred to as “processing target label L”) to the initial value (1).

ステップS15:CPU18は、再生表示中の撮像画像(RAW形式の撮像画像データ)のうち、処理対象ラベルLに対応する領域(例えば、処理対象ラベルLの値が1であったならば人物の領域A1)へパターン認識処理を施すことにより、その領域に存在する物体が食物、人物、それ以外の何れに属するかを判別する。そして、CPU18は、その物体が食物であった場合にはステップS17へ移行し、その物体が人物であった場合にはステップS18へ移行し、その物体が食物でも人物でもなかった場合にはステップS16へ移行する。   Step S15: The CPU 18 corresponds to the region corresponding to the processing target label L (for example, if the value of the processing target label L is 1, among the captured images (RAW-format captured image data) being reproduced and displayed) By performing pattern recognition processing on A1), it is determined whether an object existing in the region belongs to food, a person, or the other. Then, the CPU 18 proceeds to step S17 when the object is food, proceeds to step S18 when the object is a person, and proceeds to step S18 when the object is neither food nor a person. The process proceeds to S16.

ステップS16:CPU18は、再生表示中の撮像画像(RAW形式の撮像画像データ)のうち、処理対象ラベルLに対応する領域に対して光源判定処理を施すことにより、その領域に存在する物体を撮影時に照明していた光源の種類を判別し、その光源が自然光と人工光との何れであるかを判別する。なお、このような光源判定方法には、カメラのオートホワイトバランス制御に採用される公知の何れかの光源判定方法を適用することができる。   Step S16: The CPU 18 performs light source determination processing on a region corresponding to the processing target label L in the captured image (RAW-format captured image data) being reproduced and displayed, thereby photographing an object present in the region. The type of the light source that is sometimes illuminated is determined, and it is determined whether the light source is natural light or artificial light. It should be noted that any one of known light source determination methods employed for camera auto white balance control can be applied to such a light source determination method.

そして、CPU19は、その光源が自然光であった場合(すなわち物体が屋外の物体であったとき)にはステップS20へ移行し、その光源の種類が人工光であった場合(すなわち物体が室内の物体であったとき)にはステップS21へ移行する。また、光源の種類を判定することができなかった場合(光源色が自然光と人工光との混合色であった場合など)にはステップS22へ移行する。   When the light source is natural light (that is, when the object is an outdoor object), the CPU 19 proceeds to step S20, and when the light source type is artificial light (that is, the object is indoors). If it is an object), the process proceeds to step S21. If the type of the light source cannot be determined (for example, the light source color is a mixed color of natural light and artificial light), the process proceeds to step S22.

ステップS17:CPU18は、ステップS12における算出結果に関わらず順応度D、Dの各々を最高値(すなわち1)に置換し、ステップS22へ移行する。 Step S17: The CPU 18 replaces each of the adaptation degrees D i and D o with the highest value (ie, 1) regardless of the calculation result in step S12, and proceeds to step S22.

ステップS18:CPU18は、順応度D、Dを以下の式(6)により補正する。 Step S18: The CPU 18 corrects the adaptation degrees D i and D o by the following equation (6).

Figure 0005369751
Figure 0005369751

但し、本ステップにおける補正係数Cdは、順応度D、Dを増加させるための係数、例えば1.1に設定される。また、補正により順応度D、Dの何れかが1を超過した場合には、その補正結果に関わらず1に置換される。その後、CPU18は、ステップS19へ移行する。 However, the correction coefficient Cd in this step is set to a coefficient for increasing the adaptability D i and D o , for example, 1.1. In addition, when either of the adaptation degrees D i and D o exceeds 1 by the correction, it is replaced with 1 regardless of the correction result. Thereafter, the CPU 18 proceeds to step S19.

ステップS19:CPU18は、彩度ゲインGが1を超過しているか否かを判別し、彩度ゲインGが1を超過していた場合にのみ、彩度ゲインGを以下の式(7)により補正する。   Step S19: The CPU 18 determines whether or not the saturation gain G exceeds 1, and only when the saturation gain G exceeds 1, the saturation gain G is calculated by the following equation (7). to correct.

Figure 0005369751
Figure 0005369751

但し、本ステップにおける補正係数Mdは、彩度ゲインGを抑えるための係数、例えば0.9に設定される。その後、CPU18は、ステップS22へ移行する。   However, the correction coefficient Md in this step is set to a coefficient for suppressing the saturation gain G, for example, 0.9. Thereafter, the CPU 18 proceeds to step S22.

ステップS20:CPU18は、彩度ゲインGを上記した式(7)により補正する。但し、本ステップにおける補正係数Mdは、彩度ゲインGを増加させるための係数、例えば1.1に設定される。その後、CPU18は、ステップS22へ移行する。   Step S20: The CPU 18 corrects the saturation gain G by the above equation (7). However, the correction coefficient Md in this step is set to a coefficient for increasing the saturation gain G, for example, 1.1. Thereafter, the CPU 18 proceeds to step S22.

ステップS21:CPU18は、コントラスト関数T、T−1を、以下の式(8)により補正する。 Step S21: The CPU 18 corrects the contrast functions T and T −1 by the following equation (8).

Figure 0005369751
Figure 0005369751

但し、本ステップにおける補正係数Tdは、コントラスト関数T、T−1を増加させるための係数、例えば1.1に設定される。その後、CPU18は、ステップS22へ移行する。 However, the correction coefficient Td in this step is set to a coefficient for increasing the contrast functions T and T −1 , for example, 1.1. Thereafter, the CPU 18 proceeds to step S22.

ステップS22:CPU18は、再生表示中の撮像画像(RAW形式の撮像画像データ)のうち処理対象ラベルLに対応する領域に対し、順応度D、D、彩度ゲインG、コントラスト関数T、T−1を使用した見え変換処理を施す。見え変換処理の手順は、以下の(a)〜(g)である。 Step S22: The CPU 18 applies the adaptability D i , D o , the saturation gain G, the contrast function T, to the area corresponding to the processing target label L in the captured image (RAW format captured image data) being reproduced and displayed. Appearance conversion processing using T- 1 is performed. The procedure of the appearance conversion process is the following (a) to (g).

(a)CPU18は、処理対象ラベルLに対応する領域中の各画素の色を、それぞれXYZ色空間上の座標(X、Y、Z)で表す。 (A) The CPU 18 represents the color of each pixel in the region corresponding to the processing target label L by coordinates (X i , Y i , Z i ) in the XYZ color space.

(b)CPU18は、ステップS1で算出した順応白色点(Xwi、Ywi、Zwi)と、現時点における順応度Dとを式(9)へ当てはめることにより、座標(X、Y、Z)から色順応変換後の座標(X’、Y’、Z’)への変換式を取得する。 (B) The CPU 18 applies the coordinates (X i , Y i ) by fitting the adaptation white point (X wi , Y wi , Z wi ) calculated in step S1 and the adaptation degree D i at the present time to the equation (9). , Z i ) to obtain the conversion formula from the chromatic adaptation transformation to the coordinates (X i ′, Y i ′, Z i ′).

Figure 0005369751
Figure 0005369751

但し、式(9)における(Xwr、Ywr、Zwr)は、CIECAM02色空間の白色点(参照白色点)であり、式(9)におけるマトリクスMcat02は、CIECAM02で規定される既知のマトリクスである。 However, (X wr , Y wr , Z wr ) in the equation (9) is a white point (reference white point) of the CIECAM02 color space, and the matrix M cat02 in the equation (9) is a known value defined by CIECAM02. Matrix.

(c)CPU18は、(b)で取得した変換式により各画素の座標(X、Y、Z)を色順応変換後の座標(X’、Y’、Z’)へと変換する。 (C) The CPU 18 converts the coordinates (X i , Y i , Z i ) of each pixel to the coordinates (X i ′, Y i ′, Z i ′) after chromatic adaptation conversion by the conversion formula acquired in (b). And convert.

(d)CPU18は、色順応変換後の座標(X’、Y’、Z’)に対し、コントラスト関数Tによる入力側のコントラスト変換処理(具体的には、コントラスト変換処理を含む、視覚の非線形性に対応した変換処理)を施すことにより、コントラスト変換後の座標(J、C、h)を取得する。なお、Jは明度成分、Cは彩度成分、hは色相成分である。 (D) The CPU 18 performs contrast conversion processing on the input side by the contrast function T (specifically, including contrast conversion processing) with respect to the coordinates (X i ′, Y i ′, Z i ′) after chromatic adaptation conversion. The coordinates (J, C i , h) after contrast conversion are acquired by performing a conversion process corresponding to visual nonlinearity. Incidentally, J is the lightness component, C i is the saturation component, h is the hue component.

(e)CPU18は、座標(J、C、h)の彩度成分Cに対して彩度ゲインGを乗算することにより、彩度変換後の座標(J、C、h)を取得する。なお、この彩度調整を式にすると、C=CGとなる。 (E) The CPU 18 obtains coordinates (J, C o , h) after saturation conversion by multiplying the saturation component C i of the coordinates (J, C i , h) by a saturation gain G. To do. If this saturation adjustment is expressed by an equation, C o = C i G.

(f)CPU18は、彩度変換後の座標(J、C、h)に対し、コントラスト関数T−1による出力側のコントラスト変換処理(コントラスト逆変換処理)を施すことにより、コントラスト逆変換後の座標(X、Y、Z)を取得する。 (F) The CPU 18 performs contrast conversion processing (contrast reverse conversion processing) on the output side using the contrast function T −1 on the coordinates (J, C o , h) after saturation conversion, thereby performing post-contrast conversion The coordinates (X o , Y o , Z o ) are acquired.

(g)CPU18は、コントラスト逆変換後の座標(X、Y、Z)に対して、出力側の色順応変換処理(色順応逆変換処理)を施すことにより、色順応逆変換後の座標(X’、Y’、Z’)を取得する。この座標(X’、Y’、Z’)が、見え変換後の座標である。 (G) The CPU 18 performs chromatic adaptation conversion processing (chromatic adaptation inverse transformation processing) on the output side with respect to the coordinates (X o , Y o , Z o ) after the contrast inverse transformation, thereby performing the color adaptation inverse transformation. The coordinates (X o ', Y o ', Z o ') are acquired. These coordinates (X o ′, Y o ′, Z o ′) are the coordinates after appearance conversion.

なお、この色順応逆変換処理で使用される変換式は、式(9)で表される変換式の逆変換式において、順応度Dの代わりに順応度Dを当てはめ、かつ順応白色点(Xwi、Ywi、Zwi)の代わりに順応白色点(Xwo、Ywo、Zwo)を当てはめたものに相当する(以上、ステップS22)。 The conversion formula used by the color adaptation inverse conversion processing in the inverse conversion equation conversion formula represented by Formula (9), fitting the adaptability D o instead of adaptability D i, and adaptive white point This corresponds to a case where an adaptive white point (X wo , Y wo , Z wo ) is applied instead of (X wi , Y wi , Z wi ) (step S22).

ステップS23:CPU18は、処理対象ラベルLの値が領域数Nに達したか否かを判別し、達していなかった場合にはステップS24へ移行し、達した場合にはステップS25へ移行する。   Step S23: The CPU 18 determines whether or not the value of the processing target label L has reached the number of areas N. If not, the process proceeds to step S24, and if it has reached, the process proceeds to step S25.

ステップS24:CPU18は、処理対象ラベルLの値を1だけインクリメントしてから、ステップS15へ戻る。   Step S24: The CPU 18 increments the value of the processing target label L by 1, and then returns to step S15.

ステップS25:CPU18は、見え変換後の座標(X’、Y’、Z’)に対して出力機器向けの画像処理(ここでは、モニタ23向けの画像処理であって、モニタ23の出力特性に合わせた色域マッピングなどを含む画像処理)を施す。なお、この画像処理には、ユーザーの嗜好に合わせるための画像処理が含まれてもよい。そして、CPU18は、その画像処理後の撮像画像を、再生表示中の撮像画像に代えてモニタ23へ表示する。その後、ユーザーから保存指示が入力されると、CPU18は、その画像処理後の撮像画像を、RAW形式の撮像画像データと共に記憶媒体28へ書き込み、フローを終了する。 Step S25: The CPU 18 performs image processing for the output device on the coordinates (X o ′, Y o ′, Z o ′) after appearance conversion (here, image processing for the monitor 23, Image processing including color gamut mapping according to output characteristics). Note that this image processing may include image processing for matching the user's preference. Then, the CPU 18 displays the captured image after the image processing on the monitor 23 instead of the captured image being reproduced and displayed. Thereafter, when a save instruction is input from the user, the CPU 18 writes the captured image after the image processing into the storage medium 28 together with the RAW format captured image data, and ends the flow.

以上、本実施形態の見え変換処理では、撮像画像中に存在する被写体の種類に応じてCPU18が見え変換処理のパラメータを設定する(ステップS15〜S19)。   As described above, in the appearance conversion process of the present embodiment, the CPU 18 sets the parameters of the appearance conversion process according to the type of subject existing in the captured image (steps S15 to S19).

具体的に、本実施形態のCPU18は、被写体が非人工物であった場合の順応度Dを、被写体が人工物であった場合の順応度Dと比較して高めに計上する(ステップS17、S18)。   Specifically, the CPU 18 of the present embodiment counts the adaptation degree D when the subject is a non-artificial object higher than the adaptation degree D when the subject is an artifact (step S17, S18).

ヒトは、被写体が非人工物(人物や食物)であるか否かで、同じ色であったとしても異なる色に感じる可能性があると考えられる。例えば、ヒトが全く同じ色のバナナとカップとを同じ光源下(例えば白熱灯下)で観察したとしても、非人工物であるバナナについては実際の色を良く知っているので光源による色付き(白熱灯ならばオレンジ色)を頭の中で完全に除去する(良く順応する)が、人工物であるカップについては実際の色を知らないことが多いので光源による色付き(白熱灯ならばオレンジ色)を頭の中であまり除去しない(あまり順応しない)と考えられる。   It is considered that a human may feel a different color even if the subject is the same color depending on whether or not the subject is a non-artifact (person or food). For example, even if a human observes a banana and cup of the same color under the same light source (for example, under an incandescent lamp), the non-artifact banana is well-known, so it is colored by the light source (incandescent It is completely removed in the head (orange if it is a light), but it is colored by the light source (orange if it is an incandescent light) because it often does not know the actual color of the artificial cup. Is considered not to be removed in the head.

そこで、本実施形態の見え変換処理のように、被写体が非人工物(人物や食物)であった場合の順応度Dを被写体が人工物であった場合の順応度Dよりも高めに計上すれば、被写体が非人工物であるか否かに拘わらずユーザーの期待どおりの良好な画像再現を行うことができる。   Therefore, as in the appearance conversion process of the present embodiment, the adaptation degree D when the subject is a non-artificial object (person or food) is counted higher than the adaptation degree D when the subject is an artifact. Thus, regardless of whether or not the subject is a non-artifact, good image reproduction as expected by the user can be performed.

因みに、従来の見え変換処理は、色票(すなわち人工物)に対するヒトの知覚にしか基づいていないので、人工物であるカップについてはユーザーが期待したとおりの良好な画像再現を行うことができるものの、非人工物であるバナナについてはユーザーが期待したとおりの良好な画像再現を行うことはできなかった。   Incidentally, the conventional appearance conversion process is based only on the human perception of the color chart (that is, the artifact), so that it is possible to perform a good image reproduction as expected by the user for the cup that is an artifact. As for the non-artificial banana, it was not possible to reproduce the image as expected by the user.

また、本実施形態のCPU18は、被写体が食物であった場合の順応度Dを最高値(すなわち1)に設定する(ステップS17)。   Further, the CPU 18 of the present embodiment sets the adaptation degree D when the subject is food to the highest value (that is, 1) (step S17).

ヒトは、食物の色を特に良く記憶していると考えられるので、この設定によれば、食物の画像再現をユーザーの期待に近づけることができると考えられる。   Since humans are considered to memorize food colors particularly well, it is considered that this setting can bring food image reproduction closer to the user's expectations.

また、本実施形態のCPU18は、被写体が人物であった場合に彩度ゲインGが著しく高くならないように制御する(ステップS19)。   Further, the CPU 18 of the present embodiment controls so that the saturation gain G is not significantly increased when the subject is a person (step S19).

ヒトは、通常、モノを暗いところから明るいところへ移動させたときに彩度感が増すという特性を有しているので、彩度ゲインGによる彩度変換が有効だが、人肌に限っては、過去の記憶の影響で、さほど彩度感が増さないと考えられる。   Humans usually have the characteristic of increasing the saturation when moving things from dark to bright, so saturation conversion with saturation gain G is effective, but only for human skin. It is thought that the saturation does not increase so much due to the influence of past memories.

そこで、本実施形態のように、被写体が人物であった場合に彩度ゲインGが著しく高くならないように制御すれば、人物の画像再現がユーザーの期待から外れる可能性は低くなると考えられる。   Thus, if the subject is a person and the control is performed so that the saturation gain G does not remarkably increase, the possibility that the image reproduction of the person will deviate from the user's expectation is reduced.

また、本実施形態のCPU18は、被写体が屋外の物体であった場合の彩度ゲインGを、被写体が室内の物体であった場合の彩度ゲインGより高めに計上する(ステップS20)。   Further, the CPU 18 of this embodiment counts the saturation gain G when the subject is an outdoor object higher than the saturation gain G when the subject is an indoor object (step S20).

ヒトは、通常、モノを暗いところから明るいところへ移動させたときに彩度感が増すという特性を有しているので、彩度ゲインGによる彩度変換が有効だが、被写体が屋外の物体であった場合には特に彩度感の向上量が顕著になると考えられる。   Humans usually have the characteristic of increasing saturation when moving things from dark to bright, so saturation conversion with saturation gain G is effective, but the subject is an outdoor object. In such a case, it is considered that the amount of improvement in saturation is particularly remarkable.

したがって、本実施形態のように、被写体が屋外の物体であった場合の彩度ゲインGを高めに計上すれば、屋外の物体の画像再現をユーザーの期待に近づけることができると考えられる。   Therefore, if the saturation gain G when the subject is an outdoor object is counted higher as in this embodiment, it is considered that the image reproduction of the outdoor object can be brought close to the user's expectation.

また、本実施形態のCPU18は、被写体が室内の物体であった場合のコントラスト関数Tを、被写体が屋外の物体であった場合のコントラスト関数Tより高めに計上する(ステップS21)。   Further, the CPU 18 of the present embodiment counts the contrast function T when the subject is an indoor object higher than the contrast function T when the subject is an outdoor object (step S21).

ヒトは、通常、モノを暗いところで見るときにはコントラスト感が増すという特性を有しているので、コントラスト関数Tによるコントラスト変換が有効だが、被写体が室内の物体であった場合にはコントラスト感の向上量が特に顕著と考えられる。   Since a human usually has a characteristic that a sense of contrast increases when a thing is viewed in a dark place, contrast conversion by the contrast function T is effective. However, if the subject is an indoor object, the amount of improvement in the sense of contrast Is considered particularly prominent.

したがって、本実施形態のように、被写体が室内の物体であった場合のコントラスト関数Tを高めに計上すれば、室内の物体の画像再現をユーザーの期待に近づけることができると考えられる。   Therefore, if the contrast function T when the subject is an indoor object is added as in the present embodiment, it is considered that the image reproduction of the indoor object can be brought close to the user's expectation.

また、本実施形態のCPU18は、見え変換処理のパラメータ設定を、画像毎に行うのではなく、画像中に存在する物体毎(つまり領域毎)に行う。したがって、本実施形態では画像中に存在する全ての物体の画像再現をユーザーの期待に近づけることができる。   Further, the CPU 18 of the present embodiment sets the appearance conversion process parameters for each object (that is, for each area) present in the image, not for each image. Therefore, in this embodiment, the image reproduction of all objects present in the image can be brought close to the user's expectation.

[変形例]
なお、本実施形態のCPU18は、色の見えモデルとしてCIECAM02を使用したが、CIECAM97sなどの他の見えモデルを使用してもよい。
[Modification]
The CPU 18 of the present embodiment uses CIECAM02 as the color appearance model, but other appearance models such as CIECAM97s may be used.

また、本実施形態のCPU18は、見え変換処理のパラメータ設定を、撮像画像中に存在する被写体の種類に応じて行ったが、電子カメラの撮影シーンの種類に応じて行ってもよい。例えば、撮影シーンが夏の風景であった場合のコントラスト関数T及び彩度ゲインGを、撮影シーンが他の風景であった場合のコントラスト関数T及び彩度ゲインGより大きめに計上してもよい(つまり補正係数Td、Mdを1以上にしてもよい)。また、例えば撮影シーンが記者会見の風景であった場合の順応度Dを、撮影シーンが他の風景であった場合の順応度Dより大きめに計上してもよい(つまり補正係数Cdを1に近づけてもよい)。   In addition, the CPU 18 of the present embodiment performs the appearance conversion process parameter setting according to the type of subject existing in the captured image, but may be performed according to the type of shooting scene of the electronic camera. For example, the contrast function T and the saturation gain G when the shooting scene is a summer landscape may be calculated larger than the contrast function T and the saturation gain G when the shooting scene is another landscape. (In other words, the correction coefficients Td and Md may be 1 or more). Further, for example, the adaptation degree D when the shooting scene is a press conference scenery may be calculated to be larger than the adaptation degree D when the shooting scene is another scenery (that is, the correction coefficient Cd is set to 1). May be close).

また、本実施形態の電子カメラでは、撮像画像に対して見え変換処理を施すタイミングが撮像画像の再生時であったが、他のタイミング、例えば撮像画像の撮影時であってもよい。   In the electronic camera of the present embodiment, the timing for performing the appearance conversion process on the captured image is when the captured image is played back, but may be at another timing, for example, when the captured image is captured.

但し、見え変換処理のタイミングを撮像画像の非再生時とする場合は、出力側の視環境条件を電子カメラが自動取得することができないので、ユーザーに入力させる必要がある。この場合、ユーザーは、どのような視環境条件で撮像画像の再生を行おうとしているかを電子カメラへ入力することになる。   However, when the timing of the appearance conversion process is set to the time when the captured image is not reproduced, the viewing environment condition on the output side cannot be automatically acquired by the electronic camera, so the user needs to input it. In this case, the user inputs to the electronic camera what visual environment conditions the user wants to reproduce the captured image.

また、本実施形態の見え変換処理では、入力側の視環境条件を、撮影時における視環境条件とし、出力側の視環境条件を、再生時における視環境条件としたが、入力側の視環境条件を、或る再生時における視環境条件とし、出力側の視環境条件を、別の再生時における視環境条件としてもよい。その場合の見え変換処理は、「ユーザーが或る視環境下でモニタ23に再生表示した撮像画像を、別の或る視環境下でモニタ23に再生表示させるときに、最初の再生時における見えと同じに見せるための見え変換処理」となる。   In the appearance conversion process of the present embodiment, the input-side visual environment condition is the visual environment condition at the time of shooting, and the output-side visual environment condition is the visual environment condition at the time of reproduction. The condition may be a visual environment condition during a certain reproduction, and the visual environment condition on the output side may be a visual environment condition during another reproduction. In this case, the appearance conversion processing is as follows: “When the user reproduces and displays a captured image reproduced and displayed on the monitor 23 in a certain viewing environment on the monitor 23 in another certain viewing environment, "The appearance conversion process to make it look the same."

また、本実施形態の見え変換処理は、入力側の視環境条件と出力側の視環境条件との双方が、電子カメラの使用時における視環境条件であったが、入力側の視環境条件と出力側の視環境条件との少なくとも一方を、電子カメラの非使用時における視環境条件としてもよい。例えば、出力側の視環境条件を、コンピュータのモニタ上で撮像画像を観察するときの視環境条件としてもよい。また、出力側の視環境条件を、プリント上で撮像画像を観察するときの視環境条件としてもよい。但し、何れの場合も、電子カメラが自動取得することのできない情報は、ユーザーが入力する必要がある。   Further, in the appearance conversion process of the present embodiment, both the input-side visual environment condition and the output-side visual environment condition are the visual environment conditions when the electronic camera is used. At least one of the visual environment conditions on the output side may be a visual environment condition when the electronic camera is not used. For example, the viewing environment condition on the output side may be a viewing environment condition when a captured image is observed on a computer monitor. Further, the viewing environment condition on the output side may be a viewing environment condition when the captured image is observed on the print. However, in any case, it is necessary for the user to input information that cannot be automatically acquired by the electronic camera.

また、本実施形態では、見え変換処理の全部を電子カメラが実行したが、見え変換処理の一部又は全部を、電子カメラ以外の画像処理装置、例えば、画像蓄積装置、プリンタ、コンピュータへインストールされる画像処理ソフトウエアなどが実行してもよい。   In this embodiment, the electronic camera performs all of the appearance conversion processing. However, part or all of the appearance conversion processing is installed in an image processing device other than the electronic camera, for example, an image storage device, a printer, or a computer. Image processing software or the like may be executed.

11…電子カメラ、12…撮像光学系、13…レンズ駆動部、14…絞り、15…絞り駆動部、16…撮像素子、18…CPU、25…画像処理部、26…認識処理部   DESCRIPTION OF SYMBOLS 11 ... Electronic camera, 12 ... Imaging optical system, 13 ... Lens drive part, 14 ... Diaphragm, 15 ... Diaphragm drive part, 16 ... Imaging element, 18 ... CPU, 25 ... Image processing part, 26 ... Recognition process part

特開2006−135887号公報JP 2006-135877 A 特開2006−211093号公報JP 2006-211093 A 特開2000−148979号公報Japanese Patent Application Laid-Open No. 2000-148979 特開平4−271483号公報JP-A-4-271383 特開2001−43376号公報JP 2001-43376 A

Claims (13)

第1の視環境下で観察される撮影画像に対して見え変換処理を施すことにより、前記第1の視環境とは異なる第2の視環境下での前記撮影画像の見えを、前記第1の視環境下での前記撮影画像の見えと同じにする変換手段と、
前記撮影画像から被写体の存在する被写体領域を検出すると共に、前記被写体領域に存在する被写体の被写体属性を検出する検出手段と、
前記見え変換処理のパラメータを、前記撮影画像内の前記被写体領域ごと、かつ前記被写体属性ごとに設定する設定手段と
を備えたことを特徴とする画像処理装置。
By performing the appearance conversion process on the captured image observed under the first viewing environment, the appearance of the captured image under the second viewing environment different from the first viewing environment is obtained. Conversion means for making the captured image look the same under the visual environment of
Detecting means for detecting a subject area where a subject exists from the photographed image, and detecting a subject attribute of the subject existing in the subject area;
An image processing apparatus comprising: setting means for setting parameters of the appearance conversion processing for each subject area and each subject attribute in the photographed image .
請求項1に記載の画像処理装置において、
前記見え変換処理には、
色順応変換処理が含まれ、
前記設定されるパラメータには、
前記色順応変換処理で使用される順応度のパラメータが含まれる
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
In the appearance conversion process,
Includes chromatic adaptation conversion processing,
The parameters to be set include
An image processing apparatus comprising: a parameter of adaptation used in the chromatic adaptation conversion process.
請求項2に記載の画像処理装置において、
前記設定手段は、
前記被写体属性が非人工物であった場合には、前記被写体属性が人工物であった場合と比較して前記順応度を高めに設定する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The setting means includes
An image processing apparatus, wherein when the subject attribute is a non-artifact, the adaptation degree is set higher than when the subject attribute is an artifact.
請求項2に記載の画像処理装置において、
前記設定手段は、
前記被写体属性が食物であった場合には、前記順応度を最高値に設定する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The setting means includes
When the subject attribute is food, the degree of adaptation is set to a maximum value.
請求項1に記載の画像処理装置において、
前記見え変換処理には、
彩度変換処理が含まれ、
前記設定手段が設定するパラメータには、
前記彩度変換処理で使用される彩度ゲインのパラメータが含まれる
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
In the appearance conversion process,
Includes saturation conversion processing,
The parameters set by the setting means include
An image processing apparatus comprising a saturation gain parameter used in the saturation conversion process.
請求項5に記載の画像処理装置において、
前記設定手段は、
前記被写体属性が人物であった場合には、前記被写体属性が人物以外であった場合と比較して前記彩度ゲインを低めに設定する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 5.
The setting means includes
Wherein when the object attributes were a person, the image processing apparatus, characterized in that the object attribute is set lower the saturation gain as compared with the case it is other than a person.
請求項5に記載の画像処理装置において、
前記設定手段は、
前記被写体属性が屋外の物体であった場合には、前記被写体属性が室内の物体であった場合と比較して前記彩度ゲインを高めに設定する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 5.
The setting means includes
The image processing apparatus, wherein when the subject attribute is an outdoor object, the saturation gain is set higher than when the subject attribute is an indoor object.
請求項1に記載の画像処理装置において、
前記見え変換処理には、
コントラスト変換処理が含まれ、
前記設定手段が設定するパラメータには、
前記コントラスト変換処理で使用されるコントラスト関数のパラメータが含まれる
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
In the appearance conversion process,
Contrast conversion processing is included,
The parameters set by the setting means include
An image processing apparatus comprising a parameter of a contrast function used in the contrast conversion process.
請求項8に記載の画像処理装置において、
前記設定手段は、
前記被写体属性が室内の物体であった場合には、前記被写体属性が屋外の物体であった場合と比較して前記コントラスト関数を高めに設定する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 8.
The setting means includes
The image processing apparatus, wherein when the subject attribute is an indoor object, the contrast function is set higher than when the subject attribute is an outdoor object.
第1の視環境下で観察される撮影画像に対して見え変換処理を施すことにより、前記第1の視環境とは異なる第2の視環境下での前記撮影画像の見えを、前記第1の視環境下での前記撮影画像の見えと同じにする変換手段と、  By performing the appearance conversion process on the captured image observed under the first viewing environment, the appearance of the captured image under the second viewing environment different from the first viewing environment is obtained. Conversion means for making the captured image look the same under the visual environment of
前記撮影画像から被写体の存在する被写体領域を検出すると共に、前記被写体領域に存在する被写体の被写体属性を検出する検出手段と、  Detecting means for detecting a subject area where a subject exists from the photographed image, and detecting a subject attribute of the subject existing in the subject area;
前記被写体属性が食物であった場合には、前記見え変換処理の順応度パラメータを、前記第1の視環境及び前記第2の視環境に拘わらず、最高値に設定する設定手段と  Setting means for setting the adaptation parameter of the appearance conversion process to a maximum value regardless of the first visual environment and the second visual environment when the subject attribute is food;
を備えたことを特徴とする画像処理装置。  An image processing apparatus comprising:
被写体の像を撮像して画像を生成する撮像手段と、
請求項1〜請求項10の何れか一項に記載の画像処理装置と
を備えたことを特徴とする撮像装置。
Imaging means for capturing an image of a subject and generating an image;
An image processing apparatus comprising: the image processing apparatus according to claim 1.
第1の視環境下で観察される撮影画像に対して見え変換処理を施すことにより、前記第1の視環境とは異なる第2の視環境下での前記撮影画像の見えを、前記第1の視環境下での前記撮影画像の見えと同じにする変換手順と、
前記撮影画像から被写体の存在する被写体領域を検出すると共に、前記被写体領域に存在する被写体の被写体属性を検出する検出手順と、
前記見え変換処理のパラメータを、前記撮影画像内の前記被写体領域ごと、かつ前記被写体属性ごとに設定する設定手順と
をコンピュータに実行させることを特徴とする画像処理プログラム。
By performing the appearance conversion process on the captured image observed under the first viewing environment, the appearance of the captured image under the second viewing environment different from the first viewing environment is obtained. Conversion procedure to make the captured image look the same under the visual environment of
A detection procedure for detecting a subject area where a subject is present from the photographed image and detecting a subject attribute of the subject present in the subject region;
An image processing program causing a computer to execute a setting procedure for setting the parameters of the appearance conversion processing for each subject area and each subject attribute in the photographed image .
第1の視環境下で観察される撮影画像に対して見え変換処理を施すことにより、前記第1の視環境とは異なる第2の視環境下での前記撮影画像の見えを、前記第1の視環境下での前記撮影画像の見えと同じにする変換手順と、  By performing the appearance conversion process on the captured image observed under the first viewing environment, the appearance of the captured image under the second viewing environment different from the first viewing environment is obtained. Conversion procedure to make the captured image look the same under the visual environment of
前記撮影画像から被写体の存在する被写体領域を検出すると共に、前記被写体領域に存在する被写体の被写体属性を検出する検出手順と、  A detection procedure for detecting a subject area where a subject is present from the photographed image and detecting a subject attribute of the subject present in the subject region;
前記被写体属性が食物であった場合には、前記見え変換処理の順応度パラメータを、前記第1の視環境及び前記第2の視環境に拘わらず、最高値に設定する設定手順と  A setting procedure for setting the adaptation parameter of the appearance conversion process to the highest value regardless of the first visual environment and the second visual environment when the subject attribute is food;
をコンピュータに実行させることを特徴とする画像処理プログラム。  An image processing program for causing a computer to execute.
JP2009038076A 2009-02-20 2009-02-20 Image processing apparatus, imaging apparatus, and image processing program Expired - Fee Related JP5369751B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009038076A JP5369751B2 (en) 2009-02-20 2009-02-20 Image processing apparatus, imaging apparatus, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009038076A JP5369751B2 (en) 2009-02-20 2009-02-20 Image processing apparatus, imaging apparatus, and image processing program

Publications (2)

Publication Number Publication Date
JP2010193375A JP2010193375A (en) 2010-09-02
JP5369751B2 true JP5369751B2 (en) 2013-12-18

Family

ID=42818902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009038076A Expired - Fee Related JP5369751B2 (en) 2009-02-20 2009-02-20 Image processing apparatus, imaging apparatus, and image processing program

Country Status (1)

Country Link
JP (1) JP5369751B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7316632B2 (en) 2019-03-08 2023-07-28 大同石油株式会社 safety boots

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1032723A (en) * 1996-07-15 1998-02-03 Fuji Xerox Co Ltd Image processor
JP4467202B2 (en) * 2001-03-16 2010-05-26 株式会社リコー Color conversion apparatus and color conversion method
JP2003244627A (en) * 2002-02-20 2003-08-29 Konica Corp Image processing method, image processing program, recording medium for recording the image processing program, image processing apparatus, and image recording apparatus
JP2004274720A (en) * 2003-02-18 2004-09-30 Fuji Photo Film Co Ltd Data conversion apparatus and data conversion program
JP2005210526A (en) * 2004-01-23 2005-08-04 Konica Minolta Photo Imaging Inc Image processing apparatus, method, and program, image pickup device, and image data outputting method and program
JP2005346474A (en) * 2004-06-03 2005-12-15 Canon Inc Image processing method and image processor and program and storage medium
JP4860914B2 (en) * 2004-12-07 2012-01-25 キヤノン株式会社 Image projection apparatus, image projection method, and program
JP4712635B2 (en) * 2006-07-27 2011-06-29 富士フイルム株式会社 Data correction method, apparatus and program
JP4850676B2 (en) * 2006-12-07 2012-01-11 キヤノン株式会社 Image generating apparatus and image generating method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7316632B2 (en) 2019-03-08 2023-07-28 大同石油株式会社 safety boots

Also Published As

Publication number Publication date
JP2010193375A (en) 2010-09-02

Similar Documents

Publication Publication Date Title
KR101243335B1 (en) Image processing apparatus, method, program and image pickup apparatus
US8488015B2 (en) Camera using preview image to select exposure
US8224036B2 (en) Image editing apparatus, method for controlling image editing apparatus, and recording medium storing image editing program
US9445067B2 (en) Imaging device and image signal processor with color noise correction
TWI293846B (en) Image pickup device with brightness correcting function and method of correcting brightness of image
KR102369148B1 (en) Image capture method and system
CN104247398B (en) Picture pick-up device and its control method
JP2007057599A (en) Image signal processing apparatus, image signal processing method and image signal processing system
KR20120016475A (en) Image processing method and image processing apparatus
KR20150081153A (en) Apparatus and method for processing image, and computer-readable recording medium
US11798143B2 (en) Image processing apparatus and control method thereof
JP2011228807A (en) Image processing program, image processing apparatus, and image processing method
JP5127638B2 (en) Image processing apparatus and method
JP2010183460A (en) Image capturing apparatus and method of controlling the same
JP6210772B2 (en) Information processing apparatus, imaging apparatus, control method, and program
JP5369751B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP2004129065A (en) Digital camera
JP5743456B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JP2009206585A (en) Image processing apparatus, image processing program and digital camera
JP4857856B2 (en) Electronic camera having saturation adjustment function and image processing program
JP6541760B2 (en) Display device and control method of display device
US11641525B2 (en) Image capturing apparatus capable of displaying live view image high in visibility, method of controlling image capturing apparatus, and storage medium
JP5458776B2 (en) Image processing apparatus and image processing program
JP2012129611A (en) Imaging apparatus
JP7332325B2 (en) IMAGE PROCESSING DEVICE, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121024

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130902

R150 Certificate of patent or registration of utility model

Ref document number: 5369751

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees