JP2012199804A - Image processor and image processing method - Google Patents

Image processor and image processing method Download PDF

Info

Publication number
JP2012199804A
JP2012199804A JP2011062927A JP2011062927A JP2012199804A JP 2012199804 A JP2012199804 A JP 2012199804A JP 2011062927 A JP2011062927 A JP 2011062927A JP 2011062927 A JP2011062927 A JP 2011062927A JP 2012199804 A JP2012199804 A JP 2012199804A
Authority
JP
Japan
Prior art keywords
light source
image
flash
conversion
light emitting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011062927A
Other languages
Japanese (ja)
Inventor
Hisato Sekine
寿人 関根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011062927A priority Critical patent/JP2012199804A/en
Publication of JP2012199804A publication Critical patent/JP2012199804A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve a problem that when color conversion to an observational light source which is different from a shooting light source is performed to a shot image of a scene in which a reflecting object and a light emitting object are mixed, color is reproduced which is different from the original visibility, especially for the light emitting object.SOLUTION: An image shot under a shooting light source is input (S302), spectral radiance of the shooting light source is obtained (S306), and spectral radiance of the observational light source which is different from the shooting light source is obtained (S308). In the shot image, a light emitting object area corresponding to the light emitting object emitting light by itself in the scene is detected (S310), and the shot image is converted so as to reproduce the visibility under the observational light source by using the spectral radiance of the shooting light source and the observational light source (S313). At the time of conversion, it is possible to perform control so that the light emitting object area is not reflected by the observational light source by differentiating a degree of reflecting the spectral radiance of the observational light source between the light emitting object area and the remaining areas.

Description

本発明は、撮像装置によって撮影された画像を、撮影時とは異なる照明光源下で再現される色に変換する画像処理装置および画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method for converting an image photographed by an imaging device into a color that is reproduced under an illumination light source different from that at the time of photographing.

従来、カメラ等の撮像装置によって取得した画像を、その撮影時とは異なる照明光源下で再現される色に変換する方法として、マルチバンドカメラを用いた色変換処理技術がある(例えば、特許文献1、特許文献2参照)。マルチバンドカメラを用いた色変換処理技術では、まず、マルチバンドカメラによって取得した画像から撮影光源の情報を取り除いた分光反射率を推定する。そして、該推定した分光反射率に対して、任意の照明光源の分光放射輝度を乗じることによって、任意の照明光源下における色の再現が可能となる。   Conventionally, there is a color conversion processing technique using a multiband camera as a method of converting an image acquired by an imaging device such as a camera into a color that is reproduced under an illumination light source different from that at the time of shooting (for example, Patent Literature). 1, see Patent Document 2). In a color conversion processing technique using a multiband camera, first, a spectral reflectance obtained by removing information on a photographing light source from an image acquired by a multiband camera is estimated. Then, by multiplying the estimated spectral reflectance by the spectral radiance of an arbitrary illumination light source, color reproduction under an arbitrary illumination light source is possible.

特開2010−246036号公報JP 2010-246036 A 特開平9−327024号公報JP-A-9-327024

しかしながら、上記従来の色変換処理技術では、撮影対象となるシーン中に、自らが発光している発光物体が含まれる場合、その発光物体についても本来とは異なる色へ変換してしまうという課題がある。例えば、ディスプレイ等の発光物体が写り込んでいるシーンを、撮影時とは異なる照明光源下の色へ変換する場合を考える。この場合、当該シーン内の反射物体に関しては、撮影画像から撮影照明の分光放射輝度を取り除いて分光反射率を推定した後に、実際の照明光源の分光放射輝度を乗じることで、実際のシーンの見えを再現することが可能となる。しかしながら、シーン内の発光物体(ディスプレイ等)は、撮影光源や照明光源の影響をそれほど受けないため、反射物体と同様の処理をすると、本来の見えとは異なる色に変換されてしまう。   However, in the above conventional color conversion processing technique, when a scene to be photographed includes a light emitting object that emits light, the problem is that the light emitting object is also converted to a color different from the original color. is there. For example, consider a case where a scene in which a light-emitting object such as a display is reflected is converted to a color under an illumination light source different from that at the time of shooting. In this case, for the reflective object in the scene, the spectral radiance of the photographic illumination is removed from the captured image and the spectral reflectance is estimated. Can be reproduced. However, since a light-emitting object (display or the like) in a scene is not significantly affected by a photographing light source or an illumination light source, if a process similar to that of a reflective object is performed, it is converted into a color different from the original appearance.

本発明は上記の課題を顧みてなされたものであり、発光物体を含むシーンの撮影画像に対し、撮影光源とは異なる観察光源への色変換を、該発光物体の色再現を考慮して高精度に行うことを目的とする。   The present invention has been made in view of the above-described problems, and color conversion to an observation light source different from a photographing light source is performed on a photographed image of a scene including a light emitting object in consideration of color reproduction of the light emitting object. The purpose is to be accurate.

上記目的を達成するための一手段として、本発明の画像処理装置は以下の構成を備える。   As a means for achieving the above object, an image processing apparatus of the present invention comprises the following arrangement.

すなわち、撮影光源下において、4種類以上のカラーフィルタを有するマルチバンドカメラによって撮影された撮影画像を入力する画像入力手段と、前記撮影光源の分光放射輝度を取得する撮影光源情報の取得手段と、前記撮影光源とは異なる観察光源の分光放射輝度を取得する観察光源情報の取得手段と、前記撮影画像において、そのシーン内で自らが発光している発光物体に対応する発光物体領域を設定する設定手段と、前記撮影画像に前記撮影光源の分光放射輝度を反映させた第1の反映結果と、該撮影画像に前記観察光源の分光放射輝度を反映させた第2の反映結果を合成することで、前記撮影画像を前記観察光源下での見えを再現するように変換する変換手段と、を有し、前記変換手段は、前記発光物体領域とそれ以外の領域とで、前記第1および第2の反映結果を合成する割合が異なることを特徴とする。   That is, under an imaging light source, an image input unit that inputs a captured image captured by a multiband camera having four or more color filters, an imaging light source information acquisition unit that acquires a spectral radiance of the imaging light source, Observation light source information acquisition means for acquiring a spectral radiance of an observation light source different from the imaging light source, and a setting for setting a light emitting object region corresponding to a light emitting object emitting light in the scene in the captured image A first reflection result in which the spectral radiance of the photographing light source is reflected in the photographed image, and a second reflection result in which the spectral radiance of the observation light source is reflected in the photographed image. Conversion means for converting the photographed image so as to reproduce the appearance under the observation light source, and the conversion means includes the light emitting object region and the other region, The ratio of combining the first and second reflection results is different.

本発明によれば、発光物体を含むシーンの撮影画像に対し、撮影光源とは異なる観察光源への色変換を、該発光物体の色再現を考慮して高精度に行うことが可能となる。   According to the present invention, it is possible to perform color conversion of a captured image of a scene including a light emitting object to an observation light source different from the photographing light source with high accuracy in consideration of color reproduction of the light emitting object.

第1実施形態における画像処理装置の構成を示すブロック図、FIG. 2 is a block diagram showing the configuration of the image processing apparatus in the first embodiment. 第1実施形態におけるユーザインタフェース例、An example of a user interface in the first embodiment; 第1実施形態における画像処理を示すフローチャート、The flowchart which shows the image processing in 1st Embodiment, 発光物体判定係数を説明するための図、The figure for explaining the luminous object judgment coefficient, 第2実施形態における画像処理装置の構成を示すブロック図、The block diagram which shows the structure of the image processing apparatus in 2nd Embodiment, 第2実施形態における画像処理を示すフローチャート、The flowchart which shows the image processing in 2nd Embodiment, 第3実施形態における画像処理を示すフローチャート、である。It is a flowchart which shows the image processing in 3rd Embodiment.

以下、本発明に係る実施形態について図面を用いて詳細に説明する。尚、以下の実施形態は特許請求の範囲に係る本発明を限定するものでなく、また本実施の形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。   Hereinafter, embodiments according to the present invention will be described in detail with reference to the drawings. The following embodiments do not limit the present invention according to the claims, and all the combinations of features described in the present embodiments are not necessarily essential to the solution means of the present invention. Absent.

<第1実施形態>
本実施形態は、反射物体と発光物体が混在したシーンをマルチバンドカメラによって撮影した撮影画像に対し、撮影光源とは異なる観察光源下での見えを再現するための変換処理を行う。この際に、撮影画像内の発光物体領域と反射物体領域とで光源の寄与度を異ならせることによって、観察光源下での正確な色の見えを再現することができる。なお本実施形態における画像変換処理は、ユーザがユーザインタフェース(UI)を介して指示入力を行いながら、実行される。
<First Embodiment>
In the present embodiment, a conversion process for reproducing an appearance under an observation light source different from an imaging light source is performed on a captured image obtained by capturing a scene in which a reflective object and a light emitting object are mixed with a multiband camera. At this time, by making the contribution of the light source different between the light emitting object region and the reflecting object region in the photographed image, it is possible to reproduce an accurate color appearance under the observation light source. Note that the image conversion process in the present embodiment is executed while a user inputs an instruction via a user interface (UI).

●装置構成
図1は、本実施形態における画像処理装置の構成を示すブロック図である。同図に示すように本実施形態の画像処理装置100は、画像処理部101と制御部130に大別され、これらはシステムバス116によって接続されている。
画像処理部101において、102は画像データを入力するための画像入力部、103は該入力した画像データを記憶する入力画像記憶部である。104は、画像入力部102から入力した画像データのうち、特にフラッシュを用いて撮影された画像データを記憶するフラッシュ画像記憶部である。105は撮影光源の分光放射輝度データ(撮影光源情報)を入力する撮影光源入力部、106は該撮影光源情報を記憶する撮影光源記憶部である。107は再現する光源情報を予め記憶しておく観察光源記憶部、122は観察光源情報を選択する観察光源選択部である。108は変換処理に必要なパラメータを入力する変換パラメータ入力部、109は該入力された変換パラメータを記憶する変換パラメータ記憶部である。110は、入力画像記憶部103に記憶された画像データに対して、発光物体と反射物体の判定を行う発光・反射判定部である。この判定は、撮影光源記憶部106に記憶された撮影光源の分光放射輝度データ、及び変換パラメータ記憶部109に記憶された変換パラメータを用いて行われるが、その詳細については後述する。111は、発光・反射判定部110による判定結果を記憶する発光・反射判定結果記憶部である。
Apparatus Configuration FIG. 1 is a block diagram showing a configuration of an image processing apparatus according to this embodiment. As shown in the figure, the image processing apparatus 100 of the present embodiment is roughly divided into an image processing unit 101 and a control unit 130, which are connected by a system bus 116.
In the image processing unit 101, 102 is an image input unit for inputting image data, and 103 is an input image storage unit for storing the input image data. Reference numeral 104 denotes a flash image storage unit that stores image data captured using a flash among image data input from the image input unit 102. Reference numeral 105 denotes an imaging light source input unit that inputs spectral radiance data (imaging light source information) of the imaging light source, and reference numeral 106 denotes an imaging light source storage unit that stores the imaging light source information. 107 is an observation light source storage unit that stores light source information to be reproduced in advance, and 122 is an observation light source selection unit that selects observation light source information. Reference numeral 108 denotes a conversion parameter input unit that inputs parameters necessary for the conversion process, and reference numeral 109 denotes a conversion parameter storage unit that stores the input conversion parameters. Reference numeral 110 denotes a light emission / reflection determination unit that determines a light emitting object and a reflection object with respect to image data stored in the input image storage unit 103. This determination is performed using the spectral radiance data of the photographic light source stored in the photographic light source storage unit 106 and the conversion parameters stored in the conversion parameter storage unit 109. Details thereof will be described later. Reference numeral 111 denotes a light emission / reflection determination result storage unit that stores a determination result by the light emission / reflection determination unit 110.

112は、入力画像記憶部103に記憶された画像データに対し、画像変換処理を行う画像変換部、113は該変換された画像データを記憶する変換画像記憶部である。114は、発光・反射判定結果記憶部111に記憶された判定結果や、変換画像記憶部113に記憶された変換後の画像データをディスプレイ等の画像表示装置に出力する画像出力部である。115は、画像処理部101の動作をユーザが指示するためのユーザインタフェース(UI)部である。   An image conversion unit 112 performs image conversion processing on the image data stored in the input image storage unit 103, and a conversion image storage unit 113 stores the converted image data. Reference numeral 114 denotes an image output unit that outputs the determination result stored in the light emission / reflection determination result storage unit 111 and the converted image data stored in the converted image storage unit 113 to an image display device such as a display. Reference numeral 115 denotes a user interface (UI) unit for the user to instruct the operation of the image processing unit 101.

制御部130において、CPU117は各構成の処理の全てに関わり、RAM118やROM119に格納された命令を順に読み込み実行する。また、RAM118とROM119は、その処理に必要なプログラム、データ、作業領域等をCPU117に提供する。また、操作部120はキーボードやマウスポインタであり、画像処理部101に対するユーザからの指示を入力する。外部記憶装置121は、ハードディスク等の記憶装置である。   In the control unit 130, the CPU 117 is involved in all the processing of each component, and sequentially reads and executes instructions stored in the RAM 118 and the ROM 119. The RAM 118 and ROM 119 provide the CPU 117 with programs, data, work areas, and the like necessary for the processing. The operation unit 120 is a keyboard or a mouse pointer, and inputs an instruction from the user to the image processing unit 101. The external storage device 121 is a storage device such as a hard disk.

図2は、UI部115におけるユーザインタフェース例を示す図である。UI画面201において、202は処理対象となる撮影画像の読み込みを指示する画像読み込みボタン、203は変換パラメータの読み込みを指示する変換パラメータ読込ボタンである。204は撮影光源情報の読み込みを指示する撮影光源読込ボタン、205は各種光源をリスト表示することで観察光源を選択する観察光源選択ボタン、208は画像変換処理の実行を指示する変換処理実行ボタンである。206は撮影画像を発光物体の領域と反射物体の領域に分類する発光・反射判定ボタン、207は発光・反射の判定結果を表示する発光・反射判定結果表示部、209は入力画像及び変換結果の画像を表示する画像表示部である。210は変換結果の画像の保存を指示する変換画像保存ボタンである。   FIG. 2 is a diagram illustrating an example of a user interface in the UI unit 115. In the UI screen 201, 202 is an image reading button for instructing reading of a captured image to be processed, and 203 is a conversion parameter reading button for instructing reading of a conversion parameter. 204 is an imaging light source reading button for instructing reading of imaging light source information, 205 is an observation light source selection button for selecting an observation light source by displaying various light sources in a list, and 208 is a conversion processing execution button for instructing execution of image conversion processing. is there. 206 is a light emission / reflection determination button for classifying a photographed image into a light emitting object area and a reflection object area, 207 is a light emission / reflection determination result display section for displaying a light emission / reflection determination result, and 209 is an input image and a conversion result. It is an image display part which displays an image. Reference numeral 210 denotes a converted image storage button for instructing storage of an image of the conversion result.

●画像変換処理
以下、本実施形態における画像変換処理について、図3のフローチャートを用いて説明する。
Image Conversion Processing Hereinafter, image conversion processing in the present embodiment will be described using the flowchart of FIG.

まず、S301で画像読込ボタン202が押されるまで待機し、押されたらS302に進んで画像入力処理を行う。S302では、UI部115に入力画像選択画面(不図示)が表示され、該画面には例えば外部記憶装置121に保持された画像データの一覧がユーザに選択可能な形態で提示される。ユーザは該画面より、同一シーンについて、撮影光源下でフラッシュを用いずに通常撮影した画像と、撮影光源下でフラッシュを使用して撮影した画像の両方を入力対象として選択する。すると画像入力部102が、該選択された通常撮影画像およびフラッシュ撮影画像を、それぞれ入力画像記憶部103とフラッシュ画像記憶部104に格納する。なお、本実施形態における入力画像はマルチバンドカメラによって撮影されたマルチバンド画像であるが、その詳細については後述する。   First, it waits until the image reading button 202 is pressed in S301, and if it is pressed, it proceeds to S302 and performs image input processing. In S302, an input image selection screen (not shown) is displayed on the UI unit 115, and for example, a list of image data held in the external storage device 121 is presented on the screen in a form that can be selected by the user. From the screen, the user selects both an image that is normally captured without using a flash under a photographing light source and an image that is captured using a flash under a photographing light source as input targets for the same scene. Then, the image input unit 102 stores the selected normal captured image and flash captured image in the input image storage unit 103 and the flash image storage unit 104, respectively. The input image in the present embodiment is a multiband image taken by a multiband camera, details of which will be described later.

次にS303で変換パラメータ読込ボタン203が押されるまで待機し、押されたらS304に進む。S304ではUI部115に変換パラメータ選択画面(不図示)が表示され、該画面には例えば外部記憶装置121に保持されたマルチバンドカメラの機種一覧がユーザに選択可能な形態で提示される。ユーザは該画面より、通常撮影画像およびフラッシュ撮影画像を撮影したマルチバンドカメラの機種を選択する。すると該選択された機種に対応して外部記憶装置121に予め記憶されている変換パラメータが変換パラメータ入力部108によって入力され、変換パラメータ記憶部109に格納される。なお、変換パラメータの詳細については後述する。   Next, it waits until the conversion parameter reading button 203 is pressed in S303, and if it is pressed, the process proceeds to S304. In S304, a conversion parameter selection screen (not shown) is displayed on the UI unit 115, and on this screen, for example, a model list of multiband cameras held in the external storage device 121 is presented to the user in a selectable form. From the screen, the user selects the model of the multiband camera that captured the normal captured image and the flash captured image. Then, a conversion parameter stored in advance in the external storage device 121 corresponding to the selected model is input by the conversion parameter input unit 108 and stored in the conversion parameter storage unit 109. Details of the conversion parameter will be described later.

次にS305で、撮影光源読込ボタン204が押されるまで待機し、押されたらS306に進む。S306ではUI部115に撮影光源情報選択画面(不図示)が表示され、該画面には例えば外部記憶装置121に保持された撮影光源種類の一覧がユーザに選択可能な形態で提示される。ユーザは該画面より、通常撮影画像の撮影時における光源の種類を選択する。すると該選択された光源種類に対応して外部記憶装置121に予め記憶されている撮影光源情報が撮影光源入力部105によって入力され、撮影光源記憶部106に格納される。   In step S305, the process waits until the photographing light source reading button 204 is pressed. In S306, a photographing light source information selection screen (not shown) is displayed on the UI unit 115, and for example, a list of photographing light source types held in the external storage device 121 is presented in a form that can be selected by the user. From the screen, the user selects the type of light source at the time of shooting a normal shot image. Then, photographing light source information stored in advance in the external storage device 121 corresponding to the selected light source type is input by the photographing light source input unit 105 and stored in the photographing light source storage unit 106.

次にS307で、観察光源選択ボタン205によって、変換対象となる光源の種類が選択されるまで待機し、選択されたらS308に進む。S308では該選択された光源種類(例えば「蛍光灯」)に基づく観察光源情報が観察光源記憶部107から選択される。ここで、S306で読み込む撮影光源情報、およびS308にて選択する観察光源情報は、可視光領域380-730nmに対して10nmごとにサンプリングした分光放射輝度データである。   In step S307, the process waits until the type of light source to be converted is selected by the observation light source selection button 205. If selected, the process proceeds to step S308. In S308, observation light source information based on the selected light source type (eg, “fluorescent lamp”) is selected from the observation light source storage unit 107. Here, the imaging light source information read in S306 and the observation light source information selected in S308 are spectral radiance data sampled every 10 nm with respect to the visible light region 380-730 nm.

次にS309で、発光・反射判定ボタン206が押されるまで待機し、押されたらS310に進む。S310では発光・反射判定部110において、通常撮影画像の画素ごとに、シーン内で自らが発光している発光物体が撮影された発光物体領域に属するか否かの判定を行う。ここで発光物体領域に属さない画素はすなわち、反射物体が撮影された反射物体領域に属するものとみなされる。この判定は、入力画像記憶部103とフラッシュ画像記憶部104にそれぞれ格納されている、同一シーンを撮影した通常撮影画像およびフラッシュ撮影画像を用いて行われる。なお、発光・反射判定処理の詳細については後述する。該判定結果は発光・反射判定結果記憶部111に格納され、S311で発光・反射判定結果表示部207に表示される。この表示方法としては、撮影されたシーン内における発光物体領域と反射物体領域をユーザが識別できれば良い。したがって例えば、通常撮影画像の全体を暗く表示した上に、検出された発光物体領域のみを明るく表示する等が考えられる。   In step S309, the process waits until the light emission / reflection determination button 206 is pressed. In S310, the light emission / reflection determination unit 110 determines, for each pixel of the normal captured image, whether or not the light emitting object emitting light in the scene belongs to the captured light emitting object region. Here, pixels that do not belong to the light emitting object region are regarded as belonging to the reflecting object region where the reflecting object is photographed. This determination is performed using a normal photographed image and a flash photographed image obtained by photographing the same scene stored in the input image storage unit 103 and the flash image storage unit 104, respectively. Details of the light emission / reflection determination process will be described later. The determination result is stored in the light emission / reflection determination result storage unit 111 and displayed on the light emission / reflection determination result display unit 207 in S311. As the display method, it is only necessary that the user can identify the light emitting object region and the reflecting object region in the photographed scene. Therefore, for example, it is conceivable to display only the detected light emitting object region brightly while displaying the entire normal captured image darkly.

次にS312で、変換処理実行ボタン208が押されるまで待機し、押されたらS313に進む。S313では画像変換部112において、入力画像記憶部103に格納されている通常撮影画像に対し、S307で選択された観察光源下での見えとなるような変換処理を施し、該変換結果を変換画像記憶部113に格納する。なお、画像変換処理の詳細については後述する。そしてS314で、変換画像記憶部113に格納されている変換画像を画像表示部209に表示する。   Next, in S312, the process waits until the conversion process execution button 208 is pressed, and if it is pressed, the process proceeds to S313. In S313, the image conversion unit 112 performs a conversion process on the normal captured image stored in the input image storage unit 103 so that the image is viewed under the observation light source selected in S307, and the conversion result is converted into a converted image. Store in the storage unit 113. Details of the image conversion process will be described later. In step S314, the converted image stored in the converted image storage unit 113 is displayed on the image display unit 209.

次にS315で、変換画像保存ボタン210が押されるまで待機し、押されたらS316に進み、画像出力部114が、変換画像記憶部113に格納されている画像データを外部記憶装置121に格納する。   In step S315, the process waits until the converted image save button 210 is pressed. If the button is pressed, the process advances to step S316, and the image output unit 114 stores the image data stored in the converted image storage unit 113 in the external storage device 121. .

●入力画像データ
本実施形態においてS302で入力される画像データとしては、マルチバンドカメラによって撮影されたマルチバンド画像を想定している。ここでマルチバンドカメラとは、4つ以上の分光特性の異なるカラーフィルタを有するカメラであり、このカメラによって撮影された画像データは、各画素について4つ以上の色情報を持つ。以下、本実施形態における入力画像データは、6種類のカラーフィルタを有するマルチバンドカメラによって撮影された画像(以下、マルチバンド画像)であるとする。
Input Image Data In this embodiment, the image data input in S302 is assumed to be a multiband image taken by a multiband camera. Here, the multiband camera is a camera having four or more color filters having different spectral characteristics, and image data captured by the camera has four or more color information for each pixel. Hereinafter, it is assumed that the input image data in the present embodiment is an image (hereinafter referred to as a multiband image) taken by a multiband camera having six types of color filters.

●変換パラメータ
本実施形態においてS304で入力される変換パラメータは、マルチバンドカメラによって取得したマルチバンド画像を、各画素に対して分光反射率を持つ分光画像に変換するための変換行列、およびカラーフィルタの分光透過率データである。なお、本実施形態において扱う分光反射率は、可視光領域の380-730nmに対して、10nmにサンプリングした36次元のデータとする。
Conversion Parameter The conversion parameter input in S304 in this embodiment is a conversion matrix for converting a multiband image acquired by a multiband camera into a spectral image having a spectral reflectance for each pixel, and a color filter. Spectral transmittance data. The spectral reflectance handled in this embodiment is 36-dimensional data sampled at 10 nm with respect to 380-730 nm in the visible light region.

ここで、6種類のカラーフィルタを有するマルチバンドカメラによって取得したマルチバンド画像から分光画像への変換を行うには、画素ごとに、6次元のデータを36次元のデータに変換する必要がある。そこで、以下の式(1)のように変換を行うことで、マルチバンド画像から分光画像への画素ごとの変換が可能となる。式(1)において、oが変換目標となる分光画像を示し、36次元の分光反射率データo380〜o730からなる。vが変換対象となるマルチバンド画像であり、6次元のマルチバンド画素値v1〜v6からなる。Gは36×6の変換行列である。また、Wはホワイトバランス係数であり、w1〜w6の有効係数を有する。 Here, in order to convert a multiband image acquired by a multiband camera having six types of color filters into a spectral image, it is necessary to convert 6-dimensional data into 36-dimensional data for each pixel. Therefore, by performing conversion as in the following expression (1), conversion for each pixel from the multiband image to the spectral image becomes possible. In Expression (1), o represents a spectral image to be converted, and is composed of 36-dimensional spectral reflectance data o 380 to o 730 . v is a multi-band image to be converted, consist multiband pixel value v 1 to v 6 six dimensions. G is a 36 × 6 transformation matrix. W is a white balance coefficient and has an effective coefficient of w 1 to w 6 .

Figure 2012199804
Figure 2012199804

上記ホワイトバランス係数Wは、撮影光源の分光データlight(λ)と、カラーフィルタの分光透過率filtern(λ)(nはフィルタ番号)を用いて、以下の式(2)のように算出される。 The white balance coefficient W is calculated by using the spectral data light (λ) of the photographic light source and the spectral transmittance filter n (λ) (n is the filter number) of the color filter as shown in the following equation (2). The

Figure 2012199804
Figure 2012199804

すなわち上記S304では変換パラメータとして、式(1)に示す変換行列G、および式(2)に示すカラーフィルタの分光透過率データfiltern(λ)(n=1〜6)を入力する。 That is, in S304, the conversion matrix G shown in Expression (1) and the spectral transmittance data filter n (λ) (n = 1 to 6) of the color filter shown in Expression (2) are input as conversion parameters.

●発光・反射判定処理
以下、S310における発光・反射判定処理について詳細に説明する。発光物体領域の判定には、入力画像記憶部103に格納されている通常撮影画像と、フラッシュ画像記憶部104に格納されているフラッシュ撮影画像とにおける画素値の差分を用いる。具体的には以下に示す式(3)によって、画素(x,y)ごとに発光物体領域である度合いを示す発光物体係数αを算出し、これを判定結果とする。
Light emission / reflection determination process The light emission / reflection determination process in S310 will be described in detail below. For the determination of the light emitting object region, a difference in pixel value between the normal captured image stored in the input image storage unit 103 and the flash captured image stored in the flash image storage unit 104 is used. Specifically, the light emitting object coefficient α indicating the degree of the light emitting object region is calculated for each pixel (x, y) by the following equation (3), and this is used as the determination result.

式(3)において、pinput(x,y)は通常撮影画像における画素(x,y)の輝度値、pflash(x,y)はフラッシュ撮影画像における画素(x,y)の輝度値である。これらの輝度値は、それぞれのマルチバンド画像vに対して周知の積分処理を施すことによって導出される。またpmaxは、通常撮影画像pinput(x,y)における最大輝度値である。 In Expression (3), p input (x, y) is the luminance value of the pixel (x, y) in the normal captured image, and p flash (x, y) is the luminance value of the pixel (x, y) in the flash captured image. is there. These luminance values are derived by performing a well-known integration process on each multiband image v. Further, p max is a maximum luminance value in the normal captured image p input (x, y).

Figure 2012199804
Figure 2012199804

式(3)によって算出される発光物体係数αは0≦α≦1の値をとり、αが1に近いほど、当該画素は発光物体領域である度合いが高いと判定される。したがって、S311では、通常撮影画像において発光物体係数αが所定の閾値以上である画素を検出し、発光物体領域として設定、表示すれば良い。   The luminescent object coefficient α calculated by Expression (3) takes a value of 0 ≦ α ≦ 1, and the closer α is to 1, the higher the degree that the pixel is a luminescent object region. Therefore, in S311, a pixel having a light emitting object coefficient α that is equal to or larger than a predetermined threshold in a normal captured image may be detected, set, and displayed as a light emitting object region.

また式(3)におけるkは、発光物体の判定精度を制御するための発光物体判定係数であるが、本実施形態ではこの値を通常撮影画像の輝度値pinputに応じて0≦k≦1の範囲で設定する。ここで図4に、通常撮影画像の輝度値pinputに対する発光物体判定係数kの値を示す。一般に、通常撮影画像における発光物体領域は、反射物体領域と比較して輝度が高く、ある程度以上の高輝度領域であれば発光物体領域であるとみなせる。そこで本実施形態では図4に示すように、通常撮影画像の輝度値pinputが所定値以上の高輝度部であれば発光物体判定係数kを0とする。これにより、上記式(3)により算出される発光物体係数αが、該高輝度部において無条件に1となる。また図4に示すように、通常撮影画像の輝度値pinputが所定値以下の低輝度部であれば発光物体判定係数kを1とする。これにより、上記式(3)により算出される発光物体係数αが、該低輝度部において高精度に設定される。すなわち、低輝度部における発光物体領域の検出精度が高められる。なお、通常撮影画像における低輝度部と高輝度部の間については、図4に示すように輝度値が大きいほど発光物体係数kが小さくなるように連続させれば良い。 Further, k in the expression (3) is a light emitting object determination coefficient for controlling the determination accuracy of the light emitting object. In this embodiment, this value is 0 ≦ k ≦ 1 according to the luminance value p input of the normal photographed image. Set within the range. Here, FIG. 4 shows the value of the luminous object determination coefficient k with respect to the luminance value p input of the normal captured image. In general, a light emitting object region in a normal captured image has a higher luminance than a reflective object region, and a light emitting object region can be regarded as a light emitting object region if it is a high luminance region of a certain level or more. Therefore, in this embodiment, as shown in FIG. 4, if the luminance value p input of the normal captured image is a high luminance part having a predetermined value or more, the light emitting object determination coefficient k is set to zero. As a result, the light emitting object coefficient α calculated by the above equation (3) is unconditionally set to 1 in the high luminance portion. As shown in FIG. 4, the light-emitting object determination coefficient k is set to 1 if the luminance value p input of the normal photographed image is a low luminance part that is equal to or less than a predetermined value. As a result, the light emitting object coefficient α calculated by the above equation (3) is set with high accuracy in the low luminance portion. That is, the detection accuracy of the light emitting object region in the low luminance part is improved. In addition, what is necessary is just to make it continuous between the low-intensity part and high-intensity part in a normal picked-up image so that the light emission object coefficient k may become small, so that a luminance value is large, as shown in FIG.

●画像変換処理
以下、S313における画像変換処理について詳細に説明する。ここではまず、通常撮影画像として入力されたマルチバンド画像vを、上記S304で入力された変換パラメータ(変換行列G、カラーフィルタの分光透過率filtern(λ))を用いて、上記式(1)に従って分光画像oに変換する。そして分光画像oに対し、上記S310で式(3)により求められた発光物体係数αを用いて、観察光源下におけるリニアsRGBのRGB値への変換を行う。この変換は、以下の式(4)に従う。
Image Conversion Processing Hereinafter, the image conversion processing in S313 will be described in detail. Here, first, the multiband image v input as a normal photographed image is converted into the above equation (1) using the conversion parameters (conversion matrix G, color filter spectral transmittance filter n (λ)) input in S304. ) To convert to a spectral image o. Then, the spectral image o is converted into a linear sRGB RGB value under the observation light source by using the luminescent object coefficient α obtained by Equation (3) in S310. This conversion follows the following formula (4).

Figure 2012199804
Figure 2012199804

式(4)によれば、通常撮影画像の分光画像oに対し、撮影光源の分光放射輝度L0を反映させた第1の反映結果と、観察光源の分光放射輝度L1を反映させた第2の反映結果をαに応じた割合で合成する。すなわち、発光物体係数αが高いために発光物体領域内にあるとみなせる画素については、観察光源の寄与度が小さくなり、観察光源を反映しない色再現がなされる。逆に、発光物体係数αが低いために発光物体領域外、すなわち反射物体領域内にあるとみなせる画素については、観察光源の寄与度が大きくなり、観察光源を反映した色再現がなされる。   According to the equation (4), the first reflection result reflecting the spectral radiance L0 of the photographing light source and the second reflecting the spectral radiance L1 of the observation light source to the spectral image o of the normal photographed image. The reflection results are synthesized at a rate corresponding to α. That is, for pixels that can be regarded as being within the light emitting object region because of the high light emitting object coefficient α, the contribution of the observation light source is reduced, and color reproduction that does not reflect the observation light source is performed. On the other hand, for the pixels that can be regarded as being outside the light emitting object region, that is, inside the reflecting object region because the light emitting object coefficient α is low, the contribution of the observation light source becomes large, and color reproduction reflecting the observation light source is performed.

以上の処理によって、入力されたマルチバンド画像がsRGBデータに変換されるが、該sRGBデータをさらにディスプレイ等へ表示する場合には、ガンマ補正処理や、ディスプレイの色特性に応じた色合わせ処理を行えば良い。   The input multiband image is converted into sRGB data by the above processing. When the sRGB data is further displayed on a display or the like, gamma correction processing or color matching processing according to the color characteristics of the display is performed. Just do it.

以上説明したように本実施形態によれば、マルチバンドカメラを用いて撮影されたシーン内に発光物体が含まれていた場合に、該発光物体領域に対して観察光源を反映させないように制御することができる。したがって、発光物体と反射物体が混在したシーンの撮影画像についても、撮影光源下とは異なる観察光源下での見えを精度良く再現することが可能となる。   As described above, according to this embodiment, when a light-emitting object is included in a scene photographed using a multiband camera, control is performed so that the observation light source is not reflected in the light-emitting object region. be able to. Therefore, it is possible to accurately reproduce the appearance of an image of a scene in which a light emitting object and a reflective object are mixed, under an observation light source that is different from that of the image light source.

なお、本実施形態では、ユーザがUI部115を介して指示しながら変換処理を行う例を示したが、ユーザ指示を入力せずに各ファイルを自動選択しながら変換処理を行う形式であっても良い。   In this embodiment, an example is shown in which the user performs the conversion process while instructing via the UI unit 115, but the conversion process is performed while automatically selecting each file without inputting the user instruction. Also good.

<第2実施形態>
以下、本発明に係る第2実施形態について説明する。上述した第1実施形態では、ユーザがUI部115を介した指示を行いながら、画像変換処理を行う例を示した。一般的に、暗いシーンにおいては、光量を確保するためにフラッシュを用いることがある。しかしながら、フラッシュと撮影光源の分光放射輝度が異なる場合には、撮影光源下での見えを再現するためには、フラッシュ画像に対して、光源変換処理が必要となる。その際、シーン中に発光物体を反射物体と同様に扱うと、上記と同様に本来とは異なる見えに変換されてしまう。第2実施形態では、デジタルカメラ等の画像入力装置において、ユーザ指示を介することなく、該装置内で自動変換処理を行う例を示す。またこの自動変換処理として、フラッシュ撮影画像から、発光物体領域を考慮した通常撮影画像への変換を行う例を示す。
Second Embodiment
Hereinafter, a second embodiment according to the present invention will be described. In the first embodiment described above, an example in which an image conversion process is performed while a user performs an instruction via the UI unit 115 has been described. In general, in a dark scene, a flash may be used to secure a light amount. However, when the spectral radiances of the flash and the photographing light source are different, a light source conversion process is required for the flash image in order to reproduce the appearance under the photographing light source. At this time, if a luminescent object is handled in the same manner as a reflective object in the scene, it will be converted into an appearance different from the original as described above. In the second embodiment, an example in which automatic conversion processing is performed in an image input device such as a digital camera without using a user instruction will be described. Further, as this automatic conversion processing, an example is shown in which a flash photographed image is converted into a normal photographed image in consideration of the luminescent object region.

図5は、第2実施形態における画像入力装置であるデジタルカメラ(以下、カメラ)の構成を示すブロック図である。なお、上述した第1実施形態で図1に示した構成と同様であるもの(画像処理部101等)については同一番号を付し、説明を省略する。図5に示すカメラ501において、502は光学レンズ等を備える撮像部、503はフラッシュ、504は撮影ボタン、505は4種類以上のカラーフィルタを配置したセンサである。506はカメラ501全体を制御する制御部、507は撮影動作によって取得したデータに対して信号処理を行う信号処理部である。508は、外部記憶装置121等の外部装置や、撮影光源の分光放射輝度を取得する分光放射輝度計509等を制御する外部インタフェースである。   FIG. 5 is a block diagram illustrating a configuration of a digital camera (hereinafter referred to as a camera) which is an image input apparatus according to the second embodiment. In the first embodiment described above, the same components (image processing unit 101 and the like) as those shown in FIG. In the camera 501 shown in FIG. 5, reference numeral 502 denotes an image pickup unit including an optical lens, 503 denotes a flash, 504 denotes a photographing button, and 505 denotes a sensor in which four or more types of color filters are arranged. A control unit 506 controls the entire camera 501, and a signal processing unit 507 performs signal processing on data acquired by a shooting operation. Reference numeral 508 denotes an external interface that controls an external device such as the external storage device 121, a spectral radiance meter 509 that acquires the spectral radiance of the imaging light source, and the like.

以下、第2実施形態のカメラ501における画像変換処理について、図6のフローチャートを用いて説明する。カメラ501はまずS601にて、撮影ボタン504が押されるまで待機し、押されたらS602に進む。S602では、制御部506が撮像部502およびセンサ部505を動作させて撮影を行う。そしてS603では、S602にて撮影した画像に対して、信号処理部507にてデモザイキング処理やノイズリダクション処理等の信号処理を行うことによって現像を施し、画像処理部101内の入力画像記憶部103に格納する。次にS604では撮影光源情報として、分光放射輝度計509から撮影光源の分光放射輝度を入力する。   Hereinafter, image conversion processing in the camera 501 of the second embodiment will be described with reference to the flowchart of FIG. In step S601, the camera 501 waits until the shooting button 504 is pressed. In S602, the control unit 506 operates the imaging unit 502 and the sensor unit 505 to perform shooting. In S603, the image captured in S602 is developed by performing signal processing such as demosaicing processing and noise reduction processing in the signal processing unit 507, and the input image storage unit 103 in the image processing unit 101 is processed. To store. In step S604, the spectral radiance of the photographing light source is input from the spectral radiance meter 509 as photographing light source information.

次にS605では、制御部506がフラッシュ503、撮像部502及びセンサ部505を動作させて撮影を行う。そしてS606では、S605にて撮影した画像に対して、信号処理部507にて信号処理を行うことで現像を施し、フラッシュ画像記憶部104に格納する。次にS607ではフラッシュ情報として、装置内に予め保持されている、フラッシュ503の分光放射輝度を入力する。   In step S605, the control unit 506 operates the flash 503, the imaging unit 502, and the sensor unit 505 to perform shooting. In S606, the image captured in S605 is developed by performing signal processing in the signal processing unit 507 and stored in the flash image storage unit 104. In step S607, the spectral radiance of the flash 503, which is stored in advance in the apparatus, is input as flash information.

そしてS608では上述した第1実施形態におけるS304と同様に、変換パラメータを読み込んで変換パラメータ記憶部109に格納する。ただしここでは、カメラ501に予め既定された変換パラメータが読み込まれる。   In S608, the conversion parameter is read and stored in the conversion parameter storage unit 109, as in S304 in the first embodiment described above. However, here, conversion parameters preset in the camera 501 are read.

次にS609では、フラッシュを用いて撮影したフラッシュ撮影画像を入力画像(第1実施形態における通常撮影画像)として、上述した第1実施形態と同様の方法によって、撮影光源下での見えを再現する画像への変換処理を行う。すなわち第2実施形態では、上記S604で取得した撮影光源の分光放射輝度を第1実施形態における観察光源の分光放射輝度として扱い、同様にフラッシュ503の分光放射輝度を第1実施形態における撮影光源の分光放射輝度として扱う。   Next, in S609, the flash photographed image photographed with the flash is used as the input image (normal photographed image in the first embodiment) to reproduce the appearance under the photographing light source by the same method as in the first embodiment described above. Convert to image. That is, in the second embodiment, the spectral radiance of the imaging light source acquired in S604 is treated as the spectral radiance of the observation light source in the first embodiment, and the spectral radiance of the flash 503 is similarly used for the imaging light source in the first embodiment. Treat as spectral radiance.

具体的にはS609ではまず、通常撮影画像とフラッシュ撮影画像における画素値の差分に基づき、シーン内で自らが発光している発光物体に対応する発光物体領域をフラッシュ撮影画像から検出する。そしてフラッシュ撮影画像を撮影光源下での見えを再現するように変換する際に、発光物体領域とそれ以外の反射物体領域とで撮影光源の分光放射輝度を反映させる度合いが異なるように制御する。これにより、発光物体領域に対して撮影光源を反映させないような変換が行われる。   Specifically, in S609, based on the difference between the pixel values of the normal captured image and the flash captured image, a light emitting object region corresponding to the light emitting object that emits light in the scene is detected from the flash captured image. Then, when converting the flash photographed image so as to reproduce the appearance under the photographing light source, control is performed so that the degree of reflection of the spectral radiance of the photographing light source differs between the light emitting object region and the other reflecting object region. Thus, conversion is performed so that the photographic light source is not reflected on the light emitting object region.

そして最後にS610では、S609にて変換した画像を、外部インタフェース508を介して外部記憶装置121に格納する。   Finally, in S610, the image converted in S609 is stored in the external storage device 121 via the external interface 508.

以上説明したように第2実施形態によれば、フラッシュを用いて撮影した画像を、該シーン内の発光物体領域を考慮しつつ、フラッシュを使用せずに撮影光源下で撮影した画像へ変換することが可能となる。すなわち、変換後の画像はその発光物体領域において撮影光源の影響が低減されている。   As described above, according to the second embodiment, an image photographed using a flash is converted into an image photographed under a photographing light source without using a flash, taking into consideration a light emitting object region in the scene. It becomes possible. That is, in the converted image, the influence of the photographing light source is reduced in the light emitting object region.

<第3実施形態>
以下、本発明に係る第3実施形態について説明する。上述した第1実施形態では、発光物体領域を自動判定する例を示したが、第3実施形態では該領域をユーザが指定する例を示す。第3実施形態における画像処理装置の装置およびユーザインタフェースについては上述した第1実施形態とほぼ同様であるため、説明を省略する。
<Third Embodiment>
The third embodiment according to the present invention will be described below. In the first embodiment described above, an example in which a light emitting object area is automatically determined is shown, but in the third embodiment, an example in which the user specifies the area is shown. Since the apparatus and user interface of the image processing apparatus in the third embodiment are substantially the same as those in the first embodiment described above, the description thereof is omitted.

以下、第3実施形態における画像変換処理について、図7のフローチャートを用いて詳細に説明する。まずS701で画像読込ボタン202が押されるまで待機し、押されたらS702に進む。S702では画像入力部102において、入力画像データとして、撮影光源下で撮影した通常撮影画像を選択し、入力画像記憶部103に格納する。   Hereinafter, the image conversion processing in the third embodiment will be described in detail with reference to the flowchart of FIG. First, the process waits until the image reading button 202 is pressed in S701, and if it is pressed, the process proceeds to S702. In S <b> 702, the image input unit 102 selects a normal photographed image photographed under a photographing light source as input image data and stores it in the input image storage unit 103.

次にS703では、変換パラメータ読込ボタン203が押されるまで待機し、押されたらS704に進む。S704では第1実施形態のS304と同様に、ユーザによって選択された変換パラメータを変換パラメータ入力部108が入力し、変換パラメータ記憶部109に格納する。そしてS705では、撮影光源読込ボタン204が押されるまで待機し、押されたらS706に進む。S706では、第1実施形態のS306と同様に、ユーザによって選択された撮影光源情報を撮影光源入力部105が入力し、撮影光源記憶部106に格納する。次にS707では、観察光源選択ボタン205によって光源が選択されるのを待機し、選択されたらS708に進む。S708では観察光源選択部122にて、該選択された光源に基づく観察光源情報を観察光源記憶部107から選択する。   Next, in S703, the process waits until the conversion parameter reading button 203 is pressed, and if it is pressed, the process proceeds to S704. In S704, as in S304 of the first embodiment, the conversion parameter selected by the user is input by the conversion parameter input unit 108 and stored in the conversion parameter storage unit 109. In S705, the process waits until the photographing light source reading button 204 is pressed, and if it is pressed, the process proceeds to S706. In S706, as in S306 of the first embodiment, the photographic light source input unit 105 inputs the photographic light source information selected by the user and stores it in the photographic light source storage unit 106. Next, in S707, it waits for a light source to be selected by the observation light source selection button 205, and if selected, proceeds to S708. In S708, the observation light source selection unit 122 selects observation light source information based on the selected light source from the observation light source storage unit 107.

次にS709では、入力画像記憶部103に格納された通常撮影画像に対し、まずはその全画像領域を反射物体であるとみなし、観察光源を用いた画像変換処理を行う。この画像変換処理は、第1実施形態のS313における観察光源下での見えを再現する画像変換処理と同様であり、すなわち全画素について発光物体係数αを0に設定して、画像変換処理を行う。そしてS710で、S709にて変換した画像を画像表示部209に表示し、S711でユーザによって発光物体領域が指定されるまで待機し、発光物体領域が指定されたらS712に進む。この指定方法については特に規定されないが、例えば表示された画像上における領域をポインティングデバイス等を用いて指定することが考えられる。   Next, in S709, first, regarding the normal captured image stored in the input image storage unit 103, the entire image area is regarded as a reflecting object, and image conversion processing using an observation light source is performed. This image conversion process is the same as the image conversion process for reproducing the appearance under the observation light source in S313 of the first embodiment. That is, the image conversion process is performed by setting the luminescent object coefficient α to 0 for all pixels. . In step S710, the image converted in step S709 is displayed on the image display unit 209. In step S711, the process waits until the light emitting object area is specified by the user. If the light emitting object area is specified, the process proceeds to step S712. Although this designation method is not particularly defined, for example, it is conceivable to designate an area on the displayed image using a pointing device or the like.

S712では、S711で指定された発光物体領域内の画素については発光物体係数αを1に設定し、発光物体領域外の画素については反射物体領域とみなして発光物体係数αを0に設定する。   In S712, the light emitting object coefficient α is set to 1 for the pixels in the light emitting object area designated in S711, and the light emitting object coefficient α is set to 0 for the pixels outside the light emitting object area as a reflecting object area.

次にS713で、変換処理実行ボタン208が押されるまで待機し、押されたらS714に進む。S714では画像変換部112において、入力画像記憶部103に格納されている通常撮影画像に対して、S707で選択された観察光源下での見えとなるような変換処理を施し、該変換結果を変換画像記憶部113に格納する。そしてS715では、変換画像記憶部113に格納されている変換画像を画像表示部209に表示する。次にS716で、変換画像保存ボタン210が押されるまで待機し、押されたらS717に進んで、画像出力部114が、変換画像記憶部113に格納されている画像データを外部記憶装置121に格納する。   Next, in S713, the process waits until the conversion process execution button 208 is pressed, and if it is pressed, the process proceeds to S714. In S714, the image conversion unit 112 performs a conversion process on the normal captured image stored in the input image storage unit 103 so that the image is viewed under the observation light source selected in S707, and converts the conversion result. Stored in the image storage unit 113. In S715, the converted image stored in the converted image storage unit 113 is displayed on the image display unit 209. In step S716, the process waits until the converted image save button 210 is pressed. If the button is pressed, the process advances to step S717, and the image output unit 114 stores the image data stored in the converted image storage unit 113 in the external storage device 121. To do.

以上説明したように第3実施形態によれば、ユーザが発光物体領域を指定することによって、フラッシュ撮影画像を取得することなく、通常撮影画像における発光領域と反射領域を区別して処理することができる。   As described above, according to the third embodiment, when the user designates the light emitting object region, the light emitting region and the reflective region in the normal photographed image can be distinguished and processed without acquiring the flash photographed image. .

<その他の実施形態>
上述した第1および第2実施形態では、フラッシュ撮影画像と通常撮影画像の差の絶対値によって、撮影シーン内の発光物体領域と反射物体領域を判別する例を示したが、発光物体領域の判別方法はこの例に限定されない。例えば、撮影シーン内の高輝度領域において、撮影光源とは異なるホワイトバランス係数が検出された場合に、該領域を発光物体領域と判別する方法も考えられる。
<Other embodiments>
In the first and second embodiments described above, the example in which the light emitting object area and the reflective object area in the shooting scene are determined based on the absolute value of the difference between the flash photographed image and the normal photographed image is shown. The method is not limited to this example. For example, when a white balance coefficient different from that of the photographing light source is detected in a high luminance region in the photographing scene, a method of discriminating the region as a light emitting object region is also conceivable.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

Claims (8)

撮影光源下において、4種類以上のカラーフィルタを有するマルチバンドカメラによって撮影された撮影画像を入力する画像入力手段と、
前記撮影光源の分光放射輝度を取得する撮影光源情報の取得手段と、
前記撮影光源とは異なる観察光源の分光放射輝度を取得する観察光源情報の取得手段と、
前記撮影画像において、そのシーン内で自らが発光している発光物体に対応する発光物体領域を設定する設定手段と、
前記撮影画像に前記撮影光源の分光放射輝度を反映させた第1の反映結果と、該撮影画像に前記観察光源の分光放射輝度を反映させた第2の反映結果を合成することで、前記撮影画像を前記観察光源下での見えを再現するように変換する変換手段と、を有し、
前記変換手段は、前記発光物体領域とそれ以外の領域とで、前記第1および第2の反映結果を合成する割合が異なることを特徴とする画像処理装置。
An image input means for inputting a photographed image photographed by a multiband camera having four or more color filters under a photographing light source;
Means for acquiring photographing light source information for obtaining spectral radiance of the photographing light source;
Observation light source information acquisition means for acquiring a spectral radiance of an observation light source different from the imaging light source;
In the captured image, setting means for setting a light emitting object region corresponding to a light emitting object that is emitting light in the scene;
By combining the first reflection result that reflects the spectral radiance of the imaging light source in the captured image and the second reflection result that reflects the spectral radiance of the observation light source in the captured image, the imaging Conversion means for converting the image so as to reproduce the appearance under the observation light source,
The image processing apparatus according to claim 1, wherein the conversion unit has different ratios for combining the first and second reflection results between the light emitting object region and the other region.
前記変換手段は、前記発光物体領域に対して合成される前記第2の反映結果の割合が、該発光物体領域外の画素に対して合成される該第2の反映結果の割合よりも小さくなるように変換処理を行うことを特徴とする請求項1に記載の画像処理装置。   The conversion means is configured such that the ratio of the second reflection result combined with the light emitting object area is smaller than the ratio of the second reflection result combined with pixels outside the light emitting object area. The image processing apparatus according to claim 1, wherein the conversion process is performed as described above. 前記画像入力手段は、前記撮影光源下で前記シーンに対し、フラッシュを発光させて撮影したフラッシュ撮影画像と、フラッシュを発光させずに撮影した通常撮影画像を入力し、
前記設定手段は、前記通常撮影画像と前記フラッシュ撮影画像における画素値の差分に基づき、該通常撮影画像における前記発光物体領域を検出し、設定することを特徴とする請求項1または2に記載の画像処理装置。
The image input means inputs a flash photographed image taken with the flash on the scene under the photographing light source and a normal photographed image taken without the flash,
The said setting means detects and sets the said light emission object area | region in this normal captured image based on the difference of the pixel value in the said normal captured image and the said flash captured image, The setting of Claim 1 or 2 characterized by the above-mentioned. Image processing device.
さらに、前記画像入力手段で入力された撮影画像を分光反射率データに変換するための変換パラメータを取得するパラメータの取得手段を有し、
前記変換手段は、前記変換パラメータを用いて前記撮影画像を分光反射率データに変換し、該分光反射率データに対して前記撮影光源と前記観察光源の分光放射輝度を反映させるように変換処理を行うことを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
Furthermore, it has a parameter acquisition means for acquiring a conversion parameter for converting the captured image input by the image input means into spectral reflectance data,
The conversion unit converts the captured image into spectral reflectance data using the conversion parameter, and performs a conversion process so that the spectral radiance of the imaging light source and the observation light source is reflected in the spectral reflectance data. The image processing apparatus according to claim 1, wherein the image processing apparatus is performed.
前記設定手段は、前記撮影画像に対するユーザ指示に応じて、前記発光物体領域を設定することを特徴とする請求項1または2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the setting unit sets the light-emitting object region in accordance with a user instruction for the captured image. 撮影光源下における同一シーンに対し、4種類以上のカラーフィルタを有するマルチバンドカメラによって、フラッシュを発光させて撮影したフラッシュ撮影画像と、フラッシュを発光させずに撮影した通常撮影画像を入力する画像入力手段と、
前記撮影光源の分光放射輝度を取得する撮影光源情報の取得手段と、
前記フラッシュの分光放射輝度を取得するフラッシュ情報の取得手段と、
前記通常撮影画像と前記フラッシュ撮影画像における画素値の差分に基づき、該フラッシュ撮影画像における、前記シーン内で自らが発光している発光物体に対応する発光物体領域を検出する検出手段と、
前記フラッシュ撮影画像に前記フラッシュの分光放射輝度を反映させた第1の反映結果と、該フラッシュ撮影画像に前記撮影光源の分光放射輝度を反映させた第2の反映結果を合成することで、前記フラッシュ画像を前記撮影光源下での見えを再現するように変換する変換手段と、を有し、
前記変換手段は、前記発光物体領域とそれ以外の領域とで、前記第1および第2の反映結果を合成する割合が異なることを特徴とする画像処理装置。
Image input for entering the same scene under a shooting light source with a multi-band camera that has four or more color filters and shooting with a flash and a normal shot with a flash. Means,
Means for acquiring photographing light source information for obtaining spectral radiance of the photographing light source;
Flash information acquisition means for acquiring the spectral radiance of the flash;
Detecting means for detecting a light emitting object region corresponding to a light emitting object emitting light in the scene in the flash photographed image based on a difference between pixel values in the normal photographed image and the flash photographed image;
By combining the first reflection result reflecting the flash spectral radiance in the flash photographed image and the second reflection result reflecting the spectral radiance of the photographing light source in the flash photographed image, Conversion means for converting a flash image so as to reproduce the appearance under the photographing light source,
The image processing apparatus according to claim 1, wherein the conversion unit has different ratios for combining the first and second reflection results between the light emitting object region and the other region.
画像入力手段、撮影光源情報の取得手段、観察光源情報の取得手段、設定手段、および変換手段を有する画像処理装置における画像処理方法であって、
前記画像入力手段が、撮影光源下において、4種類以上のカラーフィルタを有するマルチバンドカメラによって撮影された撮影画像を入力する画像入力ステップと、
前記撮影光源情報の取得手段が、前記撮影光源の分光放射輝度を取得する撮影光源情報の取得ステップと、
前記観察光源情報の取得手段が、前記撮影光源とは異なる観察光源の分光放射輝度を取得する観察光源情報の取得ステップと、
前記設定手段が、前記撮影画像において、そのシーン内で自らが発光している発光物体に対応する発光物体領域を設定する設定ステップと、
前記変換手段が、前記撮影画像に前記撮影光源の分光放射輝度を反映させた第1の反映結果と、該撮影画像に前記観察光源の分光放射輝度を反映させた第2の反映結果を合成することで、前記撮影画像を前記観察光源下での見えを再現するように変換する変換ステップと、を有し、
前記変換ステップにおいては、前記発光物体領域とそれ以外の領域とで、前記第1および第2の反映結果を合成する割合が異なることを特徴とする画像処理方法。
An image processing method in an image processing apparatus having an image input means, an imaging light source information acquisition means, an observation light source information acquisition means, a setting means, and a conversion means,
The image input means inputs an image captured by a multiband camera having four or more color filters under an imaging light source; and
The acquisition means of the imaging light source information, the acquisition step of imaging light source information for acquiring the spectral radiance of the imaging light source,
The observation light source information acquisition means acquires observation light source information for acquiring spectral radiance of an observation light source different from the imaging light source, and
A setting step in which the setting means sets a light emitting object region corresponding to a light emitting object that emits light in the scene in the captured image;
The conversion unit synthesizes a first reflection result that reflects the spectral radiance of the imaging light source in the captured image and a second reflection result that reflects the spectral radiance of the observation light source in the captured image. A conversion step for converting the photographed image so as to reproduce the appearance under the observation light source,
In the conversion step, the ratio of combining the first reflection result and the second reflection result is different between the light emitting object region and the other region.
コンピュータ装置で実行されることにより、該コンピュータ装置を請求項1乃至6のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。   A program for causing a computer device to function as each unit of the image processing device according to any one of claims 1 to 6 when executed on the computer device.
JP2011062927A 2011-03-22 2011-03-22 Image processor and image processing method Withdrawn JP2012199804A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011062927A JP2012199804A (en) 2011-03-22 2011-03-22 Image processor and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011062927A JP2012199804A (en) 2011-03-22 2011-03-22 Image processor and image processing method

Publications (1)

Publication Number Publication Date
JP2012199804A true JP2012199804A (en) 2012-10-18

Family

ID=47181580

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011062927A Withdrawn JP2012199804A (en) 2011-03-22 2011-03-22 Image processor and image processing method

Country Status (1)

Country Link
JP (1) JP2012199804A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103458189A (en) * 2013-09-02 2013-12-18 小米科技有限责任公司 Method and device for configuring photographing parameters and terminal device
CN104092945A (en) * 2014-07-24 2014-10-08 苏州朗昇通信科技有限公司 Camera shooting control method and device
CN109167932A (en) * 2018-10-26 2019-01-08 深圳市奥德兰科技有限公司 A kind of photography light control system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103458189A (en) * 2013-09-02 2013-12-18 小米科技有限责任公司 Method and device for configuring photographing parameters and terminal device
CN104092945A (en) * 2014-07-24 2014-10-08 苏州朗昇通信科技有限公司 Camera shooting control method and device
CN109167932A (en) * 2018-10-26 2019-01-08 深圳市奥德兰科技有限公司 A kind of photography light control system
CN109167932B (en) * 2018-10-26 2024-05-07 深圳市奥德兰科技有限公司 Photographic light control system

Similar Documents

Publication Publication Date Title
US9648245B2 (en) Low-light image capture method and image capture apparatus
JP5744437B2 (en) TRACKING DEVICE, TRACKING METHOD, AND PROGRAM
JP5056780B2 (en) Image processing device
JP4967440B2 (en) Imaging apparatus and light source estimation apparatus thereof
JP6267502B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
US8582891B2 (en) Method and apparatus for guiding user with suitable composition, and digital photographing apparatus
US9591231B2 (en) Image processing apparatus capable of properly emphasizing differences in brightness between bright spots, image processing method, and storage medium
JP2015228546A (en) Image processor, control method and control program thereof
US9307213B2 (en) Robust selection and weighting for gray patch automatic white balancing
US20140071264A1 (en) Image capture apparatus and control method thereof
WO2012093519A1 (en) Imaging device and light emission amount control method
JP6210775B2 (en) Imaging apparatus, imaging method, and imaging program
JP2013106284A (en) Light source estimation device, light source estimation method, light source estimation program, and imaging apparatus
JP2012199804A (en) Image processor and image processing method
JP2015192338A (en) Image processing device and image processing program
JP2007087147A (en) Image retouching method, image retouching device, and image retouching program
US12010433B2 (en) Image processing apparatus, image processing method, and storage medium
JP4475118B2 (en) Camera device, white balance bracketing shooting method
JP2012050121A (en) Imaging device, imaging method and imaging program
KR101589493B1 (en) White ballance control method and apparatus using a flash and digital photographing apparatus using thereof
JP6670110B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP5600580B2 (en) Image processing apparatus and imaging apparatus
JP6611577B2 (en) Image processing apparatus and image processing method
JP5794413B2 (en) Image processing apparatus, image processing method, and program
JP6053501B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140603