JP2012199804A - Image processor and image processing method - Google Patents
Image processor and image processing method Download PDFInfo
- Publication number
- JP2012199804A JP2012199804A JP2011062927A JP2011062927A JP2012199804A JP 2012199804 A JP2012199804 A JP 2012199804A JP 2011062927 A JP2011062927 A JP 2011062927A JP 2011062927 A JP2011062927 A JP 2011062927A JP 2012199804 A JP2012199804 A JP 2012199804A
- Authority
- JP
- Japan
- Prior art keywords
- light source
- image
- flash
- conversion
- light emitting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- Color Television Image Signal Generators (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像装置によって撮影された画像を、撮影時とは異なる照明光源下で再現される色に変換する画像処理装置および画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method for converting an image photographed by an imaging device into a color that is reproduced under an illumination light source different from that at the time of photographing.
従来、カメラ等の撮像装置によって取得した画像を、その撮影時とは異なる照明光源下で再現される色に変換する方法として、マルチバンドカメラを用いた色変換処理技術がある(例えば、特許文献1、特許文献2参照)。マルチバンドカメラを用いた色変換処理技術では、まず、マルチバンドカメラによって取得した画像から撮影光源の情報を取り除いた分光反射率を推定する。そして、該推定した分光反射率に対して、任意の照明光源の分光放射輝度を乗じることによって、任意の照明光源下における色の再現が可能となる。 Conventionally, there is a color conversion processing technique using a multiband camera as a method of converting an image acquired by an imaging device such as a camera into a color that is reproduced under an illumination light source different from that at the time of shooting (for example, Patent Literature). 1, see Patent Document 2). In a color conversion processing technique using a multiband camera, first, a spectral reflectance obtained by removing information on a photographing light source from an image acquired by a multiband camera is estimated. Then, by multiplying the estimated spectral reflectance by the spectral radiance of an arbitrary illumination light source, color reproduction under an arbitrary illumination light source is possible.
しかしながら、上記従来の色変換処理技術では、撮影対象となるシーン中に、自らが発光している発光物体が含まれる場合、その発光物体についても本来とは異なる色へ変換してしまうという課題がある。例えば、ディスプレイ等の発光物体が写り込んでいるシーンを、撮影時とは異なる照明光源下の色へ変換する場合を考える。この場合、当該シーン内の反射物体に関しては、撮影画像から撮影照明の分光放射輝度を取り除いて分光反射率を推定した後に、実際の照明光源の分光放射輝度を乗じることで、実際のシーンの見えを再現することが可能となる。しかしながら、シーン内の発光物体(ディスプレイ等)は、撮影光源や照明光源の影響をそれほど受けないため、反射物体と同様の処理をすると、本来の見えとは異なる色に変換されてしまう。 However, in the above conventional color conversion processing technique, when a scene to be photographed includes a light emitting object that emits light, the problem is that the light emitting object is also converted to a color different from the original color. is there. For example, consider a case where a scene in which a light-emitting object such as a display is reflected is converted to a color under an illumination light source different from that at the time of shooting. In this case, for the reflective object in the scene, the spectral radiance of the photographic illumination is removed from the captured image and the spectral reflectance is estimated. Can be reproduced. However, since a light-emitting object (display or the like) in a scene is not significantly affected by a photographing light source or an illumination light source, if a process similar to that of a reflective object is performed, it is converted into a color different from the original appearance.
本発明は上記の課題を顧みてなされたものであり、発光物体を含むシーンの撮影画像に対し、撮影光源とは異なる観察光源への色変換を、該発光物体の色再現を考慮して高精度に行うことを目的とする。 The present invention has been made in view of the above-described problems, and color conversion to an observation light source different from a photographing light source is performed on a photographed image of a scene including a light emitting object in consideration of color reproduction of the light emitting object. The purpose is to be accurate.
上記目的を達成するための一手段として、本発明の画像処理装置は以下の構成を備える。 As a means for achieving the above object, an image processing apparatus of the present invention comprises the following arrangement.
すなわち、撮影光源下において、4種類以上のカラーフィルタを有するマルチバンドカメラによって撮影された撮影画像を入力する画像入力手段と、前記撮影光源の分光放射輝度を取得する撮影光源情報の取得手段と、前記撮影光源とは異なる観察光源の分光放射輝度を取得する観察光源情報の取得手段と、前記撮影画像において、そのシーン内で自らが発光している発光物体に対応する発光物体領域を設定する設定手段と、前記撮影画像に前記撮影光源の分光放射輝度を反映させた第1の反映結果と、該撮影画像に前記観察光源の分光放射輝度を反映させた第2の反映結果を合成することで、前記撮影画像を前記観察光源下での見えを再現するように変換する変換手段と、を有し、前記変換手段は、前記発光物体領域とそれ以外の領域とで、前記第1および第2の反映結果を合成する割合が異なることを特徴とする。 That is, under an imaging light source, an image input unit that inputs a captured image captured by a multiband camera having four or more color filters, an imaging light source information acquisition unit that acquires a spectral radiance of the imaging light source, Observation light source information acquisition means for acquiring a spectral radiance of an observation light source different from the imaging light source, and a setting for setting a light emitting object region corresponding to a light emitting object emitting light in the scene in the captured image A first reflection result in which the spectral radiance of the photographing light source is reflected in the photographed image, and a second reflection result in which the spectral radiance of the observation light source is reflected in the photographed image. Conversion means for converting the photographed image so as to reproduce the appearance under the observation light source, and the conversion means includes the light emitting object region and the other region, The ratio of combining the first and second reflection results is different.
本発明によれば、発光物体を含むシーンの撮影画像に対し、撮影光源とは異なる観察光源への色変換を、該発光物体の色再現を考慮して高精度に行うことが可能となる。 According to the present invention, it is possible to perform color conversion of a captured image of a scene including a light emitting object to an observation light source different from the photographing light source with high accuracy in consideration of color reproduction of the light emitting object.
以下、本発明に係る実施形態について図面を用いて詳細に説明する。尚、以下の実施形態は特許請求の範囲に係る本発明を限定するものでなく、また本実施の形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。 Hereinafter, embodiments according to the present invention will be described in detail with reference to the drawings. The following embodiments do not limit the present invention according to the claims, and all the combinations of features described in the present embodiments are not necessarily essential to the solution means of the present invention. Absent.
<第1実施形態>
本実施形態は、反射物体と発光物体が混在したシーンをマルチバンドカメラによって撮影した撮影画像に対し、撮影光源とは異なる観察光源下での見えを再現するための変換処理を行う。この際に、撮影画像内の発光物体領域と反射物体領域とで光源の寄与度を異ならせることによって、観察光源下での正確な色の見えを再現することができる。なお本実施形態における画像変換処理は、ユーザがユーザインタフェース(UI)を介して指示入力を行いながら、実行される。
<First Embodiment>
In the present embodiment, a conversion process for reproducing an appearance under an observation light source different from an imaging light source is performed on a captured image obtained by capturing a scene in which a reflective object and a light emitting object are mixed with a multiband camera. At this time, by making the contribution of the light source different between the light emitting object region and the reflecting object region in the photographed image, it is possible to reproduce an accurate color appearance under the observation light source. Note that the image conversion process in the present embodiment is executed while a user inputs an instruction via a user interface (UI).
●装置構成
図1は、本実施形態における画像処理装置の構成を示すブロック図である。同図に示すように本実施形態の画像処理装置100は、画像処理部101と制御部130に大別され、これらはシステムバス116によって接続されている。
画像処理部101において、102は画像データを入力するための画像入力部、103は該入力した画像データを記憶する入力画像記憶部である。104は、画像入力部102から入力した画像データのうち、特にフラッシュを用いて撮影された画像データを記憶するフラッシュ画像記憶部である。105は撮影光源の分光放射輝度データ(撮影光源情報)を入力する撮影光源入力部、106は該撮影光源情報を記憶する撮影光源記憶部である。107は再現する光源情報を予め記憶しておく観察光源記憶部、122は観察光源情報を選択する観察光源選択部である。108は変換処理に必要なパラメータを入力する変換パラメータ入力部、109は該入力された変換パラメータを記憶する変換パラメータ記憶部である。110は、入力画像記憶部103に記憶された画像データに対して、発光物体と反射物体の判定を行う発光・反射判定部である。この判定は、撮影光源記憶部106に記憶された撮影光源の分光放射輝度データ、及び変換パラメータ記憶部109に記憶された変換パラメータを用いて行われるが、その詳細については後述する。111は、発光・反射判定部110による判定結果を記憶する発光・反射判定結果記憶部である。
Apparatus Configuration FIG. 1 is a block diagram showing a configuration of an image processing apparatus according to this embodiment. As shown in the figure, the
In the
112は、入力画像記憶部103に記憶された画像データに対し、画像変換処理を行う画像変換部、113は該変換された画像データを記憶する変換画像記憶部である。114は、発光・反射判定結果記憶部111に記憶された判定結果や、変換画像記憶部113に記憶された変換後の画像データをディスプレイ等の画像表示装置に出力する画像出力部である。115は、画像処理部101の動作をユーザが指示するためのユーザインタフェース(UI)部である。
An
制御部130において、CPU117は各構成の処理の全てに関わり、RAM118やROM119に格納された命令を順に読み込み実行する。また、RAM118とROM119は、その処理に必要なプログラム、データ、作業領域等をCPU117に提供する。また、操作部120はキーボードやマウスポインタであり、画像処理部101に対するユーザからの指示を入力する。外部記憶装置121は、ハードディスク等の記憶装置である。
In the
図2は、UI部115におけるユーザインタフェース例を示す図である。UI画面201において、202は処理対象となる撮影画像の読み込みを指示する画像読み込みボタン、203は変換パラメータの読み込みを指示する変換パラメータ読込ボタンである。204は撮影光源情報の読み込みを指示する撮影光源読込ボタン、205は各種光源をリスト表示することで観察光源を選択する観察光源選択ボタン、208は画像変換処理の実行を指示する変換処理実行ボタンである。206は撮影画像を発光物体の領域と反射物体の領域に分類する発光・反射判定ボタン、207は発光・反射の判定結果を表示する発光・反射判定結果表示部、209は入力画像及び変換結果の画像を表示する画像表示部である。210は変換結果の画像の保存を指示する変換画像保存ボタンである。
FIG. 2 is a diagram illustrating an example of a user interface in the
●画像変換処理
以下、本実施形態における画像変換処理について、図3のフローチャートを用いて説明する。
Image Conversion Processing Hereinafter, image conversion processing in the present embodiment will be described using the flowchart of FIG.
まず、S301で画像読込ボタン202が押されるまで待機し、押されたらS302に進んで画像入力処理を行う。S302では、UI部115に入力画像選択画面(不図示)が表示され、該画面には例えば外部記憶装置121に保持された画像データの一覧がユーザに選択可能な形態で提示される。ユーザは該画面より、同一シーンについて、撮影光源下でフラッシュを用いずに通常撮影した画像と、撮影光源下でフラッシュを使用して撮影した画像の両方を入力対象として選択する。すると画像入力部102が、該選択された通常撮影画像およびフラッシュ撮影画像を、それぞれ入力画像記憶部103とフラッシュ画像記憶部104に格納する。なお、本実施形態における入力画像はマルチバンドカメラによって撮影されたマルチバンド画像であるが、その詳細については後述する。
First, it waits until the
次にS303で変換パラメータ読込ボタン203が押されるまで待機し、押されたらS304に進む。S304ではUI部115に変換パラメータ選択画面(不図示)が表示され、該画面には例えば外部記憶装置121に保持されたマルチバンドカメラの機種一覧がユーザに選択可能な形態で提示される。ユーザは該画面より、通常撮影画像およびフラッシュ撮影画像を撮影したマルチバンドカメラの機種を選択する。すると該選択された機種に対応して外部記憶装置121に予め記憶されている変換パラメータが変換パラメータ入力部108によって入力され、変換パラメータ記憶部109に格納される。なお、変換パラメータの詳細については後述する。
Next, it waits until the conversion
次にS305で、撮影光源読込ボタン204が押されるまで待機し、押されたらS306に進む。S306ではUI部115に撮影光源情報選択画面(不図示)が表示され、該画面には例えば外部記憶装置121に保持された撮影光源種類の一覧がユーザに選択可能な形態で提示される。ユーザは該画面より、通常撮影画像の撮影時における光源の種類を選択する。すると該選択された光源種類に対応して外部記憶装置121に予め記憶されている撮影光源情報が撮影光源入力部105によって入力され、撮影光源記憶部106に格納される。
In step S305, the process waits until the photographing light
次にS307で、観察光源選択ボタン205によって、変換対象となる光源の種類が選択されるまで待機し、選択されたらS308に進む。S308では該選択された光源種類(例えば「蛍光灯」)に基づく観察光源情報が観察光源記憶部107から選択される。ここで、S306で読み込む撮影光源情報、およびS308にて選択する観察光源情報は、可視光領域380-730nmに対して10nmごとにサンプリングした分光放射輝度データである。
In step S307, the process waits until the type of light source to be converted is selected by the observation light source selection button 205. If selected, the process proceeds to step S308. In S308, observation light source information based on the selected light source type (eg, “fluorescent lamp”) is selected from the observation light
次にS309で、発光・反射判定ボタン206が押されるまで待機し、押されたらS310に進む。S310では発光・反射判定部110において、通常撮影画像の画素ごとに、シーン内で自らが発光している発光物体が撮影された発光物体領域に属するか否かの判定を行う。ここで発光物体領域に属さない画素はすなわち、反射物体が撮影された反射物体領域に属するものとみなされる。この判定は、入力画像記憶部103とフラッシュ画像記憶部104にそれぞれ格納されている、同一シーンを撮影した通常撮影画像およびフラッシュ撮影画像を用いて行われる。なお、発光・反射判定処理の詳細については後述する。該判定結果は発光・反射判定結果記憶部111に格納され、S311で発光・反射判定結果表示部207に表示される。この表示方法としては、撮影されたシーン内における発光物体領域と反射物体領域をユーザが識別できれば良い。したがって例えば、通常撮影画像の全体を暗く表示した上に、検出された発光物体領域のみを明るく表示する等が考えられる。
In step S309, the process waits until the light emission /
次にS312で、変換処理実行ボタン208が押されるまで待機し、押されたらS313に進む。S313では画像変換部112において、入力画像記憶部103に格納されている通常撮影画像に対し、S307で選択された観察光源下での見えとなるような変換処理を施し、該変換結果を変換画像記憶部113に格納する。なお、画像変換処理の詳細については後述する。そしてS314で、変換画像記憶部113に格納されている変換画像を画像表示部209に表示する。
Next, in S312, the process waits until the conversion
次にS315で、変換画像保存ボタン210が押されるまで待機し、押されたらS316に進み、画像出力部114が、変換画像記憶部113に格納されている画像データを外部記憶装置121に格納する。
In step S315, the process waits until the converted image save
●入力画像データ
本実施形態においてS302で入力される画像データとしては、マルチバンドカメラによって撮影されたマルチバンド画像を想定している。ここでマルチバンドカメラとは、4つ以上の分光特性の異なるカラーフィルタを有するカメラであり、このカメラによって撮影された画像データは、各画素について4つ以上の色情報を持つ。以下、本実施形態における入力画像データは、6種類のカラーフィルタを有するマルチバンドカメラによって撮影された画像(以下、マルチバンド画像)であるとする。
Input Image Data In this embodiment, the image data input in S302 is assumed to be a multiband image taken by a multiband camera. Here, the multiband camera is a camera having four or more color filters having different spectral characteristics, and image data captured by the camera has four or more color information for each pixel. Hereinafter, it is assumed that the input image data in the present embodiment is an image (hereinafter referred to as a multiband image) taken by a multiband camera having six types of color filters.
●変換パラメータ
本実施形態においてS304で入力される変換パラメータは、マルチバンドカメラによって取得したマルチバンド画像を、各画素に対して分光反射率を持つ分光画像に変換するための変換行列、およびカラーフィルタの分光透過率データである。なお、本実施形態において扱う分光反射率は、可視光領域の380-730nmに対して、10nmにサンプリングした36次元のデータとする。
Conversion Parameter The conversion parameter input in S304 in this embodiment is a conversion matrix for converting a multiband image acquired by a multiband camera into a spectral image having a spectral reflectance for each pixel, and a color filter. Spectral transmittance data. The spectral reflectance handled in this embodiment is 36-dimensional data sampled at 10 nm with respect to 380-730 nm in the visible light region.
ここで、6種類のカラーフィルタを有するマルチバンドカメラによって取得したマルチバンド画像から分光画像への変換を行うには、画素ごとに、6次元のデータを36次元のデータに変換する必要がある。そこで、以下の式(1)のように変換を行うことで、マルチバンド画像から分光画像への画素ごとの変換が可能となる。式(1)において、oが変換目標となる分光画像を示し、36次元の分光反射率データo380〜o730からなる。vが変換対象となるマルチバンド画像であり、6次元のマルチバンド画素値v1〜v6からなる。Gは36×6の変換行列である。また、Wはホワイトバランス係数であり、w1〜w6の有効係数を有する。 Here, in order to convert a multiband image acquired by a multiband camera having six types of color filters into a spectral image, it is necessary to convert 6-dimensional data into 36-dimensional data for each pixel. Therefore, by performing conversion as in the following expression (1), conversion for each pixel from the multiband image to the spectral image becomes possible. In Expression (1), o represents a spectral image to be converted, and is composed of 36-dimensional spectral reflectance data o 380 to o 730 . v is a multi-band image to be converted, consist multiband pixel value v 1 to v 6 six dimensions. G is a 36 × 6 transformation matrix. W is a white balance coefficient and has an effective coefficient of w 1 to w 6 .
上記ホワイトバランス係数Wは、撮影光源の分光データlight(λ)と、カラーフィルタの分光透過率filtern(λ)(nはフィルタ番号)を用いて、以下の式(2)のように算出される。 The white balance coefficient W is calculated by using the spectral data light (λ) of the photographic light source and the spectral transmittance filter n (λ) (n is the filter number) of the color filter as shown in the following equation (2). The
すなわち上記S304では変換パラメータとして、式(1)に示す変換行列G、および式(2)に示すカラーフィルタの分光透過率データfiltern(λ)(n=1〜6)を入力する。 That is, in S304, the conversion matrix G shown in Expression (1) and the spectral transmittance data filter n (λ) (n = 1 to 6) of the color filter shown in Expression (2) are input as conversion parameters.
●発光・反射判定処理
以下、S310における発光・反射判定処理について詳細に説明する。発光物体領域の判定には、入力画像記憶部103に格納されている通常撮影画像と、フラッシュ画像記憶部104に格納されているフラッシュ撮影画像とにおける画素値の差分を用いる。具体的には以下に示す式(3)によって、画素(x,y)ごとに発光物体領域である度合いを示す発光物体係数αを算出し、これを判定結果とする。
Light emission / reflection determination process The light emission / reflection determination process in S310 will be described in detail below. For the determination of the light emitting object region, a difference in pixel value between the normal captured image stored in the input
式(3)において、pinput(x,y)は通常撮影画像における画素(x,y)の輝度値、pflash(x,y)はフラッシュ撮影画像における画素(x,y)の輝度値である。これらの輝度値は、それぞれのマルチバンド画像vに対して周知の積分処理を施すことによって導出される。またpmaxは、通常撮影画像pinput(x,y)における最大輝度値である。 In Expression (3), p input (x, y) is the luminance value of the pixel (x, y) in the normal captured image, and p flash (x, y) is the luminance value of the pixel (x, y) in the flash captured image. is there. These luminance values are derived by performing a well-known integration process on each multiband image v. Further, p max is a maximum luminance value in the normal captured image p input (x, y).
式(3)によって算出される発光物体係数αは0≦α≦1の値をとり、αが1に近いほど、当該画素は発光物体領域である度合いが高いと判定される。したがって、S311では、通常撮影画像において発光物体係数αが所定の閾値以上である画素を検出し、発光物体領域として設定、表示すれば良い。 The luminescent object coefficient α calculated by Expression (3) takes a value of 0 ≦ α ≦ 1, and the closer α is to 1, the higher the degree that the pixel is a luminescent object region. Therefore, in S311, a pixel having a light emitting object coefficient α that is equal to or larger than a predetermined threshold in a normal captured image may be detected, set, and displayed as a light emitting object region.
また式(3)におけるkは、発光物体の判定精度を制御するための発光物体判定係数であるが、本実施形態ではこの値を通常撮影画像の輝度値pinputに応じて0≦k≦1の範囲で設定する。ここで図4に、通常撮影画像の輝度値pinputに対する発光物体判定係数kの値を示す。一般に、通常撮影画像における発光物体領域は、反射物体領域と比較して輝度が高く、ある程度以上の高輝度領域であれば発光物体領域であるとみなせる。そこで本実施形態では図4に示すように、通常撮影画像の輝度値pinputが所定値以上の高輝度部であれば発光物体判定係数kを0とする。これにより、上記式(3)により算出される発光物体係数αが、該高輝度部において無条件に1となる。また図4に示すように、通常撮影画像の輝度値pinputが所定値以下の低輝度部であれば発光物体判定係数kを1とする。これにより、上記式(3)により算出される発光物体係数αが、該低輝度部において高精度に設定される。すなわち、低輝度部における発光物体領域の検出精度が高められる。なお、通常撮影画像における低輝度部と高輝度部の間については、図4に示すように輝度値が大きいほど発光物体係数kが小さくなるように連続させれば良い。 Further, k in the expression (3) is a light emitting object determination coefficient for controlling the determination accuracy of the light emitting object. In this embodiment, this value is 0 ≦ k ≦ 1 according to the luminance value p input of the normal photographed image. Set within the range. Here, FIG. 4 shows the value of the luminous object determination coefficient k with respect to the luminance value p input of the normal captured image. In general, a light emitting object region in a normal captured image has a higher luminance than a reflective object region, and a light emitting object region can be regarded as a light emitting object region if it is a high luminance region of a certain level or more. Therefore, in this embodiment, as shown in FIG. 4, if the luminance value p input of the normal captured image is a high luminance part having a predetermined value or more, the light emitting object determination coefficient k is set to zero. As a result, the light emitting object coefficient α calculated by the above equation (3) is unconditionally set to 1 in the high luminance portion. As shown in FIG. 4, the light-emitting object determination coefficient k is set to 1 if the luminance value p input of the normal photographed image is a low luminance part that is equal to or less than a predetermined value. As a result, the light emitting object coefficient α calculated by the above equation (3) is set with high accuracy in the low luminance portion. That is, the detection accuracy of the light emitting object region in the low luminance part is improved. In addition, what is necessary is just to make it continuous between the low-intensity part and high-intensity part in a normal picked-up image so that the light emission object coefficient k may become small, so that a luminance value is large, as shown in FIG.
●画像変換処理
以下、S313における画像変換処理について詳細に説明する。ここではまず、通常撮影画像として入力されたマルチバンド画像vを、上記S304で入力された変換パラメータ(変換行列G、カラーフィルタの分光透過率filtern(λ))を用いて、上記式(1)に従って分光画像oに変換する。そして分光画像oに対し、上記S310で式(3)により求められた発光物体係数αを用いて、観察光源下におけるリニアsRGBのRGB値への変換を行う。この変換は、以下の式(4)に従う。
Image Conversion Processing Hereinafter, the image conversion processing in S313 will be described in detail. Here, first, the multiband image v input as a normal photographed image is converted into the above equation (1) using the conversion parameters (conversion matrix G, color filter spectral transmittance filter n (λ)) input in S304. ) To convert to a spectral image o. Then, the spectral image o is converted into a linear sRGB RGB value under the observation light source by using the luminescent object coefficient α obtained by Equation (3) in S310. This conversion follows the following formula (4).
式(4)によれば、通常撮影画像の分光画像oに対し、撮影光源の分光放射輝度L0を反映させた第1の反映結果と、観察光源の分光放射輝度L1を反映させた第2の反映結果をαに応じた割合で合成する。すなわち、発光物体係数αが高いために発光物体領域内にあるとみなせる画素については、観察光源の寄与度が小さくなり、観察光源を反映しない色再現がなされる。逆に、発光物体係数αが低いために発光物体領域外、すなわち反射物体領域内にあるとみなせる画素については、観察光源の寄与度が大きくなり、観察光源を反映した色再現がなされる。 According to the equation (4), the first reflection result reflecting the spectral radiance L0 of the photographing light source and the second reflecting the spectral radiance L1 of the observation light source to the spectral image o of the normal photographed image. The reflection results are synthesized at a rate corresponding to α. That is, for pixels that can be regarded as being within the light emitting object region because of the high light emitting object coefficient α, the contribution of the observation light source is reduced, and color reproduction that does not reflect the observation light source is performed. On the other hand, for the pixels that can be regarded as being outside the light emitting object region, that is, inside the reflecting object region because the light emitting object coefficient α is low, the contribution of the observation light source becomes large, and color reproduction reflecting the observation light source is performed.
以上の処理によって、入力されたマルチバンド画像がsRGBデータに変換されるが、該sRGBデータをさらにディスプレイ等へ表示する場合には、ガンマ補正処理や、ディスプレイの色特性に応じた色合わせ処理を行えば良い。 The input multiband image is converted into sRGB data by the above processing. When the sRGB data is further displayed on a display or the like, gamma correction processing or color matching processing according to the color characteristics of the display is performed. Just do it.
以上説明したように本実施形態によれば、マルチバンドカメラを用いて撮影されたシーン内に発光物体が含まれていた場合に、該発光物体領域に対して観察光源を反映させないように制御することができる。したがって、発光物体と反射物体が混在したシーンの撮影画像についても、撮影光源下とは異なる観察光源下での見えを精度良く再現することが可能となる。 As described above, according to this embodiment, when a light-emitting object is included in a scene photographed using a multiband camera, control is performed so that the observation light source is not reflected in the light-emitting object region. be able to. Therefore, it is possible to accurately reproduce the appearance of an image of a scene in which a light emitting object and a reflective object are mixed, under an observation light source that is different from that of the image light source.
なお、本実施形態では、ユーザがUI部115を介して指示しながら変換処理を行う例を示したが、ユーザ指示を入力せずに各ファイルを自動選択しながら変換処理を行う形式であっても良い。
In this embodiment, an example is shown in which the user performs the conversion process while instructing via the
<第2実施形態>
以下、本発明に係る第2実施形態について説明する。上述した第1実施形態では、ユーザがUI部115を介した指示を行いながら、画像変換処理を行う例を示した。一般的に、暗いシーンにおいては、光量を確保するためにフラッシュを用いることがある。しかしながら、フラッシュと撮影光源の分光放射輝度が異なる場合には、撮影光源下での見えを再現するためには、フラッシュ画像に対して、光源変換処理が必要となる。その際、シーン中に発光物体を反射物体と同様に扱うと、上記と同様に本来とは異なる見えに変換されてしまう。第2実施形態では、デジタルカメラ等の画像入力装置において、ユーザ指示を介することなく、該装置内で自動変換処理を行う例を示す。またこの自動変換処理として、フラッシュ撮影画像から、発光物体領域を考慮した通常撮影画像への変換を行う例を示す。
Second Embodiment
Hereinafter, a second embodiment according to the present invention will be described. In the first embodiment described above, an example in which an image conversion process is performed while a user performs an instruction via the
図5は、第2実施形態における画像入力装置であるデジタルカメラ(以下、カメラ)の構成を示すブロック図である。なお、上述した第1実施形態で図1に示した構成と同様であるもの(画像処理部101等)については同一番号を付し、説明を省略する。図5に示すカメラ501において、502は光学レンズ等を備える撮像部、503はフラッシュ、504は撮影ボタン、505は4種類以上のカラーフィルタを配置したセンサである。506はカメラ501全体を制御する制御部、507は撮影動作によって取得したデータに対して信号処理を行う信号処理部である。508は、外部記憶装置121等の外部装置や、撮影光源の分光放射輝度を取得する分光放射輝度計509等を制御する外部インタフェースである。
FIG. 5 is a block diagram illustrating a configuration of a digital camera (hereinafter referred to as a camera) which is an image input apparatus according to the second embodiment. In the first embodiment described above, the same components (
以下、第2実施形態のカメラ501における画像変換処理について、図6のフローチャートを用いて説明する。カメラ501はまずS601にて、撮影ボタン504が押されるまで待機し、押されたらS602に進む。S602では、制御部506が撮像部502およびセンサ部505を動作させて撮影を行う。そしてS603では、S602にて撮影した画像に対して、信号処理部507にてデモザイキング処理やノイズリダクション処理等の信号処理を行うことによって現像を施し、画像処理部101内の入力画像記憶部103に格納する。次にS604では撮影光源情報として、分光放射輝度計509から撮影光源の分光放射輝度を入力する。
Hereinafter, image conversion processing in the
次にS605では、制御部506がフラッシュ503、撮像部502及びセンサ部505を動作させて撮影を行う。そしてS606では、S605にて撮影した画像に対して、信号処理部507にて信号処理を行うことで現像を施し、フラッシュ画像記憶部104に格納する。次にS607ではフラッシュ情報として、装置内に予め保持されている、フラッシュ503の分光放射輝度を入力する。
In step S605, the
そしてS608では上述した第1実施形態におけるS304と同様に、変換パラメータを読み込んで変換パラメータ記憶部109に格納する。ただしここでは、カメラ501に予め既定された変換パラメータが読み込まれる。
In S608, the conversion parameter is read and stored in the conversion
次にS609では、フラッシュを用いて撮影したフラッシュ撮影画像を入力画像(第1実施形態における通常撮影画像)として、上述した第1実施形態と同様の方法によって、撮影光源下での見えを再現する画像への変換処理を行う。すなわち第2実施形態では、上記S604で取得した撮影光源の分光放射輝度を第1実施形態における観察光源の分光放射輝度として扱い、同様にフラッシュ503の分光放射輝度を第1実施形態における撮影光源の分光放射輝度として扱う。
Next, in S609, the flash photographed image photographed with the flash is used as the input image (normal photographed image in the first embodiment) to reproduce the appearance under the photographing light source by the same method as in the first embodiment described above. Convert to image. That is, in the second embodiment, the spectral radiance of the imaging light source acquired in S604 is treated as the spectral radiance of the observation light source in the first embodiment, and the spectral radiance of the
具体的にはS609ではまず、通常撮影画像とフラッシュ撮影画像における画素値の差分に基づき、シーン内で自らが発光している発光物体に対応する発光物体領域をフラッシュ撮影画像から検出する。そしてフラッシュ撮影画像を撮影光源下での見えを再現するように変換する際に、発光物体領域とそれ以外の反射物体領域とで撮影光源の分光放射輝度を反映させる度合いが異なるように制御する。これにより、発光物体領域に対して撮影光源を反映させないような変換が行われる。 Specifically, in S609, based on the difference between the pixel values of the normal captured image and the flash captured image, a light emitting object region corresponding to the light emitting object that emits light in the scene is detected from the flash captured image. Then, when converting the flash photographed image so as to reproduce the appearance under the photographing light source, control is performed so that the degree of reflection of the spectral radiance of the photographing light source differs between the light emitting object region and the other reflecting object region. Thus, conversion is performed so that the photographic light source is not reflected on the light emitting object region.
そして最後にS610では、S609にて変換した画像を、外部インタフェース508を介して外部記憶装置121に格納する。
Finally, in S610, the image converted in S609 is stored in the
以上説明したように第2実施形態によれば、フラッシュを用いて撮影した画像を、該シーン内の発光物体領域を考慮しつつ、フラッシュを使用せずに撮影光源下で撮影した画像へ変換することが可能となる。すなわち、変換後の画像はその発光物体領域において撮影光源の影響が低減されている。 As described above, according to the second embodiment, an image photographed using a flash is converted into an image photographed under a photographing light source without using a flash, taking into consideration a light emitting object region in the scene. It becomes possible. That is, in the converted image, the influence of the photographing light source is reduced in the light emitting object region.
<第3実施形態>
以下、本発明に係る第3実施形態について説明する。上述した第1実施形態では、発光物体領域を自動判定する例を示したが、第3実施形態では該領域をユーザが指定する例を示す。第3実施形態における画像処理装置の装置およびユーザインタフェースについては上述した第1実施形態とほぼ同様であるため、説明を省略する。
<Third Embodiment>
The third embodiment according to the present invention will be described below. In the first embodiment described above, an example in which a light emitting object area is automatically determined is shown, but in the third embodiment, an example in which the user specifies the area is shown. Since the apparatus and user interface of the image processing apparatus in the third embodiment are substantially the same as those in the first embodiment described above, the description thereof is omitted.
以下、第3実施形態における画像変換処理について、図7のフローチャートを用いて詳細に説明する。まずS701で画像読込ボタン202が押されるまで待機し、押されたらS702に進む。S702では画像入力部102において、入力画像データとして、撮影光源下で撮影した通常撮影画像を選択し、入力画像記憶部103に格納する。
Hereinafter, the image conversion processing in the third embodiment will be described in detail with reference to the flowchart of FIG. First, the process waits until the
次にS703では、変換パラメータ読込ボタン203が押されるまで待機し、押されたらS704に進む。S704では第1実施形態のS304と同様に、ユーザによって選択された変換パラメータを変換パラメータ入力部108が入力し、変換パラメータ記憶部109に格納する。そしてS705では、撮影光源読込ボタン204が押されるまで待機し、押されたらS706に進む。S706では、第1実施形態のS306と同様に、ユーザによって選択された撮影光源情報を撮影光源入力部105が入力し、撮影光源記憶部106に格納する。次にS707では、観察光源選択ボタン205によって光源が選択されるのを待機し、選択されたらS708に進む。S708では観察光源選択部122にて、該選択された光源に基づく観察光源情報を観察光源記憶部107から選択する。
Next, in S703, the process waits until the conversion
次にS709では、入力画像記憶部103に格納された通常撮影画像に対し、まずはその全画像領域を反射物体であるとみなし、観察光源を用いた画像変換処理を行う。この画像変換処理は、第1実施形態のS313における観察光源下での見えを再現する画像変換処理と同様であり、すなわち全画素について発光物体係数αを0に設定して、画像変換処理を行う。そしてS710で、S709にて変換した画像を画像表示部209に表示し、S711でユーザによって発光物体領域が指定されるまで待機し、発光物体領域が指定されたらS712に進む。この指定方法については特に規定されないが、例えば表示された画像上における領域をポインティングデバイス等を用いて指定することが考えられる。
Next, in S709, first, regarding the normal captured image stored in the input
S712では、S711で指定された発光物体領域内の画素については発光物体係数αを1に設定し、発光物体領域外の画素については反射物体領域とみなして発光物体係数αを0に設定する。 In S712, the light emitting object coefficient α is set to 1 for the pixels in the light emitting object area designated in S711, and the light emitting object coefficient α is set to 0 for the pixels outside the light emitting object area as a reflecting object area.
次にS713で、変換処理実行ボタン208が押されるまで待機し、押されたらS714に進む。S714では画像変換部112において、入力画像記憶部103に格納されている通常撮影画像に対して、S707で選択された観察光源下での見えとなるような変換処理を施し、該変換結果を変換画像記憶部113に格納する。そしてS715では、変換画像記憶部113に格納されている変換画像を画像表示部209に表示する。次にS716で、変換画像保存ボタン210が押されるまで待機し、押されたらS717に進んで、画像出力部114が、変換画像記憶部113に格納されている画像データを外部記憶装置121に格納する。
Next, in S713, the process waits until the conversion
以上説明したように第3実施形態によれば、ユーザが発光物体領域を指定することによって、フラッシュ撮影画像を取得することなく、通常撮影画像における発光領域と反射領域を区別して処理することができる。 As described above, according to the third embodiment, when the user designates the light emitting object region, the light emitting region and the reflective region in the normal photographed image can be distinguished and processed without acquiring the flash photographed image. .
<その他の実施形態>
上述した第1および第2実施形態では、フラッシュ撮影画像と通常撮影画像の差の絶対値によって、撮影シーン内の発光物体領域と反射物体領域を判別する例を示したが、発光物体領域の判別方法はこの例に限定されない。例えば、撮影シーン内の高輝度領域において、撮影光源とは異なるホワイトバランス係数が検出された場合に、該領域を発光物体領域と判別する方法も考えられる。
<Other embodiments>
In the first and second embodiments described above, the example in which the light emitting object area and the reflective object area in the shooting scene are determined based on the absolute value of the difference between the flash photographed image and the normal photographed image is shown. The method is not limited to this example. For example, when a white balance coefficient different from that of the photographing light source is detected in a high luminance region in the photographing scene, a method of discriminating the region as a light emitting object region is also conceivable.
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.
Claims (8)
前記撮影光源の分光放射輝度を取得する撮影光源情報の取得手段と、
前記撮影光源とは異なる観察光源の分光放射輝度を取得する観察光源情報の取得手段と、
前記撮影画像において、そのシーン内で自らが発光している発光物体に対応する発光物体領域を設定する設定手段と、
前記撮影画像に前記撮影光源の分光放射輝度を反映させた第1の反映結果と、該撮影画像に前記観察光源の分光放射輝度を反映させた第2の反映結果を合成することで、前記撮影画像を前記観察光源下での見えを再現するように変換する変換手段と、を有し、
前記変換手段は、前記発光物体領域とそれ以外の領域とで、前記第1および第2の反映結果を合成する割合が異なることを特徴とする画像処理装置。 An image input means for inputting a photographed image photographed by a multiband camera having four or more color filters under a photographing light source;
Means for acquiring photographing light source information for obtaining spectral radiance of the photographing light source;
Observation light source information acquisition means for acquiring a spectral radiance of an observation light source different from the imaging light source;
In the captured image, setting means for setting a light emitting object region corresponding to a light emitting object that is emitting light in the scene;
By combining the first reflection result that reflects the spectral radiance of the imaging light source in the captured image and the second reflection result that reflects the spectral radiance of the observation light source in the captured image, the imaging Conversion means for converting the image so as to reproduce the appearance under the observation light source,
The image processing apparatus according to claim 1, wherein the conversion unit has different ratios for combining the first and second reflection results between the light emitting object region and the other region.
前記設定手段は、前記通常撮影画像と前記フラッシュ撮影画像における画素値の差分に基づき、該通常撮影画像における前記発光物体領域を検出し、設定することを特徴とする請求項1または2に記載の画像処理装置。 The image input means inputs a flash photographed image taken with the flash on the scene under the photographing light source and a normal photographed image taken without the flash,
The said setting means detects and sets the said light emission object area | region in this normal captured image based on the difference of the pixel value in the said normal captured image and the said flash captured image, The setting of Claim 1 or 2 characterized by the above-mentioned. Image processing device.
前記変換手段は、前記変換パラメータを用いて前記撮影画像を分光反射率データに変換し、該分光反射率データに対して前記撮影光源と前記観察光源の分光放射輝度を反映させるように変換処理を行うことを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。 Furthermore, it has a parameter acquisition means for acquiring a conversion parameter for converting the captured image input by the image input means into spectral reflectance data,
The conversion unit converts the captured image into spectral reflectance data using the conversion parameter, and performs a conversion process so that the spectral radiance of the imaging light source and the observation light source is reflected in the spectral reflectance data. The image processing apparatus according to claim 1, wherein the image processing apparatus is performed.
前記撮影光源の分光放射輝度を取得する撮影光源情報の取得手段と、
前記フラッシュの分光放射輝度を取得するフラッシュ情報の取得手段と、
前記通常撮影画像と前記フラッシュ撮影画像における画素値の差分に基づき、該フラッシュ撮影画像における、前記シーン内で自らが発光している発光物体に対応する発光物体領域を検出する検出手段と、
前記フラッシュ撮影画像に前記フラッシュの分光放射輝度を反映させた第1の反映結果と、該フラッシュ撮影画像に前記撮影光源の分光放射輝度を反映させた第2の反映結果を合成することで、前記フラッシュ画像を前記撮影光源下での見えを再現するように変換する変換手段と、を有し、
前記変換手段は、前記発光物体領域とそれ以外の領域とで、前記第1および第2の反映結果を合成する割合が異なることを特徴とする画像処理装置。 Image input for entering the same scene under a shooting light source with a multi-band camera that has four or more color filters and shooting with a flash and a normal shot with a flash. Means,
Means for acquiring photographing light source information for obtaining spectral radiance of the photographing light source;
Flash information acquisition means for acquiring the spectral radiance of the flash;
Detecting means for detecting a light emitting object region corresponding to a light emitting object emitting light in the scene in the flash photographed image based on a difference between pixel values in the normal photographed image and the flash photographed image;
By combining the first reflection result reflecting the flash spectral radiance in the flash photographed image and the second reflection result reflecting the spectral radiance of the photographing light source in the flash photographed image, Conversion means for converting a flash image so as to reproduce the appearance under the photographing light source,
The image processing apparatus according to claim 1, wherein the conversion unit has different ratios for combining the first and second reflection results between the light emitting object region and the other region.
前記画像入力手段が、撮影光源下において、4種類以上のカラーフィルタを有するマルチバンドカメラによって撮影された撮影画像を入力する画像入力ステップと、
前記撮影光源情報の取得手段が、前記撮影光源の分光放射輝度を取得する撮影光源情報の取得ステップと、
前記観察光源情報の取得手段が、前記撮影光源とは異なる観察光源の分光放射輝度を取得する観察光源情報の取得ステップと、
前記設定手段が、前記撮影画像において、そのシーン内で自らが発光している発光物体に対応する発光物体領域を設定する設定ステップと、
前記変換手段が、前記撮影画像に前記撮影光源の分光放射輝度を反映させた第1の反映結果と、該撮影画像に前記観察光源の分光放射輝度を反映させた第2の反映結果を合成することで、前記撮影画像を前記観察光源下での見えを再現するように変換する変換ステップと、を有し、
前記変換ステップにおいては、前記発光物体領域とそれ以外の領域とで、前記第1および第2の反映結果を合成する割合が異なることを特徴とする画像処理方法。 An image processing method in an image processing apparatus having an image input means, an imaging light source information acquisition means, an observation light source information acquisition means, a setting means, and a conversion means,
The image input means inputs an image captured by a multiband camera having four or more color filters under an imaging light source; and
The acquisition means of the imaging light source information, the acquisition step of imaging light source information for acquiring the spectral radiance of the imaging light source,
The observation light source information acquisition means acquires observation light source information for acquiring spectral radiance of an observation light source different from the imaging light source, and
A setting step in which the setting means sets a light emitting object region corresponding to a light emitting object that emits light in the scene in the captured image;
The conversion unit synthesizes a first reflection result that reflects the spectral radiance of the imaging light source in the captured image and a second reflection result that reflects the spectral radiance of the observation light source in the captured image. A conversion step for converting the photographed image so as to reproduce the appearance under the observation light source,
In the conversion step, the ratio of combining the first reflection result and the second reflection result is different between the light emitting object region and the other region.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011062927A JP2012199804A (en) | 2011-03-22 | 2011-03-22 | Image processor and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011062927A JP2012199804A (en) | 2011-03-22 | 2011-03-22 | Image processor and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012199804A true JP2012199804A (en) | 2012-10-18 |
Family
ID=47181580
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011062927A Withdrawn JP2012199804A (en) | 2011-03-22 | 2011-03-22 | Image processor and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012199804A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103458189A (en) * | 2013-09-02 | 2013-12-18 | 小米科技有限责任公司 | Method and device for configuring photographing parameters and terminal device |
CN104092945A (en) * | 2014-07-24 | 2014-10-08 | 苏州朗昇通信科技有限公司 | Camera shooting control method and device |
CN109167932A (en) * | 2018-10-26 | 2019-01-08 | 深圳市奥德兰科技有限公司 | A kind of photography light control system |
-
2011
- 2011-03-22 JP JP2011062927A patent/JP2012199804A/en not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103458189A (en) * | 2013-09-02 | 2013-12-18 | 小米科技有限责任公司 | Method and device for configuring photographing parameters and terminal device |
CN104092945A (en) * | 2014-07-24 | 2014-10-08 | 苏州朗昇通信科技有限公司 | Camera shooting control method and device |
CN109167932A (en) * | 2018-10-26 | 2019-01-08 | 深圳市奥德兰科技有限公司 | A kind of photography light control system |
CN109167932B (en) * | 2018-10-26 | 2024-05-07 | 深圳市奥德兰科技有限公司 | Photographic light control system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9648245B2 (en) | Low-light image capture method and image capture apparatus | |
JP5744437B2 (en) | TRACKING DEVICE, TRACKING METHOD, AND PROGRAM | |
JP5056780B2 (en) | Image processing device | |
JP4967440B2 (en) | Imaging apparatus and light source estimation apparatus thereof | |
JP6267502B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM | |
US8582891B2 (en) | Method and apparatus for guiding user with suitable composition, and digital photographing apparatus | |
US9591231B2 (en) | Image processing apparatus capable of properly emphasizing differences in brightness between bright spots, image processing method, and storage medium | |
JP2015228546A (en) | Image processor, control method and control program thereof | |
US9307213B2 (en) | Robust selection and weighting for gray patch automatic white balancing | |
US20140071264A1 (en) | Image capture apparatus and control method thereof | |
WO2012093519A1 (en) | Imaging device and light emission amount control method | |
JP6210775B2 (en) | Imaging apparatus, imaging method, and imaging program | |
JP2013106284A (en) | Light source estimation device, light source estimation method, light source estimation program, and imaging apparatus | |
JP2012199804A (en) | Image processor and image processing method | |
JP2015192338A (en) | Image processing device and image processing program | |
JP2007087147A (en) | Image retouching method, image retouching device, and image retouching program | |
US12010433B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP4475118B2 (en) | Camera device, white balance bracketing shooting method | |
JP2012050121A (en) | Imaging device, imaging method and imaging program | |
KR101589493B1 (en) | White ballance control method and apparatus using a flash and digital photographing apparatus using thereof | |
JP6670110B2 (en) | Image processing apparatus, imaging apparatus, control method, and program | |
JP5600580B2 (en) | Image processing apparatus and imaging apparatus | |
JP6611577B2 (en) | Image processing apparatus and image processing method | |
JP5794413B2 (en) | Image processing apparatus, image processing method, and program | |
JP6053501B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140603 |