JP5050141B2 - Color image exposure evaluation method - Google Patents
Color image exposure evaluation method Download PDFInfo
- Publication number
- JP5050141B2 JP5050141B2 JP2009119369A JP2009119369A JP5050141B2 JP 5050141 B2 JP5050141 B2 JP 5050141B2 JP 2009119369 A JP2009119369 A JP 2009119369A JP 2009119369 A JP2009119369 A JP 2009119369A JP 5050141 B2 JP5050141 B2 JP 5050141B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- frequency
- color
- exposure
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 title description 6
- 238000000034 method Methods 0.000 claims description 50
- 239000000203 mixture Substances 0.000 description 58
- 238000012545 processing Methods 0.000 description 21
- 239000003086 colorant Substances 0.000 description 16
- 238000012937 correction Methods 0.000 description 16
- 238000011161 development Methods 0.000 description 10
- 238000009499 grossing Methods 0.000 description 10
- 238000002156 mixing Methods 0.000 description 8
- 241000282412 Homo Species 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000001965 increasing effect Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 2
- 238000005282 brightening Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 101100126329 Mus musculus Islr2 gene Proteins 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000002427 irreversible effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Landscapes
- Color Television Image Signal Generators (AREA)
- Image Analysis (AREA)
Description
本発明はカラー画像の露出評価方法に関する。 The present invention relates to a color image exposure evaluation method.
今日、家庭でのパーソナルコンピュータの普及と共に、ディジタルカメラの需要が増えている。しかし、ディジタルカメラは、手軽に取り扱える反面、逆光などの撮影環境により、色の白飛びや潰れという露出が適正でない画像が取得されることがある。人間はこのようなシーンでも無意識に瞳孔を調整して認識できるが、ディジタルカメラでは、再現できる明るさの範囲が狭いために、人間の感覚とは異なった画像となる。 Today, with the spread of personal computers at home, the demand for digital cameras is increasing. However, while digital cameras can be handled easily, images with inadequate exposure due to overexposure or loss of color may be acquired depending on the shooting environment such as backlight. Humans can recognize and recognize pupils even in such a scene, but with digital cameras, the range of brightness that can be reproduced is narrow, resulting in images that differ from human senses.
このような「とび」や「つぶれ」の部分を補正し、視認性を改善するために、輝度分布ヒストグラムの特徴を利用するなどの手法である線形濃度変換やヒストグラム平坦化などの方法により、コントラストを強調した画像に変換する手法が提案されている(非特許文献1、2、3)。しかし、これらの手法は、その画像中のみの情報をもとに強調を行うため、極度に露出の不適正な領域においては強調に限界がある。また1枚の画像中に露出の適正な領域と不適正な領域が混在するような画像においては、露出の不適正な領域を強調するあまり、露出の適正な領域まで過度に強調してしまい、視覚的に不自然な画像に変換されるという欠点がある。
In order to correct such “skipping” and “collapsed” parts and improve visibility, contrast is obtained by methods such as linear density conversion and histogram flattening, which are methods using the characteristics of the luminance distribution histogram. Has been proposed (
また別の技術として、特許文献1は、「逆光」、「白つぶれ」、「黒つぶれ」を補正する手法として、輝度ヒストグラムを利用する信号処理方法を開示する。さらに特許文献2および特許文献3は、RAWモードを利用した画像処理プログラム及び方法を開示する。しかし、それぞれ、カラーヒストグラムより求められた頻度画像及びL*a*b*カラーヒストグラムの情報を利用しておらず、人の目で見たような自然な画像に処理する技術を開示していない。したがって、これらの技術では前記した白飛びや潰れの問題を解決して視覚的に自然な画像に補正する画像処理技術までには至っていない。
本発明の目的は、ディジタルカメラの画像情報から取得したデータを基にカラー画像を処理するためのカラー画像の露出評価方法を提供することにある。特に本発明の目的は、逆光等による白とびやつぶれを補正する際に、従来技術では視覚的に自然な画像に処理できないという問題点を解決することが可能なカラー画像の露出補正のために好適な、カラー画像の露出評価方法を提供することにある。 An object of the present invention is to provide a color image exposure evaluation method for processing a color image based on data acquired from image information of a digital camera. In particular, the object of the present invention is to correct exposure of a color image, which can solve the problem that the conventional technology cannot process a visually natural image when correcting overexposure or collapse due to backlight or the like. An object is to provide a color image exposure evaluation method that is suitable.
上記目的を達成するための本発明のカラー画像の露出評価方法は、同一シーンについて露出を変えて複数枚のカラー画像系列を取得し、これら複数枚のカラー画像系列において、ある画像位置についての複数枚のカラー画像のうち、色の出現頻度が低い画像を、その画像位置における露出が適正な画像であると判断するものである。 In order to achieve the above object, the color image exposure evaluation method of the present invention obtains a plurality of color image series by changing the exposure for the same scene, and a plurality of color image series for a certain image position in the plurality of color image series. Among the color images, an image with a low color appearance frequency is determined to be an image with an appropriate exposure at the image position.
すなわち、露出の不適正な領域は、一般に各画素の色の差が小さく、露出の適正な領域に比べて画像中で同じ色の頻度が大きいという特徴を持っている。このことを利用して、本発明は、露出の異なる複数枚のカラー画像系列において、色の出現頻度が低い画像を、その画像位置における露出が適正な画像であると判断するものであり、カラー画像の露出の評価を色の出現頻度の比較により簡単に行えるという効果がある。 That is, a region with an inappropriate exposure generally has a small color difference between pixels, and has a feature that the frequency of the same color is higher in an image than a region with an appropriate exposure. By utilizing this fact, the present invention determines that an image with a low frequency of appearance in a plurality of color image series having different exposures is an image with an appropriate exposure at the image position. There is an effect that the exposure of the image can be easily evaluated by comparing the appearance frequency of the colors.
[露出と色の出現頻度]
写真撮影の際に、同じシーンを露出を変えて複数撮影したときに、注目している物体の見やすさと色の出現頻度との関係について説明する。図1は、図2の同一シーンを、露出を変えて9通りに撮影した画像群であり、それぞれの画像に1〜9の番号を付している。図2に示すように、机の上にはプラスチック製の鉢が置いてあり、机の下にはプラスチック製の鳥の人形が置いてある。鉢に対して適正な露出を合わせると、鳥の人形が暗くつぶれてしまう。逆に鳥の人形に露出を合わせると、鉢は白くとんでしまう。
[Exposure frequency of exposure and color]
A description will be given of the relationship between the visibility of an object of interest and the appearance frequency of colors when a plurality of images of the same scene are captured with different exposures. FIG. 1 is a group of images obtained by photographing the same scene of FIG. 2 in nine ways with different exposures, and
図1のNo.5の画像とNo.9の画像とにおける鳥の人形部分の拡大図を図3(a)(b)に示す。No.5の画像では鳥の人形部分はつぶれ気味であり、No.9の画像では鳥の人形は露出が適正である。また、No.5の画像とNo.9の画像とにおける鳥の人形部分だけの領域をRGBカラーヒストグラム空間にプロットすると、図4(a)(b)のようになる。これより、RGB空間では適正な露出の部分は、広がってプロットされ、つぶれ気味の部分は、レベルの低い領域に集中してプロットされることが分かる。 No. 1 in FIG. No. 5 and No. 5 image. 3A and 3B are enlarged views of the bird doll portion in the nine images. No. In the image of No. 5, the bird doll part is crushed. In the image of 9, the bird doll is properly exposed. No. No. 5 and No. 5 image. When the area of only the bird doll part in the image of 9 is plotted in the RGB color histogram space, it is as shown in FIGS. From this, it can be seen that in the RGB space, the part of the appropriate exposure is plotted in a broad manner, and the part of the collapsed part is plotted in a concentrated manner in a low level area.
いま、このRGB空間の各位置に色の出現頻度を持たせると、露出の適正な部分の色は、分散しているためその出現頻度は低くなる。反対に、つぶれたり、とび気味の部分は、同じような色が集まっているため、色の出現頻度は高くなる。 Now, if the appearance frequency of the color is given to each position in the RGB space, the color of the appropriate part of the exposure is dispersed and thus the appearance frequency becomes low. On the other hand, since the same color is gathered in the portion that is crushed or jumped, the frequency of appearance of the color increases.
したがって、露出を変えて撮影した複数枚の画像において、同一領域についての色の出現頻度を比べると、色の出現頻度の低い画像ほど適正な露出であると言える。 Accordingly, when comparing the appearance frequency of colors for the same region in a plurality of images taken with different exposures, it can be said that an image with a lower frequency of appearance has a more appropriate exposure.
[頻度画像]
色の頻度情報を有するカラーヒストグラム空間において、その頻度を調べることで、露出を変えて撮影した画像の適正な露出を判断することができる。以下、これを具体的に説明する。
[Frequency image]
By examining the frequency in a color histogram space having color frequency information, it is possible to determine an appropriate exposure of an image taken with different exposures. This will be specifically described below.
まず、カラー画像を、その座標を表す2つの独立変数x、yの関数f(x,y)によって表現すると、図5に示すように、カラー画像f(x,y)のRGB値(たとえば「赤」)を、カラーヒストグラム空間より得られる頻度値(たとえば「2」)に置き換えることにより、頻度画像g(x,y)が得られる。この頻度画像g(x,y)は、カラーヒストグラムより求められた頻度の違いを視覚的に表すものである。 First, when a color image is expressed by a function f (x, y) of two independent variables x and y representing the coordinates, as shown in FIG. The frequency image g (x, y) is obtained by replacing “red”) with a frequency value (for example, “2”) obtained from the color histogram space. This frequency image g (x, y) visually represents the difference in frequency obtained from the color histogram.
頻度画像を有限の諧調で表示する場合は、頻度の閾値をdとして、dより小さい頻度の画像を、その頻度値に応じて濃淡表示する。この頻度値に応じて濃淡表示された画像を頻度特徴検出画像と呼ぶ。その詳細は、特開2001−155173号公報に記載されている通りである。 When displaying a frequency image with a finite gradation, the frequency threshold is set to d, and an image with a frequency smaller than d is displayed in shades according to the frequency value. An image displayed in grayscale according to this frequency value is called a frequency feature detection image. The details are as described in JP 2001-155173 A.
図6(a)(b)に、閾値dを同じにしたときの図3(a)(b)についての頻度特徴検出画像を示す。ここでは、頻度が低い部分ほど暗く表示され、反対に頻度が高い部分ほど明るく表示されている。 FIGS. 6A and 6B show frequency feature detection images for FIGS. 3A and 3B when the threshold value d is the same. Here, the lower frequency portion is displayed darker, and the higher frequency portion is displayed brighter.
頻度画像を用いて求めた図1における鉢と鳥の人形部分の領域の平均頻度の変化を図7(a)(b)に示す。これらより、平均頻度の最も小さくなる露出が、最も見やすくなっていることが分かる。
[頻度画像の作成]
実シーンでは、画素のRGB値は種々のノイズの影響を受けることが多いため、複数枚の同じシーンを連続して取得したカラー画像を用いて頻度画像を作成する。具体的な手順を以下に示す。
Changes in the average frequency of the pot and bird doll region in FIG. 1 obtained using the frequency image are shown in FIGS. From these, it can be seen that the exposure with the lowest average frequency is the most visible.
[Create frequency image]
In an actual scene, the RGB value of a pixel is often affected by various noises, so a frequency image is created using a color image obtained by continuously acquiring a plurality of the same scenes. The specific procedure is shown below.
(1)時刻tに取得したカラー画像をf(t)とし、f(t)をカラーヒストグラム空間上にプロットしたものをh(t)とする。h(t)はf(t)の各画素の座標値とその座標における頻度とを持っている。 (1) A color image acquired at time t is denoted by f (t), and f (t) plotted on the color histogram space is denoted by h (t) . h (t) has the coordinate value of each pixel of f (t) and the frequency at that coordinate.
(2)取得画像f(t)の濃度値をh(t)より得られる頻度値に置き換えると、f(t)は、濃度値の出現頻度を表す濃淡画像となる。この画像を頻度画像g(t)と呼ぶ。 (2) When the density value of the acquired image f (t) is replaced with a frequency value obtained from h (t) , f (t) becomes a grayscale image representing the appearance frequency of the density value. This image is called a frequency image g (t) .
(3){f(t);t=1,2,…,n}から得られるn枚の頻度画像g(t)の合計Sを次式により求める。 (3) A total S of n frequency images g (t) obtained from {f (t) ; t = 1, 2,.
(4)画像として表現する頻度の閾値をdとし、これを検出平均頻度と呼ぶ。iビットの画像メモリを用いて、検出平均頻度dまでを表した頻度画像は次式のようになる。 (4) The threshold value of the frequency of representation as an image is d, and this is called the detection average frequency. A frequency image representing the detection average frequency d using an i-bit image memory is represented by the following equation.
以上の作成手順を図8に示す。図8ではカラー画像f(t)を基に頻度画像を作成する方法を示している。カラー画像f(t)をカラーヒストグラムにプロットし、同時に濃度値の出現頻度をカウントする。このときのカラーヒストグラムをhとする。もとの画像f(t)の濃度値をhより得られる頻度値を加算枚数で割った値に置き換えた画像が頻度画像gである。頻度画像gでは、頻度をグレースケールで表している。 The above creation procedure is shown in FIG. FIG. 8 shows a method of creating a frequency image based on the color image f (t) . The color image f (t) is plotted on the color histogram, and at the same time, the frequency of appearance of density values is counted. Let the color histogram at this time be h. The frequency image g is an image obtained by replacing the density value of the original image f (t) with a value obtained by dividing the frequency value obtained from h by the number of added sheets. In the frequency image g, the frequency is expressed in gray scale.
以下においては、実際の使用時のことを考慮し、平均頻度画像は作成せず、1枚の取得画像から頻度画像を作成する方法を用いる。 In the following, in consideration of actual use, a method of creating a frequency image from one acquired image is used without creating an average frequency image.
[均等色空間の性質を持つRGB表色系のカラーヒストグラム]
RGBカラーヒストグラム空間では、同じ色の距離であっても、その位置により人間には異なった距離に感じることが知られている。たとえば、緑付近の色の差と青付近の色の差がRGB空間で同じであっても人間には青付近の方がより差を感じる。
[Color histogram of RGB color system with uniform color space]
In the RGB color histogram space, it is known that even if the distance is the same color, a human feels a different distance depending on the position. For example, even if the color difference near green and the color difference near blue are the same in the RGB space, humans feel a difference near blue.
このため、RGBカラーヒストグラム空間より得られる頻度情報をそのまま用いると、人間の感覚と合わない不自然な結果となる場合がある。そこで、人間が同じ色差に見える色どうしの距離を均等にしたL*a*b*表色系の色空間を参考にして、RGB空間にこの均等色空間の性質を持たせる。 For this reason, if the frequency information obtained from the RGB color histogram space is used as it is, an unnatural result that does not match the human sense may be obtained. Therefore, the RGB space is given the property of this uniform color space with reference to the color space of the L * a * b * color system in which the distances between colors that appear to be the same color difference by humans are made equal.
そのための手法は、頻度情報を持つRGB空間の各位置の頻度に、その位置により異なる重みを乗じたものを、その位置の頻度とするものである。この重みは、人間が差を感じない色はカラーヒストグラム空間上で高い頻度となるように設定したものであり、L*a*b*表色系と同じ性質を、このカラーヒストグラムに持たせることができる。 As a technique for that, the frequency of each position in the RGB space having frequency information is multiplied by a weight different depending on the position, and the frequency of the position is obtained. These weights are set so that colors that humans do not feel a difference have a high frequency on the color histogram space, and this color histogram should have the same properties as the L * a * b * color system. Can do.
なお、L*a*b*表色系は人間の知覚に合った色空間と言われており、色再現といった応用では微妙な色の差はあまり問題にならないため性能が良く、あらゆる分野で用いられている。 The L * a * b * color system is said to be a color space suitable for human perception, and in applications such as color reproduction, subtle color differences do not cause much problem, so performance is good and used in all fields. It has been.
L*a*b*表色系は
L*:明度
a*:値が大きいほど赤、小さいほど緑
b*:値が大きいほど黄、小さいほど青
の3つの値で色を表す。
L * a * b * color system is L * : lightness a * : the larger the value, the more red, the smaller the green b * : the larger the value, the yellow, and the smaller the blue, the color is represented by three values.
以下、詳しく説明する。L*a*b*表色系の変換式は以下の式(4)のようになる。 This will be described in detail below. The conversion formula of L * a * b * color system is as shown in the following formula (4).
そこで、RGB表色系を用いたカラーヒストグラムにL*a*b*表色系の性質を持たせる。具体的な手順を次に説明する。 Therefore, a color histogram using the RGB color system has the properties of the L * a * b * color system. A specific procedure will be described next.
(1)L*a*b*カラーヒストグラムを用意し、全点の頻度を0に設定する。 (1) An L * a * b * color histogram is prepared and the frequency of all points is set to zero.
(2)RGB表色系で表される全ての色をL*a*b*カラーヒストグラムにプロットする。 (2) All colors represented by the RGB color system are plotted on the L * a * b * color histogram.
(3)RGB表色系カラーヒストグラムを用意し、全点の頻度を0に設定する。 (3) An RGB color system color histogram is prepared, and the frequency of all points is set to zero.
(4)RGB表色系カラーヒストグラムの1点1点をL*a*b*に変換し、L*a*b*カラーヒストグラムの頻度値を調べ、その頻度値をRGBカラーヒストグラムに格納する。その結果、頻度値が均等でないRGBカラーヒストグラムができる。このとき、頻度の高い色は人間が差を感じない色であり、頻度の低い色は人間が差を感じる色であると言える。 (4) Convert the point by point in the RGB color system color histogram in L * a * b *, L * a * b * examine the frequency values of the color histogram, and stores the frequency values in the RGB color histogram. As a result, an RGB color histogram with non-uniform frequency values is created. At this time, it can be said that a color with high frequency is a color that humans do not feel a difference, and a color with low frequency is a color that humans feel a difference.
(5)作成されたRGB表色系カラーヒストグラムの頻度分布に対応した重みテーブルを作る。RGB表色系カラーヒストグラム内で最低の頻度は1、最高の頻度は77であることから、重みは線形に0.1〜7.7とすることができる。RGBカラーヒストグラムを作成する際、プロットされた点の重みを頻度にかけて、頻度を足していく。この手順を図9に示す。 (5) Create a weight table corresponding to the frequency distribution of the created RGB color system color histogram. Since the lowest frequency is 1 and the highest frequency is 77 in the RGB color system color histogram, the weight can be linearly set to 0.1 to 7.7. When the RGB color histogram is created, the weight of the plotted points is multiplied by the frequency, and the frequency is added. This procedure is shown in FIG.
このように重みテーブルを一度作成すれば、人間が差を感じない色はカラーヒストグラム上で高い頻度となる、L*a*b*表色系と同じ性質を持つRGBカラーヒストグラムを作成することができる。このL*a*b*表色系の性質を持ったカラーヒストグラムにより作成される頻度画像を用いて露出を評価し、補正する。 Once the weight table is created in this way, an RGB color histogram having the same properties as the L * a * b * color system can be created. it can. Exposure is evaluated and corrected using a frequency image created by a color histogram having the L * a * b * color system characteristics.
この重み付けを行う重みテーブルは、一度作成しておけば毎回作り直す必要はない。カラー画像をこのカラーヒストグラム空間にプロットした後の頻度に、重みテーブルより得られる係数を乗じて、その値を基に頻度画像を作成し、この画像を露出の評価に使用する。この頻度画像の作成過程は、元のカラー画像のカラー値をその色の出現頻度に置き換えて作成した頻度画像の各頻度値に、後から、元のカラー画像の色についての前記重みテーブルの係数を乗じて、新たに頻度画像を作成することと同じである。 Once the weighting table for weighting is created, it is not necessary to recreate it every time. The frequency after the color image is plotted in the color histogram space is multiplied by a coefficient obtained from the weight table, and a frequency image is created based on the value, and this image is used for exposure evaluation. This frequency image creation process is performed by replacing each frequency value of the frequency image created by replacing the color value of the original color image with the appearance frequency of the color, and then adding the coefficient of the weight table for the color of the original color image. This is the same as creating a new frequency image by multiplying.
[露出の補正方法−1]
(基本的な考え方)
ディジタルカメラなどから得られる24ビットフルカラー画像を用いた場合の露出補正の基本的な考え方は次の二つである。
[Exposure Correction Method-1]
(basic way of thinking)
There are two basic concepts of exposure correction when a 24-bit full color image obtained from a digital camera or the like is used.
(A)露出補正の必要な原画像は、露出オーバー気味な部分と露出アンダー気味な部分との、大きく2つの領域に分けて考えることができる。このとき、露出アンダー気味な部分は、逆光での人物の撮影のようにシーンの前部にくることが多いので、これを「前景」とし、それ以外の露出オーバー気味な部分を「背景」とする。 (A) The original image that needs to be corrected for exposure can be divided into two areas, an overexposed part and an underexposed part. At this time, the underexposed part often comes to the front of the scene like shooting a person in the backlight, so this is called “foreground”, and the other overexposed part is called “background” To do.
(B)原画像より、前景の露出が最適な画像fo(x,y)を作成するとともに、背景の露出が最適な別の画像fu(x,y)を作成する。そして、それぞれの画像より得られる頻度画像についての画素ごとの頻度の比によって、2枚の画像をブレンドする。 (B) From the original image, an image f o (x, y) having the optimum foreground exposure is created, and another image f u (x, y) having the optimum background exposure is created. Then, the two images are blended according to the frequency ratio of each pixel with respect to the frequency image obtained from each image.
以下、上記の二つの考え方に基づいた具体的な露出補正方法を説明する。
(前景と背景の決定)
原画像をL*a*b*表色系のL*の値で2値化する。この時の閾値は判別分析法により自動で決定し、閾値より明度の低い部分を前景とし、明度の高い部分を背景とする。
Hereinafter, a specific exposure correction method based on the above two concepts will be described.
(Determination of foreground and background)
The original image is binarized with the L * value of the L * a * b * color system. The threshold at this time is automatically determined by a discriminant analysis method, and a portion having a lightness lower than the threshold is used as the foreground, and a portion having a high lightness is used as the background.
(fo(x,y)とfu(x,y)の作成)
前景部分の最適露出画像fo(x,y)は、上記のフルカラー画像の暗部の明るさを線形濃度変換により強調して作成したものとする。このとき、濃度変換直線の傾きを少しずつ変化させて、前景部分の明度のエントロピーが最大になるものを求める。
(Create f o (x, y) and f u (x, y))
It is assumed that the optimal exposure image f o (x, y) of the foreground part is created by enhancing the brightness of the dark part of the full-color image by linear density conversion. At this time, the gradient of the density conversion straight line is changed little by little to find the one that maximizes the lightness entropy of the foreground portion.
明度のレベルIの画素の出現確立をP(I)とすると、エントロピーEは次の式により求められる。 Assuming that the appearance of a pixel of lightness level I is P (I), the entropy E is obtained by the following equation.
(頻度画像の作成)
求めた最適露出画像fo(x,y)、fu(x,y)を、上述の均等色空間の性質を持つRGBカラーヒストグラム空間にそれぞれプロットして、それぞれの頻度画像go(x,y)、gu(x,y)を作成する。
(Create frequency images)
The obtained optimum exposure images f o (x, y) and f u (x, y) are respectively plotted in the RGB color histogram space having the above-mentioned uniform color space property, and the respective frequency images g o (x, y, y) and g u (x, y) are created.
(ブレンド比の作成)
頻度の低い領域ほど露出が適正なので、2枚の頻度画像で同じ位置の頻度を比べ、頻度の低い方が多くブレンドされるように、下記の式によって画素ごとにブレンド比ro(x,y)、ru(x,y)を決める。
(Create blend ratio)
Since the exposure is more appropriate in the region with lower frequency, the frequency of the same position is compared in two frequency images, and the blend ratio r o (x, y) is calculated for each pixel by the following formula so that the lower frequency is blended more. ), R u (x, y) is determined.
(ブレンド比マップの作成)
次に、上記で求めた最適露出画像fo(x,y)、fu(x,y)のブレンド比ro(x,y)、ru(x,y)を濃淡画像で表したブレンド比マップの画像を作成する。この画像は、前景部分の露出が適正である画像fo(x,y)のブレンド割合が高いほど明るい画像となる。
(Create blend ratio map)
Next, a blend image representing the blend ratios r o (x, y) and r u (x, y) of the optimum exposure images f o (x, y) and f u (x, y) obtained as described above as grayscale images. Create a ratio map image. This image becomes brighter as the blend ratio of the image f o (x, y) in which the exposure of the foreground portion is appropriate is higher.
(ブレンド比マップのスムージング)
ノイズの影響を避けるためブレンド比マップをスムージングする。単にスムージングすると画像中におけるエッジの付近がぼけてしまうため、画像中の場所によって動的に重みが変わるスムージングフィルタを利用する。このフィルタは図10に示すようなガウシアンフィルタであるが、図10(a)に示すようにエッジ付近では分散値を小さく、図10(b)に示すようにエッジから離れるに従って分散値σを大きく設定する。
(Smoothing of blend ratio map)
Smooth the blend ratio map to avoid the effects of noise. If the smoothing is simply performed, the vicinity of the edge in the image is blurred. Therefore, a smoothing filter whose weight is dynamically changed depending on the location in the image is used. This filter is a Gaussian filter as shown in FIG. 10, but the variance value decreases near the edge as shown in FIG. 10A, and the variance value σ increases as the distance from the edge increases as shown in FIG. 10B. Set.
ガウシアンフィルタとは、重みが式(8)より得られる正規分布に従って割り当てられるフィルタであり、与えるσによってぼけ具合が変わる(FEST Project編集委員会:新実践画像処理、Linx、 2002)。図10はσによる重みをグラフ化したものであり、図10(a)はσが5である場合を示し、同図(b)はσが21である場合を示す。 The Gaussian filter is a filter in which weights are assigned according to a normal distribution obtained from Expression (8), and the degree of blur varies depending on σ to be given (FEST Project Editorial Board: New Practice Image Processing, Linx, 2002). FIG. 10 is a graph of the weight by σ. FIG. 10A shows a case where σ is 5, and FIG. 10B shows a case where σ is 21.
(ブレンド)
前景最適露出画像fo(x,y)と背景最適露出画像fu(x,y)の各画素のRGB値を用いてブレンド比ro(x,y)、ru(x,y)によって実際にブレンドを行う際、画素のRGBの値は、下記の式(9)を用いていったん公知のY/C分離信号に変換し、Y成分とC成分を別々にブレンドした後、式(9)をRGBに関して解いた式(10)を用いてRGBの値に逆変換し、画像とする。
(blend)
By using the RGB values of each pixel of the foreground optimum exposure image f o (x, y) and the background optimum exposure image f u (x, y), the blend ratios r o (x, y) and r u (x, y) When actually blending, the RGB values of the pixels are once converted into known Y / C separation signals using the following equation (9), and the Y component and the C component are blended separately, and then the equation (9 ) Is inversely converted into RGB values using the equation (10) solved for RGB to obtain an image.
(具体例)
デジタルカメラで撮影したJPEG画像から24ビットのフルカラー画像を得て、これを原画像として実験を行った。
(Concrete example)
A 24-bit full-color image was obtained from a JPEG image taken with a digital camera, and the experiment was performed using this as an original image.
図11は原画像である。まず、この原画像から、二値化により前景と背景を決めた。ここでは、二人の人物を前景とするとともに、それ以外は背景とした。次に前景のエントロピーを算出して、前景部分の最適露出画像fo(x,y)を求めた。これを図12に示す。背景部分の最適露出画像fu(x,y)は、原画像をfo(x,y)と同じ色数まで減色して作成した。 FIG. 11 shows an original image. First, the foreground and background were determined from this original image by binarization. Here, two people are used as the foreground, and the others are used as the background. Next, the foreground entropy was calculated to obtain the optimal exposure image f o (x, y) of the foreground portion. This is shown in FIG. The optimal exposure image f u (x, y) of the background portion was created by reducing the original image to the same number of colors as f o (x, y).
次に最適露出画像fo(x,y)、fu(x,y)の頻度画像go(x,y)、gu(x,y)を作成した。図13は図11を減色した後の頻度画像gu(x,y)を示し、図14は図12の頻度画像go(x,y)を示す。露出の適正な部分は頻度が低く、頻度画像において濃度が高く、図13、14において暗い部分となった。反対に露出が適正でない部分は頻度が高く、頻度画像において濃度が低く、図13、14において明るい部分となった。 Next best exposure image f o (x, y), the frequency image g o (x, y) of f u (x, y), created a g u (x, y). FIG. 13 shows the frequency image g u (x, y) after color reduction of FIG. 11, and FIG. 14 shows the frequency image g o (x, y) of FIG. The appropriate part of the exposure was infrequent, the density was high in the frequency image, and the dark part in FIGS. On the contrary, the portion where the exposure is not appropriate has a high frequency, the density is low in the frequency image, and the bright portion in FIGS.
ブレンド比ro(x,y)、ru(x,y)を決め、図15のブレンド比マップの画像を作成した。この画像は、上述のように、前景部分の露出が適正である画像fo(x,y)のブレンド割合が高いほど明るい画像となった。 Blend ratios r o (x, y) and r u (x, y) were determined, and an image of the blend ratio map of FIG. 15 was created. As described above, this image becomes brighter as the blend ratio of the image f o (x, y) in which the exposure of the foreground portion is appropriate is higher.
そして上述のブレンド比マップのスムージングを行い、ブレンドを行った。その結果を図16に示す。この図16の画像は、前景、背景とも適正露出であり、背景が適正露出であるが前景が露出アンダーである図11の画像や、反対に前景は適正露出であるが背景が露出オーバーである図12の画像に比べ、違和感なく露出の補正を行うことができた。
(まとめ)
以上のようにして、24ビットフルカラー画像を用いて、局所的に露出の不適正な部分を補正することができる。これは、同一シーンにおいて露出を変えて撮影した画像において、露出の適正な部分は、色の出現頻度が低くなるという知見に基づくものである。本手法は、カラー画像の明度情報を基にブレンドや補正を行う手法と異なり、人間の知覚に基づいたカラー空間より得られる情報を用いるため、視覚的に違和感のない自然な補正画像を作成することができる。
(中間画像の利用)
次に、中間画像を利用する場合について説明する。この処理では、たとえば原画像を減色した背景画像と原画像を明るくした前景画像の2枚を用いるとともに、その2枚以外に、背景画像と前景画像の中間の明るさの、単数または複数の中間画像を作成する。
The blend ratio map was smoothed and blended. The result is shown in FIG. The image of FIG. 16 has proper exposure for both the foreground and the background, the image of FIG. 11 where the background is properly exposed but the foreground is underexposed, and conversely the foreground is properly exposed but the background is overexposed. Compared with the image of FIG. 12, exposure correction could be performed without a sense of incongruity.
(Summary)
As described above, it is possible to locally correct an inappropriately exposed portion using a 24-bit full color image. This is based on the knowledge that, in an image shot with different exposures in the same scene, the appropriate exposure part has a lower color appearance frequency. Unlike the method of blending and correcting based on the brightness information of a color image, this method uses information obtained from a color space based on human perception, so it creates a natural corrected image that is visually uncomfortable. be able to.
(Use of intermediate images)
Next, a case where an intermediate image is used will be described. In this process, for example, a background image obtained by reducing the color of the original image and a foreground image obtained by brightening the original image are used, and in addition to the two images, one or a plurality of intermediate colors having a brightness intermediate between the background image and the foreground image are used. Create an image.
このとき、原画像を明るくした前景画像を作成すると、オリジナルのJPEG画像はRGB8ビットであるため、前景画像は原画像に比べて色数が減る。
フルカラーの画像ではRGBがそれぞれ256階調あり、色数は256×256×256存在する。
At this time, if a foreground image with a brightened original image is created, the original JPEG image is RGB 8-bit, so the foreground image has fewer colors than the original image.
In a full-color image, there are 256 gradations of RGB, and there are 256 × 256 × 256 colors.
前景画像は、原画像をある明るさまで拡大して作成する。この明るさをRGBそれぞれ64とすると、0〜64の部分を0〜255に割り当てて明るい画像を作成する。ただし、元々の暗い部分は64×64×64の色数しかなかったため、0〜255に割り当てても色数は少ないままである。ここで、中間画像の作成の際には、色数を前景画像に合わせる。 The foreground image is created by enlarging the original image to a certain brightness. If this brightness is 64 for each of RGB, a portion of 0 to 64 is assigned to 0 to 255 to create a bright image. However, since the original dark portion has only 64 × 64 × 64 colors, the number of colors remains small even when assigned to 0 to 255. Here, when the intermediate image is created, the number of colors is matched with the foreground image.
このように色数を合わせる理由は、同じ階調のカラー画像より頻度画像を作成しないと頻度のバランスがくずれるからである。たとえば、同じシーンをRGB各256階調で撮る場合と、RGB各64階調で撮る場合とでは、頻度画像にしたときに、同じ場所で露出の程度が同じであっても、前者は頻度が低めになり、後者は頻度が高めになる。 The reason for matching the number of colors in this way is that the frequency balance is lost unless a frequency image is created from a color image of the same gradation. For example, when shooting the same scene with 256 gradations for each of RGB and shooting with 64 gradations for each of RGB, even if the exposure level is the same at the same place, The latter is less frequent and the latter is more frequent.
ブレンド比マップは、たとえば中間画像を3枚作成する場合は、
背景画像より作成した頻度画像:中間画像1より作成した頻度画像
背景画像より作成した頻度画像:中間画像2より作成した頻度画像
背景画像より作成した頻度画像:中間画像3より作成した頻度画像
背景画像より作成した頻度画像:前景画像より作成した頻度画像
のように、背景画像と、単数または複数の中間画像および前景画像とで、それぞれブレンド比マップを作成し、これらを用いて新たなブレンド比マップを得る。具体的には、各ブレンド比マップの平均や、各ブレンド比マップにそれぞれ係数を乗じて加え合わせたものなどを、新たなブレンド比マップとすることができる。各ブレンド比マップにそれぞれ係数を乗じる場合には、たとえば、背景画像と前景画像によるブレンド比マップに乗じる係数の値を、中間画像を用いた場合のブレンド比マップに乗じる係数の値よりも大きな値とすることができる。
For example, when creating 3 intermediate images,
Frequency image created from background image: Frequency image created from
このようにすることで、より良い結果を得ることができる。
上述の露出補正方法に、さらに中間画像をも利用した処理のアルゴリズムの例を、図17に示す。
By doing so, better results can be obtained.
FIG. 17 shows an example of a processing algorithm that uses an intermediate image in addition to the exposure correction method described above.
(高速化アルゴリズム)
図18に示すように、高速化アルゴリズムのために、原画像より縮小した縮小画像を作成する。縮小は、最近傍法、線形補間法、三次補間法などの一般的なアルゴリズムを使用する。この縮小画像を原画像として、上述と同様の処理により、ブレンド比マップを作成する。
(Acceleration algorithm)
As shown in FIG. 18, a reduced image that is reduced from the original image is created for the speed-up algorithm. The reduction uses a general algorithm such as nearest neighbor method, linear interpolation method, and cubic interpolation method. Using this reduced image as the original image, a blend ratio map is created by the same processing as described above.
次に上記のようにして得られたブレンド比マップを、最近傍法、線形補間法、三次補間法により原画像のサイズに拡大する。拡大したブレンド比マップを用いて、原画像と、原画像を明るくして作成した前景画像とにより、露出補正画像を作成する。 Next, the blend ratio map obtained as described above is enlarged to the size of the original image by the nearest neighbor method, the linear interpolation method, and the cubic interpolation method. Using the enlarged blend ratio map, an exposure correction image is created from the original image and the foreground image created by brightening the original image.
このように縮小画像を原画像としてブレンド比マップを作成することで、処理の高速化を図ることができる。 By creating a blend ratio map using the reduced image as the original image in this way, the processing speed can be increased.
[露出の補正方法−2]
ここでは、画像のRAWデータを用いて処理を行う。
[Exposure Correction Method-2]
Here, processing is performed using RAW data of the image.
(RAWデータと現像)
RAWデータとは、ディジタルカメラにおいて撮影時に撮像素子が生成したRAWモードのデータであり、画像ではない。一般にディジタルカメラで出力される画像は、ガンマ値、明るさ、色、ホワイトバランスなどのパラメータを設定して、RAWデータから生成されたものである。この処理を一般に「現像」という。現在までに公開されている現像ソフトでは上に挙げたパラメータを任意に設定できない。そのため、例えば図19のように影の領域や空の領域に色の変化が見られない。そこで、ここではRAWデータを直接処理することのできる「dcraw」というフリーライセンスの現像ソフト(“RAW Digital Photo Decoding in Linux”、http://www.cybercom.net/〜dcoffin/dcraw/)を用いる。dcrawを用いると、図20、21に示すように明るさの異なる2枚の画像を現像できる。
(RAW data and development)
The RAW data is RAW mode data generated by the image sensor at the time of shooting in the digital camera, and is not an image. In general, an image output by a digital camera is generated from RAW data by setting parameters such as a gamma value, brightness, color, and white balance. This process is generally called “development”. The parameters listed above cannot be set arbitrarily with development software released so far. Therefore, for example, as shown in FIG. 19, no color change is observed in the shadow area or the sky area. So, here in developing software free license of "dcraw" that can process the RAW data directly ( "RAW Digital Photo Decoding in Linux ", http: //www.cybercom.net/ ~ dcoffin / dcraw /) using the . When dcraw is used, two images having different brightness can be developed as shown in FIGS.
それに続く頻度画像の作成、ブレンド比の作成、ブレンド比マップの作成、ブレンド比マップのスムージングは、上述の「露出の補正方法−1」の場合と同様である。以下、ブレンド比マップのスムージングの具体例について説明する。ここでは、上述のように、スムージングを、2枚の画像の平均画像より検出したエッジを参考に行う。上述のように、平均画像は、単にブレンドする2枚の画像の同じ位置の画素のRGBの値を加算し、2で除して得られるRGBの値によって画像を構成したものである。図20、21の画像の平均画像を図22に示す。図22に対してPrewittオペレータを適用してエッジを検出した結果を図23に示す。図23はグレースケール画像であり、黒いところほど勾配の急なエッジである。よって、このエッジの急峻さに対応したガウシアンフィルタのσを決めればよい。 Subsequent generation of a frequency image, creation of a blend ratio, creation of a blend ratio map, and smoothing of the blend ratio map are the same as in the case of “Exposure correction method-1” described above. Hereinafter, a specific example of smoothing of the blend ratio map will be described. Here, as described above, smoothing is performed with reference to the edge detected from the average image of the two images. As described above, the average image is obtained by simply adding the RGB values of the pixels at the same position in the two images to be blended and dividing the result by 2 to form an image. An average image of the images of FIGS. 20 and 21 is shown in FIG. FIG. 23 shows the result of detecting edges by applying the Prewitt operator to FIG. FIG. 23 is a grayscale image, where the black part is a sharper edge. Therefore, the σ of the Gaussian filter corresponding to the sharpness of the edge may be determined.
以上の処理により図20、21に示す画像をブレンドした結果とそのときのブレンド比マップとを、それぞれ図24、25に示す。また、スムージングしない場合のブレンド比マップを図26に、σの変化の様子を色により確認できる分布図を図27に示す。ブレンド結果ではノイズや不自然な境界はなく、σの分布図ではエッジ付近でσが小さくなっていることが確認できる。 The result of blending the images shown in FIGS. 20 and 21 by the above processing and the blend ratio map at that time are shown in FIGS. 24 and 25, respectively. Further, FIG. 26 shows a blend ratio map when smoothing is not performed, and FIG. 27 shows a distribution chart in which the state of change of σ can be confirmed by color. There is no noise or unnatural boundary in the blend result, and it can be confirmed that σ is small near the edge in the distribution diagram of σ.
(複数枚の明るさの異なる画像を用いたブレンド比マップの作成)
2枚の画像をブレンドすることによって露出の補正を行った図24のブレンド結果は初見では不自然だと感じることはないが、原画像と共に見ると人物の左肩にある影が不自然である。これはブレンドする2枚の画像の明るさに差があるため、オーバー気味な画像において飛んでいる領域の面積が増え、頻度が極度に大きくなりブレンドに無理が生じたためである。そこで、最適なブレンド比マップを作成する方法について説明する。
(Create a blend ratio map using multiple images with different brightness)
The blending result of FIG. 24 in which the exposure is corrected by blending two images does not feel unnatural at first glance, but the shadow on the left shoulder of the person is unnatural when viewed together with the original image. This is because there is a difference in the brightness of the two images to be blended, so that the area of the flying region in the overexposed image is increased, the frequency becomes extremely high, and the blending becomes impossible. Therefore, a method for creating an optimum blend ratio map will be described.
これには、上述の「中間画像の利用」の場合と同様に、実際にブレンドする2枚の画像だけではなく、その中間の明るさの画像を用いる。具体的には、アンダー気味な画像と中間の明るさの画像とをブレンドしたときに得られるブレンド比マップ数枚と、図25に示したブレンド比マップとの平均画像を作成し、これをブレンド比マップとする。この処理を図28に示す。このとき、前記したブレンド比マップのスムージングは、作成される最適なブレンド比マップに対してのみ適用する。これは処理時間を短縮するためである。なお、ブレンドに用いるRGB値は、最も明るさの離れた2枚の画像のデータを用いる。図28の場合は図中の左側および右下の明るさ1の画像と明るさ2.5の画像である。図20、21に示す画像において、3枚のブレンド比マップからブレンド比マップを作成してブレンドした結果と、そのときのブレンド比マップを、それぞれ図29、30に示す。人物の左肩の影もなくなりより良い結果が得られている。
For this purpose, as in the case of “use of intermediate image” described above, not only two images to be actually blended but also an image having an intermediate brightness is used. Specifically, an average image of several blend ratio maps obtained by blending an under-ish image and an intermediate brightness image and the blend ratio map shown in FIG. 25 is created and blended. A ratio map is used. This process is shown in FIG. At this time, the smoothing of the blend ratio map described above is applied only to the optimum blend ratio map to be created. This is to shorten the processing time. Note that the RGB values used for blending are data of two images that are the most distant from each other. In the case of FIG. 28, an image with
なお、上述のように複数のブレンド比マップの平均画像を作成することに代えて、たとえばこれら複数の各ブレンド比マップにそれぞれ適宜の係数を乗じたものを加算して新たなブレンド比マップとするなどの、適宜の手法を用いることもできる。 Instead of creating an average image of a plurality of blend ratio maps as described above, for example, a plurality of blend ratio maps multiplied by appropriate coefficients are added to form a new blend ratio map. It is also possible to use an appropriate method such as.
(高速化アルゴリズム)
このRAWデータを用いて処理を行う場合も、同様に、原画像より縮小した縮小画像を作成する。この縮小画像を原画像としてブレンド比マップを作成し、得られたブレンド比マップを原画像のサイズに拡大し、この拡大したブレンド比マップを用いて露出補正画像を作成することができ、これによって処理の高速化を図ることができる。
(Acceleration algorithm)
Similarly, when processing is performed using the RAW data, a reduced image reduced from the original image is created. Using this reduced image as the original image, a blend ratio map can be created, and the resulting blend ratio map can be enlarged to the size of the original image, and this enlarged blend ratio map can be used to create an exposure compensation image. Processing speed can be increased.
(処理のフローチャート)
以上の処理をフローチャートで表したものを図31に示す。この処理は、以下の各工程を含む。
(Processing flowchart)
FIG. 31 shows the above processing in a flowchart. This process includes the following steps.
(a)画像情報を取得する工程、
(b)露出アンダー(Iu)及び露出オーバー(Io)の各1枚の画像と、中間の露出のN枚(但し、Nは0又は1以上の自然数)の画像とをRGB表色系で作成する工程、
(c)重みテーブルを用いて、L*a*b*表色系の性質を持つRGB表色系のカラーヒストグラムを作成する工程、
(d)IuとIoの頻度画像を作成する工程、
(e)IuとIoの平均画像Imを作成し、Imの急峻さを検出して位置可変のガウシアンフィルタのパラメータを決定する工程、
(f)各画素毎にブレンド比を決定し、ガウシアンフィルタを用いて補正されたブレンド比マップを作成する工程、
(g)各画像におけるRGB値のY/C分離を行う工程、
(h)Y成分及びC成分毎にブレンド比を用いて合成画像を作成する工程、
(i)Y成分及びC成分からRGB表色系へ変換する工程、
(j)画像表示(最終画像)を得る工程、
(A) acquiring image information;
(B) An RGB color system using one image each of underexposed (I u ) and overexposed (I o ) and intermediately exposed N images (where N is a natural number of 0 or 1). The process to create in
(C) creating an RGB color system color histogram having L * a * b * color system properties using a weight table;
(D) creating a frequency image of I u and I o ;
(E) creating an average image I m of I u and I o , detecting steepness of I m and determining parameters of a position-variable Gaussian filter;
(F) determining a blend ratio for each pixel and creating a corrected blend ratio map using a Gaussian filter;
(G) a step of performing Y / C separation of RGB values in each image;
(H) creating a composite image using a blend ratio for each of the Y component and the C component;
(I) a step of converting the Y component and the C component into an RGB color system;
(J) obtaining an image display (final image);
(具体例)
露出の不適正な領域と適正な領域が混在する画像を取得し、実験を行った。実験に用いた画像は、ディジタルカメラCanon EOS D30のRAWモードにて撮影し、サイズを半分にして現像した1088×724[pixel]のRGB各8bitのフルカラー画像である。処理はAthlon XP 2500+のCPU、512MB RAMのメモリを搭載したパーソナルコンピュータを用いて行った。処理時間は、画像によって差はあるが、約2.5(min)であった。
(Concrete example)
Experiments were conducted by acquiring images with improperly exposed areas and appropriate areas. The image used in the experiment is a 1088 × 724 [pixel] RGB 8-bit full-color image captured in the RAW mode of the digital camera Canon EOS D30 and developed in half. The processing was performed using a personal computer equipped with an Athlon XP 2500+ CPU and 512 MB RAM memory. The processing time was about 2.5 (min) although there were differences depending on the images.
実験の処理対象となる各2枚の原画像を、図32と33、および図36と37にそれぞれ示す。市販現像ソフトにより現像した結果を図34および38に示し、一方、上述の方法によって露出の不適正な領域を補正した画像を図35および39に示す。 Two original images to be processed in the experiment are shown in FIGS. 32 and 33 and FIGS. 36 and 37, respectively. FIGS. 34 and 38 show the results of development using commercially available development software, while FIGS. 35 and 39 show images obtained by correcting an inappropriate area of exposure by the above-described method.
実験の結果、図32に示す露出アンダー気味の画像では室内が逆光によりつぶれており、図33に示す露出オーバー気味の画像では窓の外の風景が飛んでおり、それぞれ確認できなくなっている。図34の画像は市販ソフトによる現像結果であるが、室内はつぶれており、空の領域にも色の変化が見られない。 As a result of the experiment, in the underexposed image shown in FIG. 32, the room is crushed by backlight, and in the overexposed image shown in FIG. 33, the scenery outside the window is flying and cannot be confirmed. The image in FIG. 34 is the result of development by commercially available software, but the room is crushed and no color change is seen in the empty area.
また別な実験結果である図36に示す画像では、左側半分に影があり暗くなっている。また図37では影の領域は見やすい明るさになっているが、それ以外の領域が飛んでいる。これらを市販ソフトによって補正した図38に示す現像結果は、全体的に暗く見にくい画像となっている。 In the image shown in FIG. 36, which is another experimental result, the left half is shaded and dark. In FIG. 37, the shadow area is bright enough to be seen, but other areas are flying. The development results shown in FIG. 38 in which these are corrected by commercially available software are images that are generally dark and difficult to see.
これらに対し、上述のカラー画像の露出補正方法を適用した実験結果を示す図35の画像は、室内外とも様子が良く確認できる画像となっている。また別の実験結果を示す図39の画像は、露出の不適正な領域はなく、視覚的に自然に影の領域の露出が補正できていることが分かる。 On the other hand, the image of FIG. 35 which shows the experimental result which applied the exposure correction method of the above-mentioned color image is an image which can confirm a state well indoors and outdoors. In the image of FIG. 39 showing another experimental result, it can be seen that there is no improper exposure area and the exposure of the shadow area can be corrected visually.
以上詳述したカラー画像の露出補正方法によると、逆光や影などの明るい領域と暗い領域が混在するシーンのある画像から、実際に人の肉眼で自然に見えるように、露出の不適正な領域のない視覚的に自然な画像を得ることができる。 According to the color image exposure compensation method described in detail above, an area with improper exposure so that it appears natural to the human eye from an image with a scene that contains both bright and dark areas such as backlight and shadow. It is possible to obtain a visually natural image without any image.
なお、上述の「露出の補正方法−1」において説明した手法と、「露出の補正方法−2」において説明した手法とは、それぞれの補正方法において可能な範囲で相互に利用することができる。 It should be noted that the method described in “Exposure correction method-1” and the method described in “Exposure correction method-2” can be mutually used as much as possible in each correction method.
Claims (1)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009119369A JP5050141B2 (en) | 2004-12-01 | 2009-05-18 | Color image exposure evaluation method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004347925 | 2004-12-01 | ||
JP2004347925 | 2004-12-01 | ||
JP2009119369A JP5050141B2 (en) | 2004-12-01 | 2009-05-18 | Color image exposure evaluation method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005342982A Division JP4359662B2 (en) | 2004-12-01 | 2005-11-29 | Color image exposure compensation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009219140A JP2009219140A (en) | 2009-09-24 |
JP5050141B2 true JP5050141B2 (en) | 2012-10-17 |
Family
ID=41190491
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009119369A Active JP5050141B2 (en) | 2004-12-01 | 2009-05-18 | Color image exposure evaluation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5050141B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6173027B2 (en) * | 2013-05-10 | 2017-08-02 | ハンファテクウィン株式会社Hanwha Techwin Co.,Ltd. | Image processing apparatus and image processing method |
JP7418171B2 (en) * | 2019-08-30 | 2024-01-19 | キヤノン株式会社 | Image processing device, radiography system, image processing method and program |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11195115A (en) * | 1997-12-26 | 1999-07-21 | Fuji Photo Film Co Ltd | Method for outputting picture and device therefor |
JP2001008216A (en) * | 1999-06-21 | 2001-01-12 | Matsushita Electric Ind Co Ltd | Image processing unit |
JP3464182B2 (en) * | 1999-11-25 | 2003-11-05 | 徳島県 | Processing color images |
JP4100860B2 (en) * | 2000-06-19 | 2008-06-11 | 株式会社リコー | Image processing apparatus, image processing method, and recording medium |
JP2002290707A (en) * | 2001-03-26 | 2002-10-04 | Olympus Optical Co Ltd | Image processing device |
JP3817635B2 (en) * | 2002-11-26 | 2006-09-06 | 学校法人慶應義塾 | Color image processing apparatus and processing method |
JP4081609B2 (en) * | 2003-03-26 | 2008-04-30 | 富士フイルム株式会社 | Imaging device |
US7463296B2 (en) * | 2004-04-01 | 2008-12-09 | Microsoft Corporation | Digital cameras with luminance correction |
-
2009
- 2009-05-18 JP JP2009119369A patent/JP5050141B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2009219140A (en) | 2009-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9852499B2 (en) | Automatic selection of optimum algorithms for high dynamic range image processing based on scene classification | |
CN105144233B (en) | Reference picture selection for moving ghost image filtering | |
EP2624204B1 (en) | Image processing apparatus and method of controlling the same | |
TWI464706B (en) | Dark portion exposure compensation method for simulating high dynamic range with single image and image processing device using the same | |
JP4208909B2 (en) | Image processing device and photographing device | |
CN107045715A (en) | A kind of method that single width low dynamic range echograms generates high dynamic range images | |
JP2001126075A (en) | Method and device for picture processing, and recording medium | |
US8861849B2 (en) | Image processing | |
JP2018006912A (en) | Imaging apparatus, image processing apparatus, and control method and program of the same | |
US20180025476A1 (en) | Apparatus and method for processing image, and storage medium | |
Kao | High dynamic range imaging by fusing multiple raw images and tone reproduction | |
CN113450266A (en) | Image processing apparatus, image processing system, and image processing method | |
WO2008102296A2 (en) | Method for enhancing the depth sensation of an image | |
JP2020145594A (en) | Image processing apparatus, image processing method, and imaging apparatus | |
US9092889B2 (en) | Image processing apparatus, image processing method, and program storage medium | |
JP5050141B2 (en) | Color image exposure evaluation method | |
CN115689903A (en) | Image processing method and device, equipment and storage medium | |
JP4359662B2 (en) | Color image exposure compensation method | |
CN110246086A (en) | The image processing method and its image processing system of color image enhancement | |
WO2022067761A1 (en) | Image processing method and apparatus, capturing device, movable platform, and computer readable storage medium | |
JP7277156B2 (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM | |
JP3731741B2 (en) | Color moving image processing method and processing apparatus | |
JP6627530B2 (en) | Image processing device and program | |
JP5752993B2 (en) | Image processing apparatus and image processing program | |
JP4445026B2 (en) | Image processing method, apparatus, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090615 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120306 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120403 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5050141 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150803 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |